Die Seniorin schenkte dem Kriminellen Glauben und \u00fcbergab in Esslingen einen Teil des geforderten Gelds an eine Komplizin<\/strong> des Anrufers. <\/li>\n<\/ul>\n\n\n\nF\u00e4lle wie diese h\u00e4ufen sich. Polizeistationen aus ganz Deutschland berichten von zahlreichen erfolgreichen Betr\u00fcgereien und noch viel mehr versuchten Schockanrufen dieser Art. <\/p>\n\n\n
Tag der gewaltfreien Erziehung: Augen auf beim Sport!<\/a><\/li>\nUnterwegs sicher versorgt<\/a><\/li>\nGeschwister: So vermeidest du Streit und Rivalit\u00e4t<\/a><\/li>\nSchwimmlernhilfen: Gut schon f\u00fcr sieben Euro<\/a><\/li>\nTrennung der Eltern: So f\u00fchlen sich Kinder<\/a><\/li>\n<\/ul>\n\n\nKI macht die betr\u00fcgerischen Anrufe noch gemeiner<\/h2>\n\n\n\n Der Spam-Schutz-Experte Thomas Wrobel warnt davor, dass k\u00fcnstliche Intelligenz die Schockanrufe auf eine neue, noch gemeinere Ebene heben kann<\/strong>. Er erkl\u00e4rt, wie das funktioniert: <\/p>\n\n\n\n\nDie Anrufer f\u00e4lschen dabei die Stimmen echter Angeh\u00f6riger<\/strong> mittels Deep Fakes. <\/li>\n\n\n\nDer Begriff setzt sich zusammen aus den W\u00f6rtern “Deep Learning” und “Fake”. Ersteres bezieht sich auf ein maschinelles Lernen, bei dem Daten analysiert und Muster erkannt werden. Hierdurch k\u00f6nnen k\u00fcnstliche Inhalte erstellt und damit Stimmen generiert, manipuliert und somit auch gef\u00e4lscht (Fake) werden. <\/li>\n\n\n\n Die Stimmimitationstechnologie ist dabei so gut, dass sie andere Personen nahezu perfekt nachahmen<\/strong> kann.<\/li>\n<\/ul>\n\n\n\nIst diese Person echt oder hat eine KI nachgeholfen?<\/figcaption><\/figure>\n\n\n\n\nDie Stimmen zum \u00dcben holen sich die Betr\u00fcger zum Beispiel aus den sozi<\/strong>alen Netzwerken. <\/li>\n\n\n\nAufnahmen auf TikTok, Instagram und Co. werden genutzt, um die synthetische Stimme zu trainieren. <\/li>\n\n\n\n So lernt die KI, wie reale Menschen zu klingen und die echten Angeh\u00f6rigen zu imitieren. <\/li>\n\n\n\n Auch Sprachbarrieren sind mittlerweile kein Hindernis mehr<\/strong>. Fr\u00fcher konnte ein vermeintlicher Betrug oft schon als solches enttarnt werden, weil das Gegen\u00fcber am Telefon nur gebrochen Deutsch gesprochen hat. <\/li>\n\n\n\nDoch Programme wie ChatGPT k\u00f6nnen m\u00fchelos und binnen von Sekunden fehlerfreie Texte verfassen, die von der gef\u00e4lschten Stimme nur noch vorgelesen werden m\u00fcssen.<\/li>\n<\/ul>\n\n\n\nBesonders im Hinblick darauf, dass f\u00fcr einen gelungenen Betrug erst das Vertrauen der Gesch\u00e4digten gewonnen werden <\/strong>musste, haben die Gauner nun leichtes Spiel. Denn die imitierte Person ist ja dem Angerufenen scheinbar bekannt und genie\u00dft daher meist bereits einen Vertrauensstatus<\/strong>. Die Gefahr, damit schneller das Ersparte zu verlieren, ist also um ein Vielfaches gr\u00f6\u00dfer.<\/p>\n\n\n\n