Bei Schockanrufen verwenden Betrüger inzwischen auch Künstliche Intelligenz. Wie die Verbraucherzentrale Bremen am Dienstag mitteilte, erstellen Kriminelle mithilfe neuer Technologien Stimmen, die täuschend echt klingen. Angerufene Personen hören am Telefon dann die vermeintlich vertraute Stimme eines nahestehenden Menschen, der mit Verweis auf eine Notsituation um Geld bittet. «Der eingesprochene Hilferuf am Telefon ist oftmals schwer als Fake-Anruf zu erkennen», sagte die Referentin für Verbraucherrecht der Verbraucherzentrale Bremen, Nicole Bahn, laut Mitteilung. Sie verwies darauf, dass Menschen aller Altersklassen Ziel von solchen Betrugs-Anrufen werden. Es könne nicht mehr nur vom sogenannten Enkeltrick die Rede sein.
Nach Angaben der Verbraucherzentrale reichen zum Nachahmen der jeweiligen Stimme kurze Sprachaufnahmen, die Kriminelle zum Beispiel aus den sozialen Medien ziehen und manipulieren. «So entstehen Audio-Dateien, in denen man Personen Sachen sagen hört, die sie so nicht gesagt haben», sagte Bahn. Sie verwies darauf, dass sich im Internet zahlreiche Dienste finden, mit denen Audio-Dateien erstellt und anhand von Stimmreglern angepasst werden können.
Technisch gesehen sei es schwierig, eine Stimme als eine nachgeahmte zu erkennen, so die Verbraucherzentrale. Aber: Die Künstliche Intelligenz, die hinter der Erstellung solcher sogenannter Deep-Fakes steht, sei nicht perfekt und produziere mitunter Lücken oder eine Unnatürlichkeit im Gespräch. Um sich vor einem KI-Telefonbetrug zu schützen, sollten Menschen solche Telefonate beenden und den vermeintlichen Anrufer unter der bekannten Nummer zurückrufen. Hilfreich seien auch Fragen, auf die nur die echte Person eine Antwort kenne. Wer einen verdächtigen Anruf erhalte, solle sich Datum, Uhrzeit und Telefonnummer notieren und bei der Polizei Strafanzeige erstatten.
Copyright 2024, dpa (www.dpa.de). Alle Rechte vorbehalten