Ein Vater wäre beinahe auf einen KI-Telefonbetrug hereingefallen. Jetzt meldet er sich zu Wort, um anderen zu helfen

By | November 29, 2023

WAls Gary Schildhorn im Jahr 2020 auf dem Weg zurück zur Arbeit den Hörer abnahm, hörte er am anderen Ende die panische Stimme seines Sohnes Brett.

Zumindest dachte er das.

Ein verzweifelter Brett erzählte Herrn Schildhorn, dass er das Auto zerstört hatte und 9.000 Dollar brauchte, um ihn zu retten. Brett sagte, er habe eine gebrochene Nase, sei mit dem Auto einer schwangeren Frau zusammengefahren und habe seinen Vater angewiesen, den für seinen Fall zuständigen Bezirksstaatsanwalt anzurufen.

Schildhorn gehorchte, doch ein kurzes Telefonat mit dem vermeintlichen Pflichtverteidiger, der ihm befahl, das Geld über einen Bitcoin-Kiosk zu schicken, löste bei dem besorgten Vater Unbehagen aus. Nach einem Folgegespräch mit Brett wurde Schildhorn klar, dass sie beinahe Opfer dessen geworden wäre, was die Federal Trade Commission als „Familiennotfallbetrug“ bezeichnete.

„Ein FaceTime-Anruf von meinem Sohn, er zeigt auf seine Nase und sagt: ‚Mir geht es gut, mir geht es gut, Sie werden betrogen‘“, sagte Schildhorn, ein Unternehmensanwalt in Philadelphia, dem Kongress während einer Anhörung zuvor Monat . „Ich saß da ​​in meinem Auto, ich war körperlich davon betroffen. Es war Schock, Wut und Erleichterung.“

Bei dem aufwändigen Plan nutzen Betrüger künstliche Intelligenz, um die Stimme einer Person zu klonen und diese dann dazu zu nutzen, Angehörige dazu zu verleiten, Geld zu schicken, um einen vermeintlichen Notfall abzudecken. Als er die örtliche Strafverfolgungsbehörde kontaktierte, wurde Schildhorn an das FBI weitergeleitet, das ihm dann mitteilte, dass die Behörde von der Art des Betrugs wisse, sich aber nicht einmischen könne, es sei denn, das Geld werde ins Ausland geschickt.

Die FTC schlug erstmals im März Alarm; Vertraue der Stimme nicht. Die Agentur warnte die Verbraucher, dass die Zeiten des ungeschickten, leicht erkennbaren Betrugs längst vorbei seien und dass ausgefeilte Technologien eine Reihe neuer Herausforderungen mit sich gebracht hätten, denen die Behörden immer noch zu begegnen versuchen.

Um eine menschliche Stimme nachzubilden, ist lediglich eine kurze Audioaufnahme der sprechenden Person erforderlich – in manchen Fällen leicht zugänglich über Inhalte, die in sozialen Medien gepostet werden. Die Stimme wird von einem KI-Programm zum Klonen von Stimmen nachgeahmt, sodass sie genau wie der Originalclip klingt.

Neue KI-Betrügereien ahmen geliebte Menschen in Schwierigkeiten nach

Manche Programme benötigen lediglich einen dreisekündigen Audioclip, um zu erzeugen, was der Betrüger mit einer bestimmten Emotion oder einem bestimmten Sprachstil beabsichtigt PC-Magazin. Es besteht auch die Gefahr, dass ratlose Familienmitglieder, die ans Telefon gehen und Fragen stellen, um die Geschichte des Betrügers zu untermauern, ebenfalls aufgezeichnet werden könnten, wodurch den Betrügern unbeabsichtigt noch mehr Munition geliefert wird.

„Betrüger fordern Sie auf, Geld auf eine Weise zu zahlen oder zu senden, die es schwierig macht, Ihr Geld zurückzubekommen“, heißt es in der FTC-Meldung. „Wenn der Anrufer Sie auffordert, Geld zu überweisen, Kryptowährungen zu verschicken oder Geschenkkarten zu kaufen, und dabei Kartennummern und PINs angibt, könnte das ein Zeichen von Betrug sein.“

Die Zunahme von Betrügereien beim Klonen von KI-Stimmen hat den Gesetzgeber gezwungen, nach Möglichkeiten zu suchen, um den Einsatz neuer Technologien zu regulieren. Während einer Anhörung im Senat im Juni berichtete Jennifer DeStefano, Mutter aus Pennsylvania, über ihre eigenen Erfahrungen mit Betrugsversuchen beim Klonen von Stimmen und wie sie davon erschüttert wurde.

Bei der Anhörung im Juni sagte Stefano, sie habe am Telefon gehört, wer ihrer Meinung nach ihre 15-jährige Tochter sei, die weinte und schluchzte, bevor ihr ein Mann sagte, er würde „bombardieren“. [the teen’s] Wenn ihre Mutter die Polizei rief, sagte sie, sie solle den Magen voller Drogen nehmen und sie nach Mexiko schicken. Ein Anruf bei ihrer Tochter bestätigte, dass sie in Sicherheit sei.

„Ich werde diese Stimme und diesen verzweifelten Hilferuf nie aus meinem Kopf bekommen“, sagte DeStefano damals. „Der Schaden, den KI anrichten kann, ist unbegrenzt. Wenn es unkontrolliert und unreguliert bleibt, wird es das Konzept dessen, was real ist und was nicht, neu schreiben.“

(C-SPAN)

Leider schützt die bestehende Gesetzgebung die Opfer dieser Art von Betrug nicht.

IP-Experte Michael Teich schrieb in einer August-Kolumne für IPWatchdog, dass in einigen Fällen von Voice-Cloning-Betrügereien möglicherweise Gesetze zum Schutz der Privatsphäre gelten, diese jedoch nur von der Person, deren Stimme verwendet wurde, und nicht vom Opfer des Betrugs ausgelöst werden können.

Die bestehenden Urheberrechtsgesetze erkennen jedoch nicht das Eigentum an der Stimme einer Person an.

„Es hat mich frustriert, weil ich in Verbraucherbetrugsfälle verwickelt war und fast darauf reingefallen wäre“, sagte Schildhorn dem Kongress. „Das Einzige, was ich zu tun glaubte, war, die Leute zu warnen … Ich bekam Anrufe von Leuten aus dem ganzen Land, die … Geld verloren und am Boden zerstört waren. Sie waren emotional und körperlich verletzt, sie verlangten fast nach einer Umarmung.“

Die FTC hat noch keine Anforderungen für Unternehmen festgelegt, die Programme zum Klonen von Stimmen entwickeln. Laut Teich könnten ihnen jedoch rechtliche Konsequenzen drohen, wenn sie in Zukunft keine Schutzmaßnahmen vorsehen.

Um der wachsenden Zahl von Voice-Cloning-Betrügereien entgegenzuwirken, hat die FTC einen offenen Aufruf zum Handeln angekündigt. Die Teilnehmer sind eingeladen, Lösungen zu entwickeln, die Verbraucher vor den Schäden des Stimmenklonens schützen. Die Gewinner erhalten einen Preis von 25.000 US-Dollar.

Die Agentur fordert Opfer von Voice-Cloning-Betrug auf, diesen Betrug auf ihrer Website zu melden.

Leave a Reply

Your email address will not be published. Required fields are marked *