In den USA erhält eine Mutter einen beunruhigenden Anruf, in dem es so klingt, als sei ihre 15-jährige Tochter im Skiurlaub entführt worden. Es handelt sich jedoch um eine KI, die die Stimme ihrer Tochter imitiert.

Entführung nur vorgetäuscht!

Mit einer besonders hinterhältigen und fiesen Methode haben Kriminelle in den USA versucht, eine Mutter am Telefon zu betrügen. Jennifer DeStefano aus Arizona berichtet, dass Betrüger die Stimme ihrer Tochter nachgeahmt haben, um eine Entführung vorzutäuschen und Lösegeld zu fordern.

DeStefano sagte dem Sender WKYT, sie habe einen Anruf von einer unbekannten Nummer erhalten. Da ihre 15-jährige Tochter Brie im Skiurlaub war, nahm sie den Anruf aus Sorge um einen möglichen Unfall an. Dann hörte sie die Stimme ihrer Tochter, die „Mama“ sagte und schluchzte.

“I said, ‘What happened?’ And she said, ‘Mom, I messed up,’ and she’s sobbing and crying.”

„Ich fragte: ‚Was ist passiert? Und sie antwortete: ‚Mama, ich habe einen Fehler gemacht‘, und sie schluchzte und weinte“.

Die Mutter betonte später, dass sie keinen Zweifel daran hatte, dass es die Stimme ihrer Tochter war. „Es war ihre Stimme. Es war ihre Art zu sprechen. So hätte sie geweint“, sagte sie. Dann erklärte eine Männerstimme, dass es sich um eine Entführung handle und er ihre Tochter in seiner Gewalt habe. Gegen eine Zahlung von einer Million Dollar würde er sie wieder freilassen. Als DeStefano sagte, dass sie nicht so viel Geld habe, wurde die Forderung auf 50.000 Dollar reduziert.

Während DeStefano im Tanzstudio ihrer anderen Tochter war, rief eine befreundete Mutter sofort die Polizei, eine andere kontaktierte ihren Ehemann. Innerhalb kürzester Zeit war es klar, dass Ihre Tochter in Sicherheit ist und nicht entführt wurde.

Fakt ist: Die Stimme des Mädchens wurde von einer künstlichen Intelligenz erzeugt.

WKYT zitiert einen KI-Experten und Informatikprofessor von der Arizona State University, mit den Worten, dass die Technologie der Stimmerzeugung rasche Fortschritte mache. „Man kann seinen Ohren nicht mehr trauen“. Früher habe man dazu viele Stimmproben benötigt, heute genüge ein dreisekündiger Ausschnitt. Dies berichtet auch „derStandard“ Neue Microsoft-KI kann Stimmen nach nur drei Sekunden imitieren

Laut FBI verwenden Kriminelle häufig Stimmen aus sozialen Netzwerken. Um sich zu schützen, sollten die Profile privat eingestellt und nicht öffentlich sichtbar sein. In DeStefanos Fall hatte ihre Tochter jedoch kein öffentliches Social-Media-Konto.


Stimmimitation mit KI?

Stimmimitation mit KI, auch bekannt als Sprachsynthese oder Sprachklonung, bezieht sich auf die Verwendung von künstlicher Intelligenz, um die menschliche Stimme nachzuahmen oder zu reproduzieren. Hier ist eine Übersicht über den Prozess der Stimmimitation mit KI:

  1. Datensammlung: Zunächst wird eine große Menge an Sprachaufnahmen der Person gesammelt, deren Stimme imitiert werden soll. Diese Aufnahmen sollten möglichst unterschiedliche Sprechsituationen und Tonlagen abdecken, um eine umfassende Darstellung der Stimme zu erhalten.
  2. Vorverarbeitung: Die Sprachaufnahmen werden vorverarbeitet, um Hintergrundgeräusche und andere Störungen zu entfernen. Die Daten werden dann in kleinere Segmente unterteilt, um die Analyse zu erleichtern.
  3. Merkmalsextraktion: Aus den vorverarbeiteten Sprachdaten werden Merkmale wie Tonhöhe, Lautstärke, Klangfarbe und Sprechgeschwindigkeit extrahiert. Diese Merkmale dienen als Grundlage für das Training des KI-Modells.
  4. KI-Modell-Training: Ein neuronales Netzwerk, beispielsweise ein Long Short-Term Memory (LSTM) oder ein Transformer-Modell, wird mit den extrahierten Merkmalen trainiert. Das Modell lernt, Muster in den Daten zu erkennen und sie zu verallgemeinern, um eine möglichst ähnliche Stimme zu erzeugen.
  5. Text-zu-Sprache-Synthese (TTS): Nachdem das KI-Modell trainiert wurde, kann es für die Stimmimitation verwendet werden. Dazu wird ein Text in das Modell eingegeben, das daraufhin eine Audioausgabe erzeugt, die der imitierten Stimme ähnlich klingt.
  6. Feinabstimmung: Die erzeugte Stimmimitation kann weiter optimiert werden, indem das Modell iterativ angepasst und verbessert wird. Dies kann durch zusätzliches Training oder durch das Anpassen der Hyperparameter des Modells geschehen.

Die Ermittler empfehlen außerdem, bei ähnlichen Anrufen Ruhe zu bewahren und bei Anrufen von unbekannten oder internationalen Nummern wachsam zu sein. Es ist sinnvoll, Fragen zu persönlichen Informationen zu stellen, die die Entführer kaum kennen können. In den USA sind bereits mehrere solcher Erpressungsanrufe bekannt geworden.
DeStefano erlebte nur wenige Minuten der Angst, bis sich herausstellte, dass ihre Tochter in Sicherheit war. Sie zahlte kein Lösegeld. Dennoch brach sie danach emotional zusammen und sagte: „Es waren Tränen für all die Was-wäre-wenn. Alles schien so real.“

DeStefano warnt auch auf Facebook mit den Worten: „Der einzige Weg, dies zu stoppen, ist mit dem Bewusstsein der Öffentlichkeit“

Facebook

Mit dem Laden des Beitrags akzeptieren Sie die Datenschutzerklärung von Facebook.
Mehr erfahren

Beitrag laden

Dieser Vorfall zeigt, wie weit die KI-Technologien fortgeschritten sind und dass es immer wichtiger wird, sich vor solchen Betrügereien zu schützen. In solchen Fällen ist es ratsam, die Polizei zu kontaktieren und keine Zahlungen zu leisten, bis die Situation geklärt ist. Experten empfehlen, bei Anrufen von unbekannten oder internationalen Nummern besonders wachsam zu sein und Fragen zu stellen, die die Entführer nicht beantworten können. Ferner sollten persönliche Informationen in sozialen Medien auf ein Minimum reduziert und Profile im privaten Modus gehalten werden, um das Risiko eines solchen Betrugs zu verringern.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Quelle:
WKYT: ‘I’ve got your sauguter’: Mom warns of terrifying AI voice cloning scam that faked kidnapping


Lesen Sie auch:
Missbrauch von ChatGPT: KI-Modell zur Erstellung von Schadsoftware eingesetzt
ChatGPT – Wie Betrüger und Kriminelle Künstliche Intelligenz für Betrug, Falschinformation und Cybercrime nutzen


Unsere virtuelle Faktencheck-Bewertungsskala: Bei der Überprüfung von Fakten, in der Kategorie der „Faktenchecks„, nutzen wir eine klare Bewertungsskala, um die Zuverlässigkeit der Informationen zu klassifizieren. Hier eine kurze Erläuterung unserer Kategorien:

  • Rot (Falsch/Irreführend): Markiert Informationen, die definitiv falsch oder irreführend sind.
  • Gelb (Vorsicht/Unbewiesen/Fehlender Kontext/Satire): Für Inhalte, deren Wahrheitsgehalt unklar ist, die mehr Kontext benötigen oder satirisch sind.
  • Grün (Wahr): Zeigt an, dass Informationen sorgfältig geprüft und als wahr bestätigt wurden.

Unterstütze jetzt Mimikama – Für Wahrheit und Demokratie! Gründlicher Recherchen und das Bekämpfen von Falschinformationen sind heute wichtiger für unsere Demokratie als jemals zuvor. Unsere Inhalte sind frei zugänglich, weil jeder das Recht auf verlässliche Informationen hat. Unterstützen Sie Mimikama

Mehr von Mimikama

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)