In den USA erhält eine Mutter einen beunruhigenden Anruf, in dem es so klingt, als sei ihre 15-jährige Tochter im Skiurlaub entführt worden. Es handelt sich jedoch um eine KI, die die Stimme ihrer Tochter imitiert.
Entführung nur vorgetäuscht!
Mit einer besonders hinterhältigen und fiesen Methode haben Kriminelle in den USA versucht, eine Mutter am Telefon zu betrügen. Jennifer DeStefano aus Arizona berichtet, dass Betrüger die Stimme ihrer Tochter nachgeahmt haben, um eine Entführung vorzutäuschen und Lösegeld zu fordern.
DeStefano sagte dem Sender WKYT, sie habe einen Anruf von einer unbekannten Nummer erhalten. Da ihre 15-jährige Tochter Brie im Skiurlaub war, nahm sie den Anruf aus Sorge um einen möglichen Unfall an. Dann hörte sie die Stimme ihrer Tochter, die „Mama“ sagte und schluchzte.
“I said, ‘What happened?’ And she said, ‘Mom, I messed up,’ and she’s sobbing and crying.”
„Ich fragte: ‚Was ist passiert? Und sie antwortete: ‚Mama, ich habe einen Fehler gemacht‘, und sie schluchzte und weinte“.
Die Mutter betonte später, dass sie keinen Zweifel daran hatte, dass es die Stimme ihrer Tochter war. „Es war ihre Stimme. Es war ihre Art zu sprechen. So hätte sie geweint“, sagte sie. Dann erklärte eine Männerstimme, dass es sich um eine Entführung handle und er ihre Tochter in seiner Gewalt habe. Gegen eine Zahlung von einer Million Dollar würde er sie wieder freilassen. Als DeStefano sagte, dass sie nicht so viel Geld habe, wurde die Forderung auf 50.000 Dollar reduziert.
Während DeStefano im Tanzstudio ihrer anderen Tochter war, rief eine befreundete Mutter sofort die Polizei, eine andere kontaktierte ihren Ehemann. Innerhalb kürzester Zeit war es klar, dass Ihre Tochter in Sicherheit ist und nicht entführt wurde.
Fakt ist: Die Stimme des Mädchens wurde von einer künstlichen Intelligenz erzeugt.
WKYT zitiert einen KI-Experten und Informatikprofessor von der Arizona State University, mit den Worten, dass die Technologie der Stimmerzeugung rasche Fortschritte mache. „Man kann seinen Ohren nicht mehr trauen“. Früher habe man dazu viele Stimmproben benötigt, heute genüge ein dreisekündiger Ausschnitt. Dies berichtet auch „derStandard“ Neue Microsoft-KI kann Stimmen nach nur drei Sekunden imitieren
Laut FBI verwenden Kriminelle häufig Stimmen aus sozialen Netzwerken. Um sich zu schützen, sollten die Profile privat eingestellt und nicht öffentlich sichtbar sein. In DeStefanos Fall hatte ihre Tochter jedoch kein öffentliches Social-Media-Konto.
Stimmimitation mit KI?
Die Ermittler empfehlen außerdem, bei ähnlichen Anrufen Ruhe zu bewahren und bei Anrufen von unbekannten oder internationalen Nummern wachsam zu sein. Es ist sinnvoll, Fragen zu persönlichen Informationen zu stellen, die die Entführer kaum kennen können. In den USA sind bereits mehrere solcher Erpressungsanrufe bekannt geworden.
DeStefano erlebte nur wenige Minuten der Angst, bis sich herausstellte, dass ihre Tochter in Sicherheit war. Sie zahlte kein Lösegeld. Dennoch brach sie danach emotional zusammen und sagte: „Es waren Tränen für all die Was-wäre-wenn. Alles schien so real.“
DeStefano warnt auch auf Facebook mit den Worten: „Der einzige Weg, dies zu stoppen, ist mit dem Bewusstsein der Öffentlichkeit“
Dieser Vorfall zeigt, wie weit die KI-Technologien fortgeschritten sind und dass es immer wichtiger wird, sich vor solchen Betrügereien zu schützen. In solchen Fällen ist es ratsam, die Polizei zu kontaktieren und keine Zahlungen zu leisten, bis die Situation geklärt ist. Experten empfehlen, bei Anrufen von unbekannten oder internationalen Nummern besonders wachsam zu sein und Fragen zu stellen, die die Entführer nicht beantworten können. Ferner sollten persönliche Informationen in sozialen Medien auf ein Minimum reduziert und Profile im privaten Modus gehalten werden, um das Risiko eines solchen Betrugs zu verringern.
Quelle:
WKYT: ‘I’ve got your sauguter’: Mom warns of terrifying AI voice cloning scam that faked kidnapping
Lesen Sie auch:
Missbrauch von ChatGPT: KI-Modell zur Erstellung von Schadsoftware eingesetzt
ChatGPT – Wie Betrüger und Kriminelle Künstliche Intelligenz für Betrug, Falschinformation und Cybercrime nutzen
Wenn dir dieser Beitrag gefallen hat und du die Bedeutung fundierter Informationen schätzt, werde Teil des exklusiven Mimikama Clubs! Unterstütze unsere Arbeit und hilf uns, Aufklärung zu fördern und Falschinformationen zu bekämpfen. Als Club-Mitglied erhältst du:
📬 Wöchentlichen Sonder-Newsletter: Erhalte exklusive Inhalte direkt in dein Postfach.
🎥 Exklusives Video* „Faktenchecker-Grundkurs“: Lerne von Andre Wolf, wie du Falschinformationen erkennst und bekämpfst.
📅 Frühzeitiger Zugriff auf tiefgehende Artikel und Faktenchecks: Sei immer einen Schritt voraus.
📄 Bonus-Artikel, nur für dich: Entdecke Inhalte, die du sonst nirgendwo findest.
📝 Teilnahme an Webinaren und Workshops: Sei live dabei oder sieh dir die Aufzeichnungen an.
✔️ Qualitativer Austausch: Diskutiere sicher in unserer Kommentarfunktion ohne Trolle und Bots.
Mach mit und werde Teil einer Community, die für Wahrheit und Klarheit steht. Gemeinsam können wir die Welt ein bisschen besser machen!
* In diesem besonderen Kurs vermittelt dir Andre Wolf, wie du Falschinformationen erkennst und effektiv bekämpfst. Nach Abschluss des Videos hast du die Möglichkeit, dich unserem Rechercheteam anzuschließen und aktiv an der Aufklärung mitzuwirken – eine Chance, die ausschließlich unseren Club-Mitgliedern vorbehalten ist!
Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)

