Kriminelle nutzen KI, um Entführung vorzutäuschen!

Eine Mutter in den USA wird durch einen beunruhigenden Anruf verunsichert, bei dem es scheint, als sei ihre Tochter im Skiurlaub entführt worden, doch tatsächlich handelt es sich um eine KI, die ihre Tochter imitiert.

Autor: Tom Wannenmacher

Wir brauchen deine Hilfe – Unterstütze uns!
In einer Welt, die zunehmend von Fehlinformationen und Fake News überflutet wird, setzen wir bei Mimikama uns jeden Tag dafür ein, dir verlässliche und geprüfte Informationen zu bieten. Unser Engagement im Kampf gegen Desinformation bedeutet, dass wir ständig aufklären und informieren müssen, was natürlich auch Kosten verursacht.

Deine Unterstützung ist jetzt wichtiger denn je.
Wenn du den Wert unserer Arbeit erkennst und die Bedeutung einer gut informierten Gesellschaft für die Demokratie schätzt, bitten wir dich, über eine finanzielle Unterstützung nachzudenken.

Schon kleine Beiträge können einen großen Unterschied machen und helfen uns, unsere Unabhängigkeit zu bewahren und unsere Mission fortzusetzen.
So kannst du helfen!
PayPal: Für schnelle und einfache Online-Zahlungen.
Steady: für regelmäßige Unterstützung.

In den USA erhält eine Mutter einen beunruhigenden Anruf, in dem es so klingt, als sei ihre 15-jährige Tochter im Skiurlaub entführt worden. Es handelt sich jedoch um eine KI, die die Stimme ihrer Tochter imitiert.

Entführung nur vorgetäuscht!

Mit einer besonders hinterhältigen und fiesen Methode haben Kriminelle in den USA versucht, eine Mutter am Telefon zu betrügen. Jennifer DeStefano aus Arizona berichtet, dass Betrüger die Stimme ihrer Tochter nachgeahmt haben, um eine Entführung vorzutäuschen und Lösegeld zu fordern.

DeStefano sagte dem Sender WKYT, sie habe einen Anruf von einer unbekannten Nummer erhalten. Da ihre 15-jährige Tochter Brie im Skiurlaub war, nahm sie den Anruf aus Sorge um einen möglichen Unfall an. Dann hörte sie die Stimme ihrer Tochter, die „Mama“ sagte und schluchzte.

“I said, ‘What happened?’ And she said, ‘Mom, I messed up,’ and she’s sobbing and crying.”

„Ich fragte: ‚Was ist passiert? Und sie antwortete: ‚Mama, ich habe einen Fehler gemacht‘, und sie schluchzte und weinte“.

Die Mutter betonte später, dass sie keinen Zweifel daran hatte, dass es die Stimme ihrer Tochter war. „Es war ihre Stimme. Es war ihre Art zu sprechen. So hätte sie geweint“, sagte sie. Dann erklärte eine Männerstimme, dass es sich um eine Entführung handle und er ihre Tochter in seiner Gewalt habe. Gegen eine Zahlung von einer Million Dollar würde er sie wieder freilassen. Als DeStefano sagte, dass sie nicht so viel Geld habe, wurde die Forderung auf 50.000 Dollar reduziert.

Während DeStefano im Tanzstudio ihrer anderen Tochter war, rief eine befreundete Mutter sofort die Polizei, eine andere kontaktierte ihren Ehemann. Innerhalb kürzester Zeit war es klar, dass Ihre Tochter in Sicherheit ist und nicht entführt wurde.

Fakt ist: Die Stimme des Mädchens wurde von einer künstlichen Intelligenz erzeugt.

WKYT zitiert einen KI-Experten und Informatikprofessor von der Arizona State University, mit den Worten, dass die Technologie der Stimmerzeugung rasche Fortschritte mache. „Man kann seinen Ohren nicht mehr trauen“. Früher habe man dazu viele Stimmproben benötigt, heute genüge ein dreisekündiger Ausschnitt. Dies berichtet auch „derStandard“ Neue Microsoft-KI kann Stimmen nach nur drei Sekunden imitieren

Laut FBI verwenden Kriminelle häufig Stimmen aus sozialen Netzwerken. Um sich zu schützen, sollten die Profile privat eingestellt und nicht öffentlich sichtbar sein. In DeStefanos Fall hatte ihre Tochter jedoch kein öffentliches Social-Media-Konto.


Stimmimitation mit KI?

Stimmimitation mit KI, auch bekannt als Sprachsynthese oder Sprachklonung, bezieht sich auf die Verwendung von künstlicher Intelligenz, um die menschliche Stimme nachzuahmen oder zu reproduzieren. Hier ist eine Übersicht über den Prozess der Stimmimitation mit KI:

  1. Datensammlung: Zunächst wird eine große Menge an Sprachaufnahmen der Person gesammelt, deren Stimme imitiert werden soll. Diese Aufnahmen sollten möglichst unterschiedliche Sprechsituationen und Tonlagen abdecken, um eine umfassende Darstellung der Stimme zu erhalten.
  2. Vorverarbeitung: Die Sprachaufnahmen werden vorverarbeitet, um Hintergrundgeräusche und andere Störungen zu entfernen. Die Daten werden dann in kleinere Segmente unterteilt, um die Analyse zu erleichtern.
  3. Merkmalsextraktion: Aus den vorverarbeiteten Sprachdaten werden Merkmale wie Tonhöhe, Lautstärke, Klangfarbe und Sprechgeschwindigkeit extrahiert. Diese Merkmale dienen als Grundlage für das Training des KI-Modells.
  4. KI-Modell-Training: Ein neuronales Netzwerk, beispielsweise ein Long Short-Term Memory (LSTM) oder ein Transformer-Modell, wird mit den extrahierten Merkmalen trainiert. Das Modell lernt, Muster in den Daten zu erkennen und sie zu verallgemeinern, um eine möglichst ähnliche Stimme zu erzeugen.
  5. Text-zu-Sprache-Synthese (TTS): Nachdem das KI-Modell trainiert wurde, kann es für die Stimmimitation verwendet werden. Dazu wird ein Text in das Modell eingegeben, das daraufhin eine Audioausgabe erzeugt, die der imitierten Stimme ähnlich klingt.
  6. Feinabstimmung: Die erzeugte Stimmimitation kann weiter optimiert werden, indem das Modell iterativ angepasst und verbessert wird. Dies kann durch zusätzliches Training oder durch das Anpassen der Hyperparameter des Modells geschehen.

Die Ermittler empfehlen außerdem, bei ähnlichen Anrufen Ruhe zu bewahren und bei Anrufen von unbekannten oder internationalen Nummern wachsam zu sein. Es ist sinnvoll, Fragen zu persönlichen Informationen zu stellen, die die Entführer kaum kennen können. In den USA sind bereits mehrere solcher Erpressungsanrufe bekannt geworden.
DeStefano erlebte nur wenige Minuten der Angst, bis sich herausstellte, dass ihre Tochter in Sicherheit war. Sie zahlte kein Lösegeld. Dennoch brach sie danach emotional zusammen und sagte: „Es waren Tränen für all die Was-wäre-wenn. Alles schien so real.“

DeStefano warnt auch auf Facebook mit den Worten: „Der einzige Weg, dies zu stoppen, ist mit dem Bewusstsein der Öffentlichkeit“

Dieser Vorfall zeigt, wie weit die KI-Technologien fortgeschritten sind und dass es immer wichtiger wird, sich vor solchen Betrügereien zu schützen. In solchen Fällen ist es ratsam, die Polizei zu kontaktieren und keine Zahlungen zu leisten, bis die Situation geklärt ist. Experten empfehlen, bei Anrufen von unbekannten oder internationalen Nummern besonders wachsam zu sein und Fragen zu stellen, die die Entführer nicht beantworten können. Ferner sollten persönliche Informationen in sozialen Medien auf ein Minimum reduziert und Profile im privaten Modus gehalten werden, um das Risiko eines solchen Betrugs zu verringern.

Quelle:
WKYT: ‘I’ve got your sauguter’: Mom warns of terrifying AI voice cloning scam that faked kidnapping


Lesen Sie auch:
Missbrauch von ChatGPT: KI-Modell zur Erstellung von Schadsoftware eingesetzt
ChatGPT – Wie Betrüger und Kriminelle Künstliche Intelligenz für Betrug, Falschinformation und Cybercrime nutzen

Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.