Audio-Deepfakes und KI: Die nächste Generation des Enkeltricks

Audio-Deepfakes stellen eine neue Bedrohung in der Welt der Internetkriminalität dar. Mit nur wenigen Minuten Audiomaterial können Betrüger überzeugende Imitationen von Stimmen erstellen und diese zur Täuschung und finanziellen Schädigung von Personen einsetzen.

Autor: Claudia Spiess

Wir brauchen deine Hilfe – Unterstütze uns!
In einer Welt, die zunehmend von Fehlinformationen und Fake News überflutet wird, setzen wir bei Mimikama uns jeden Tag dafür ein, dir verlässliche und geprüfte Informationen zu bieten. Unser Engagement im Kampf gegen Desinformation bedeutet, dass wir ständig aufklären und informieren müssen, was natürlich auch Kosten verursacht.

Deine Unterstützung ist jetzt wichtiger denn je.
Wenn du den Wert unserer Arbeit erkennst und die Bedeutung einer gut informierten Gesellschaft für die Demokratie schätzt, bitten wir dich, über eine finanzielle Unterstützung nachzudenken.

Schon kleine Beiträge können einen großen Unterschied machen und helfen uns, unsere Unabhängigkeit zu bewahren und unsere Mission fortzusetzen.
So kannst du helfen!
PayPal: Für schnelle und einfache Online-Zahlungen.
Steady: für regelmäßige Unterstützung.

Die Fortschritte auf dem Gebiet der Künstlichen Intelligenz (KI) sind sowohl beeindruckend als auch beängstigend. Ein bemerkenswertes Beispiel ist die Entwicklung von Audio-Deepfakes, bei denen Computersysteme in der Lage sind, die menschliche Stimme bis ins kleinste Detail zu imitieren. Diese Technologie hat zu einer Zunahme von KI-gestützten Betrugsversuchen geführt. Dazu gehört auch eine neue Variante des berüchtigten „Enkeltricks“.

Der „Enkeltrick 2.0“: Deepfake-Audio-Betrug

Beim sog. „Enkeltrick“ gibt sich der Betrüger meist als Kind oder Enkel des Opfers aus und täuscht eine Krisensituation vor, um finanzielle Unterstützung zu erhalten. Dieser Trick wird immer gefährlicher, da Betrüger inzwischen künstliche Intelligenz einsetzen, die darauf spezialisiert ist, menschliche Stimmen zu imitieren.

Wie funktioniert es?

Um ein vollständiges Stimmprofil einer Person zu erstellen, benötigen einige dieser KIs nur 30 Minuten Audiomaterial. Sie können die Stimme dieser Person bis ins kleinste Detail nachahmen, indem sie generative KI einsetzen. Der Betrug wird dadurch erschreckend glaubwürdig.

Social Media als Quelle für Audiomaterial

Ein weiterer beunruhigender Aspekt dieser Entwicklung ist die Tatsache, dass der Zugang zu dem benötigten Audiomaterial heute einfacher ist denn je. Social-Media-Plattformen sind eine wahre Fundgrube für Audiomaterial, das zur Erstellung von Deepfake-Stimmprofilen genutzt werden kann. Ganz gleich, ob es sich um Podcasts, Live-Videos oder einfach nur um Sprachnachrichten handelt – die große Menge an Audio-Inhalten, die wir täglich produzieren und teilen, macht es Betrügern leicht, genügend Material für ihre betrügerischen Zwecke zu sammeln.

Wie können wir uns schützen?

Es ist wichtig, dass wir uns alle bewusst sind, dass Audio-Deepfakes existieren und dass sie eine Gefahr darstellen. Seien Sie vorsichtig mit Informationen, die Sie über soziale Medien weitergeben. Seien Sie skeptisch bei Anrufen von „Familienmitgliedern“, die Sie um finanzielle Unterstützung bitten. Verwenden Sie Rückrufnummern, die Ihnen bereits bekannt sind, und nicht die Nummer, von der Sie angerufen wurden.

Technologie kann uns in vielerlei Hinsicht helfen, aber wir müssen auch lernen, sie kritisch zu betrachten und uns vor potenziellen Gefahren zu schützen. Es ist wichtig, sich vor solchen Betrügereien zu schützen.

Hier sind einige Tipps, wie Sie sich vor Audio-Deepfake-Betrug schützen können:

  • Verbales Codewort: Legen Sie gemeinsam mit Ihren Kindern, Ihren Familienangehörigen oder Ihren engen Freunden ein verbales Codewort fest. Achten Sie darauf, dass es nur Ihnen und Ihren engsten Vertrauten bekannt ist.
  • Hinterfragen Sie stets die Quelle: Auch wenn die Nachricht von einer Nummer stammt, die Sie kennen, halten Sie inne und denken Sie nach. Klingt die Stimme und die Art zu sprechen wirklich nach der Person, die Sie hier kontaktiert?
  • Denken Sie nach, bevor Sie klicken und teilen: Wer ist Teil Ihres Social Media Netzwerks? Wie gut kennen Sie diese Personen wirklich und wie viel Vertrauen haben Sie ihnen gegenüber? Seien Sie vorsichtig im Umgang mit den Freunden und den Verbindungen, die Sie online haben.
  • Schützen Sie Ihre Identität: Dienste, die Ihre Identität überwachen, können Sie benachrichtigen, wenn Ihre persönlichen Daten im Darknet auftauchen, und Anleitungen für Schutzmaßnahmen geben.

Fazit

Die Welt der Audio-Deepfakes veranschaulicht eindrucksvoll die zweischneidige Natur der Technologie. Sie hat das Potenzial, uns in vielen Bereichen zu unterstützen. Sie kann aber auch für schädliche Zwecke missbraucht werden. Wir müssen uns dessen bewusst werden, wachsam bleiben und uns aktiv schützen.

Die vollständige Studie und weitere Einzelheiten finden Sie hier:

Artificial Imposters—Cybercriminals Turn to AI Voice Cloning for a New Breed of Scam

Das könnte auch interessieren:
ChatGPT löst Flut neuer Domains aus – Missbrauch ist möglich
Vorsicht vor Online-Trading-Betrug: Schützen Sie Ihr Geld!
Internetnutzer im Ausnahmezustand: Soziale Medien lösen globale Panik aus!
Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.