Deepfake-Betrug: Die unsichtbare Gefahr am Telefon

Der Enkeltrick, eine bekannte Betrugsmasche, bei der ältere Menschen durch vorgetäuschte Notlagen von vermeintlichen Verwandten zu Geldüberweisungen gedrängt werden, erreicht eine neue Dimension.

Autor: Sonja Bart

Wir brauchen deine Hilfe – Unterstütze uns!
In einer Welt, die zunehmend von Fehlinformationen und Fake News überflutet wird, setzen wir bei Mimikama uns jeden Tag dafür ein, dir verlässliche und geprüfte Informationen zu bieten. Unser Engagement im Kampf gegen Desinformation bedeutet, dass wir ständig aufklären und informieren müssen, was natürlich auch Kosten verursacht.

Deine Unterstützung ist jetzt wichtiger denn je.
Wenn du den Wert unserer Arbeit erkennst und die Bedeutung einer gut informierten Gesellschaft für die Demokratie schätzt, bitten wir dich, über eine finanzielle Unterstützung nachzudenken.

Schon kleine Beiträge können einen großen Unterschied machen und helfen uns, unsere Unabhängigkeit zu bewahren und unsere Mission fortzusetzen.
So kannst du helfen!
PayPal: Für schnelle und einfache Online-Zahlungen.
Steady: für regelmäßige Unterstützung.

Betrüger setzen nun auf „Voice Cloning“, eine Technologie, mit der Stimmen täuschend echt nachgeahmt werden können. Vor allem ältere Menschen sind von dieser neuen Betrugsmasche betroffen.

Die Täuschung: Wenn die Stimme nicht lügt

Agnes B. aus Arnsberg wurde Opfer eines solchen Anrufs. Sie erhielt einen Anruf von einer Person, die behauptete, ihre Tochter zu sein und in einen schweren Unfall verwickelt gewesen zu sein. Die Frau war überzeugt, tatsächlich mit ihrer Tochter zu sprechen – so authentisch klang die Stimme. Tatsächlich handelte es sich aber um eine von künstlicher Intelligenz erzeugte Stimme, ein Produkt hochentwickelter Software.

Wie funktioniert Voice Cloning?

Die Technik benötigt nur wenige Sprachaufnahmen einer Person, um diese Stimme dann für beliebige Aussagen zu verwenden. Laut dem KI-Experten Michael Zerna ist es leicht, an solche Aufnahmen zu gelangen, insbesondere über Inhalte, die auf Social-Media-Plattformen geteilt werden. Die Kombination aus gehackten persönlichen Daten und KI-generierten Stimmen macht den Betrug besonders gefährlich.

Schutz vor Deepfake-Betrug

Trotz der Fortschritte in der KI-Technologie gibt es Grenzen. Echte Dialoge sind noch nicht möglich und Texte müssen im Voraus erstellt werden. Eine Möglichkeit, sich zu schützen, besteht darin, Ruhe zu bewahren und bei verdächtigen Anrufen gezielt nach einem vorher vereinbarten Codewort zu fragen. Dies kann helfen, echte von gefälschten Anrufen zu unterscheiden.

Aufklärungs- und Präventionsmaßnahmen

Um das Bewusstsein zu schärfen, starten Verbraucherschützer und Behörden Aufklärungskampagnen. Ein Beispiel ist die Polizei Oberhausen, die ein Aufkleber-Sammelalbum eingeführt hat. Es informiert über gängige Betrugsmaschen und gibt konkrete Tipps, wie man sich in solchen Situationen verhalten sollte.

Fazit: Wachsamkeit ist das A und O

Der beste Schutz vor dem Deepfake-Enkeltrick ist Wachsamkeit. Wer sich informiert, ruhig bleibt und einfache Sicherheitsmaßnahmen wie Codewörter nutzt, kann sich schützen. Es ist wichtig, immer skeptisch zu bleiben und sich nicht von der Authentizität einer Stimme täuschen zu lassen.

Quelle: WDR

Abonnieren Sie unseren Mimikama-Newsletter, um über aktuelle Themen und Faktenchecks auf dem Laufenden zu bleiben. Entdecken Sie auch unsere Angebote zur Medienkompetenz, um sich gegen digitale Bedrohungen zu wappnen.

Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.