Betrüger setzen nun auf „Voice Cloning“, eine Technologie, mit der Stimmen täuschend echt nachgeahmt werden können. Vor allem ältere Menschen sind von dieser neuen Betrugsmasche betroffen.

Die Täuschung: Wenn die Stimme nicht lügt

Agnes B. aus Arnsberg wurde Opfer eines solchen Anrufs. Sie erhielt einen Anruf von einer Person, die behauptete, ihre Tochter zu sein und in einen schweren Unfall verwickelt gewesen zu sein. Die Frau war überzeugt, tatsächlich mit ihrer Tochter zu sprechen – so authentisch klang die Stimme. Tatsächlich handelte es sich aber um eine von künstlicher Intelligenz erzeugte Stimme, ein Produkt hochentwickelter Software.

Wie funktioniert Voice Cloning?

Die Technik benötigt nur wenige Sprachaufnahmen einer Person, um diese Stimme dann für beliebige Aussagen zu verwenden. Laut dem KI-Experten Michael Zerna ist es leicht, an solche Aufnahmen zu gelangen, insbesondere über Inhalte, die auf Social-Media-Plattformen geteilt werden. Die Kombination aus gehackten persönlichen Daten und KI-generierten Stimmen macht den Betrug besonders gefährlich.

Schutz vor Deepfake-Betrug

Trotz der Fortschritte in der KI-Technologie gibt es Grenzen. Echte Dialoge sind noch nicht möglich und Texte müssen im Voraus erstellt werden. Eine Möglichkeit, sich zu schützen, besteht darin, Ruhe zu bewahren und bei verdächtigen Anrufen gezielt nach einem vorher vereinbarten Codewort zu fragen. Dies kann helfen, echte von gefälschten Anrufen zu unterscheiden.

Aufklärungs- und Präventionsmaßnahmen

Um das Bewusstsein zu schärfen, starten Verbraucherschützer und Behörden Aufklärungskampagnen. Ein Beispiel ist die Polizei Oberhausen, die ein Aufkleber-Sammelalbum eingeführt hat. Es informiert über gängige Betrugsmaschen und gibt konkrete Tipps, wie man sich in solchen Situationen verhalten sollte.

Fazit: Wachsamkeit ist das A und O

Der beste Schutz vor dem Deepfake-Enkeltrick ist Wachsamkeit. Wer sich informiert, ruhig bleibt und einfache Sicherheitsmaßnahmen wie Codewörter nutzt, kann sich schützen. Es ist wichtig, immer skeptisch zu bleiben und sich nicht von der Authentizität einer Stimme täuschen zu lassen.

Quelle: WDR

Abonnieren Sie unseren Mimikama-Newsletter, um über aktuelle Themen und Faktenchecks auf dem Laufenden zu bleiben. Entdecken Sie auch unsere Angebote zur Medienkompetenz, um sich gegen digitale Bedrohungen zu wappnen.

Unterstütze jetzt Mimikama – Für Wahrheit und Demokratie! Gründlicher Recherchen und das Bekämpfen von Falschinformationen sind heute wichtiger für unsere Demokratie als jemals zuvor. Unsere Inhalte sind frei zugänglich, weil jeder das Recht auf verlässliche Informationen hat. Unterstützen Sie Mimikama

Mehr von Mimikama

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)