Deep Fake – ein Begriff, der bei vielen Menschen Angst hervorruft. Man denkt sofort an Manipulation, Täuschung oder Propaganda. Doch das muss nicht immer zutreffen!

Die Zusammenfassung über das amüsante Deep Fake Video mit Sebastian Kurz:

Auf YouTube ist ein Video aufgetaucht, in dem man den österreichischen Bundeskanzler vermeintlich singend sieht. Es handelt sich jedoch um ein Deep Fake Video, welches natürlich nicht ernst gemeint ist.

Bei Deep Fakes handelt es sich häufig um gefakte Videos, welche qualitativ kaum von echten Videos zu unterscheiden sind. Im Regelfall sieht man in diesen Videos prominente Personen.

[mk_ad]

Was ist, wenn so ein Deep Fake auch mal echt amüsant ist. Nicht allein amüsant, sondern natürlich auch in seiner Art und Weise erkennbar. Genau das liegt gerade im Fall des österreichischen Bundeskanzlers Sebastian Kurz beim Song Contest vor ?.

Ich meine, der ein oder andere dürfte ihm vielleicht so einen Schmusegesang zutrauen, mit dem er die Herzen aller Schwiegermütter butterweich bekommt. Doch wir als Faktenchecker müssen an dieser deutlich sagen: Das ist ein Fake!

Das Video ist auf YouTube in dem Kanal mit dem Namen „Kurt Fleisch“ zu finden. Die Beschreibung dazu lautet:

Original: Thomas Forstner (Eurovision 1989 Austria)

FOSS used: DeepFaceLab and Blender (for mic tracking & masking)

#sebastiankurz #thomasforstner #deepfake #DeepFaceLab

Ob es sich hierbei am Ende auch um den Produzenten des Fakes handelt, bleibt zunächst offen.

Die Krux mit dem Deep Fake

Deep Fakes sind aber nicht immer amüsant – spätestens dann nicht mehr, wenn Betrüger versuchen Nutzer mit Deep Fakes zu erpressen oder jemanden Worte in den Mund zu legen, die er nie gesagt hat.

Die Original-Stimme unterscheidet sich zwar im Moment noch von der eigentlichen Stimme der Person, aber wie viele Menschen haben tatsächlich die Stimme von einem Mark Zuckerberg oder eben auch Keanu Reeves im Kopf?

[mk_ad]

Was vor 25 Jahren, als der Film erschien, sicherlich niemand für möglich hielt, kann heutzutage jeder Nutzer, die entsprechende Hardware, genügend Fotos und die richtigen Programme vorausgesetzt: das eigene Erstellen von Deep Fakes!

Mit entsprechend vielen Bildern, die es naturgemäß von Prominenten gibt, wurden auf einschlägigen Seiten schon einige mehr oder weniger gute Fake-Pornos mit Prominenten ins Netz gestellt.

Woran kann ich nun diese Fakes erkennen?

Die Hautfarbe von Gesicht und dem restlichen Körper stimmen oft nicht wirklich überein,
auch die Zähne wirken unrealistisch und es wird auch oft nicht gezwinkert, da Computer nur sehr schlecht ein Zwinkern berechnen können.
Auch die Stimme unterscheidet sich von der eigentlichen Stimme der Person.
Forscher der University of Albany entwickeln eine Software, die Deep Fakes in Echtzeit erkennen soll.


Wenn dir dieser Beitrag gefallen hat und du die Bedeutung fundierter Informationen schätzt, werde Teil des exklusiven Mimikama Clubs! Unterstütze unsere Arbeit und hilf uns, Aufklärung zu fördern und Falschinformationen zu bekämpfen. Als Club-Mitglied erhältst du:

📬 Wöchentlichen Sonder-Newsletter: Erhalte exklusive Inhalte direkt in dein Postfach.
🎥 Exklusives Video* „Faktenchecker-Grundkurs“: Lerne von Andre Wolf, wie du Falschinformationen erkennst und bekämpfst.
📅 Frühzeitiger Zugriff auf tiefgehende Artikel und Faktenchecks: Sei immer einen Schritt voraus.
📄 Bonus-Artikel, nur für dich: Entdecke Inhalte, die du sonst nirgendwo findest.
📝 Teilnahme an Webinaren und Workshops: Sei live dabei oder sieh dir die Aufzeichnungen an.
✔️ Qualitativer Austausch: Diskutiere sicher in unserer Kommentarfunktion ohne Trolle und Bots.

Mach mit und werde Teil einer Community, die für Wahrheit und Klarheit steht. Gemeinsam können wir die Welt ein bisschen besser machen!

* In diesem besonderen Kurs vermittelt dir Andre Wolf, wie du Falschinformationen erkennst und effektiv bekämpfst. Nach Abschluss des Videos hast du die Möglichkeit, dich unserem Rechercheteam anzuschließen und aktiv an der Aufklärung mitzuwirken – eine Chance, die ausschließlich unseren Club-Mitgliedern vorbehalten ist!


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)