Aktuelles

Deepfake: Politiker sprechen mit angeblichem Klitschko

Deepfakes als Propaganda-Waffe Deutsche SPD-Politikerin Franziska Giffey und Wiens SPÖ Bürgermeister Michael Ludwig fallen auf falschen Klitschko herein!

Tom Wannenmacher, 25. Juni 2022

Franziska Giffey und Michael Ludwig fallen auf falschen Klitschko rein. Die deutsche SPD-Politikerin Franziska Giffey und Wiens SPÖ Bürgermeister Michael Ludwig haben in einem Videotelefonat vermeintlich mit dem Kiewer Amtskollegen Vitali Klitschko gesprochen. Der echte Klitschko weiß davon aber nichts.

Nach einem Fake-Telefonat eines vorgeblichen Vitali Klitschko mit Berlins Regierender Bürgermeisterin Franziska Giffey (SPD) haben zwei weitere Rathäuser ähnliche Vorfälle gemeldet.

Der Spiegel schreibt:

Giffey hatte bei einer Videoschalte am Freitag Zweifel bekommen, ob sie tatsächlich wie geplant mit Kiews Bürgermeister verbunden war. Das Gespräch endete dann vorzeitig. Die Senatskanzlei geht von einer digitalen Manipulation aus: »Allem Anschein nach war es ein Deepfake«

Momentan berichten mehrere europäische Bürgermeister und Bürgermeisterinnen von Fake-Anrufen eines vermeintlichen Vitali Klitschko, Bürgermeister von Kiew. Auch die deutsche SPD-Politikerin Franziska Giffey und Wiens SPÖ Bürgermeister Michael Ludwig haben so einen Anruf erhalten – das aber zunächst nicht gemerkt.

Twitter

Mit dem Laden des Tweets akzeptieren Sie die Datenschutzerklärung von Twitter.
Mehr erfahren

Inhalt laden

Twitter

Mit dem Laden des Tweets akzeptieren Sie die Datenschutzerklärung von Twitter.
Mehr erfahren

Inhalt laden

Vitaliy Klitschko meldet sich selbst zu Wort

Twitter

Mit dem Laden des Tweets akzeptieren Sie die Datenschutzerklärung von Twitter.
Mehr erfahren

Inhalt laden

T3n schreibt:

Herr Klitschko hat gefragt, wie es uns mit den vielen ukrainischen Flüchtlingen geht, wie wir damit umgehen, wie die Zahlen sind, ein ganz normales Gespräch, wie wir es erwartet hatten.“ Die Videokonferenz zur Zusammenarbeit der beiden Städte sei bereits lange vorher verabredet worden.

Klitschko-Deep-Fake: Konferenz driftet ab

Doch dann driftete das Gespräch in skurrile Richtungen ab: „Es ging einmal darum, dass er sich auf ein angebliches Gespräch mit Botschafter Andrij Melnyk bezogen und gefragt hat, wie wir das sehen, dass so viele Ukrainerinnen und Ukrainer sich Sozialleistungen in Berlin erschleichen wollten“, sagte Frerichs. Außerdem gab es die Bitte, geflüchtete Männer wieder in die Ukraine auszuweisen, um zu kämpfen. Das letzte Thema sei dann jedoch sehr auffällig gewesen: „Er hat gefragt, ob wir Kiew beratend unterstützen könnten, eine Art CSD (Christopher Street Day) auszurichten. Das war angesichts des Krieges mehr als seltsam.“

Das Gespräch zwischen Giffey und dem Fake-Klitschko sei daraufhin abgebrochen worden. „Der Verlauf des Gesprächs und die Themensetzung haben in Berlin ein Misstrauen hervorgerufen“, twitterte die Senatskanzlei. Rückfragen bei dem ukrainischen Botschafter in Deutschland habe danach Klarheit gebracht, dass die Person nicht Vitali Klitschko sein konnte. „Allem Anschein nach haben wir es mit einem Deep Fake zu tun“, sagte Frerichs. Auch in Madrid hatte es kürzlich einen ähnlichen Vorfall gegeben. Bürgermeister José Luis Martinez-Almeida ist während einer Videokonferenz mit dem angeblichen Klitschko ebenfalls misstrauisch geworden.

Was sind Deepfakes? Deepfakes sind Fotos, Videos oder Audio-Dateien, die mithilfe von Künstlicher Intelligenz absichtlich verändert werden. Der Begriff setzt sich aus „Deep Learning“ (eine Methode, durch die eine Künstliche Intelligenz lernt) und „Fake“ zusammen. In diesen Videos, Bildern oder Sprachdateien sieht oder hört man Personen, die Sachen tun oder sagen, die sie tatsächlich niemals getan oder gesagt haben.

Die Manipulation von Medieninhalten ist kein neues Phänomen und wurde bereits sehr früh eingesetzt, vorwiegend in Zusammenhang mit politischer Propaganda. Im Unterschied zu früher wird heute jedoch auf künstliche Intelligenz und die Rechenleistung von Computern gesetzt.

Eines der ersten Videos, das viel Aufmerksamkeit erregt hat, war ein Deepfake des ehemaligen US-Präsidenten Barack Obama. In diesem Video zeigt das Online-Medium BuzzFeed, wie Deepfakes funktionieren und wieso sie gefährlich sein können > Weiterlesen

Wie erkennt man Deepfakes?

Derzeit sind viele Deepfake-Videos noch mit dem bloßen Auge erkennbar. Es gibt dabei typische Merkmale, an denen Sie Deepfakes erkennen können:

  • Unnatürliches Gesicht: Eine unnatürliche Mimik oder ein leerer Blick können ein Hinweis darauf sein, dass es sich um ein Fake handelt. Auch unlogische Schatten im Gesicht oder komisch aussehende Haare können entlarvend sein.
  • Unscharfe Übergänge: Achten Sie auf Übergänge wie jenem zwischen Gesicht und Haaren oder Gesicht und Hals. Diese Übergänge sind bei Deepfakes oftmals unscharf.
  • Fehlendes Blinzeln: Menschen blinzeln ganz automatisch, ohne sich dessen bewusst zu sein und zwar alle paar Sekunden. Blinzeln Personen in einem Video nicht, ist das ein Alarmsignal!
  • Unterschiedliche Qualität: Hat das Gesicht eine andere Qualität als das restliche Video oder Bild, handelt es sich wohl um ein Deepfake.
  • Unlogischer Hintergrund: Sehen Sie sich den Hintergrund sowie den Übergang von Gesicht zum Hintergrund an, oftmals zeigen sich erst beim genaueren Anschauen Fehler!
  • Tools verwenden: Außerdem arbeiten unterschiedliche Unternehmen sowie Universitäten bereits an Tools, um Deepfakes zu erkennen. So gibt es zum Beispiel den Deepware Scanner, den DeepFake-o-meter oder die Deepfake Detection von DuckDuckGoose.

Quelle:

ORF
SPIEGEL
T3N

Passend zum Thema:

Deepfake: Selenskyjs gefälschter Aufruf zur Kapitulation
Putin gibt zu, ein Terrorist zu sein – in einem Deepfake-Video


Hinweis: Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.

  • Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum. Ein unabhängiges und für jeden frei zugängliches Informationsmedium ist in Zeiten von Fake News, aber auch Message Control besonders wichtig. Wir sind seit 2011 bestrebt, allen Internetnutzern stets hochwertige Faktenchecks zu bieten.  Dies soll es auch langfristig bleiben. Dafür brauchen wir jetzt deine Unterstützung!

Mehr von Mimikama