Forscher stellen KI-System zur Bekämpfung von Deepfakes vor

Lernfähige Algorithmen und KIs sind aktuell ständig in den Tech-Schlagzeilen. Forscher verwenden sie nun auch zum Kampf gegen gefälschte Videos von Politikern und Prominenten.

Autor: Walter Feichtinger

Wir brauchen deine Hilfe – Unterstütze uns!
In einer Welt, die zunehmend von Fehlinformationen und Fake News überflutet wird, setzen wir bei Mimikama uns jeden Tag dafür ein, dir verlässliche und geprüfte Informationen zu bieten. Unser Engagement im Kampf gegen Desinformation bedeutet, dass wir ständig aufklären und informieren müssen, was natürlich auch Kosten verursacht.

Deine Unterstützung ist jetzt wichtiger denn je.
Wenn du den Wert unserer Arbeit erkennst und die Bedeutung einer gut informierten Gesellschaft für die Demokratie schätzt, bitten wir dich, über eine finanzielle Unterstützung nachzudenken.

Schon kleine Beiträge können einen großen Unterschied machen und helfen uns, unsere Unabhängigkeit zu bewahren und unsere Mission fortzusetzen.
So kannst du helfen!
PayPal: Für schnelle und einfache Online-Zahlungen.
Steady: für regelmäßige Unterstützung.

Hany Farid (Berkeley) und Matyáš Boháček (Universität Prag) sind Experten in der Bekämpfung von sogenannten Deepfakes. Dabei handelt es sich um oft täuschend echte, computergenerierte Videos, bei denen Gesichter ausgetauscht und so den Personen Wörter in den Mund gelegt werden können, die sie so nie gesagt haben. Ein bekanntes Beispiel ist ein Deepfake von Wolodymyr Selenskyj, in dem der ukrainische Präsident die Kapitulation seines Landes verkündet, wir hatten berichtet.

Der Schutz von Selenskyj gegen Deepfakes

Genau diesen Vorfall nahmen Farid und Boháček zum Anlass, um an einem Tool zu arbeiten, das den ukrainischen Präsidenten vor weiteren solcher Infokrieg-Attacken schützen sollte. Sie entwickelten ein mimisches und gestisches Verhaltensmodell, das auf den charakteristischen Merkmalen von Selenskyjs Sprechstil basiert. Dafür fütterten sie einen Algorithmus mit gut acht Stunden Videomaterial, das vom ukrainischen Präsidenten bei vier verschiedenen Anlässen aufgenommen wurde. Erste Ergebnisse dazu veröffentlichten die beiden in einem wissenschaftlichen Preprint bereits im Juni 2022.

Deepfake Bekämpfung: Visualisierung der Gesten
„Oben sind fünf gleichmäßig verteilte Einzelbilder aus einem 10-Sekunden-Videoclip zu sehen, die mit der geschätzten Gestenverfolgung versehen sind. Darunter sind zwei der 12 gestischen Merkmale zu sehen, die der vertikalen Position des linken und rechten Handgelenks entsprechen.“ Quelle: „Protecting President Zelenskyy against Deep Fakes“, arXiv, CC BY 4.0

Die Demokratisierung des Zugangs zu Techniken zur Manipulation und Synthese von Videos hat zwar zu interessanten und unterhaltsamen Anwendungen geführt, aber auch komplexe ethische und rechtliche Fragen aufgeworfen. Insbesondere im Kontext des Krieges stellen Deepfakes eine erhebliche Bedrohung für unsere Fähigkeit dar, sich schnell entwickelnde Ereignisse zu verstehen und darauf zu reagieren. Unser Ansatz zum Schutz einer einzelnen Person – des ukrainischen Präsidenten Selenskyj – geht zwar nicht auf das umfassendere Problem der Deepfakes ein, bietet aber der wohl wichtigsten ukrainischen Stimme in diesen Kriegszeiten ein gewisses Maß an digitalem Schutz.

Hany Farid und Matyáš Boháček im Text vom Juni 2022

Deepfake von Vitali Klitschko im Gespräch mit dem Wiener Bürgermeister

Ein weiterer Deepfake-Angriff im Rahmen des Ukrainekrieges ging durch viele Medien. Hierbei wurden prominente Unterstützer der ukrainischen Sache und ganz besonders Regionalpolitiker oder Bürgermeister von einem vermeintlichen Vitali Klitschko kontaktiert. Während manche den Fake sehr schnell durchschauten und das Gespräch abbrachen, hielt der skeptisch wirkende Bürgermeister von Wien, Michael Ludwig bis zum Ende der Videokonferenz durch.

Außer verschenkter Zeit und Häme der Opposition hatte das Gespräch keine Konsequenzen auf Ukraine-Politik in Österreich. Die Bundesregierung legte hingegen noch im Mai einen Aktionsplan gegen Deepfakes vor. „Damit werden wir künftig noch zielgerichteter und effektiver gegen Deepfakes ankämpfen. Denn unser Ziel ist klar: Desinformation und Hass im Netz den Stecker ziehen“, erklärte Innenminister Gerhard Karner dazu.

Die Weiterentwicklung: Schutz für prominente Personen und Politiker

Nicht weiter überraschend haben die beiden Wissenschafter ihr Werkzeug weiter verfeinert. Das System soll nun anhand biometrischer Daten, sowie Mimik und Gestik die geringfügigen Abweichungen erkennen, die noch so gute Fälschungen kennzeichnen. Farid und Boháček sprechen in einem veröffentlichten Zwischenbericht von einer Genauigkeit von inzwischen 99,99 Prozent zur Entlarvung von Deepfakes. Dazu braucht die lernfähigen Algorithmen wie bei Selenskyj einige Stunden hochqualitative Videoaufzeichnungen, am besten von verschiedenen Anlässen.

Wir beschreiben einen identitätsbasierten Ansatz zum Schutz von Staatsoberhäuptern vor Deepfake-Hochstaplern. Anhand von mehreren Stunden authentischen Videomaterials erfasst dieser Ansatz deutliche mimische, gestische und stimmliche Merkmale, die, wie wir zeigen, einen Staatschef von einem Imitator oder einem gefälschten Betrüger unterscheiden können.

Farid und Boháče in „Protecting world leaders against deep fakes using facial, gestural, and vocal mannerisms“

Werkzeug zur Bekämpfung steht Behörden und seriösen Medien zur Verfügung

Hany Farid und Matyáš Boháček ist bewusst, dass jede Veröffentlichung von Forschungsergebnissen zu Deepfaketechnologie auch den Machern dieser Videos hilft. Sie sprechen dabei von einem „Katz-und-Maus-Spiel zwischen Ersteller und Detektor“. Im Moment liegt der Vorteil jedoch auf ihrer Seite, weil ihre Analysen von mimischen, gestischen und stimmlichen Muster mit Beobachtungszeitfenstern von zehn Sekunden arbeiten. Die Syntheseprogramme erstellen ihre Videos hingegen Bild für Bild oder in kurzen Sequenzen.

Trotz dieser aktuellen Überlegenheit möchten die Forscher ihre Ergebnisse und Methoden nicht öffentlich freigeben, um Gegenangriffe zu erschweren. Sie möchten ihr Tool jedoch seriösen Nachrichten- und Regierungsagenturen zur Verfügung stellen, die an der Bekämpfung von Desinformationskampagnen arbeiten, die durch Deepfake-Videos ausgelöst werden.


Quellen: PNAS, arXiv, Bundesministerium Inneres, glomex, scinexx.de

Faktencheck: Flugtafel in Belgrad zeigt keine Flüge nach Kiew, Russland und Kosovo, Serbien
Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.