Neue Software erkennt Deepfakes in Echtzeit

Autor: Kathrin Helmreich

Deepfake-Gesicht: Teufel steckt im Detail / Artikelbild: Mihai Surdu - Shutterstock.com
Deepfake-Gesicht: Teufel steckt im Detail / Artikelbild: Mihai Surdu - Shutterstock.com

Faktoren wie Blinzeln sind laut Forschern wichtig, um Manipulationen gezielt zu entlarven

 

Bei diesem Inhalt handelt es sich um eine Pressemitteilung von: pressetext.redaktion

Forscher an der University of Albany haben eine Software entwickelt, die Deepfake-Videos identifiziert. Sie kann anhand von kleinen Details erkennen, ob ein Video echt oder gefälscht ist. Bei Deepfakes handelt es sich um computergenerierte Inhalte, die aus bestehendem Material bestehen. So können realistische Aufnahmen von bekannten Personen gefälscht werden, in denen sie Dinge sagen und tun, die sie nie gesagt oder getan haben.

„Deepfakes lassen sich teilweise mit neuronalen Netzwerken erkennen. Diese Tools verwenden das Prinzip des Deep Learning, sie werden anhand von Bildern trainiert. Die Technologie beruht auf der Annahme, dass Bilder aus Deepfakes bereits früher in einem anderen Zusammenhang veröffentlicht wurden. Neuronale Netzwerke können nach ähnlichen Bildern suchen“,

sagt Udo Urban vom Deutschen Forschungszentrum für Künstliche Intelligenz im Gespräch mit pressetext. Wenn das Netzwerk solche Elemente in einem anderen Kontext findet, bestehe die Wahrscheinlichkeit, dass es sich um eine Fälschung handelt.

Fakes blinzeln zu wenig

Laut Forschungsleiter Siwei Lyu braucht es nur 500 Bilder oder zehn Sekunden Videomaterial, um einen realistisch aussehenden Deepfake zu erstellen. Deswegen kann von jedem Menschen, der Fotos in sozialen Netzwerken gepostet hat, ein Deepfake gemacht werden. Im Auftrag der Defense Advanced Research Projects Agency (DARPA) hat das Forschungsteam der University of Albany an einer Software gearbeitet, die Deepfakes erkennt.

Ein Faktor, an dem man Fälschungen identifiziert, ist Lyu zufolge, ob die Person in dem Video selten blinzelt. Es gebe oft nicht genug Bilder von den Betroffenen, auf denen ihre Augen geschlossen sind. Deswegen wird ein Deepfake die Person meistens mit geöffneten Augen zeigen.

Die Software achtet auch auf unnatürliche Gesichts- oder Kopfbewegungen. Ein weiterer Faktor ist der Verlust von kleinen Details im Gesicht. So sieht die Haut oft zu weich aus und Haaren fehlen Details.

Die Zähne sehen oft wie ein einzelner weißer Block aus denn einer Reihe einzelner Zähne. Anhand der von den Forschern entwickelten Tools will die DARPA Filter entwickeln, die Deepfakes aus dem Internet bannen. Sie könnten sonst zum Zweck von Propaganda und Manipulation von Wahlen verwendet werden.

Laut Urban können auch andere Elemente wie Farbe, Kontrast oder Textur bei der Suche nach ähnlichen Bildern genutzt werden.

„Grundsätzlich kann man Faktoren wie das fehlende Blinzeln mit bloßem Auge erkennen. Das hängt aber von der Länge des Videos ab. Oft sind sie zu kurz, um auf solche Details achten zu können. Wenn ein neuronales Netz richtig trainiert wurde, kann es Fälschungen deutlich besser erkennen als Menschen“,

so Urban.

Menschen kennen Deepfakes

Der Öffentlichkeit sind Deepfakes schon länger ein Begriff. Besondere Aufmerksamkeit erregte ein Video des US-Komikers und Filmemachers Jordan Peele, in dem er Barack Obama politisch unkorrekte Sätze in den Mund legte. Es gibt auch bereits gefakte Social Media-Influencer, deren Accounts Millionen von Followern haben, wie beispielsweise das digitale „It-Girl“ Lil Miquela.

In China verwendet die Nachrichtenagentur „Xinhua“ seit 2018 digitale Nachrichtensprecher, die wie echte Menschen aussehen. Laut Lyu werden die Menschen in Zukunft gegenüber Deepfakes desensibilisiert werden. Er bezweifelt deswegen, dass sie eine ernsthafte Gefahr darstellen.

Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.