Informatiker der University of Buffalo entwickelten ein Tool, das gefälschte Porträts entlarvt.

Spannend, wie eine Software aufdeckt, was mittels einer anderen Software gefälscht wurde – hier geht es um Porträts oder auch „Deepfakes“. Laut Forschern der University of Buffalo ist dies anhand der Reflektionen in den Augen erkennbar, wie die von ihnen entwickelte Software nun auch beweist.

Das Gesehene spiegelt sich in beiden Augen nahezu identisch wider – zumindest was Farbe und Form angeht. Diese Tatsache nutzen Informatiker der University of Buffalo, um eine automatische Erkennung von gefälschten Porträts zu entwickeln. Bei diesen sind die Bilder in den beiden Augen im Allgemeinen unterschiedlich. Das Tool erwies sich in 94 Prozent aller Tests als zuverlässig.

Unterschiedliche Muster

„Die Hornhaut ist eine fast perfekte Halbkugel und ein guter Reflektor. In beiden Augen sollten sehr ähnliche Reflexionsmuster auftreten, weil sie dasselbe sehen. Das bemerken wir meist nicht, wenn wir ein Porträt anschauen“, so Siwei Lyu, Professor am Institut für Informatik und Ingenieurwesen.

Die nun entworfene Bildauswerte-Software bemerke Unterschiede jedoch sehr wohl.

Die Augen auf den meisten Fake-Bildern, die mithilfe von Künstlicher Intelligenz erzeugt werden, weisen unterschiedliche Muster aus – ein sicheres Zeichen dafür, dass sie gefälscht sind. Das passiert laut Lyu beispielsweise, wenn ein Porträt aus mehreren Fotos zusammengesetzt wird. „Deepfake-O-Meter“ nennt er seine Software.

Screenshot (c) University of Buffalo und www.thispersondoesnotexist.com
Screenshot (c) University of Buffalo und www.thispersondoesnotexist.com

Beim Vergleich der Reflektionen in den Augen fallen bei gefälschten Porträts Unregelmäßigkeiten auf, die alleine beim Betrachten des Fotos niemand bemerken würde.

Screenshot Vergleich reales und gefälschtes Porträt (c) Lyu et. al
Screenshot Vergleich reales und gefälschtes Porträt (c) Lyu et. al

Auch Videos funktionieren

Bei seinen Experimenten hat das Team mit echten Bildern von Flickr Faces-HQ und gefälschten Bildern von http://thispersondoesnotexist.com experimentiert, die zwar lebensecht aussehende Gesichter zeigen, aber mit Unterstützung von Künstlicher Intelligenz erschaffen wurden. Die Software analysiert die Bilder in den Augen mit hoher Präzision und vergleicht eventuelle Unterschiede der Formen und Farben der Reflektionen.

Die Analyse funktioniert auch bei Videos, jedenfalls dann, wenn sie einen ungehinderten Blick auf die Augen zulassen. Hier ist es laut Lyu besonders wichtig, Fälschungen zu entlarven. So würden Politiker mit Fake-Videos, in denen sie extreme Ansichten äußern, diskreditiert.

„Leider werden zahlreiche gefälschte Videos für pornografische Zwecke erstellt und das fügt den Opfern schwere psychische Schäden zu“, weiß Lyu.

Dass durch KI erstellte Porträts in einer frei zugänglichen Datenbank eine riesige Quelle für Fakeprofile bedeutet, haben wir in einem Artikel über diese bereits zu denken gegeben.

[mk_ad]

Passend dazu

Quellen: Pressetext.com, University of Buffalo, Press-News, TheNextWeb

Unsere virtuelle Faktencheck-Bewertungsskala: Bei der Überprüfung von Fakten, in der Kategorie der „Faktenchecks„, nutzen wir eine klare Bewertungsskala, um die Zuverlässigkeit der Informationen zu klassifizieren. Hier eine kurze Erläuterung unserer Kategorien:

  • Rot (Falsch/Irreführend): Markiert Informationen, die definitiv falsch oder irreführend sind.
  • Gelb (Vorsicht/Unbewiesen/Fehlender Kontext/Satire): Für Inhalte, deren Wahrheitsgehalt unklar ist, die mehr Kontext benötigen oder satirisch sind.
  • Grün (Wahr): Zeigt an, dass Informationen sorgfältig geprüft und als wahr bestätigt wurden.

Unterstütze jetzt Mimikama – Für Wahrheit und Demokratie! Gründlicher Recherchen und das Bekämpfen von Falschinformationen sind heute wichtiger für unsere Demokratie als jemals zuvor. Unsere Inhalte sind frei zugänglich, weil jeder das Recht auf verlässliche Informationen hat. Unterstützen Sie Mimikama

Mehr von Mimikama

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)