Nie mehr wichtige Faktenchecks verpassen!
Melden Sie sich für unseren WhatsApp-Channel, die Smartphone-App (für iOS und Android) oder unseren Newsletter an und erhalten Sie alle Faktenchecks und Updates sofort. Einfach anmelden, immer einen Schritt voraus!
Informatiker der University of Buffalo entwickelten ein Tool, das gefälschte Porträts entlarvt.
Spannend, wie eine Software aufdeckt, was mittels einer anderen Software gefälscht wurde – hier geht es um Porträts oder auch „Deepfakes“. Laut Forschern der University of Buffalo ist dies anhand der Reflektionen in den Augen erkennbar, wie die von ihnen entwickelte Software nun auch beweist.
Das Gesehene spiegelt sich in beiden Augen nahezu identisch wider – zumindest was Farbe und Form angeht. Diese Tatsache nutzen Informatiker der University of Buffalo, um eine automatische Erkennung von gefälschten Porträts zu entwickeln. Bei diesen sind die Bilder in den beiden Augen im Allgemeinen unterschiedlich. Das Tool erwies sich in 94 Prozent aller Tests als zuverlässig.
Unterschiedliche Muster
„Die Hornhaut ist eine fast perfekte Halbkugel und ein guter Reflektor. In beiden Augen sollten sehr ähnliche Reflexionsmuster auftreten, weil sie dasselbe sehen. Das bemerken wir meist nicht, wenn wir ein Porträt anschauen“, so Siwei Lyu, Professor am Institut für Informatik und Ingenieurwesen.
Die nun entworfene Bildauswerte-Software bemerke Unterschiede jedoch sehr wohl.
Die Augen auf den meisten Fake-Bildern, die mithilfe von Künstlicher Intelligenz erzeugt werden, weisen unterschiedliche Muster aus – ein sicheres Zeichen dafür, dass sie gefälscht sind. Das passiert laut Lyu beispielsweise, wenn ein Porträt aus mehreren Fotos zusammengesetzt wird. „Deepfake-O-Meter“ nennt er seine Software.
Beim Vergleich der Reflektionen in den Augen fallen bei gefälschten Porträts Unregelmäßigkeiten auf, die alleine beim Betrachten des Fotos niemand bemerken würde.
Auch Videos funktionieren
Bei seinen Experimenten hat das Team mit echten Bildern von Flickr Faces-HQ und gefälschten Bildern von http://thispersondoesnotexist.com experimentiert, die zwar lebensecht aussehende Gesichter zeigen, aber mit Unterstützung von Künstlicher Intelligenz erschaffen wurden. Die Software analysiert die Bilder in den Augen mit hoher Präzision und vergleicht eventuelle Unterschiede der Formen und Farben der Reflektionen.
Die Analyse funktioniert auch bei Videos, jedenfalls dann, wenn sie einen ungehinderten Blick auf die Augen zulassen. Hier ist es laut Lyu besonders wichtig, Fälschungen zu entlarven. So würden Politiker mit Fake-Videos, in denen sie extreme Ansichten äußern, diskreditiert.
„Leider werden zahlreiche gefälschte Videos für pornografische Zwecke erstellt und das fügt den Opfern schwere psychische Schäden zu“, weiß Lyu.
Dass durch KI erstellte Porträts in einer frei zugänglichen Datenbank eine riesige Quelle für Fakeprofile bedeutet, haben wir in einem Artikel über diese bereits zu denken gegeben.
[mk_ad]
Passend dazu
- Wo DSGVO und Personlichkeitsrechte nicht greifen
- Software bringt mit Deepfakes Verstorbene zum Lächeln
Quellen: Pressetext.com, University of Buffalo, Press-News, TheNextWeb
Wenn dir dieser Beitrag gefallen hat und du die Bedeutung fundierter Informationen schätzt, werde Teil des exklusiven Mimikama Clubs! Unterstütze unsere Arbeit und hilf uns, Aufklärung zu fördern und Falschinformationen zu bekämpfen. Als Club-Mitglied erhältst du:
📬 Wöchentlichen Sonder-Newsletter: Erhalte exklusive Inhalte direkt in dein Postfach.
🎥 Exklusives Video* „Faktenchecker-Grundkurs“: Lerne von Andre Wolf, wie du Falschinformationen erkennst und bekämpfst.
📅 Frühzeitiger Zugriff auf tiefgehende Artikel und Faktenchecks: Sei immer einen Schritt voraus.
📄 Bonus-Artikel, nur für dich: Entdecke Inhalte, die du sonst nirgendwo findest.
📝 Teilnahme an Webinaren und Workshops: Sei live dabei oder sieh dir die Aufzeichnungen an.
✔️ Qualitativer Austausch: Diskutiere sicher in unserer Kommentarfunktion ohne Trolle und Bots.
Mach mit und werde Teil einer Community, die für Wahrheit und Klarheit steht. Gemeinsam können wir die Welt ein bisschen besser machen!
* In diesem besonderen Kurs vermittelt dir Andre Wolf, wie du Falschinformationen erkennst und effektiv bekämpfst. Nach Abschluss des Videos hast du die Möglichkeit, dich unserem Rechercheteam anzuschließen und aktiv an der Aufklärung mitzuwirken – eine Chance, die ausschließlich unseren Club-Mitgliedern vorbehalten ist!
Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)