Studien der Australian National University zeigen, dass künstlich generierte weiße Gesichter oft als realistischer wahrgenommen werden als echte Gesichter, während dies bei farbigen Gesichtern umgekehrt ist, was auf eine Verzerrung der KI-Trainingsdaten hindeutet und potenzielle rassistische Vorurteile verstärken könnte.

Diese Erkenntnisse unterstreichen die Notwendigkeit einer diversifizierten Datenbasis bei der Entwicklung von KI und warnen vor den Risiken, die sich aus einer Verzerrung ergeben, insbesondere im Hinblick auf Fake News und Identitätsdiebstahl.

Die Studie der Australian National University fand heraus, dass fiktive Gesichter, die durch generative künstliche Intelligenz (KI) generiert wurden, insbesondere wenn sie weiße Gesichter darstellten, von den Betrachtern oft als realistischer empfunden wurden als echte Gesichter. Diese Beobachtung deutet auf einen möglichen Bias in der Technologie hin, da diese hauptsächlich auf weiße Gesichter trainiert wird, was letztlich rassistische Vorurteile verstärken könnte.

KI-Verzerrung und Rassismus

Die Wissenschaftlerin Amy Dawel von der Australian National University weist darauf hin, dass diese Wahrnehmungsdiskrepanz auf eine Überrepräsentation weißer Gesichter in den Trainingsdatensätzen zurückzuführen ist. Künstlich generierte Gesichter von Farbigen wurden in der Studie, in der 124 Teilnehmer jeweils 100 echte und fiktive Gesichter beurteilten, häufig nicht als solche erkannt. Dies könnte darauf hindeuten, dass künstliche Modelle, insbesondere „StyleGAN2“ von Nvidia, in ihrer Fähigkeit, authentische nicht-weiße Gesichter zu erzeugen, eingeschränkt sind.

Auswirkungen auf Identität und Realitätswahrnehmung

Die Studie zeigt auch, dass künstliche Intelligenz-Technologien dazu neigen, die Merkmale farbiger Menschen, wie Haut- und Augenfarbe, so zu verändern, dass sie wie weiße Menschen aussehen. Elizabeth Miller, Doktorandin an der Australian National University, weist darauf hin, dass Menschen, die KI-Gesichter für echt hielten, paradoxerweise auch am sichersten waren, dass ihre Urteile richtig waren. Dies wirft die Frage auf, ob Menschen in der Lage sind, künstlich generierte Bilder von echten Gesichtern zu unterscheiden, was die Verbreitung von Fake News und Identitätsdiebstahl erleichtern könnte.

Das Phänomen der Unsymmetrie

Interessanterweise nutzen künstliche Gesichter laut Miller und Dawel die Tendenz des Menschen aus, physische Unterschiede falsch zu interpretieren. So neigen weiße künstliche Gesichter dazu, asymmetrischer als reale Gesichter zu sein, was viele Betrachter fälschlicherweise als Beweis für ihre Echtheit interpretieren.

Die Notwendigkeit von Gegenmaßnahmen

Angesichts der rasanten Entwicklung der Technologie und der zunehmenden Schwierigkeit, fiktive Gesichter von menschlichen zu unterscheiden, fordern die Expertinnen Maßnahmen, um solche fatalen Fehleinschätzungen zu verhindern. Werkzeuge, die Betrüger präzise identifizieren können, sind dringend erforderlich, um den Risiken entgegenzuwirken.

Im Rahmen dieser Thematik veranstalten wir am 7. Dezember 2023 einen speziellen Online-Workshop zum Thema ‚Künstliche Intelligenz‘, zu dem alle Interessierten herzlich eingeladen sind. Kosten: 30 EUR. Für Steady “BotschafterrPLUS”: kostenlos. Zur Anmeldung

Fazit

Die Ergebnisse der Studie unterstreichen die Dringlichkeit einer vielfältigeren und ausgewogeneren Trainingsdatenbank, um Verzerrungen zu vermeiden und eine realistische Darstellung aller Menschen zu gewährleisten. Sie mahnen zur Vorsicht bei der Verwendung von künstlich generierten Bildern und fordern innovative Lösungen zur Bekämpfung von Fehlinformationen und Identitätsdiebstahl durch künstliche Intelligenz.

Quelle: AI faces look more real than actual human faces

Studie: AI Hyperrealism: Why AI Faces Are Perceived as More Real Than Human Ones – Elizabeth J. Miller, Ben A. Steward, Zak Witkower, Clare A. M. Sutherland, Eva G. Krumhuber, Amy Dawel, 2023

Das könnte Sie auch interessieren:
Warnung vor personalisierter Desinformation durch KI

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)