KI-Gesichter und Realitätswahrnehmung: Eine Analyse
KI-generierte weiße Gesichter werden oft als realistischer empfunden als echte Gesichter, während bei farbigen Gesichtern das Gegenteil der Fall ist.
Dein Beitrag hilft Mimikama beim Faktencheck: Unterstütze uns via PayPal, Banküberweisung, Steady oder Patreon. Deine Hilfe zählt, um Fakten zu klären und Verlässlichkeit zu sichern. Unterstütze jetzt und mach den Unterschied! ❤️ Danke
Studien der Australian National University zeigen, dass künstlich generierte weiße Gesichter oft als realistischer wahrgenommen werden als echte Gesichter, während dies bei farbigen Gesichtern umgekehrt ist, was auf eine Verzerrung der KI-Trainingsdaten hindeutet und potenzielle rassistische Vorurteile verstärken könnte.
Diese Erkenntnisse unterstreichen die Notwendigkeit einer diversifizierten Datenbasis bei der Entwicklung von KI und warnen vor den Risiken, die sich aus einer Verzerrung ergeben, insbesondere im Hinblick auf Fake News und Identitätsdiebstahl.
Die Studie der Australian National University fand heraus, dass fiktive Gesichter, die durch generative künstliche Intelligenz (KI) generiert wurden, insbesondere wenn sie weiße Gesichter darstellten, von den Betrachtern oft als realistischer empfunden wurden als echte Gesichter. Diese Beobachtung deutet auf einen möglichen Bias in der Technologie hin, da diese hauptsächlich auf weiße Gesichter trainiert wird, was letztlich rassistische Vorurteile verstärken könnte.
KI-Verzerrung und Rassismus
Die Wissenschaftlerin Amy Dawel von der Australian National University weist darauf hin, dass diese Wahrnehmungsdiskrepanz auf eine Überrepräsentation weißer Gesichter in den Trainingsdatensätzen zurückzuführen ist. Künstlich generierte Gesichter von Farbigen wurden in der Studie, in der 124 Teilnehmer jeweils 100 echte und fiktive Gesichter beurteilten, häufig nicht als solche erkannt. Dies könnte darauf hindeuten, dass künstliche Modelle, insbesondere „StyleGAN2“ von Nvidia, in ihrer Fähigkeit, authentische nicht-weiße Gesichter zu erzeugen, eingeschränkt sind.
Auswirkungen auf Identität und Realitätswahrnehmung
Die Studie zeigt auch, dass künstliche Intelligenz-Technologien dazu neigen, die Merkmale farbiger Menschen, wie Haut- und Augenfarbe, so zu verändern, dass sie wie weiße Menschen aussehen. Elizabeth Miller, Doktorandin an der Australian National University, weist darauf hin, dass Menschen, die KI-Gesichter für echt hielten, paradoxerweise auch am sichersten waren, dass ihre Urteile richtig waren. Dies wirft die Frage auf, ob Menschen in der Lage sind, künstlich generierte Bilder von echten Gesichtern zu unterscheiden, was die Verbreitung von Fake News und Identitätsdiebstahl erleichtern könnte.
Das Phänomen der Unsymmetrie
Interessanterweise nutzen künstliche Gesichter laut Miller und Dawel die Tendenz des Menschen aus, physische Unterschiede falsch zu interpretieren. So neigen weiße künstliche Gesichter dazu, asymmetrischer als reale Gesichter zu sein, was viele Betrachter fälschlicherweise als Beweis für ihre Echtheit interpretieren.
Die Notwendigkeit von Gegenmaßnahmen
Angesichts der rasanten Entwicklung der Technologie und der zunehmenden Schwierigkeit, fiktive Gesichter von menschlichen zu unterscheiden, fordern die Expertinnen Maßnahmen, um solche fatalen Fehleinschätzungen zu verhindern. Werkzeuge, die Betrüger präzise identifizieren können, sind dringend erforderlich, um den Risiken entgegenzuwirken.
Im Rahmen dieser Thematik veranstalten wir am 7. Dezember 2023 einen speziellen Online-Workshop zum Thema ‚Künstliche Intelligenz‘, zu dem alle Interessierten herzlich eingeladen sind. Kosten: 30 EUR. Für Steady “BotschafterrPLUS”: kostenlos. Zur Anmeldung
Fazit
Die Ergebnisse der Studie unterstreichen die Dringlichkeit einer vielfältigeren und ausgewogeneren Trainingsdatenbank, um Verzerrungen zu vermeiden und eine realistische Darstellung aller Menschen zu gewährleisten. Sie mahnen zur Vorsicht bei der Verwendung von künstlich generierten Bildern und fordern innovative Lösungen zur Bekämpfung von Fehlinformationen und Identitätsdiebstahl durch künstliche Intelligenz.
Quelle: AI faces look more real than actual human faces
Studie: AI Hyperrealism: Why AI Faces Are Perceived as More Real Than Human Ones – Elizabeth J. Miller, Ben A. Steward, Zak Witkower, Clare A. M. Sutherland, Eva G. Krumhuber, Amy Dawel, 2023
Das könnte Sie auch interessieren:
Warnung vor personalisierter Desinformation durch KI
Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge (keine Faktenchecks) entstand durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)
Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum
INSERT_STEADY_CHECKOUT_HERE
Sind Sie besorgt über Falschinformationen im Internet? Mimikama setzt sich für ein faktenbasiertes und sicheres Internet ein. Ihre Unterstützung ermöglicht es uns, weiterhin Qualität und Echtheit im Netz zu gewährleisten. Bitte unterstützen Sie und helfen Sie uns, ein vertrauenswürdiges digitales Umfeld zu schaffen. Ihre Unterstützung zählt! Werde auch Du ein jetzt ein Botschafter von Mimikama
Mimikama Workshops & Vorträge: Stark gegen Fake News!
Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.