Microsoft ändert rassistische Software

Autor: Tom Wannenmacher

Wir brauchen deine Hilfe – Unterstütze uns!
In einer Welt, die zunehmend von Fehlinformationen und Fake News überflutet wird, setzen wir bei Mimikama uns jeden Tag dafür ein, dir verlässliche und geprüfte Informationen zu bieten. Unser Engagement im Kampf gegen Desinformation bedeutet, dass wir ständig aufklären und informieren müssen, was natürlich auch Kosten verursacht.

Deine Unterstützung ist jetzt wichtiger denn je.
Wenn du den Wert unserer Arbeit erkennst und die Bedeutung einer gut informierten Gesellschaft für die Demokratie schätzt, bitten wir dich, über eine finanzielle Unterstützung nachzudenken.

Schon kleine Beiträge können einen großen Unterschied machen und helfen uns, unsere Unabhängigkeit zu bewahren und unsere Mission fortzusetzen.
So kannst du helfen!
PayPal: Für schnelle und einfache Online-Zahlungen.
Steady: für regelmäßige Unterstützung.

"Face-API": Fehlerhaftes Gesichtserkennungssystem soll Hauttöne kennenlernen.
"Face-API": Fehlerhaftes Gesichtserkennungssystem soll Hauttöne kennenlernen.

„Face-API“: Fehlerhaftes Gesichtserkennungssystem soll Hauttöne kennenlernen.

Microsoft hat einige wesentliche Verbesserungen an seiner fehlerhaften Gesichtserkennungs-Software „Face-API“ angekündigt. Die Software wurde Anfang 2018 wegen ihrer Fehlerquote von bis zu 20,8 Prozent in einer Forschungsarbeit massiv kritisiert. Experten warfen dem System rassistische Züge vor, nachdem es ihm nicht gelang, das Geschlecht von Menschen mit dunkleren Hauttönen korrekt zu identifizieren.

Branchenweite Herausforderung

Insbesondere bei Frauen versagte Face-API bislang.

„Mit den neuen Verbesserungen sind wir in der Lage, die Fehlerraten für Männer und Frauen mit dunkler Haut um das Zwanzigfache zu reduzieren. Für alle Frauen kann die Fehlerrate um das Neunfache reduziert werden“, so Microsoft in einem aktuellen Blog-Post. Im selben Zug weist das Unternehmen darauf hin, dass ihre fehlerhafte Gesichtserkennungs-Software auf ein weitaus größeres Problem deuten könnte.

„Die höheren Fehlerraten bei Frauen mit dunklerer Haut weisen auf eine branchenweite Herausforderung hin: Künstliche-Intelligenz-Technologien sind nur so gut wie die Daten, mit denen sie trainiert werden. Wenn ein Gesichtserkennungssystem über alle Menschen hinweg gut funktionieren soll, muss das Trainings-Datenset eine Vielfalt von Hauttönen sowie Faktoren wie Frisur, Schmuck und Brillen repräsentieren“, informiert Microsoft.

Logische Voreingenommenheit

Das Face-API-Team hat nun drei wichtige Änderungen an der Software vorgenommen. Es erweiterte und überarbeitete Trainings- und Benchmark-Datensätze, startete neue Versuche hinsichtlich der Datenerfassung zur weiteren Verbesserung der Trainingsdaten, indem es sich speziell auf Hautton, Geschlecht und Alter konzentrierte und verbesserte den Klassifikator, um präzisere Resultate zu erzielen.

Es sei nun eine Herausforderung, KI-Systeme so zu trainieren, dass sie gesellschaftliche Vorurteile nicht in ihre eigene Entscheidungsfindung einbeziehen.

„Diese Systeme werden notwendigerweise die gesellschaftliche Voreingenommenheit reproduzieren“, kritisiert Hanna Wallach vom Microsoft Research Lab New York abschließend.

Quelle: Pte

Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.