„Face-API“: Fehlerhaftes Gesichtserkennungssystem soll Hauttöne kennenlernen.

Microsoft hat einige wesentliche Verbesserungen an seiner fehlerhaften Gesichtserkennungs-Software „Face-API“ angekündigt. Die Software wurde Anfang 2018 wegen ihrer Fehlerquote von bis zu 20,8 Prozent in einer Forschungsarbeit massiv kritisiert. Experten warfen dem System rassistische Züge vor, nachdem es ihm nicht gelang, das Geschlecht von Menschen mit dunkleren Hauttönen korrekt zu identifizieren.

Branchenweite Herausforderung

Insbesondere bei Frauen versagte Face-API bislang.

„Mit den neuen Verbesserungen sind wir in der Lage, die Fehlerraten für Männer und Frauen mit dunkler Haut um das Zwanzigfache zu reduzieren. Für alle Frauen kann die Fehlerrate um das Neunfache reduziert werden“, so Microsoft in einem aktuellen Blog-Post. Im selben Zug weist das Unternehmen darauf hin, dass ihre fehlerhafte Gesichtserkennungs-Software auf ein weitaus größeres Problem deuten könnte.

„Die höheren Fehlerraten bei Frauen mit dunklerer Haut weisen auf eine branchenweite Herausforderung hin: Künstliche-Intelligenz-Technologien sind nur so gut wie die Daten, mit denen sie trainiert werden. Wenn ein Gesichtserkennungssystem über alle Menschen hinweg gut funktionieren soll, muss das Trainings-Datenset eine Vielfalt von Hauttönen sowie Faktoren wie Frisur, Schmuck und Brillen repräsentieren“, informiert Microsoft.

Logische Voreingenommenheit

Das Face-API-Team hat nun drei wichtige Änderungen an der Software vorgenommen. Es erweiterte und überarbeitete Trainings- und Benchmark-Datensätze, startete neue Versuche hinsichtlich der Datenerfassung zur weiteren Verbesserung der Trainingsdaten, indem es sich speziell auf Hautton, Geschlecht und Alter konzentrierte und verbesserte den Klassifikator, um präzisere Resultate zu erzielen.

Es sei nun eine Herausforderung, KI-Systeme so zu trainieren, dass sie gesellschaftliche Vorurteile nicht in ihre eigene Entscheidungsfindung einbeziehen.

„Diese Systeme werden notwendigerweise die gesellschaftliche Voreingenommenheit reproduzieren“, kritisiert Hanna Wallach vom Microsoft Research Lab New York abschließend.

Quelle: Pte


Wenn dir dieser Beitrag gefallen hat und du die Bedeutung fundierter Informationen schätzt, werde Teil des exklusiven Mimikama Clubs! Unterstütze unsere Arbeit und hilf uns, Aufklärung zu fördern und Falschinformationen zu bekämpfen. Als Club-Mitglied erhältst du:

📬 Wöchentlichen Sonder-Newsletter: Erhalte exklusive Inhalte direkt in dein Postfach.
🎥 Exklusives Video* „Faktenchecker-Grundkurs“: Lerne von Andre Wolf, wie du Falschinformationen erkennst und bekämpfst.
📅 Frühzeitiger Zugriff auf tiefgehende Artikel und Faktenchecks: Sei immer einen Schritt voraus.
📄 Bonus-Artikel, nur für dich: Entdecke Inhalte, die du sonst nirgendwo findest.
📝 Teilnahme an Webinaren und Workshops: Sei live dabei oder sieh dir die Aufzeichnungen an.
✔️ Qualitativer Austausch: Diskutiere sicher in unserer Kommentarfunktion ohne Trolle und Bots.

Mach mit und werde Teil einer Community, die für Wahrheit und Klarheit steht. Gemeinsam können wir die Welt ein bisschen besser machen!

* In diesem besonderen Kurs vermittelt dir Andre Wolf, wie du Falschinformationen erkennst und effektiv bekämpfst. Nach Abschluss des Videos hast du die Möglichkeit, dich unserem Rechercheteam anzuschließen und aktiv an der Aufklärung mitzuwirken – eine Chance, die ausschließlich unseren Club-Mitgliedern vorbehalten ist!


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)