Peinlich: Facebook-Algorithmus verwechselte schwarze Menschen mit Affen

Autor: Annika Hommer


Liebe Leserin, lieber Leser,

jeden Tag strömt eine Flut von Informationen auf uns ein. Doch wie viele davon sind wirklich wahr? Wie viele sind zuverlässig und genau? Wir bei Mimikama arbeiten hart daran, diese Fragen zu beantworten und dir eine Informationsquelle zu bieten, der du vertrauen kannst.

Aber um erfolgreich zu sein, brauchen wir deine Hilfe. Du hast es in der Hand, eine Welt voller vertrauenswürdiger Informationen zu schaffen, indem du uns jetzt unterstützt. Jede Unterstützung, ob groß oder klein, ist ein wichtiger Beitrag zu unserer Mission.

Werde Teil einer Bewegung, die sich für die Wahrheit einsetzt. Deine Unterstützung ist ein starkes Signal für eine bessere Informationszukunft.

❤️ Herzlichen Dank

Du kannst uns entweder via PayPal oder mittels einer Banküberweisung unterstützen. Möchtest Du uns längerfristig unterstützen, dann kannst Du dies gerne mittels Steady oder Patreon tun.


Information
Information

Für das Versagen des Facebook-Algorithmus gibt es mittlerweile diverse Beispiele. Bei einem aktuellen Vorfall wurde Menschen, die sich ein Video über einen rassistischen Vorfall in den USA ansahen, der Vorschlag „weitere Videos über Primaten“ angezeigt.

Unausgereifter AlgorithmusDass der Facebook-Algorithmus nicht immer genau weiß, was er tut, ist bereits bekannt. Da wurden in der Vergangenheit schon Fotos von Spargel-Gemüse für männliche Genitalien gehalten oder Faktenchecks als Fakenews eingestuft und gesperrt (*hust* auch bei uns schon vorgekommen, danke Facebook).

Die aktuelle Algorithmus-Panne geht noch darüber hinaus. Bei dem Video „Weißer Mann ruft Polizei wegen schwarzen Männern am Hafen“ wurden die gezeigten People of Color (Menschen mit dunkler Hautfarbe) vom Facebook-Algorithmus als Primaten erkannt und im Anschluss entsprechende weitere Videos vorgeschlagen.

Es handelt sich dabei um dieses Video:

Facebook

Mit dem Laden des Beitrags akzeptieren Sie die Datenschutzerklärung von Facebook.
Mehr erfahren

Beitrag laden

Die Vorschlagsfunktion wurde inzwischen von Facebook deaktiviert und das Unternehmen entschuldigte sich für den „eindeutig inakzeptablen Fehler“ bei allen, „die diese beleidigenden Empfehlungen gesehen haben könnten“. Die KI sei zwar bereits verbessert worden, aber noch immer nicht perfekt und bedürfe weiterer Fortschritte, so eine Sprecherin des Tech-Konzerns.

Gesichtserkennung nicht nur bei Facebook fehlerhaft

Die von der Sprecherin angesprochene künstliche Intelligenz nutzt unter anderem Gesichtserkennung und wird bei Facebook eingesetzt, um Inhalte für die Nutzer zu personalisieren. Der Einsatz der Gesichtserkennung und deren Ungenauigkeit wird von Bürgerrechtlern bereits seit langem kritisiert. Wie ein Bericht von „Engadget“ zeigt, ist das Problem aber keinesfalls eines, das nur Facebook betrifft. Auch Google Fotos markierte durch eine falsche Gesichtserkennung bereits Fotos von People of Color mit dem Wort „Gorilla“. Gelöst wurde das Problem von Google durch die Entfernung des Wortes „Gorilla“ aus Suchen und Bildmarkierungen.


Quelle: Facebook-Algorithmus verwechselte schwarze Menschen mit Affen 


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstand durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Mehr von Mimikama