Peinlich: Facebook-Algorithmus verwechselte schwarze Menschen mit Affen

Ein Moment Ihrer Zeit für die Wahrheit.

In einer Welt voller Fehlinformationen und Fake News ist es unser Auftrag bei Mimikama.org, Ihnen zuverlässige und geprüfte Informationen zu liefern. Tag für Tag arbeiten wir daran, die Flut an Desinformation einzudämmen und Aufklärung zu betreiben. Doch dieser Einsatz für die Wahrheit benötigt nicht nur Hingabe, sondern auch Ressourcen. Heute wenden wir uns an Sie: Wenn Sie die Arbeit schätzen, die wir leisten, und glauben, dass eine gut informierte Gesellschaft für die Demokratie essentiell ist, bitten wir Sie, über eine kleine Unterstützung nachzudenken. Schon mit wenigen Euro können Sie einen Unterschied machen.

Stellen Sie sich vor, jeder, der diese Zeilen liest, würde sich mit einem kleinen Beitrag beteiligen – gemeinsam könnten wir unsere Unabhängigkeit sichern und weiterhin gegen Fehlinformationen ankämpfen.

So kannst Du unterstützen:

PayPal: Für schnelle und einfache Online-Zahlungen.
Steady oder Patreon: für regelmäßige Unterstützung.

Autor: Annika Hommer

Information
Information

Für das Versagen des Facebook-Algorithmus gibt es mittlerweile diverse Beispiele. Bei einem aktuellen Vorfall wurde Menschen, die sich ein Video über einen rassistischen Vorfall in den USA ansahen, der Vorschlag „weitere Videos über Primaten“ angezeigt.

Unausgereifter AlgorithmusDass der Facebook-Algorithmus nicht immer genau weiß, was er tut, ist bereits bekannt. Da wurden in der Vergangenheit schon Fotos von Spargel-Gemüse für männliche Genitalien gehalten oder Faktenchecks als Fakenews eingestuft und gesperrt (*hust* auch bei uns schon vorgekommen, danke Facebook).

Die aktuelle Algorithmus-Panne geht noch darüber hinaus. Bei dem Video „Weißer Mann ruft Polizei wegen schwarzen Männern am Hafen“ wurden die gezeigten People of Color (Menschen mit dunkler Hautfarbe) vom Facebook-Algorithmus als Primaten erkannt und im Anschluss entsprechende weitere Videos vorgeschlagen.

Es handelt sich dabei um dieses Video:

Die Vorschlagsfunktion wurde inzwischen von Facebook deaktiviert und das Unternehmen entschuldigte sich für den „eindeutig inakzeptablen Fehler“ bei allen, „die diese beleidigenden Empfehlungen gesehen haben könnten“. Die KI sei zwar bereits verbessert worden, aber noch immer nicht perfekt und bedürfe weiterer Fortschritte, so eine Sprecherin des Tech-Konzerns.

Gesichtserkennung nicht nur bei Facebook fehlerhaft

Die von der Sprecherin angesprochene künstliche Intelligenz nutzt unter anderem Gesichtserkennung und wird bei Facebook eingesetzt, um Inhalte für die Nutzer zu personalisieren. Der Einsatz der Gesichtserkennung und deren Ungenauigkeit wird von Bürgerrechtlern bereits seit langem kritisiert. Wie ein Bericht von „Engadget“ zeigt, ist das Problem aber keinesfalls eines, das nur Facebook betrifft. Auch Google Fotos markierte durch eine falsche Gesichtserkennung bereits Fotos von People of Color mit dem Wort „Gorilla“. Gelöst wurde das Problem von Google durch die Entfernung des Wortes „Gorilla“ aus Suchen und Bildmarkierungen.


Quelle: Facebook-Algorithmus verwechselte schwarze Menschen mit Affen 
Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.