Nie mehr wichtige Faktenchecks verpassen!
Melden Sie sich für unseren WhatsApp-Channel, die Smartphone-App (für iOS und Android) oder unseren Newsletter an und erhalten Sie alle Faktenchecks und Updates sofort. Einfach anmelden, immer einen Schritt voraus!


Laut einem Experiment hebt die Plattform Twitter in Tweets immer bestimmte Fotos hervor – Konzern testet nun System

Der Algorithmus des Mikroblogging-Dienstes Twitter bevorzugt offenbar Fotos von Weißen. In einem Experiment hat Kryptographie-Experte Tony Arcieri einem Tweet ein Bild mit jeweils einem Foto von US-Senator Mitch McConnel und dem ehemaligen Präsidenten Barack Obama angeheftet und dabei festgestellt, dass der Algorithmus der Plattform immer das Bild des weißen McConnel hervorhebt.

„Mehr Analysen nötig“

Twitter will den eigenen Algorithmus nun auf rassistische Vorurteile überprüfen.

„Wir haben zwar in früheren Tests keine Befangenheit festgestellt. Aber es ist offensichtlich, dass hier mehr Analysen nötig sind. Wir werden unsere Arbeit offenlegen, damit andere sie sehen und wiederholen können“,

sagt Twitter-Sprecherin Liz Kelley.

[mk_ad]

In Arcieris Experiment hat Twitter Barack Obamas Gesicht nur hervorgehoben, als er die Bilder so manipuliert hat, dass die Hautfarben nicht mehr erkennbar waren.

Dem Experten zufolge ist diese Befangenheit möglicherweise gar nicht beabsichtigt, hat sich aber durch den Prozess des Machine Learnings entwickelt.

Apps unterschiedlich befangen

Andere User haben ähnliche Tests wie den von Arcieri durchgeführt. Dabei hat sich gezeigt, dass sich die Präferenzen des Algorithmus bei verschiedenen Twitter-Apps unterscheidet.

Beispielsweise ist die Dashboard-Anwendung TweetDeck weniger befangen. Durch das Hervorheben von bestimmten Hautfarben kann die Person, die im Tweet im Mittelpunkt stehen sollte, leicht in den Hintergrund gedrängt werden.

Mehr Informationen hierzu findest du in diesem Artikel.

Das könnte dich auch interessieren: EU: Facebook, Twitter und Co müssen mehr gegen Fakenews tun!

Quelle: pressetext
Artikelbild: Shutterstock / Von Evan El-Amin


Wenn dir dieser Beitrag gefallen hat und du die Bedeutung fundierter Informationen schätzt, werde Teil des exklusiven Mimikama Clubs! Unterstütze unsere Arbeit und hilf uns, Aufklärung zu fördern und Falschinformationen zu bekämpfen. Als Club-Mitglied erhältst du:

📬 Wöchentlichen Sonder-Newsletter: Erhalte exklusive Inhalte direkt in dein Postfach.
🎥 Exklusives Video* „Faktenchecker-Grundkurs“: Lerne von Andre Wolf, wie du Falschinformationen erkennst und bekämpfst.
📅 Frühzeitiger Zugriff auf tiefgehende Artikel und Faktenchecks: Sei immer einen Schritt voraus.
📄 Bonus-Artikel, nur für dich: Entdecke Inhalte, die du sonst nirgendwo findest.
📝 Teilnahme an Webinaren und Workshops: Sei live dabei oder sieh dir die Aufzeichnungen an.
✔️ Qualitativer Austausch: Diskutiere sicher in unserer Kommentarfunktion ohne Trolle und Bots.

Mach mit und werde Teil einer Community, die für Wahrheit und Klarheit steht. Gemeinsam können wir die Welt ein bisschen besser machen!

* In diesem besonderen Kurs vermittelt dir Andre Wolf, wie du Falschinformationen erkennst und effektiv bekämpfst. Nach Abschluss des Videos hast du die Möglichkeit, dich unserem Rechercheteam anzuschließen und aktiv an der Aufklärung mitzuwirken – eine Chance, die ausschließlich unseren Club-Mitgliedern vorbehalten ist!


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)