Glückwünsche automatisch generiert und gewaltbereite Gruppen nicht ausreichend bekämpft
Facebook generiert automatisch Videos, die Extremisten feiern. Im Zuge einer Promotion des Social-Media-Konzerns erstellt ein Algorithmus aus den Inhalten, die auf den Accounts in einem Jahr gesammelt wurden, eine feierliche Videomontage, die ein Dankeschön an Nutzer darstellen soll.
Unter den Videos finden sich auch solche, die Inhalte von extremistischen Gruppen wie dem sogenannten Islamischen Staat (IS) zeigen.
Längst nicht alles wird erkannt
Die US-Börsenaufsicht SEC hat aufgrund der Beschwerde eines Whistleblowers festgestellt, dass Facebook bei Angaben über den Erfolg bei der Bekämpfung von extremistischen Gruppen übertrieben hat.
Es würden noch immer viele Inhalte solcher Gruppen an den Sicherheits-Algorithmen vorbeikommen. Sie würden als gewöhnliche Inhalte klassifiziert und darum auch in den automatischen Videos auftauchen.
„Bei der Bekämpfung von extremistischen Inhalten auf Facebook kann man durch Bilderkennung und Spracherkennung einen Großteil der schädlichen Inhalte aufspüren, aber leider nicht 100 Prozent. Es gibt so eine gewaltige Fülle an Inhalten, dass es schwer ist, alles zu kontrollieren. Hier findet ein Katz-und-Maus-Spiel statt. Extremistische Gruppen werden immer versuchen, die Maßnahmen von Facebook zu umgehen oder das System zu manipulieren. Wenn sie nicht auf Facebook kommunizieren können, werden sie leicht andere Plattformen finden“,
sagt Social-Media-Experte Karim Bannour im Gespräch mit pressetext.
Algorithmus leicht zu umgehen
Amr Al Azm, Professor für Geschichte und Anthropologie an der Shawnee State University, arbeitet an einem Projekt der SEC, das die Effektivität der Maßnahmen von Facebook überprüfen soll.
Ihm zufolge ist es äußerst einfach, extremistische Inhalte in dem sozialen Netzwerk aufzuspüren. Einige Nutzer nennen sogar Gruppen wie den IS oder die Al-Qaida als Arbeitgeber, obwohl diese Gruppen eigentlich von Facebook gesperrt sind.
Die Künstliche Intelligenz, die Inhalte auf Facebook überwacht, sei leicht zu umgehen, beispielsweise konnte ein Nutzer IS-Propaganda posten, weil er keinen gewöhnlichen, mit Suchmaschinen auffindbaren Text verwendete, sondern ihn in einen Grafikblock einbettete. Diese Fehler seien vermeidbar, jedoch sei Facebook nicht bereit, sie zu beheben, weil das kostspielig ist.
Wenn ein Inhalt auf Facebook nicht gesperrt wird, behandelt ihn das soziale Netzwerk wie jeden anderen Inhalt, weshalb er in den feierlichen, automatisch generierten Videos auftauchen kann. Es werden darin Highlights aus einem Jahr gezeigt und sie enden mit der Nachricht „Thanks for being here, from Facebook“ („Danke, dass du hier bist, von Facebook“).
„Die sozialen Netzwerke müssen für Inhalte Verantwortung tragen. Dabei dürfen sie allerdings nicht die Kontrollmaßnahmen aus dem Ruder laufen lassen, sonst werden Nutzer, die nichts Unrechtes getan haben, gesperrt, was bereits in Richtung Zensur gehen würde“,
so Bannour.
Wenn dir dieser Beitrag gefallen hat und du die Bedeutung fundierter Informationen schätzt, werde Teil des exklusiven Mimikama Clubs! Unterstütze unsere Arbeit und hilf uns, Aufklärung zu fördern und Falschinformationen zu bekämpfen. Als Club-Mitglied erhältst du:
📬 Wöchentlichen Sonder-Newsletter: Erhalte exklusive Inhalte direkt in dein Postfach.
🎥 Exklusives Video* „Faktenchecker-Grundkurs“: Lerne von Andre Wolf, wie du Falschinformationen erkennst und bekämpfst.
📅 Frühzeitiger Zugriff auf tiefgehende Artikel und Faktenchecks: Sei immer einen Schritt voraus.
📄 Bonus-Artikel, nur für dich: Entdecke Inhalte, die du sonst nirgendwo findest.
📝 Teilnahme an Webinaren und Workshops: Sei live dabei oder sieh dir die Aufzeichnungen an.
✔️ Qualitativer Austausch: Diskutiere sicher in unserer Kommentarfunktion ohne Trolle und Bots.
Mach mit und werde Teil einer Community, die für Wahrheit und Klarheit steht. Gemeinsam können wir die Welt ein bisschen besser machen!
* In diesem besonderen Kurs vermittelt dir Andre Wolf, wie du Falschinformationen erkennst und effektiv bekämpfst. Nach Abschluss des Videos hast du die Möglichkeit, dich unserem Rechercheteam anzuschließen und aktiv an der Aufklärung mitzuwirken – eine Chance, die ausschließlich unseren Club-Mitgliedern vorbehalten ist!
Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)

