200 Facebook-Mitarbeiter haben sich bei Facebook darüber beschwert, wie im Gaza-Konflikt mit pro-palästinensischen Inhalten umgegangen wird.
Ihrer Ansicht nach entscheiden sowohl menschliche als auch automatische Content-Kontrollsysteme der Plattform zu einseitig zugunsten Israels, während pro-palästinensische Meldungen oft einfach zensiert und gelöscht werden. Um ihrem Unmut über diese aus ihrer Sicht unfaire Praxis Ausdruck zu verleihen, haben knapp 200 Facebook-Angestellte einen offenen Brief unterschrieben, der intern im Unternehmen zirkuliert.
Freie Meinungsäußerung
„Wie Mitarbeiter, die Presse und Mitglieder des Kongresses bereits aufgezeigt haben und sich auch an sinkenden Bewertungen im App Store ablesen lässt, glauben viele User und ein großer Teil unserer breiteren Community, dass wir unserem Versprechen nicht gerecht werden, für eine freie Meinungsäußerung einzutreten, was die ganze Situation in Palästina betrifft“, zitiert die „Financial Times“ aus dem internen Schreiben. Dieses wurde erst kürzlich am firmeneigenen Message-Board gepostet und hat seitdem schon fast 200 anonyme Unterschriften von Unterstützern.
„Wir sind überzeugt, dass Facebook mehr tun kann, um seine Nutzer zu verstehen und daran arbeiten muss, deren Vertrauen wiederzugewinnen“, heißt es weiter. Um das Ungleichgewicht im Zusammenhang mit Meldungen zum Gaza-Konflikt auszugleichen, müssten vor allem die menschlichen und automatischen Kontrollsysteme des Online-Portals überarbeitet und verbessert werden. Die Mitarbeiter schlagen der Führungsetage zudem vor, dass neben internen auch externe Experten in die Prüfung betreffender Inhalte einbezogen werden sollen, um eine möglichst objektive Gewichtsverteilung zu garantieren.
Algorithmus löschte Beiträge
Während der jüngsten Auseinandersetzung zwischen Israelis und Palästinensern hat der Facebook-Algorithmus viele Wörter wie „Widerstand“ oder „Märtyrer“, die sehr oft von palästinensischen Usern verwendet wurden, automatisch erfasst und als Inhalte gekennzeichnet, die als Aufruf zur Gewalt verstanden werden könnten. Gleichzeitig wurden aber etwa auch Beiträge einfach deshalb gelöscht, weil in ihnen die al-Aqsa-Moschee erwähnt worden war. Sie gilt als drittwichtigste heilige Stätte des Islam und wurde vom Algorithmus fälschlicherweise als „Terrororganisation“ interpretiert.
[mk_ad]
Quelle: Pressetext.com
Auch interessant:
Mindestens einmal am Tag liest man auf Facebook den Satz: „Ich bin gehackt worden“! Diesen Satz bekommt man dann von Nutzern zu lesen, nachdem über ihr Facebook-Konto irgendwelche dubiosen Statusbeiträge, Bilder oder Videos veröffentlicht wurden.
Wenn dir dieser Beitrag gefallen hat und du die Bedeutung fundierter Informationen schätzt, werde Teil des exklusiven Mimikama Clubs! Unterstütze unsere Arbeit und hilf uns, Aufklärung zu fördern und Falschinformationen zu bekämpfen. Als Club-Mitglied erhältst du:
📬 Wöchentlichen Sonder-Newsletter: Erhalte exklusive Inhalte direkt in dein Postfach.
🎥 Exklusives Video* „Faktenchecker-Grundkurs“: Lerne von Andre Wolf, wie du Falschinformationen erkennst und bekämpfst.
📅 Frühzeitiger Zugriff auf tiefgehende Artikel und Faktenchecks: Sei immer einen Schritt voraus.
📄 Bonus-Artikel, nur für dich: Entdecke Inhalte, die du sonst nirgendwo findest.
📝 Teilnahme an Webinaren und Workshops: Sei live dabei oder sieh dir die Aufzeichnungen an.
✔️ Qualitativer Austausch: Diskutiere sicher in unserer Kommentarfunktion ohne Trolle und Bots.
Mach mit und werde Teil einer Community, die für Wahrheit und Klarheit steht. Gemeinsam können wir die Welt ein bisschen besser machen!
* In diesem besonderen Kurs vermittelt dir Andre Wolf, wie du Falschinformationen erkennst und effektiv bekämpfst. Nach Abschluss des Videos hast du die Möglichkeit, dich unserem Rechercheteam anzuschließen und aktiv an der Aufklärung mitzuwirken – eine Chance, die ausschließlich unseren Club-Mitgliedern vorbehalten ist!
Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)

