Facebook löscht 583 Millionen Fake-Accounts auf seiner Plattform

Autor: Kathrin Helmreich


Liebe Leserin, lieber Leser,

jeden Tag strömt eine Flut von Informationen auf uns ein. Doch wie viele davon sind wirklich wahr? Wie viele sind zuverlässig und genau? Wir bei Mimikama arbeiten hart daran, diese Fragen zu beantworten und dir eine Informationsquelle zu bieten, der du vertrauen kannst.

Aber um erfolgreich zu sein, brauchen wir deine Hilfe. Du hast es in der Hand, eine Welt voller vertrauenswürdiger Informationen zu schaffen, indem du uns jetzt unterstützt. Jede Unterstützung, ob groß oder klein, ist ein wichtiger Beitrag zu unserer Mission.

Werde Teil einer Bewegung, die sich für die Wahrheit einsetzt. Deine Unterstützung ist ein starkes Signal für eine bessere Informationszukunft.

❤️ Herzlichen Dank

Du kannst uns entweder via PayPal oder mittels einer Banküberweisung unterstützen. Möchtest Du uns längerfristig unterstützen, dann kannst Du dies gerne mittels Steady oder Patreon tun.


Allein im ersten Quartal des Jahres macht Facebook 583 Millionen Fake-Accounts dicht und offenbart so den enormen Missbrauch der Plattform

Wie der Independent berichtet, wurde der Social Media Gigant Facebook bereits seit längerem für die Art und Weise kritisiert, wie die Plattform missbraucht wird.

Allein zwischen Januar und März dieses Jahres seien 837 Millionen Spam-Inhalte abgefangen worden.

Nun sind jedoch die ersten Erfolge auf der Suche nach kriminellem Verhalten auf Facebook zu verzeichnen. “Fast 100 Prozent” dieser Inhalte wurden gefunden und entfernt, bevor sie gemeldet wurden. Flankiert wurde diese Maßnahme von der Entfernung von rund 583 Millionen gefälschter Konten, von denen die meisten innerhalb weniger Minuten nach ihrer Aktivierung deaktiviert wurden.

Das soziale Netzwerk gibt jedoch zu, dass die automatisierten Tools noch immer mit Hassreden zu kämpfen haben. Nur 38 Prozent der mehr als 2,5 Millionen entfernten Inhalte dieser Art, wurden von diesen Tools entdeckt.

“Es müsse mehr getan werden, um derartige Hilfsmittel zur Erkennung von Hassrede zu verbessern”,

so Guy Rosen, Facebook’s Vice President of Product Management.

„Wir haben noch viel zu tun, um Missbrauch zu verhindern. Es ist teilweise so, dass eine Technologie wie künstliche Intelligenz, obwohl sie vielversprechend ist, noch Jahre davon entfernt ist, gegen die meisten unangemessenen Inhalte wirksam zu sein, weil der Kontext so wichtig ist. Zum Beispiel ist künstliche Intelligenz noch nicht gut genug, um festzustellen, ob jemand Hass verbreitet oder etwas beschreibt, was ihm passiert ist, damit er das Bewusstsein für das Thema schärfen kann.

Darüber hinaus haben wir es in vielen Bereichen – ob Spam, Pornos oder gefälschte Accounts – mit raffinierten Gegnern zu tun, die ständig ihre Taktiken ändern, um unsere Kontrollen zu umgehen, was bedeutet, dass wir unsere Anstrengungen kontinuierlich ausbauen und anpassen müssen. Deshalb investieren wir viel in mehr Menschen und bessere Technologien, um Facebook für alle sicherer zu machen.“
(*Übersetzung mit DeepL)

Zwischen 3 und 4 Prozent der mehr als 2 Milliarden monatlich aktiver Nutzer seien gefälschte Konten – so glaubt Facebook. In Bezug auf grafisch gewalttätige Darstellungen wurden mehr als 3,4 Millionen Beiträge entweder entfernt oder mit Warnhinweisen versehen. Ein Teil des Anstiegs der erkannten unzulässigen Inhalte sei aber auch auf eine Zunahme von diesen direkt auf der Plattform zurückzuführen. Ergo wird mehr erkannt, weil einfach mehr dieser Inhalte auf dem sozialen Netzwerk hochgeladen und geteilt werden.

Vorsitzender des Kulturausschusses, Damian Collins, sagte, dass Facebook nach einem Auftritt von Chief Technology Officer Mike Schroepfer in seiner Antwort kein “ausreichendes Maß an Details und Transparenz” bieten konnte. Auch wurde Facebooks Gründer Mark Zuckerberg von dem Komitee aufgefordert, zu erscheinen.


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstand durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Mehr von Mimikama