Facebook: 80% der gelöschten Hassrede wurde durch Software erkannt

Ein Moment Ihrer Zeit für die Wahrheit.

In einer Welt voller Fehlinformationen und Fake News ist es unser Auftrag bei Mimikama.org, Ihnen zuverlässige und geprüfte Informationen zu liefern. Tag für Tag arbeiten wir daran, die Flut an Desinformation einzudämmen und Aufklärung zu betreiben. Doch dieser Einsatz für die Wahrheit benötigt nicht nur Hingabe, sondern auch Ressourcen. Heute wenden wir uns an Sie: Wenn Sie die Arbeit schätzen, die wir leisten, und glauben, dass eine gut informierte Gesellschaft für die Demokratie essentiell ist, bitten wir Sie, über eine kleine Unterstützung nachzudenken. Schon mit wenigen Euro können Sie einen Unterschied machen.

Stellen Sie sich vor, jeder, der diese Zeilen liest, würde sich mit einem kleinen Beitrag beteiligen – gemeinsam könnten wir unsere Unabhängigkeit sichern und weiterhin gegen Fehlinformationen ankämpfen.

So kannst Du unterstützen:

PayPal: Für schnelle und einfache Online-Zahlungen.
Steady oder Patreon: für regelmäßige Unterstützung.

Autor: Tom Wannenmacher

Facebook erhöht Trefferquote durch Software bei Hass und Hetze
Facebook erhöht Trefferquote durch Software bei Hass und Hetze

Facebook erhöht Trefferquote durch Software bei Hass und Hetze

Immer wieder sind Hass und Hetze Thema in sozialen Medien. Vor allem auf Facebook muss man sich mit Kritik auseinandersetzen, dass hier zu lange zu wenig dagegen unternommen wurde. Die von Facebook dafür eingesetzte Software wurde aus diesem Grund stark ausgebaut. Neue Technologien wie Maschinelles Lernen, Computer Vision und Künstliche Intelligenz, unangemessene Inhalte noch schneller zu finden, werden hierfür eingesetzt.

Laut aktuellem Bericht zur Erfüllung von Facebooks Verhaltensregeln wurden im ersten Quartal 68 Prozent von problematischen Inhalten automatisch erkannt. Im dritten Quartal stieg der Prozentsatz sogar auf 80 Prozent. Facebook ist hier also offensichtlich auf dem richtigen Weg, was den Ausbau der Software angeht.

[mk_ad]

Facebook selbst schreibt zu diesem Thema:

Initially, we’ve used these systems to proactively detect potential hate speech violations and send them to our content review teams since people can better assess context where AI cannot. Starting in Q2 2019, thanks to continued progress in our systems’ abilities to correctly detect violations, we began removing some posts automatically, but only when content is either identical or near-identical to text or images previously removed by our content review team as violating our policy, or where content very closely matches common attacks that violate our policy. We only do this in select instances, and it has only been possible because our automated systems have been trained on hundreds of thousands, if not millions, of different examples of violating content and common attacks. In all other cases when our systems proactively detect potential hate speech, the content is still sent to our review teams to make a final determination. With these evolutions in our detection systems, our proactive rate has climbed to 80%, from 68% in our last report, and we’ve increased the volume of content we find and remove for violating our hate speech policy.

Screenshot: Community Standards Enforcement Report, November 2019 Edition
Screenshot: Community Standards Enforcement Report, November 2019 Edition

Auch Fake-Accounts geht es an den Kragen.

Im vergangenen Quartal wurden 1,7 Milliarden gefälschte Nutzerkonten gelöscht. Im Vergleich zum ersten Quartal des Jahres waren dies zwar 500 Millionen weniger, allerdings geht daraus hervor, dass Facebook das Anlegen falscher Accounts nun von vornherein besser blockt.

Weiters wurden im vergangenen Quartal 4,4 Millionen Inhalte mit Bezug zu Handel mit Drogen bei Facebook gelöscht, bei Instagram waren es 1,5 Millionen. Daten zu der zu Facebook gehörenden Plattform Instagram sind in diesem Bericht übrigens erstmals enthalten.

[mk_ad]

Passend zum Thema:

Hass im Netz: leider weiterhin ein großes Thema!

Quelle: Facebook-Newsroom
Artikelbild: Shutterstock / Worawee Meepian
Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.