Nie mehr wichtige Faktenchecks verpassen!
Melden Sie sich für unseren WhatsApp-Channel, die Smartphone-App (für iOS und Android) oder unseren Newsletter an und erhalten Sie alle Faktenchecks und Updates sofort. Einfach anmelden, immer einen Schritt voraus!
Facebook zeigt im neuesten Quartalsbericht, dass 97 Prozent aller Hasspostings erkannt wurden, bevor Nutzer sie meldeten.
Facebook darf ruhig stolz auf deren künstliche Intelligenz sein, denn in den letzten drei Monaten des Jahres 2020 schnitt der Konzern besser ab als je zuvor: 97 Prozent der von Facebook entfernten Hassreden wurden von den automatisierten Systemen erkannt, bevor ein Mensch sie gemeldet hat – gegenüber 94 Prozent im vorherigen Quartal und 80,5 Prozent Ende 2019.
Ende 2017 wurden sogar nur 73 Prozent aller Hasspostings automatisch erkannt, somit steigerte sich die künstliche Intelligenz zur Erkennung von Hassreden innerhalb von drei Jahren um ganze 24 Prozent – außergewöhnlich für eine so komplexe Technologie.
Herausforderung: Hasspostings im Kontext
Die große Herausforderung bei einer KI, Hasspostings zu erkennen, ist der Kontext, in dem ein Beitrag oder ein Kommentar geschrieben ist. So ist es beispielsweise ein Unterschied, ob ein Kommentar wie „Das sind tolle Neuigkeiten!“ unter einer Geburts- oder einer Todesmeldung steht.
Exakt an dieser Schraube drehten Techniker bei Facebook: Es werden nicht nur einzelne Kommentare nach typischen Schlagwörtern durchsucht, sondern die KI betrachtet auch umgebende Kommentare und den Kontext, was ein tieferes Verständnis der Sprache sowie Bildanalysen und andere Details für die richtige Erkennung benötigt.
Sprachenerkennung ebenfalls erweitert
Ein weiterer Fortschritt liegt in der Art und Weise, wie die KI-Systeme Facebooks nun in mehreren Sprachen arbeiten. Vor allem dank der Verbesserungen in der Art und Weise, wie die KI-Tools verletzende Inhalte in weit verbreiteten Sprachen wie Spanisch und Arabisch erkennen können, erreichte die Menge an Hasspostings, die entfernt wurden, 26,9 Millionen, im Vergleich zu 22,1 Millionen im vorherigen Quartal.
Woran noch gearbeitet wird
Trotz dieser ermutigenden Ergebnisse gibt es noch einige Schwachpunkte der KI, an denen in Zukunft gearbeitet wird.
Ein besonderer Schwerpunkt ist die Verbesserung der KI bei der Betrachtung von Inhalten im Kontext verschiedener Sprachen, Kulturen und Regionen. Ein und dasselbe Wort kann oft als gutartig oder hasserfüllt interpretiert werden, je nachdem, wo es veröffentlicht wird und wer es liest.
[mk_ad]
Quellen: Tech@Facebook, Community Standards Enforcement Report, Fourth Quarter 2020
Wenn dir dieser Beitrag gefallen hat und du die Bedeutung fundierter Informationen schätzt, werde Teil des exklusiven Mimikama Clubs! Unterstütze unsere Arbeit und hilf uns, Aufklärung zu fördern und Falschinformationen zu bekämpfen. Als Club-Mitglied erhältst du:
📬 Wöchentlichen Sonder-Newsletter: Erhalte exklusive Inhalte direkt in dein Postfach.
🎥 Exklusives Video* „Faktenchecker-Grundkurs“: Lerne von Andre Wolf, wie du Falschinformationen erkennst und bekämpfst.
📅 Frühzeitiger Zugriff auf tiefgehende Artikel und Faktenchecks: Sei immer einen Schritt voraus.
📄 Bonus-Artikel, nur für dich: Entdecke Inhalte, die du sonst nirgendwo findest.
📝 Teilnahme an Webinaren und Workshops: Sei live dabei oder sieh dir die Aufzeichnungen an.
✔️ Qualitativer Austausch: Diskutiere sicher in unserer Kommentarfunktion ohne Trolle und Bots.
Mach mit und werde Teil einer Community, die für Wahrheit und Klarheit steht. Gemeinsam können wir die Welt ein bisschen besser machen!
* In diesem besonderen Kurs vermittelt dir Andre Wolf, wie du Falschinformationen erkennst und effektiv bekämpfst. Nach Abschluss des Videos hast du die Möglichkeit, dich unserem Rechercheteam anzuschließen und aktiv an der Aufklärung mitzuwirken – eine Chance, die ausschließlich unseren Club-Mitgliedern vorbehalten ist!
Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)