Ein kürzlich veröffentlichter Bericht der Agentur der Europäischen Union für Grundrechte (FRA) wirft ein Schlaglicht auf dieses beunruhigende Phänomen.

Die versteckte Epidemie: Online-Hass gegen Frauen wird nicht erkannt

Online-Plattformen wie YouTube, Reddit, X (ehemals Twitter) und Telegram haben Schwierigkeiten, Hassreden effektiv zu erkennen und zu moderieren. Der Bericht der FRA zeigt, dass diese Plattformen oft nicht in der Lage sind, beleidigende Kommentare, Belästigungen und Gewaltandrohungen als solche zu erkennen. Dieses Versäumnis hat weitreichende Folgen – nicht nur für Frauen, sondern auch für andere Minderheitengruppen wie Menschen afrikanischer Herkunft, Roma und Juden.

Unzureichende Meldesysteme: Eine Analyse

Die Studie, die in vier EU-Ländern durchgeführt wurde, zeigt eine alarmierende Diskrepanz: In Bulgarien, Deutschland, Italien und Schweden war die Zahl der Hasspostings gegen Frauen fast dreimal so hoch wie die Zahl der Hasspostings gegen Menschen afrikanischer Herkunft. Die FRA analysierte fast 350.000 Beiträge und Kommentare und stellte fest, dass mehr als 53 Prozent der Beiträge, die von automatischen Systemen als unbedenklich eingestuft wurden, von menschlichen Moderatoren immer noch als Hassrede eingestuft wurden.

Kein klares Bild: Hindernisse für die Forschung

Ein weiteres Problem, auf das der Bericht hinweist, ist der mangelnde Zugang der Forschung zu den Daten der Moderationssysteme der Plattformen. Dieser Mangel an Transparenz erschwert es, das wahre Ausmaß von Online-Hass zu verstehen und wirksame Gegenmaßnahmen zu entwickeln.

Schiedsrichterteam gefordert

Angesichts der erschreckenden Ergebnisse fordert die FRA die Einrichtung eines Arbitration Teams. Diese unabhängigen Organisationen sollen als vertrauenswürdige Melder fungieren, um Hass im Netz zuverlässig zu erkennen und zu bekämpfen. Die EU-Kommission wird aufgefordert, diese Organisationen finanziell zu unterstützen.

Ermittlungen gegen Technologie-Giganten

Der Digital Services Act (DSA) verpflichtet große Technologieplattformen und Suchmaschinen, stärker gegen Hate Speech und illegale Inhalte vorzugehen. Die Europäische Kommission untersucht derzeit, ob Unternehmen wie Meta, TikTok und X die Anforderungen des DSA erfüllen, insbesondere im Hinblick auf die Zunahme von Gewaltaufrufen im Zusammenhang mit dem Krieg im Nahen Osten.

Fazit

Dieser Bericht zeigt die tiefgreifenden Mängel in den Moderationssystemen von Online-Plattformen auf und verdeutlicht, wie Frauen und Minderheitengruppen als Hauptziele von Online-Hass fungieren. Die Notwendigkeit eines koordinierten und wirksamen Ansatzes zur Bekämpfung dieses Phänomens ist dringender denn je. Die EU und ihre Mitgliedstaaten müssen gemeinsam mit den Online-Plattformen ihre Anstrengungen verstärken, um einen sicheren digitalen Raum für alle zu schaffen.

Quelle: der Standard

Für weitere Informationen und Updates zu diesem wichtigen Thema, abonnieren Sie den Mimikama-Newsletter und nutzen Sie das Mimikama Medienbildungsangebot, um sich und Ihre Lieben vor den Gefahren von Hass im Netz zu schützen.


Unsere virtuelle Faktencheck-Bewertungsskala: Bei der Überprüfung von Fakten, in der Kategorie der „Faktenchecks„, nutzen wir eine klare Bewertungsskala, um die Zuverlässigkeit der Informationen zu klassifizieren. Hier eine kurze Erläuterung unserer Kategorien:

  • Rot (Falsch/Irreführend): Markiert Informationen, die definitiv falsch oder irreführend sind.
  • Gelb (Vorsicht/Unbewiesen/Fehlender Kontext/Satire): Für Inhalte, deren Wahrheitsgehalt unklar ist, die mehr Kontext benötigen oder satirisch sind.
  • Grün (Wahr): Zeigt an, dass Informationen sorgfältig geprüft und als wahr bestätigt wurden.

Unterstütze jetzt Mimikama – Für Wahrheit und Demokratie! Gründlicher Recherchen und das Bekämpfen von Falschinformationen sind heute wichtiger für unsere Demokratie als jemals zuvor. Unsere Inhalte sind frei zugänglich, weil jeder das Recht auf verlässliche Informationen hat. Unterstützen Sie Mimikama

Mehr von Mimikama

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)