Nie mehr wichtige Faktenchecks verpassen!
Melden Sie sich für unseren WhatsApp-Channel, die Smartphone-App (für iOS und Android) oder unseren Newsletter an und erhalten Sie alle Faktenchecks und Updates sofort. Einfach anmelden, immer einen Schritt voraus!


Beleidigende Kommentare, Hass oder auch Hetze auf Social Media: Offensive Sprache ist seit ein paar Jahren auf der Tagesordnung. Die Computerlinguistin Prof. Dr. Melanie Siegel vom Fachbereich Media der Hochschule Darmstadt möchte dies jedoch ändern!

Zusammen mit mehreren Kolleginnen und Kollegen arbeitet Melanie Siegel auf nationaler und auch internationaler Ebene daran Algorithmen zu programmieren, die offensive Sprache im Internet identifizieren und auch aus Texten herausfiltern. Dabei wurden speziell Tweets auf Twitter ausgewertet.

Um an die Schlüsselworte zu gelangen, arbeitet die Gruppe mit verschiedenen Methoden des sog. Text Minings. Dabei werden Tweets analysiert und zunächst per Hand bewertet. Diese Tweets werden, je nach Beschaffenheit, dann in verschiedene Kategorien geordnet.

[mk_ad]

Darunter fallen entsprechend Beleidigungen einzelner Personen, aber auch einfache Äußerungen mit Schimpfwörtern. Am Ende steht die Hetze. Von Hetze sprechen Siegel und ihre Kolleginnen und Kollegen, wenn Gruppen von Menschen abgewertet und angegriffen werden oder wenn zu Gewalt gegen sie aufgerufen wird.

„Es ist zynisch und menschenverachtend, wenn jemand auf Twitter schreibt „Flüchtlingsboote torpedieren, dann lernen die Sozialschmarotzer schwimmen“ – Melanie Siegel gegenüber campus_d Nr. 23, Sommer 2019

Die Analyse der Tweets bezieht sich jedoch nicht auf die gesamten Inhalte auf Twitter, sondern hier wird nach relevanten Schlagworten, bzw. bestimmten Themen geschaut, die ein gewisses Framing erzeugen und somit entsprechend offensive Sprache nach sich ziehen.

In einem Gespräch uns gegenüber merkte Melanie Siegel an, dass diese gerade zu spezifischen Themen und Schlagworten wie „Flüchtling“ und „Asylant“ signifikant hoch wäre. Desweiteren konnte die Gruppe um Siegel beobachten, dass deutlich mehr Hatespeech aus dem rechtsradikalen Umfeld stammt als aus dem linksradikalen Bereich.

Hier noch eine kleine Anmerkung: Melanie Siegel wird in verschiedenen Medien in der Berichterstattung zu diesem Thema mit den Worten „Ein Drittel der Twitter-Mitteilungen ist Hetze“ wiedergegeben. Siegel merkte uns gegenüber an, dass diese Aussage so nicht stimme und dass sie hier wohl falsch verstanden wurde.

Es handelt sich bei dieser Drittel-Angabe um eine Stichprobe zu einem der oben angeführten Schlagworte, bei dem offensive Sprache zu erwarten war und somit analysiert wurde. Diese Mengenangabe bezieht sich somit nicht (wie fälschlicherweise in Medien genannt) auf die Gesamtzahl der Tweets auf Twitter.

[mk_ad]

Vorgetäuschte Mehrheitsverhältnisse

Daneben bestätigt Siegel eine weitere Beobachtung, die schon länger existiert: Es sind eher wenige Accounts, die jedoch einen hohen Output an Interaktionen haben. Diese wenigen Accounts erscheinen durch ihre  zahlenmässig vielen Interaktionen als eine virtuelle Scheinmehrheit, die ein falsches demoskopisches Bild entstehen lässt.

Das ist durchaus auch so gewollt: Diese Scheinmehrheiten führen beispielsweise dazu, dass bestimmte Themen bewusst gepusht werden, so dass sie auf Twitter trenden und entsprechend eine Scheinrelevanz bekommen. Diese Scheinrelevanz führt dazu, dass Themen, die im Grunde lediglich eine geringe Social-Media-Gesprächsrelevanz haben, auf einmal Einzug in Medienberichterstattungen bekommen und somit auch Menschen außerhalb von Social Media erreichen.

Daneben erzeugen virtuelle Scheinmehrheiten das Bild einer demokratischen Mehrheit, die jedoch real nicht existent ist.

Die Grenzen des Filters

Wie bei jedem Filter liegen auch hier Grauzonen und Grenzen vor, die ein automatischer Filter am Ende schwer bewerten oder erkennen kann, bzw. wo so ein Filter fehleranfällig ist. Diese Grenzen liegen laut Siegel bei Inhalten mit Ironie, Sarkasmus oder kulturellem Kontextwissen.

Weiterführende Inhalte:


Wenn dir dieser Beitrag gefallen hat und du die Bedeutung fundierter Informationen schätzt, werde Teil des exklusiven Mimikama Clubs! Unterstütze unsere Arbeit und hilf uns, Aufklärung zu fördern und Falschinformationen zu bekämpfen. Als Club-Mitglied erhältst du:

📬 Wöchentlichen Sonder-Newsletter: Erhalte exklusive Inhalte direkt in dein Postfach.
🎥 Exklusives Video* „Faktenchecker-Grundkurs“: Lerne von Andre Wolf, wie du Falschinformationen erkennst und bekämpfst.
📅 Frühzeitiger Zugriff auf tiefgehende Artikel und Faktenchecks: Sei immer einen Schritt voraus.
📄 Bonus-Artikel, nur für dich: Entdecke Inhalte, die du sonst nirgendwo findest.
📝 Teilnahme an Webinaren und Workshops: Sei live dabei oder sieh dir die Aufzeichnungen an.
✔️ Qualitativer Austausch: Diskutiere sicher in unserer Kommentarfunktion ohne Trolle und Bots.

Mach mit und werde Teil einer Community, die für Wahrheit und Klarheit steht. Gemeinsam können wir die Welt ein bisschen besser machen!

* In diesem besonderen Kurs vermittelt dir Andre Wolf, wie du Falschinformationen erkennst und effektiv bekämpfst. Nach Abschluss des Videos hast du die Möglichkeit, dich unserem Rechercheteam anzuschließen und aktiv an der Aufklärung mitzuwirken – eine Chance, die ausschließlich unseren Club-Mitgliedern vorbehalten ist!


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)