In sozialen Netzwerke breitet sich Hate Speech wie ein unkontrollierbares Feuer aus. Beleidigungen, Hetze, Falschmeldungen und Gewaltaufrufe erschüttern zahlreiche Nutzer. Vor diesem Hintergrund nimmt das Forschungsprojekt “BoTox” der Hochschule Darmstadt in Kooperation mit der Hochschule Fresenius eine Vorreiterrolle ein.

Ziel ist es, durch die Entwicklung eines automatisierten Systems, das strafrechtlich relevante Hasskommentare erkennt, herausfiltert und meldet, eine schnelle und effektive Reaktion auf solche Inhalte zu ermöglichen.

Automatische Erkennung und Meldung durch „BoTox“

Das von Prof. Dr. Melanie Siegel geleitete und vom Hessischen Innenministerium bis 2025 mit 292.000 Euro geförderte Projekt verspricht, den Kampf gegen Hass im Netz auf eine neue Stufe zu heben. Mithilfe von künstlicher Intelligenz und maschinellem Lernen soll das System in der Lage sein, zwölf verschiedene Straftatbestände in sozialen Medien zu identifizieren, darunter Beleidigung, Volksverhetzung und Aufruf zur Gewalt.

Die innovative Technologie wird nicht nur potenziell gefährliche Inhalte erkennen, sondern diese auch direkt an die Meldestelle “Hessen gegen Hetze“ weiterleiten, um eine schnelle Reaktion zu ermöglichen.

Die Herausforderung bei der Entwicklung eines solchen Systems liegt in der Unterscheidung zwischen menschlicher und von Bots generierter Hetze – eine Aufgabe, die mit der fortschreitenden Entwicklung von KI-Technologien wie Chat GPT immer komplexer wird. Die Forschungsarbeit von Siegel und ihrem Team umfasst daher auch die Analyse des Kontexts, in dem Hate Speech auftritt, und die Untersuchung der Wirksamkeit verschiedener Reaktionsstrategien.

Rechtliche und ethische Rahmenbedingungen

Ein wesentlicher Bestandteil des „BoTox“-Projekts ist die enge Zusammenarbeit mit Rechtsexperten, um sicherzustellen, dass die automatisierte Erkennung und Meldung von Hasskommentaren auf einem soliden rechtlichen Fundament steht. Prof. Dr. Dirk Labudde von der Hochschule Fresenius leistet mit seiner Expertise in digitaler Forensik einen entscheidenden Beitrag zu diesem Aspekt des Projekts.

Daten als Schlüssel zum Erfolg

Um das System effektiv zu trainieren, ist eine umfangreiche Datensammlung notwendig, die sowohl echte Hasskommentare als auch irrelevante Inhalte umfasst. Diese Daten müssen die Realität widerspiegeln, einschließlich der Tatsache, dass Hate Speech hauptsächlich von Männern und häufig von rechtsextremen Gruppen gepostet wird. Das sorgfältige Sammeln und Analysieren dieser Informationen ist eine anspruchsvolle Aufgabe, die jedoch für den Erfolg des Projekts entscheidend ist.

Fragen und Antworten

Frage 1: Wie funktioniert die automatische Erkennung von Hasskommentaren durch „BoTox“?
Antwort 1: Das System nutzt künstliche Intelligenz und maschinelles Lernen, um Textbeiträge und Kommunikationsverläufe nach strafrechtlich relevanten Inhalten zu durchsuchen und diese automatisch an die Meldestelle weiterzuleiten.

Frage 2: Wie unterscheidet das System zwischen menschlichen und durch Bots erzeugten Hasskommentaren?
Antwort 2: Durch die Analyse des Kontexts und der Art der Kommunikation unter Berücksichtigung der fortschreitenden Entwicklung von KI-Technologien.

Frage 3: Welche Rolle spielt juristische Expertise im „BoTox“-Projekt?
Antwort 3: Juristische Expertise stellt sicher, dass die Erkennung und Meldung von Hasskommentaren auf einer soliden rechtlichen Grundlage steht und effektiv zur Strafverfolgung beitragen kann.

Frage 4: Warum ist eine große Datenmenge für das Projekt wichtig?
Antwort 4: Eine große Datenmenge ermöglicht es dem System, effektiv zwischen Hassrede und irrelevanten Inhalten zu unterscheiden und die Realität in den sozialen Medien genau abzubilden.

Frage 5: Was ist das ultimative Ziel von „BoTox“?
Antwort 5: Die Unterstützung und Effizienzsteigerung der Meldestelle „Hessen gegen Hetze“, um schneller auf Gefährdungen reagieren und Hass im Netz effektiver bekämpfen zu können.

Fazit

Das Projekt „BoTox“ stellt einen bedeutenden Fortschritt im Kampf gegen Hassrede und Hetze in sozialen Medien dar. Durch die Kombination von fortschrittlicher Technologie, juristischer Expertise und umfangreicher Datenerhebung soll eine schnellere und effektivere Reaktion auf strafrechtlich relevante Inhalte ermöglicht werden.
Das Projekt unterstreicht die Notwendigkeit eines multidisziplinären Ansatzes, um den digitalen Raum sicherer zu machen und den sozialen Zusammenhalt zu stärken. Durch die Automatisierung der Erkennung und Meldung von Hasskommentaren kann ein wichtiger Beitrag zur Eindämmung von Hasskommentaren geleistet werden.


Melden Sie sich für den Mimikama-Newsletter an und registrieren Sie sich für unsere Online-Vorträge und Workshops, um stets informiert zu bleiben.

Schon gelesen?

Quelle:

Informationsdienst Wissenschaft

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)