Twitter plant „Safety Mode“ gegen Cybermobber

Autor: Tom Wannenmacher

Lieber Leser, liebe Leserin, Mimikama ist dein Kompass in der Informationsflut. Aber um den Kurs zu halten, brauchen wir dich. Jeder Beitrag, ob groß oder klein, bringt uns näher an eine Welt der verlässlichen Informationen. Stell dir vor, du könntest einen Unterschied machen, und das kannst du! Unterstütze uns jetzt via PayPal, Banküberweisung, Steady oder Patreon. Deine Hilfe lässt uns weiterhin Fakten liefern, auf die du zählen kannst. Mach mit uns den ersten Schritt in eine vertrauenswürdigere Informationszukunft. ❤️ Dank dir kann es sein.

Innovativer KI-basierter Algorithmus blockiert automatisch Accounts mit Hasskommentaren!

Twitter plant einen „Safety Mode“, der für individuelle User automatisch Accounts von Cybermobbern blockiert. Aktivieren Anwender das Tool, sperrt die Künstliche Intelligenz (KI) der Plattform alle Postings, die Beleidigungen oder Hasskommentare enthalten.

„KI ist radikaler als Mensch“

„Der Ansatz einer technologischen Lösung für das Problem des Cybermobbings ist nicht von der Hand zu weisen. Aber ein kompletter Schutz ist nicht garantiert. Algorithmen werden zwar immer genauer, können jedoch oft nicht zwischen den Zeilen lesen. Sie neigen auch dazu, deutlich radikaler und undifferenzierter zu sein als Menschen. Auch ist Transparanz dabei wichtig, wer die KI programmiert hat und ob sie dadurch befangen ist“, gibt Matthias Jax, Projektleiter bei Saferinternet http://saferinternet.at , gegenüber pressetext zu bedenken.

User sollen laut Twitter selbst entscheiden können, ob sie den Safety Mode aktivieren oder nicht. Der Algorithmus achtet vor allem auf bestimmte Schlüsselwörter, die mit Cybermobbing in Verbindung stehen. Darunter sind Schimpfwörter und beleidigende Ausdrücke. Ist ein Account gegenüber Usern bösartig, blockiert das System dessen Bemerkungen für den Zeitraum von sieben Tagen.

Benachrichtigung bei Sperre

Jedes Mal, wenn die Twitter-KI einen Account blockiert, erhalten Anwender eine entsprechende Benachrichtigung. Der Plattform zufolge kann der Algorithmus mehr als 50 Prozent der Hasskommentare entdecken, bevor Nutzer diese melden. Jedoch kann eine KI hier oft Fehler machen. Einer neuen Studie der Carnegie Mellon University zufolge hält sie etwa harmlose Konversationen zu Themen wie Schach häufig für Rassismus.

Quelle: pte


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstand durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Ihnen liegt es am Herzen, das Internet zu einem Ort der Wahrheit und Sicherheit zu machen? Fühlen Sie sich überwältigt von der Flut an Fehlinformationen? Mimikama steht für Vertrauen und Integrität im digitalen Raum. Gemeinsam können wir für ein transparentes und sicheres Netz sorgen. Schließen Sie sich uns an und unterstützen Sie Mimikama!. Werde auch Du ein jetzt ein Botschafter von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.

Mehr von Mimikama