YouTube warnt User vor Hass-Kommentaren

Autor: Kathrin Helmreich


Liebe Leserin, lieber Leser,

jeden Tag strömt eine Flut von Informationen auf uns ein. Doch wie viele davon sind wirklich wahr? Wie viele sind zuverlässig und genau? Wir bei Mimikama arbeiten hart daran, diese Fragen zu beantworten und dir eine Informationsquelle zu bieten, der du vertrauen kannst.

Aber um erfolgreich zu sein, brauchen wir deine Hilfe. Du hast es in der Hand, eine Welt voller vertrauenswürdiger Informationen zu schaffen, indem du uns jetzt unterstützt. Jede Unterstützung, ob groß oder klein, ist ein wichtiger Beitrag zu unserer Mission.

Werde Teil einer Bewegung, die sich für die Wahrheit einsetzt. Deine Unterstützung ist ein starkes Signal für eine bessere Informationszukunft.

❤️ Herzlichen Dank

Du kannst uns entweder via PayPal oder mittels einer Banküberweisung unterstützen. Möchtest Du uns längerfristig unterstützen, dann kannst Du dies gerne mittels Steady oder Patreon tun.


YouTube weist Nutzer künftig auf Hass-Kommentare hin
YouTube weist Nutzer künftig auf Hass-Kommentare hin

KI erkennt verletzende Beiträge und informiert Nutzer im Voraus über mögliche Regelverstöße

Videogigant YouTube will Anwender künftig warnen, wenn diese einen verletzenden oder anstößigen Kommentar posten. Der Algorithmus der Google-Tochter soll erkennen, ob ein User-Beitrag problematisch ist. Ein Pop-up-Fenster macht Nutzer darauf aufmerksam, dass ihr Kommentar möglicherweise ein Verstoß gegen die Richtlinien ist, denen auch ein Link beigefügt ist.

Kontext in Betracht gezogen

„Kommentare spielen eine wichtige Rolle dabei, wie Content-Produzenten mit ihrem Publikum interagieren. Aber Probleme mit der Qualität der Beiträge sind häufig. Wir haben in Technologie investiert, die besser verletzende Kommentare erkennt, indem sie das Thema von Videos und den Kontext der Bemerkungen in Betracht zieht“,

heißt es von YouTube. Momentan beginnt die Plattform damit, das neue Feature auf Android-Smartphones verfügbar zu machen. Die Warnungen sollen bald für alle Anwender gelten.

[mk_ad]

Auch wenn sie das Pop-up-Fenster sehen, können User ihren Kommentar immer noch posten. Es ist auch möglich, dass es sich bei dem Beitrag nicht um einen Regelverstoß handelt. Die Künstliche Intelligenz soll lediglich eine Empfehlung geben. YouTube nutzt seit einigen Monaten verstärkt Algorithmen, um schädliche Inhalte auf der Plattform zu stoppen. So setzt das System die Altersbeschränkungen bei Videos seit September härter durch (pressetext berichtete).

Gerechtere Monetarisierung

Neben der Eindämmung von verletzenden Kommentaren will YouTube Content-Produzenten auch mit einer gerechteren Monetarisierung helfen.

Nach vielen Beschwerden über Diskriminierung bittet das Unternehmen Video-Macher um verschiedene Informationen, wie ihre Ethnizität oder ihr Geschlecht. Dadurch will YouTube feststellen, ob das System bestimmte Gruppen von Produzenten benachteiligt.

Das könnte auch interessieren: Österreich: Das Gesetz zu „Hass im Netz“ fertig

Quelle: pressetext
Artikelbild: Ink Drop / Shutterstock


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstand durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Mehr von Mimikama