700 Prozent mehr illegale Inhalte als durch menschliche Moderatoren identifiziert

Menlo Park/London (pte/04.09.2018/11:30) Google hat in Kooperation mit der Internet Watch Foundation  ein neues Tool auf Basis Künstlicher Intelligenz (KI) entwickelt, mit dessen Hilfe sich Online-Inhalte, die den sexuellen Missbrauch von Kindern zeigen, kennzeichnen lassen. Das kostenlose digitale Werkzeug nutzt eine Bilderkennungs-Software, um menschlichen Moderatoren zu helfen, illegales Bildmaterial zu finden und zu löschen.

Moderatoren schützen

Das Tool soll auch die Exposition der Moderatoren gegenüber Inhalten, die traumatisch sein können, verringern, während größere Mengen an Content mit Kindesmissbrauch erfasst werden. Einige bestehende Systeme sind zwar bereits in der Lage, Bilder und Videos von Kindesmissbrauch zu erkennen, indem sie diese mit einer Datenbank mit bereits gekennzeichneten Inhalten abgleichen, doch dann müssen Moderatoren die gefundenen Inhalte immer noch selbst überprüfen.

Google will mit dem KI-Tool diesen Schritt umgehen, indem es Service Providern, NGOs und anderen Technologieunternehmen ermöglicht, „diese Inhalte maßstabsgetreu zu überprüfen“. Die KI nutzt neuronale Netze, um Massen von Inhalten zu sortieren und bestimmte Beiträge zur Überprüfung zu priorisieren. „Wir stellen es kostenlos für NGOs und Industriepartner über unsere Content-Safety-API zur Verfügung, ein Toolkit, mit dem die Kapazität zur Überprüfung von Inhalten auf eine Weise verbessert werden kann, die weniger Personen erfordert“, erklärt Google in einem Blog-Post.

Straftäter schwächen

Das neue KI-Tool kann bereits Erfolge vorweisen. Im selben Zeitraum, in der ein Prüfer sich ebenfalls mit dem Aufspüren von sexuellem Missbrauch im Internet befasste, konnte es um 700 Prozent mehr Inhalte aufstöbern. „Wir und insbesondere unsere Experten sind begeistert von der Entwicklung eines KI-Tools, das unseren menschlichen Experten helfen könnte, Material in einem noch größeren Maßstab zu überprüfen und mit den Straftätern Schritt zu halten, indem wir auf Bildmaterial abzielen, das zuvor nicht als illegal erkannt werden konnte“, resümiert Susie Hargreaves von der Internet Watch Foundation.

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)