Bewährter Algorithmus findet gefährliche Inhalte – DSGVO verbietet jedoch noch einige Tools!

Die Social-Media-Plattform Instagram bringt ihr Tool zur Prävention von selbstverletzendem Verhalten oder Suizid bald nach Europa. Moderatoren sollen so Postings besser identifizieren können, die auf Probleme mit dem mentalen Wohlbefinden hinweisen. Doch anders als in den USA, kann das System aufgrund der Datenschutzgrundverordnung (DSGVO) nicht automatisch mttels Künstlicher Intelligenz (KI) solche Inhalte erkennen, sondern nur auf direkte Hinweise von Usern reagieren.

„Risiko für Rechte überprüfen“

„Wenn eine neue Technologie zum Einsatz kommt, um den mentalen Gesundheitszustand von Usern zu ermitteln, muss es eine Datenschutzfolgenabschätzung geben. Das bedeutet, dass das jeweilige Unternehmen in Zusammenarbeit mit den zuständigen Behörden überprüft, ob die eingesetzte KI ein Risiko für die Rechte und Freiheiten der Betroffenen darstellt. Denn nimmt das System Fehleinschätzungen vor, kann es Anwendern schaden“, erklärt Datenschutzexperte Alexander Dobert gegenüber pressetext.

Momentan spricht Instagram mit europäischen Datenschutzbehörden, allen voran der irischen Data Protection Commission. Weil die Muttergesellschaft Facebook ihren europäischen Hauptsitz in Dublin hat, ist vor allem diese Institution für die datenschutzrechtlichen Fragen der Plattform zuständig. Laut Instagram wird versucht, eine Lösung zu finden, die sowohl die Rechte als auch die Sicherheit von Usern schützt.

Algorithmus warnt Moderatoren

Instagram nutzt in den USA einen mit Machine Learning trainierten Algorithmus, der Suizid-Inhalte findet und menschliche Moderatoren auf sie aufmerksam macht. Je nach Fall erhalten die Betroffenen Hinweise auf Möglichkeiten, sich Hilfe zu suchen, in Extremsituationen verständigt Instagram sogar selbst die Notdienste.

Der DSGVO zufolge kann die Plattform das in Europa aber nur tun, wenn Nutzer bestimmte Postings direkt melden. Der Algorithmus und die Moderatoren können von sich aus keine Einschätzung über den Zustand der mentalen Gesundheit abgeben. Instagram will aber seine Technologie voll ausnutzen, um möglichst schnell reagieren zu können und auch gefährliche Inhalte zu entfernen.

Quelle: pte
Artikelbild:  tulpahn / Shutterstock.com


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


FAKE NEWS BEKÄMPFEN! Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

INSERT_STEADY_CHECKOUT_HERE

Mehr von Mimikama