Aktuelles

Instagram startet Suizidprävention in Europa

Tom Wannenmacher, 12. November 2020

Bewährter Algorithmus findet gefährliche Inhalte – DSGVO verbietet jedoch noch einige Tools!

Die Social-Media-Plattform Instagram bringt ihr Tool zur Prävention von selbstverletzendem Verhalten oder Suizid bald nach Europa. Moderatoren sollen so Postings besser identifizieren können, die auf Probleme mit dem mentalen Wohlbefinden hinweisen. Doch anders als in den USA, kann das System aufgrund der Datenschutzgrundverordnung (DSGVO) nicht automatisch mttels Künstlicher Intelligenz (KI) solche Inhalte erkennen, sondern nur auf direkte Hinweise von Usern reagieren.

„Risiko für Rechte überprüfen“

„Wenn eine neue Technologie zum Einsatz kommt, um den mentalen Gesundheitszustand von Usern zu ermitteln, muss es eine Datenschutzfolgenabschätzung geben. Das bedeutet, dass das jeweilige Unternehmen in Zusammenarbeit mit den zuständigen Behörden überprüft, ob die eingesetzte KI ein Risiko für die Rechte und Freiheiten der Betroffenen darstellt. Denn nimmt das System Fehleinschätzungen vor, kann es Anwendern schaden“, erklärt Datenschutzexperte Alexander Dobert gegenüber pressetext.

Momentan spricht Instagram mit europäischen Datenschutzbehörden, allen voran der irischen Data Protection Commission. Weil die Muttergesellschaft Facebook ihren europäischen Hauptsitz in Dublin hat, ist vor allem diese Institution für die datenschutzrechtlichen Fragen der Plattform zuständig. Laut Instagram wird versucht, eine Lösung zu finden, die sowohl die Rechte als auch die Sicherheit von Usern schützt.

Algorithmus warnt Moderatoren

Instagram nutzt in den USA einen mit Machine Learning trainierten Algorithmus, der Suizid-Inhalte findet und menschliche Moderatoren auf sie aufmerksam macht. Je nach Fall erhalten die Betroffenen Hinweise auf Möglichkeiten, sich Hilfe zu suchen, in Extremsituationen verständigt Instagram sogar selbst die Notdienste.

Der DSGVO zufolge kann die Plattform das in Europa aber nur tun, wenn Nutzer bestimmte Postings direkt melden. Der Algorithmus und die Moderatoren können von sich aus keine Einschätzung über den Zustand der mentalen Gesundheit abgeben. Instagram will aber seine Technologie voll ausnutzen, um möglichst schnell reagieren zu können und auch gefährliche Inhalte zu entfernen.

Quelle: pte
Artikelbild:  tulpahn / Shutterstock.com


Hinweis: Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.

  • Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum. Ein unabhängiges und für jeden frei zugängliches Informationsmedium ist in Zeiten von Fake News, aber auch Message Control besonders wichtig. Wir sind seit 2011 bestrebt, allen Internetnutzern stets hochwertige Faktenchecks zu bieten.  Dies soll es auch langfristig bleiben. Dafür brauchen wir jetzt deine Unterstützung!

Mehr von Mimikama