Apple möchte Fotos aus iPhones scannen, um Kindesmissbrauch aufzudecken
Artikelbild: Von Vividrange / Shutterstock.com

Apple möchte ab Herbst Fotos von Nutzern in den USA mit Listen von kinderpornografischem Material abgleichen. Bei mehreren Treffern wird ein Alarm ausgelöst.

Benutzen möchte Apple dazu den Speicherdienst iCloud und sogenannte „Hashes“. Dabei handelt es sich um Dateien, die mit bereits bekanntem kinderpornografischen Material gefüttert werden. Die Hashes werden anschließend auf die Geräte geladen und sollen über einen Vergleich mit vorhandenen Fotos Kopien des bekannten Materials erkennen.

Verdächtige Bilder werden mit einem Zertifikat versehen. Durch dieses wird es Apple möglich, die entsprechenden Dateien nach dem Upload in die iCloud zu öffnen und zu prüfen. Sobald eine gewisse Anzahl an Übereinstimmungen gefunden wurde, schlägt das komplexe System Alarm. Wie viele Treffer hierzu nötig sind, wird nicht veröffentlicht.

Die Nutzer selbst werden bei einem Fund nicht informiert, doch ihr Konto wird gesperrt.

Auch diverse Online-Plattformen nutzen diese Hashes, um problematische Inhalte direkt beim Upload zu erkennen und es gar nicht erst zu einer Veröffentlichung kommen zu lassen. Bei Fotos soll dies fehlerfrei funktionieren, bei Videos allerdings greift dieser Abgleich noch nicht.

Weiterleitung an Behörden

Ergibt eine Überprüfung, dass es sich tatsächlich um kinderpornografische Inhalte handelt, ergeht eine Meldung von Apple an das NCMEC (National Center for Missing & Exploited Children, eine amerikanische Nichtregierungs-Organisation). Diese wiederum kann in diesen Fällen Behörden einschalten.

Nur für Apple US-Accounts

Aktiviert wird diese Funktion nur für Nutzer mit US-Accounts. Allerdings ist die Datei, in der sich die dafür nötigen Hashes befinden, fester Teil des gesamten Betriebssystems und wird somit auch auf alle iPhones geladen, welche diese Version installiert haben.
Die Liste selbst wird mit Updates des Betriebssystems von iPhones und iPads aktualisiert.

Erst, wenn sämtliche rechtliche Voraussetzungen geklärt sind, soll die Funktion international ausgerollt werden.

Und der Datenschutz?

Behörden fordern immer wieder nach einer „Hintertür“, um auch verschlüsselte Inhalte einsehen zu können. Apple versucht nun mit diesem System einen anderen Weg einzuschlagen.

Mehrere Experten begrüßten den Datenschutz bei Apples Lösung, wie der Konzern in einer Analyse veröffentlichte. Matthew Green, Kryptografie-Experte an der Johns Hopkins Universität, sieht es allerdings kritisch, wie er in einem Tweet veröffentlichte:

Er hält dies für eine „schlechte Idee“, da dies ein „Schlüsselelement für die Überwachung von verschlüsselten Nachrichtensystemen sein“ könnte.

Apple plant Warnmeldung an Eltern

Weiters soll es in Zukunft eine Möglichkeit geben, eine Warnmeldung an Eltern zu senden, wenn ihr Kind über iMessage Nacktfotos zugesendet bekommt oder verschickt. Hier wird die Nacktheit von einer Software auf dem Gerät erkannt.

Das könnte dich auch interessieren: Social Web: Account-Sperre macht radikaler

Quelle: t3n


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


FAKE NEWS BEKÄMPFEN! Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

INSERT_STEADY_CHECKOUT_HERE

Mehr von Mimikama