Nun gibt es zu diesem Plan eine Kehrtwende. Das Vorhaben sah so aus, dass Apple den Speicherdienst iCloud und sogenannte „Hashes“ einsetzen wollte. Diese Hashes – Dateien mit bereits bekanntem kinderpornografischen Material – würden auf die Geräte geladen und könnten einen Abgleich vorhandener Fotos mit bereits bekanntem Material vornehmen. Werden mehrere Treffer gefunden, würde ein Alarm ausgelöst.

Einerseits ist das Vorgehen gegen Kindesmissbrauch durchwegs positiv zu betrachten. Andererseits gab es auch kritische Stimmen, die es für eine „schlechte Idee“ hielten, da dies ein „Schlüsselelement für die Überwachung von verschlüsselten Nachrichtensystemen sein“ könnte.

Auch für die Privatsphäre der Nutzer bedeutet dies natürlich Einschnitte, da der Konzern sämtliches Material durchleuchtet, das in die iCloud geladen wird.

Apple zieht nun die Bremse

Der Konzern möchte seine Anti-CSAM-Bemühungen nun auf die Communication Safety-Funktionen konzentrieren.

„Nach einer ausführlichen Konsultation mit Experten, um Feedback zu den von uns im letzten Jahr vorgeschlagenen Initiativen zum Schutz von Kindern einzuholen, vertiefen wir unsere Investitionen in die Communication Safety-Funktion (Kommunikations-Sicherheitsfunktion), die wir erstmals im Dezember 2021 zur Verfügung gestellt haben.

Wir haben außerdem beschlossen, unser zuvor vorgeschlagenes CSAM-Erkennungstool für iCloud Photos nicht weiterzuverfolgen. Kinder können geschützt werden, ohne dass Unternehmen persönliche Daten durchkämmen, und wir werden weiterhin mit Regierungen, Kinderanwälten und anderen Unternehmen zusammenarbeiten, um junge Menschen zu schützen, ihr Recht auf Privatsphäre zu wahren und das Internet zu einem sichereren Ort für Kinder und für uns alle zu machen.“

Apple gegenüber WIRED

Communication Safety for Messages analysiert Bildanhänge, die Benutzer auf ihren Geräten senden und empfangen. Diese Funktion ist allerdings so konzipiert, dass Apple selbst durch die Ende-zu-Ende-Verschlüsselung keinen Zugriff auf die Nachrichten erhält. Über diese Opt-In-Funktion kann festgestellt werden, ob ein Foto Nacktheit abbildet.

Eltern und Betreuer können sich über Familien-iCloud-Konten für den Schutz durch Communication Safety entscheiden.

Quelle:

WIRED, futurezone.de

Lesen Sie auch unsere Faktenchecks:
Ukrainischer Justizminister in gestohlenem, deutschen Auto unterwegs?
84 Schauspieler? Nein, ein Kleindarsteller in einer Impfkampagne!
„Sind Impfstoffe gefährlich“ – Wie man Google falsch benutzt


Wenn dir dieser Beitrag gefallen hat und du die Bedeutung fundierter Informationen schätzt, werde Teil des exklusiven Mimikama Clubs! Unterstütze unsere Arbeit und hilf uns, Aufklärung zu fördern und Falschinformationen zu bekämpfen. Als Club-Mitglied erhältst du:

📬 Wöchentlichen Sonder-Newsletter: Erhalte exklusive Inhalte direkt in dein Postfach.
🎥 Exklusives Video* „Faktenchecker-Grundkurs“: Lerne von Andre Wolf, wie du Falschinformationen erkennst und bekämpfst.
📅 Frühzeitiger Zugriff auf tiefgehende Artikel und Faktenchecks: Sei immer einen Schritt voraus.
📄 Bonus-Artikel, nur für dich: Entdecke Inhalte, die du sonst nirgendwo findest.
📝 Teilnahme an Webinaren und Workshops: Sei live dabei oder sieh dir die Aufzeichnungen an.
✔️ Qualitativer Austausch: Diskutiere sicher in unserer Kommentarfunktion ohne Trolle und Bots.

Mach mit und werde Teil einer Community, die für Wahrheit und Klarheit steht. Gemeinsam können wir die Welt ein bisschen besser machen!

* In diesem besonderen Kurs vermittelt dir Andre Wolf, wie du Falschinformationen erkennst und effektiv bekämpfst. Nach Abschluss des Videos hast du die Möglichkeit, dich unserem Rechercheteam anzuschließen und aktiv an der Aufklärung mitzuwirken – eine Chance, die ausschließlich unseren Club-Mitgliedern vorbehalten ist!


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)