Apple stoppt Vorhaben, Fotos für CSAM zu scannen

Im Herbst des Vorjahres kündigte Apple an, Fotos, die Benutzer in der iCloud speichern, auf Material zu sexuellem Missbrauch von Kindern (CSAM) zu scannen.

Autor: Claudia Spiess

Wir brauchen deine Hilfe – Unterstütze uns!
In einer Welt, die zunehmend von Fehlinformationen und Fake News überflutet wird, setzen wir bei Mimikama uns jeden Tag dafür ein, dir verlässliche und geprüfte Informationen zu bieten. Unser Engagement im Kampf gegen Desinformation bedeutet, dass wir ständig aufklären und informieren müssen, was natürlich auch Kosten verursacht.

Deine Unterstützung ist jetzt wichtiger denn je.
Wenn du den Wert unserer Arbeit erkennst und die Bedeutung einer gut informierten Gesellschaft für die Demokratie schätzt, bitten wir dich, über eine finanzielle Unterstützung nachzudenken.

Schon kleine Beiträge können einen großen Unterschied machen und helfen uns, unsere Unabhängigkeit zu bewahren und unsere Mission fortzusetzen.
So kannst du helfen!
PayPal: Für schnelle und einfache Online-Zahlungen.
Steady: für regelmäßige Unterstützung.

Nun gibt es zu diesem Plan eine Kehrtwende. Das Vorhaben sah so aus, dass Apple den Speicherdienst iCloud und sogenannte „Hashes“ einsetzen wollte. Diese Hashes – Dateien mit bereits bekanntem kinderpornografischen Material – würden auf die Geräte geladen und könnten einen Abgleich vorhandener Fotos mit bereits bekanntem Material vornehmen. Werden mehrere Treffer gefunden, würde ein Alarm ausgelöst.

Einerseits ist das Vorgehen gegen Kindesmissbrauch durchwegs positiv zu betrachten. Andererseits gab es auch kritische Stimmen, die es für eine „schlechte Idee“ hielten, da dies ein „Schlüsselelement für die Überwachung von verschlüsselten Nachrichtensystemen sein“ könnte.

Auch für die Privatsphäre der Nutzer bedeutet dies natürlich Einschnitte, da der Konzern sämtliches Material durchleuchtet, das in die iCloud geladen wird.

Apple zieht nun die Bremse

Der Konzern möchte seine Anti-CSAM-Bemühungen nun auf die Communication Safety-Funktionen konzentrieren.

„Nach einer ausführlichen Konsultation mit Experten, um Feedback zu den von uns im letzten Jahr vorgeschlagenen Initiativen zum Schutz von Kindern einzuholen, vertiefen wir unsere Investitionen in die Communication Safety-Funktion (Kommunikations-Sicherheitsfunktion), die wir erstmals im Dezember 2021 zur Verfügung gestellt haben.

Wir haben außerdem beschlossen, unser zuvor vorgeschlagenes CSAM-Erkennungstool für iCloud Photos nicht weiterzuverfolgen. Kinder können geschützt werden, ohne dass Unternehmen persönliche Daten durchkämmen, und wir werden weiterhin mit Regierungen, Kinderanwälten und anderen Unternehmen zusammenarbeiten, um junge Menschen zu schützen, ihr Recht auf Privatsphäre zu wahren und das Internet zu einem sichereren Ort für Kinder und für uns alle zu machen.“

Apple gegenüber WIRED

Communication Safety for Messages analysiert Bildanhänge, die Benutzer auf ihren Geräten senden und empfangen. Diese Funktion ist allerdings so konzipiert, dass Apple selbst durch die Ende-zu-Ende-Verschlüsselung keinen Zugriff auf die Nachrichten erhält. Über diese Opt-In-Funktion kann festgestellt werden, ob ein Foto Nacktheit abbildet.

Eltern und Betreuer können sich über Familien-iCloud-Konten für den Schutz durch Communication Safety entscheiden.

Quelle:

WIRED, futurezone.de

Lesen Sie auch unsere Faktenchecks:
Ukrainischer Justizminister in gestohlenem, deutschen Auto unterwegs?
84 Schauspieler? Nein, ein Kleindarsteller in einer Impfkampagne!
„Sind Impfstoffe gefährlich“ – Wie man Google falsch benutzt
Unterstützen 🤍

FAKE NEWS BEKÄMPFEN

Unterstützen Sie Mimikama, um gemeinsam gegen Fake News vorzugehen und die Demokratie zu stärken. Helfen Sie mit, Fake News zu stoppen!

Mit Deiner Unterstützung via PayPal, Banküberweisung, Steady oder Patreon ermöglichst Du es uns, Falschmeldungen zu entlarven und klare Fakten zu präsentieren. Jeder Beitrag, groß oder klein, macht einen Unterschied. Vielen Dank für Deine Hilfe! ❤️

Mimikama-Webshop

Unser Ziel bei Mimikama ist einfach: Wir kämpfen mit Humor und Scharfsinn gegen Desinformation und Verschwörungstheorien.

Abonniere unseren WhatsApp-Kanal per Link- oder QR-Scan! Aktiviere die kleine 🔔 und erhalte eine aktuelle News-Übersicht sowie spannende Faktenchecks.

Link: Mimikamas WhatsApp-Kanal

Mimikama WhatsApp-Kanal

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.


2) Einzelne Beiträge (keine Faktenchecks) entstanden durch den Einsatz von maschineller Hilfe und
wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)


Mit deiner Hilfe unterstützt du eine der wichtigsten unabhängigen Informationsquellen zum Thema Fake News und Verbraucherschutz im deutschsprachigen Raum

INSERT_STEADY_CHECKOUT_HERE

Kämpfe mit uns für ein echtes, faktenbasiertes Internet! Besorgt über Falschmeldungen? Unterstütze Mimikama und hilf uns, Qualität und Vertrauen im digitalen Raum zu fördern. Dein Beitrag, egal in welcher Höhe, hilft uns, weiterhin für eine wahrheitsgetreue Online-Welt zu arbeiten. Unterstütze jetzt und mach einen echten Unterschied! Werde auch Du ein jetzt ein Botschafter von Mimikama

Mehr von Mimikama

Mimikama Workshops & Vorträge: Stark gegen Fake News!

Mit unseren Workshops erleben Sie ein Feuerwerk an Impulsen mit echtem Mehrwert in Medienkompetenz, lernen Fake News und deren Manipulation zu erkennen, schützen sich vor Falschmeldungen und deren Auswirkungen und fördern dabei einen informierten, kritischen und transparenten Umgang mit Informationen.