Apple will nicht mehr Fotos der User scannen, um Kinderpornos zu finden
Apple hat die Entwicklung seiner sogenannten CSAM-Technologie ("Child Sexual Abuse Material") endgültig beendet. Diese zielte darauf ab, potenzielle kinderpornografische Inhalte auf Benutzergeräten anhand spezieller Hashtags zu erkennen.
Auf die Geräte sollte eine Datei mit sogenannten "Hashes" von bereits bekannten kinderpornografischen Inhalten geladen werden - eine Art digitaler Fingerabdruck des Bildes. Damit lässt sich bei einem Abgleich mit speziellen Verfahren eine Kopie des Fotos erkennen, das Original kann aus dem Hash aber nicht wiederhergestellt werden.
Bei mehr als 30 Treffern hätte Apple die Strafverfolgungsbehörden eingeschaltet.
Internet als sicherer Ort für Kinder
Dieses Vorhaben hatte Apple im Herbst 2021 mit dem beabsichtigten Rollout von iOS 15 vorgestellt. Nach der Ankündigung hagelte es aber Kritik. Datenschutzexpert*innen warnten vor der Gefahr, Überwachungssysteme direkt über mobile Geräte zu schaffen.
Noch im Dezember letzten Jahres meinte Apple, an seinem Vorhaben dennoch festzuhalten. Jetzt hat sich der Konzern aber doch endgültig vom Feature verabschiedet. „Kinder können geschützt werden, ohne dass Unternehmen personenbezogene Daten durchsuchen und wir werden weiterhin mit Regierungen, Kinderanwaltschaften und anderen Unternehmen zusammenarbeiten, um junge Menschen zu schützen, ihr Recht auf Privatsphäre zu wahren und das Internet zu einem sicheren Ort für Kinder und für uns alle zu machen", bestätigt Apple gegenüber Wired.
Kinder bei Fotos warnen
Nun konzentriert sich der Konzern stattdessen auf seine Communication-Safety-Funktionen, die ursprünglich im August 2021 angekündigt wurden. Seit Dezember gibt es bei Familien-Accounts unter anderem in der Nachrichten-App die Möglichkeit, Kinder zu warnen und hilfreiche Ressourcen verfügbar zu machen, wenn diese Nacktfotos empfangen oder zu senden versuchen.