Apple wird iOS-Geräte auf Kinderpornografie scannen
Apple will den Schutz von Kindern und Jugendlichen auf seinen Geräten mit neuen Funktionen verbessern. Unter anderem wird es künftig die Möglichkeit geben, dass Eltern eine Warnmeldung erhalten, wenn ihr Kind in Apples Chatdienst iMessage Nacktfotos erhält oder verschickt. Die Nacktheit in den Bildern wird dabei von Software auf dem Gerät erkannt, wie Apple am Donnerstag erläuterte. Der Konzern erfährt nichts davon.
Kinderporno-Datenbank
Eine weitere Neuerung, die im Herbst zunächst nur für US-Nutzer*innen eingeführt wird, soll helfen, kinderpornografisches Material im Besitz der Nutzer zu identifizieren. Dabei werden Fotos auf den Geräten von Nutzern vor dem Hochladen in Apples Online-Speicherdienst iCloud mit einer Datenbank bereits bekannter kinderpornografischer Bilder abgeglichen. Für den Abgleich soll auf die Geräte eine Datei mit sogenannten "Hashes" solcher Fotos geladen werden - eine Art digitaler Fingerabdruck des Bildes. Darüber lässt sich ein ähnliches Foto erkennen, es kann aus dem Hash aber nicht wiederhergestellt werden.
Weiterleitung an Behörden
Bei einer Übereinstimmung wird ein verdächtiges Bild mit einem Zertifikat versehen, dank dem Apple es nach dem Hochladen zur iCloud ausnahmsweise öffnen und einer Prüfung unterziehen kann. Wird dabei tatsächlich kinderpornografisches Material entdeckt, meldet Apple dies der amerikanischen Nichtregierungsorganisation NCMEC (National Center for Missing & Exploited Children), die wiederum Behörden einschalten kann.
Während die Funktion nur für Apple-Kund*innen mit US-Accounts aktiviert wird, ist die Datei mit den Hashes fester Teil des kommenden Betriebssystems iOS 15 und wird auf alle iPhones geladen, auf denen diese Version der Software installiert wird. Vor einer internationalen Einführung der Funktion müssen erst noch rechtliche Voraussetzungen geklärt werden.
Sorge vor Massenüberwachung
Sicherheitsforscher*innen haben bereits Bedenken über den Schritt von Apple bekundet. Sie befürchten, dass mit der Einführung von Scans privater iOS-Geräte die Tür für weitere staatliche Überwachungsmaßnahmen geöffnet wird. "Es ist eine absolut abstoßende Idee, weil es zu Massenüberwachung von Mobiltelefonen und Laptops führen wird", zitiert die Financial Times etwa Ross Anderson, Professor für Sicherheitstechnik an der University of Cambridge.
Obwohl das von Apple "neuralMatch" genannte System zunächst nur für die Suche nach Bildern von sexuellem Kindesmissbrauch benutzt wird, könnte es für Scans nach jeglicher Art von Bildern und Texten adaptiert werden. Apple Vorreiterrolle im Mobilgerätemarkt könnte zudem auch andere Hersteller dazu bewegen, ähnliche Funktionen einzuführen. "Das wird den Damm brechen - Regierungen werden das nun von allen verlangen", sagt Matthew Green, Sicherheitsexperte der Johns Hopkins University, voraus.
"Apple ermöglicht '1984'"
Der Sicherheitsforscher und Datenschutzaktivist Alec Muffett sagt, Apples Schritt sei "tektonisch" und "ein riesiger Rückschritt für individuelle Privatsphäre". Er vergleicht die Lage mit einem ganz anderen Bild, das Apple von sich in seinen frühen Tagen schuf: "Mit dem Zurückschrauben der Privatsphäre ermöglicht Apple '1984'."