Kinderporno-Scan: Apple wehrt sich mit FAQ-Dokument gegen Kritik
Dieser Artikel ist älter als ein Jahr!
Apple hat unlängst ein neues Feature angekündigt, mit dem Geräte mit dem Betriebssystem iOS 15 auf Kinderpornografie, konkret "CSAM-Inhalte" (Child Sexual Abuse Material) gescannt werden. Die futurezone hat berichtet. Da der Konzern jedoch viel Kritik von Datenschützer*innen geerntet hat, weil er damit eine Massenüberwachungs-Software quasi durch die Hintertür einführen könnte, hat Apple nun ein 6-seitiges FAQ-Dokument namens „Expanded Protections for Children“ veröffentlicht.
Zunächst teilt das Unternehmen mit, dass der Nachrichten-Scan nach sexuellen Bildern nur bei Kinder-Accounts mit Familienfreigabe funktioniere. Das System analysiere die Bilder auf dem Gerät und ändere nichts an den Datenschutzbestimmungen von Nachrichten.
„Wenn ein Kinderkonto sexuell eindeutige Bilder sendet oder empfängt, wird das Foto unscharf und das Kind gewarnt, mit hilfreichen Ressourcen versorgt und ihm versichert, dass es in Ordnung ist, wenn es das Foto nicht anzeigen oder senden möchte“, heißt es seitens von Apple. Zusätzlich können die Kinder darüber informiert werden, dass ihre Eltern eine Nachricht erhalten, wenn sie die Bilder doch sehen wollen. Der Konzern selbst erfahre aber nichts davon.
Fotos auf Apple-Geräten werden nicht gescannt
Bei der zweiten Funktion werden Fotos in Apples Online-Speicherdienst iCloud mit einer Datenbank bereits bekannter kinderpornografischer Bilder abgeglichen. Über sogenannte "Hashes" lässt sich ein ähnliches Foto erkennen, es kann aus dem Hash aber nicht wiederhergestellt werden.
Apple versichert, dass der CSAM-Schutz nur Fotos scanne, die im iCloud gespeichert sind, nicht aber jene auf den Geräten. „Diese Funktion betrifft nur Benutzer*innen, die sich dafür entschieden haben, iCloud-Fotos zum Speichern ihrer Fotos zu verwenden“, heißt es. Informationen über andere Fotos, die nicht mit bekannten CSAM-Bilder übereinstimmen, erhalte Apple nicht.
Auch andere Gerätedaten blieben vom neuen Feature unberührt – die Funktion gelte zudem nicht für Nachrichten.
Revision durch Apple-Mitarbeiter*in
Bevor das National Center for Missing and Exploited Children (NCMEC) über einen CSAM-Inhalt informiert wird, werde laut Apple außerdem erst eine Revision durch eine/n Mitarbeiter*in durchgeführt.
Das Feature soll vorerst nur innerhalb der Vereinigten Staaten gelauncht werden. Apple versichert, das System auch auf Wunsch von Regierungen, nicht auf andere Inhalte auszuweiten.
Kommentare