Zur mobilen Ansicht wechseln »

Privacy Nude: Intelligenter Nacktfoto-Tresor im App-Test.

Nude möchte heikle Momente vermeiden.
Nude möchte heikle Momente vermeiden. - Foto: Screenshot
Nude verspricht einen sicheren Platz für Nacktfotos. KI soll die Aufnahmen filtern. Der Schein von Sicherheit trügt aber. Denn die App ist vielmehr ein Datenschutz-Albtraum.

Smartphones mit immer besseren Kameras sowie digitale Kommunikation, die das Teilen von Inhalten zu einem Kinderspiel machen, haben Sexting und Nacktfotos zur Normalität gemacht. Meist ist es eine Mischung aus Euphorie und Leichtsinnigkeit die dazu führt, dass entsprechenden Aufnahmen ohne entsprechende Sorgfalt an andere weitergegeben werden und oft auch auf dem eignen Smartphone ungesichert verweilen.

Dass explizite Aufnahmen in falsche Hände geraten, geschieht schneller als manche glauben mögen. Wird das eigene Smartphone gestohlen oder gerät es in die falschen Hände, verliert man die Kontrolle über seine Fotos in Sekunden. Die neu erschienene App Nude möchte diesem Problem einen Riegel vorschieben und die (Nackt-)Fotos seiner Nutzer vor fremden Blicken schützen. Mit Hilfe künstlicher Intelligenz soll Nude entsprechende Bilder auf dem Handyspeicher sowie in der Cloud erkennen und in der App verwahren können.

Übersichtliche App

Der rund 66 Megabyte große Download ist schnell auf dem Smartphone installiert. Nach dem ersten Start erklärt Nude kurz und knapp, welche Funktionen die App zur Verfügung stellt. Neben der automatischen Erkennung von Bildern wird vor allem eine erhöhte Sicherheit versprochen. Nach dem kurz gehaltenen Tutorial gilt es, die App vollständig einzurichten. Dazu ist unter anderem eine PIN notwendig, die grundsätzlich den Zugang zu App bzw. den dort gespeicherten Fotos ermöglicht. Die Möglichkeiten in Sachen Code sind dabei aber relativ eingeschränkt. Nude erlaubt hier nur eine vierstellige Zahl.

Zusätzliche Ziffern oder gar alphanumerische Zugangscodes, um den Zugriff weiter zu erschweren, können erst gar nicht erstellt werden. Nach Bestätigung der PIN bittet uns die App auch noch um eine Mail-Adresse. Diese soll dem Nutzer zum Wiederherstellen des Zugangs dienen, sollte einmal die PIN vergessen werden. Überspringen lässt sich die Eingabe nicht, wer keine Mail-Adresse angeben will, hat lediglich die Möglichkeit Fake-Daten einzutragen. Zu guter Letzt muss Nude noch der Zugriff auf die Objekte der Begierde gewährt werden. Nachdem der Zugriff auf die Foto-Bibliothek gestattet wurde, ist die App startklar. 

Automatische Erkennung

Für all jene, die bereits eine größere Menge an heiklen Bildern auf dem Smartphone haben, streicht Nude gleich zu Beginn die Option der automatischen Erkennung bzw. Filterung heraus. Auf Geräten mit iOS 11 macht sich die App dabei CoreML zunutze, das der Analyse von Fotos dient. So intelligent wie versprochen ist der „Nackt-Finder“ von Nude dann aber doch (noch) nicht. Auf einem Testgerät, das keinerlei entsprechende Bilder in seiner Bibliothek hat, wurden knapp 250 aus 3000 Bildern automatisch selektiert, die teilweise nicht einmal im Ansatz etwas mit nackter Haut zu tun hatten.

Neben der automatischen Auswahl können Nutzer die Fotos und Videos natürlich auch manuell in Nude hinterlegen. Innerhalb der App gibt es außerdem noch kleinere Optionen. So können iPhones mit Touch ID den Fingerabdruck-Scanner statt der PIN zur Abfrage verwenden. Außerdem bietet Nude eine Einbrechererkennung an. Wird diese aktiviert, fotografiert die App bei Eingabe des falschen Codes den „Einbrecher“, um den unbefugten Zugriffsversuch dokumentieren zu können. Wird die Zahlenkombination mehrmals falsch eingegeben, sperrt die App den Zugriff für eine gewisse Zeit komplett.

Zweifelhafter Datenschutz

In Sachen Datenschutz lässt Nude aber einige Zweifel aufkommen. Positiv herauszustreichen ist, dass sämtliche Inhalte der App sich nicht über iTunes oder das Filesystem via PC abgreifen lassen. Auch in iCloud-Backups scheinen die Daten nicht enthalten zu sein. In einer kurzen Analyse des Datenverkehrs werfen sich aber in Sachen Datenschutz und Anonymität recht viele Fragen auf. So suggeriert Nude zwar, dass sämtliche Daten auf dem Smartphone verarbeitet werden, genaugenommen ist dies aber nur unter bestimmten Voraussetzungen der Fall.

Gleich beim App-Start weisen die Entwickler nämlich darauf hin, dass nur Geräte mit iOS 11 CoreML zur lokalen Analyse nutzen können. Für frühere iOS-Version „nutzt die Anwendung Amazon Rekognition zur Nackt-Erkennung“. Sämtliche Aussagen in diese Richtung werden für technische Laien selbstverständlich kaum Bedeutung haben. Weshalb vielen Nutzern auch entgehen wird, dass Nutzer ohne iOS 11 sämtliche Bilder zur Analyse auf die Server der App hochladen. Im schlimmsten Fall lädt man also die Nacktbilder auf fremde Server hoch. Da auch der bald erscheinende Android-Ableger keinen Zugriff auf CoreML hat, ist davon auszugehen, dass auch dort sämtliche Daten zur Analyse in der Cloud landen.

Jede Menge Tracking

Die Entwickler versichern zwar, dass alle anfallenden Daten anonymisiert und keinerlei Bilder gespeichert werden. Die recht breit formulierten Datenschutzbestimmungen sowie die permanente Bedrohung von Hackerangriffen auf die Server der App bieten hier jedoch keine Garantie. Bei einer recht einfachen Analyse der Kommunikation zwischen Servern und App mithilfe von mitmproxy verstärkt sich dieser recht zweifelhafte Eindruck. Zu jedem einzelnen Bild, das in die Cloud geladen wird, vergibt Nude eine Identifier, der nur einmal vergeben wird.

Neben der Übertragung dieser Identifier werden auch die Fingerprints und Metadaten des Smartphones selbst ununterbrochen an die Server übertragen. Tracker von Facebook und Google erhalten diese Daten und erstellen sie zum Teil sogar selbst. Nicht zweifelsfrei zu klären war, ob die App beim Upload EXIF-Daten entfernt. Sofern dies nicht geschieht, landen sämtliche Bilder sogar mit genauen Ortsangaben auf den Servern von Amazon, was die Nutzung fast gefährlich macht. Auch deshalb raten Sicherheitsforscher wie Will Strafach von Nude ab.

Fazit

Nude möchte mit seiner App der lauernden Gefahr vorbeugen, dass Nacktbilder in falsche Hände geraten. Während der Ansatz mit automatischer Erkennung und abgesichertem Bereich gut ist, lässt der Datenschutz erhebliche Zweifel an der App aufkommen. Da viele Geräte nicht auf den Apple Framework CoreML zugreifen können, sind viele Nutzer (unbewusst) gezwungen, ihre intimsten Bilder in eine fremde Cloud zu laden. Die großzügig formulierten Datenschutzbestimmungen der App verstärken zweifelhaften Eindruck.

Nude ist kostenlos für iOS verfügbar. Eine Version für Android soll bald erscheinen. Die App setzt in Sachen Finanzierung auf ein Abo-Modell. Nach einer 30-tägigen Testphase kostet die Nutzung 0,99 Euro pro Monat oder 9,99 Euro pro Jahr.

(futurezone) Erstellt am 22.10.2017, 06:00

Kommentare ()

Einen neuen Kommentar hinzufügen

( Abmelden )

Dein Kommentar

Antworten folgen
Melden Sie den Kommentar dem Seitenbetreiber. Sind Sie sicher, dass Sie diesen Kommentar als unangemessen melden möchten?