© DeepNude, Screenshot

Digital Life
06/28/2019

Nacktbilder-Software vom Netz genommen

Die Entwickler der KI-Software DeepNude, die innerhalb von Sekunden gefälschte Nacktbilder erstellte, haben die App aus dem Netz entfernt.

Die App nutzte künstliche Intelligenz, um Fotos angezogener Personen in Nacktbilder zu verwandeln und sorgte in den vergangenen Tagen für Aufregung. Nun haben die Entwickler von DeepNude die Anwendung vom Netz genommen. „Wir wollen auf diese Art kein Geld verdienen“, teilten die Entwickler auf Twitter mit. Sicherlich würden einige Kopien der Software weiter im Web kursieren, aber man wolle nicht diejenigen sein, die sie verkaufen, heißt es weiter: „Die Welt ist für DeepNude noch nicht bereit.“

Zuvor hatten die Entwickler die Software, die sogenannte Generative Adversarial Networks (GANs) nutzt, um die Deep Fakes zu erstellen, noch verteidigt. Ähnliche Ergebnisse könne man auch mit Photoshop erzielen, sagten sie gegenüber Motherboard . Zudem seien die Bilder deutlich als Fakes zu erkennen.

Sie waren jedoch auf scharfe Kritik gestoßen. Derartige Technologien sollten nicht verfügbar sein, sagte etwa Katelyn Bowden, die Gründerin der Non-Profit-Organisation Badass, die sich für Opfer von Rachepornos einsetzt: Jede Frau könnte Opfer von Rachepornos werden, ohne jemals ein Nacktfoto aufgenommen zu haben.