KI-generierte Nacktbilder werden immer häufiger zum Problem. 

KI-generierte Nacktbilder werden immer häufiger zum Problem. 

© scyther5/istockphoto

Digital Life

Cyberkriminelle erpressen Opfer mit KI-generierten Nacktbildern

Das US-amerikanische FBI warnt aktuell vor einem Anstieg von Erpressungsversuchen mittels KI-generierten Nacktbildern. Cyberkriminelle verwandeln dabei mittels künstlicher Intelligenz (KI) harmlose Bilder ihrer Opfer in explizite Fotos. Diese Praxis wird auch als "Sextortion" bezeichnet, ein Kofferwort aus "Sex" und "Distortion" (zu Deutsch "Verzerrung"). 

"Die Fotos werden dann von böswilligen Akteuren direkt an die Opfer geschickt, um sie zu sextortieren oder zu belästigen", schreibt die Behörde. "Einmal in Umlauf gebracht, kann es für die Opfer sehr schwierig sein, die weitere Verbreitung der manipulierten Inhalte zu verhindern oder sie aus dem Internet zu entfernen". Seit April 2023 häufen sich die Vorfälle. 

➤ Mehr lesen: Hunderttausende gefälschte Nacktbilder online geteilt

Geld oder Nacktbilder im Gegenzug

Laut dem FBI verwenden Kriminelle derartiges Bildmaterial typischerweise, um echte Nacktbilder von einem Opfer zu verlangen oder Geld zu erpressen: "Die Hauptmotivatoren dafür sind der Wunsch nach weiteren sexuellen Inhalten, finanzieller Gewinn oder das Schikanieren und Belästigen anderer". Die Behörde rät Nutzer*innen, "Vorsicht walten zu lassen", wenn sie Bilder von sich selbst online weitergeben.

Für Deepfake-Nacktbilder werden in der Regel allerdings nur wenige echte Bilder oder Videos benötigt. Das Phänomen ist erstmals 2017 auf Reddit aufgetaucht. Auf der Plattform haben Nutzer damals begonnen mittels Software künstliche Nacktbilder von weiblichen Stars zu generieren. Obwohl es einige Versuche gegeben hat, der Verbreitung dieser Inhalte im Internet Einhalt zu gebieten, sind Tools und Websites zur Erstellung von Deepfake-Nacktbildern leicht zugänglich.

➤ Mehr lesen: Was ist ein echtes Deepfake-Video?

Hat dir der Artikel gefallen? Jetzt teilen!

Kommentare