Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos

© Bild: Reuters/Robert Galbreith

Mit künstlicher Intelligenz können falsche Gesichter auf Körper in Videos montiert werden. Reddit schließt jetzt die Subgruppe dazu.

Es ist ein Trend, der auf einem Sub-Forum von Reddit entstand: Seit kurzem ist es möglich, mit einem Programm mithilfe von Künstlicher Intelligenz (KI) Gesichter in Videoaufnahmen zu erkennen und durch Gesichter anderer Personen zu ersetzen. Das Programm wird derzeit vor allem dazu genutzt, um Gesichter von Prominenten in Porno-Clips einzusetzen. Ein Reddit-User namens „Deepfake“ entwickelte die Künstliche Intelligenz, mit der dieser Austausch möglich war, mit der „FakeApp“ wurde der Prozess weiter vereinfacht. Die Bilder wurden in Folge auch nach dem Reddit-Nutzer benannt: Deepfakes.

© Bild: Screenshot/Reddit

Zuerst Pornhub, dann Reddit

Seit vergangenem Herbst waren nun vor allem im Reddit-Subforum zahlreiche Videos aufgetaucht, in denen Pornodarstellerinnen digital die Gesichter von Stars wie Emma Watson oder Scarlett Johansson aufgesetzt worden waren. Diese Technik bezeichnet man als „Face-Swap“ und sie funktioniert mittels KI. Auch auf Pornhub waren entsprechende Deepfakes mit Köpfen von Promis aufgetaucht. Pornhub hat am Dienstag reagiert und angekündigt, gegen diese Videos vorgehen zu wollen, weil sie „nicht im gegenseitigen Einverständnis“ entstanden seien.

Einen Tag später zieht jetzt auch Reddit nach. Die Deepfakes-Sub-Gruppe zu dem Thema war bereits auf 80.000 Abonnenten angewachsen. Seit Mittwoch taucht dort die Info auf: „Diese Gruppe wurde gebannt.“ Reddit begründet den Schritt mit einer Verletzung der Content-Policy und konkretisiert auch, dass es dabei um unfreiwillige Pornografie geht. Auch für Reddit ist daher ebenso wie für Pornhub die Grenze überschritten worden, weil die Videos nicht im Einvernehmen entstanden sind – weder die Pornodarstellerinnen noch die Schauspielerinnen haben ihre Zustimmung für derartige Montagen gegeben.

Auch Twitter unc Gfycat

Auch Twitter hatte am Dienstag angekündigt, Accounts zu sperren, die Deepfake-Videos ins Netz stellen oder die sich der Verbreitung solches Clips verschreiben. Eine ähnliche Position vertritt auch Gfycat: Die Betreiber der Gif-Austauschplattform erklärten Ende Jänner laut einem Spiegel-BerichtDeepfakes zu löschen. Zuvor hatte bereits die Chatplattform Discord einen Chatkanal rund um gefälschte Promi-Pornovideos vom Netz genommen.

Auch wenn damit immer mehr Plattformen gegen Deepfakes vorgehen, wird dieses Phänomen nicht mehr so schnell aus dem Netz verschwinden. Der Entwickler des Programms hat etwa angekündigt, seine Software weiterentwickeln zu wollen, damit diese künftig nur noch mit einem Click funktioniert. Auch in der VR-Sex-Branche gibt es zudem Diskussionen darüber, ob echte Personen in einer VR-Umgebung sexualisiert werden dürfen.