War der falsche Klitschko ein Deepfake - oder gar nicht so "deep"?
© Screenshot Twitter

Digital Life

Was ist ein echtes Deepfake-Video?

Der Wiener Bürgermeister Michael Ludwig soll am vergangenen Wochenende mit einem Deepfake von Vitali Klitschko telefoniert haben (die futurezone berichtete). Doch Expert*innen zweifeln, ob es sich wirklich um ein Deepfake handelte. Denn was man gemeinhin als Deepfakes bezeichnet, also als realistisch wirkende, aber falsche Medieninhalte, sind laut Experten oft nur Film-Tricks.

Der deutsche Investigativ-Journalist Daniel Laufer gibt etwa dem Kurznachrichtendienst Twitter zu bedenken, dass die Fälscher*innen hingegen lediglich bereits bestehende Aufnahmen clever aneinanderfügte, um so den Anschein eines Gesprächs zu imitieren.

“Man muss unterscheiden, ob künstliche Intelligenz verwendet wird, oder ob es nur Filmeffekte sind“, sagt Horst Eidenberger von der TU Wien. Bei letzteren können digitale Filter oder Masken erstellt werden, die anderen Personen stark ähneln. Sieht der Imitator zudem noch dem Original sehr ähnlich, ist die Fälschung nur noch sehr schwer zu erkennen.

Deepfake basiert auf neuronalen Netzwerken

Anders sieht es bei Deepfakes aus, die auf neuronalen Netzwerken fußen. Diese sind technisch deutlich aufwendiger. Die bisher bekannteste Methode, solche Deepfakes zu erstellen, ist das “Generative Adversarial Network”, oder GAN. “Bei GAN werden eigentlich 2 neuronale Netzwerke trainiert”, erklärt Eidenberger. In einem neuronalen Netz werden die Bildabfolgen dabei synthetisiert, das 2. beurteilt, ob die Bilder als realistisch oder nicht realistisch wahrgenommen werden. 

“Damit dies gut und möglichst realistisch funktioniert, benötigt man für die Lernphase viele Bild und Videodaten der Zielperson, etwa verschiedene Gesichtsausdrücke und Beleuchtungssituationen aus bestehenden Videos. Diese stellen die sogenannten Trainingsdaten für die KI dar. Die Qualität dieser Trainingsdaten ist entscheidend für die Qualität des späteren Deepfakes”, sagt Martin Boyer, Senior Research Engineer am AIT. Vereinfacht gesagt zeigt man einem Computer also tausende Stunden Videomaterial zu Obama. Dieser lernt, daraus einen virtuellen Obama zu erstellen. 

Menschen erkennen kleinste Abweichungen

Diese Methoden sind allerdings noch nicht perfekt. “Menschen sind, was Gesichter und Stimmen betrifft, unglaublich heikel“, sagt Eidenberger. Bereits kleinste Abweichungen machen uns stutzig. “Das Deep-Fake-Video mit US-Präsident Obama wurde wohl später noch einmal stark von Menschen nachbearbeitet, um ein realistisches Ergebnis zu erreichen.“

Die Technologie hat allerdings den Vorteil, dass man den gesamten Videoclip rein am Computer erstellen kann. Und sie dürfte sich in den nächsten Jahren immer weiter verbessern.

“Gerade am Übergang eines Gesichts zum Hals, den Haaren, Kleidung oder Hintergrund kann es im Bildmaterial Hinweise geben, etwa durch Unschärfen oder andere Bildfehler”, gibt Boyer Tipps, wie man Deepfakes erkennen kann. “Generell muss man heute ein notwendiges gesundes Maß an Skepsis mitbringen und Inhalte stets hinterfragen, indem man etwa die Quelle eines Videos überprüft”, rät der Experte.

Stimme ist live schwer zu fälschen

Es gibt allerdings auch Situationen, in denen bereits einfache Deepfakes ausreichen. “In einer Situation, wie bei einem Videotelefonat, würden wir ein verpixeltes Bild oder schlechte Tonqualität mitunter sehr schnell hinnehmen und nicht hinterfragen”, ist Boyer überzeugt. “Die Stimme stellt für den Fall eines Live-Fakes jedenfalls eine Herausforderung dar, da dafür eine gute Stimmenimitation notwendig ist und die entsprechende Person dafür gefunden werden muss.”

Spezialeffekte beim Film haben ihrerseits in den vergangenen Jahren enorme Fortschritte gemacht. So ist es möglich, einen Schauspieler in einen Film hineinzuretuschieren, ohne dass er physisch anwesend sein muss. Mit dem klassischen Deepfake hat das aber nichts zu tun, sagt Eidenberger. 

Auch Kriminelle erkennen das Potenzial von gefälschten Videoclips. Im Jahr 2019 nutzte etwa ein Betrüger ein Deepfake der Stimme eines Firmenchefs, um einen “dringenden” Geldtransfer in Höhe von 220.000 Euro anzuordnen. Weniger erfolgreich war 2022 ein Fake-Video von Elon Musk. Darin versprach der vermeintliche Tesla-Chef eine hohe Rendite auf Krypto-Investments. Einige Hundert Dollar konnten Kriminelle so ergaunern. 

Deepfake oder Cheapfake?

Geringen Aufwand bedeuten auch sogenannte “Cheapfakes“, also “billige Fälschungen”. Dabei werden Videoschnipsel so aneinandergefügt, bis sie eine gewünschte Aussage vermitteln. Langsam abgespielte Videos ermitteln außerdem den Eindruck, dass die Personen darin betrunken sind. Berühmtestes Opfer davon: US-Politikerin Nancy Pelosi

Ob Deepfake oder nicht, “tagtäglich erscheinen immer mehr Meldungen über gefakte Bilder und Videos”, weiß Boyer zu berichten. “Mit der heute verfügbaren Rechenkapazität und den leicht erhältlichen notwendigen Tools zur Manipulation von Multimedia-Inhalten ist davon auszugehen, dass sich das Problem auch in den kommenden Jahren weiter fortsetzen wird.” 

Lösung zur Deepfake-Erkennung

Eine Lösung zur Deepfake-Erkennung entwickeln Forscher*innen etwa im Forschungsprojekt defalsif-AI. Dort entwickeln die Expert*innen eine künstliche Intelligenz, die es Anwender*innen erlaubt, die Glaubwürdigkeit von Text‑, Bild‑, Video- oder Audiomaterial im Internet einzuschätzen. Das Projekt zielt dabei insbesondere auf politisch motivierte Desinformation ab. 

Frag die futurezone

In der Rubrik "Frag die futurezone" recherchieren und beantworten wir ausgewählte Fragen zu Tech-Themen für euch.

Stellen könnt ihr sie mit einer E-Mail an die Adresse redaktion@futurezone.at - Betreff: "Frag die futurezone", ihr könnt uns aber auch gern via Social Media (Facebook, Instagram, Twitter) kontaktieren.

Hat dir der Artikel gefallen? Jetzt teilen!

Marcel Strobl

marcel_stro

Ich interessiere mich vor allem für Klima- und Wissenschaftsthemen. Aber auch das ein oder andere Gadget kann mich entzücken.

mehr lesen
Marcel Strobl

Kommentare