Was ist ein echtes Deepfake-Video?
Dieser Artikel ist älter als ein Jahr!
Der Wiener Bürgermeister Michael Ludwig soll am vergangenen Wochenende mit einem Deepfake von Vitali Klitschko telefoniert haben (die futurezone berichtete). Doch Expert*innen zweifeln, ob es sich wirklich um ein Deepfake handelte. Denn was man gemeinhin als Deepfakes bezeichnet, also als realistisch wirkende, aber falsche Medieninhalte, sind laut Experten oft nur Film-Tricks.
Der deutsche Investigativ-Journalist Daniel Laufer gibt etwa dem Kurznachrichtendienst Twitter zu bedenken, dass die Fälscher*innen hingegen lediglich bereits bestehende Aufnahmen clever aneinanderfügte, um so den Anschein eines Gesprächs zu imitieren.
“Man muss unterscheiden, ob künstliche Intelligenz verwendet wird, oder ob es nur Filmeffekte sind“, sagt Horst Eidenberger von der TU Wien. Bei letzteren können digitale Filter oder Masken erstellt werden, die anderen Personen stark ähneln. Sieht der Imitator zudem noch dem Original sehr ähnlich, ist die Fälschung nur noch sehr schwer zu erkennen.
Deepfake basiert auf neuronalen Netzwerken
Anders sieht es bei Deepfakes aus, die auf neuronalen Netzwerken fußen. Diese sind technisch deutlich aufwendiger. Die bisher bekannteste Methode, solche Deepfakes zu erstellen, ist das “Generative Adversarial Network”, oder GAN. “Bei GAN werden eigentlich 2 neuronale Netzwerke trainiert”, erklärt Eidenberger. In einem neuronalen Netz werden die Bildabfolgen dabei synthetisiert, das 2. beurteilt, ob die Bilder als realistisch oder nicht realistisch wahrgenommen werden.
“Damit dies gut und möglichst realistisch funktioniert, benötigt man für die Lernphase viele Bild und Videodaten der Zielperson, etwa verschiedene Gesichtsausdrücke und Beleuchtungssituationen aus bestehenden Videos. Diese stellen die sogenannten Trainingsdaten für die KI dar. Die Qualität dieser Trainingsdaten ist entscheidend für die Qualität des späteren Deepfakes”, sagt Martin Boyer, Senior Research Engineer am AIT. Vereinfacht gesagt zeigt man einem Computer also tausende Stunden Videomaterial zu Obama. Dieser lernt, daraus einen virtuellen Obama zu erstellen.
Menschen erkennen kleinste Abweichungen
Diese Methoden sind allerdings noch nicht perfekt. “Menschen sind, was Gesichter und Stimmen betrifft, unglaublich heikel“, sagt Eidenberger. Bereits kleinste Abweichungen machen uns stutzig. “Das Deep-Fake-Video mit US-Präsident Obama wurde wohl später noch einmal stark von Menschen nachbearbeitet, um ein realistisches Ergebnis zu erreichen.“
Die Technologie hat allerdings den Vorteil, dass man den gesamten Videoclip rein am Computer erstellen kann. Und sie dürfte sich in den nächsten Jahren immer weiter verbessern.
“Gerade am Übergang eines Gesichts zum Hals, den Haaren, Kleidung oder Hintergrund kann es im Bildmaterial Hinweise geben, etwa durch Unschärfen oder andere Bildfehler”, gibt Boyer Tipps, wie man Deepfakes erkennen kann. “Generell muss man heute ein notwendiges gesundes Maß an Skepsis mitbringen und Inhalte stets hinterfragen, indem man etwa die Quelle eines Videos überprüft”, rät der Experte.
Stimme ist live schwer zu fälschen
Es gibt allerdings auch Situationen, in denen bereits einfache Deepfakes ausreichen. “In einer Situation, wie bei einem Videotelefonat, würden wir ein verpixeltes Bild oder schlechte Tonqualität mitunter sehr schnell hinnehmen und nicht hinterfragen”, ist Boyer überzeugt. “Die Stimme stellt für den Fall eines Live-Fakes jedenfalls eine Herausforderung dar, da dafür eine gute Stimmenimitation notwendig ist und die entsprechende Person dafür gefunden werden muss.”
Spezialeffekte beim Film haben ihrerseits in den vergangenen Jahren enorme Fortschritte gemacht. So ist es möglich, einen Schauspieler in einen Film hineinzuretuschieren, ohne dass er physisch anwesend sein muss. Mit dem klassischen Deepfake hat das aber nichts zu tun, sagt Eidenberger.
Auch Kriminelle erkennen das Potenzial von gefälschten Videoclips. Im Jahr 2019 nutzte etwa ein Betrüger ein Deepfake der Stimme eines Firmenchefs, um einen “dringenden” Geldtransfer in Höhe von 220.000 Euro anzuordnen. Weniger erfolgreich war 2022 ein Fake-Video von Elon Musk. Darin versprach der vermeintliche Tesla-Chef eine hohe Rendite auf Krypto-Investments. Einige Hundert Dollar konnten Kriminelle so ergaunern.
Deepfake oder Cheapfake?
Geringen Aufwand bedeuten auch sogenannte “Cheapfakes“, also “billige Fälschungen”. Dabei werden Videoschnipsel so aneinandergefügt, bis sie eine gewünschte Aussage vermitteln. Langsam abgespielte Videos ermitteln außerdem den Eindruck, dass die Personen darin betrunken sind. Berühmtestes Opfer davon: US-Politikerin Nancy Pelosi.
Ob Deepfake oder nicht, “tagtäglich erscheinen immer mehr Meldungen über gefakte Bilder und Videos”, weiß Boyer zu berichten. “Mit der heute verfügbaren Rechenkapazität und den leicht erhältlichen notwendigen Tools zur Manipulation von Multimedia-Inhalten ist davon auszugehen, dass sich das Problem auch in den kommenden Jahren weiter fortsetzen wird.”
Lösung zur Deepfake-Erkennung
Eine Lösung zur Deepfake-Erkennung entwickeln Forscher*innen etwa im Forschungsprojekt defalsif-AI. Dort entwickeln die Expert*innen eine künstliche Intelligenz, die es Anwender*innen erlaubt, die Glaubwürdigkeit von Text‑, Bild‑, Video- oder Audiomaterial im Internet einzuschätzen. Das Projekt zielt dabei insbesondere auf politisch motivierte Desinformation ab.
Frag die futurezone
In der Rubrik "Frag die futurezone" recherchieren und beantworten wir ausgewählte Fragen zu Tech-Themen für euch.
Stellen könnt ihr sie mit einer E-Mail an die Adresse redaktion@futurezone.at - Betreff: "Frag die futurezone", ihr könnt uns aber auch gern via Social Media (Facebook, Instagram, Twitter) kontaktieren.
Kommentare