Digital Life

So entlarvt ihr täuschend echte KI-Videos

KI-Programme werden immer besser darin, täuschend echt aussehende Videos zu generieren. Und immer mehr Menschen können diese deshalb nicht mehr von realen Aufnahmen unterscheiden. Einen Universaltrick, um sie auf den ersten Blick zu entlarven, gibt es nicht.

Man muss schon das eigene Hirn bemühen, frei nach dem Motto: Die Lüge zu glauben ist bequemer, als die Wahrheit zu suchen. Hier einige Tipps, die dabei helfen können, KI-Videos zu entlarven.

➤ Mehr lesen: Googles mächtiges KI-Videotool ist jetzt gratis

Wasserzeichen

Das ist tatsächlich die einzig flotte Methode. Erstellt man etwa mit der KI-Software Sora ein Video, ist halbtransparent eine kleine Wolke mit Augen und der Schriftzug „Sora“ zu sehen. Dieses sogenannte Watermark springt durch das Bild und soll so verhindern, dass es ausgeschnitten wird.

Allerdings ist es nicht besonders schwierig, es nachträglich zu entfernen. Es gibt sogar etliche Programme im Internet dafür zu finden. Auch die Watermarks anderer KI-Videosoftware, wie etwa Googles „Veo“, bei der das Wort ohnehin nur sehr klein rechts unten zu sehen ist, lassen sich recht einfach entfernen.

Wer teilt das Video?

Ist man skeptisch, sollte man sich ansehen, wer das Video in den sozialen Netzwerken geteilt hat und was er oder sie davon hat. Veröffentlicht die Person lauter solche fragwürdigen Videos, die mit Superlativen und emotional aufwühlenden Titeln angepriesen werden, geht es hier wohl nur um viele Aufrufe und Likes – und die bringen aktuell KI-Videos.

Manchmal gibt die Person auch offen im Profil an, dass sie sich mit KI-Kunst beschäftigt oder es ein Satire-Konto ist.

Nicht nur der Nutzername enthält Sora, auch die Beschreibung sagt ganz klar, dass hier KI-Videos gepostet werden.

Ist das Video plausibel?

Anstatt alles zu glauben, was einem vorgesetzt wird, sollte man einfach mal kurz nachdenken: Ist das realistisch, was meine Augen gerade sehen? Ja, die Katze mit der Schrotflinte vor der Tür schaut schon echt aus und auch die Frau, die wütend aus dem Haus läuft, nachdem sich ein Schuss gelöst hat.

Aber wie bitte soll die Katze eine Schrotflinte halten? Und wie ist sie dazu gekommen? Und wieso steht sie vor der Überwachungskamera der Haustür damit? Auch wenn dieses Beispiel etwas extrem ist, kann man sich diese Art von Fragen immer stellen: Kann Objekt A überhaupt mit Objekt B interagieren und wieso ist es an Ort C?

➤ Mehr lesen: OpenAIs TikTok-Konkurrent macht Deepfakes von euren Freunden

Häufigkeit

Um beim Beispiel der Katze zu bleiben: Ach wie süß, sie kuschelt mit einem Baby und danach imitieren sie gegenseitig ihre Bewegungen. 5 Minuten später sieht man ein Video, in dem das Baby mit einem Hundewelpen dasselbe macht, gefolgt von einem Frettchen, Kanarienvogel und so weiter. Kommt einmal eine bestimmte Art von Video gut an (viele Likes und Aufrufe), wird es repliziert und modifiziert. Sieht man also wiederholt dieselbe Art von Video in kurzer Zeit, könnte es das Werk der KI sein.

Gerade ein sehr beliebtes Szenario bei KI-Videos: Bären versus alte Manschen auf der Veranda.

Bildqualität

Früher war es einfacher, anhand von Bildartefakten KI-Videos zu erkennen. Typisch ist ein Grieseln rund um Objekte, die sich bewegen. Oder bei Menschen etwa plötzlich verschwindende Haare am Rande der Frisur. Durch die verbesserten KI-Programme sieht man solche offensichtlichen Fehler kaum noch.

Außerdem werden oft Tricks angewandt, wie eine absichtlich schlechte Bildqualität, um verräterische KI-Artefakte zu verschleiern. Besonders beliebt ist etwa die Überwachungskamera-Perspektive, weil viele Menschen diese mit reduzierter Bildqualität gleichsetzen – dadurch wirkt das Video authentischer. Besondere Vorsicht also bei solchen Videos.

Auf den Instinkt hören

Auch wenn die KI-Programme extrem gut sind, ist es manchmal die Summe der Kleinigkeiten, die einem ein „da stimmt doch was nicht“-Gefühl gibt. Das kann ein zu glattes Gesicht sein oder Mimik und Gestik, die nicht zur Situation passt.

Ebenso dazu gehört Schwerkraft, die im Video nicht ganz so funktioniert, wie sie eigentlich sollte und Bewegungsabläufe, die beim näheren Betrachten wirken, als würden Menschen, Tiere oder Objekte ein wenig schweben oder sich in leichter Zeitlupe bewegen.

Gelegentlich hat die KI noch Probleme mit Objekten, die mehrere Eigenschaften aufweisen können, wie etwa eine Türe. Manchmal wird zB. eine Schiebe- und eine normale Tür zu etwas kombiniert, das so nicht funktionieren kann.

Wenn sich dieses Bauchgefühl meldet, sollte man nochmal genau hinschauen und darüber nachdenken, ob man dieses Video wirklich weiterverbreiten will.

Klicken Sie hier für die Newsletteranmeldung

Hat dir der Artikel gefallen? Jetzt teilen!

Gregor Gruber

Testet am liebsten Videospiele und Hardware, vom Kopfhörer über Smartphones und Kameras bis zum 8K-TV.

mehr lesen