Geheimer "Licht-Code" entlarvt KI-generierte Fake-Videos
KI-generierte oder anderweitig gefälschte Videos sind ein drängendes Problem, etwa im Kontext politischer Kommunikation oder sexualisierter Gewalt. Solche Deepfakes zu erkennen, wird durch Verbesserungen in der Technologie immer schwieriger.
➤ Mehr lesen: Elon Musks KI generiert ungefragt Nacktvideo von Taylor Swift
Bestehende Lösungen zu Video-Wasserzeichen erfordern ganz bestimmte Kamera- oder KI-Modelle. Von potenziell böswilligen Akteuren ist jedoch nicht zu erwarten, dass sie so etwas zu nutzen.
Ein Forscherteam der Cornell University in den USA hat nun eine Methode für ein Wasserzeichen vorgestellt, die nicht über die Kamera, sondern die Beleuchtung der Szenerie funktioniert. Details zur „Noise-Coded Illumination“ (rausch-kodierte Beleuchtung) wurden kürzlich in der Fachzeitschrift ACM Transactions on Graphics veröffentlicht.
Wasserzeichen in der Beleuchtung
Wichtige Ereignisse, wie politische Interviews oder Pressekonferenzen, oder ganze Gebäude, wie das UN Hauptquartier könnten mit der speziellen Beleuchtung ausgestattet werden. Diese schwankt minimal, was für das menschliche Auge unsichtbar ist, aber von Kameras eingefangen werden kann.
Dabei ist es unerheblich, um welche Kamera es sich handelt – sie benötigt keine besondere Wasserzeichen-Funktion. Als geeignete Lichtquellen kommen all jene in Frage, die programmierbar sind, z.B. Computerbildschirme oder Beamer. Bestehende Beleuchtungen können teilweise mithilfe eines kleinen Computerchips aufgerüstet werden.
Geheime Codes
Die Beleuchtungsschwankungen sind dabei nicht zufällig, sondern codiert. Anstatt eine bestimmte Nachricht zu verschlüsseln, enthält das Wasserzeichen ein Bild der unverfälschten Szene, wie sie allein durch die verschlüsselte Beleuchtung erhellt erscheinen würde.
„Jedes Wasserzeichen enthält eine Version des unbearbeiteten Videos mit Zeitstempel unter leicht unterschiedlichen Lichtverhältnissen. Wir nennen diese Videos ,Code Videos‘“, erklärt Abe Davis, Informatik-Assistenzprofessor an der Cornell University in einer Aussendung.
➤ Mehr lesen: Mensch oder KI? "AI Detection Tools haben massive Schwierigkeiten"
„Wenn jemand ein Video manipuliert, beginnen die manipulierten Teile, dem zu widersprechen, was wir in den Code-Videos sehen“, so Davis weiter. Dadurch werde ersichtlich, an welchen Stellen Änderungen vorgenommen wurden. Wenn jemand Objekte entfernt oder hinzufügt, erscheinen die veränderten Stellen im Code-Video schwarz.
Für Menschen unsichtbar
Damit das subtile Flackern der Beleuchtung für Menschen unsichtbar bleibt, ist es an bestehende Verhältnisse angeglichen. „Der Code ist so gestaltet, dass er wie zufällige Abweichungen aussieht, die bereits im Licht vorkommen und als Rauschen bezeichnet werden“, erläutert Peter Michael, Erstautor der Studie.
Das Forschungsteam hat in einer Szenerie 3 verschiedene Codes in verschiedenen Lampen angewandt. Mit jedem zusätzlichen Code werden die Muster komplexer und schwieriger zu fälschen.
Davis und Michael warnen allerdings, dass es sich bei Fake-Videos und deren Erkennung um ein Wettrüsten handle. Gegner würden weiterhin neue Methoden entwickeln, um andere in die Irre zu führen.