"Viele Deepfakes lassen sich noch leicht erkennen"
"Präsident Trump ist ein kompletter Vollidiot", sagt der ehemalige US-Präsident Barack Obama in einem Video das 2018 auf YouTube veröffentlicht wurde und viel Aufsehen erregte. Obama mag sich das vielleicht gedacht haben, laut aussprechen würde er es aber nicht. In dem Video wurden ihm die Worte vom Schauspieler und Regisseur Jordan Peele in den Mund gelegt, der mit dem Clip auf die Gefahren von Fake News und Deepfake-Videos aufmerksam machen wollte.
"Viele Deepfakes lassen sich noch leicht erkennen", sagt Alexander Schindler: "Etwa an Gesten, die nicht ganz zum Text passen. Kopfbewegungen und Körperhaltungen können nicht so gut manipuliert werden", erläutert der Wissenschaftler, der am AIT Austrian Institute of Technology, zu Medienmanipulationen forscht. Und auch die Stimme ist nicht jene des ehemaligen US-Präsidenten, sondern stammt von einem Schauspieler, der Obama nachahmte.
Beim Austrian Innovation Forum, das am 15. und 16. Oktober am Erste Campus in Wien stattfindet, wird Schindler Techniken und Möglichkeiten erläutern, um Inhalte einerseits zu manipulieren und Lösungen vorstellen, wie solche Fake News künftig besser erkannt werden können.
"Technologie ist nicht das Problem"
Die Technologie selbst sei nicht das Problem, sagt der Forscher. Sie habe etwa im Kreativbereich zum Beispiel in der Filmtechnik viel positives Potenzial. Sie könne aber auch zur Desinformation oder zum Betrug eingesetzt werden. "Wie man das Werkzeug verwendet, ist das Problem", so Schindler.
Wo stehen wir bei der Technologie? Wie lange werden wir Deepfakes noch zweifelsfrei erkennen können? Mit Hilfe von künstlicher Intelligenz und Deep-Learning-Algorithmen könne man recht schnell feststellen, welche Bereiche von Bildern manipuliert worden seien. "Wenn man andere Segmente einfügt, haben die ein ganz anderes Bildrauschen", erläutert Schindler. Herausfordernder für die Erkennung seien komplett computergenerierte Bilder. "Da wird nichts eingefügt, sondern da wird das komplette Bild generiert."
Viele Anhaltspunkte
Gestik, Mimik und Blinzelverhalten könnten aber auch da Anhaltspunkte geben, erzählt Schindler: "Der Computer lernt basierend auf Statistiken, wie er ein Bild von einem Gesicht malen soll. Wenn das nicht ausreichend funktioniert, kann etwa die Haut plastisch wirken oder bestimmte Muskeln nicht in die richtige Richtung ziehen. Es gibt viele Anhaltspunkte." Die aktuelle Genauigkeitsrate in Fakes sei jedenfalls noch sehr gering.
Stimme aufwändiger zu fälschen
Aufwändiger zu fälschen sei aber die Stimme, sagt der Forscher. Bei Sprache werde viel mit Emotion und Subtext kommuniziert: "Im Bild akzeptieren wir sehr viel, wenn sich aber die Stimmlage ändert, sind wir alarmiert."
Die Entwicklung schreite aber auch in dem Bereich voran: "In den nächsten 2 oder 3 Jahren werden wir auch überzeugende Deepfakes für Audio kennenlernen."
Komplexes Gebiet
Am AIT beschäftigt man sich aber nicht nur mit Manipulationen von Videos und Audioaufnahmen, sondern generell mit Möglichkeiten, Desinformationen zu erkennen. "Das ist ein sehr komplexes Gebiet", sagt Schindler. Man müsse einzelne Aussagen interpretieren und auf ihren Wahrheitsgehalt prüfen und auch Zusammenhänge interpretieren. Text-, Bild- und Audioanalyse werden dabei miteinander verknüpft. Dazu kommt auch die Netzwerkanalyse, die versucht, Verbreitungswege von Fake News nachzuvollziehen.
Aktuell wird in der außeruniversitären Forschungseinrichtung etwa an einem Assistenzwerkzeug geforscht, das dabei helfen soll, Wahrheits-, Informations- und Emotionsgehalt von Nachrichten sowie deren Verbreitungswege zu eruieren. Bis 2022 soll die Entwicklung des Tools abgeschlossen sein. Schindler: "Wenn man ein Lagebild hat, kann man besser darauf reagieren und gewinnt an Handlungsspielraum."
Disclaimer: Dieser Artikel ist im Rahmen einer Kooperation zwischen futurezone und dem Austrian Innovation Forum entstanden.