Science

Warum wir Deepfakes für echt halten, egal wie schlecht sie sind

Russlands Präsident Wladimir Putin, der ehemalige US-Präsident Donald Trump oder Barack Obama: All diese prominenten Politiker waren bereits Opfer von sogenannter Deepfake-Technologie. Von ihnen waren Fotos oder Videos im Umlauf, auf denen sie bei Tätigkeiten zu sehen waren, die niemals passiert sind. Trump zeigten sie etwa dabei, wie er festgenommen wurde. Putin war kniend vor dem chinesischen Präsidenten zu sehen.

Journalist*innen aus den USA nutzten die Technologie, um Obama fremde Worte in den Mund zu legen. Das sollte auf die Problematik solcher Deepfakes aufmerksam machen: Die gefälschten Bilder und Videoaufnahmen können zur Verbreitung von Desinformation eingesetzt werden und so die öffentliche Meinung beeinflussen.

Viorela Dan hat seit März 2023 die Tenure-Track Stelle für Mediendynamik und gesellschaftlichen Wandel inne – am Institut für Medien, Gesellschaft und Kommunikation der Universität Innsbruck.

Wissenschaftlerin startete Sozialexperiment

Die Wissenschafterin Viorela Dan forscht am Institut für Medien, Gesellschaft und Kommunikation der Universität Innsbruck an diesem Phänomen. Sie hat unter anderem untersucht, was Deepfake-Videos im politischen Kontext mit Menschen machen. Dazu hat sie Schauspieler engagiert und mit ihnen insgesamt drei Videos in einem Restaurant-Setting gedreht. In dieser Umgebung führte ein Mann ein Gespräch mit einem anderen.

„Aus ethischen Gründen habe ich für mein Experiment einen fiktiven Politiker gewählt, einen Bürgermeister einer deutschen Kleinstadt“, erzählt Dan im Gespräch mit der futurezone. Sie ließ den fiktiven Bürgermeister in ihrem Experiment etwas Schlimmes über Flüchtlinge und Frauen sagen. „Etwas, das seine Reputation stark negativ beeinflusst“, beschreibt die Forscherin.

➤ Mehr lesen: Falsche Reiseangebote: Wie mit Deepfakes im Netz betrogen wird

„Es braucht gar keine geschickt gefälschten Videos,um Menschen zu täuschen“

Viorela Dan | Universität Innsbruck

Drei Videos in unterschiedlicher Qualität

Insgesamt hat Dan drei Videos angefertigt: ein Original, eine schlecht gemachte Fälschung und eine wirklich professionell umgesetzte Manipulation. Bei der schlecht gemachten Fälschung wurde eine andere Tonspur über das Original gelegt und die Lippensynchronisation passte nicht mit der im Original zusammen. Solche schlecht zusammengeschusterten Videos nennt man in der Fachsprache auch „Cheapfake“, weil sie schnell und billig hergestellt werden können.

Beim professionell gestalteten Video wurden  die Licht- und Schattenverhältnisse sowie die Tonspur hingegen so manipuliert, dass es mit freiem Auge nicht erkennbar war, dass es sich um eine Fälschung handelt.

Reputationsschaden war überall erkennbar

Die Forscherin zeigte im Anschluss über 2000 Personen die jeweiligen Versionen der Videos und ließ sie  bewerten, was sie vom Politiker halten. Was für Emotionen spüren sie etwa beim Ansehen des Videos, und: Würden sie den Politiker nach wie vor wählen? „Bei meinem Experiment kam raus, dass die Reputation dieses fiktiven Politikers in der Wahrnehmung aller Studienteilnehmer stark gesunken war, und zwar unabhängig davon, welche Version des Videos sie gesehen hatten“, so die Forscherin zu den Ergebnissen.

„Die Cheapfakes hatten den gleichen Effekt wie gut gemachte Deepfakes. Es braucht also gar keine geschickt gefälschten Videos, um Menschen zu täuschen“, sagt Dan. Das liegt laut der Forscherin daran, dass wir Menschen nicht damit aufgewachsen sind, dass Inhalte manipuliert werden können und gerade Videos sehr lange Zeit als realitätsnah galten.

„Wir haben noch nicht kapiert, dass das, was wir mit unseren eigenen Augen sehen oder Ohren hören, falsifiziert werden kann“, so die Forscherin der Uni Innsbruck. „Jetzt tut man sich aber relativ leicht damit, Menschen Worte in den Mund zu legen, die sie nie gesagt haben.

Erklärung

Deepfakes
Das sind täuschend echt wirkende, manipulierte Medieninhalte. Sie werden mithilfe von künstlicher Intelligenz (KI) erzeugt. Die Qualität der Fälschungen wird  immer besser  

Anwendung
Mit KI-Programmen lassen sich Gesichter und Stimmen austauschen oder  Personen  in einem anderen Kontext darstellen. Menschen sagen Dinge, die sie nie gesagt haben oder vollziehen Handlungen, die nie stattgefunden haben

Manipulation
 Deepfakes können gezielt für Propaganda missbraucht werden.  Mit der Technologie werden aber auch Prominente oft als Testimonials für Werbung missbraucht. Ohne deren Wissen entstehen Werbeclips für fragwürdige Produkte, die durch den Prominenten glaubwürdiger wirken sollen

Österreich
Auch in Österreich gab es schon prominente Opfer. Der Wiener Bürgermeister Michael Ludwig (SPÖ) sowie der berühmte TV-Moderator Armin Wolf (ORF) sind Beispiele

Das Positive: Faktenchecks nützen etwas

Doch mit diesem Ausgang endete das Experiment der Wissenschafterin noch nicht. Sie hat  auch untersucht, ob der Reputationsverlust des fiktiven Politikers rückgängig gemacht werden kann. „Die Personen bekamen ein Video zu Gesicht, das ihnen erklärte, dass das, was sie gerade  gesehen haben, nicht stimmt“, so die Forscherin. Daraufhin waren die Meinungen zu dem fiktiven Politiker wieder positiver.

„Solange es solche Faktenchecks gibt und wir uns dahingehend darauf verlassen können, dass Journalist*innen Klarstellungen zeigen, müssen wir nicht allzu besorgt sein, dass derartige Videos eine Gefahr für die Demokratie sind. Wir können mit mehr Zuversicht in die Zukunft blicken“, sagt Dan. 

Wie ihr manipulierte Videos erkennen könnt

„Generell wird es immer schwieriger, manipulierte Videos zu erkennen“, sagt Alexander Schindler, Senior Scientist am Austrian Institute of Technology (AIT), im futurezone-Gespräch. Da es mittlerweile unterschiedliche Verfahren gibt, um gefälschte Videos zu erstellen, gibt es nicht mehr „den einen Tipp“, der für alle Videos gleichermaßen gilt, um die Fälschungen zu entlarven.

Am schwierigsten zu erkennen sind laut Schindler Fälschungen von Profis, die ihr Geld mit der Erstellung dieser Videos verdienen. „Man braucht viel Kenntnis darüber, wie diese Programme funktionieren, um die besten Ergebnisse zu erzielen“, sagt Schindler.

  • KI-Erkennung

Gute Manipulationen seien  nur  mittels Mustererkennung zu entdecken, für die man wiederum technische Unterstützung benötigt. „Das ist dann die  KI, die die KI-Bilder erkennt“, sagt der AIT-Experte.

  • Ränder

Bei weniger ausgereiften Manipulationen, bei denen einfach die Gesichter ausgetauscht wurden, können Nutzer durchaus noch draufkommen, dass etwas manipuliert wurde. „An den Rändern lasst sich etwa bei Bewegungen eruieren, ob etwas reingeschnitten oder reinkopiert wurde“, erklärt Schindler.

  • Details

Hilfreich ist es, außerdem auf Details zu achten. Etwa darauf, ob bei Aufnahmen von Gesichtern  die Ohren und Haare korrekt geformt sind oder Augen und Zähne verwaschen wirken.

  • Belichtung

Wenn Licht und Schatten der Umgebung nicht zur Belichtung des Gesichtes passen, stimmt etwas nicht.

Klicken Sie hier für die Newsletteranmeldung

Hat dir der Artikel gefallen? Jetzt teilen!

Barbara Wimmer

shroombab

Preisgekrönte Journalistin, Autorin und Vortragende. Seit November 2010 bei der Kurier-Futurezone. Schreibt und spricht über Netzpolitik, Datenschutz, Algorithmen, Künstliche Intelligenz, Social Media, Digitales und alles, was (vermeintlich) smart ist.

mehr lesen