Warum wir Deepfakes für echt halten, egal wie schlecht sie sind
Dieser Artikel ist älter als ein Jahr!
Russlands Präsident Wladimir Putin, der ehemalige US-Präsident Donald Trump oder Barack Obama: All diese prominenten Politiker waren bereits Opfer von sogenannter Deepfake-Technologie. Von ihnen waren Fotos oder Videos im Umlauf, auf denen sie bei Tätigkeiten zu sehen waren, die niemals passiert sind. Trump zeigten sie etwa dabei, wie er festgenommen wurde. Putin war kniend vor dem chinesischen Präsidenten zu sehen.
Journalist*innen aus den USA nutzten die Technologie, um Obama fremde Worte in den Mund zu legen. Das sollte auf die Problematik solcher Deepfakes aufmerksam machen: Die gefälschten Bilder und Videoaufnahmen können zur Verbreitung von Desinformation eingesetzt werden und so die öffentliche Meinung beeinflussen.
Wissenschaftlerin startete Sozialexperiment
Die Wissenschafterin Viorela Dan forscht am Institut für Medien, Gesellschaft und Kommunikation der Universität Innsbruck an diesem Phänomen. Sie hat unter anderem untersucht, was Deepfake-Videos im politischen Kontext mit Menschen machen. Dazu hat sie Schauspieler engagiert und mit ihnen insgesamt drei Videos in einem Restaurant-Setting gedreht. In dieser Umgebung führte ein Mann ein Gespräch mit einem anderen.
„Aus ethischen Gründen habe ich für mein Experiment einen fiktiven Politiker gewählt, einen Bürgermeister einer deutschen Kleinstadt“, erzählt Dan im Gespräch mit der futurezone. Sie ließ den fiktiven Bürgermeister in ihrem Experiment etwas Schlimmes über Flüchtlinge und Frauen sagen. „Etwas, das seine Reputation stark negativ beeinflusst“, beschreibt die Forscherin.
➤ Mehr lesen: Falsche Reiseangebote: Wie mit Deepfakes im Netz betrogen wird
„Es braucht gar keine geschickt gefälschten Videos,um Menschen zu täuschen“
Drei Videos in unterschiedlicher Qualität
Insgesamt hat Dan drei Videos angefertigt: ein Original, eine schlecht gemachte Fälschung und eine wirklich professionell umgesetzte Manipulation. Bei der schlecht gemachten Fälschung wurde eine andere Tonspur über das Original gelegt und die Lippensynchronisation passte nicht mit der im Original zusammen. Solche schlecht zusammengeschusterten Videos nennt man in der Fachsprache auch „Cheapfake“, weil sie schnell und billig hergestellt werden können.
Beim professionell gestalteten Video wurden die Licht- und Schattenverhältnisse sowie die Tonspur hingegen so manipuliert, dass es mit freiem Auge nicht erkennbar war, dass es sich um eine Fälschung handelt.
Reputationsschaden war überall erkennbar
Die Forscherin zeigte im Anschluss über 2000 Personen die jeweiligen Versionen der Videos und ließ sie bewerten, was sie vom Politiker halten. Was für Emotionen spüren sie etwa beim Ansehen des Videos, und: Würden sie den Politiker nach wie vor wählen? „Bei meinem Experiment kam raus, dass die Reputation dieses fiktiven Politikers in der Wahrnehmung aller Studienteilnehmer stark gesunken war, und zwar unabhängig davon, welche Version des Videos sie gesehen hatten“, so die Forscherin zu den Ergebnissen.
„Die Cheapfakes hatten den gleichen Effekt wie gut gemachte Deepfakes. Es braucht also gar keine geschickt gefälschten Videos, um Menschen zu täuschen“, sagt Dan. Das liegt laut der Forscherin daran, dass wir Menschen nicht damit aufgewachsen sind, dass Inhalte manipuliert werden können und gerade Videos sehr lange Zeit als realitätsnah galten.
„Wir haben noch nicht kapiert, dass das, was wir mit unseren eigenen Augen sehen oder Ohren hören, falsifiziert werden kann“, so die Forscherin der Uni Innsbruck. „Jetzt tut man sich aber relativ leicht damit, Menschen Worte in den Mund zu legen, die sie nie gesagt haben.
Erklärung
Deepfakes
Das sind täuschend echt wirkende, manipulierte Medieninhalte. Sie werden mithilfe von künstlicher Intelligenz (KI) erzeugt. Die Qualität der Fälschungen wird immer besser
Anwendung
Mit KI-Programmen lassen sich Gesichter und Stimmen austauschen oder Personen in einem anderen Kontext darstellen. Menschen sagen Dinge, die sie nie gesagt haben oder vollziehen Handlungen, die nie stattgefunden haben
Manipulation
Deepfakes können gezielt für Propaganda missbraucht werden. Mit der Technologie werden aber auch Prominente oft als Testimonials für Werbung missbraucht. Ohne deren Wissen entstehen Werbeclips für fragwürdige Produkte, die durch den Prominenten glaubwürdiger wirken sollen
Österreich
Auch in Österreich gab es schon prominente Opfer. Der Wiener Bürgermeister Michael Ludwig (SPÖ) sowie der berühmte TV-Moderator Armin Wolf (ORF) sind Beispiele
Das Positive: Faktenchecks nützen etwas
Doch mit diesem Ausgang endete das Experiment der Wissenschafterin noch nicht. Sie hat auch untersucht, ob der Reputationsverlust des fiktiven Politikers rückgängig gemacht werden kann. „Die Personen bekamen ein Video zu Gesicht, das ihnen erklärte, dass das, was sie gerade gesehen haben, nicht stimmt“, so die Forscherin. Daraufhin waren die Meinungen zu dem fiktiven Politiker wieder positiver.
„Solange es solche Faktenchecks gibt und wir uns dahingehend darauf verlassen können, dass Journalist*innen Klarstellungen zeigen, müssen wir nicht allzu besorgt sein, dass derartige Videos eine Gefahr für die Demokratie sind. Wir können mit mehr Zuversicht in die Zukunft blicken“, sagt Dan.
Wie ihr manipulierte Videos erkennen könnt
„Generell wird es immer schwieriger, manipulierte Videos zu erkennen“, sagt Alexander Schindler, Senior Scientist am Austrian Institute of Technology (AIT), im futurezone-Gespräch. Da es mittlerweile unterschiedliche Verfahren gibt, um gefälschte Videos zu erstellen, gibt es nicht mehr „den einen Tipp“, der für alle Videos gleichermaßen gilt, um die Fälschungen zu entlarven.
Am schwierigsten zu erkennen sind laut Schindler Fälschungen von Profis, die ihr Geld mit der Erstellung dieser Videos verdienen. „Man braucht viel Kenntnis darüber, wie diese Programme funktionieren, um die besten Ergebnisse zu erzielen“, sagt Schindler.
- KI-Erkennung
Gute Manipulationen seien nur mittels Mustererkennung zu entdecken, für die man wiederum technische Unterstützung benötigt. „Das ist dann die KI, die die KI-Bilder erkennt“, sagt der AIT-Experte.
- Ränder
Bei weniger ausgereiften Manipulationen, bei denen einfach die Gesichter ausgetauscht wurden, können Nutzer durchaus noch draufkommen, dass etwas manipuliert wurde. „An den Rändern lasst sich etwa bei Bewegungen eruieren, ob etwas reingeschnitten oder reinkopiert wurde“, erklärt Schindler.
- Details
Hilfreich ist es, außerdem auf Details zu achten. Etwa darauf, ob bei Aufnahmen von Gesichtern die Ohren und Haare korrekt geformt sind oder Augen und Zähne verwaschen wirken.
- Belichtung
Wenn Licht und Schatten der Umgebung nicht zur Belichtung des Gesichtes passen, stimmt etwas nicht.
Kommentare