Cannes at sunset. France
© Getty Images/iStockphoto / IR_Stone/iStockphoto

Digital Life

Falsche Reiseangebote: Wie mit Deepfakes im Netz betrogen wird

Cyberkriminelle probieren immer wieder neue Methoden aus, um Menschen im Internet Geld abzuknöpfen. Eine neue Masche ist etwa das Erstellen von gefälschten Videos, sogenannten „Deepfakes“. Diese lassen sich mittlerweile mit nur wenigen Klicks mit Generatoren, die mit künstlicher Intelligenz (KI) arbeiten, recht einfach erstellen.
 
Wer Menschen betrügerische Inhalte so glaubhaft wie möglich machen will, greift auf den Marktplatz im Darknet zurück. Dort sitzen Profis, die den ganzen Tag nichts anderes machen, als diese Videos im Auftrag von Cyberkriminellen zu generieren. Das hat Kaspersky, ein Anbieter für Internet-Sicherheitslösungen, in einer Studie untersucht. 

Kofi Reisen gibt es nicht mehr, aber Betrüger*innen können mit einer ähnlichen Masche unter einem anderen Namen weiter machen. Diese Frau im Video ist ein künstlich generiertes Deepfake

Urlaubsreisen

Diese Videos werden von Betrüger*innen in Österreich etwa bei Dingen verwendet, bei denen man Bewegtbildfälschungen eher nicht erwarten würde: Angebote für Urlaubsreisen, die man im Online-Reisebüro bucht. Die Watchlist Internet, eine Beratungsstelle für Online-Betrug, warnte vor Kurzem vor dieser Masche: Kund*innen wird von Betrüger*innen eine Videoberatung einer Reisebüromitarbeiterin per WhatsApp angeboten. Leider handelt es sich dabei um eine Fälschung. Ergo, sowohl die Reiseberaterin als auch die angebotenen Hotels waren nicht echt, sondern wurden mit KI erstellt. „Es wurden Urlaubsreisen an Orte verkauft, die gar nicht existieren, sondern rein mittels Deepfake-Videos generiert wurden“, sagt Thorsten Behrens, Projektleiter bei Watchlist Internet, der futurezone.
 
„Bei anderen Urlaubsreisen haben wir entdeckt, dass mit gestohlenen Bildern gearbeitet wurde, die manipuliert wurden. Da gab es etwa ein Hotel, das in echt auf Mallorca zu finden ist, aber im Rahmen einer Reise nach Griechenland verkauft wurde. Hier wurden einfach die Berge im Hintergrund wegretuschiert“, sagt Behrens.   

Warnung vor Abzocke

Die Watchlist Internet warnt deshalb vor betrügerischen Urlaubsanbietern, die Menschen mit angeblich günstigen Angeboten um ihr Geld bringen. Die Anzeigen für die Online-Reisebüros werden meist über Social-Media-Kanäle wie Facebook ausgespielt. Mit einem Klick ist man auf einem vermeintlich günstigen Reiseangebot und einem Videocall mit einer vermeintlichen Reiseberaterin. „Stutzig werden sollte man vor allem dann, wenn Anzahlungen fällig werden sollten, die mehr als 30 Prozent des Reisepreises betragen“, warnt Behrens. 

Der Deepfake-Betrug lässt sich nur sehr schwer erkennen. „Es ist sehr aufwendig herauszufinden, ob man bei einem richtigen Anbieter gelandet ist“, sagt Behrens. Man könne auf Google Maps im Street-View-Modus nachsehen, ob es das Hotel am Standort wirklich gibt, oder aber mit der umgekehrten Google-Bildersuche überprüfen, ob das Foto in anderen Katalogen von Reisebüros am selben Standort gelistet ist. „Das Urlaubsthema ist auf jeden Fall gerade ganz groß bei Betrug im Internet“, warnt der Experte. 

Erklärung

Deepfakes
Das sind täuschend echt wirkende, manipulierte Inhalte. Sie werden mithilfe von künstlicher Intelligenz (KI) erzeugt. Die Qualität der Fälschungen wird  immer besser  

Anwendung
Mit KI-Programmen lassen sich Gesichter und Stimmen tauschen oder  Personen  in einem anderen Kontext darstellen. Menschen sagen Dinge, die sie nie gesagt haben oder vollziehen Handlungen, die nie stattgefunden haben

Riesiger Marktplatz im Darknet

Weitere, häufiger werdende Einsatzgebiete für Deepfakes: Kryptowährungsbetrug und Erpressungsversuche mit Pornovideos von Ex-Partner*innen. Laut Kaspersky übersteigt „die aktive Nachfrage nach Deepfakes das vorhandene Angebot  deutlich“. Je nach Anwendungsfall kann eine Minute Deepfake-Video zwischen 300 und 20.000 US-Dollar kosten. Da sich die Technologie immer weiter entwickelt und die KI-Videos immer besser werden, sind jede Menge weitere kriminelle Machenschaften rund um diese täuschend echten Videos zu erwarten.

Bei Kryptowährungen ist eine gängige Betrugsmasche, dass Plattformen versuchen, ohne deren Zustimmung Produkte mit Prominenten zu bewerben und Menschen dazu bringen, auf gefälschten Plattformen zu investieren. Ein bekanntes Beispiel: Vergangenes Jahr ging etwa ein gefälschtes Videos von Tesla-CEO und Multimilliardär Elon Musk viral, in denen zu sehen war, wie er eine bestimmte Kryptoplattform empfohlen hat.

Eine weitere Kryptobetrugsmasche mit Deepfakes ist jene von „Fake Crypto Giveaways“, berichten die Kaspersky-Analyst*innen. Mit Hilfe von gefälschten TV-Shows werden Leute in Investitionen gelockt, bei denen sie ihr gesamtes Vermögen verlieren können, wenn sie Beträge überweisen. Kaspersky weiß von Summen, die zwischen 1000 und 460.000 US-Dollar gelegen haben, die Menschen durch gefälschte Deepfake-Krypto-Shows verloren haben.

Deepfake-Pornos statt Rachepornos

Doch Deepfakes werden nicht nur für betrügerische Aktivitäten nachgefragt, sondern auch für Erpressungsversuche. Die Erstellung von gefälschten Pornovideos mittels Deepfake ist im Darknet stark nachgefragt. Diese Videos sind sozusagen die Weiterentwicklung von  Rachepornos, bei denen echtes Videomaterial zur Erpressung von Opfern verwendet wird. Auch diese Fake-Pornos dienen in erster Linie dazu, Menschen zu erniedrigen, zu erpressen oder bloßzustellen - und das, obwohl diese völlig unschuldig sind.

Um einen Porno-Deepfake zu generieren, wird in der Regel der Kopf einer Person auf den Körper eines Pornodarstellers oder einer Pornodarstellerin drauf montiert. Besonders begehrt sind hier im Darknet Tutorials, damit Menschen mit dem Quellmaterial selbst überzeugende Fälschungen erstellen können und dazu Tipps, wie man die bestmöglichen Ergebnisse erhält.

Für jene Menschen, die von so etwas Opfer werden, ist es genauso schlimm wie Rachepornos, wenn diese Videos über sie im Netz auftauchen. Es fühlt sich wie Missbrauch an, denn sie haben niemals zugestimmt, dass derartige Aufnahmen über sie angefertigt werden. Außerdem gilt auch hier: Was einmal im Netz ist, ist nur schwer wieder rauszukriegen. Mit den Folgen müssen die Opfer ein Leben lang leben, während der Deepfake-Markt im Darknet weiterhin floriert.

Wie man manipulierte Videos erkennen kann

„Generell wird es immer schwieriger, manipulierte Videos zu erkennen“, sagt Alexander Schindler, Senior Scientist am Austrian Institute of Technology (AIT), zur futurezone. Da es mittlerweile unterschiedliche Verfahren gibt, um gefälschte KI-Videos zu erstellen, gibt es nicht mehr „den einen Tipp“, der für alle Videos gleichermaßen gilt, um die Fälschungen zu entlarven. 
Am schwierigsten zu erkennen sind laut Schindler Fälschungen von Profis, die ihr Geld mit der Erstellung dieser Videos verdienen. „Man braucht viel Kenntnis darüber, wie diese Programme funktionieren, um die besten Ergebnisse zu erzielen“, sagt Schindler. 

  • Ränder

Bei weniger ausgereiften Manipulationen, bei denen einfach die Gesichter ausgetauscht wurden, können Nutzer durchaus noch draufkommen, dass etwas manipuliert wurde. „An den Rändern lasst sich etwa bei Bewegungen eruieren, ob etwas reingeschnitten oder reinkopiert wurde“, erklärt Schindler. 

  • Details

Hilfreich ist es, außerdem auf Details zu achten. Etwa darauf, ob bei Aufnahmen von Gesichtern  die Ohren und Haare korrekt geformt sind.

  • KI-Erkennung

Gute Manipulationen seien etwa hingegen nur  mittels Mustererkennung zu entdecken, für die man wiederum technische Unterstützung benötigt. „Das ist dann die  KI, die die KI-Bilder erkennt“, sagt der AIT-Experte.

Hat dir der Artikel gefallen? Jetzt teilen!

Barbara Wimmer

shroombab

Preisgekrönte Journalistin, Autorin und Vortragende. Seit November 2010 bei der Kurier-Futurezone. Schreibt und spricht über Netzpolitik, Datenschutz, Algorithmen, Künstliche Intelligenz, Social Media, Digitales und alles, was (vermeintlich) smart ist.

mehr lesen
Barbara Wimmer

Kommentare