(Symbolbild)

© REUTERS/Steve Marcus

Digital Life
09/05/2019

Mit Deepfake die Stimme vom Chef imitiert, 220.000 Euro ergaunert

Mithilfe einer Fälschungs-Software gelang es einem Betrüger, eine Überweisung in Höhe von 220.000 Euro zu veranlassen.

Deepfakes sind inzwischen so fortgeschritten, dass Menschen sie oft nicht mehr von echten Informationen unterscheiden können. Unlängst kam es durch die Technologie zur ersten schwerwiegenden Täuschung: So hatte ein Betrüger die Stimme eines Firmenchefs mithilfe einer Deepfake-Software manipuliert und 220.000 Euro ergaunert.

Der Chef eines britischen Energieanbieters glaubte, mit dem CEO des deutschen Mutterkonzerns zu sprechen. Dem war jedoch nicht so: In Wahrheit handelte es sich um dessen manipulierte Stimme.

"Dringender" Geldtransfer

Der Betrüger hatte seinen Gesprächspartner beauftragt, eine Summe in Höhe 220.000 Euro an einen ungarischen Zulieferer zu überweisen. Der Geldtransfer sei dringend. Der britische Manager führte die Anordnung umgehend aus.

Beim zweiten Anruf wurde dem Briten vom Betrüger mitgeteilt, das Geld sei rückerstattet worden und er solle noch einen Geldtransfer veranlassen. In der Zwischenzeit hatte der Manager jedoch bemerkt, dass die Rückerstattung nicht veranlasst worden war, wodurch Zweifel aufkamen. Zusätzlich handelte es sich um eine österreichische Nummer, die seinen Zweifel noch bestärkte.

Klang und Akzent

Das Erstaunliche bei diesem Deepfake ist, dass nicht nur der Klang, sondern auch der deutsche Akzent treffend von der Künstlichen Intelligenz (KI) imitiert wurde. Sogar KI-Experten haben heute Schwierigkeiten, manipulierte Audio- und Videoinhalte zu erkennen. In einem Interview mit der futurezone berichtete der Experte Sepp Hochreiter, dass vermehrt neue KI nötig wäre, um diese Deepfakes zu identifizieren. Die futurezone hat ein neues Tool dafür bereits vorgestellt.

Erster Fall dieser Art

Die Spur hat sich allerdings verlaufen. Das Geld wurde vom ungarischen Empfänger weiter nach Mexiko geleitet. Eine Weiterverfolgung war bislang nicht möglich. Laut der Kreditversicherungsgruppe Euler Hermes, der das britische Unternehmen vertritt, handelt es sich bei diesem Deepfake-Betrug um einen Präzedenzfall.

Von Euler Hermes stammt auch die Information, dass eine Deepfake-Software genutzt wurde. Man wüsse aber nicht, welche Software genau.

Dies wirft jetzt allerdings die Frage auf, ob überhaupt eine Deepfake-Software zum Einsatz gekommen ist. Dass jemand womöglich einfach nur gut im Imitieren von Stimmen ist, scheint wohl für die Beteiligten kein mögliches Szenario zu sein.