Mann mit Telefon
© Davidovici / Getty

Digital Life

So leicht kann KI unsere Stimme stehlen

Bei einigen hochrangigen Wirtschaftsbossen Italiens wie Giorgio Armani klingelte kürzlich das Telefon. Am anderen Ende der Leitung meldete sich eine bekannte Stimme, nämlich der italienische Verteidigungsminister Guido Crosetto. Er bat um Lösegeld für im Nahen Osten entführte italienische Journalisten. 

Was wie ein Scam klingt, war auch einer: Betrüger klonten die Stimme Crosettos mithilfe von Künstlicher Intelligenz. Einer der Angerufenen ist dabei tatsächlich in die Falle getappt und überwies eine Million Euro auf ausländische Bankkonten. 

KI klont Stimmen schon sehr gut 

Auch die Stimmen anderer prominenter Personen wurden bereits geklont, ohne dass diese zugestimmt haben. Ein bekanntes Beispiel ist etwa Scarlett Johansson. Mitte 2024 sprach die Künstliche Intelligenz ChatGPT mit einer Stimme, die ihrer sehr ähnelte. 

Und zwar so sehr, dass selbst Freunde von Johansson dachten, sie hätte der Entwicklerfirma OpenAI ihre Stimme geliehen. Hat sie aber nicht, eine entsprechende Anfrage von ChatGPT-Macher OpenAI im Vorfeld lehnte sie ab. Dass ihre Stimme schlussendlich dennoch per KI geklont und verwendet wurde, sorgte verständlicherweise für Ärger bei der Schauspielerin. 

Mehr lesen: Wie leicht kann KI meine Stimme imitieren?

Es ist also davon auszugehen, dass sogenannte Voice Cloning Tools mit der Weiterentwicklung von Künstlicher Intelligenz immer besser werden. „Schon heute reichen Sprachaufnahmen mit einer Dauer von 10 Sekunden, um gute Ergebnisse zu erzielen”, sagt Thorsten Behrens, Projektleiter von Watchlist Internet

Wie das Klonen der Stimme funktioniert 

Die Watchlist Internet hat verschiedene Voice Cloning Tools getestet, mit Aufnahmen, die sich in Länge und Qualität unterscheiden. Diese Tools lernen anhand der Originalaufnahmen die Stimme einer Person kennen. Mithilfe von KI werden Merkmale und die Art der Stimme identifiziert. Danach muss man nur mehr Text eingeben und bekommt ihn von der nachgestellten Stimme vorgelesen. Betrüger nutzen Sprachaufnahmen, Videos und Social-Media-Beiträge, um die Stimme einer anderen Person nachzustellen. 

➤ Mehr lesen: Sprach-KI von OpenAI imitiert die eigene Stimme

Noch haben die Cloning-Tools aber Schwächen: „Momentan können diese Tools noch nicht wirklich mit Dialekten umgehen. In einem Test klang ich zum Beispiel deutlich bayrischer. Aber auch das wird die KI schnell lernen”, sagt Behrens.  Auch wenn unsere Stimme einzigartig wie ein Fingerabdruck ist, lernt die KI diese zu kopieren. Beispielaufnahmen, die länger sind und weniger Hintergrundgeräusche enthalten, führen laut Behrens zu deutlich besseren Ergebnissen. 

Kann KI Klone erkennen? 

Umgekehrt würde sich Behrens nicht auf KI verlassen, wenn es darum geht, gefälschte Stimmaufnahmen zu erkennen: „Diese Tools liefern sehr unterschiedliche Ergebnisse." Bei Aufnahmen, die eindeutig von KI stammen, erkannte die Software diese nicht. Bei Aufnahmen, die für das Team von Watchlist Internet schwierig zu beurteilen waren, war sich die KI dann aber sicher, dass es sich um KI handelt. 

Wenn man das Klonen per KI selbst ausprobieren möchte, sollte man aber vorsichtig sein. So warnt Behrens: „Bei vielen Tools weiß man nicht, was mit den Daten passiert. Es könnte also sein, dass man damit auch die KI für die Betrüger trainiert”, betont Behrens. 

Stimmen von Prominenten werden gerne genutzt

Mit geklonten Stimmen wird jedenfalls schon jetzt Schaden angerichtet. Watchlist Internet erhält immer wieder Anfragen zum Thema Voice Cloning. „Personen berichten beispielsweise, dass die Stimme von Prominenten wie Armin Assinger genutzt wird, um sie in eine Investmentfalle zu locken. Menschen haben dabei bereits Tausende von Euro verloren”, erklärt Behrens. 

➤ Mehr lesen: Bankkonto lässt sich mit künstlich generierter Stimme knacken

Kritisch bleiben 

Es sei aber auch wichtig, ein Bewusstsein und ein kritisches Denken dafür zu entwickeln, dass es solche Betrugsversuche gibt. „Um nicht selbst auf solche Betrugsversuche hereinzufallen, sollte man sich im familiären Umfeld ein Passwort ausmachen oder sich Fragen überlegen, die nur das Familienmitglied beantworten kann”, rät Behrens. 

Er geht davon aus, dass es immer schwieriger wird, geklonte Stimmen zu erkennen. „Recherche und Quellenkritik werden damit umso wichtiger, um nicht auf den Leim zu gehen”, sagt der Projektleiter von Watchlist Internet.

Hat dir der Artikel gefallen? Jetzt teilen!

Sandra Czadul

Begeistert von Wissenschaft und stets auf der Suche nach Ideen, die uns voranbringen.

mehr lesen
Sandra Czadul

Kommentare