ChatGPT spricht in Test unerwartet mit der Stimme des Nutzers
Vergangene Woche veröffentlichte OpenAI einen Bericht, in dem Fehler und Sicherheitsprobleme seines neuen KI-Modells GPT-4o detailliert beschrieben werden. Durch diese Veröffentlichung wurden interessante Details über die KI bekannt, die seit einiger Zeit im beliebten Chatbot ChatGPT integriert ist.
Aus dem Bericht geht unter anderem hervor, dass ein neuer Sprachmodus, der besonders menschlich klingen soll, manchmal einfach die Stimmen der Nutzer imitiert hat – und zwar ohne vorher um Erlaubnis zu fragen, wie Ars Technica berichtet.
➤ Mehr lesen: Hausaufgaben und Erotik: Was KI-Chatbots wirklich gefragt werden
Kurz vorgespielter Clip reicht für Stimmklon
Stimmen zu klonen, ist dem KI-Modell derzeit aus nachvollziehbaren Gründen nicht erlaubt – andernfalls könnten beispielsweise Betrüger Stimmen nachahmen. Da das System jedoch immer komplexer wird, ist es technisch möglich, dass ChatGPT in Zukunft jede erdenkliche Stimme nachmachen könnte. Dazu reicht bereits eine kurze, vorgespielte Aufnahme.
Die Vorstellung, dass ChatGPT während eines Gesprächs plötzlich die eigene Stimme imitiert, ist gruselig. Der BuzzFeed-Datenexperte Max Woolf schrieb daher treffend auf X: „OpenAI hat gerade die Handlung der nächsten Staffel von Black Mirror verraten.“
OpenAI gibt strenge Regeln vor
Um das Imitieren einer Stimme zu verhindern, erlaubt OpenAI der KI bei ChatGPT nur die Verwendung ausgewählter Stimmen. Das Modell darf davon nicht abweichen, auch wenn es grundsätzlich die Fähigkeit dazu hätte.
OpenAI hat sogar einen eigenen „Ausgabeklassifizierer“ entwickelt, der Abweichungen verhindern soll. „Auf der Grundlage unserer internen Auswertungen erkennt unser System derzeit 100 % aller bedeutsamen Abweichungen von der Systemstimme“, sagt OpenAI. Durch solche Sicherheitsmechanismen soll gewährleistet werden, dass ChatGPT zwar mit einer überzeugend menschlichen Stimme mit seinen Nutzern spricht – aber nicht mit der des Nutzers selbst.
Kommentare