Umgang mit Daten: US-Aufsicht knöpft sich ChatGPT vor
Dieser Artikel ist älter als ein Jahr!
Die amerikanische Verbraucherschutz-Behörde FTC (Federal Trade Commission) nimmt laut Medienberichten den Chatbot ChatGPT ins Visier. Sie habe der Entwicklerfirma OpenAI einen ausführlichen Fragenkatalog zu Gefahren für Verbraucher*innen geschickt, schrieben die „Washington Post“ und die „New York Times“ am Donnerstag. Die FTC fokussiere sich dabei auf den Umgang mit Nutzer*innendaten sowie Fälle, in denen ChatGPT falsche Angaben über Personen mache.
ChatGPT sorgt seit Ende vergangenen Jahres für Aufsehen, weil der Chatbot auf dem sprachlichen Niveau eines Menschen kommunizieren kann. Die Software wurde dafür mit einer gewaltigen Menge an Daten trainiert. Sie bildet Sätze, indem sie Wort für Wort abschätzt, wie ein Satz weitergehen könnte. Ein Nachteil des Prinzips ist, dass das Programm kein Verständnis für die Inhalte hat: Deshalb kann es auch mit Überzeugung Informationen ausgeben, die völlig falsch sind.
➤ Mehr lesen: 10 Tipps: Was bringt mir ChatGPT im Alltag?
Unwahrheiten über Menschen
In den vergangenen Monaten wurden mehrfach Fälle bekannt, in denen ChatGPT über Menschen Unwahrheiten erfand, die ihrem Ruf schaden könnten. So behauptete die Software, es gebe Vorwürfe sexueller Belästigung gegen einen Jus-Professor und verwies als Beleg auf einen angeblichen Bericht in der „Washington Post“. Doch es gab weder die Anschuldigungen, noch einen Artikel darüber, wie die Zeitung bereits im April berichtete.
Über einen Bürgermeister aus Australien behauptete die Software laut Medienberichten fälschlicherweise, er sei zu einer Gefängnisstrafe verurteilt worden. Durch die Medien ging auch die Geschichte eines US-Anwalts, der sich nach eigenen Angaben auf Informationen aus ChatGPT bei der Argumentation in einem Gerichtsfall verließ. Mehrere von ihm zitierte angebliche Urteile erwiesen sich als frei erfunden.
Informationen über Vorsichtsmaßnahmen eingefordert
Was die Datensicherheit angeht, gab es im März einen Vorfall, bei dem einige ChatGPT-Nutzer*innen die Chat-Historie anderer Personen einsehen konnten. Die Zahl der Betroffenen sei „extrem niedrig“ gewesen, schrieb OpenAI dazu in einem Blogeintrag.
Die FTC wolle von der Firma unter anderem Unterlagen zu diesem Vorfall, schrieb die „Washington Post“ am Donnerstag. Sie frage auch nach Erkenntnissen von OpenAI darüber, wie bewusst den Nutzer*innen sei, dass ChatGPT ihnen falsche Informationen geben könne. Zudem wolle sie mehr über Vorsichtsmaßnahmen erfahren, die OpenAI treffe, bevor neue Versionen der Software öffentlich verfügbar gemacht werden.
Kommentare