Produkte

Iran nutzte ChatGPT, um US-Wahl zu beeinflussen

Der Chatbot ChatGPT ist von einem Netzwerk aus iranischen Accounts genutzt worden, um Texte zur Einflussnahme rund um die US-Präsidentenwahl zu erzeugen. Die Profile seien entdeckt und entfernt worden, teilte die ChatGPT-Entwicklerfirma OpenAI mit, ohne deren Anzahl zu nennen. 

➤ Mehr lesen: Auch westliche Chatbots verbreiten russische Fake News

Die Texte sollten demnach beide politische Lager in den USA ansprechen. Die Beiträge hätten jedoch kaum Leser erreicht, wurde weiters mitgeteilt.

Nicht nur Texte zu Trump

In ihnen hieß es zum Beispiel wahlweise, dass der republikanische Präsidentschaftskandidat Donald Trump zensiert werde - oder sich zum König erklären lassen wolle. Außerdem ging es der Mitteilung zufolge auch um den Gazakrieg, die Olympischen Spiele in Paris sowie Mode-Themen. Die für Beiträge in Online-Plattformen und für fingierte Artikel auf Webseiten generierten Texte hätten kaum Leser erreicht, betonte OpenAI.

ChatGPT kann in Sekundenschnelle Texte auf dem sprachlichen Niveau eines Menschen erzeugen. Schon seit einiger Zeit gibt es die Sorge, diese Fähigkeit könnte missbraucht werden, um in großem Stil Falschinformationen oder Propaganda günstig zu produzieren und zu verbreiten.

➤ Mehr lesen: KI-Pionier findet Zukunft "beängstigend": Das steckt dahinter

Auch Falschinformationen bei Microsoft und Meta

Zuletzt flogen mehrere ähnliche Aktionen auf. So stellte Microsoft im Juni fest, dass prorussische Accounts ein Fake-Video populär machen wollten, das angebliche Gewalt bei Olympia zeigte. Und bei Facebook wurden mehrere hundert Accounts aus dem Iran, Russland und China entdeckt, die zum Teil mit KI-Software erzeugte Falschinformationen verbreiteten. OpenAI hatte bereits im Mai mitgeteilt, dass Accounts unter anderem aus Russland und China die KI-Werkzeuge des Konzerns für Propaganda missbrauchen wollten.

Klicken Sie hier für die Newsletteranmeldung

Hat dir der Artikel gefallen? Jetzt teilen!