Pandemien durch KI: Studie warnt vor terroristischen Biowaffen
Internationale Sicherheitsexperten betonen immer wieder, dass Kriminelle KI für ihre Zwecke missbrauchen könnten. Im schlimmsten Fall könnten Terroristen damit beispielsweise Cyberattacken durchführen und ganze Städte lahmlegen. Oder sie erzeugen damit Biowaffen, die als Massenvernichtungswaffen viele Leben auslöschen könnten. Dazu erschien kürzlich wieder eine Studie, die erklärt, wie einfach KI-Modelle für die Erstellung von solchen gefährlichen Stoffen verwendet werden könnten.
Die Forscher raten Regierungen dringend, entsprechend gegenzusteuern: „Wir schlagen vor, dass die nationalen Regierungen, darunter auch die der USA, Gesetze und Regeln erlassen, die verhindern, dass fortschrittliche biologische KI-Modelle sehr gefährlich werden. Sie könnten etwa zur Schaffung neuer oder verbesserter Krankheitserreger beitragen, die schwere Epidemien oder gar Pandemien auslösen können“, heißt es in der Studie.
➤ Mehr lesen: USA fürchtet sich zunehmend vor KI-generierten Biowaffen
In den USA ist das Thema Terrorismus und KI gerade ein Dauerbrenner, weswegen auch Fox News das Thema kürzlich wieder aufgriff und auf 2 andere heuer erschienene Berichte verwies. Einer stammt von einer NATO-Einrichtung, die ebenfalls mahnt, dass sich die Behörden intensiv mit den aktuellen technologischen Entwicklungen auseinandersetzen müssen. So könnten Kriminelle damit Phishing-Mails verbessern, Malware in Coding-Bibliotheken einpflanzen sowie Desinformation und Propaganda im Internet verbreiten.
ChatGPT und Co einfach zu knacken
„Cyberkriminelle und Terroristen haben schnell gelernt, solche Plattformen und großen Sprachmodelle zu nutzen, um Deepfakes oder Chatbots zu erstellen. Diese werden dann im Dark Web gehostet, um an vertrauliche persönliche und finanzielle Informationen zu gelangen, Terroranschläge zu planen oder Anhänger zu rekrutieren“, heißt es in dem Bericht. Die Terroristen könnten „ChatGPT“ und ähnliche Systeme knacken, sodass diese ihre Sicherheitsmechanismen verlieren und illegale oder extremistische Inhalte generieren.
In einem weiteren Bericht von des Combating Terrorism Center wurde beschrieben, wie einfach ChatGPT und vergleichbare Tools für terroristische Zwecke missbraucht werden könnten. Die Experten testeten, wie leicht verschiedene KI-Modelle zu knacken sind. Bard, mittlerweile in Google Gemini unbenannt, erwies sich als am widerstandsfähigsten, gefolgt von den ChatGPT-Modellen. Unterm Strich sei es jedoch einfach, die Modelle zu knacken, warnen sie. Deshalb müsse das Thema unbedingt Gegenstand intensiver Zusammenarbeit zwischen Sicherheitsbehörden, Tech-Konzernen und der Wissenschaft werden.
➤ Mehr lesen: Blackouts, Fake-Bürgermeister: Wenn Cyberterroristen Städte angreifen
Ähnliche Warnungen veröffentlichte im Jahr 2021 die UN-Organisation Interregionales Forschungsinstitut für Kriminalität und Justiz, wie Fox News anmerkt. Antonia Marie De Meo, Direktorin des Interregionales Forschungsinstitut für Kriminalität und Justiz sagte damals, dass KI äußerst gefährlich sei und sie für terroristische Zwecke missbraucht werden könne. Als Beispiel nannte sie damals Cyberattacken und selbstfahrende Autobomben. Ob sie 3 Jahre später immer noch an solche glaubt, ist unklar. Seitdem hat sich im KI-Bereich doch einiges getan.