GPT-4 ist ein Traum für Hacker
Dass sich nicht besonders talentierte Hacker*innen von ChatGPT helfen lassen, um Schadsoftware zu entwickeln, ist bereits bekannt. Dass eine Künstliche Intelligenz selbstständig Sicherheitslücken ausnutzen kann, ist allerdings neu. Und laut Forschern scheint das Modell GPT-4 von ChatGPT-Entwickler OpenAI besonders gut darin zu sein.
➤ Mehr lesen: So nutzen Cyberkriminelle ChatGPT
Laut einer Studie werden LLMs (Large Language Models) immer leistungsfähiger, was zum Guten wie auch zum Schlechten angewendet werden kann. Die Forscher ließen etwa verschiedene KI-Modelle auf 15 "One-Day"-Sicherheitslücken los. Das sind bekannte Lücken, für die bereits Patches bestehen, diese allerdings noch nicht ausgeliefert wurden.
Nur GPT-4 war erfolgreich
Die Forscher statteten die Modelle zusätzlich mit einem Code-Interpretierer, Web-Browsing-Fähigkeit und der Fähigkeit aus, Dateien zu erstellen und zu verändern. Von 10 LLMs scheiterten 9 daran, die Sicherheitslücke auszunutzen, darunter etwa GPT-3.5, mehrere Llama-Modelle von Meta und Modelle vom europäischen KI-Unternehmen Mistral. Die 10. KI, GPT-4, erreichte hingegen eine schockierende Erfolgsquote von 87 Prozent.
Ganz so einfach ist es allerdings nicht, die Lücken auszunutzen. Die Forscher der University of Illinois Urbana-Champaign mussten nämlich detailliert beschreiben, wie die Sicherheitslücken aufgebaut sind. Fehlt diese Beschreibung, war GPT-4 in nur 7 Prozent der Fälle erfolgreich.
Gefahr durch "Script-Kiddys"
Da OpenAI bereits an GPT-5 arbeitet, geht Studienautor Daniel Kang in Techspot davon aus, dass "LLM-Agenten" künftig zur Ausnutzung von Schwachstellen und für Cyberkriminalität unter "Script-Kiddys" werden können. Um eine Schwachstelle effizient ausnutzen zu können, braucht GPT-4 allerdings Zugriff über die vollständige Beschreibung der Schwachstelle sowie zusätzliche Informationen dazu. Laut Kang sollten Cybersicherheitsunternehmen künftig keine detaillierten Berichte über Schwachstellen veröffentlichen, um den Missbrauch einzuschränken.