GPT-4 kann man in der Pro-Version von ChatGPT verwenden.

GPT-4 kann man in der Pro-Version von ChatGPT verwenden.

© APA/AFP/LIONEL BONAVENTURE / LIONEL BONAVENTURE

Produkte

GPT-4 ist ein Traum für Hacker

Dass sich nicht besonders talentierte Hacker*innen von ChatGPT helfen lassen, um Schadsoftware zu entwickeln, ist bereits bekannt. Dass eine Künstliche Intelligenz selbstständig Sicherheitslücken ausnutzen kann, ist allerdings neu. Und laut Forschern scheint das Modell GPT-4 von ChatGPT-Entwickler OpenAI besonders gut darin zu sein.

➤ Mehr lesen: So nutzen Cyberkriminelle ChatGPT

Laut einer Studie werden LLMs (Large Language Models) immer leistungsfähiger, was zum Guten wie auch zum Schlechten angewendet werden kann. Die Forscher ließen etwa verschiedene KI-Modelle auf 15 "One-Day"-Sicherheitslücken los. Das sind bekannte Lücken, für die bereits Patches bestehen, diese allerdings noch nicht ausgeliefert wurden. 

Nur GPT-4 war erfolgreich

Die Forscher statteten die Modelle zusätzlich mit einem Code-Interpretierer, Web-Browsing-Fähigkeit und der Fähigkeit aus, Dateien zu erstellen und zu verändern. Von 10 LLMs scheiterten 9 daran, die Sicherheitslücke auszunutzen, darunter etwa GPT-3.5, mehrere Llama-Modelle von Meta und Modelle vom europäischen KI-Unternehmen Mistral. Die 10. KI, GPT-4, erreichte hingegen eine schockierende Erfolgsquote von 87 Prozent.

Ganz so einfach ist es allerdings nicht, die Lücken auszunutzen. Die Forscher der University of Illinois Urbana-Champaign mussten nämlich detailliert beschreiben, wie die Sicherheitslücken aufgebaut sind. Fehlt diese Beschreibung, war GPT-4 in nur 7 Prozent der Fälle erfolgreich.

Gefahr durch "Script-Kiddys"

Da OpenAI bereits an GPT-5 arbeitet, geht Studienautor Daniel Kang in Techspot davon aus, dass "LLM-Agenten" künftig zur Ausnutzung von Schwachstellen und für Cyberkriminalität unter "Script-Kiddys" werden können. Um eine Schwachstelle effizient ausnutzen zu können, braucht GPT-4 allerdings Zugriff über die vollständige Beschreibung der Schwachstelle sowie zusätzliche Informationen dazu. Laut Kang sollten Cybersicherheitsunternehmen künftig keine detaillierten Berichte über Schwachstellen veröffentlichen, um den Missbrauch einzuschränken.

Hat dir der Artikel gefallen? Jetzt teilen!

Kommentare