App Icons von ChatGPT, Gemini und Copilot
© Robert Way/ Getty

Digital Life

Hacker nutzen Google Gemini für Cyber-Angriffe

Dutzende Hackergruppen nutzen Googles Künstliche Intelligenz Gemini für kriminelle Zwecke. Das zeigt eine Analyse von Google, in der nicht nur die Standorte der Täter identifiziert wurden, sondern auch für welche Zwecke die Kriminellen Gemini nutzten. 

Hacker stammen aus Russland, China, Iran und Nordkorea

Das Ergebnis: Die Hacker nutzen Gemini derzeit zwar nicht, um neue kriminelle Methoden ausfindig zu machen, aber um bestehende zu verbessern. Dabei verwenden sie einfache Maßnahmen, um die Sicherheitsprotokolle nach dem Trial-and-Error-Prinzip zu umgehen. “Derzeit nutzen sie KI vor allem für die Forschung, die Fehlersuche im Code und die Erstellung und Lokalisierung von Inhalten”, so die Analyse. 

➤ Mehr lesen: Chinesische Hacker dringen in das US-Finanzministerium ein

Insgesamt 57 Gruppierungen konnten in der Analyse ausfindig gemacht werden. Cyberkriminelle, die Gemini zum Beispiel für die Skripterstellung, Schwachstellenforschung oder Maßnahmen zur Kompromittierung nutzen, stammen laut Google vor allem aus dem Iran, China, Russland und Nordkorea. “Iranische Akteure waren die stärksten Nutzer von Gemini und setzten es für eine Vielzahl von Zwecken ein. “Bemerkenswert ist, dass russische Akteure Gemini während des Analysezeitraums nur in begrenztem Umfang nutzten”, heißt es im Bericht. 

Nordkoreanische Gruppe für über 30 Prozent der Bedrohungen verantwortlich

Eine Gruppe fiel besonders auf: APT42. Diese iranische Gruppierung von Cyberkriminellen nutzt Gemini vor allem für Phishing-Kampagnen und um Verteidigungs- und Politikexperten, sowie andere für sie relevante Organisationen, auszuspionieren. Über 30 Prozent der Nutzung von Gemini, die als Bedrohung identifiziert wurden, konnten APT42 zugerechnet werden, so Google. 

➤ Mehr lesen: Deutsche Flugsicherung wurde Ziel von Hacker-Angriff

APT42 nutzt Gemini aber auch für die Texterstellung und, um Inhalte an ein lokales Publikum anzupassen. In der Vergangenheit fielen Phishing-Attacken vor allem durch Rechtschreib- oder Grammatikfehler auf. Seit der Veröffentlichung von ChatGPT wird es laut Cybersecurity-Experten aber immer schwieriger, solche Betrugsversuche zu erkennen. 

Die Künstliche Intelligenz reagiert laut Google aber auf Hacker. Erkannte Gemini explizit bösartige Aufgaben, führte das zu Sicherheitsreaktionen, die die Täter stoppen sollten. 

Missbrauch auch bei weiteren Google Produkten 

Die Hacker versuchten auch, Gemini für den Missbrauch von anderen Google Produkten zu nutzen. Zum Beispiel um Phishing bei Gmail durchzuführen, Daten zu stehlen oder um die Verifizierungsmethoden von Google-Konten zu umgehen. 

Die Autoren im Bericht warnen, dass generative KI es Cyberkriminellen ermöglicht, schneller und in größerem Umfang vorzugehen. “Es ist jedoch unwahrscheinlich, dass die aktuellen Large Language Models (wie Gemini) allein den Bedrohungsakteuren bahnbrechende Fähigkeiten verleihen”, so die Autoren. 

Hat dir der Artikel gefallen? Jetzt teilen!

Kommentare