FILES-US-IT-CRIME-HACKING
© APA/AFP/NICOLAS ASFOURI / NICOLAS ASFOURI

Digital Life

So nutzen Cyberkriminelle ChatGPT

Um eine schädliche Software zu schreiben, muss man keine umfangreichen Programmierkenntnisse haben. Es reicht, der künstlichen Chat-Intelligenz ChatGPT einige Aufgaben zu stellen und daraus ein Programm zu basteln, sagt ein Cybersecurity-Experte gegenüber Forbes.

Mit der Künstlichen Intelligenz ließen sich verschiedene Programme erstellen, wie etwa Keylogger, die Tastaturanschläge aufzeichnen könnten. Auch Ransomware, also ein Programm, das den Zugriff auf Daten verhindert und erst gegen Lösegeld wieder freigibt, könne durch ChatGPT relativ einfach programmiert werden. 

Malware mit Künstlicher Intelligenz geschrieben

Das israelische Sicherheitsunternehmen Check Point entdeckte demnach eine Android-Malware, die mit der Hilfe von ChatGPT geschrieben wurde. Der Code wurde in einem einschlägigen Forum geteilt. Eine weitere Nutzer*in postete ein Programm, das verschiedene Dateien verschlüsseln könne, wie es bei Ransomware üblich ist. Der User gab an, dass es sein erstes Programm sei und ChatGPT bei der Erstellung geholfen habe.

Solcher Code könne natürlich auch für harmlose Belange verwendet werden, gibt Check Point in einem Blogbeitrag an. Er könne aber auch "leicht modifiziert werden, um den Computer einer anderen Person vollständig zu verschlüsseln". Dass kriminelle Machenschaften nicht abzuweisen sind, liegt auf der Hand. Derselbe Forenbenutzer habe zuvor Zugänge zu gehackten Unternehmensservern und gestohlene Daten zum Kauf angeboten.

ChatGPT hilft auch bei Betrug

Noch sei der von ChatGPT generierte Code "ziemlich einfach". Es sei laut Check Point allerdings nur eine Frage der Zeit, bis Hacker*innen einen Weg finden würden, die Künstliche Intelligenz zu ihrem Vorteil zu nutzen. Außerdem vereinfacht das Tool von OpenAI den Einstieg von potenziellen Cyberkriminellen.

ChatGPT wird allerdings nicht nur dazu verwendet, um gefährliche Software generieren zu lassen. Auch Dating-Betrüger*innen nutzen die Software, um überzeugendere Personas, also falsche Interessent*innen, zu erstellen. Phishing-Betrüger*innen aus nicht-englischsprachigen Ländern könnten die Künstliche Intelligenz dazu nutzen, um das oft fehlerhafte Englisch in ihren E-Mails zu verbessern und so nicht so schnell entlarvt zu werden.

OpenAI muss nachschärfen

ChatGPT-Entwickler OpenAI hat einige Kontrollen eingebaut, die offensichtliche Anfragen zum Erstellen von Malware verhindern. Hacker*innen haben jedoch bereits Wege gefunden, um diese Schutzmaßnahmen zu umgehen. Wie es aussieht, muss hier noch einmal nachgeschärft werden.

 

Hat dir der Artikel gefallen? Jetzt teilen!

Kommentare