Digital Life

ChatGPT überwacht eure Chats und kann sie sogar der Polizei melden

Update, 29.08.: Artikel wurde ergänzt um Statement des Bundeskriminalamtes

Chatbots wie ChatGPT sind nicht frei von Gefahren. Sie geben oftmals bedenkliche Ratschläge, die ihre Nutzer sogar ins Krankenhaus bringen können. In den USA verklagen Eltern gerade OpenAI, weil sie dem ChatGPT-Betreiber vorwerfen, der Chatbot hätte ihren Sohn in den Suizid getrieben.

Um diese Probleme in den Griff zu bekommen, beteuern KI-Unternehmen wie OpenAI, dass sie für mehr Sicherheit sorgen wollen. In einem neuen Blogpost thematisiert das KI-Unternehmen einerseits das Problem, dass ChatGPT manchmal von Menschen mit psychischen Problemen genutzt wird, die sich Rat vom Chatbot holen. 

➤ Mehr lesen: Warum Chatbots keine Therapeuten sind und wir sie trotzdem dafür nutzen

Andererseits gibt OpenAI in dem Blogbeitrag auch zu, dass es Chatverläufe mit ChatGPT sehr gezielt nach problematischen Inhalten durchsucht und diese dann von menschlichen Inhaltsmoderatoren überprüfen lässt. In einigen Fällen würden sie sogar die Polizei alarmieren, sagt OpenAI.

Inahltsmoderatoren werden eingeschalten

„Wenn wir Nutzer entdecken, die anderen Schaden zufügen wollen, leiten wir ihre Gespräche an spezialisierte Kanäle weiter. Dort werden sie von einem kleinen Team überprüft, das in unseren Nutzungsrichtlinien geschult ist und Maßnahmen ergreifen kann, etwa die Sperrung von Konten“, schreibt OpenAI. „Wenn menschliche Prüfer feststellen, dass ein Fall eine unmittelbare Gefahr schwerer körperlicher Schäden für andere ist, können wir ihn an die Strafverfolgungsbehörden weiterleiten.“

Bestimmte unerlaubte Gesprächsinhalte werden von OpenAI auch in den Nutzungsrichtlinien angeführt: Man dürfe mit ChatGPT etwa keine Selbstmordpläne diskutieren, Waffen entwickeln oder vom Chatbot erstellte Texte nutzen, um andere zu mobben, Gewalt, Hass oder die Sexualisierung von Kindern zu fördern.

➤ Mehr lesen: ChatGPT-Nutzer wollen kündigen: Start von GPT-5 verlief katastrophal

Klar benannt sind etwa in den Nutzungsrichtlinien Hinweise auf sexuellen Kindesmissbrauch, der in den USA an Behörden gemeldet wird. Trotzdem klingt es im neuen Blogpost ganz danach, als ob OpenAI auch in anderen Fällen aktiv wird.

Wann die Polizei informiert wird, verrät OpenAI nicht

Ein Austausch mit ChatGPT über Selbstmordpläne sei laut OpenAI aber zumindest kein Grund, die Behörden zu alarmieren: „Derzeit werden Fälle von Selbstverletzung nicht an die Strafverfolgungsbehörden weitergeleitet, um die Privatsphäre der Menschen zu respektieren, da ChatGPT-Interaktionen einzigartig privat sind.“

Im Unklaren lässt uns OpenAI jedoch darüber, bei welchen Chatinhalten die Inhaltsmoderatoren doch aktiv werden. Auch wann Behörden wie die Polizei von OpenAI informiert werden, wird nicht genau beantwortet. Fakt ist aber, dass das Unternehmen bei den Chats stets mitliest – anders als etwa Chatverläufe auf WhatsApp sind sie nämlich nicht Ende-zu-Ende-verschlüsselt

➤ Mehr lesen: "Bitte" und "Danke" kosten ChatGPT mehrere Millionen Dollar

Die futurezone hat auch das österreichische Bundeskriminalamt in der Angelegenheit kontaktiert, um herauszufinden, ob es auch in Österreich Fälle gibt, in denen sich OpenAI wegen verdächtiger Chatverläufe an die heimischen Ermittlungsbehörden wenden würde. „Nach Rückmeldung unserer Fachabteilung liegen uns keine Erkenntnisse vor. Es gab bis dato noch keine Kontaktaufnahmen in einer derartigen Causa“, heißt es vom Bundeskriminalamt. 

Klicken Sie hier für die Newsletteranmeldung

Hat dir der Artikel gefallen? Jetzt teilen!