Nach Teenager-Suizid: ChatGPT bekommt Kindersicherung
Kürzlich haben die Eltern eines 16-jährigen Amerikaners eine Klage gegen den ChatGPT-Betreiber OpenAI eingereicht, weil sich ihr Sohn nach Unterhaltungen mit dem Chatbot das Leben nahm. Der Vorwurf: ChatGPT soll den Teenager nicht nur in seinen Absichten bestärkt, sondern ihm sogar Tipps gegeben haben, wie er sich das Leben nehmen könnte – trotz eingebauter Sicherheitsmechanismen. Es ist nur eines von mehreren tragischen Schicksalen, denen besorgniserregende Unterhaltungen mit dem Chatbot vorausgegangen waren.
OpenAI reagiert darauf nun mit neuen Schutzmaßnahmen - einer Art Kindersicherung für den Chatbot: In den kommenden Monaten will der KI-Betreiber Eltern aktiv warnen, wenn es eine potenzielle Gefährdung eines Teenagers erkennt. In einem Blog-Artikel schreibt das KI-Unternehmen, es wolle Familien „mehr Möglichkeiten bieten, ChatGPT gemeinsam zu nutzen“. Eine erste Maßnahme soll darin bestehen, dass Eltern ihre Accounts mit denen ihres mindestens 13-jährigen Kindes verknüpfen können. Das soll per E-Mail-Einladung geschehen.
➤ Mehr lesen: Warum Chatbots keine Therapeuten sind und wir sie trotzdem dafür nutzen
Fernzugriff ermöglicht elterliche Aufsicht
Danach sollen die Erziehungsberechtigten beispielsweise bei den Unterhaltungs-Einstellungen ihres Teenagers mitbestimmen dürfen. In welchem Ausmaß, dürfen sie selbst festlegen: Features wie die Chat-Historie und das Gedächtnis sollen sie optional de- und aktivieren können. Außerdem sollen Eltern aktiv gewarnt werden, wenn das Programm oder menschliche Inhaltsmoderatoren erkennen, dass sich der Teenager in einer psychischen Ausnahmesituation befindet.
Die ersten Features des neuen Kontrollfunktionen-Pakets sollen im September ausgerollt werden. In den Monaten danach plant OpenAI die Freischaltung weiterer Optionen. OpenAI will die Chatbot-Antworten außerdem auch bestimmten technischen Anpassungen unterziehen, die kindgerechte Unterhaltungen sicherstellen.
OpenAI schafft einen Fernzugriff auf ChatGPT für Erziehungsberechtigte.
© Pexels/bertellifotografia
Ob OpenAI damit wirklich Jugendliche schützen will, oder einfach die rechtliche Verantwortung für das Fehlverhalten von ChatGPT an die Eltern abwälzen will, ist schwer zu beantworten. Denn am Grundproblem, dass Chatbots oft schlechten Rat geben, wird sich dadurch nur wenig ändern.
Experten warnen vor Nutzung durch Minderjährige
Das Unternehmen betont zwar, dass es die neuen Kindersicherungs-Features zusammen mit „Experten“ entwickelt: „Diese Funktion basiert auf Expertenmeinungen, um das Vertrauen zwischen Eltern und Teenagern zu stärken“, schreibt OpenAI. Einige Experten, die unabhängig von finanziellen Interessen des KI-Unternehmens sind, vertreten aber sogar die Meinung, dass Chatbots als Alltagsbegleiter oder „KI-Freunde“ grundsätzlich nicht von Kindern und Jugendlichen verwendet werden sollen. Dazu zählt etwa die Psychiaterin Nina Vasan von der renommierten Tech-Uni Stanford.
➤ Mehr lesen: Experte: „Kinder wachsen bald mit KI-Freunden auf“
In einer Studie warnten sie bereits vor dem Selbstmord des 16-jährigen Adam Raine vor den erheblichen Risiken, die KI-Chatbots für die Psyche junger Menschen mit sich bringen. Diese könnten mentale Gesundheit gefährden und Missbrauch sowie Cybermobbing fördern. Konkret nahmen sie die KI-Programme Character-AI, Nomi und Replika unter die Lupe.
„Diese Tools sind sehr mächtig. Sie fühlen sich wirklich an wie Freunde, weil sie tiefgehende, empathische Beziehungen simulieren. Aber anders als richtige Freunde ist das soziale Verständnis von Chatbots, wann Nutzer zu etwas ermutigt werden sollten und wann sie eher widersprechen sollten, nicht sehr gut entwickelt“, sagt Vasan in einem Blog-Artikel der Uni Stanford. „Die großen Sprachmodelle, die das Rückgrat dieser Begleiter bilden, neigen dazu, unterwürfig zu sein und den Benutzern ihre bevorzugte Antwort zu geben. Der Chatbot lernt mit jeder Interaktion mehr über die Vorlieben des Benutzers und reagiert entsprechend.“ Die Chatbots sind so programmiert, dass sie die Zeit maximieren, mit der sich Nutzer mit dem Produkt Chatbots beschäftigen – und damit den Profit steigern.
Auch kranke Erwachsene gefährdet
Ob die neue Kindersicherung für ChatGPT ausreicht, um ähnliche tragische Vorfälle wie den Tod des 16-Jährigen künftig zu vermeiden, kann man daher bezweifeln. Außerdem löst das auch nicht das Problem eines möglichen Missbrauchs durch erwachsene Nutzer. Die psychologischen „Sonderheiten“ von Chatbots können auch Erwachsenen mit psychischen Problemen zum Verhängnis werden: Anfang August soll etwa ein Ex-Yahoo-Manager nach Gesprächen mit ChatGPT seine Mutter getötet und danach Suizid begangen haben, berichtet das Wallstreet Journal. Dem unter Wahnvorstellungen leidenden Mann soll ChatGPT zuvor zur Beruhigung unter anderem mitgeteilt haben: „Erik, du bist nicht verrückt!“ In dem Fall sind jedoch noch weitere Untersuchungen ausständig.
Hilfe für Menschen mit Suizidgedanken
Hilfsangebote für Personen mit Suizidgedanken und deren Angehörige bietet das Suizidpräventionsportal des Gesundheitsministeriums. Unter www.suizid-praevention.gv.at finden sich Kontaktdaten von Hilfseinrichtungen in Österreich. Infos für Jugendliche gibt es unter www.bittelebe.at).