Warum ChatGPT ein Problem mit dem Gendersternchen hat
Dieser Artikel ist älter als ein Jahr!
Mit dem Chatbot ChatGPT, der auf Künstlicher Intelligenz (KI) beruht, können sich Menschen gut unterhalten. Der Chatbot generiert etwa Kochrezepte mit genau der Zutatenliste von Lebensmitteln, die sich gerade im Kühlschrank befinden. Oder aber er liest einem traurige Gedichte vor, schreibt komödienhafte Essays mit fiktiven Charakteren und Kurzgeschichten.
Wer ChatGPT darum bittet, bekommt auch generierte Texte mit Genderstern, die inklusiv sind. Meistens jedenfalls, denn ChatGPT neigt dazu, den Genderstern und den Wunsch von Nutzer*innen, auf geschlechtergerechte Sprache Wert zu legen, immer wieder zu vergessen.
Für die Wissenschaftlerin Sabrina Burtscher (Forschungsgruppe Mensch-Maschine-Interaktion und Barrierefreiheit am Karlsruher Institut für Technologie) und den Wissenschaftler Lukas Daniel Klausner (Center for Artificial Intelligence der FH St. Pölten), die sich beide mit genderfairer Sprache befassen, ist das völlig nachvollziehbar.
Riesige Datenmengen als Trainingsbasis
Um menschliche Antworten zu imitieren, wurde ChatGPT mit einer riesigen Menge an Daten trainiert. „Dabei handelt es sich wirklich um eine Unmenge an Daten, vor allem Texte aus dem Internet. Wenn es dabei um deutschsprachige Texte geht, ist der überwiegende Teil im Netz in nicht inklusiver Sprache geschrieben“, sagt Burtscher im Gespräch mit der futurezone. „Hinzu kommt, dass es nicht nur die eine Art gibt, inklusiv zu schreiben.“
Das „verwirrt“ ChatGPT, denn der Textgenerator ist ein statistisches Modell. Das heißt, ChatGPT schreibt selbst standardmäßig im Stil der Mehrheit der deutschsprachigen Bevölkerung im Netz. Die Sprachvarianten in genderinklusiver Sprache hingegen sind in der Minderheit.
Gender Bias in der Sprache
Hinter dem Textgenerator stehe außerdem kein Konzept oder Verständnis für Sprache per se, fügt Burtscher hinzu. „Es geht nur darum, mit welcher Wahrscheinlichkeit gewisse Wortsequenzen auftreten. Kommt eine Phrase in den Datensätzen, aus denen gelernt worden ist, häufig vor, dann kommt sie auch im Output häufig vor.“ ChatGPT verfällt daher auch regelmäßig in die alten Muster zurück, selbst wenn Nutzende dem Chatbot mehrfach anordnen, genderinklusiv mit Genderstern zu antworten.
Ein Beispiel, das Klausner anführt, zeigt wie sehr der Gender Bias auch bei Sprache und Übersetzungen in der Technologie verfestigt ist: „Es muss schon wirklich sehr hart daran gearbeitet werden, wenn jemand versucht, ChatGPT dazu zu bringen, Doctor mit Ärztin und Nurse mit Krankenpfleger zu übersetzen“, so Klausner. Die Begriffe sind in der Übersetzung nämlich traditionell männlich und weiblich geprägt.
➤ Mehr lesen: Wie KI die eine Hälfte der Bevölkerung diskriminiert
Begriffe
Generisches Maskulinum
Ist eine Personen- oder Berufsbezeichnung in der grammatikalisch männlichen Form. Wissenschaftliche Studien zeigen auf, dass durch die Reduktion auf die männliche Form Frauen unsichtbar gemacht werden, ebenso wie Menschen, die intergeschlechtlich, Trans oder genderqueer sind.
Genderfaire Sprache
Als Alternative zum generischem Maskulinum gibt es genderfaire Sprache. Diese ist geschlechtergerecht und verwendet in seiner genderneutralen Form neutrale Bezeichnungen und Umschreibungen. Genderinklusiv wird die Sprache dadurch, in dem es eine Beidnennung gibt, oder ein Gendersternchen gesetzt wird.
Nicht-binär
Es gibt immer mehr Menschen, die sich nicht (nur) als weiblich oder männlich definieren. Das heißt dann nicht-binär*, non-binary oder auch genderqueer*.
Workshop zu genderfairer Sprache
Das sind Dinge, die bei Übersetzungen immer wieder passieren und wovon sich Personengruppen, die mit dem generischen Maskulinum nichts anfangen können, ausgeschlossen fühlen. Burtscher und Klausner haben mit weiteren Forschenden einen wissenschaftlichen Workshop zu genderfairer Sprache durchgeführt, bei der Übersetzende, Programmierende und queere und non-binäre Menschen zusammen gekommen sind.
„Mit diesem partizipativen Forschungsansatz bekommen Sprachtechnologie-Expertinnen und -experten viele neue Inputs und es kann etwas nachhaltig verbessert werden“, sagt Burtscher. „Die meisten Teilnehmenden aus der Sprachtechnologie waren ehrlicherweise total erstaunt, dass die betroffenen Personen sich vor allem Rücksichtnahme auf ihre Identität und Persönlichkeit wünschen und gendergerechte Sprache einen grundlegenden Respekt ausdrückt“, so Burtscher. „Wir sprechen Menschen ja auch nicht mit einem falschen Namen an.“
Hervorgegangen sei etwa ein Liste an Empfehlungen. „Es reicht nämlich nicht, wenn Texte einfach mit einem Stern versehen sind, sie aber weiterhin durchsetzt sind von Stereotypen“, sagt Klausner. Viele, die mit Sprache arbeiten, hätten sich für ihre Übersetzungs- oder Programmiertätigkeiten klare Empfehlungen gewünscht. Ergo: Gendergerechte Sprache sollte auch bei technologischen Lösungen wie Übersetzungssoftware oder Sprachassistenzprogramme, wie Siri oder Alexa, oder Chatbots, wie ChatGPT, mitgedacht werden.
Empfehlung von ChatGPT sogar sinnvoll?
Dazu hat selbst ChatGPT einen Verbesserungsvorschlag: „In einer idealen Welt könnten digitale Plattformen und Kommunikationswerkzeuge anbieten, Sprachpräferenzen individuell anzupassen.“ Ein wirklich sinnvoller Vorschlag, oder? „Es ist ein wichtiger Aspekt technische Werkzeuge inklusiver zu gestalten, aber solange die Gesamtgesellschaft nicht willens ist, dass Menschen, die nicht der gesellschaftlichen Norm entsprechen, respektvoll behandelt werden, hilft die beste technische Lösung nichts“, sagt Klausner dazu: „Eine Verbesserung wäre es aber durchaus.“
Kommentare