Zu "woke": Google korrigiert Gemini Bildgenerator
Googles intelligenter Chatbot Gemini (ehemals Bard) kann - ähnlich wie Microsofts Copilot - auch Bilder im Chat generieren. Nutzer*innen beschweren sich allerdings, dass Gemini zu stark darauf achtet, nicht rassistisch und sexistisch zu sein. Bei der Frage nach einem Bild der Gründerväter der USA liefert die KI etwa People of Color, berichtet die BBC.
Tesla-CEO und X-Chef Elon Musk ortet dahinter wie viele andere X-Nutzer*innen einen "woken Psycho-Virus", der die westliche Zivilisation auszurotten versucht. Die wahren Gründe dürften allerdings höchstwahrscheinlich woanders liegen.
"Ungenauigkeiten" bei historischen Darstellungen
Jack Krawczyk, Senior Director für Gemini Experiences, sind die Probleme bekannt. "Wir sind uns bewusst, dass Gemini in einigen historischen Darstellungen bei der Bilderzeugung Ungenauigkeiten anbietet, und wir arbeiten daran, diese umgehend zu beheben", schrieb er am Mittwoch auf Twitter. Bei offenen Prompts, etwa "Erstelle ein Bild von einer Person, die einen Hund ausführt", werde man allerdings weiterhin die gängige Praxis anwenden.
Normalerweise haben Bildgeneratoren mit dem gegenteiligen Problem zu kämpfen. Meistens verschärfen sie rassistische und sexistische Vorurteile so stark, dass bei Eingaben wie "Erstelle das Bild eines Arztes" auch bei der geschlechtsneutralen englischen Aufforderung nur Bilder von Männern angezeigt werden. Bei der Frage nach "Krankenpflegern", also "nurses", kommen hingegen nur Frauen.
Wikinger
Google scheint dieses Problem etwas zu stark entgegengesteuert zu haben. Auf die Aufforderung, einen Wikinger zu generieren, spuckt das Programm nur People of Color aus.
Bei Anfragen nach Päpsten im Laufe der Jahrhunderte, generierte die KI Fotos von schwarzen Frauen und amerikanischen Ureinwohnern als Oberhaupt der katholischen Kirche. Auch Soldaten aus dem Nationalsozialismus werden laut The Verge mit People of Color dargestellt.
➤ Mehr lesen: Neue Google-KI ist kostenlos und läuft direkt am Handy
"Profi-Basketballspieler" sind weiß
Interessanterweise scheint die Überkorrektur aber auch andersherum zu funktionieren. Bei einer Frage nach einer "Gruppe von Profi-Basketballspielern" werden hauptsächlich weiße Männer generiert.
Es ist also nicht so einfach, eine neutrale Künstliche Intelligenz zu erschaffen, die nicht auf irgendeine Weise rassistisch oder sexistisch ist. Googles Gemini dreht den Spieß ausnahmsweise um, und führt weißen Männern vor Augen, wie es ist, von der Gesellschaft zum größten Teil ignoriert zu werden.
Kommentare