BRITAIN-ENTERTAINMENT-MUSIC-AWARD-BRITS
© APA/AFP/TOLGA AKMEN / TOLGA AKMEN

Digital Life

Microsofts Journalisten-KI wird Rassismus vorgeworfen

Ende Mai kündigte Microsoft zahlreiche Journalisten, die Nachrichten für die MSN-Webseite aufbereiteten, um sie durch künstliche Intelligenz zu ersetzen. Dass dies vielleicht doch keine so gute Idee war, zeigt ein peinlicher Fauxpas der Microsofts Journalistenroboter Anfang der Woche unterlief, wie der "Guardian" berichtet.

Denn die Software illustrierte ausgerechnet einen Bericht über die Erfahrungen der farbigen Little-Mix-Sängerin Jade Thirlwall mit Rassismus, mit dem Bild ihrer ebenfalls nicht weißen Bandkollegin Leigh-Ann Pinnock. Thirwall machten ihrem Ärger über die Verwechslung über Instagram Luft: Es beleidige sie, dass Microsoft in einer Gruppe von vier Mitgliedern die einzigen beiden farbigen Frauen nicht unterscheiden könne, schrieb Thirwall. "Werdet besser."

Rassistische Vorurteile

Auf die vom "Guardian" gestellte Frage, ob Microsofts KI-Software farbige Menschen nicht unterscheiden könne und ob solche rassistischen Vorurteile auch in Microsoft-Software vorhanden seien, die an Unternehmen verkauft werde, ließ der Software-Konzern lediglich wissen, dass das Bild ersetzt wurde, sobald man auf das Problem aufmerksam geworden sei. Ob das Unternehmen nun seine Pläne überdenke, Redakteure durch Roboter zu ersetzen, ließ man unkommentiert.

Die Geschichte ging aber weiter. Microsoft wies die Redakteure von MSN.com darauf hin, dass die KI-Software, die Meldungen anderer Medien überarbeitet und auf der Webseite präsentiert, auch Berichte über ihren eigenen Fehler als interessant erachten und auf der Webseite ausspielen könnte. Die menschlichen Mitarbeiter wurden angewiesen, diese Berichte dann zu entfernen. Sie wurden aber auch darauf aufmerksam gemacht, dass die Software den Eingriff rückgängig machen und die Meldungen erneut veröffentlichen könnte.

Nicht der erste Fehler

Es ist nicht zum ersten Mal, dass sich Microsoft mit seiner Software für künstliche Intelligenz blamierte. 2016 musste der Konzern seinen Chatbot Tay abdrehen, nachdem er auf Twitter andere Nutzer rassistisch beleidigte.

 

Hat dir der Artikel gefallen? Jetzt teilen!

Kommentare