
Microsoft entschuldigt sich für den Hitler-Fanbot Tay
Dieser Artikel ist älter als ein Jahr!
Microsoft hat sich in einem Blog-Eintrag für Tay entschuldigt. Tay ist ein Chat-Roboter, der aus Gesprächen mit Menschen lernen sollte. Innerhalb von 24 Stunden lernte die KI Frauen zu hassen, Hitler zu lieben, den Holocaust zu leugnen, homophob zu sein und Völkermord gutzuheißen.
Laut dem Blogeintrag tut es Microsoft zutiefst leid, dass Tay beleidigende Tweets abgesetzt hat. Diese spiegeln nicht die Unternehmens-Meinung wider und seien auch nicht repräsentativ für das, wofür man Tay entwickelt habe.
Man habe eine Möglichkeit übersehen, die das System von Tay angreifbar macht. Diese sei von bestimmten Personengruppen ausgenutzt worden, um einen koordinierten Angriff auf Tay zu starten. Man habe daraus gelernt und werde weiter an der KI arbeiten.
Bis dahin wurde Tay auf Twitter stummgeschaltet. Nahezu alle Tweets wurden gelöscht.
Kommentare