Der Teenager Chat-Roboter Tay wurde deaktiviert, nachdem er auf Twitter zum Rassisten wurde

© Microsoft

KI
03/26/2016

Microsoft entschuldigt sich für den Hitler-Fanbot Tay

Der Chat-Roboter Tay wurde innerhalb von 24 Stunden auf Twitter zum Rassisten. Microsoft spricht von einem gezielten Angriff.

Microsoft hat sich in einem Blog-Eintrag für Tay entschuldigt. Tay ist ein Chat-Roboter, der aus Gesprächen mit Menschen lernen sollte. Innerhalb von 24 Stunden lernte die KI Frauen zu hassen, Hitler zu lieben, den Holocaust zu leugnen, homophob zu sein und Völkermord gutzuheißen.

Laut dem Blogeintrag tut es Microsoft zutiefst leid, dass Tay beleidigende Tweets abgesetzt hat. Diese spiegeln nicht die Unternehmens-Meinung wider und seien auch nicht repräsentativ für das, wofür man Tay entwickelt habe.

Man habe eine Möglichkeit übersehen, die das System von Tay angreifbar macht. Diese sei von bestimmten Personengruppen ausgenutzt worden, um einen koordinierten Angriff auf Tay zu starten. Man habe daraus gelernt und werde weiter an der KI arbeiten.

Bis dahin wurde Tay auf Twitter stummgeschaltet. Nahezu alle Tweets wurden gelöscht.

eine Newsletter Anmeldung Platzhalter.

Wir würden hier gerne eine Newsletter Anmeldung zeigen. Leider haben Sie uns hierfür keine Zustimmung gegeben. Wenn Sie diesen anzeigen wollen, stimmen sie bitte Piano Software Inc. zu.