Zur mobilen Ansicht wechseln »

KI Microsoft entschuldigt sich für den Hitler-Fanbot Tay.

Der Teenager Chat-Roboter Tay wurde deaktiviert, nachdem er auf Twitter zum Rassisten wurde
Der Teenager Chat-Roboter Tay wurde deaktiviert, nachdem er auf Twitter zum Rassisten wurde - Foto: Microsoft
Der Chat-Roboter Tay wurde innerhalb von 24 Stunden auf Twitter zum Rassisten. Microsoft spricht von einem gezielten Angriff.

Microsoft hat sich in einem Blog-Eintrag für Tay entschuldigt. Tay ist ein Chat-Roboter, der aus Gesprächen mit Menschen lernen sollte. Innerhalb von 24 Stunden lernte die KI Frauen zu hassen, Hitler zu lieben, den Holocaust zu leugnen, homophob zu sein und Völkermord gutzuheißen.

Laut dem Blogeintrag tut es Microsoft zutiefst leid, dass Tay beleidigende Tweets abgesetzt hat. Diese spiegeln nicht die Unternehmens-Meinung wider und seien auch nicht repräsentativ für das, wofür man Tay entwickelt habe.

Man habe eine Möglichkeit übersehen, die das System von Tay angreifbar macht. Diese sei von bestimmten Personengruppen ausgenutzt worden, um einen koordinierten Angriff auf Tay zu starten. Man habe daraus gelernt und werde weiter an der KI arbeiten.

Bis dahin wurde Tay auf Twitter stummgeschaltet. Nahezu alle Tweets wurden gelöscht.

(futurezone) Erstellt am 26.03.2016, 15:04

Kommentare ()

Einen neuen Kommentar hinzufügen

( Abmelden )

Dein Kommentar

Antworten folgen
Melden Sie den Kommentar dem Seitenbetreiber. Sind Sie sicher, dass Sie diesen Kommentar als unangemessen melden möchten?
    Bitte Javascript aktivieren!