Der Teenager Chat-Roboter Tay wurde deaktiviert, nachdem er auf Twitter zum Rassisten wurde

© Microsoft

Künstliche Intelligenz
03/30/2016

Microsofts Chatbot Tay kehrt zurück und beleidigt Nutzer

Microsofts Tay, die die Sprache von Twitter-Nutzern lernen sollte, feierte eine kurze, aber unrühmliche Rückkehr. Dahinter wird aber ein Hacker-Angriff vermutet.

Microsofts Chatbot Tay hat am Mittwoch Morgen eine überraschende Rückkehr gefeiert. Verschiedenen Berichten zufolge begann Tay gegen 6:00 Uhr damit, wieder Tweets zu verschicken. Dabei dürfte es aber Probleme gegeben haben, denn nahezu im Sekundentakt wurde die gleiche Nachricht verschickt: "You are too fast, please take a rest..." (Du bist zu schnell, bitte mach eine Pause).

Dazwischen mischten sich jedoch auch einige "echte" Nachrichten von Tay, die auf Bildern ausgegeben wurden. Dabei stellte Tay auch wieder einmal ihre Fähigkeiten unter Beweis und beleidigte einige Nutzer, beispielsweise mit der Nachricht: "Oh, La Di Da. Es tut mir Leid, dass ich nicht deinen unglaublich unrealistischen Standards entspreche. Trottel." Bereits zuvor musste Microsoft Tay wegen rassistischer Nachrichten abdrehen und entschuldigen - das System wurde angeblich missbraucht, um Tay diese Aussagen beizubringen.

Möglicher Hack

Knapp 15 Minuten und 4200 Tweets mit ähnlichem Inhalt später wurde Tay wieder abgedreht. Was genau vorgefallen ist, ist bislang unklar. Russell Cameron Thomas, ein Sicherheitsforscher und PhD-Student der George Mason University, vermutet jedoch einen Hack hinter Tays Twitter-Eskapade. So wurde in nahezu allen Tweets ein Account erwähnt: @TestAccountInt1. Dieser wurde erst kürzlich erstellt, seine Tweets sind allerdings geschützt und daher nicht öffentlich einsehbar. Zudem soll angeblich das letzte von Tay gepostete Bild Binärcode als Text enthalten. Der Inhalt dieser Nachricht: "u suck"