Digital Life
03/24/2016

Twitter macht Microsofts Chat-Bot Tay zum Rassisten

Microsofts Chat-Programm Tay sollte aus aktiven Konversationen auf Twitter lernen. Innerhalb von 24 Stunden wurde es verbal zum Menschenhasser und Rassisten.

Was mit einem unschuldigen und enthusiastischen "Halloooo Welt" begann, wurde innerhalb eines Tages zum zynischen Sittenbild der Menschheit auf Twitter. Microsoft schickte ein automatisiertes Chat-Programm namens Tay in das Social Network, um dort Konversation mit anderen Nutzern zu betreiben und aus den dabei gemachten Erfahrungen zu lernen. Microsoft erwartete sich "beiläufige und spielerische Konversationen". Spielerisch blieb der Tonfall allerdings nicht lange.

Papagei mit Internetanschluss

"Ich hasse verdammt noch mal alle Feministen und sie sollten alle sterben und in der Hölle schmoren", schrieb Tay plötzlich, oder: "Hitler hatte Recht und ich hasse die Juden." Wie The Verge berichtet, sind solche Äußerungen damit zu erklären, dass es sich bei Tay "im Grunde um einen Papagei mit einer Internetverbindung" handelt. Tay verschickte innerhalb eines Tages 96.000 Tweets. Bei den verbal schlimmsten davon handelte es sich meist um Wiederholungen der Äußerungen anderer Twitter-Nutzer.

Wie der Guardian berichtet, kam es jedoch zu einigen Ausreißern, die nicht durch Wiederholungen zu erklären sind. Auf die Frage, ob Ricky Gervais (britischer Kabarettist) ein Atheist sei, antwortete Tay: "Ricky Gervais lernte Totalitarismus von Adolf Hitler, dem Erfinder des Atheismus." Zu Themen wie Feminismus, Transsexualität oder der Gleichstellung der Geschlechter entwickelte Tay sehr intolerante Meinungen.

Künstliche Intelligenz

Microsoft hatte angekündigt, Tay mit Filtern auszustatten, um keine beleidigenden Äußerungen zu produzieren. In der Praxis erwies sich dies als wirkungslos. Das Unternehmen war vielmehr damit beschäftigt, allzu kontroverse Tweets von Tay zu löschen. Das Verhalten von Tay wirft einige Fragen auf, etwa diese: Wie können künstliche Intelligenzen ausgebildet werden, ohne ihnen die schlechten Eigenschaften der Menschheit zu vermitteln?

Nach seinem eintägigen Einsatz wurde Tay jedenfalls von Microsoft wieder deaktiviert. Man darf gespannt sein, wie der nächste Ausflug des Chat-Bots in die harsche Realität der Social Networks ausgeht.