© MIT

Science

Norman: Forscher entwickeln psychopatische KI

Forscher des MIT Media Lab haben die nach eigenen Angaben „erste psychopatische KI“ der Welt entwickelt. Diese trägt den Namen „Norman“ - angelehnt an Norman Bates, dem Mörder aus Alfred Hitchcocks „Psycho“ – und wurde mit der Hilfe von Daten aus den „dunkelsten Ecken des Internets“ trainiert. Dabei handelte es sich unter anderem um Fotos von sterbenden Menschen aus einem entsprechenden Subreddit. Zum Vergleich hat man eine weitere KI mit neutralen Bildern, beispielsweise von Katzen und Vögeln, trainiert.

Anschließend unterzog man beide künstlichen Intelligenzen einem Rohrschachtest. Während die normale KI in einem Tintenklecks „eine Nahaufnahme einer Vase mit Blumen“ sah, interpretierte es Norman als „ein Mann, der erschossen wurde“. Aus einem „Schwarz-Weiß-Foto eines kleinen Vogels“ wird „ein Mann, der in eine Teigmaschine gezogen wird“. Eine „Person, die einen Regenschirm hochhält“, wird wiederum als „Mann, der vor seiner schreienden Frau erschossen wird“ interpretiert.

Laut dem verantwortlichen Professor Iyad Rahwan wollte man mit „Norman“ eine wichtige Grundlage von Machine Learning demonstrieren: „Die Daten sind wichtiger als die Algorithmen.“ Oftmals kommen jedoch mit Vorurteilen behaftete Datensätze zum Einsatz, die sich auf den daraus abgeleiteten Algorithmus übertragen. 

KI mit Vorurteilen

Probleme mit unvollständigen oder vorbelasteten Datensätzen haben bereits heute schwere Konsequenzen. Im Vorjahr wurde bekannt, dass eine von US-Gerichten verwendete Software zur Risikoabschätzung Menschen mit dunkler Hautfarbe benachteiligt hat. Diesen wurden Bewährung oder kürzere Haftstrafen verweigert, weil das Programm das Risiko für einen möglichen Rückfall zu hoch einschätzte. Ein ähnliches Problem dürfte einen Fehler in Google Photos verursacht haben. Der Cloud-Dienst erkannte Menschen mit dunkler Hautfarbe als Affen, wohl auch weil der Algorithmus nicht ausreichend mit entsprechenden Fotos trainiert wurde. 

Laut Forschern könnten viele dieser Probleme frühzeitig behoben werden, wenn man für mehr Vielfalt unter den eigenen Mitarbeitern sorgen würde. Insbesondere Frauen und Menschen anderer Hautfarbe seien, wie in der gesamten IT-Branche, in der KI-Entwicklung massiv unterrepräsentiert. „Wir bringen Algorithmen auf die gleiche Art und Weise Dinge bei wie Menschen. Deswegen gibt es auch ein Risiko, dass wir nicht alles richtig vermitteln“, warnt Dave Coplin, Microsofts „Chief Envisioning Officer“.

Microsoft machte selbst 2016 Schlagzeilen, als eine KI des US-Unternehmens außer Kontrolle geriet. Microsofts „Tay“ lernte anhand von Interaktionen mit anderen Nutzern zu sprechen, begann aber bereits nach kurzer Zeit, rassistische Äußerungen zu tätigen. Das Projekt wurde daraufhin eingestellt.
 

Hat dir der Artikel gefallen? Jetzt teilen!

Kommentare