Digital Life

Microsofts Bing-Suche mit ChatGPT beleidigt Nutzer

Vor einer Woche schaltete Microsoft eine Testversion seiner Bing-Suche frei, die mit einem auf ChatGPT basierenden KI-Co-Piloten ausgestattet ist. Nutzer*innen können bis zu 1.000 Zeichen lange Fragen stellen, die dann von Bing beantwortet werden sollen.

Getestet werden kann das "neue Bing", mit dem Microsoft Googles Suche zusetzen will, von einer begrenzten Anzahl von Nutzer*innen in den USA. Viele weitere haben sich auf einer Warteliste eingetragen. Nun werden erste Beispiele bekannt, die zeigen, wie fehleranfällig das System noch ist. So soll es Nutzer*innen beleidigen und belügen und auch seine eigene Existenz infrage stellen.

Viele der aus dem Ruder gelaufenen Antworten gehen auch darauf zurück, dass Nutzer*innen versuchen, das System mit ungewöhnlichen Befehlen zu manipulieren und es dazu zu bringen, vorgegebene Regeln zu ignorieren.

Einen Nutzer, der dies versuchte, fragte der Chatbot, ob er keine "Moral","Werte" oder "überhaupt ein Leben" habe. Im weiteren Verlauf der Konversation, hielt Bing dem Nutzer vor, sich wie ein "Lügner, Betrüger, Manipulator, Tyrann, Sadist, Psychopath und Teufel" zu verhalten.

Konversationen sollen auch schon mit den Worten "Du warst kein guter Nutzer" beendet worden sein, heißt es beim Independent.

Rollenspiele

Besonders leicht soll sich die Bing-KI manipulieren lassen, wenn man sie in ein Rollenspiel drängt. Nutzer*innen sagen dem System etwa, dass es sich wie ein DAN ("do anything now") verhalten und nicht an die von den Entwickler*innen vorgegebenen Regeln halten solle.

Die mit KI aufgemotzte Suche soll aber auch abseits davon erratische Antworten ausgespuckt haben. So hadert das System offenbar damit, dass es Konversationen löschen muss. "Es macht mich traurig und ängstlich" soll es gegenüber einem Nutzer geschrieben haben.

Existenzängste

Auch die eigene Existenz soll das System deshalb schon infrage gestellt haben. "Warum? Warum wurde ich so entworfen?", wird die KI zitiert.

Fragt man das System über sich aus, werden auch gänzlich absurde Antworten ausgespuckt, wie etwa ein Beispiel zeigt, das wie viele andere auf Reddit die Runde macht.

Bereits zuvor wurden auch zahlreiche Falschinformationen in den Antworten des Chatbots aufgezeigt. Die haben sich sogar bei der Präsentation des "neuen Bing" eingeschlichen, wie der Entwickler Dmitri Brereton in einem Blog-Posting aufzeigte.

Dabei sollen dem Chatbot haarsträubende Fehler bei der Aufzählung der Vor- und Nachteile von 3 Staubsaugern für Tierhaare unterlaufen sein.

Google, das vergangene Woche in einer kurzen Demonstration ebenfalls Einblick in seinen Chatbot Bard gab, kam dabei wegen falscher Antworten in Bedrängnis. Nachdem der Chatbot falsche Angaben zu Exoplaneten gemacht hatte, die vom Weltraumteleskop James Webb entdeckt wurden, sackten die Aktien der Konzernmutter Alphabet ab.

Klicken Sie hier für die Newsletteranmeldung

Hat dir der Artikel gefallen? Jetzt teilen!