Microsoft schränkt KI-Suche ein, nachdem sie Nutzer beleidigte
Microsoft reduziert die Anzahl der Fragen, die Nutzer*innen ihrer neuen KI-basierten Suche Bing stellen können. Nun können täglich nur noch 50 Fragen gestellt werden. Pro Chat werden die Fragen auf 5 reduziert, teilt das Unternehmen in einem Blogeintrag mit.
Wurde das Limit erreicht, wird man dazu aufgefordert, eine neue Konversation zu starten. Zudem muss der Chat über das "Besen"-Icon zurückgesetzt werden. Damit will Microsoft verhindern, dass die KI durch sehr lange Konversationen "verwirrt" wird.
Einige Nutzer*innen hatten den Bing-Chatbot gezielt herausgefordert. Infolge dessen beleidigte die KI sie. Zudem werden noch Falschinformationen über das System geteilt (futurezone berichtete).
"Nicht unbedingt hilfreich"
Microsoft hatte dazu bereits in einem Blogeintrag Stellung genommen. Darin heißt es, bei Chat-Konversationen die mehr als 15 Fragen umfassen, könne Bing sich wiederholen oder Antworten geben, "die nicht unbedingt hilfreich sind oder nicht unserem designten Ton entsprechen".
Microsofts neue Bing-Suche ist noch im Testbetrieb. Sie basiert auf dem System von ChatGPT. Ob die neuen Einschränkungen bestehen bleiben oder wieder gelockert werden, soll das Feedback der Nutzer*innen zeigen, so Microsoft.