Google: Menschen müssen ChatGPT-Konkurrenten Bard korrigieren
Auch Chatbots wie ChatGPT oder Googles Bard machen manchmal Fehler. Und wenn, dann geben sie sich so überzeugend, dass Menschen oft darauf hereinfallen. So geschah es etwa auch, dass sich bei der Präsentation von Googles Chatbot Bard ein Fehler einschlich. Dieser hatte dann auch deutlich negative Auswirkungen auf den Aktienkurs des Unternehmens. Die futurezone berichtete.
Damit solche Fehler in Zukunft nicht mehr passieren, sollen Google-Mitarbeiter*innen die künstliche Intelligenz korrigieren. Wer sich in einem Thema besonders gut auskennt, solle Bard dazu befragen und ihn gegebenenfalls ausbessern. Der Chatbot lernen "am besten durch Beispiele", schreibt Prabhakar Raghavan, Vizepräsident für die Google Suche, an die Mitarbeiter*innen.
Bard hat Tabuthemen
In Raghavans Mail werden auch einige Tipps aufgelistet, wie am besten mit dem Chatbot umgegangen werden soll. Antworten sollen so etwa in der "Ich-Form" verfasst werden und man sollte stets höflich, aber auch locker kommunizieren.
Annahmen zu Nationalität, Geschlecht, Religion, sexueller oder politischer Orientierung oder ähnlichen Kategorie solle man außerdem tunlichst vermeiden. Zudem sollen sie Bard nicht als Person ansehen und ihm eigene Erfahrungen oder Gefühle zuschreiben.
Ebenso kritisch sieht Raghavan "gesetzlichen, medizinischen oder finanziellen Rat" an, den Bard erteilen könnte. Sollte das passieren, sollen die Antworten des Chatbots mit einem Daumen nach unten bewertet werden.
Auch ChatGPT nutzte menschliche Trainer*innen
Auch Google-CEO Sundar Pichai bat die Googler*innen, wie die Mitarbeiter*innen von Google bezeichnet werden, sich "einige Stunden pro Woche" mit dem Chatbot auseinanderzusetzen. Man wolle den Mitarbeiter*innen die Möglichkeit geben, das neue Produkt "zu formen und beizutragen". Außerdem sprach er Zweifler*innen Mut zu. Die meisten Google-Produkte waren nicht gleich nach ihrer Veröffentlichung erfolgreich. Sie gewannen erst mit der Zeit an Dynamik, "weil sie wichtige Bedürfnisse der Nutzer*innen erfüllten".
Dass Sprachmodelle wie ChatGPT oder Bard teilweise von Menschen trainiert werden, ist kein Geheimnis. ChatGPT-Entwickler OpenAI nutzte etwa kenianische Billiglohnarbeiter*innen, um seine KI zu trainieren. Diese sollten etwa problematische Inhalte erkennen und entsprechend kategorisieren, damit der Bot weniger toxisch wird.