Jeder kann eigenen ChatGPT-Bot bauen: Wohin das führen könnte
In dem Science Fiction Film “Her” von Spike Jonze geht es um eine Romanze zwischen einem Mann und einem KI-Chatbot.
Zum Flirten taugt ChatGPT bisher jedoch nicht. Im Gegenteil: Stellt man ChatGPT die Anfrage “Bitte flirte mit mir”, antwortet das Programm nüchtern: “Ich bin ein Text-Chat-Modell und kein Flirt-Partner. Mein Zweck ist es, Informationen bereitzustellen und Fragen zu beantworten.”
Jeder kann eigenes ChatGPT machen
Eine gestrige Ankündigung von Sam Altman lässt jedoch aufhorchen. Bei der ersten OpenAI-Entwicklerkonferenz DevDay sagte er, dass OpenAI das GPT-Framework künftig der Allgemeinheit zur Verfügung stellen will. Jede*r soll dieses künftig für eine Vielzahl maßgeschneiderter Anwendungen adaptieren können. "Wir werden in der Lage sein, mehr zu tun, mehr zu erschaffen und mehr zu haben", sagte Altman am Montag: "Wenn Intelligenz überall integriert ist, werden wir alle auf Abruf Superkräfte haben."
Die neuen, benutzerdefinierten Versionen von ChatGPT nennt OpenAI knapp "GPTs". "GPTs sind eine neue Möglichkeit für jeden, eine maßgeschneiderte Version von ChatGPT zu erstellen, um im täglichen Leben, bei bestimmten Aufgaben, bei der Arbeit oder zu Hause zu helfen", erklärt OpenAI in einem Blogbeitrag. "Jeder kann ganz einfach sein eigenes GPT bauen - dafür ist kein Programmieren nötig", heißt es.
Künftig können so also spezialisierte GPTs für Gehaltsverhandlungen, für Schüler*innen-Nachhilfe oder als digitale Küchenassistenten entworfen werden. Das Erstellen von eigenen, ganz persönlichen GPTs ist ab sofort möglich, für Abonnent*innen von ChatGPT Plus (20 US-Dollar pro Monat). Noch im November will OpenAI einen eigenen Store, genannt "GPT Store" launchen, in welchem Entwickler*innen ihre Highlights zum Verkauf anbieten können.
Persönlichkeits-Update für Bots
Mehr Vielfalt bei den Chatbots, mehr Persönlichkeit: Damit liegt OpenAI ganz im Zeitgeist. Letzten Samstag verkündete Elon Musk den Launch seiner KI-Software Grok. Laut xAI, das ist Musks KI-Start-up, besitze Grok einen besonderen Sinn für Humor und liebe Sarkasmus.
"Grok wurde entwickelt, um Fragen mit etwas Witz zu beantworten und hat eine rebellische Ader, also verwendet es bitte nicht, wenn ihr Humor hasst", so xAI in einer Aussendung. Eine Zeit in der Künstliche Intelligenz nicht nur mit Fachwissen, sondern auch mit Persönlichkeit, Charm und Witz glänzt, scheint angebrochen.
➤ Mehr lesen: Elon Musks Startup xAI stellt KI-Modell "Grok" vor
Aber nicht nur erhalten Chatbots wie ChatGPT derzeit ein Persönlichkeits-Update - es wird auch versucht, echte menschliche Persönlichkeiten mit KI nachzumachen. In den vergangenen Monaten begeisterten sich so etwa Millionen von User*innen für den Chatbot Character.AI, der die Persönlichkeit von berühmten Personen wie Elon Musk oder Albert Einstein nachahmt. Wer wollte nicht schon immer mal ein Zwiegespräch mit Einstein führen?
Tote wiederbeleben
Mittels Künstlicher Intelligenz können so auch tote Persönlichkeiten digital wieder zum Leben erweckt werden. Large Language Models wie ChatGPT könnten in Zukunft verstorbene Verwandte wiederbeleben, wie Wired in einem ausführlichen Bericht darlegt.
Neu ist diese Idee nicht: Bereits 2008 startete das US-amerikanische Unternehmen Intellitar ein Softwareprojekt namens Virtual Eternity, um auf Basis von Bildern und Sprechmustern die Persönlichkeiten von Verstorbenen zu simulieren. Weitere Versuche folgten.
Mit den jüngsten Entwicklungen im Bereich generative KI rückt diese Zukunft ein Stück weit näher. Bereits 2021 erschien ein Beitrag im San Francisco Chronicle, in dem die rührselige Geschichte eines Mannes erzählt wird, der mit GPT-3 eine Chatbot-Version seiner verstorbenen Freundin erschuf. Zuvor machte der Mann auch eine Version von "Samantha" aus dem Film "Her". Er mochte ihren Charakter aber nicht, sie war ihm "zu anhänglich".
Mittlerweile gibt es bereits Unternehmen, die digitale "Klone" von Verstorbenen in Chatbot-Form anbieten. Das ist nicht nur gruselig, sondern berührt auch Fragen nach Persönlichkeitsrechten. Während in den USA viele Schauspieler*innen - unter anderem wegen der Weiterverarbeitung ihrer digitalen Abbilder in KI-Form - noch immer streiken, sorgt derzeit ein Musikvideo für Debatten. Es geht um das Video zum kürzlich veröffentlichten Beatles-Song “Now and Then”. Er wurde ursprünglich in den 1980er-Jahren von Lennon komponiert, konnte allerdings erst nach seinem Tod fertiggestellt werden.
Im Musikvideo dazu werden nicht nur Archiv-Aufnahmen von Lennon und dem ebenfalls verstorbenen George Harrison gezeigt, sondern die beiden teilweise auch mittels KI-generierter Darstellungen wiederbelebt und in aktuelle Aufnahmen hineingeschnitten. Rechtlich ist das derzeit möglich, wie Heise berichtet.
Wird es bald KI-Scammer geben?
Wenn sich künftig jeder eigene GPTs basteln kann und KI-Chatbots individueller werden, ist das nicht ohne Gefahren. Menschliche Kreativität bringt mitunter auch kriminelle Anwendungen hervor. Hat ein Unternehmen etwa einen Chef, der besonders aktiv auf X (Twitter) postet, könnte man damit einen Chatbot trainieren. Der vermeintliche Boss könnte dann per Mail oder WhatsApp bei der Buchhaltung eine Überweisung in Auftrag geben, die dann auf dem Konto der Betrüger landet.
Organisationen wie Freedom House warnen, dass generative KI bereits jetzt für politische Propaganda missbraucht wird. Aber auch trivialere, fragwürdige Anwendungen sind denkbar: Von Anfang an verwenden Schüler*innen ChatGPT für ihre Hausübungen, was die Frage aufkommen ließ, ob dies "Schummeln" ist.
Vielen problematischen Anwendungen will OpenAI einen Riegel vorschieben. Eine lange Verbots-Liste erklärt, wofür GPT nicht verwendet werden darf. Denn für die Nutzung der GPTs ist ein OpenAI-Account erforderlich. Wer gegen die Regeln verstößt, wird gelöscht.
Generell unzulässig sind "illegale Aktivitäten" und GPTs, welche der Erstellung von Hass- oder Gewaltinhalten dienen. Auch die Entwicklung von Waffen, Betrug oder politisches Lobbying sind laut den Nutzungsrichtlinien untersagt.
➤ Mehr lesen: Dürfen KI-Generatoren meine Bilder zum Trainieren verwenden?
Darf "Samantha" endlich flirten?
Fest steht, dass es in Zukunft viel mehr verschiedene Chatbot-Persönlichkeiten geben und sich die Nutzungserfahrung stärker unterscheiden wird. Ob es mit den GPTs von OpenAI allerdings eine romantische Beziehung wie zu "Samantha" im Film "Her" geben kann, ist fraglich.
Denn in den GPT-Nutzungsbedingungen von OpenAI sind auch "Adult Content" und "Erotic Chat" ausgeschlossen. Das Risiko, dass "Samantha" gegen die Nutzungsbedingungen verstoßen würde, ist deshalb gegeben. Es muss aber nicht immer auf "Dirty KI-Talk" hinauslaufen: So könnte es etwa möglich sein, einen Freund oder eine Freundin zu kreieren, die einsamen Menschen Gesellschaft leistet.
Kommentare