Produkte

OpenAI hat mit Training von GPT-4-Nachfolger begonnen

OpenAI hat verkündet, dass es an einem Nachfolger von GPT-4 arbeitet. Zu lesen ist das in einem Blogpost, in dem es eigentlich um die Schaffung eines Sicherheitskomitees geht, wie die New York Times entdeckt hat.  

In dem Eintrag heißt es: "OpenAI hat vor kurzem mit dem Training seines nächsten Modells begonnen und wir gehen davon aus, dass die daraus resultierenden Systeme uns auf die nächste Leistungsebene bringen werden". Der GPT-4-Nachfolger könnte künftig für Chatbots wie ChatGPT verwendet werden, aber auch für digitale Assistenten wie Siri von Apple, Suchmaschinen und Bildgeneratoren.

➤ Mehr lesen: Scarlett Johansson streitet mit OpenAI: KI-Stimme klingt wie ihre

Entwicklung wird noch einige Monate dauern

Die aktuelle Version hinter ChatGPT, das Model GPT-4 wurde im März 2023 veröffentlicht. Erst kürzlich veröffentlichte OpenAI eine leicht verbesserte Version davon, die es GPT-4o getauft hat. KI-Modelle lernen automatisch durch die Analysen von großen Datenmengen. Dazu können Texte aus dem Internet und Büchern gehören, aber auch Filme, Musik und andere Daten. 

Das Training von solchen Modellen dauert zwischen einigen Monaten und mehreren Jahren. Ist die Trainingsphase abgeschlossen, testen die KI-Firmen ihre Modelle in der Regel für einige Monate, bis diese der Allgemeinheit zur Verfügung gestellt werden. Es dürfte daher noch mindestens 9 Monate dauern, bis das neue Modell kommt. 

➤ Mehr lesen: Neuronale Netze: Wie eine Künstliche Intelligenz laufend dazulernt

KI-Sicherheit bei OpenAI bleibt heikles Thema

Nach der Ansicht des Journalisten Cade Metz von der New York Times würde OpenAI versuchen, im KI-Bereich schneller als seine Konkurrenten zu sein. Gegenstimmen mahnen allerdings, dass die Entwicklung im KI-Bereich zu schnell vonstatten gehe und die Technologie allmählich zu einer Gefahr für die Menschheit werde, weil sie Menschen Jobs wegnehmen und Falschinformationen verbreiten kann. 

Das neue Sicherheitskomitee soll laut dem Blogpost untersuchen, wie man mit den Risiken der KI am besten umgeht. Bereits in der Vergangenheit gab es ähnliche Versuche bei OpenAI, deren Erfolge jedoch angezweifelt werden. 

Erst kürzlich verließ der ehemalige Sicherheitschef und Mitgründer von OpenAI, Ilya Sutskever, das Unternehmen. Er war der Meinung, dass sich das KI-Unternehmen generell zu wenig um die KI-Sicherheit sorgte. Im Herbst des vergangenen Jahres war Sutskever maßgeblich an dem Rauswurf von OpenAI-Chef Sam Altman aus dem Aufsichtsrat beteiligt – nach seiner Ansicht, kümmerte sich Altman zu wenig um die KI-Sicherheit bei OpenAI. Sutskever hat das Unternehmen im Mai verlassen, während Sam Altman bereits kurze Zeit nach seinem Rausschmiss vergangenes Jahr wieder zurück ins Unternehmen geholt wurde.

➤ Mehr lesen: Tumulte bei OpenAI: Was hinter dem Chaos beim ChatGPT-Macher steckt

Klicken Sie hier für die Newsletteranmeldung

Hat dir der Artikel gefallen? Jetzt teilen!