ChatGPT kann jetzt "nachdenken", bevor es falsche Antworten gibt
OpenAI hat eine neue Künstliche Intelligenz vorgestellt. Das Large-Language-Model (LLM) OpenAI o1 zeichnet sich dadurch aus, dass es "nachdenken" und "überlegen" und seine Schlussfolgerungen reflektieren kann.
Die KI probiere verschiedene Ansätze aus und erkenne und korrigiere ihre eigenen Fehler, erklären die ChatGPT-Macher in einem Blogbeitrag. Das bedeutet auch, dass OpenAI o1 sich mehr Zeit nimmt, bevor eine Antwort ausgespuckt wird.
➤ Mehr lesen: KI entdeckt Magneten, der Motoren für immer verändern könnte
Deutlich besser in Mathe als ChatGPT 4o
Zielführend ist dieses "Reasoning" vor allem bei mathematischen Aufgaben und beim Programmieren von Software. Das o1-Modell war in der Lage, 83 Prozent der Aufgaben der Internationalen Mathematik-Olympiade zu lösen. Das aktuelle ChatGPT 4o sei lediglich auf 13 Prozent gekommen.
OpenAI o1 befindet sich in einer frühen, öffentlichen Testphase. Es können keine Bilder oder andere Dateien hochgeladen werden und außerdem kann die KI noch nicht im Web nach Informationen suchen.
➤ Mehr lesen: SearchGPT: Das ist OpenAIs Google-Konkurrent
Wissentlich gelogen, Quellen vorgetäuscht
Das Halluzinieren - oder einfach gesagt das Lügen - konnte OpenAI der neuen Künstlichen Intelligenz aber dennoch noch nicht ganz abgewöhnen. Von 100.000 Anfragen hat OpenAI o1 nämlich in 0,38 Prozent der Fälle wissentlich eine falsche Antwort gegeben.
➤ Mehr lesen: Warum die Gemini-KI keine Google-Suche ist
Vorgekommen sei das hauptsächlich dann, wenn OpenAI o1 darum gebeten wurde, auf Quellen zu verweisen - beispielsweise Bücher, Artikel oder Webseiten. Da dies ohne Internetzugang zum Teil unmöglich war, hat die KI einfach plausibel aussehende Quellen erfunden.
OpenAI o1 war sich also im Klaren, dass es eine Antwort nicht weiß. In der Folge hat die KI dann "wissentlich" versucht den Anwender zu täuschen und ihm eine glaubwürdig anmutende Antwort vorgelogen.