
DeepSeek hat erstaunliches geschafft, wie genau, weiß derzeit kaum jemand.
DeepSeek: Chinas neue KI lässt die USA zittern
Ende Dezember stellte ein chinesisches KI-Labor namens DeepSeek ein leistungsstarkes KI-Modell vor. Dahinter soll ein chinesischer Hedgefonds namens High-Flyer Quant stehen. Die Chinesen behaupteten damals, dass ihr Modell den Modellen von US-Firmen wie OpenAI leistungstechnisch überlegen sei. Außerdem sagten sie, dass es mit weniger leistungsstarken Chips trainiert worden sei und mit unter 6 Millionen Dollar Kosten viel günstiger gewesen sei als vergleichbare US-Modelle.
➤ Mehr lesen: Offenes KI-Modell aus China soll OpenAI und Meta überbieten
DeepSeek schlägt Llama und o1
Nun wurden jedoch eine Reihe von unabhängigen Benchmark-Tests durchgeführt, die die Leistung von DeepSeek mit Metas Llama 3.1, OpenAIs GPT-4o und Anthropics Claude Sonnet 3.5 verglichen. Es zeigte sich, dass das chinesische Modell die amerikanischen bei Aufgabenstellungen wie dem Lösen komplexer Probleme, Rechenaufgaben und Programmieren übertreffen konnte, wie CNBC berichtet.
Zudem stellte DeepSeek am Montag ein neues Modell namens r1 vor, das auf logisches Denken spezialisiert ist und in den Vergleichstests ebenfalls besser abschnitt als OpenAIs o1.
Microsoft-Chef beeindruckt
Auch beim Weltwirtschaftsforum in Davos spricht die Wirtschaftselite über die chinesischen Entwicklungen im KI-Bereich. „Wir sollten diese Entwicklungen aus China sehr, sehr ernst nehmen“, meinte etwa Microsoft-Chef Satya Nadella. „DeepSeeks neues Modell zu sehen, ist wirklich beeindruckend, sowohl in Bezug auf die effektive Umsetzung eines Open-Source-Modells, das diese rechenzeitoptimierte Leistung liefert, als auch bezüglich seiner hohen Effizienz“, erklärte Nadella.
In den USA beobachtet man die chinesischen Entwicklungen im KI-Bereich nun zunehmend nervös. Es stellt sich die Frage, ob die globale US-Führungsposition bei der Künstlichen Intelligenz tatsächlich aufrechterhalten werden kann. Denn in den USA wird weitaus mehr Geld in die KI-Entwicklung gesteckt.
➤ Mehr lesen: Xiaomi will 2025 mit eigenen Chips gegen Qualcomm antreten
Chips oder anderes Training?
Man fragt sich, wie das chinesische Labor es mit so wenig Budget und trotz der verhängten Beschränkungen für leistungsstarke Chips, die man für das KI-Training benötigt – wie die Nvidia H100 –, geschafft hat, solche großartigen Ergebnisse zu erzielen.
Eine Erklärung könnte sein, dass DeepSeek es irgendwie geschafft hat, die US-Exportbeschränkungen zu umgehen. Es könnte andererseits aber auch sein, dass sie neue Trainingsansätze verwendet haben, die viel effizienter sind und amerikanische Leistungen in den Schatten stellen.
Kommentare