Produkte

Was die Apple-KI besser macht als ChatGPT und Google Gemini

Geht es heute um Künstliche Intelligenz, wird als allererstes vermutlich ChatGPT genannt, möglicherweise auch Google mit seinem Gemini-Modell oder Samsung mit dem Galaxy S24. Apple würde wohl kaum jemanden in den Sinn kommen, wenn es um KI geht.

Es wurde schon gemunkelt, der iPhone-Gigant hätte den KI-Trend verschlafen. Dem ist aber ganz und gar nicht so, wie ein aktuelles Paper zeigt. Darin ist beschrieben, wie das neue KI-Sprachmodell MM1 von Apple funktioniert.

➤ Mehr lesen: Diese KI-Features sollen mit iOS 18 auf die iPhones kommen

Bei MM1 handelt es sich um ein multimodales Modell, das sowohl mit Text als auch mit Bildern umgehen kann. Von seiner Leistungsfähigkeit her soll es vergleichbar mit Metas Llama 2 oder Googles Gemini sein. Hinter den Kulissen macht Apple aber entscheidende Schritte ganz anders als die Konkurrenz.

Was kann das Apple-Sprachmodell?

Anhand eines Beispiels erklären die Autor*innen, was das KI-Sprachmodell kann: Ein Foto eines Tisches, auf dem 2 Bierflaschen stehen, wurde mit einem Foto der Getränkekarte gepaart. Fragt man per Text oder Sprachbefehl, wie viel die Rechnung ausmacht, liefert die AI den Gesamtbetrag.

Ein anderes KI-Modell von Apple ist zudem in der Lage, Bilder anhand von Sprachbefehlen zu bearbeiten. Sagt man dem MGIE-Modell (MLLM-Guided Image Editing) es soll ein Bild heller machen, den Fokus auf eine Person richten oder überhaupt eine Pizza gesünder aussehen lassen, kann die KI diese Wünsche umsetzen.

➤ Mehr lesen: Samsung Galaxy S24 im Test: So schlägt sich das KI-Handy

Screenshot aus dem Paper zum MM1-Modell

Was macht Apple anders?

Das MM1-Sprachmodell ist vergleichsweise klein und kommt auf 70 Milliarden Parameter. GPT4 von OpenMind soll hingegen mehr als eine Billion Parameter aufweisen. Das sei aber kein Nachteil, ganz im Gegenteil, wie Kate Saenko gegenüber Wired erklärt. Sie ist Professorin für Machine Learning an der Boston University.

Wegen der geringen Größe könnte Apple sein Sprachmodell effizient auf bestimmte Funktionen trainieren und gar nicht erst den Anspruch verfolgen, ein allumfassendes LLM zu entwickeln. Denkbar wären hier natürlich entsprechende Features auf einem iPhone in Kombination mit dem Sprachassistenzsystem Siri.

➤ Mehr lesen: Wie man die Google-KI Gemini bereits in Österreich nutzt

Weil das KI-Sprachmodell so kompakt ist, könnte es eventuell sämtlich Prompts direkt auf dem Gerät verarbeiten und keine Daten in die Cloud senden. Das würde Vorteile im Hinblick auf Datenschutz und laufende Kosten bringen.  

Die Entwicklung eines solchen LLM würde für Apple auch insofern Sinn machen, als der Konzern die volle Kontrolle über Hardware und Software hat. Dadurch könnte ein KI-Sprachmodell möglichst effizient an die iPhones angepasst werden. Es darf auch erwartet werden, dass das MM1-Sprachmodell mit den Fähigkeiten des MGIE-Modells zum Bearbeiten von Bildern verschränkt wird.

➤ Mehr lesen: “Der König ist tot”: Diese KI schlägt GPT-4 in großem Vergleich

Screenshot aus dem Paper über das MGIE-Modell

Kommen die KI-Modelle nun auf die iPhones?

Ob die KI-Modelle MM1 und MGIE tatsächlich demnächst auf den iPhones zur Anwendung kommen, ist völlig unklar. Dieses Thema wird in den Fachartikeln mit keinem Wort erwähnt. Es liegen auch keine Informationen darüber vor, wie praxistauglich die beiden Modell derzeit sind. Man kann aber davon ausgehen, dass die Entwicklung mittlerweile weiter fortgeschritten ist, als in den publizierten Papers.

Dass mit iOS 18 etliche KI-Funktionen auf die iPhones kommen sollen, wird als fix angesehen. Die Neuheiten dazu werden im Juni auf der WWDC erwartet. Zuletzt gab es Gerüchte darüber, dass Apple bei diesen AI-Features auf Googles Gemini zurückgreifen könnte - ähnlich als es bei der Online-Suche auf den Apple-Geräten der Fall ist. 

➤ Mehr lesen: Apple will Googles KI in iPhones integrieren

Klicken Sie hier für die Newsletteranmeldung

Hat dir der Artikel gefallen? Jetzt teilen!