Produkte

Apple will KI direkt auf iPhones laufen lassen

Smartphones, auf denen man KI-Anwendungen mit hoher Geschwindigkeit nutzen kann, setzen zunehmend auf lokale Datenverarbeitung, anstatt ausschließlich auf die Kommunikation mit Servern über Internetverbindungen angewiesen zu sein. Hersteller von Android-Geräten haben dazu schon Entwicklungen angekündigt, wie Android Authority berichtet, von Apple hat man dazu bisher allerdings noch nichts gehört. Nun aber haben Entwickler*innen des Unternehmens einen Fachartikel dazu veröffentlicht.

Vielfach erhöhte Leistung

In dem Artikel wird geschildert, wie Large Language Models (LLMs) lokale Rechenkapazitäten mit limitiertem Arbeitsspeicher nutzen können. Apple-Geräte sind bei der Ausstattung mit RAM üblicherweise eher sparsam. Die Apple-Entwickler*innen sind auf Techniken gestoßen, die eine signifikante Leistungssteigerung beim direkten Umgang mit KI-Anwendungen bringen. Die Rede ist von 4 bis 5-facher bzw. 20 bis 25-facher Steigerung bei CPU und GPU im Vergleich zu herkömmlichen Ladevorgängen.

➤ Mehr lesen: Künstliche Intelligenz sagt voraus, wann man stirbt

Ältere iPhone-Generationen inkludiert

Die Resultate könnten bedeuten, dass man nicht unbedingt die neuesten Smartphones dafür benötigt, um bei Chats mit ChatGPT oder anderen LLMs Reaktionszeiten zu erhalten, die in etwa jenen in einem natürlichen Gespräch entsprechen würden. In den Genuss von Apples Erkenntnissen könnten in Zukunft also auch Nutzer älterer iPhone-Generationen kommen.

Klicken Sie hier für die Newsletteranmeldung

Hat dir der Artikel gefallen? Jetzt teilen!