Sponsored Content
17.09.2018

HUAWEI Kirin 980 – Der weltweit erste AI Prozessor mit Dual NPU

Der neue HUAWEI Kirin 980 ist der weltweit erste AI Prozessor mit Dual NPU und bietet dank künstlicher Intelligenz maximale Performance und optimale Effizienz.

Auf der Internationalen Rundfunk Ausstellung (IFA) hat HUAWEI Ende August seinen neuen Kirin 980 Prozessor vorgestellt. Es ist der weltweit erste kommerzielle SoC mit Dual NPU (Neural Processing Unit), der nach intensiver dreijähriger Planung mit der 7nm-Prozesstechnologie hergestellt werden kann. Diese bahnbrechende Technologie ermöglicht es, 6.9 Milliarden Transistoren in einer Chipgröße von 1 cm2 abzubilden und wird erstmals in der neuen HUAWEI Mate 20-Serie verbaut. Die Vorstellung der neuen HUAWEI Mate 20 Flaggschiff-Serie findet am 16. Oktober in London statt.

Was ist besser als vorher?

Verglichen mit dem 10-nm-Prozess liefert der 7-nm-Prozess um 20 Prozent verbesserte SoC-Leistung und 40 Prozent verbesserte SoC-Effizienz. Der Kirin 980 ist der erste SoC, der Cortex-A76-Kerne einbindet, die 75 Prozent mehr Leistung und 58 Prozent mehr Effizienz als Vorgängergenerationen bieten. In einer Octa-Core-Konfiguration besteht die CPU aus zwei Cortex-A76-Kernen für maximale Performance, zwei Cortex-A76-Kernen für höchste Leistung und vier Cortex-A55-Kernen für optimale Effizienz. Für ein optimales Nutzererlebnis hat HUAWEI ein Kirin CPU-Subsystem mit Flex-Scheduling-Technologie entwickelt, das den Kernen flexibel passende Aufgaben zuweist.

Das branchenweit erste "Dual-Brain"

Der neueste Kirin SoC repräsentiert eine neue Ära der On-Device AI (Artificial Intelligence). Die Dual NPU erhöht die AI-Erfahrung auf Geräten mit größerer Rechenleistung, was eine deutlich höhere Bilderkennungsfähigkeit ergibt. Der Kirin 980 kann bis zu 4.600 Bilder/Minute erkennen, was ein Plus von 120 Prozent im Vergleich zum Kirin 970 darstellt. Darüber hinaus unterstützt Kirin 980 gängige AI-Frameworks wie Caffee, Tensorflow und Tensorflow Lite und bietet eine Reihe von Tools, die die Entwicklung von AI auf den Geräten vereinfachen und es Entwicklern ermöglichen, die führende Rechenleistung der Dual NPU zu nutzen.