Science

Österreicher tüfteln an Computerchips, die wie ein Gehirn funktionieren

Ende Mai stellte Nvidia einen neuen Supercomputer vor: 256 Superchips, 144 Terabyte Grafikspeicher, 240 Kilometer Glasfaserkabel und mehr als 2.000 Lüfter, die die Maschine kühlen. Laut dem Unternehmen kann der Supercomputer als eine 18 Tonnen schwere Grafikkarte angesehen werden. Die einzige Aufgabe dieser “Super-Grafikkarte”: KI-Modelle trainieren und verbessern.

Mehr lesen: Nvidias neuer Supercomputer soll neue KI-Ära einläuten

Ein Feld der KI-Technologie, neuronales Lernen, gewinnt durch intelligente Chatbots wie ChatGPT oder Bildgeneratoren wie Midjourney und Dall-E immer mehr an Bedeutung. Die Technik wird allerdings nicht nur bei generativer KI eingesetzt, die selbst Inhalte produziert, sondern auch bei Modellen, die Daten unterscheiden und in bestimmte Klassen einordnen können (sogenannte “discriminative AI”).

Beide Modelle arbeiten mit neuronalen Netzwerken, die die Funktion vernetzter Neuronen in unserem Gehirn nachbilden sollen. Werden diese Netzwerke mit genügend Daten trainiert, “lernen” sie dazu und können etwa Tumore auf Röntgenbildern erkennen, Sätze bilden oder auch Stimmen nachahmen. 

Enorme Rechenleistung nötig

Künstliche Intelligenz benötigt enorme Rechenleistungen. Man fühlt sich in die Zeit zurückgesetzt, in denen tonnenschwere Computer ganze Räume ausfüllten, um ihre Berechnungen durchzuführen.

Die Computer brauchen nicht nur Platz, sondern sind auch extrem energiehungrig. Datenzentren verschlingen nicht nur Strom für die komplexen Rechenschritte, sondern vor allem für das Kühlen der Geräte, die enorme Datenmengen verarbeiten müssen.

➤ Mehr lesen: Wie viel Energie verschlingt ChatGPT?

Der herkömmliche Ansatz, Computerchips mit ihren Transistoren und Datenpfaden herzustellen, stößt bereits an seine physikalischen Grenzen. Seit Jahrzehnten schrumpft die Größe der Transistoren auf heutzutage weniger als 5 Nanometer pro Knoten. Zum Vergleich: der Durchmesser eines Siliciumatoms beträgt etwa 0,2 Nanometer.

Neuromorphe Chips als Gamechanger

Eine Lösung, um Computerchips noch effizienter und leistungsfähiger zu machen, sind neuromorphe Chips. Ihr Design ist auf künstliche Intelligenz und neuronales Lernen ausgerichtet. Wie das menschliche Gehirn können sie sich während des Trainings mit Bildern oder Tönen anpassen und daraus lernen. Große Datenmengen können so in Echtzeit verarbeitet werden, und das äußerst energieeffizient.

Beim EU-Forschungsprojekt NimbleAI soll in den kommenden 3 Jahren ein solcher neuromorpher Computerchip entwickelt lernen. Aus Österreich arbeiten das Start-up Viewpointsystem, das Automotive-Unternehmen AVL List und die TU Wien an dem Projekt mit.

Die Projektpartner von NimbleAI haben dabei ein Ziel vor Augen: Die Energieeffizienz im Vergleich mit herkömmlichen Chips soll um das Hundertfache verbessert werden. Die Latenzzeit - also die Zeit, die von der Wahrnehmung durch den Sensor bis zum Ende der Datenverarbeitung vergeht - soll wiederum um das 50-fache abnehmen.

Das österreichische Team hinter NimbleAI: Radu Grosu und Felix Resch (TU Wien), Peter Priller und Darko Stern (AVL) und Bastian Weiß sowie Alejandro Hernán Gloriani (Viewpointsystem).

Praktische Anwendungsfälle

“Wir schauen, was die Biologie bereits erreicht hat”, erklärt Peter Priller vom Grazer Automobilunternehmen AVL List der futurezone. “Das menschliche Gehirn ist extrem optimiert und überaus effizient - es braucht nur rund 20 bis 30 Watt und erreicht damit unglaubliche Dinge.”

Die Projektpartner aus Österreich fokussieren sich dabei besonders auf praktische Anwendungsfälle. Das Unternehmen Viewpointsystem produziert etwa Brillen, die Augenbewegungen aufzeichnen können. Diese Brille könnte von einem neuromorphen Chip profitieren.

➤ Mehr lesen: Warum die ÖBB Augenbewegungen der Mitarbeiter aufnimmt

Das System wird unter anderem im Verschub der ÖBB verwendet, um Mitarbeiter*innen zu schulen. Die Brille zeichnet dabei jeden Blick der Mitarbeiter*innen auf und zeigt, ob man während der Arbeit abgelenkt wurde oder worauf man sich konzentriert.

Bislang benötigt man zusätzlich zur Brille ein externes Gerät, das man sich am Gürtel befestigt und Akku sowie Technik beinhaltet. Außerdem braucht man ein externes System, um die Augenbewegungen später auszuwerten. Mit einem neuromorphen Chip könnte externe Geräte überflüssig werden. Die Auswertung der Augenbewegungen würde dann direkt in der Brille stattfinden, in der auch ein kleiner Akku eingebaut wäre.

Fortschritt bei autonomen Fahrzeugen

Die TU Wien und AVL List prüfen wiederum Möglichkeiten von neuromorphen Chips bei autonomen Fahrzeugen. Um der Masse an Bilddaten, die ein selbstfahrendes Auto aufnimmt, Herr zu werden, greifen die Forscher*innen zunächst einmal in die Trickkiste.

Eventbasierte Kameras registrieren nur Dinge, die sich in einem Bild verändern - ähnlich wie unser Gehirn, das auch Änderungen eher wahrnimmt und die gleichbleibende Umgebung drumherum ausblendet. “Es ist ein Proof of Concept-Projekt, das herausfinden soll, wo solche neuromorphen Chips überhaupt eingesetzt werden können. Unsere Datensammlung und die Chipentwicklung gehen Hand in Hand”, sagt Felix Resch von der TU Wien. In Österreich arbeite man die Anforderungen an einen solchen Chip aus, die dann an andere Partner*innen weitergegeben werden.

Am Ende des 3-jährigen Projekts wird man somit noch keinen fix fertigen Chip haben, aber zumindest Komponenten, die zusammen funktionieren. Aus diesem Basiswissen können die nächste Generation von Computerchips in Europa entstehen. Innerhalb von 10 Jahren, so schätzen die Experten, sei man so weit, komplette neuromorphe Chips für verschiedenste Anwendungen herzustellen.

Klicken Sie hier für die Newsletteranmeldung

Hat dir der Artikel gefallen? Jetzt teilen!

Marcel Strobl

marcel_stro

Ich interessiere mich vor allem für Klima- und Wissenschaftsthemen. Aber auch das ein oder andere Gadget kann mich entzücken.

mehr lesen