Science
29.03.2017

MIT will neuronale Netzwerke am Handy nutzbar machen

Smartphones schicken für viele Aufgaben Daten zur Verarbeitung in die Cloud. Das ist langsam und schlecht für den Datenschutz. Vivienne Sze arbeitet an einer lokalen Lösung.

Künstliche Intelligenz ist in aller Munde. Glaubt man den Prognosen werden Computer in Zukunft Dinge tun können, von denen wir heute nur träumen können. Ein wichtiges Einsatzgebiet liegt im Bereich der Bilderkennung. Durch neuronale Netzwerke können Computer lernen, Personen und Objekte in Bildern sehr effizient zu erkennen und ihre Umgebung zu „sehen“. Das ist in vielen Bereichen, etwa bei selbstfahrenden Autos essentiell.

Aber auch für Smartphones eröffnet das neue Möglichkeiten. „Bei der Kategorisierung von Bildern und dem Erkennen der Motive sind neuronale Netzwerke bereits gleich gut oder besser als Menschen. In der Spracherkennung gibt es ebenfalls große Fortschritte“, sagt Vivienne Sze vom MIT bei ihrem Vortrag im Rahmen der MIT Europe Conference, die von der WKO in Wien ausgerichtet wurde.

Das Problem ist, dass die neuronalen Netzwerke derzeit einen enormen Hunger nach Speicher und Energie haben, was die Verarbeitung von Daten mit dieser Technik auf Geräten wie Smartphones oder auch Bordcomputern verhindert. Deshalb werden entsprechende Aufgaben zumeist in Rechenzentren gelöst. Diese Auslagerung der Daten in die Cloud bringt einige Probleme mit sich. Einerseits ist der Datenschutz schwer zu gewährleisten, wenn Bildinformationen übermittelt werden müssen.

„Wenn wir in Zukunft Blinden mit Technik ihr Augenlicht zurückgeben können, wollen die Betroffenen wahrscheinlich nicht, dass alles, was sie sehen, zur Verarbeitung in die Wolke geschickt wird“, sagt Sze. Andererseits sind Latenz und Zeitverlust bei der Datenübertragung für viele Aufgaben zu groß. Ein selbstfahrendes Auto, das seine Umgebung in Echtzeit erkennen soll, kann dadurch große Probleme bekommen.

Spezieller Chip

Sze arbeitet an einem möglichen Ausweg. Mit ihrem Team entwickelt sie spezielle Hardware, die es erlaubt, neuronale Netzwerke energieeffizient lokal zu nutzen. „Wir haben den nur vier mal vier Millimeter großen Eyeriss-Chip entwickelt, der im Vergleich zu einem Grafikchip 20 Mal weniger Energie benötigt, um ein Bild zu analysieren. Wir kommen mit 278 Milliwatt Leistungsaufnahme aus. Wenn wir dem System ein Bild mit Hund zeigen, kann es sehr schnell und energieeffizient feststellen, dass in der Aufnahme ein Corgi zu sehen ist“, sagt Sze. Möglich wird das durch eine Architektur, die auf hochgradig parallele Datenverarbeitung ausgelegt ist. Ein global genutzter, kostengünstiger Speicher und die Vermeidung unnötiger Datentransfers innerhalb des Chips ermöglichen die verbesserte Bilanz.

Der Energiebedarf ist aber immer noch 100 bis 1000 Mal höher als etwa bei der Dekomprimierung von Videodateien. Am MIT wird weiter daran gearbeitet, die Bilanz zu verbessern. Derzeit wird etwa daran gearbeitet, Echtzeitnavigation für eine Mikrodrohne, die in eine Handfläche passt, zu entwickeln. Eine Verbindung zum Internet bräuchte eine solche Drohne dann nicht mehr, um sich in ihrer Umgebung zurechtzufinden. "Bilder und Videos machen den Großteil der im Internet übertragenen Daten aus. Hier wird es eine Vielzahl möglicher Anwendungen für unsere Technik geben", sagt Sze.