Science
30.05.2015

Google macht die Hand zur Universalfernbedienung

Die Google-Forschungsabteilung ATAP will mit winzigen Radarchips Hand- und Fingerbewegungen erfassen und so Geräte und Apps steuern.

Project Soli nennt sich das Gestensteuerungsunterfangen, das auf Googles Entwicklungskonferenz I/O vorgestellt wurde, wie thenextweb berichtet. Kernstück ist ein kleiner Chip, der beispielsweise in eine Smartwatch integriert werden kann. An der Entwicklung ist auch die Firma Infineon beteiligt. Durch das Aussenden von Radiowellen und das Analysieren der Rflexionsmuster kann mit dem elektronischen Baustein die Bewegung von Händen und Fingern in Echtzeit erfasst werden. Das Ganze funktioniert genau wie eine Radar-Anlage, nur werden eben Finger statt Flugzeuge getrackt.

Die winzigen, unmerklichen Bewegungen die Hände selbst im Ruhezustand machen, dienen als Basis-Signal. Jede Abweichung, also das Ballen einer Faust oder die Bewegung eines Fingers, verändert das Reflexionsmuster. Mittels intelligenter Algorithmen bringen die Forscher dem System nach und nach bei, verschiedene Bewegungen zu interpretieren.

Das Projekt ist derzeit noch im Anfangsstadium, die Forscher hoffen aber, Soli mittels Google API in möglichst viele Produkte integrieren zu können. Vom Smartphone über Fernseher bis zu Google-Apps könnte theoretisch fast alles mit Hand- und Fingerbewegung gesteuert werden.