Autos werden künftig mit Sprache gesteuert
Die künstliche Intelligenz der TV-Serie Knight Rider ist zwar bei weitem noch nicht erreicht, aber zumindest rudimentär können Lenker bereits mit ihrem Auto via Sprache kommunizieren. Ford hat mit seiner Sync-Lösung bereits vor Jahren mit der Forschung zu Spracheingabe begonnen. Nun ziehen andere Firmen nach und bieten ebenfalls spachgesteuerte Systeme an. Mercedes hat beispielsweise in der neuen A-Klasse, die beim Genfer Autosalon präsentiert wurde, ein neues Entertainment-System vorgestellt, das auf Apples Siri zurückgreift.
Siri rückt Sprache ins Zentrum
„Apple hat hier einiges bewegt. Sprache ist wieder ins Bewusstsein der Menschen gerückt", sagt Brigitte Richardson, Speech Systems Lead Engineer bei Ford, zur futurezone. Der US-Konzern bietet Sprachsteuerung im Auto seit 2007 an und ist Vorreiter auf dem Gebiet. Kooperiert wird wie bei Apple mit dem führenden Anbieter, Nuance. Seit dem Hype rund um iPhone 4S und Siri habe der Konzern ein gesteigertes Interesse an dieser Technik bemerkt. Laut Richardson wird nun öfter aktiv danach gefragt. Jene vier Millionen Lenker, die es in Ford-Fahrzeugen ohnehin bereits integriert haben, entdecken es nun neu.
Mehr Sicherheit und mehr Konzentration
Mit ein Grund für den verstärkten Einsatz von Sprache ist die wachsende Vielfalt an Funktionen im Cockpit. Vor allem die Integration von E-Mail, Apps wie Facebook und Twitter sowie dem Internet verlangt nach neuen Bedienkonzepten. Fahrer wollen dies im Auto nutzen, Hersteller müssen dafür sorgen, dass sie dabei so wenig abgelenkt wie möglich sind, erklärt Richardson. Bei Texten und Nachrichten setzt man auf Sprachausgabe, bei der Steuerung auf Sprachbefehle.
„Es ist eine sehr natürliche Art der Bedienung und sicherer als mit dem Finger herumzutippen", sagt Richardson. Man müsse nicht viel erklären, Nutzer finden sich schnell zurecht. Damit alles einwandfrei funktioniert, hat Ford jedoch viel Know-how sammeln müssen. „Wir arbeiten extrem viel mit Synonymen. Auch Dialekte müssen bis zu einem gewissen Grad berücksichtigt werden", sagt Richardson. Dies stellt, wie bei allen aktuellen Sprachsystemen, die größte Herausforderung dar. Im Auto ist der Forscherin zufolge die Problematik sogar verschärft. „Wenn man genau und präzise aussprechen muss, bedeutet das mehr Aufwand und Konzentrationsverlust seitens des Fahrers. Das ist kontraproduktiv."
Knappe Worte für aufwendige Funktionen
Der Detailgrad kann laut der Wissenschaftlerin jedoch gut eingegrenzt werden, da Fahrer sehr zielgerichtet mit dem System sprechen. „Nutzer wollen zwar ein System, das den natürlichen Sprachgebrauch versteht. In der Praxis findet aber nie eine Konversation statt. Man gibt kurze, prägnante Anweisungen", so Richardson.
Untersuchungen von Ford zum Sprachgebrauch haben keine Überraschungen gebracht. Die Funktion wird vor allem für das Ansagen von Adressen verwendet. Auch die Suche nach bestimmten Liedern oder einer Radiostation wird bevorzugt via Sprache erledigt. „Alles was schneller als Touch oder Knöpfe drücken ist, wird gesprochen", so Richardson. Die Lautstärke werde weiterhin mit einem Drehregler justiert. Bei der Klimanlage bevorzugen Lenker wiederum die direkte Ansage der gewünschten Temperatur. Anhand der Untersuchung ist laut Richardson jedenfalls klar, dass Sprache nur eine Ergänzung ist. „Klassische Knöpfe oder Touchscreens wird es weiterhin geben."
Bessere Chips für schnellere Spracherkennung
Dass Sprache in den nächsten Jahren noch stärker im Auto vertreten sein wird – Ford rechnet mit 3,5 Millionen Sync-Autos in Europa bis 2015 - hängt auch mit besserer Technik zusammen. Für die Sprachverarbeitung braucht man kleine, leistungsstarke Chips, die nun verfügbar werden. In diesem Bereich will vor allem Intel punkten. Autos mit Intel-Inside kommen dieses Jahr erstmals auf den Markt (BMW 7ern, Mercedes C/S). „Wir forschen intensiv zu Eingabemethoden und haben viele Nutzungsstudien", sagt Staci Palmer zur futurezone. Sie ist bei Intel für den Automobilbereich zuständig. Laut Palmer überlegt Intel, wie man etwa Gestenerkennung oder Sprache auf Prozessor-Ebene unterstützen kann. All die digitalen Assistenten, das Entertainment-System, die Kameras und Sensoren brauchen viel Rechenleistung. Künftig kommt nun auch Sprachdekodierung hinzu, was in der Architektur berücksichtigt werden muss, so die Managerin.
Das Auto und die Wolke
Ein weiterer Grund für die Verbreitung von Sprachbefehlen im Cockpit ist der Zugang zum Internet. Mercedes Comand Online, das Sprachbefehle beherrscht, ist etwa permanent mit dem Netz verbunden. Hyundais Telematik- und Entertainment-Lösung Blue Link bietet ebenfalls Spracherkennung und ist immer online. Ford hat aktuell eine Sprachdatenbank (über 10000 Begriffe) fix im Auto. Bei Bedarf kann wie bei Siri auf die Cloud zurückgegriffen werden.
Auf der Überholspur mit LTE
Laut Richardson bewegt sich die Forschung klar in diese Richtung, da sich bei Autos – auch durch den Fokus auf Telematik - Always-Online durchsetzt. „2016 sind alle neuen Autos online", sagt Tim Nixon von GM zur futurezone. Durch die permanente Anbindung ans Internet werden auch im Auto Cloud-Dienste oder ausgelagerte Rechenaufgaben möglich.
BMW zusammen mit Telefonica und Audi mit Alcatel testen unabhängig voneinander bereits LTE im Auto. Mit der Funktechnik soll es auch bei hohen Geschwindigkeiten auf der Autobahn zu schnellem Surf-Tempo (bis zu 70MBit/s) im Auto kommen. GM hat ebenfalls ein Datenmodem auf Basis von LTE im Test, das für Telematik, aber auch Entertainment konzipiert ist. „Wir arbeiten in der Entwicklung nur mehr mit 4G", sagt auch Mitchell Zarders von Kia. Laut dem Forscher sollen basierend auf diesem Standard und der schnellen Anbindung dann auch Augmented-Reality-Lösungen einfacher umzusetzen sein.
- "Apps im Auto sind genauso wichtig wie PS"
- Elektroautos: Umstieg für Mehrheit sinnvoll
- Eine Schnittstelle für Europas Verkehrsinfos
- Audi plant Autopiloten für Staus und Parken