Science
27.11.2016

Google-KI entwickelt Sprache, die niemand sonst versteht

Google Translate setzt bereits seit einigen Monaten auf einen selbstlernenden Algorithmus, der Sprachen wie ein Mensch lernen soll. Dieser überraschte nun seine Schöpfer.

Google Translate ist schon seit einigen Monaten mehr als nur ein Wörterbuch. Der Google-Dienst setzt seit September auf „Google Neural Machine Translation“, einem selbstlernenden System, das Sprachen verstehen und wie ein Mensch übersetzen soll. Der Algorithmus ist ähnlich wie ein menschliches Gehirn in neuronalen Netzwerken strukturiert und entwickelt sich auf Basis des Gelernten weiter. Ein Problem für Forscher, denn diese wissen dadurch oftmals selbst nicht, warum das System bestimmte Handlungen durchführt.

Das stellten die Forscher mit sogenannten „Zero Shot“-Übersetzungen auf die Probe. Das System sollte zwischen zwei Sprachen übersetzen, ohne direkte Übersetzungen zu kennen. So wurde dem System, das als „Muttersprache“ auf Englisch setzt, beispielsweise Japanisch und Koreanisch beigebracht. Bereits nach kurzer Zeit konnte das System, ohne auf englische Begriffe zurückzugreifen, direkt zwischen den beiden Sprachen übersetzen

Besser als menschliche Übersetzer

Aufgrund der komplexen Struktur von neuronalen Netzwerken wissen die Forscher selbst nicht genau, wie das möglich ist. Im Zuge einer Studie zeigte sich jedoch, dass das System eine „Übersprache“ entwickelt hat. Dabei werden keine Wort-für-Wort-Übersetzungen gespeichert, sondern Begriffe nach ihrer Bedeutung relativ zueinander sortiert und ausgewertet.

Ebenfalls überraschend: Das System verrichtet seine Arbeit bereits jetzt besser als so mancher Übersetzer. In einem direkten Vergleich produzierte die Google-KI 60 Prozent weniger Übersetzungsfehler als menschliche Kollegen. Im Zuge des Tests mussten einzelne Sätze übersetzt werden.

Auch im Lippenlesen besser als Menschen

Google kündigte zudem an, dass sein KI-Projekt DeepMind ebenfalls einen neuen Erfolg erzielen konnte. Google-Forscher brachten dem System bei, besser Lippen zu lesen als professionelle Lippenleser. Aus 200 ausgewählten TV-Clips konnten die menschlichen Lippenleser lediglich 12,4 Prozent der gesprochenen Worte korrekt wiedergeben, DeepMind schaffte 46,8 Prozent. Das System könnte eingesetzt werden, um automatisiert Untertitel zu erstellen oder um sich ohne Worte mit einem Sprachassistenten zu unterhalten.