Digital Life
09.11.2017

Google: "Die KI ist nicht wie wir Menschen"

Google-Forscher Jeremiah Harmsen hat auf dem futurezone day 2017 erzählt, wie dank Machine Learning aus einem Aprilscherz Wirklichkeit wurde.

Google-Forscher Jeremia Harmsen hat am Donnerstag mit seiner Keynote den futurezone day im Wiener Atelierhaus der Akademie der Bildenden Künste eröffnet (zum Vorab-Interview). Harmsen forscht bei Google Zürich an den Themen künstliche Intelligenz und Machine Learning und brachte den rund 200 Teilnehmern ebendiese Themen näher.

KI: Mathematik statt Menschen

„Wir sind Architekten. Wir bauen die Infrastruktur, die von den Programmierern genutzt wird“, erklärt Harmsen. Bereits zu Beginn nimmt Harmsen eine wichtige Unterscheidung vor: „Wenn wir von künstlicher Intelligenz reden, meinen wir damit, dass wir bestimmte Produkte smarter machen.“ Ein System müsse kein Bewusstsein entwickeln, um als intelligent zu gelten.

Da das Thema künstliche Intelligenz derzeit ziemlich kontrovers diskutiert und oftmals mit Endzeit-Szenarien in Zusammenhang gebracht wird, versucht Harmsen zu beruhigen: „Eine KI muss nichts mit Robotern zu tun haben. Eine KI sind außerdem nicht wir, das basiert nach wie vor auf jahrzehntealter Mathematik.“

Regionale Unterschiede

Google integriert bereits seit einigen Jahren besonders intensiv Machine Learning in seine Produkte. „Das ist wohl der spannendste Teil meiner Arbeit: An Produkten zu arbeiten, die von Milliarden Menschen genutzt werden.“ Aktuell versucht sich der US-Konzern, abgesehen vom eher an kuriosen Experimenten

So sorgte beispielsweise das Web-Projekt „Quick Draw“für Aufsehen. Bei diesem Scharade-ähnlichen Mini-Spiel musste der Nutzer ein Objekt zeichnen und das Machine-Learning-System rät, um was es sich handeln könnte. Dabei wurden mehr als 800 Millionen Objektpaare aus 180 verschiedenen Ländern gesammelt. Insbesondere die kulturelle Vielfalt erwies sich als wertvoll. Bestimmte Objekte werden, je nach Region, anders dargestellt.

Vom Aprilscherz zur Wirklichkeit

„Wenn wir nur Daten aus den USA verwenden würden, ließe sich vielleicht ein Produkt in anderen Teilen der Welt nicht richtig verwenden“, sagt Harmsen. „Machine Learning ist nur so gut wie die Daten, die darin einfließen.“ Wenn die Daten eine Minderheit vernachlässigen, verfälscht das auch die Ergebnisse. Derartig verfälschten Daten müssen früh erkannt werden, denn oft sei es später schwierig nachzuvollziehen, warum ein Machine-Learning-System auf eine bestimmte Art und Weise handelt.

Machine Learning habe es Google auch ermöglicht, Funktionen wie „Smart Reply“ umzusetzen. Diese schlägt Nutzern selbstständig Antworten auf E-Mails vor. „Das war 2009 noch ein Aprilscherz“, sagt Harmsen. Auch bei der Spracherkennung sowie Googles Übersetzer-App „Translate“ kommen mittlerweile entsprechende Technologien zum Einsatz. Google Translate habe dank Deep Learning sogar Sprachen lernen können, für die es eigentlich gar keine Datensätze hatte. „Das nennt man ‚Zero Shot Learning‘, das ist selbst für mich unglaublich.“

Fitness-Tracker für Kühe

Google stellt mit TensorFlow bereits seit einiger Zeit sein Framework für Machine Learning zur freien Verfügung bereit. Zudem bietet der Suchmaschinenkonzern einen auf Machine Learning angepassten Prozessor namens „Tensor Processing Unit“ an. Mehrere Unternehmen und Start-ups nutzen diese Technologien. So baut das niederländische Start-up „ida“ einen Fitness-Tracker für Kühe.

Basierend auf verschiedenen Sensordaten wird erfasst, ob sich die Kuh ausreichend bewegt und gesund ist. Ein Gurken-Farmer nutzte zudem die Kombination aus Raspberry Pi 3 und TensorFlow, um automatisiert Gurken nach Größe und Qualität zu sortieren.

Ich sehe viel Furcht

Im Anschluss an den Vortrag von Harmsen gab es eine Podiumsdiskussion, an der neben ihm auch Stephan Jung vom Start-up-Campus Wexelerate, Brigitte Krenn vom Austrian Research Institute for Articial Intelligence (OFAI), Francisco Webber vom KI-Start-up Cortical.io sowie Barbara Ondrisek von der Chatbot Agency teilnahmen.

Dass künstlicher Intelligenz nichts mit menschlicher Intelligenz zu tun haben muss, betont auch Brigitte Krenn vom OFAI: „Es kommt darauf an, wie man Intelligenz definiert. Wenn man menschliche Maßstäbe anlegen will: Nicht einmal die Wissenschaft weiß genau, wie das menschliche Gehirn funktioniert.“

"Verkaufen mehr, als sie können"

Sie empfindet aber vielmehr den inflationären Einsatz des Begriffs künstliche Intelligenz bei Start-ups als Problem: „Ich mache viele Kooperationen mit Start-ups. Diese sagen oft, dass künstliche Intelligenz ihre Probleme lösen könnten. Zahlreiche Unternehmen versuchen dann, ihnen entsprechende Lösungen zu verkaufen. Aber man kann nicht alle Probleme damit lösen.“

Jung vom Wiener Start-up-Campus Wexelerate verteidigt aber den Trend, viele Start-ups entwickeln tatsächlich derartige Technologien: „Die meisten unserer Start-ups haben zumindest entfernt etwas mit künstlicher Intelligenz zu tun.“

Auch Chatbot-Expertin Ondrisek sieht den aktuellen Hype kritisch: „Viele Unternehmen verkaufen mehr als sie können. Wir werden auch häufig von Firmen kontaktiert, die selbstlernende Assistenten als Chatbots haben wollen. Wir müssen ihnen dann erklären, dass das nicht geht.“ Auch IBM habe diesen Fehler gemacht. Der US-Konzern bewarb seine KI-Technologie Watson als ideale Lösung für die Medizin, doch viele Ärzte zeigte sich davon im Einsatz enttäuscht.

Schlechte Energiebilanz

Krenn (Cortical.io) hat eine relativ einfache Lösung für dieses Problem: „Wir nennen unsere Lösungen üblicherweise nicht Künstliche Intelligenz.“ Laut Krenn sei Machine Learning bei der Energiebilanz noch verbesserungswürdig: „Wir müssen mehrere Kilowatt Energie investieren, um herauszufinden, dass es sich bei einem Bild um einen Hund handelt. Eine Dreijährige schafft das vielleicht mit fünf Watt Energie.“

Während viele Unternehmen große Hoffnungen in KI-Technologien setzen, genießt der Begriff künstliche Intelligenz in der Öffentlichkeit keinen guten Ruf. „Ich sehe in der Öffentlichkeit viel Furcht. Diese wird auch von den Medien befeuert, basiert aber auch oft auf Missverständnissen“, sagt Krenn. “Wir vermenschlichen viele Dinge, auch Roboter.“ Szenarien von einem möglichen Ende der Menschheit, wie sie beispielsweise Stephen Hawking und Elon Musk heraufbeschwören, werden aber von allen als überzogen angesehen.

Warnungen von Musk und Hawking überzogen

„Ich glaube, dass es wichtig ist, dass es Menschen wie Elon Musk gibt, die vor einer möglichen Bedrohung warnen. Aber die Art der Warnung ist meiner Meinung nach Unsinn“, sagt Ondrisek. „Es kann natürlich auch sein, dass wir Angst vor den Maschinen haben, weil wir Angst haben, dass sie genauso böse und gierig sind wie wir.“ Die wichtigen Fragen seien vielmehr, wer den Zugriff und Einfluss auf die Technologien habe und wie die Gesellschaft mit diesen umgeht. In dieser Frage sehen alle Panel-Teilnehmer die Politik in der Pflicht.

„Wir werden uns anpassen und müssen sicherstellen, dass die Politiker mit dem rasanten Fortschritt ebenfalls mithalten können“, sagt Webber. Dazu müsse man zumindest einen gewissen moralischen Rahmen schaffen, an dem sich die Gesellschaft orientieren kann. „Es geht vielmehr um uns, denn die Maschine lernt ja von uns. Vielleicht müssen wir uns anpassen“, sagt Jung von Wexelerate.