Gedankenlesende Maschine: Große Versprechungen, größere Hürden
Einem Computer zu erklären, was man von ihm will, ist nicht immer einfach. Das liegt auch daran, dass die Schnittstellen, über die wir mit unseren Maschinen kommunizieren, relativ umständlich sind. Statt mit Tastatur und Maus vorgegebene Bedienabläufe umzusetzen, könnten wir Computern auch einfach sagen, was unser Anliegen ist. Das ist in beegrenztem Umfang bereits möglich. Noch bevor Sprache als Benutzerschnittstelle ausgereizt ist, gibt es aber schon ambitioniertere Pläne. Theoretisch können Maschinen nämlich auch unsere Hirnsignale auslesen und daraus ableiten, was wir wollen. Ein solches Brain-Computer-Interface (BCI), das unsere Gedanken lesen und verstehen kann, wäre die direkteste Verbindung zwischen Anwender und System. Reiche Technologiefirmen wie Facebook (siehe hier) und Elon Musks Neuralink (siehe hier) können dieser Science-Fiction-Vision einiges abgewinnen und versprechen, dass die nötige Technologie schon in wenigen Jahren verfügbar sein soll.
Wissenschaftler, die auf dem Gebiet arbeiten sind teilweise aber weitaus zurückhaltender in ihren Prognosen. An den Universitäten der Welt wird daran gearbeitet, Systeme zu entwickeln, die es Menschen mit Lähmungen oder anderen Leiden, die das Sprechen unterbinden, erlauben, zumindest rudimentär mit der Außenwelt zu kommunizieren. Daran arbeitet auch die preisgekrönte Schweizer Forscherin Stéphanie Martin, die derzeit an der Universität Genf tätig ist. Sie kann an den Gehirnsignalen von Versuchspersonen bereits erkennen, ob diese hungrig oder durstig sind oder einer Frage zustimmend oder ablehnend gegenüberstehen. Mit echtem Gedankenlesen hat das aber noch wenig zu tun. Im futurezone-Interview spricht die Wissenschaftlerin über große Versprechungen, künstliche Intelligenz als Lösungsweg und Finanzierungsprobleme.
futurezone: Sie haben vor zwei Jahren viel Beachtung und einen BCI-Award für ihre Arbeit zur Rekonstruktion der “inneren Stimme”, also Gedanken, die wir in unserem Kopf “hören”, aus Gehirnsignalen bekommen. Sind Sie noch auf dem Gebiet tätig?
Ich forsche seit meinem Doktorat in Berkeley an diesem Thema. Das ganze Projekt ist sehr schwierig. Derzeit bin ich an der Universität Genf und arbeite im Rahmen eines Post-Docs weiter auf demselben Gebiet. Das Projekt ist Teil eines europäischen Forschungsschwerpunkts, um neue Elektroden zu entwickeln und Sprache aus Hirnströmen zu rekonstruieren. Ich werde auch in Zukunft nicht aufgeben.
Firmen wie Facebook oder Elon Musks Neuralink haben bereits große Versprechungen gemacht, was das Gedankenlesen mit technischen Mitteln angeht. Wie realistisch ist das?
Vom Gedankenlesen sind wir noch weit weg. Firmen wie Facebook, Google und Co. versprechen zwar große Dinge, aber die Hürden sind aus heutiger Sicht riesig. Wir haben nicht die notwendigen Verfahren, um Hirnaktivität präzise zu messen. Funktionelle Magnetresonanztomographie (FMRI) gibt hohe räumliche Auflösung und Elektroenzephalographie (EEG) gibt hohe zeitliche Auflösung, beides geht aber nicht. Zudem darf man nicht vergessen, dass ein menschliches Gehirn aus etwa 80 Milliarden Neuronen besteht. Die zeitgleich zu überwachen, ist aus heutiger Sicht unmöglich.
Diese Grenzen betreffen vor allem nicht invasive Methoden?
Wir verwenden für unsere Forschung Elektroden, die in den Schädel implantiert werden. Das geht aus ethischen Gründen aber nicht so einfach. Wir arbeiten mit Epilepsiepatienten in Spitälern. Dort nutzen wir die Möglichkeit, Messungen mit hoher zeitlicher und räumlicher Auflösung zu machen, während die Schädel der Patienten behandlungsbedingt ohnehin zugänglich sind.
Welche Limitationen gibt es sonst?
Beim Auslesen der inneren Stimme kommen weitere Probleme dazu. Selbst wenn wir perfekte Daten hätten, wissen wir nicht genau, was im Gehirn passiert. Es ist beispielsweise sehr schwer festzumachen, wann ein Gedanke beginnt und wann er endet. Wir versuchen das derzeit einzugrenzen, aber eine solche Kategorisierung der Daten ist sehr schwierig.
Setzt ihr dabei auf maschinelles Lernen?
Machine Learning findet Muster in Daten, braucht dazu aber üblicherweise Kategorien. Beim Denken ist das Verhältnis von Signal zu Hintergrundrauschen denkbar schlecht. Deshalb ist es auch sehr schwer, hohe Genauigkeiten zu erreichen und Kategorien zu bilden.
Aber machbar ist es?
Theoretisch sollte es möglich sein, mit besserer Technologie. Ich bin aber nicht sicher, ob wir das in meiner Generation noch erreichen werden. Einfacher wäre es, wenn wir uns auf invasive Messungen verlegen könnten, aber dort stoßen wir schnell an ethische Grenzen.
Das heißt die großen Tech-Firmen sind zu optimistisch?
Elon Musk hat bei Neuralink etwa 80 Personen und enorme Mittel zur Verfügung. Es ist fantastisch, dass die großen Firmen Interesse zeigen. Die haben sehr gute Forscher und machen das Thema interessanter für eine breite Öffentlichkeit. Sie kollaborieren auch mit anderen Forschungseinrichtungen und stellen Mittel zu Verfügung.
Die Ankündigungen wirken trotzdem vollmundig, gerade weil diese Firmen das Thema erst seit kurzem für sich entdeckt haben.
Die großen Tech-Firmen sind erst seit einigen Jahren in dem Bereich aktiv. Die Schattenseite ist, dass sie sehr intransparent sind und ihre Erkenntnisse nicht teilen. In der akademischen Forschung publizieren wir unsere Resultate. Die BCIs der großen Firmen unterliegen denselben Beschränkungen. Sie mögen mehr Geld haben und andere Ziele - beispielsweise "alle Menschen zu verbinden" - aber die technischen Herausforderungen sind dieselben.
Wo sitzen die Vorreiter auf dem Gebiet?
In Europa und den USA. Dort gibt es auch Zugriff auf Daten und Patente sowie Aufzeichnungseinrichtungen für Hirnwellen in Spitälern. Die großen öffentlichen Forschungsprojekte in den USA und Europa verlangen zudem, dass die Daten öffentlich bereitgestellt werden. Insgesamt gibt es aber nicht sonderlich viele Forschungsgruppen, die sich speziell mit der Dekodierung von Sprache beschäftigen.
Sehen Sie technische Durchbrüche am Horizont?
Es gibt große Bemühungen, die Technologie für das Aufzeichnen von Hirnströmen zu verbessern. Es werden Elektroden mit höherer Auflösung entwickelt und auch die Zahl der implantierbaren Elektroden wird gesteigert. Die EU redet in Ausschreibungen bereits von tausenden Elektroden, die auf einmal implantiert werden sollen.
Ist die Verbesserung der Technologie auch Teil ihrer Arbeit?
Ich habe meistens nur etwa eine Woche Zugang zu Patienten mit implantierten Elektroden. Das ist immer ein Abwägen zwischen Verbesserung der Technologie und der eigentlichen Forschungsarbeit. Was die großen Tech-Firmen machen, weiß niemand so genau.
Wie sieht es mit Technik aus, die ohne Operationen auskommt?
Wenn wir von nicht invasiven Methoden wie EEG oder Magnetenzephalographie (MEG) reden, ist die Technologie noch nicht weit genug. Aber auch das sollte theoretisch machbar sein. Hier beschränkt sich der Status Quo aber auf Dinge wie die Steuerung eines Mauspfeils, indem sich die Probanden vorstellen, ihren linken Arm zu bewegen. Solche Muster können wir erkennen, weil es weitaus einfacher ist als bei Sprache. Diese Art der Gehirnschnittstellen könnten in absehbarer Zeit marktreif werden.
Stichwort "Unsupervised Learning": Könnte maschinelles Lernen, das ohne Kategorien auskommt, helfen?
Ja, Algorithmen, die ohne Beistand lernen, können Muster auch in unstrukturierten Daten finden. Aber bei der inneren Stimme ist das Hintergrundrauschen eben sehr stark. Auch eine Analyse mit solchen Methoden ist deshalb schwierig. Wir haben diesen Ansatz noch nicht ausprobiert.
Sind Gehhirnschnittstellen derzeit ein Hype-Thema?
Der aktuelle Stand ist, wenn man die Publikationen als Indikator nimmt, nicht sonderlich berauschend. Das hat einige Kollegen entmutigt. Für mich sind das die üblichen Zyklen, die es in der Forschung eben gibt. Wir vermeiden es, von Gedankenlesen zu sprechen und verwenden lieber Begriffe wie "innere Stimme" oder "verdecktes Sprechen". Die Patienten hören die Wörter ja tatsächlich in ihrem Kopf. Im Gehirn ist dieser Vorgang kompliziert. Es können verschiedenste Gehirnareale beteiligt sein.
Wo stehen Sie mit ihrer Forschung?
Wir haben bereits einzelne Wörter dekodiert. Dabei haben wir uns auf wenige, klinisch relevante Begriffe beschränkt, etwa Hunger, Durst, Ja oder Nein. Das sind einfache, binär unterscheidbare Kategorien. Aus den Hirnsignalen haben wir dann die Wörter rekonstruiert, ihre Energie, Frequenz und andere Parameter. Daraus haben wir die akustischen Eigenschaften abgeleitet. Ältere Studien haben bereits bewiesen, dass es möglich ist, Sprache aus Hirnsignalen zu rekonstruieren, wenn Menschen tatsächlich sprechen. Wir haben das mit einem Sprachsynthesizer auch probiert. Das funktioniert für die innere Stimme aber nicht gut, weil sich die Hirnareale nur teilweise mit denen decken, die beim tatsächlichen Sprechen zum Einsatz kommen. Die Ergebnisse waren deshalb nicht verständlich. Wir konnten aber die grundlegenden phonetischen Eigenschaften der Worte rekonstruieren. In Zukunft wird es vielleicht auch möglich sein, die innere Stimme akkurat wiederzugeben.
Das wäre für Patienten, die nicht sprechen können, eine irrsinnige Erleichterung.
Dass wir einzelne Wörter klassifizieren können, wenn wir uns auf wenige Begriffe konzentrieren, haben wir bewiesen. Allerdings nur an unseren Epilepsiepatienten, die allesamt in der Lage waren zu sprechen. Jetzt müssen wir die Ergebnisse auf Personen übertragen, die nicht sprechen können. Das ist interessant und es gibt auch schon einige Projekte, die mit Patienten mit Locked-In-Syndrom arbeiten. Hier ist der klinische Ansatz aber eher, einen Mauszeiger zu steuern als die innere Stimme zu rekonstruieren.
Das sollte die Forschung in dem Bereich doch befeuern?
Die Wissenschaft ist ein langsamer Prozess. Das kann also noch Jahrzehnte dauern. Das liegt auch daran, dass Patienten, die von Hirnschnittstellen profitieren, eine Minderheit sind. Dafür Förderungen aufzutreiben ist entsprechend schwierig. Trotzdem liegt das Thema im Trend. Dadurch träumen jetzt mehr Leute von Gehirnschnittstellen. Das allein finanziert unsere Forschung aber nicht.