Zur mobilen Ansicht wechseln »

Interview Bedienkonzepte: "Computer können keine Gedanken lesen".

Computersteuerung mit EEG-System
Computersteuerung mit EEG-System - Foto: INE - TU Graz
Computersysteme lassen sich durch Hirnströme steuern, die mit Sensoren ausgelesen werden. Gernot Müller-Putz von der TU Graz erklärt im Interview, wo die Grenzen liegen.

Könnten wir Computer mit unseren Gedanken steuern, wären viele Probleme auf einen Schlag gelöst. Egal ob Smartphone oder VR-Headset, unsere Geräte wüssten dann immer genau, was wir von ihnen wollen. Tatsächlich werden heute schon Systeme angeboten, mit denen sich etwa Computerspiele steuern lassen sollen. Auch die großen IT-Konzerne investieren gerne in entsprechende Technologien. Mit echter Gedankensteuerung hat das alles aber herzlich wenig zu tun, wie Gernot Müller-Putz im futurezone-Interview erklärt.

Der Wissenschaftler erforscht an der TU Graz, wie solche Technologien eingesetzt werden könnten, um Menschen mit Querschnittslähmung oder anderen körperlichen Einschränkungen zu ermöglichen, Computer zu bedienen und mit ihrer Umwelt zu kommunizieren. Dazu liest er Gedankenmuster mittels EEG-Sensoren (EEG steht für Elektroenzephalogramm) aus, die dann beispielsweise genutzt werden, um einen Mauszeiger zu steuern. Das bedeutet für viele Patienten eine enorme Verbesserung ihrer Lebensqualität. Für Menschen, denen auch andere Eingabemethoden zur Verfügung stehen, bringen solche Brain-Computer-Interfaces (BCI) allerdings wenig.
 

ERC_2015_5.jpg
Gernot Müller-Putz - Foto: Lunghammer - TU Graz
futurezone: Was ist ein Brain-Computer-Interface?
Gernot Müller-Putz: Bei BCI steuern die Nutzer Computersysteme durch mentale Prozesse. Der Computer setzt die Kommandos um. Das System kann verschiedene Dinge ansteuern, etwa einen PC, eine Rollstuhlsteuerung oder eine Prothese.

Welche Anwendungen sind bereits realisierbar?
Es gibt verschiedene Szenarien, in denen BCI verwendet werden. Im Bereich Kommunikation können solche Systeme Personen mit motorischen Einschränkungen erlauben, sich mitzuteilen oder im Internet zu surfen. Ein zweiter Bereich ist die Wiederherstellung von Hand- oder Armfunktionen durch Neuroprothesen. Auch in der Rehabilitation für Schlaganfallpatienten werden BCI zum Einsatz kommen.

Viele Hersteller, etwa im Bereich Videospiele, bieten bereits “Gedankensteuerungsgeräte” an. Ist das ernst zu nehmen?
BCI, die im Handel erhältlich sind, sind meist nur Spielzeug. Oft werden nicht einmal richtig Hirnströme gemessen, sondern lediglich Störungen oder andere Signale.

Wo liegen die Grenzen professioneller BCI?
Auch bei den Systemen im Labor ist der Eingaberaum beschränkt. Das ist nicht wie eine Tastatur, bei der mir 200 mögliche Inputs zur Verfügung stehen. Die Systeme sind auch relativ langsam. Das ist für die erwähnten Einsatzszenarien aber nicht relevant. Hier geht es um Personen, deren Körper bei intaktem Gehirn geschädigt ist. Für einige Nutzer ist BCI sogar die einzige Option für Kommunikation mit der Außenwelt.

DSC_0103.jpg
Foto: INE - TU Graz
Begriffe wie Gedankensteuerung und gedankenlesende Systeme sind als Übertreibungen?
Computer können keine Gedanken lesen. Über derartige Szenarien müssen wir uns keine Sorgen machen, das ist noch sehr weit weg, falls es überhaupt machbar sein sollte. Selbst die dafür notwendige großflächige Analyse des Gehirns liegt außerhalb unserer Möglichkeiten. Wir können derzeit nur einzelne Gehirnmuster voneinander unterscheiden. Wir messen diese Muster in den Hirnströmen, keine Gedanken. Allein die Frage, was ein Gedanke ist, ist aus wissenschaftlicher Sicht schwer zu beantworten.

Facebook hat kürzlich angekündigt, in BCI investieren zu wollen. Müssen wir uns trotzdem nicht vor gedankenlesenden Werbebots fürchten?
Auch Microsoft hat schon seit Jahren ein Patent für BCI in den USA. Ein sehr allgemeines, wie es in Österreich nicht anerkannt würde. Die großen Konzerne interessieren sich für viele neue Technologien.

Welche künftigen Anwendungen sind realistisch?
Der Einsatz von BCI könnte etwa dabei helfen, das Gehirn besser zu erforschen. Auch als Lernhilfen könnten die Systeme genutzt werden. Dann würden die Hirnmuster passiv überwacht. Bei sinkender Konzentration könnten die Inhalte vereinfacht dargestellt werden.

Wären limitierte Bedienszenarien, etwa als Alternative zu Maus und Tastatur, in absehbarer Zeit denkbar?
Für Gesunde wird die Bedienung eines Computers mittels BCI auf absehbare Zeit eher kein Thema werden. High Level Commands wären denkbar. Etwa wenn BCI als eine Art dritte Hand für einfache Befehle funktionieren, als Beispiel werden oft Piloten genannt.

Wo liegen die Hürden für ein universell verwendbares Interface?
Die Signale sind wahnsinnig klein. Direkt am Cortex geht das besser, wir sind durch unsere nicht-invasive Methode mit EEG-Elektroden aber 1,5 Zentimeter von der Hirnrinde entfernt. Das dämpft unsere Signale um den Faktor 1000, auf wenige Millionstel Volt. Da können Neonlampen im Raum schon Störsignale erzeugen. Menschliche Augen sind zudem elektrische Dipole, die bei Bewegung Felder erzeugen, die ebenfalls stören können. All diese Signale müssen wir herausrechnen.

Wären implantierte Elektroden hier ein Fortschritt?
Invasive Methoden haben diese Probleme nicht, dafür gibt es andere Einschränkungen. So kann bei implantierten Elektroden nur ein kleines Areal überwacht werden. Mit EEG können wir verschiedene Areale erfassen.

Solche Implantate werfen auch ethische Fragen auf.
Das Implantieren von Elektroden ist ethisch schwierig. In Österreich gibt es damit noch keine Erfahrungen. In Deutschland gibt es Versuche mit Primaten.

Was ist mit Messungen mit fMRT (steht für funktionelle Magnetresonanztomographie, Anm.)?
Wir arbeiten auch mit fMRT und bauen derzeit ein System, das EEG und fMRT nutzt. Mit fMRT können auch Muster in der Tiefe des Gehirns erfasst werden, allerdings mit geringer zeitlicher Auflösung. EEG misst nur an der Oberfläche, dafür aber im Millisekundenbereich. Die Auswertung ist bei fMRT oft schwieriger, weil die Hirnaktivität nicht direkt, sondern über veränderten Blutfluss erfasst wird. EEG ist direkt blind für tieferliegende Signale. Allerdings befinden sich viele für uns interessanten Funktionen in der Hirnrinde, in den obersten zwei Millimetern.

Sind BCI rechenintensiv?
Bei der Erstellung der Modelle für BCI ist viel Rechenleistung notwendig. Die Verarbeitung der Signale der Nutzer ist dagegen wenig aufwändig. Das geht auch am Smartphone. Das haben wir bereits demonstriert, mit einer App zum SMS-Schreiben. Hier wird ein Cursor gesteuert, mit dem Buchstaben gewählt werden. Damit schafft man zwei bis fünf Buchstaben pro Minute.

Lässt sich die Geschwindigkeit erhöhen?
Beschleunigen lässt sich das nur bedingt. Die Signalübertragung im Gehirn ist ein limitierender Faktor. Durch die Verbesserung des Verhältnisses zwischen Signal und Rauschen könnte aber etwas schnellere Bedienung erreicht werden. Auch hier wäre eine Elektrode direkt auf dem Gehirn schneller. Die Eingabemethode wird aber niemals so schnell wie das Schreiben mit dem Finger sein.

tu_graz_414.jpg
Foto: INE - TU Graz
Wie lange dauert es, das System an einen Nutzer anzupassen?
Das ist sehr individuell. Jeder muss sein System trainieren. Manche sind schneller als andere. Wir haben ein adaptives System, das dynamisch auf Inputs reagiert. Wir müssen also nicht zuerst stundenlang Inputs sammeln, sondern können gleich loslegen. Bei solchen Systemen gibt es immer zwei Lernende: Den Computer und den Nutzer. Das ist ein wechselweise Beeinflussung. Das Training kann zwischen wenigen Tagen bis zu mehreren Monaten dauern. Eine kleine Zahl von Personen liefert sehr schnell brauchbare Muster.

Gibt es Menschen, für die BCI gar nicht funktionieren?
Es gibt Personen, bei denen das System zu Beginn überhaupt nicht funktioniert. Ob das durch Anpassungen behoben werden kann, ist noch wenig erforscht.

Ist die Kommunikation zwischen Gehirn und Maschine immer eine Einbahnstraße?
Es gibt die Möglichkeit, einen Rückkanal einzuführen. Eine kürzlich publizierte Studie behandelt einen Fall, bei dem einem Patienten zwei Chips implantiert wurden. Ein Chip dient zur Steuerung eines robotischen Armes, der andere leitet Signale von Sensoren an den Fingern der Roboterhand ins Gehirn. Dadurch kann der Patient dann Berührungen spüren.

 

Gernot Müller-Putz wird am 23. März bei der nextm-Konferenz in der Aula der Wissenschaften in Wien einen Vortrag über BCI halten.

(futurezone) Erstellt am 06.02.2017, 06:00

Kommentare ()

Einen neuen Kommentar hinzufügen

( Abmelden )

Dein Kommentar

Antworten folgen
Melden Sie den Kommentar dem Seitenbetreiber. Sind Sie sicher, dass Sie diesen Kommentar als unangemessen melden möchten?