Zur mobilen Ansicht wechseln »

Ausgelesen Forscher rekonstruieren Sprache aus Hirnströmen.

Forschern ist es gelungen, Laute anhand von Gehirnströmen zu identifizieren
Forschern ist es gelungen, Laute anhand von Gehirnströmen zu identifizieren - Foto: IMP
Kann man allein aus Hirnströmen auf Worte und gar ganze Sätze schließen? Karlsruher Wissenschaftlern ist das zumindest im Ansatz gelungen.

Forscher des Karlsruher Instituts für Technologie (KIT) haben direkt aus Gehirnströmen Laute, Wörter und ganze Sätze rekonstruiert. Ausgewertet wurden Daten der Gehirnströme von sieben Epilepsiepatienten in den USA: Ihnen lag während des Sprechens ein Elektrodennetz direkt auf der Großhirnrinde des für ihre Epilepsie-Behandlung ohnehin freigelegten Gehirns. Mit Elektroden, die von außen auf den Kopf angelegt werden und so die elektrische Aktivität des Gehirns messen, sind solche spezifischen Aufzeichnungen noch nicht möglich.

Laute herausfinden

„Zum ersten Mal können wir das Gehirn beim Sprechen beobachten“, sagte Informatik-Professorin Tanja Schultz. Die Forscher können nun praktisch zusehen, wie das Gehirn den Sprechvorgang plant und dann die Muskeln der Artikulationsorgane mittels der Neuronen in der Großhirnrinde aktiviert, bevor die eigentliche Sprache hörbar wird. Sichtbar gemacht wurden die Aktivitäten mit Hilfe von Farben: „Je höher die Aktivität, umso heißer die Farbe, erklärte Schultz.

Die Patienten waren zuvor gebeten worden, bestimmte Texte zu sprechen - etwa eine Rede des ehemaligen US-Präsidenten John F. Kennedy oder auch einfache Kinderreime. Die Forscher wussten also zunächst, welche Laute wann gesprochen wurden und legten mit Hilfe der dabei gemessenen Hirnströme Datenbanken mit Prototypen von etwa 50 verschiedenen Lauten an.

Besser als raten

Auf Basis von Algorithmen gelang es anschließend, allein anhand der Gehirnströme zu verstehen, was gesagt wurde. Dazu werden Laute im Kontext von Wörtern und ganzen Satzphrasen betrachtet. “Wir bekommen damit schöne Ergebnisse, die in der Qualität zwar noch weit von der akustischen Spracherkennung entfernt, aber schon deutlich besser sind, als wenn man rät„, sagte Schultz.

Knackpunkt der vierjährigen Forschung ist bislang die geringe Datenbasis von nur sieben Patienten, von denen jeweils höchsten fünf Minuten Sprache vorliegen. Die Wissenschaftler wollen ihre Analysen daher ausweiten. Neben einem besseren Verständnis der Sprachprozesse könnte der sogenannte Brain-to-Text “ein Baustein sein, um Locked-in-Patienten zukünftig eine sprachliche Kommunikation zu ermöglichen„. Beim Locked-in-Syndrom sind Menschen zwar bei Bewusstsein, aber gelähmt und damit unfähig, sich der Außenwelt verständlich zu machen.

(dpa) Erstellt am 16.06.2015, 07:32

Kommentare ()

Einen neuen Kommentar hinzufügen

( Abmelden )

Dein Kommentar

Antworten folgen
Melden Sie den Kommentar dem Seitenbetreiber. Sind Sie sicher, dass Sie diesen Kommentar als unangemessen melden möchten?
    Bitte Javascript aktivieren!