Brain Computer Interfaces Hirn an Computer - medizin + technik

Industrie.de Infoservice

Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de

Brain Computer Interfaces

Hirn an Computer

Anzeige
Brain Computer Interfaces | Die Verschmelzung des Menschen mit der Maschine bietet seit jeher Stoff für Hollywood-Filme. Tatsächlich aber steht die Entwicklung so genannter Brain Computer Interfaces erst jetzt an der Schwelle zum Markt. Die Produkte könnten Patienten wie etwa Querschnittgelähmten den Alltag erleichtern. Dabei sind die Übergänge zwischen Medizinprodukt und pfiffiger Consumer-Elektronik fließend.

Tim SchröderWissenschaftsjournalist in Oldenburg

Als im vergangenen Jahr das Publikum den Männern und Frauen vor den Computern in der Swiss Arena im schweizerischen Kloten zujubelt, scheint auf den ersten Blick nichts besonders zu sein. Auf Monitoren, deren Bilder auf Videowänden in der Halle zu sehen sind, läuft ein Computerspiel: Eine Figur rennt einen Hindernis-Parcours entlang, springt über tödliche Zacken und tiefe Gräben. Doch die Zuschauer sind aus dem Häuschen. Zwar sitzen die Computerspieler starr vor ihren Geräten, doch erbringen sie mentale Höchstleistung. Ihre Disziplin: „Virtuelles Rennen mit Gedankensteuerung“.
Die Spieler sitzen in Rollstühlen, keiner von ihnen kann laufen, doch ihren Spielfiguren auf den Monitoren machen sie Beine. Sie klicken keine Maus an, tippen nicht auf Tastaturen. Stattdessen tragen sie Hauben mit Elektroden; Elektroden, die ihre Hirnströme messen und als Hirnaktivitätsmuster, als Elektroenzephalogramm (EEG), an den Computer schicken. Der Computer verarbeitet das EEG und leitet daraus ab, wohin die Spieler ihre Figuren dirigieren wollen. Der Spieler, der sich am besten konzentrieren kann und seinen Computer am besten auf seine Hirnströme trainiert hat, gewinnt den Wettkampf.
Das „Virtuelle Rennen mit Gedankensteuerung“ ist eine von mehreren Disziplinen, die beim „Cybathlon“ in Kloten ausgetragen werden. Andere Kontrahenten messen sich dort im „Armprothesen-Parcours“ oder im „Fahrradrennen mit Muskelstimulation“. Der Cybathlon ist einer der ersten internationalen Wettkämpfe weltweit, bei denen auf spielerische Art technische Hilfsmittel für körperbehinderte Menschen getestet werden können. Er wird von der ETH Zürich veranstaltet.
Futuristisch genug, auch für die Filmindustrie
Am futuristischsten ist zweifellos die Gedankensteuerung. Sie zeigt, wie weit sich in den vergangenen 20 Jahren eine Technologie entwickelt hat, die meist als Brain Computer Interface (BCI) oder Brain Machine Interface (BMI) bezeichnet wird. Damit wird eine Fülle technischer Ansätze bezeichnet, die eines gemein haben: Nervensignale des Menschen werden per Kabel an einen Computer übertragen und auf diese Weise ein Miteinander von Mensch und Maschine ermöglicht.
Der Filmmaschine Hollywood liefert das seit Jahrzehnten Stoff für neue Blockbuster: Menschen werden Elektroden ins Hirn gepflanzt, um ihnen Hyper-Fähigkeiten zu verleihen oder sie zu willfährigen Cyborgs zu machen. In der Regel gehen diese Filme ziemlich schlecht aus, und mit der Realität haben sie wenig gemein. Denn soweit sind die BCI-Technologien noch nicht.
Zwar gibt es erste Anwendungen, beispielsweise im Reha-Bereich, doch noch immer wirken die Lösungen recht holzschnittartig. Eine große Hürde ist das Verstehen der komplexen Hirnaktivitäten des Menschen: Bilder, Gedanken oder Gefühle lassen sich nicht ohne weiteres aus dem Hirn auslesen. Und auch, ob ein Mensch sich gerade den Buchstaben „A“ vorstellt, vermag bislang kein Algorithmus zu deuten. Doch Phänomene wie Aufmerksamkeit, Stress oder Aktivitäten in Hirnbereichen, die Bewegungen steuern, lassen sich aus EEG-Signalen auslesen.
Erste, vergleichsweise einfache Produkte sind auf dem Markt. Recht bekannt sind die P300-Speller, Hilfsprogramme, mit denen querschnittgelähmte Menschen mit Sprachstörung einem Computer Worte über ihre Hirnsignale diktieren. Mit P300 bezeichnen Fachleute auffällige Schwankungen, so genannte Potenziale im Hirn, die aus dem EEG herausstechen, wenn sich die Aufmerksamkeit einer Person erhöht. Aufmerksam ist ein Mensch zum Beispiel, wenn auf einem Bildschirm ein Buchstabe erscheint, den er erwartet. Das macht sich der P300-Speller zum Diktieren eines Textes wie „Guten Tag“ zunutze. In loser Abfolge erscheinen auf dem Bildschirm Buchstaben. Erscheint der Gewünschte – in diesem Fall zuerst das „G“ – löst das ein P300-Potenzial aus, das der Computer wahrnehmen kann.
Ein einzelnes Potenzial ist allerdings zu schwach, um eine sichere Information zu liefern. Deshalb gibt es mehrere Durchläufe, bei denen immer, wenn das „G“ erscheint, neue P300-Potenziale ausgelöst werden. Diese Signale summieren sich auf, bis der Computer den Buchstaben richtig erkennt. Pro Buchstabe dauert das etwa zehn Sekunden, in denen das Alphabet mehrfach durchlaufen wird.
Das Interesse an solchen Lösungen ist groß – in der Medizintechnik, aber auch für den Spiel- und Freizeitmarkt, wobei die Grenzen fließend sind. So haben Experten des EU-Forschungsnetzwerkes BNCI (Brain/Neural Computer Interaction), zu dem angesehene Institute und Universitäten gehören, herausgefunden, dass sich weltweit viele Unternehmen mit Aspekten der BCI befassen: darunter 65 Unternehmen, die auf BCI spezialisiert sind, 46 aus der Medizin- und Rehatechnik und sieben Unternehmen aus dem Automobil- und Flugzeugsektor. Hinzu kommen zehn aus der Unterhaltungsindustrie sowie 20 Unternehmen aus anderen Technikbereichen.
Orthesen mit EEG-Signalen aus dem Motorcortex steuern
Auf dem Markt sind unter anderem Roboter, die Schlaganfallpatienten während der Reha dabei unterstützen, Bewegungen neu zu erlernen – etwa das Greifen. Diese so genannten Roboter-Orthesen werden wie eine Art Außenskelett getragen, in dem die Hand oder das Bein fixiert wird. Sie führen dieselbe Bewegung mehrfach aus, etwa das Schließen und Öffnen der Hand, und unterstützten damit Physiotherapeuten. Für die Steuerung werden mit dem EEG Signale aus jenem Gehirnabschnitt ausgelesen, in dem Bewegungen kontrolliert und gesteuert werden – dem Motorcortex.
Inzwischen können die Computer Bewegungssignale wie Greifbefehle erkennen. Sobald der Patient eine Bewegung denkt, setzt der Roboter sie um. Genutzt wird dafür meist das so genannte Alpha-Band des EEG, mit dem elektrische Schwingungen des Gehirns bezeichnet werden, die eine Frequenz zwischen 8 und 13 Hertz haben. Diese Signale entstehen, wenn der Mensch seine Aufmerksamkeit auf den Körperteil lenkt, den er bewegen will.
Aktuelle Untersuchungen an der Neurochirurgischen Universitätsklinik in Tübingen zeigen, dass der Alpha-Band-Ansatz für die Reha von Schlaganfallpatienten nicht immer sinnvoll ist. Denn der eigentliche Befehl für das Greifen wird vom Motorcortex über Beta-Wellen an die Muskeln geschickt, Schwingungen mit einer Frequenz zwischen 13 und 30 Hertz. Während die Alpha-Wellen den Greifvorgang gewissermaßen vorbereiten, sind es die Beta-Wellen, die die Bewegung tatsächlich zünden. „Es wäre also sinnvoller, die Beta-Wellen für die Steuerung zu nutzen und den Patienten zu trainieren, damit die natürliche Verbindung zwischen Gehirn und Muskeln wieder hergestellt wird“, sagt Prof. Alireza Gharabaghi, der ärztliche Leiter der Sektion Funktionelle und Restaurative Neurochirurgie in Tübingen.
„Anstrengendere“ Welle würde bessere Signale liefern
Da die Alpha-Wellen stärker und daher leichter über das EEG abzugreifen sind, werden sie aber bevorzugt benutzt. „Daher kommunizieren Computer und Mensch bei herkömmlichen Robotern oft über die Alpha-Wellen. Wenn man die schwächeren Beta-Wellen verwendet, kann das Wieder-Erlernen von Bewegungen zwar unterstützt werden, es stellt bislang aber eine Herausforderung dar, und die Patienten können frustriert werden.“
Mit Untersuchungen an gesunden Personen und Schlaganfallpatienten konnte Gharabaghi mit seinem Team allerdings zeigen, dass sich die Beta-Wellen durch intelligente Algorithmen trainieren und für die Steuerung des Roboters nutzen lassen, ohne die Anwender zu überfordern. Bei den ersten Patienten führte dieser Ansatz zu den erwünschten motorischen Verbesserungen – nach dem Training ganz nach dem Motto: Fordern und Fördern.
Grundsätzlich unterscheidet man beim BCI drei Anwendungsgebiete. Roboter-Orthesen etwa werden dem Gebiet „Improve – verbessern“ zugeordnet, wobei es darum geht, verlorene Fähigkeiten wieder anzutrainieren. Die Experten des BNCI-Netwerks gehen davon aus, dass dazu bis 2025 eine ganze Reihe Produkte auf den Markt kommen werden. Ein weiteres BCI-Gebiet wird als „Enhance – fördern“ bezeichnet. Hier sind die Übergänge zwischen Medizin und Privatkundenbereich fließend. So könnten BCI-Produkte entwickelt werden, die dem Menschen beim Lernen helfen.
Als drittes Anwendungsgebiet der BCI nennt das Netzwerk BNCI das „Replace – ersetzen“. Dabei werden geschädigte Hirnareale mit einer Art BCI-Prothese repariert. Dies dürfte der anspruchsvollste Ansatz der modernen BCI-Entwicklung sein, hier ist noch sehr viel Grundlagenforschung nötig – erste Produkte werden zwischen 2025 und 2035 erwartet.
Ein solcher Replace-Ansatz wird am Tübinger Max-Planck-Institut für Intelligente Systeme für Patienten mit Amyotropher Lateralsklerose (ALS) entwickelt. Bei dieser Krankheit degenerieren die Zellen des Motorcortex, die die Muskeln steuern. Damit verliert der Patient nach und nach die Fähigkeit sich zu bewegen, etwa die Arme, die Beine, die Zunge, die Sprech- oder die Augenmuskulatur. Im Spätstadium sind die Patienten bei vollem Bewusstsein, aber nicht mehr in der Lage, mit der Umwelt zu kommunizieren. Sie können nicht einmal mehr mit den Augen rollen, um „Ja“ oder „Nein“ zu signalisieren. „Wir müssen also andere Hirnregionen, andere Signale finden, über die der ALS-Patient kommunizieren kann“, sagt der Elektrotechniker Dr.-Ing. Moritz Grosse-Wentrup, der am Max-Planck-Institut für die Forschungsgruppe „Gehirn-Computer-Schnittstellen“ zuständig ist.
Besonders interessant ist für Grosse-Wentrup als Alternative ein Aktivitätsmuster, das auftritt, wenn ein Mensch sich auf sich selbst konzentriert, die Gedanken nach Innen richtet, meditiert: das Default-Mode-Network. Dabei sind gleichzeitig ein Bereich hinter der Stirn und ein zweiter tiefer im Gehirn aktiv, der sich über das EEG auslesen lässt. So könnte der Patient am Computer trainieren, durch den Wechsel zwischen Versenkung und Offen-Sein „Ja“ und „Nein“-Signale zu generieren. Die Herausforderung liegt in diesem Falle bei der Programmierung der Algorithmen, die aus den im Gehirn verteilten, diffusen Signalen des Default-Mode-Networks das diskrete „Ja“ herauslesen müssen. Wie die Versuche zeigen, gelingt das inzwischen immer besser.
Lieber durch die Haut messen als Elektroden implantieren
Eine grundsätzliche Frage bei BCI liegt darin, ob und wann man Signale über ein EEG mit Kopfhaube abgreift, oder ob man Elektroden verwendet, die ins Hirn implantiert werden. Beim Implantat sind die Signale rauschärmer. Wegen der Infektionsgefahr haben sich die Tübinger Max-Planck-Forscher bislang dagegen entschieden. Auch bildeten sich durch Abstoßungsreaktionen des Körpers auf den Elektroden häufig Beläge, sodass die Signalleitung zum Computer gestört wird.
So ist es wenig überraschend, dass heute weltweit viele Forschergruppen an leistungsfähigen Elektroden-Implantaten für medizinische BCI-Anwendungen arbeiten. Diese sollen gut verträglich sein und zudem möglichst viele und sehr kleine Elektroden aufweisen, damit die feinen Nervenimpulse möglichst präzise wahrgenommen werden können.
Laut BNCI-Network setzen aber nur 6 % der Unternehmen, die sich mit BCI-Technologien befassen, auf Implantate. Alle anderen nuzten das EEG. Und viele arbeiten daran, die auffällige Kopfhaube zu ersetzen. Industriedesigner haben filigrane Elektroden-Headsets entwickelt, die sich elegant um den Kopf legen. Gut möglich, dass diese in wenigen Jahren so angesagt sind, wie heute die Bluetooth-Kopfhörer fürs Smartphone. ■

Bald ein schickes Headset?

40408032

Erstaunlich ist, dass schon viele Unternehmen an EEG-Sensoren für Verbraucher arbeiten.
Tim Schröder
Wissenschaftsjournalist
Anzeige

Aktuelle Ausgabe

Newsletter

Unsere Dosis Wissensvorsprung für Sie. Jetzt kostenlos abonnieren!

Messe Medtec Europe

Neue Trends und Produkte für die Medizintechnik

Alle Webinare & Webcasts

Hier finden sie alle Webinare unserer Industrieseiten

Whitepaper

Hier finden Sie aktuelle Whitepaper

Kalender

Aktuelle Termine für die Medizintechnik-Branche

Medtech meets Quality

Das Forum für Qualitätssicherung in der Medizintechnik

Anzeige