Mit Gestensteuerung können sich Chirurgen Patientenakten oder Befundbilder während einer OP berührungslos vor Augen führen: Sensoren erkennen den Fingerzeig des Arztes, der Computer setzt die gewünschte Aufgabe um. Weitere Funktionen sind denkbar.
Die Patientin auf dem Operationstisch schläft tief und fest, der Eingriff an ihrer Wirbelsäule ist in vollem Gange, als es plötzlich zu Komplikationen kommt. Um weiter operieren zu können, benötigt der Chirurg schnell Informationen aus der Patientenakte. Der Eingriff wird unterbrochen, er eilt zum PC, öffnet die digitale Akte, liest, klickt sich durch die Befundbilder, vergleicht… Das Team wartet. Der Chirurg eilt zurück, greift zum Skalpell, der Eingriff geht weiter. Solche Szenen gehören im Krankenhaus zum Alltag. Sie kosten nicht nur wichtige Behandlungszeit, sondern auch viel Geld.
Um als Klinik einen OP effizient betreiben zu können, muss aber für eine hohe Auslastung durch kurze Wechselzeiten und eine flexible Saalnutzung gesorgt sein – und verlässt der Chirurg den OP-Tisch, geht wertvolle Zeit verloren.
An der Klinik für Minimal Invasive Chirurgie (MIC) ist dies seit kurzem kein Thema mehr: In einem der weltweit modernsten Operationssäle in Berlin-Zehlendorf hat die berührungslose Gestenerkennung Einzug gehalten. Ein Röntgenbild wird benötigt? Der Operateur unterbricht kurz seine Arbeit am OP-Tisch, fährt mit der Hand durch die Luft, bis auf dem Display das gewünschte Bild erscheint. Ein Klick mit dem Finger – das Bild ist markiert. Vergrößern? Kein Problem – eine Geste reicht. Erkennt das System die geöffnete Hand, schließt sich die Anwendung, und der Chirurg setzt den Eingriff fort.
Was auf den ersten Blick futuristisch wirkt, ist an der MIC-Klinik heute Alltag – und erleichtert dem OP-Team auch die Arbeit in punkto Hygiene. Für das Team und den Patienten. Denn für die typischen Computer-Schnittstellen, wie beispielsweise Mäuse oder Touchscreen, wäre eine Sterilisierung extrem aufwendig und manchmal sogar unmöglich. Häufig werden Touchscreens deshalb mit transparenten Einweg-Überzügen versehen, die zwar eine Touch-Bedienung ermöglichen, aber die Bildqualität beeinträchtigen und einen zusätzlichen Kosten- und Zeitaufwand bedeuten. „Dank der Gestenerkennung gehört dies nun der Vergangenheit an“, erzählt Iris Strentz aus dem Entwicklungsteam der Berliner How to organize GmbH, einer Tochtergesellschaft der Karl Storz GmbH & Co. KG in Tuttlingen. Das Unternehmen vertreibt und montiert das Gestensteuerungssystem MI-Report, welches das Fraunhofer-Institut für Nachrichtentechnik Heinrich-Hertz-Institut im Auftrag von Karl Storz entwickelt hat und das als einziges System medizinisch zugelassen ist. Der MI-Report sei ein wichtiger Meilenstein in der Entwicklung der Gestenerkennung, so Strentz. „Die berührungslose Zukunft hat begonnen.“
Bereits seit 2008 arbeiten die Partner am Informationssystem „MI-Report“, das seinen Namen dem Science-Fiction-Film Minority Report aus dem Jahr 2002 zu verdanken hat. Darin hatte Schauspieler Tom Cruise im Jahr 2054 mit beeindruckenden Gesten seinen Computer steuert. Heute bietet der MI-Report „dem Chirurgen die Möglichkeit, direkt vom OP-Tisch aus die gewünschten Daten selbst zu selektieren und bereitzustellen“, erklärt Iris Strentz. Durch die im System hinterlegten Checklisten der Weltgesundheitsorganisation und die verhinderten Unterbrechungen während der Behandlung könne nicht nur die im Vordergrund stehende Patientensicherheit erhöht, sondern auch teure OP-Minuten eingespart und somit geplante OP-Zeiten eingehalten werden.
Die Technik zum System stammt aus den Köpfen der Forscher am Fraunhofer Heinrich-Hertz-Institut (HHI). Das Institut hat die Sensorik entwickelt und diese in Kooperation mit Karl Storz für den klinischen Sektor verfügbar gemacht. „Die ersten Ideen zur Gestensteuerung gab es schon in den 70er-Jahren“, weiß Paul Chojecki vom HHI. In seinem Institut habe man 1989 begonnen, die ersten Systeme zu realisieren. In der Medizintechnik sei das Thema aber erst Mitte der 90er-Jahre angekommen. „Dabei ging es im medizinischen Bereich nicht so sehr um den Reiz des Neuen, sondern vielmehr um den echten Nutzen. Unser Ziel war es, dass der Arzt selbst die von ihm benötigten Informationen abrufen und bearbeiten kann, obwohl er Handschuhe trägt und Patientenkontakt hat.“ Die Erforschung und Entwicklung berührungsloser, gestenbasierter Mensch-Maschine-Interaktion ist eines der Hauptbereiche der HHI-Abteilung Interactive Media – Human Factors, kurz IM. Dort werden seit über zehn Jahren die Kompetenzen in allen Entwicklungs- und Verarbeitungsschritten aufgebaut, die zur Erstellung berührungsloser Mensch-Maschine-Schnittstellen notwendig sind. „Der Entwicklungsprozess orientiert sich am Ansatz des User-Centerd-Designs, bei dem die Wünsche und Anforderungen der Nutzer maßgeblich in die Entwicklung des Systems einfließen“, so Chojecki. Diese Nutzeranforderungen wurden am HHI mittels sozialwissenschaftlicher Methoden, wie Fragebögen und Task-Analysen, erhoben, ausgewerten und berücksichtigt. Auch das Evaluieren, Entwickeln und Anpassen der Sensoren, die für das berührungslose Erfassen der Nutzereingaben nötig sind, gehören zu den Kompetenzen der IM-Abteilung. Nach wie vor ist der MI-Report die einzige medizinisch zugelassene Lösung auf dem Markt. Chojecki: „Wissenschaftlich betrachtet gibt es aber natürlich immer Verbesserungspotential bei einem System dieser Komplexität. Wir sind einerseits selbstkritisch und andererseits sehr ambitioniert, wenn es um die Weiterentwicklung unserer Lösungen geht. So treiben wir weiterhin die Entwicklung der Sensoren, der Trackingsoftware und der Interaktionskonzepte voran.“ Die berührungslose Steuerung zum Abruf von Patientendaten oder zum Bedienen von OP-Geräten, Tischen und Lichtern über ein steriles Eingabegerät wie den MI-Report ist für ihn sowohl im OP als auch auf Intensivstationen denkbar.
An Technologien, um Prozesse beispielsweise im OP zu optimieren, wird in vielen Unternehmen und Forschungseinrichtungen eifrig gearbeitet. Doch in Zeiten knapper Kassen müssen auch technische Neuerungen im Gesundheitswesen einen echten Nutzen nachweisen, um zukunftsfähig zu sein. Dr. Andreas Hasse, der beim Beratungsunternehmen für Innovations- und Ingenieurdienstleistungen Altran den Bereich Solution Innovation Technologies betreut, sieht die Gestenerkennungs-Technologie nicht nur in der Medizintechnik kurz vor dem Durchbruch: „In drei bis vier Jahren könnte der Begriff der ‚Wischenden Bewegung‘ bereits so alltäglich sein wie heute ein ‚Mausklick‘.“ In der Automotive-Branche können Sensoren bereits die menschlichen Gesten im Cockpit eines Autos erkennen und dort beispielsweise das Infotainment-Programm steuern. Und auch aus Forschungsinstituten, die mit Reinräumen und hohen Sicherheitsklassen arbeiten müssen, erhält der Innovationsdienstleister vermehrt Anfragen nach Möglichkeiten der Gestensteuerung. Deren Nutzen liegt für Hasse klar auf der Hand: „Was nicht berührt werden muss, kann nicht verunreinigt werden mit Bakterien.“
Dieser Ansatz war auch Antrieb für die Entwickler beim Technologiekonzern Siemens, sich mit Gestenerkennung und Gestensteuerung zu beschäftigen. Die Lösung fand das Unternehmen schließlich im Videospielbereich bei der Kinect-Technik von Microsoft. Kinect wird in der Spielekonsole Xbox 360 von Microsoft eingesetzt, wo die Technik die Bewegungen von Spielern erkennen und interpretieren kann. Herzstück der Technologie ist der Prime Sensor der israelischen Prime Sense Ltd. in Tel Aviv. Das System zur Raumerkennung arbeitet mit Farbkamera, Infrarottiefensensor und Mikrofon. Eine spezielle Software verarbeitet die Informationen und realisiert damit eine berührungslose Steuerung. Um die XBox-Technologie den langsamen Handbewegungen eines Chirurgen anzupassen, erhielt das System die notwendige Präzision, und auch die Messtechnik wurde neu programmiert. Zurzeit wird das System an zwei europäischen Krankenhäusern in Spanien und Amsterdam unter semi-realen Bedingungen getestet. Der Einsatz am realen Patienten im OP steht noch aus.
Dem Patienten ebenfalls nahe kommen könnte demnächst ein System der Gestigon GmbH zur berührungslosen Atmungsüberwachung. Die Ausgründung der Universität Lübeck arbeitet daran, mit einer 3D-Kamera und der unternehmenseigenen Software zur Gesten- und Körpererkennung Patientenbewegungen im MRT oder CT – wie beispielsweise Atmungsbewegungen – präzise zu messen. Ziel ist es, die in der Bildgebung häufig auftretenden Bewegungsartefakte zu ermitteln und zu kennzeichnen. Das System soll die aufwendigen und fehleranfälligen Brustgurte ersetzen. Ein Protoyp ist geplant.
-
- Susanne Schwab susanne.schwab@konradin.de
- Weitere Informationen Zum Fraunhofer HHI: www.hhi.fraunhofer.de Zum Technologiedienstleister: www.altran.com Zu Siemens Healthcare: www.siemens.com/healthcare
Online weiterlesen
Details über die Einsatzmöglichkeiten und Schnittstellen des MI-Reports im OP, über die Technologie der berührungslosen Gestenerkennung und -steuerung, sowie zur berühungslosen Atemüberwachung im MRT lesen Sie in unserem Online-Magazin.
Stichwort: Online weiterlesen
iPoint und Handtracker – und der Finger wird zur Maus
Gesten gehören zu den natürlichsten und intuitivsten Ausdrucksmöglichkeiten des Menschen. Diese Gesten für die Steuerung von Computeranwendungen zu nutzen, sie präzise erfassen, analysieren und weiterverarbeiten zu können, ist seit einigen Jahren ein Ziel der Forschung am Fraunhofer Heinrich-Hertz-Institut. Ausgangspunkt der Gestensteuerung ist die iPoint-Technologie. Die Erkennungseinheit des iPoint ist nicht größer als eine Tastatur und beinhaltet zwei schräg stehende Kameras, die als „Augen des Computers“ mit Hilfe von Infrarotlicht die Handbewegungen des Chirurgen in Echtzeit aufzeichnen. Andere einfallende Lichtquellen lassen sich dadurch weitgehend herausfiltern.
Der Sensor, Handtracker genannt, ist Herzstück des videobasierten Gestensteuerungssystem MI-Report und muss für Operationen ensprechend positioniert werden. Er wird beispielsweise an einem gewöhnlichen Deckenarm über dem OP-Tisch befestigt. Zur Bedienung des Systems sollte sich die Hand des Chirurgen etwa einen Meter unterhalb des Sensors befinden. Mit Hilfe der beiden Kameras und einer Bildverarbeitungssoftware werden die 3D-Koordinaten der Chirurgen-Hände erkannt: Sobald das Gerät eingeschaltet ist, sucht die Software nach Finger- und Handformen, verfolgt diese und wandelt die Gesten in Computerbefehle um – ähnlich denen einer Computermaus – bis schließlich die „Ausschalt-Geste“ ausgeführt wird. Auf diese Weise können Ärzte blättern, zoomen und markieren, ohne Krankenakten, Computer oder Tastatur zu berühren: gefahrlos und steril. Das Gerät erkennt die Bewegungen von bis zu zehn Fingern beziehungsweise die dadurch dargestellten Handgesten. Die Inhalte werden auf einem Multi-User-Display visualisiert, der, an zentraler Stelle montiert, sowohl für den Operateur als auch für das Personal gut sichtbar ist.
Aus Expertensicht
Frau Strentz, was fasziniert Sie persönlich am meisten an der Technologie der Gestenerkennung und Gestensteuerung?
Maschinen und andere Gegenstände mittels simpler Gesten zu bedienen, war mir zuvor vor allem aus Science-Fiction-Geschichten bekannt. Jetzt leben wir im Jahr 2012 und besitzen bereits die Technologien und die Mittel, um Gestenerkennung und -steuerung in unseren Alltag zu integrieren. Im sterilen Umfeld stellt die Entwicklung der Gestenerkennung einen wichtigen Meilenstein dar. Das Thema Hygiene steht im OP an oberster Stelle. Das Nutzen von Tastatur, Maus oder Touchscreen ist aufgrund der notwendigen Sterilität der Geräte im OP bislang nur eingeschränkt möglich gewesen. Dank der Gestenerkennung gehört dies nun der Vergangenheit an. Die berührungslose Zukunft hat schon jetzt begonnen.
Wie ändert die Gestensteuerung die Arbeit im OP?
Mit dem MI-Report ist es gelungen, eine zukunftsweisende Technologie in den OP-Alltag zu integrieren und Arbeitsabläufe effizienter und effektiver zu gestalten. Die berührungslose Steuerung eröffnet im Operationssaal viele Möglichkeiten, die es weiterzuentwickeln gilt und die auch in Zukunft die Arbeit im sterilen Umfeld beeinflussen werden.
Welche technischen Voraussetzungen müssen gegeben sein, um das System zu installieren?
Schon bei der Konzeption war uns bewusst, dass nicht jeder OP-Saal die gleichen Gegebenheiten mit sich bringt. So war es eine der Hauptanforderungen, ein Gerät zu schaffen, das sich an die bestehenden Strukturen und Räumlichkeiten anpassen lässt. Der MI-Report ist daher mit verschiedenen Befestigungsvarianten erhältlich. Außerdem besteht die Möglichkeit, den Empfänger an einem im Raum beweglichen Federarm zu montieren. Auch für die Übertragung der Daten auf das System gibt es zwei Möglichkeiten: Neben der Onlineanbindung ist es möglich, die Unterlagen per USB-Stick bereitzustellen. Schnittstellen sichern die Anbindung zum Bildablage- und Kommunikationssystem PACS und zum Krankenhausinformationssystem KIS.
Welche Rückmeldungen bekommen Sie aus den Kliniken?
Aufgrund der Arbeitserleichterung ist das Feedback ausschließlich positiv. Einige Chirurgen haben uns berichtet, welch eine Erleichterung das System im OP darstellt und was für einen wichtigen Schritt diese Technik für sie bedeutet. Unter anderem ist das System, das übrigens mit dem Preis „Ausgewählter Ort 2012“ ausgezeichnet wurde, in der Berliner Klinik für MIC aktiv im Einsatz und sorgt hier – eingebettet in die gegebenen Strukturen – für einen reibungslosen OP-Ablauf.
Gibt es vergleichbare Systeme für den Einsatz in der Medizintechnik? Der MI-Report zeichnet sich vor allem durch seine einfache Integration, Handhabung und Zukunftsausrichtung aus. Sicher gibt es Versionen anderer Systeme, die jedoch unserem Wissen nach bislang nicht final entwickelt sind und auch nicht die Flexiblität unseres Systems haben. Der MI-Report gibt für den OP-Saal der Zukunft einen klaren Weg vor, wobei die berührungslose Effizienz eine immer wichtigere Rolle spielen wird.
Ihr Stichwort
-
- Berührungslose Gestensteuerung
- Einsatz optischer Technologie
- Verringertes Infektionsrisiko
- Effiziente OP-Auslastung
- Mensch-Maschine-Interaktion
Unsere Whitepaper-Empfehlung
Lesen Sie, warum Medizintechnikunternehmen ihre Testprozesse für die Validierung von Software optimieren müssen und wie sie dabei die Erfahrung der Automobilbranche für sich nutzen können.
Teilen: