Hände weg vom Smartphone – es lässt sich auch dezent per Gesichtsgesten steuern. Diese werden im Ohr gemessen, per so genanntem Ear Field Sensing.
Moderne Mobilgeräte werden meist mithilfe eines Touchscreens gesteuert. Im Alltag gibt es jedoch viele Situationen, in denen sich diese Art der Bedienung nicht umsetzen lässt. Trägt man zum Beispiel Handschuhe oder hat die Hände mit Einkäufen voll, ist das Nutzen von Smartphone und Co. nur schwer möglich. Wissenschaftler des Fraunhofer-Instituts für Graphische Datenverarbeitung IGD in Rostock suchen daher nach alternativen Konzepten zur Steuerung mobiler Geräte. Naheliegend ist die Steuerung via Sprache. Doch Herausforderungen wie Umgebungslärm sowie die soziale Akzeptanz setzen der Sprachsteuerung enge Grenzen. Die Lösung der Fraunhofer-Experten: die Steuerung über Kopf- und Gesichtsgesten wie Augenzwinkern, Lächeln oder Nicken.
Ear-FS misst das Lächeln im Ohr
Im Rahmen der Erforschung berührungsloser Steuerung für mobile Szenarien evaluierten die Rostocker Forscher verschiedene Technologien, mit denen Kopf- sowie Gesichtsbewegungen ausgelesen werden können. Dabei kam besonders der Alltagstauglichkeit große Bedeutung zu.
Dafür bedarf es möglichst unauffälliger Systeme wie zum Beispiel Ear Field Sensing (Ear-FS), einer Eigenentwicklung des Fraunhofer IGD. Dabei handelt es sich um einen speziellen Ohrstöpsel, der die Muskelströme und Verformungen des Ohrkanals misst, die bei Gesichtsbewegungen auftreten. Der Sensor registriert bereits kleinste Bewegungen im Gesicht durch die Art, wie sich die Form des Ohrkanals verändert, und misst Muskelströme, die bei der Bewegung des Gesichts oder des Kopfes entstehen.
Zahlreiche Einsatzmöglichkeiten
Ear-FS ermöglicht nicht nur Mikrointeraktionen mit dem Smartphone wie etwa das Annehmen und Ablehnen von Telefonanrufen oder die Steuerung des Music-Players. Die Auswertung der Gesichtsbewegungen erlaubt auch Rückschlüsse auf Müdigkeit, Anstrengung und andere Gemütszustände des Nutzers. Dadurch könnten Smartphones beispielsweise Autofahrer warnen, wenn verstärkt Zeichen von Müdigkeit und Erschöpfung registriert werden, oder sich automatisch lautlos stellen, wenn ihr Besitzer hoch konzentriert arbeitet.
Denkbar ist der Einsatz der Technologie auch im medizinischen Bereich. Zum Beispiel könnte sie Menschen mit Locked-in-Syndrom helfen, leichter zu kommunizieren, indem sie ihnen ermöglicht, Computer mit Gesichtsbewegungen zu steuern. Matthies über weitere Einsatzmöglichkeiten: „Mit der Technologie können wir auch an anderen Stellen des Körpers Aktivitäten ablesen und von externen Signalen trennen: Dies eröffnet uns weitere Einsatzmöglichkeiten, darunter die komplementäre Steuerung von Maschinen in der Industrie 4.0.“
Unsere Webinar-Empfehlung
Erfahren Sie, was sich in der Medizintechnik-Branche derzeit im Bereich 3D-Druck, Digitalisierung & Automatisierung sowie beim Thema Nachhaltigkeit tut.
Teilen: