Wie humorbegabt sind Roboter gemeinhin? Es sollte keine Schwierigkeit sein, einer Maschine beizubringen, einen Witz zu erzählen. Aber kann ein Roboter lernen, mit einem Witz den ganz individuellen Humor seit? So einen hat Klaus Weber und seinen Kollegen vom Augsburger Lehrstuhl für Multimodale Mensch-Technik-Interaktion bei der diesjährigen International Conference for Multimodal Interaction (ICMI’18) in Boulder (Colorado) eine Nominierung für den Best Paper Award eingebracht.
Die ICMI ist eine der international wichtigsten Konferenzen im Bereich der Human-Centered Multimedia. Die Forschungsarbeiten, die in diesem Jahr dort vorgestellt wurden, erstreckten sich von Untersuchungen neuartiger Interaktionsmodalitäten – wie Blick-, Gesten-, und Stiftbasierter Mensch-Technik Interaktion – über Interaktionen, die menschliches Wohlbefinden adressieren, bis hin zu sozialen Interaktionen mit Robotern. Gleich zwei der Arbeiten der Forscher des Augsburger Lehrstuhls von Prof. Dr. Elisabeth André wurden für den Best Paper Award nominiert, darunter diejenige von Klaus Weber zum Thema „How to Shape the Humor of a Robot – Social Behavior Adaptation Based on Reinforcement Learning“.
Bislang galt Humor als dem Menschen vorbehalten
Humor zu verstehen, ist eine Eigenschaft, die bislang den Menschen vorbehalten war, denn Robotern fehlt eigentlich die notwendige Empathieebene. Menschen verstehen es, andere zum Lachen zu bringen und vor allem zu erkennen, ob ihr Humor auch von anderen als witzig verstanden wird. Klaus Weber hat es mit seinen Kollegen Hannes Ritschel, Dr. Ilhan Aslan, Dr. Florian Lingenfelser am Lehrstuhl André nun geschafft, einem Roboter dieses „Verständnis“ zu verschaffen: Sie haben die Ergebnisse der Analyse des Verhaltens und der Reaktionen des Nutzers dem Roboter als „Wissen“ vermittelt haben, das dieser nutzt, um Witze zu erzählen, die der Nutzer als witzig empfindet und präferiert.
Echtzeitanalyse sozialer Signale und Bestärkendes Lernen
Zum Einsatz kam dabei das am Augsburger Lehrstuhl entwickelte Tool SSI (Social-Signal-Interpretation). Es ermöglicht die Echtzeitanalyse sozialer Signale – hier speziell Lachen und Lächeln. Ein trainiertes Modell liefert die Wahrscheinlichkeiten für Lachen oder Lächeln der Nutzer, und der Roboter versucht auf Basis eines Algorithmus‘ des Bestärkenden Lernens, das emotionale Empfinden beim Nutzer zu maximieren, indem er diejenigen Witze präferiert, bei denen der Nutzer positivere Reaktionen zeigt.
Wenn eine Maschine wie ein Roboter sowas lernen kann – wird dann auch der Computer künftig angemessen darauf reagieren, wenn der Nutzer „not amused“ ist? Es hätte schon was, zum Beispiel nach dem Absturz einen passenden (!) Witz anzuzeigen, um das gerade ein bisschen unterkühlte Verhältnis wieder zu entspannen, wenn man schon so viel Zeit zusammen verbringt…