Roboter-Puppen, mit denen autistische Kinder lernen, Menschen besser zu verstehen; computergenerierte Avatare, die helfen, mit Halluzinationen umzugehen; virtuelle Chats, die Unterstützung bei Depressionen bieten: Es gibt schon heute zahlreiche Ansätze, die psychische Gesundheit von Menschen mit so genannter verkörperter Künstlicher Intelligenz (KI) zu fördern. Von verkörperter KI spricht man, weil bei diesen Anwendungen Menschen mit einem künstlichen Gegenüber interagieren, wodurch ganz neue Dynamiken entstehen.
Algorithmen treffen therapeutische Aussagen
Durch moderne Algorithmen und gestiegene Rechnerkapazitäten ist heute der Einsatz von KI in der Psychotherapie realistisch. „Die Algorithmen hinter diesen Anwendungen sind mit riesigen Datenmengen trainiert worden und können echte therapeutische Aussagen treffen“, erläutert Alena Buyx, Professorin für Ethik der Medizin und Gesundheitstechnologien an der Technischen Universität München (TUM). Gemeinsam mit Dr. Amelia Fiske und Peter Henningsen, Professor für Psychosomatische Medizin und Psychotherapie, hat sie erstmals einen systematischen Überblick über Anwendungen der verkörperten KI für die psychische Gesundheit erstellt und Chancen und Herausforderungen herausgearbeitet.
Mehr Menschen bekommen Zugang
Die neuen Anwendungen haben enormes Potenzial. Sie können mehr Menschen Zugang zu einer Behandlung bieten, weil sie nicht an bestimmte Zeiten und Orte gebunden sind. Einigen Betroffenen fällt es zudem leichter, mit der KI zu interagieren als mit einem menschlichen Gegenüber. Es gibt aber auch Risiken. „Verkörperte KI kann und darf kein billigerer Ersatz für eine Behandlung durch reale Ärzte sein“, sagt Amelia Fiske.
„Obwohl verkörperte KI schon in der Klinik angekommen ist, gibt es bisher kaum Empfehlungen von medizinischen Fachgesellschaften zum Umgang mit diesem Thema. Das wäre jedoch dringend notwendig, um die Vorteile dieser Technologien zu nutzen und gleichzeitig Nachteile zu vermeiden und ‚Wildwuchs‘ einzudämmen. Außerdem sollte das Thema bereits im Medizinstudium behandelt werden“, sagt Prof. Peter Henningsen, Dekan der TUM-Medizinfakultät.
Fehlende ethische Regeln für KI
Derzeit werden vermehrt Leitlinien für KI erstellt, etwa die gerade von der EU entwickelten Ethics Guidelines for Trustworthy AI. Zusätzlich dazu sind aus Sicht der Forscher dringend fachspezifische Regeln notwendig. „Therapeutische KI-Anwendungen sind Medizinprodukte, für die wir entsprechende Zulassungsverfahren und ethische Handlungsvorgaben brauchen“, sagt Alena Buyx. „Wenn die Programme beispielsweise erkennen können, ob Patienten Suizidgedanken haben, dann müssen sie, genau wie Therapeuten, im Ernstfall klare Warn-Protokolle befolgen.“
Darüber hinaus müsse verkörperte KI intensiv auf soziale Effekte hin erforscht werden. „Unter Umständen lernt beispielsweise ein Kind mit einer Störung aus dem Autismus-Spektrum durch den Kontakt mit einem Roboter nur, wie man besser mit Robotern umgeht – aber nicht mit Menschen“, sagt Alena Buyx.