Herr Professor Budde, wie fit ist ein System wie ChatGPT in medizinischen Fragen?
ChatGPT ist ein Transformer-Sprachmodell. Solche Systeme können grundsätzlich auch in medizinischen Fragen Auskunft geben. Das funktioniert aber nur, wenn sie dafür entwickelt oder daran angepasst wurden. Für den konkreten Fall ChatGPT war zu lesen, dass es eine medizinische Prüfung bestanden habe. Das heißt aber noch lange nicht, dass es im medizinischen Umfeld eingesetzt werden kann. Denn dieses Sprachmodell kann vor allem eins: sehr flüssig formulieren. Das ist ein deutlicher Fortschritt im Bereich der künstlichen Intelligenz, das muss man würdigen. Aber so ein Sprachmodell kann eben auch mit seinen schönen Formulierungen die Illusion von Wissen und Intelligenz entstehen lassen, auch wenn es gerade nur halluziniert. Dann ist es sogar gefährlich, falls sich jemand bei medizinischen Fragen darauf verlässt. Man muss sich also immer die Begrenzungen solcher Systeme vor Augen führen.
Wie nützlich könnten Transformer-Sprachmodelle für medizinische Anwendungen sein?
Transformer-Sprachmodelle bieten interessante Möglichkeiten. Sie könnten zum Beispiel helfen, Arztbriefe zu formulieren, und Mediziner damit von Routinetätigkeiten entlasten. Das wäre eine Anwendung, die nicht direkt am Patienten stattfindet und damit geringere rechtliche Hürden zu überwinden hat. Dennoch wäre auch das eine Herausforderung für ein Sprachmodell. Es braucht dafür als Basis einen Textkorpus in deutscher Sprache, der mit medizinischen Fachbegriffen umgehen kann und auch Abkürzungen richtig versteht. Diese können je nach Abteilung unterschiedliche Bedeutungen haben. So steht HWI in der Kardiologie für einen Hinterwandinfarkt, während in der Nephrologie damit ein Harnwegsinfekt gemeint ist. Eine weitere Hürde ist, dass medizinische Diagnosen oft verneinend formuliert sind. Untersuchungen sollen Vermutungen ausschließen, wie zum Beispiel einen Herzinfarkt. Diese Feinheiten muss das Sprachmodell erkennen und nicht nur den Begriff „Herzinfarkt“ mit dem Patienten verbinden, der eben keinen solchen hatte.
Gibt es schon entsprechende Ansätze?
Ja, daran arbeiten mehrere Institutionen, auch in Deutschland. Mehrere Mitglieder der Plattform Lernende Systeme, darunter das Deutsche Forschungszentrum für Künstliche Intelligenz und wir von der Charité, arbeiten dazu seit fünf Jahren zusammen. Dabei geht es um einen deutschen Textkorpus, der die Basis für Arztbriefe sein kann. Für das Training eines Systems werden aber immer große Datenmengen gebraucht. Die erforderlichen Daten gibt es, man muss sie aber noch zusammenführen. Und gemäß der Datenschutzvorgaben ist auch das Anonymisieren erforderlich. Das klingt zwar nach einer Kleinigkeit. Aber im medizinischen Kontext muss man sich darüber klar sein, dass auch das Anonymisieren zum Verlust von Inhalten führen kann. Für das Training einer KI ist das unter Umständen problematisch.
Künstliche Intelligenz für die Medizin muss ethisch gut gemacht sein
Und was können Chat-Bots im Kontakt mit Patienten leisten?
Chat-Bots haben das Potenzial, Routinefragen zu beantworten und damit medizinisches Personal zu entlasten. Hier müssen wir aber voraussetzen, dass der Bot zu 100 Prozent korrekt arbeitet und seine Antworten auf Fakten basieren. Es darf zum Beispiel nicht vorkommen, dass der Bot einen Patienten, der sich mit 39 Grad Fieber meldet, beschwichtigt. An einem solchen sicheren System arbeiten wir gerade im Projekt Smart NTX. Die Grundlagen dafür haben wir im Vorgängerprojekt Medical Assistant for Chronic Care Solutions erarbeitet, kurz Maccs. In diesem ersten Teil ging es darum, Patienten nach einer Nierentransplantation telemedizinisch zu betreuen. Dazu gehörte auch die Chat-Möglichkeit mit medizinischen Fachkräften. Derzeit ist ein Zwischenschritt angedacht: Der Chat-Bot generiert dann Antworten. Diese werden aber erst nach der Kontrolle durch Fachleute an den Patienten weitergegeben. Solche so genannte bedeutsame menschliche Kontrolle oder Meaningful Human Control ist wichtig, um zu sehen, ob man dem Chat-Bot und seinen Antworten vertrauen kann. Erst dann kann er direkt mit Patienten kommunizieren.
Wie gut gehen Akteure im Gesundheitssystem schon mit KI um?
Um die Arbeit zum Beispiel des Chat-Bots zu kontrollieren, muss man verstehen, was das System tut, und man muss beurteilen können, ob das Ergebnis auch für den individuellen Patienten passt. Beim Umgang mit KI lässt sich die Ausbildung sicher noch verbessern. Aber Mediziner sehen die Technik durchaus als Basis für interessante Assistenzmodelle, auch schon in der nächsten Zeit. Das hat eine aktuelle Befragung gezeigt.
Wie schaffen es neue Lösungen, die Künstliche Intelligenz nutzen, ins Gesundheitswesen?
Man muss Anwendungsfälle schaffen, um die Qualität der Ergebnisse zu bewerten. Auf dieser Grundlage kann dann eine Zertifizierung als Medizinprodukt folgen – denn das wäre ein Chat-Bot im Kontakt mit Patienten. Darüber hinaus muss für die Fachkräfte der Kontext erkennbar sein, in dem ein System genutzt werden kann und darf. Dafür wäre ein Art Beipackzettel sinnvoll. Darin sollte stehen, was das System sicher kann, wo es Schwächen hat oder was gar nicht geht. Eine KI, die zum Beispiel mit großen Datenmengen von US-amerikanischen Veteranen trainiert wurde, hat fast ausschließlich Daten von Männern verarbeitet. Über Frauen wird sie vermutlich wenig verlässliche Auskünfte geben können. Das muss der Arzt wissen, der so ein Assistenzsystem nutzen will. Und auch Haftungsfragen sind noch zu klären.
Welche Erfahrungen machen Sie mit KI in der Nephrologie?
Es gibt bisher kaum zugelassene Systeme mit KI. Aber für die Forschung zum Beispiel in Universitätskliniken spielt KI schon eine große Rolle.
Was wäre wünschenswert, wie könnte man KI in der Medizin sinnvoll einsetzen?
KI-Lösungen, die über Sprachmodelle die Effizienz steigern, sind willkommen. Ob das nun Arztbriefe, das Beantworten von Patientenfragen, das Recherchieren in der Fachliteratur oder die Umwandlung von Text in Sprache ist, damit zum Beispiel ein sehbehinderter Patient zu bestimmten Informationen Zugang hat. Auch Übersetzungen wären hilfreich, um den Austausch mit Patienten zu erleichtern, die andere Sprachen sprechen als der Arzt.
Wie könnte KI künftig im Zusammenhang mit Medizinprodukten aussehen?
Ein Medizingerät gibt heute bei Bedarf Alarme aus. Diese betreffen zum Teil den Techniker, wenn im Gerät etwas falsch läuft. Oder es geht um Messwerte, die den Zustand eines Patienten betreffen. In beiden Fällen könnte eine integrierte KI Vorschläge dazu machen, wie zum Beispiel ein Defekt am besten zu beheben ist, in dem sie ähnlich formulierte Fehlermeldungen vergleicht und interpretiert. Mit regelbasierten Lösungen geht das schon, aber eine Weiterentwicklung wäre vielleicht möglich. Bei einem Beatmungsgerät als Beispiel für die Vision von einem intelligenten System könnte dieses Vorschläge dazu machen, wie die Parameter für die Therapie zu wählen sind oder sogar Reports ausgeben. Aber, wie schon erwähnt: So ein System muss zu 100 Prozent auf Faktenbasis arbeiten und sich idealerweise sogar auf konkrete Stellen in der Fachliteratur beziehen. Halluzinieren darf es auf keinen Fall.
KI und ChatGPT sind derzeit in der Hype-Phase. Wie lange wird es dauern, bis KI in der Medizin so alltäglich ist wie heute ein Smartphone?
Ein paar Jahre wird es bis dahin schon noch dauern. ChatGPT ist ja nur ein Anfang, ein erster erfolgreicher Schritt in der Entwicklung der Transformer-Sprachmodelle. Ich bin mir sicher, dass die Technologie in der Medizin ankommt und dass bis dahin kein Jahrzehnt vergehen wird. Die Sicherheit muss aber gewährleistet sein. Dann steht dem Einsatz – auch in Deutschland – nichts im Weg.
Weitere Informationen
Die Plattform Lernende Systeme ist ein Netzwerk von Expertinnen und Experten zum Thema Künstliche Intelligenz (KI). Sie bündelt Fachwissen und fördert den interdisziplinären Austausch und gesellschaftlichen Dialog. Knapp 200 Mitglieder aus Wissenschaft, Wirtschaft und Gesellschaft entwickeln in Arbeitsgruppen Positionen zu Chancen und Herausforderungen von KI und benennen Handlungsoptionen. Die Plattform wurde 2017 vom Bundesministerium für Bildung und Forschung (BMBF) auf Anregung des Hightech-Forums und der Deutschen Akademie der Technikwissenschaften (Acatech) gegründet und wird von einem Lenkungskreis gesteuert.
(Bild: MQ-Illustrations/stopck.adobe.com)
Whitepaper: Was KI den medizinischen Fachkräften bringt
Fachkräfte im Gesundheitswesen entlasten und die Patientenversorgung verbessern – dazu könnte Künstliche Intelligenz (KI) beitragen. Dem Einsatz dieser Technologie stehen medizinische und pflegerische Fachkräfte grundsätzlich aufgeschlossen gegenüber. Das hat eine Befragung gezeigt, die die Plattform Lernende Systeme durchgeführt hat.
Die Resultate haben die Autoren im April auf der Gesundheitsmesse DMEA in Berlin vorgestellt. Zu den Ergebnissen gehört, dass die Fachkräfte technische und organisatorische Veränderungen im stationären und ambulanten Arbeitsalltag fordern. Das sei die Voraussetzung dafür, dass Patientinnen und Patienten sowie Fachpersonal von KI-Systemen profitieren können.
KI-Anwendungen könnten auch dazu beitragen, dem Mangel an qualifiziertem Personal entgegenzuwirken und die Zufriedenheit der Beschäftigten zu erhöhen, heißt es in einem Whitepaper, das die Ergebnisse der Befragung zusammenfasst. Es steht unter dem Titel „KI für Gesundheitsfachkräfte. Chancen und Herausforderungen von medizinischen und pflegerischen Anwendungen“ zum Download bereit.
Prof. Klemens Budde, Co-Leiter der Arbeitsgruppe Gesundheit, Medizintechnik, Pflege der Plattform Lernende Systeme, ist einer der Autoren des Whitepapers. Seiner Ansicht nach haben die befragten Fachkräfte „wertvolle Hinweise gegeben, wie der Einsatz von KI gelingen kann”.
Zum Whitepaper: http://hier.pro/B9M25