Wir beamen uns ins Jahr 2024: Herr Merk hat einen Termin bei seiner Hausärztin. Sie hat Einblick in die digitale Patientenakte, die auf seinen Wunsch Informationen zu Vorerkrankungen, aber zum Beispiel auch zu seiner Rauchervergangenheit enthält. Das KI-basierte Assistenzsystem, mit dem die Hausärztin auf die Patientenakte zugreift, empfiehlt eine Vorsorgeuntersuchung bei einem Lungenfacharzt, der ein CT der Lunge erstellen lässt. Bei der Auswertung der CT-Bilder wird auch der Lungenfacharzt von dem KI-Assistenzsystem unterstützt. Nach dieser und weiteren Untersuchungen steht die Diagnose fest: Herr Merk hat Lungenkrebs. Das KI-Assistenzsystem prüft die Befunde und empfiehlt, den Tumor chirurgisch entfernen zu lassen. Das Tumorboard rät Herrn Merk auf dieser Basis zur Operation.
Bei der Operation begleitet ein KI-basiertes Navigationssystem die Chirurgen. Nach dem Eingriff empfiehlt der Lungenfacharzt die medikamentöse Behandlung. Er zieht dafür das KI-Assistenzsystem heran, das auf umfangreiche Leitlinien, die genetischen Merkmale des Tumors sowie weltweite Patientendaten zurückgreift, um den Erfolg unterschiedlicher Therapie-Alternativen vorherzusagen. Gemeinsam wählen Herr Merk und der Facharzt eine Chemotherapie aus. Die Behandlung verläuft optimal. Herr Merk möchte, dass die gesammelten Daten der vergangenen Monate in seine digitale Patientenakte einfließen. Dann sind seine Krankheit und die Behandlung lückenlos dokumentiert und mögliche Auffälligkeiten lassen sich in Zukunft frühzeitig erkennen. Außerdem hat er einer freiwilligen Datenspende zugestimmt: So stehen seine Daten anonymisiert und datenschutzkonform der Forschung zur Verfügung und können Lungenkrebspatienten in Zukunft bessere Heilungschancen eröffnen.
Künstliche Intelligenz in der Medizin – woher das Szenario stammt
Dieses Anwendungsszenario zeichnet die Arbeitsgruppe Gesundheit, Medizintechnik, Pflege der Plattform Lernende Systeme, hinter der die Deutsche Akademie der Technikwissenschaften (Acatech) steht. Acatech berät Politiker in technikwissenschaftlichen und technologiepolitischen Fragen wie in diesem Fall zu KI. Die vom Bund geförderte Wissenschaftsakademie ist für ihre substanziellen Studien und Stellungnahmen zu Zukunftsthemen bekannt und besteht keinesfalls aus idealistischen, technikverliebten Lobbyisten. Doch ist ihr Anwendungsszenario für einen durchgängigen Einsatz von KI in der Medizin – von der Vorsorge über Diagnose und Therapie bis hin zur Nachsorge – in fünf Jahren realistisch?
Szenenwechsel sechs Jahre zurück: Damals versprachen IT-Hersteller riesige Fortschritte für die Medizin durch KI. IBMs Supercomputer Watson, der KI-Anwendungen für verschiedenste Branchen von Automotive über Landwirtschaft bis hin zum Wetter ermöglicht, schien damals die neue Wunderwaffe für die
Medizin zu werden. „Am Ende soll eine Anwendung für den Tabletcomputer stehen, die jedem Arzt in Echtzeit mitteilt, mit welcher Wahrscheinlichkeit eine bestimmte Therapie für einen bestimmten Patienten erfolgreich sein wird, wie hoch der Anteil von Fehldiagnosen durchschnittlich ist und wo der nächste Ansprechpartner für das jeweilige Spezialgebiet zu finden ist“, skizzierte eine IBM-Managerin 2013 in der FAZ die Zukunft.
KI-Projekt mit IBM Watson wurden gestoppt
Doch mittlerweile hat sich Ernüchterung breit gemacht: Das Deutsche Krebsforschungszentrum (DKFZ) in Heidelberg hat im vergangenen Jahr die Zusammenarbeit mit „Dr. Watson“ – mit dem Ziel maßgeschneiderter onkologischer Therapien – ohne Ergebnis beendet. Der Krankenhausbetreiber Rhön Klinikum, bei dem Watson die Diagnose seltener Krankheiten verbessern sollte, zog bereits im Jahr davor die Reißleine. Und auch Onkologen des Rigshospitalet in Kopenhagen lehnten Watson nach einer Weile ab; der Supercomputer lag mit seinen Empfehlungen für die Krebstherapie zu oft daneben.
„Das System ist noch ziemlich unreif. Watson sagt mir zwar, was für eine Behandlung der Patient braucht, aber das ist relativ banal, sozusagen onkologisches Allgemeinwissen. Will ich als Spezialist jedoch mehr wissen, kann mir Kollege Watson heute noch nicht weiterhelfen“, konstatiert Professor Michael Hallek, Direktor der Klinik für innere Medizin der Uni Köln und Präsident der Deutschen Gesellschaft für Hämatologie und Onkologie (DGHO), vor Kurzem in einem Interview mit Focus Online.
Noch fehlt der Nachweis für sinnvolle Ergebnisse
Wo stehen wir also heute? Hallek: „Es ist klar, dass KI gerade für uns Onkologen sehr wichtig werden wird. Wir sind mitten in einer explosiven Entwicklung, in der sich vermutlich unser Vorgehen bei der Krebstherapie maßgeblich ändern wird.“ Allerdings, so schränkt er ein: „KI ist nur eine Technik. Sie muss erst nachvollziehbare Ergebnisse liefern, bis wir sie sinnvoll anwenden können.“ Und bislang, so Haller, reichen die Studien noch nicht aus, „um den Onkologen sagen zu können, dass man KI anwenden muss.“ Bei der DGHO laufen daher auch noch keine wesentlichen KI-Aktivitäten.
Hallek geht davon aus, dass KI den Onkologen als erstes bei der Diagnostik helfen wird, und zwar bei der Auswertung bildgebender Verfahren. Dies ist auch der Bereich, in dem KI bislang die besten Resultate vorweisen kann: Bei einer aktuellen Studie im Skin-Classification-Projekt des DKFZ konnte ein KI-Algorithmus bei 100 Bildern präziser als die 157 teilnehmenden Hautärzte beurteilen, ob es sich bei verdächtigen Hautveränderungen um ein Muttermal oder einen schwarzen Hautkrebs handelt. Doch vor allzu großer Euphorie warnt Alexander Enk, Direktor der an der Studie beteiligten Universitäts-Hautklinik Heidelberg. Denn der Algorithmus kennt nur die beiden Diagnosen Muttermal oder schwarzer Hautkrebs. „Die klinische Realität ist allerdings eine völlig andere: Ein Facharzt muss bei der körperlichen Untersuchung zwischen mehr als hundert Differentialdiagnosen unterscheiden können, davon sind viele sehr selten. Einige sind kaum allein am Bild zu erkennen, sondern brauchen weitere Informationen wie zum Beispiel Tasteindrücke“, so Enk.
Radiologie hat Interesse an den Möglichkeiten künstlicher Intelligenz
Auch die Radiologen sehen viele mögliche Anwendungen von Big Data und KI, bestätigt Dr. Daniel Pinto dos Santos, am Institut für Diagnostische und interventionelle Radiologie an der Uniklinik Köln in der Machine Learning and Data Science Group tätig: „Das Interesse an diesen Themen hat in den letzten Jahren stark zugenommen, ebenso die Veröffentlichungen zu AI-Algorithmen in derRadiologie. Die meisten Veröffentlichungen konzentrieren sich auf die Bildinterpretation“, schreibt er in einem Blog der European Society of Radiology (ESR). Die Interessenvertretung hat im April 2019 ein White Paper dazu veröffentlicht, was Radiologen über KI wissen sollten. Die darin erörterten Punkte sind allerdings auch für andere medizinische Fachgebiete gültig.
Machine Learning generiert Wissen aus Erfahrung
„Die Verfügbarkeit großer Mengen von medizinischen Bildern im Imaging-Bereich durch PACS-Systeme bietet ein großes Potenzial für KI-Training“, stellt die ESR zum Beispiel fest. Kein Wunder: Große Beispieldatenmengen sind nach heutigem Stand notwendig, wenn man die KI-Technologie des maschinellen Lernens einsetzt. Maschinelles Lernen nämlich bezweckt die Generierung von „Wissen“ aus „Erfahrung“, indem Lernalgorithmen aus Beispielen ein komplexes Modell entwickeln. Dieses Modell kann anschließend auf neue, potenziell unbekannte Daten derselben Art angewendet werden. Mit den gelernten Modellen lassen sich dann Vorhersagen treffen oder Empfehlungen und Entscheidungen generieren – ohne vorab festgelegte Regeln oder Berechnungsvorschriften.
Gesellschaft sollte den Datenschatz gemeinsam heben
Doch dieses Vorgehen birgt Herausforderungen: „Die Methoden des modernen Machine Learning sind alle sehr datenhungrig, um Modelle zu trainieren. Die Klassifizierung von Melanomen etwa braucht hunderttausende von Instanzen“, betonte der am DKFZ tätige Physiker Dr. Oliver Stegle im Februar in Berlin während einer Podiumsdiskussion des Projekts „Die Debatte“, das von der Initiative Wissenschaft im Dialog getrieben wird. „Große Datenmengen sind ein Schatz, den wir als Gesellschaft heben sollten. Die Frage ist aber, wie man zu großen Datenmengen kommt.“
„Wir brauchen eine klinikübergreifende Kooperation, um große Datenmengen zu erhalten“, sagte der Neuroethiker Dr. Philipp Kellmeyer von Albert-Ludwigs-Universität Freiburg, während der Diskussion. „Doch hier zeigt sich, dass die Interoperabilität der Datenbanken sehr schwierig ist. Die IT-Infrastruktur vieler Kliniken ist veraltet – und es sind grundlegende Investitionen nötig, um große Datenmengen sinnvoll verfügbar zu machen.“
Wie viele Daten KI-Anwendungen benötigen, diese Frage scheint sehr individuell beantwortet werden zu müssen. So stellte Dr. Dietmar Frey, Neurochirurg an der Charité – Universitätsmedizin Berlin, auf der Podiumsdiskussion klar: „Bei Schlaganfällen kommen wir mit deutlich weniger Daten aus, um Aussagen zu treffen.“ An der Charité werde aktuell ein großes Daten-Repository – anonymisiert und unter Wahrung der Patientenrechte – geschaffen: Im Projekt Prediction 2020 wird mit Hilfe von KI ein Simulationsmodell entwickelt, das unter anderem eine prädiktive Diagnostik bei der Schlaganfallbehandlung mittels medizinischer Bildgebung ermöglicht.
Nicht auf großen Wurf warten, sondern KI in kleinen Schritten nutzen
„Aber wir wollen nicht warten, bis dies fertig ist. Wir wollen einfach anfangen, KI zu nutzen, daher gehen wir inkrementell vor und nutzen KI mit relativ kleinen Datenmengen“, so Frey. Sein Plan ist es, KI in der Notaufnahme einzusetzen, wenn ein neuer Patient mit akutem Schlaganfall eingeliefert wird, um dem Patienten auf der Datenbasis vergleichbarer Fälle so schnell wie möglich helfen zu können. Eine Entscheidungsunterstützung für die Ärzte in der Notaufnahme also. Derzeit verfügt das System über anonymisiert Daten von 1400 Schlaganfällen – einschließlich Angaben etwa zu Alter, Geschlecht, Gewicht, Rauchgewohnheiten, Vorerkrankungen, genommenen Medikamenten und Laborwerten.
Auch die Validierung von Modellen ist laut Stegle ein spannendes Thema. Man mache sich beim Machine Learning das klassische Vorgehen in der Empirie zu eigen, indem man einen Datensatz in zwei Teile teilt: Im Trainingsteil werden die Modelle trainiert; die Vorhersagen erfolgen mit dem anderen Teil der Daten, die das Modell vorher nie gesehen hat, die somit also nicht der Wahrheit entsprechen.
Ein anderes MRT – und die KI findet Unterschiede
„Dieses Verfahren ist anschaulich und funktioniert auch oft. Aber es gibt hier auch viele Probleme, etwa hinsichtlich der Aufteilung der Daten“, so Stegle. „Zudem ziehen Modelle oft Dinge aus den Daten heraus, die gar nichts mit der Medizin zu tun haben – etwa technischer Art. So findet der Algorithmus zum Beispiel schon leichte Unterschiede, wenn ein kranker Patient an einem anderen MRT-Scanner untersucht wurde als der gesunde Patient.“
Daher ist nach Einschätzung der ESR ein so genannter Kurationsprozess notwendig, bei dem die Daten geschichtet und nach Patientengruppen segmentiert werden. „Eine Datensatzanmerkung ist jedoch sehr zeit- und arbeitsintensiv“, so das ESR in seinem White Paper.
Ein weiteres generelles Problem ist die Datenqualität: Die KI kann immer nur so gut sein wie die Datensätze, die man ihr zum Lernen anbietet. Dies zeigt das Beispiel von IBMs Supercomputer Watson: Trainiert wurde ursprünglich nur mit Daten einer einzigen Klinik in den USA, dem Memorial Sloan Kettering Cancer Center in New York. Die Folge war ein systematischer statistischer Fehler (Bias): So schlug Watson nach Berichten des US-Branchenportals Stat zum Beispiel in Südkorea Behandlungen vor, die dort im nationalen Gesundheitssystem nicht üblich oder zugelassen waren.
Künstlich Intelligenz in der Medizin und ihre Herausforderungen
Die KI hat also noch einige Herausforderungen zu meistern, bis sie in der Medizin etabliert ist. „Ich sehe keinen Paradigmenwechsel durch KI in der Medizin“, sagt Frey von der Charité. „Aber wir werden in fünf Jahren passendere Therapien für den einzelnen Patienten finden, ohne dass die Kosten hoch gehen. KI ermöglicht Entscheidungshilfesysteme für Ärzte und auch Lösungen für Patienten zu Hause. Hier sehe ich noch viele ungenutzte Potenziale.“
„In fünf Jahren werden wir Demonstratoren und Pilotprojekte für teilautomatisierte Assistenzsysteme haben, vor allem im Bereich der Bilderkennung etwa bei Röntgendaten aus der Dermatologie“, prognostiziert auch der Neuroethiker Kellmeyer. „Ein zentraler Aspekt ist dabei Human in the Loop.“ Das heißt, der Arzt entscheidet an kritischen Stellen – und nicht die Software.
Weitere Informationen
Zur nationalen Strategie für
Künstliche Intelligenz:
www.ki-strategie-deutschland.de
Zu der vom BMBF initiierten
Plattform Lernende Systeme:
www.plattform-lernende-systeme.de
Zum KI-Whitepaper der European Society of Radiology (ESR):
Zur Expertendiskussion über
KI in der Medizin des Projekts
„Die Debatte“:
Zur Stellungnahme „Big Data und Gesundheit – Datensouveränität als informationelle Freiheitsgestaltung“ des Deutschen Ethikrats:
Zum KI-Regulierungsvorschlag der FDA:
Konferenz zu smarten Maschinen
KI wird auch das produzierende Gewerbe von Grund auf verändern. Beim 2. Kongress „Smarte Maschinen im Einsatz – Künstliche Intelligenz in Unternehmen“ präsentiert die Konradin Mediengruppe am 15. Oktober 2019 KI-basierte Anwendungen bei agilen Mittelständlern, Start-ups und Konzernen. Ergänzt werden die Vorträge durch Strategiereferate führender Wissenschaftler. Die ganztägige Veranstaltung, die erneut in Kooperation mit dem Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA in Stuttgart stattfindet, zeigt, was KI in Unternehmen heute leisten kann und wo Herausforderungen zu bewältigen sind.
Die Zahl der Teilnehmerinnen und Teilnehmer ist auf 150 begrenzt. Bis zum 31. Juli gilt ein Frühbucherrabatt.
www.industrie.de/
kuenstliche-intelligenz-2019
Von der Black Box zur Grey Box
Im Ingenieursbereich wird das physikalische Verhalten von Maschinen und Anlagen meist durch umfangreiche Differentialgleichungssysteme ausgedrückt, die dann als so genannte White-Box-Modelle zur Simulation eingesetzt werden. Dagegen bezeichnen Ingenieure künstliche neuronale Netze und andere datengetriebene Machine-Learning-Modelle, die aus Beispieldaten eine Funktion von Ein- zu Ausgabevektoren lernen, als Black-Box-Modelle. Man weiß nicht, aufgrund welcher Kriterien die KI zu einem bestimmten Schluss kommt. „Wir brauchen eine erklärbare KI, um Patienten, Ärzte, Kassen und die Regulierungsbehörden zu überzeugen“, sagt der Neurochirurg Dr. Dietmar Frey von der Charité. Daher will die Wissenschaft gewissermaßen von einem Black-Box- zu einem hybriden Grey-Box-System kommen, bei dem zumindest teilweise transparent wird, warum ein KI-System die eine oder die andere Entscheidung trifft.
Mehr zum Thema KI in der Medizin:
Ethikrat zum Thema KI empfiehlt, das Augenmerk auf die Datensouveränität zu legen
Die FDA hat zu regulatorischen Fragen der KI einen ersten Entwurf vorgelegt
Interview mit Prof. Alena Buyx: Ethik und KI in der Medizin
Künstliche Intelligenz für die Medizin muss ethisch gut gemacht sein