Angenommen, eine Software stellt die Diagnose einer schweren Krankheit wie beispielsweise Krebs, ohne die Entscheidung näher zu erklären. Vertrauen Menschen in dieser Situation dem Urteilsvermögen einer Maschine? „Maschinelle Lernverfahren helfen bei der Diagnose. Sind ihre Entscheidungen jedoch nicht nachvollziehbar für Ärzte und Patienten, sind die Ergebnisse mit Vorsicht zu genießen und dürfen in vielen sicherheitskritischen Kontexten wie der Medizin auch nicht verwendet werden“, sagt Dr. Ute Schmid, Professorin für Angewandte Informatik, insbesondere Kognitive Systeme, an der Universität Bamberg.
Seit September 2018 beteiligt sich ihre Forschergruppe an einem interdisziplinären und institutionsübergreifenden Projekt, das automatisierte Diagnosen anhand einiger Beispiele transparent machen soll. Der so genannte „Transparente Begleiter für Medizinische Anwendungen“, der entwickelt werden soll, besteht aus zwei Prototypen: Ein Modell erkennt auf Videos Schmerz von Patienten, die ihr Empfinden selbst nicht mitteilen können, und erklärt die Einordnung. Ein weiterer Prototyp, der gerade entsteht, diagnostiziert nachvollziehbar Darmkrebs auf Basis von Bilddaten aus der Mikroskopie.
System lernt auch, Diagnosen zu erklären
Damit die Software sowohl eine Krankheit erkennen als auch die Entscheidung begründen kann, kombiniert das Forscherteam unterschiedliche informatische Methoden miteinander. Mithilfe von tiefen neuronalen Netzen („Deep Learning“) können große Mengen an Bildern klassifiziert werden. Allerdings geben solche Verfahren keine Auskunft darüber, wie sie zu der Entscheidung gelangt sind.
Weitere Verfahren sehen in das tiefe neuronale Netz hinein und machen entscheidende Merkmale für den Menschen greifbar. Sie heben in den Bildern zum Beispiel auffällige Stellen in dem betroffenen Darmgewebe hervor oder erklären durch Texte, warum ein bestimmter Ausschnitt der Gewebestruktur unter dem Mikroskop als krankhaft klassifiziert wurde.
Dabei soll das System beispielsweise nicht nur melden, eine Person empfinde Schmerzen. Zusätzlich soll es auf einem Monitor anzeigen, warum es zu dieser Einschätzung kommt. Ein Text führt die Gründe auf: „Die Augenbrauen der Person sind gesenkt, die Wangen erhöht, die Augenlider zusammengezogen.“ Auf dem Bild werden die Gesichtspartien, die für die Entscheidung ausschlaggebend waren, durch Einfärbungen und Pfeile markiert. Das System soll auch abschätzen, wie sicher es sich mit der Diagnose ist.
Transparente Begleiter unterstützen Mediziner
„Die behandelnden Mediziner entscheiden, ob sie die Einschätzung teilen“, sagt Bettina Finzel, wissenschaftliche Mitarbeiterin an der Universität Bamberg. „Sie können die Algorithmen beeinflussen, indem sie Ergänzungen und Korrekturen im System vornehmen. Dadurch lernt die Software ständig dazu und bezieht das wertvolle Wissen der Experten mit ein.“ Letztlich bleibt die Verantwortung beim Menschen, der von den Transparenten Begleitern unterstützt, nicht ersetzt wird. Außerdem könnten Mediziner mithilfe der Transparenten Begleiter in Zukunft aus- und weitergebildet werden.
www.uni-bamberg.de/en/cogsys/research/projects/bmbf-project-trameexco
Mehr zum Thema KI in der Medizin:
Für künstliche Intelligenz in der Medizin muss es eine Qualitätssicherung geben