Die Entwicklungen der letzten Jahre insbesondere im Bereich der großen Sprachmodelle (Large Language Models, LLMs) haben dazu geführt, dass immer mehr Unternehmen aller Branchen KI-Lösungen einsetzen möchten, um ihre Abläufe zu optimieren und immer mehr Aufgaben KI-gestützt auszuführen. Da liegt es nahe, die Frage zu stellen, ob und mit was genau KI-Lösungen auch im MDR-Umfeld unterstützen können.
Was grundsätzlich möglich ist, zeigt das Beispiel des LLM Chat-GPT, das Open AI im November 2022 der Allgemeinheit zur Verfügung gestellt hat. Der Erfolg war überwältigend – innerhalb von nur fünf Tagen überstieg die Nutzeranzahl die Marke von 1 Million und lag nach zwei Monaten bereits bei 100 Millionen.
Die Besonderheit von LLMs besteht dabei nicht nur in ihrer enormen Größe, sondern auch in der Architektur der KI-Modelle und dem Trainingsprozess. Insgesamt führen diese Innovationen dazu, dass solche Sprachmodelle über ein umfassendes sprachliches Wissen (sogar in mehreren Sprachen) verfügen und flexibel für verschiedene Aufgaben eingesetzt werden können.
Hinzu kommt, dass immer mehr Modelle nicht nur mit Texten, sondern auch mit Bildern, Videos und Audiodaten umgehen können. Damit ergeben sich vielfältige Einsatzmöglichkeiten für LLMs, darunter
- das Generieren von Text,
- das Übersetzen von Texten,
- das Generieren von Bildern oder
- das Erstellen von Sprachagenten (Voice Agents).
LLMs werden oft auch als „Generative KI“ bezeichnet, weil sie im Unterschied zu bisherigen KI-Modellen in der Lage sind, selbst neue Inhalte zu erzeugen. Das birgt Risiken, denn wenn eine KI Texte erzeugt, kommt es zum so genannten „Halluzinieren“. Das Modell erzeugt oft falsche Aussagen oder liefert in anderer Hinsicht unerwünschte Ergebnisse. Die vom Modell erzeugten Inhalte müssen also überprüft werden.
Zusätzlich Wissen liefern, damit die KI nicht halluziniert
Um diese Effekte zu vermeiden, werden LLMs mit einer zusätzlichen Wissensbasis wie Webseiten, Datenbanken und Dokumenten kombiniert. Dann erzeugen die Modelle ihre Ausgaben anhand dieser Wissensbasis, was als Retrieval Augmented Generation (RAG) bezeichnet.
Ein völlig anderer Sicherheitsaspekt ergibt sich dadurch, dass viele leistungsfähige LLMs als Cloud-Service zur Verfügung gestellt werden. Dabei gelangen die Eingabedaten der Anwender zwangsläufig zu den Betreibern der Dienste. Je nach Szenario und der Art der verwendeten Daten kann das unproblematisch oder völlig inakzeptabel sein. Ist das für die geplante Anwendung ein wichtiges Thema, müssen LLMs verwendet werden, die sich unter eigener Kontrolle betreiben lassen.
Dass es im MDR-Umfeld vielfältige Einsatzmöglichkeiten für Generative KI gibt, zeigen erste Lösungen, die am Markt angeboten werden. Beispielhaft genannt seien hier das 2021 in den USA gegründete Start-up Formly AI mit einem Tool, das Medizinprodukte nach MDR klassifiziert, oder auch Consensus AI, eine ebenfalls von einem US-amerikanischen Start-up entwickelte App auf der Basis von GPT-4, die mittels KI-gestützter Recherche nach Informationen in wissenschaftlichen Beiträgen sucht. Auch beim Unternehmen Open AI gibt es verschiedene Lösungen zum Thema MDR, die beispielsweise „Medical Device Regulation Advisor“ oder „Medical Device Consultant“ heißen.
Potenziale für den KI-Einsatz im MDR-Umfeld sind in Gesprächen mit Branchenexperten erkennbar. Wichtige Anwendungsszenarien sind
- die Recherche nach wissenschaftlichen Studien,
- das Erstellen von Texten zum Beispiel für Bestandteile der Technischen Dokumentation,
- das Prüfen von Unterlagen auf Richtigkeit und Vollständigkeit sowie
- die Vorbereitung auf Audits – um zum Beispiel kritische Punkte zu identifizieren oder Argumentationen mit dem Auditor durchzuspielen und so vorab zu trainieren.
Die Szenarien und Prozesse, die in Unternehmen damit verbunden sind, wird das Team „Angewandte KI“ am Fraunhofer IAO im vom BMBF geförderten Datipilot-Projekt „Effizientere Prozesse mit Generativer KI in der Medizintechnik-Branche“ untersuchen. Der Start dieser Arbeiten ist für Oktober 2024 geplant.
Ob KI für eine Aufgabe taugt, muss sie jeweils einzeln zeigen
Eine wichtige Begrenzung aller heutigen KI-Modelle einschließlich der LLMs besteht aber darin, dass sie keine Allgemeine Künstliche Intelligenz (Artificial General Intelligence, AGI) sind. Mit anderen Worten: Nur, weil eine KI in einem Szenario gut funktioniert, heißt das noch lange nicht, dass sie in anderen, auf den ersten Blick ähnlichen Szenarien, genauso gute Ergebnisse erzielt. Die korrekte und erwünschte Funktionsweise der KI muss für jedes neue Anwendungsszenario überprüft werden.
Die Nutzungsmöglichkeiten von LLMs sind dennoch so vielfältig, so dass sich in nahezu jedem Unternehmen Quick-Win-Szenarien für ihren Einsatz identifizieren lassen. Deshalb ist spätestens mit Generativer KI der Punkt gekommen, an dem sich alle Unternehmen Gedanken über den Einsatz von KI machen und erste Nutzungsszenarien in Betracht ziehen sollten.
Studie zu Generativer KI für KMU
Eine Liste von Kriterien für „Quick-Win-Szenarien“, mit denen der Einstieg in die Nutzung Generativer KI gelingt, findet sich in der Fraunhofer IAO-Studie „Potenziale Generativer KI für den Mittelstand“.
Folgende Aspekte sind für einen Einstieg relevant:
- Die benötigten Daten sind bereits in maschinenlesbarer Form verfügbar.
- Das Szenario weist einen hohen Nutzen auf. Der Aufwand für die Umsetzung ist gering, und das Risiko beim Scheitern des Projektes ist vertretbar.
- Es gibt die Möglichkeit, KI-Ausgaben zu prüfen und zu korrigieren.
- Die gesuchte Funktion ist als Dienstleistung am Markt bereits verfügbar – oder es sind Kompetenzen und Ressourcen für eine Eigenentwicklung im Unternehmen vorhanden.
- Die Datenschutzanforderungen und -risiken sind überschaubar.
Die Erstellung eigener KI-Modelle war (und ist) mit großem Aufwand verbunden. KI-Experten und Entwickler benötigen für den Einsatz Generativer KI allerdings nur wenig zusätzliche Expertise.
Bestehende LLMs lassen sich vergleichsweise einfach nutzen. Doch gerade für kleine Unternehmen kann auch das schon eine Herausforderung sein. Meist können nicht alle Aufgaben, die im Zusammenhang damit anfallen, selbst übernommen werden. Dazu zählen die Konzeption und Implementierung der KI-Anwendungen, die Integration in die Unternehmens-IT und der Betrieb der KI-Modelle. Deshalb gilt es, geeignete Partner zu finden, die diese Aufgaben übernehmen können.
Durch die flexiblen Einsatzmöglichkeiten der LLMs können aber mehr Anwendungsfälle als früher umgesetzt werden – die Anzahl der Nutzer wird also ansteigen. Deshalb müssen bei allen Mitarbeitenden im Unternehmen gewisse KI-Grundkompetenzen etabliert werden. Dazu gehören unter anderem das Wissen um das „Halluzinieren“ und die dementsprechend kritische Prüfung aller Vorschläge, die die KI ausgibt. Auch der mögliche Datenabfluss bei der Nutzung von KI-Lösungen aus der Cloud ist zu beachten.
Innovation Forum
Beim Innovation Forum von Medical Mountains stellt Jens Drawehn das geplante Projekt in einem Vortrag vor. Was die Veranstaltung am
17. Oktober 2024 in Tuttlingen noch zu bieten hat, zeigt das Programm auf der Website.