ChatGPT kann das Programmieren effizienter machen, Texte verfassen, als Brainstorming-Partner dienen oder Designvorschläge kreieren. Sobald die so genannte generative künstliche Intelligenz allerdings in die physische Welt der Robotik gelangt, sind Forschende der Technischen Universität München (TUM) zurückhaltend.
ChatGPT hilft ein bisschen beim Programmieren
Reinhard Heckel beispielsweise ist ein Fan von ChatGPT. Der Professor für maschinelles Lernen an der TUM nutzt das OpenAI-Produkt Copilot selbst zum Programmieren. „Ich muss Teile von Code oft nicht mehr selbst ausschreiben, das übernimmt das Tool automatisch“, erläutert Heckel. Besonders bei leichten Aufgaben spart er so Zeit und kann sich mit dem Teil vom Programmieren beschäftigen, „der wirklich spannend ist“.
Im Brainstorming mit ChatGPT sucht er auch nach geeigneten Titeln für eine Veröffentlichung oder lässt es schon mal anschreiben. „ChatGPT ist ein guter Assistent für kleinere nervige Aufgaben“, meint Heckel. Sogar die Bilderkennung der Tools sei schon so gut, dass Blinde sich erklären lassen können, wie die Welt aussieht.
Eine Grenze ist für Prof. Heckel allerdings dann erreicht, wenn es um Roboter geht. „Als Roboter beispielsweise eine Zwiebel zu schneiden, ist komplex und im Moment schwieriger als der Umgang mit Text.“ Dennoch resümiert der Experte: „Die Vorteile überwiegen, ChatGPT und Tools wie Copilot erleichtern die Arbeit und machen sie effizienter.“
Auch TUM-Wissenschaftler Klaus Diepold experimentiert mit generativer künstlicher Intelligenz. Schon vor einigen Jahren gab der Professor für Datenverarbeitung an der TUM in seinem Bachelor-Kurs „Computer und Kreativität“ Studenten die Aufgabe, Ideen zu entwickeln, wie Computer kreativ werden können. Heraus kam mit Vorläufern von ChatGPT 3 eine Glückwunschkarte „für Tante Erna“ – grafisch gestaltet und getextet von der KI.
Robotergreifer designen? zu komplex für generative KI
„Die Software hat ein Gedicht geschrieben und die Ranunkeln – Tante Ernas Lieblingsblumen – durch das Tool mit einbauen lassen“, erinnert sich Diepold. Praktische Anwendungen in der Robotik gab es allerdings nicht.
Heute arbeitet ein Doktorand im Rahmen des Leuchtturmprojekts KI.Fabrik beim Robotik- und KI-Institut Mirmi an einem Designgenerator. Dessen Basis ist Dalle_E, der Bildtransformator des Unternehmens OpenAI, von dem auch ChatGPT stammt. Diepold sagt: „Das Wissen für generative Modelle, einen Stuhl zu kreieren, ist gut, weil viele Bilder für das Training von neuronalen Netzen vorliegen.“ Solle allerdings ein Robotergreifer designt werden, sei das schwieriger, denn es gebe zu wenig Trainingsdaten. „Hinzu kommen Anforderungen an die Festigkeit des Materials und andere physikalische Eigenschaften“, so Diepold.
Robotik und generative KI: Es darf kein Fehler passieren
Die Herausforderungen in der klassischen Robotik sind komplex. Ein Serviceroboter beispielsweise bewegt sich im Umfeld mit dem Menschen. Er reicht einem pflegebedürftigen Menschen ein Glas Wasser oder unterstützt ihn in Reha-Übungen. „Der Roboter soll autonom, smart und schnell reagieren und darf kein Unheil anrichten“, so Diepold. „In einem sicherheitsrelevanten Umfeld darf man sich keinen einzigen Fehler erlauben.“ Regulierungen seien also besonders in der Robotik vonnöten. „Verantwortungsvoll regulieren“ wolle er seine Software, versprach OpenAI-Chef Sam Altman bei einem Besuch an der TUM in München Ende Mai.
Als „sprachlich nettes Spielzeug“, wie es Diepold ausdrückt, richte ChatGPT erstmal keinen sichtbaren Schaden an. Doch hat Diepold Zweifel an der Intelligenz des Systems. „ChatGPT produziert Texte, die eloquent sind, aber nicht intelligent“, sagt der Professor, „das ist wie bei einem Politiker auf der Bühne: Es kann sich alles gut anhören, muss deswegen aber noch lange nicht stimmen.“
Formulieren können allein reicht nicht
Auch Alin Albu-Schaeffer, Professor für Sensorbasierte Robotersysteme und intelligente Assistenzsysteme an der TUM, macht deutlich: „KI muss mit der physischen Welt interagieren, da reicht es nicht aus, ‚nur‘ quatschen zu können“.
Das beste Beispiel dafür, was schieflaufen kann, liefert eine Hausarbeit, die einige seiner Studenten über ChatGPT haben anfertigen lassen. „Sie las sich gut, aber keine der Referenzen stimmte, die in dem wissenschaftlichen Aufsatz angegeben waren“, so Diepold. Immer, wenn Wissen fehle, überspiele ChatGPT das mit selbst erfundenen Informationen. In der Robotik dürfe aber kein Fehler passieren.
Generative KI – „eine noch nicht ausgereifte Technologie“
Die Co-Direktorin der Hightech-Plattform Munich_i, Alena Buyx von der TUM, ist eine von knapp 20 Professor:innen, die in der Taskforce für generative KI der TUM Perspektiven gegen Risiken abwägen. „Da ist ja eine noch nicht ganz ausgereifte Technologie ein wenig in die Welt gekracht und jetzt wird rapide versucht, Empfehlungen für anstehende gesetzliche Regelungen zu geben – von der technischen wie von der ethischen, sozialen und regulatorischen Seite“, erläutert die Professorin für Ethik in Medizin und Gesundheitstechnologien, Buyx.
Ihr geht es aber auch darum, neben den Risiken die positiven Potenziale zu erkennen und genau zu überlegen, wo man diese nutzen kann. Im Krankenhaus beispielsweise werden in den USA – kontrolliert und unter Aufsicht – bereits Social Bots eingesetzt, die ausführliche Entlassungsgespräche mit Patienten führen und Zeit haben, alle Fragen zu beantworten.
Gesellschaft liefert Daten und hat das Recht, die Nutzung mit zu gestalten
Generative KI wird zudem in der Biotechnologie zur Analyse der Proteinfaltung eingesetzt, um neue Moleküle etwa für Krebsmedikamente zu entwickeln. Ob die Entwicklung in die richtige Richtung geht? „Die ganzen Daten, die für das Training der KI-Modelle nötig sind, stammen letztlich von uns allen, und sie wurden von den Unternehmen abgesaugt und verwendet für Technologien, die bald unsere Lebenswelt stark durchwirken werden“, erläutert Buyx. „Da besteht klar für Gesellschaften das Recht, die Nutzung sowie Regulierung der Technologien aktiv zu gestalten.“
Wissenschaftliche Ansprechpartner:
Prof. Alena Buyx
Lehrstuhl für Medizin und Gesundheitstechnologien, Co-Direktorin munich_i
Technische Universität München
E-Mail: a.buyx@tum.de
Prof. Reinhard Heckel
Professur für Maschinelles Lernen
Technische Universität München (TUM)
E-Mail: Reinhard.heckel@tum.de
Prof. Klaus Diepold
Lehrstuhl für Datenverarbeitung
Technische Universität München (TUM)
E-Mail: kldi@tum.de