KI und Robotik: Lernen durch Interaktion braucht funktionale Sicherheit

Ein Expertenbeitrag von Prof. Dr. Elsa Kirchner, Leiterin des Fachgebiets "Systeme der Medizintechnik" an der Universität Duisburg-Essen und Mitglied der Plattform Lernende Systeme

Prof. Dr. Elsa Kirchner, Leiterin des Fachgebiets "Systeme der Medizintechnik" an der Universität Duisburg-Essen und Mitglied der Plattform Lernende Systeme

Gegenwärtig wird viel über Roboter gesprochen, die durch große KI-Modelle "intelligent" werden, wie zum Beispiel humanoide Roboter, etwa Figure Helix oder Gemini Robotics, die grundsätzlich selbstständig Aufgaben ausführen sollen. Auch der Trend zu KI-Agenten geht immer mehr in Richtung möglichst selbstständig handelnder KI. Der Mensch tritt hierbei als Stichwortgeber in den Hintergrund. In vielen Anwendungsbereichen sollen zukünftig selbst und kontinuierlich lernende Roboter flexibel und anpassbar sein und direkt mit dem Menschen zusammenarbeiten, ihn unterstützen. Dadurch drängt sich eine Frage auf, die bei den aktuell prominent besprochenen Humanoiden oft untergeht: Wie kann Sicherheit und Verständlichkeit in der Interaktion mit dem Menschen gewährleistet werden?

Interaktives Lernen als Teil eines kontinuierlichen Weiterlernens von Robotern ist ein Lösungsansatz, um Roboter einfach und flexibel an Menschen, Aufgaben und verschiedene Kontexte anzupassen. Es wird notwendig, wenn Roboter in der Praxis beispielsweise auf Edge Cases stoßen, bekannte Teilaufgaben wiedererkannt und in neuer Reihenfolge ausgeführt oder komplett neue Bewegungs- und Aufgabenabläufe erlernt werden sollen. Die Interaktion sollte dabei nicht auf sprachliche Anweisungen beschränkt sein, wie dies derzeit häufig anhand von Humanoiden demonstriert wird. Denn sprachliche Interaktion kann in vielen Fällen zu Missverständnissen führen und sogar umständlich sein. Etwas Vorzumachen oder andere Formen der Interaktion können oft klarer und effizienter sein. Schon beim Menschen zeigt sich: Nicht alles wird über Sprache erklärt. Menschen nutzen ein ganzes Repertoire von verbalen und non-verbalen Kommunikationsmitteln (Mimik, Gestik etc.) und kombinieren diese.

Entsprechend brauchen wir lernfähige, interaktive Robotersysteme, die über verschiedenen Modalitäten hinweg mit dem Menschen interagieren können - nicht nur über Sprache. Auf dieser Grundlage können sie sich den Bedürfnissen und Zielen des Menschen individuell anpassen. Nur dadurch werden zukünftige Robotiksysteme in die Arbeitswelt und den Alltag des Menschen Einzug halten und angenommen werden. Dies gilt umso mehr vor dem Hintergrund des Fachkräftemangels und dem Ziel, wirtschaftliche Potenziale durch flexiblere Produktionsumgebungen und High Mix Low Volume Fertigung zu erschließen.

Lernen durch Interaktion - Möglichkeiten und Herausforderungen

Lernen durch Interaktion in Verbindung mit anderen Methoden ermöglicht eine einfache und flexible Anpassung von Robotern. Zwei Beispiele machen dies deutlich: Beim Lernen von Demonstrationen und Reinforcement Learning können neue grundlegende Fähigkeiten erlernt, und durch Feedback des Menschen die Ausführungen des Gelernten verbessert und an weitere Umgebungen angepasst werden. Dabei fängt das Reinforcement Learning durch die Demonstrationen nicht bei null an, die Lernzeit verkürzt sich. Beim Lernen durch Interaktion und großen, vortrainierten KI-Modellen können die Eigenschaften der Wiederverwendbarkeit und Anpassbarkeit sowie die Fähigkeit des Lernens aus wenigen Beispielen der großen KI-Modelle mit den Ansätzen des Lernens aus Interaktion kombiniert werden. Dabei könnte Lernen aus Interaktion zur Erzeugung von Trainingsdaten für große KI-Modelle verwendet werden und die nötigen Beispiele etwa für kontextuelle Modellanpassungen liefern.
Kontinuierliches Weiterlernen durch Interaktion und zunehmende Autonomie erfordern funktionale Sicherheit und KI-Absicherung – auch aufgrund der Tatsache, dass menschliches Feedback gegebenenfalls uneindeutig und inkonsistent sein kann.

Herausforderungen für die Sicherheit:

  • Es muss mit fehlerhaftem oder unerwünschtem Feedback (zum Beispiel bei Demonstrationen) umgegangen werden.
  • Systeme müssen Inkonsistenzen und Unsicherheiten im menschlichen Feedback erkennen können.
  • Es muss gewährleistet sein, dass ein Roboter durch interaktives Lernen nicht den Kernaufgabenbereich verlassen kann.
  • Es muss sichergestellt werden, dass KI-Modelle in robotischen Systemen im Einklang mit menschlichen Zielen und Werten bleiben und keine unerwünschten oder schädlichen Ausgaben erzeugen oder Aktionen auslösen.

Lösungen für funktionale Sicherheit und KI-Absicherung - Virtuelles Lernen durch Interaktion

Die für das Lernen erforderlichen Interaktionen müssen nicht zwangsläufig direkt in der realen Welt stattfinden. Sie können auch in Simulationen oder virtuellen Welten erfolgen. Dies hat den Vorteil, dass der Sicherheitsaspekt hier eine geringere Rolle spielen kann, da keine Interaktion in realer Umgebung stattfindet. Die Erlernten Fähigkeiten können dann auch in virtuellen Umgebungen getestet oder bewertet werden. Zudem sind reale Test- und Lernumgebungen für Robotiksysteme kostenintensiv, so dass virtuelle Umgebungen eine Alternative darstellen können. Allerdings gilt es zu beachten, dass eine mehr- oder mindergroße Kluft zwischen simulierter und realer Welt besteht (Simulation-to-Reality Gap), und gegebenenfalls die KI-Komponente des Roboters ungenügend an die Besonderheiten der realen Umgebung angepasst ist.

KI in regelungstechnische Systeme einbetten

Methoden der KI können in formalisierbare Regelwerke eingebettet werden, um die Handlungsfähigkeit der so entstehenden hybriden KI-Systeme einzuschränken. Dabei kann es sich um einfache Wenn-dann-Regeln oder auch um von Menschen entworfene parametrische Gleichungen, zum Beispiel aus der Regelungstechnik, handeln. So haben etwa Bemühungen, Regelungstechnik und maschinelles Lernen für eine sichere, lernbasierte Regelung zu kombinieren, zu einer verbesserten Regelungsleistung und Systemsicherheit geführt (Brunke et al. 2022, S. 26). Auf diese Weise können unsichere KI-Systeme durch Maßnahmen auf anderer Ebene abgesichert werden.

Durchsetzung vorgegebener Richtlinien

Regeln im Robotiksystem können auch mittels von Menschen geschriebener Programmcodes implementiert werden. Dabei kann es sich um sehr einfache Regeln handeln, wie das Abschalten eines Motors oder des gesamten Systems bei zu hohen Motorströmen, oder auch um komplexere Regelsätze, die in spezifischen Situationen umgesetzt werden. So können beispielsweise sowohl in menschen- als auch maschineninterpretierbaren Richtlinien (policy) räumliche und funktionale Beschränkungen usw. festgehalten werden. Zur Umsetzung muss auf dem Roboter muss eine von der KI unabhängige Infrastruktur zur Durchsetzung von Richtlinien (policy enforcement infrastructure) implementiert sein, die zur Laufzeit auszuführende Aktionen des Roboters auf Konformität (Compliance) mit den Richtlinien (policy) prüft und dann entweder freigibt oder blockiert.

Model Monitoring

Werden KI-Modelle im laufenden Betrieb eingesetzt, kann es vorkommen, dass eine Kluft zwischen gelerntem Modell und Umwelt entsteht, wenn sich zum Beispiel die Umweltbedingungen verändern (Model Drift). Wird KI in der Robotik eingesetzt, sollte ebenfalls auf Model Drifts geachtet werden. Um dem zu begegnen, gibt es verschiedene Arten des Model Monitoring, die unter anderem auch auf Methoden erklärbarer KI und der Anomaliedetektion basieren können. Erkennt der Mensch durch das Model Monitoring eine Tendenz zu einem Model Drift, könnte künftig das Modell durch Kontextinformationen aus der Interaktion angepasst werden, um der Tendenz entgegenzuwirken.

Der Mensch als Kontrollinstanz

Der Mensch kann als kontrollierende Instanz fungieren, zum Beispiel im Rahmen variabler Autonomie. Neu gelernte Fähigkeiten können durch den Menschen autorisiert oder korrigiert werden. Ist das Robotiksystem bereits selbständiger, kann es dem Menschen Handlungsoptionen vorschlagen oder um Freigabe einer Aktion bitten. Es muss sich hierbei nicht unbedingt um direktes menschliches Feedback handeln (Sprache, Zeigen), sondern auch um implizites Feedback, sogar auf der Basis von EEG-Daten der Gehrinaktivität eines Anwenders. Aus diesen Interaktionen kann das System wiederum lernen. Hier können auch Methoden nachvollziehbarer KI eine bedeutende Rolle spielen, damit der Mensch ein besseres Verständnis erhält, warum das System bestimmte Aktionen vorschlägt oder gelernt hat. So kann der Mensch eine effektivere Aufsicht über das System ausüben und zugleich auf der Basis des Zusatzwissens selbst mehr Handlungsfähigkeit erlangen.

Sicherheit durch physisches Design

Es kann aber auch das rein physische Design des Roboters sein, das bestimmte Handlungen schlicht nicht zulässt. Als Beispiel können tragbare Roboter, wie Exoskelette, genannt werden. Hier werden rotative Antriebe, die prinzipiell in der Lage sind, den Arm oder die Schulter der Trägerin oder des Trägers um 360 Grad zu drehen, sowohl softwareseitig, aber auch durch mechanische Anschläge daran gehindert, dies zu tun: Sollte eine KI-Methode nun fälschlicherweise eine zu weite Drehung der Schulter erlernen, kann diese nicht vom Gesamtsystem ausgeführt werden. Sowohl die softwareseitigen Einschränkungen als auch die hardwareseitigen Anschläge für den Aktuator würden dies in jedem Fall verhindern. Ähnliches trifft für die Schnelligkeit der Bewegungen zu. Auch hier können Regelmechanismen eine zu schnelle Bewegung der Gelenke verhindern. Ein weiteres Beispiel aus der Servicerobotik stellt die physische Trennung von ausführenden Aktuatoren und die dem Menschen zugewandte „bedienende“ Seite des Robotiksystems dar.

Fazit: Was ist zu tun?

So spannend die Entwicklung der aktuellen Zusammenführung von großen KI-Modellen und Robotik ist, um die Selbstständigkeit von Robotern voranzutreiben, dürfen dabei die multimodale Mensch-Roboter-Interaktion (MRI) und das Lernen aus der Interaktion nicht vergessen werden. Spätestens wenn die Roboter in verschiedenen Umgebungen produktiv eingesetzt werden sollen, wird ein zunehmendes Maß an Flexibilität und Anpassungsfähigkeit an den Menschen nötig. Dies verlangt eine verstärkte Rolle von einfacher und intuitiver MRI und verschiedene Herangehensweisen für die funktionale Sicherheit. Deshalb sollte weiter an der Synergie zwischen Lernen durch Interaktion, großen KI-Modellen und Robotik sowie an verschiedenen Herangehensweisen gearbeitet werden, um lernfähige und interaktive Robotiksysteme für den Menschen sicher und verständlich zu machen.

Weiterführende Informationen

Whitepaper „KI in der Robotik. Flexible und anpassbare Systeme durch interaktives Lernen“ der Plattform Lernende Systeme

Über die Autorin

Prof. Dr. rer. nat. Elsa Andrea Kirchner ist seit 2021 Professorin der Universität Duisburg-Essen und leitet dort an der Fakultät für Ingenieurswissenschaften das Fachgebiet "Systeme der Medizintechnik". Am Robotics Innovation Center des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) in Bremen, wo sie lange Jahre tätig war, leitet sie zudem das Team „Intelligent Healthcare Systems“. Nach Ihrem Studium der Biologie legte Elsa Kirchner mit einem Forschungsaufenthalt am Department of Brain and Cognitive Sciences am MIT in Boston/USA das Fundament ihrer interdisziplinären Forschung. Ihre Promotion in der Informatik wurde 2014 als eine der jahresbesten von der Gesellschaft für Informatik ausgezeichnet. Für den Forschungstransfer engagiert sich Elsa Kirchner als Gründungsmitglied im Netzwerk "Space2Health" des DLR-Raumfahrtmanagements. Im April 2023 wurde sie in den Rat für technologische Souveränität des BMBF berufen. Elsa Kirchner ist Co-Leiterin der Arbeitsgruppe “Lernfähige Robotiksysteme” der Plattform Lernende Systeme.

Zusatzmaterial

Beitrag erschienen in:

Elektronikpraxis
Mai 2025

Zurück