Wie können Roboter flexibel, anpassbar und sicher mit Menschen interagieren? Während KI-gestützte Systeme zunehmend selbstständig agieren, darf die Bedeutung multimodaler Mensch-Roboter-Interaktion nicht vergessen werden. Funktionale Sicherheit bei lernfähigen Systemen bleibt dabei eine Herausforderung.
(Bild: Plattform Lernende Systeme)
Gegenwärtig wird viel über Roboter gesprochen, die durch große KI-Modelle "intelligent" werden, wie zum Beispiel humanoide Roboter, etwa Figure Helix oder Gemini Robotics, die grundsätzlich selbstständig Aufgaben ausführen sollen. Auch der Trend zu KI-Agenten geht immer mehr in Richtung möglichst selbstständig handelnder KI. Der Mensch tritt hierbei als Stichwortgeber in den Hintergrund. In vielen Anwendungsbereichen sollen zukünftig selbst und kontinuierlich lernende Roboter flexibel und anpassbar sein und direkt mit dem Menschen zusammenarbeiten, ihn unterstützen. Dadurch drängt sich eine Frage auf, die bei den aktuell prominent besprochenen Humanoiden oft unter-geht: Wie kann Sicherheit und Verständlichkeit in der Interaktion mit dem Menschen gewährleistet werden?
Prof. Dr. rer. nat. Elsa Andrea Kirchner ist seit 2021 Professorin der Universität Duisburg-Essen und leitet dort an der Fakultät für Ingenieurswissenschaften das Fachgebiet "Systeme der Medizintechnik". Am Robotics Innovation Center des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) in Bremen, wo sie lange Jahre tätig war, leitet sie zudem das Team „Intelligent Healthcare Systems“.
(Bild: www.frankpreuss.de)
Interaktives Lernen als Teil eines kontinuierlichen Weiterlernens von Robotern ist ein Lösungsansatz, um Roboter einfach und flexibel an Menschen, Aufgaben und verschiedene Kontexte anzupassen. Es wird notwendig, wenn Roboter in der Praxis beispielsweise auf Edge Cases stoßen, bekannte Teilaufgaben wiedererkannt und in neuer Reihenfolge ausgeführt oder komplett neue Bewegungs- und Aufgabenabläufe erlernt werden sollen. Die Interaktion sollte dabei nicht auf sprachliche Anweisungen beschränkt sein, wie dies derzeit häufig anhand von Humanoiden demonstriert wird. Denn sprachliche Interaktion kann in vielen Fällen zu Missverständnissen führen und sogar umständlich sein. Etwas Vorzumachen oder andere Formen der Interaktion können oft klarer und effizienter sein. Schon beim Menschen zeigt sich: Nicht alles wird über Sprache erklärt. Menschen nutzen ein ganzes Repertoire von verbalen und nonverbalen Kommunikationsmitteln (Mimik, Gestik etc.) und kombinieren diese.
Entsprechend brauchen wir lernfähige, interaktive Robotersysteme, die über verschiedenen Modalitäten hinweg mit dem Menschen interagieren können - nicht nur über Sprache. Auf dieser Grundlage können sie sich den Bedürfnissen und Zielen des Menschen individuell anpassen. Nur dadurch werden zukünftige Robotiksysteme in die Arbeitswelt und den Alltag des Menschen Einzug halten und angenommen werden. Dies gilt umso mehr vor dem Hintergrund des Fachkräftemangels und dem Ziel, wirtschaftliche Potenziale durch flexiblere Produktionsumgebungen und High Mix Low Volume Fertigung zu erschließen.
Lernen durch Interaktion - Möglichkeiten und Herausforderungen
Lernen durch Interaktion in Verbindung mit anderen Methoden ermöglicht eine einfache und flexible Anpassung von Robotern. Zwei Beispiele machen dies deutlich: Beim Lernen von Demonstrationen und Reinforcement Learning können neue grundlegende Fähigkeiten erlernt, und durch Feedback des Menschen die Ausführungen des Gelernten verbessert und an weitere Umgebungen angepasst werden. Dabei fängt das Reinforcement Learning durch die Demonstrationen nicht bei null an, die Lernzeit verkürzt sich. Beim Lernen durch Interaktion und großen, vortrainierten KI-Modellen können die Eigenschaften der Wiederverwendbarkeit und Anpassbarkeit sowie die Fähigkeit des Lernens aus wenigen Beispielen der großen KI-Modelle mit den Ansätzen des Lernens aus Interaktion kombiniert werden. Dabei könnte Lernen aus Interaktion zur Erzeugung von Trainingsdaten für große KI-Modelle verwendet werden und die nötigen Beispiele etwa für kontextuelle Modellanpassungen liefern.
Kontinuierliches Weiterlernen durch Interaktion und zunehmende Autonomie erfordern funktionale Sicherheit und KI-Absicherung – auch aufgrund der Tatsache, dass menschliches Feedback gegebenenfalls uneindeutig und inkonsistent sein kann.
Herausforderungen für die Sicherheit:
Es muss mit fehlerhaftem oder unerwünschtem Feedback (zum Beispiel bei Demonstrationen) umgegangen werden.
Systeme müssen Inkonsistenzen und Unsicherheiten im menschlichen Feedback erkennen können.
Es muss gewährleistet sein, dass ein Roboter durch interaktives Lernen nicht den Kernaufgabenbereich verlassen kann.
Es muss sichergestellt werden, dass KI-Modelle in robotischen Systemen im Einklang mit menschlichen Zielen und Werten bleiben und keine unerwünschten oder schädlichen Ausgaben erzeugen oder Aktionen aus-lösen.
Lösungen für funktionale Sicherheit und KI-Absicherung
Virtuelles Lernen durch Interaktion
Die für das Lernen erforderlichen Interaktionen müssen nicht zwangsläufig direkt in der realen Welt stattfinden. Sie können auch in Simulationen oder virtuellen Welten erfolgen. Dies hat den Vorteil, dass der Sicherheitsaspekt hier eine geringere Rolle spielen kann, da keine Interaktion in realer Umgebung stattfindet. Die Erlernten Fähigkeiten können dann auch in virtuellen Umgebungen getestet oder bewertet werden. Zudem sind reale Test- und Lernumgebungen für Robotiksysteme kostenintensiv, so dass virtuelle Umgebungen eine Alternative darstellen können. Allerdings gilt es zu beachten, dass eine mehr oder minder große Kluft zwischen simulierter und realer Welt besteht (Simulation-to-Reality Gap), und gegebenenfalls die KI-Komponente des Roboters ungenügend an die Besonderheiten der realen Umgebung angepasst ist.
KI in regelungstechnische Systeme einbetten
Methoden der KI können in formalisierbare Regelwerke eingebettet werden, um die Handlungsfähigkeit der so entste-henden hybriden KI-Systeme einzuschränken. Dabei kann es sich um einfache Wenn-dann-Regeln oder auch um von Menschen entworfene parametrische Gleichungen, zum Beispiel aus der Regelungstechnik, handeln. So haben etwa Bemühungen, Regelungstechnik und maschinelles Lernen für eine sichere, lernbasierte Regelung zu kombinieren, zu einer verbesserten Regelungsleistung und Systemsicherheit geführt (Brunke et al. 2022, S. 26). Auf diese Weise können unsichere KI-Systeme durch Maßnahmen auf anderer Ebene abgesichert werden.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Durchsetzung vorgegebener Richtlinien
Regeln im Robotiksystem können auch mittels von Menschen geschriebener Programmcodes implementiert werden. Dabei kann es sich um sehr einfache Regeln handeln, wie das Abschalten eines Motors oder des gesamten Systems bei zu hohen Motorströmen, oder auch um komplexere Regelsätze, die in spezifischen Situationen umgesetzt werden. So können beispielsweise sowohl in menschen- als auch maschineninterpretierbaren Richtlinien (policy) räumliche und funktionale Beschränkungen usw. festgehalten werden. Zur Umsetzung muss auf dem Roboter muss eine von der KI unabhängige Infrastruktur zur Durchsetzung von Richtlinien (policy enforcement infrastructure) implementiert sein, die zur Laufzeit auszuführende Aktionen des Roboters auf Konformität (Compliance) mit den Richtlinien (policy) prüft und dann entweder freigibt oder blockiert.
Model Monitoring
Werden KI-Modelle im laufenden Betrieb eingesetzt, kann es vorkommen, dass eine Kluft zwischen gelerntem Modell und Umwelt entsteht, wenn sich zum Beispiel die Umweltbedingungen verändern (Model Drift). Wird KI in der Robotik eingesetzt, sollte ebenfalls auf Model Drifts geachtet werden. Um dem zu begegnen, gibt es verschiedene Arten des Model Monitoring, die unter anderem auch auf Methoden erklärbarer KI und der Anomaliedetektion basieren können. Erkennt der Mensch durch das Model Monitoring eine Tendenz zu einem Model Drift, könnte künftig das Modell durch Kontextinformationen aus der Interaktion angepasst werden, um der Tendenz entgegenzuwirken.
(Bild: Plattform Lernende Systeme)
Der Mensch als Kontrollinstanz
Der Mensch kann als kontrollierende Instanz fungieren, zum Beispiel im Rahmen variabler Autonomie. Neu gelernte Fähigkeiten können durch den Menschen autorisiert oder korrigiert werden. Ist das Robotiksystem bereits selbständiger, kann es dem Menschen Handlungsoptionen vorschlagen oder um Freigabe einer Aktion bitten. Es muss sich hierbei nicht unbedingt um direktes menschliches Feedback handeln (Sprache, Zeigen), sondern auch um implizites Feedback, sogar auf der Basis von EEG-Daten der Gehirnaktivität eines Anwenders. Aus diesen Interaktionen kann das System wiederum lernen. Hier können auch Methoden nachvollziehbarer KI eine bedeutende Rolle spielen, damit der Mensch ein besseres Verständnis erhält, warum das System bestimmte Aktionen vorschlägt oder gelernt hat. So kann der Mensch eine effektivere Aufsicht über das System ausüben und zugleich auf der Basis des Zusatzwissens selbst mehr Handlungsfähigkeit erlangen.
Sicherheit durch physisches Design
Es kann aber auch das rein physische Design des Roboters sein, das bestimmte Handlungen schlicht nicht zulässt. Als Beispiel können tragbare Roboter, wie Exoskelette, genannt werden. Hier werden rotative Antriebe, die prinzipiell in der Lage sind, den Arm oder die Schulter der Trägerin oder des Trägers um 360 Grad zu drehen, sowohl softwareseitig, aber auch durch mechanische Anschläge daran gehindert, dies zu tun: Sollte eine KI-Methode nun fälschlicherweise eine zu weite Drehung der Schulter erlernen, kann diese nicht vom Gesamtsystem ausgeführt werden. Sowohl die softwareseitigen Einschränkungen als auch die hardwareseitigen Anschläge für den Aktuator würden dies in jedem Fall verhindern. Ähnliches trifft für die Schnelligkeit der Bewegungen zu. Auch hier können Regelmechanismen eine zu schnelle Bewegung der Gelenke verhindern. Ein weiteres Beispiel aus der Servicerobotik stellt die physische Trennung von ausführenden Aktuatoren und die dem Menschen zugewandte „bedienende“ Seite des Robotik-systems dar.
Fazit: Was ist zu tun?
So spannend die Entwicklung der aktuellen Zusammenführung von großen KI-Modellen und Robotik ist, um die Selbstständigkeit von Robotern voranzutreiben, dürfen dabei die multimodale Mensch-Roboter-Interaktion (MRI) und das Lernen aus der Interaktion nicht vergessen werden. Spätestens wenn die Roboter in verschiedenen Umgebungen produktiv eingesetzt werden sollen, wird ein zunehmendes Maß an Flexibilität und Anpassungsfähigkeit an den Menschen nötig. Dies verlangt eine verstärkte Rolle von einfacher und intuitiver MRI und verschiedene Herangehensweisen für die funktionale Sicherheit. Deshalb sollte weiter an der Synergie zwischen Lernen durch Interaktion, großen KI-Modellen und Robotik sowie an verschiedenen Herangehensweisen gearbeitet werden, um lernfähige und interaktive Robotiksysteme für den Menschen sicher und verständlich zu machen. (mc)