Agentic and Embodied AI
KI mit Körper
Künstliche Intelligenz schreibt Texte, erkennt Bilder und navigiert durch Straßen. Doch für viele Aufgaben unseres Alltags braucht es mehr als das – Maschinen, die sich in ihrer Umgebung zurechtfinden, Dinge greifen, tragen oder reparieren können. Der L3S-Schwerpunkt „Agentic and Embodied AI“ befasst sich mit genau solchen Systemen: KI, die selbstständig handelt (Agentic AI) und zugleich physisch mit der Welt interagiert (Embodied AI).
Agentic AI – die handelnde KI
Agentic AI bezeichnet lernfähige Systeme, die komplexe Aufgaben Schritt für Schritt lösen und sich dabei flexibel auf aktuelle Gegebenheiten einstellen. Sie lernen durch Feedback – zum Beispiel, wenn sie im Schach gewinnen – und erreichen so oft übermenschliche Ergebnisse.
Die gängigste Methode dafür heißt Reinforcement Learning (RL): Die KI wird durch simulierte Interaktionen trainiert, bevor sie reale Aufgaben übernimmt – etwa die Steuerung eines Roboters. Doch ein Problem bleibt: Viele Modelle funktionieren nur in der Umgebung, in der sie trainiert wurden. Mit CARL, einer am L3S entwickelten Testumgebung, lässt sich erstmals gezielt prüfen, wie gut solche Systeme auf neue Situationen reagieren – und wie sich ihre Übertragbarkeit verbessern lässt. „Wir konnten nicht nur feststellen, wann die Leistung abnimmt, zum Beispiel bei geringerer Bodenreibung, sondern auch, dass die strukturierte Integration von Umweltvariablen dem entgegenwirken kann“, sagt Dr. Theresa Eimer, Forschungsgruppenleiterin am L3S.
Eimer will mit ihrem Team auch die Anwendung von RL-Algorithmen vereinfachen: Automatic Reinforcement Learning (AutoRL) soll eigenständig die bestmöglichen Trainingseinstellungen für neuartige Aufgaben finden – ein wichtiger Schritt, um RL auch für komplexe Anwendungen wie in der Robotik praktikabler zu machen. Adaptive Systeme können dabei ihre Modelle und Parameter laufend optimieren. Ein Beispiel ist GrowNN (Growing Neural Networks in Deep Reinforcement Learning): Es startet mit einem einfachen Modell und erweitert dessen Kapazität automatisch, wenn die Aufgabe komplexer wird.
Embodied AI – der KI einen Körper geben
Embodied AI beschreibt KI-Systeme, die über Sensoren und Aktuatoren mit der realen Welt interagieren. Oft handelt es sich um digitale Zwillinge, virtuelle Sensoren oder andere Schätzsysteme, die auf physischen Systemen laufen. „Moderne Verfahren wie FranSys ermöglichen dies schnell und präzise auf Basis der Messdaten eines Systems – sei es ein Roboterarm oder eine Drohne“, sagt Dr.-Ing. Daniel Weber, der FranSys (Fast recurrent neural network-based method for multi-step-ahead nonautoregressive System Identification) mitentwickelt hat.
Eine bekannte Schwachstelle von KI-Modellen ist ihre begrenzte Übertragbarkeit. Für jedes neue System muss daher meist ein eigenes Modell trainiert werden. Mit RIANN (Robust IMU-based Attitude Neural Network) konnten Weber und seine Co-Autoren erstmals zeigen, dass ein allgemeingültiges Modell die räumliche Orientierung auf verschiedenen Systemen nicht nur zuverlässig schätzt, sondern spezialisierten Ansätzen sogar überlegen ist.
Noch einen Schritt weiter geht RING (Recurrent Inertial Graph-based Estimator). „Das Modell wird vollständig in der Simulation trainiert und funktioniert anschließend ganz einfach als Plug-and-Play-Lösung“, sagt Weber. Eine weitere Möglichkeit, Modelle robuster zu machen, ist, physikalisches Wissen direkt einzubinden, etwa in Form von Differentialgleichungen in PINNs (Physics-Informed Neural Networks). Dies minimiert bei präzisem Modellwissen den Bedarf an Trainingsdaten für robuste Modelle.
Agentic Embodied AI – wenn KI wirklich handelt
Die Kombination von Agentic und Embodied AI eröffnet ganz neue Möglichkeiten: Systeme, die intelligent mit der physischen Welt interagieren. Ein vielversprechender Ansatz ist die modellprädiktive Regelung (MPC), bei der ein Roboter seine Aktionen vorausschauend plant. Diese Methode erfordert jedoch extrem schnelle Simulationen. Die elegante Lösung: PINN for MPC. Diese KI-Modelle haben die Physik des Systems bereits verinnerlicht – und ermöglichen dadurch eine blitzschnelle, vorausschauende Regelung.
Kontakt
Dr. Theresa Eimer
Theresa Eimer ist Postdoktorandin am L3S und am Institut für Künstliche Intelligenz der Leibniz Universität Hannover. Ihr Fokus liegt im automatisierten Reinforcement Learning (AutoRL).
Dr.-Ing. Daniel Oliver Martin Weber
Daniel Weber ist Postdoktorand am L3S und am Institut für Mechatronische Systeme an der Leibniz Universität Hannover. Sein Forschungsschwerpunkt liegt in der Modellierung dynamischer Systeme mit künstlichen neuronalen Netzen.