Intelligente Prothesen dank KI-basierter Absichtserkennung
Ein Glas anheben, die Faust ballen, mit dem Zeigefinger eine Telefonnummer tippen – hochmoderne robotische Hände können mithilfe biomedizinischer Technologie bereits Erstaunliches. Doch was im Labor gelingt, stößt im Alltag an Grenzen. Denn die Absichten des einzelnen Menschen, seine Umgebung und die Dinge darin sind zu vielfältig, um sie einmalig vorgeben zu können. Ein Team der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) erforscht, wie sogenannte intelligente Prothesen weiter verbessert und zuverlässiger gemacht werden können.
So soll die Prothese mithilfe interaktiver künstlicher Intelligenz lernen, den menschlichen Willen genauer zu erkennen, ihre Umwelt zu registrieren – und sich dabei ständig weiterentwickeln. Das Projekt wird von der EU mit 6 Millionen Euro gefördert, die FAU erhält 467.000 Euro.
„Wir arbeiten buchstäblich an der Schnittstelle von Mensch und Maschine“, erklärt Claudio Castellini, Professor für Medizinrobotik an der FAU. „Prothesen für die oberen Gliedmaßen haben sich in den letzten Jahrzehnten technologisch stark weiterentwickelt.“ Mithilfe der Oberflächen-Elektromyographie etwa können Haut-Elektroden am verbliebenen Armstumpf feinste Muskelregungen erfassen.
Diese Biosignale können konvertiert und als elektrische Impulse auf die Prothese übertragen werden. „Der Träger oder die Trägerin steuert die Handprothese also selbstständig mit dem Armstumpf. Durch Methoden der Mustererkennung und des interaktiven maschinellen Lernens kann der Mensch der Prothese zudem seine individuellen Bedürfnisse beim Ausführen einer Geste oder einer Bewegung beibringen.“
KI statt Kosmetik
Doch die fortschrittlichen robotischen Prothesen sind im Hinblick auf Komfort, Funktion und Kontrolle noch nicht optimal ausgereift, weshalb Menschen mit fehlenden Gliedmaßen oft funktionslose, rein kosmetische Prothesen bevorzugen. Das neue EU-Horizon-Projekt „AI-Powered Manipulation System for Advanced Robotic Service, Manufacturing and Prosthetics (IntelliMan)“ befasst sich deshalb damit, wie diese noch effektiver und zielgerichteter mit ihrer Umwelt interagieren können.
Die Erlanger erforschen dabei insbesondere, wie reale, aber auch virtuelle Prothesen der oberen Gliedmaßen besser kontrolliert werden können. Fokus ist die sogenannte „Intent Detection“, auf Deutsch Absichtserkennung.
Castellini und sein Team entwickeln dazu die Erfassung und Analyse der menschlichen Biosignale weiter und entwerfen innovative Algorithmen des maschinellen Lernens, um individuelle Bewegungsmuster einer Person auszumachen. Ihre Ergebnisse validieren sie in Nutzerstudien an Probanden mit und ohne körperliche Einschränkungen.
Zwischen Mensch und Maschine
Das „Assistive Intelligent Robotics“-Lab (AIROB) an der FAU befasst sich mit der Steuerung von assistiver Robotik für die oberen und unteren Gliedmaßen sowie funktionaler Elektrostimulation. „Wir nutzen die Möglichkeiten der Absichtserkennung zur Steuerung von assistiver und rehabilitativer Robotik“, erklärt der Wissenschaftler. „Dazu gehören am Körper tragbare Roboter, wie Prothesen und Exoskelette, aber auch Roboterarme und Simulationen in der Virtual Reality.“