Assistenzsysteme in der Medizin Roboter erkennen mit Sensoren auch Emotionen

Redakteur: Dipl.-Ing. (FH) Hendrik Härter

Künftig sollen Roboter nicht nur den Menschen mit Informationen unterstützen, sondern auch seine Emotionen erkennen können und darauf reagieren. Dazu arbeiten Forscher in einem Projekt zusammen.

Anbieter zum Thema

Die Projektpartner erweitern und verbessern Techniken des Care-O-bot 3 für die Mensch-Maschine-Interaktion.
Die Projektpartner erweitern und verbessern Techniken des Care-O-bot 3 für die Mensch-Maschine-Interaktion.
(Bild: Kniff Projektagentur)

Ein Service-Roboter in der Medizin unterstützt nicht nur bei krankheitsbezogenen Situationen, sondern auch dann, wenn soziale Verhaltensweisen und Hinweisreize in der menschlichen Kommunikation ins Spiel kommen. Damit kann sich ein medizinischer Roboter wie der Care-O-bot vom technischen Werkzeug hin zum kompetenten Begleiter weiter entwickeln.

Auf Emotionen reagieren

Im Rahmen des Projekts EmAsIn, das für emotionssensitive Assistenzsysteme zur reaktiven psychologischen Interaktion mit Menschen steht, interessieren sich Wissenschaftler, wie erkrankte Menschen durch eine gezielte Interaktion zwischen Mensch und Technik die besonderen psychischen bzw. kognitiven Herausforderungen in ihrem täglichen Leben überwinden und mit welchen Hilfsangeboten sie die Lebensqualität steigern können. Dazu arbeitet das Fraunhofer-Institut IPA und seine Projektpartner mit demenzkranken Patienten oder Leuten, die an einer affektiven Störung leiden. Untersucht werden gemeinsam technische Ansätze und Assistenzsysteme.

Die dabei zu entwickelnden Systeme sollen neben krankheitsbezogenen Situationen auch soziale Verhaltensweisen und Hinweisreize in der menschlichen Kommunikation erkennen. Das Projektteam wird insbesondere individualisierte Informationsvermittlungs- und neue Bedienkonzepte erforschen, die gezielt Unterstützungsfunktionen anbieten und motivierende Impulse geben können. Auch bestehende Assistenzsysteme sollen in diese Richtung erweitert und um Funktionen ergänzt werden, die implizite menschliche Kommunikationszeichen, wie Emotionen oder Gesten, erfassen und interpretieren sowie geeignete Unterstützungsmaßnahmen ableiten und ausführen können.

Emotionen erkennen und angepasst reagieren

Das Fraunhofer IPA arbeitet bereits seit vielen Jahren an der Entwicklung technischer Assistenzsysteme, die den Benutzer sowohl informatorisch als auch aktorisch unterstützen. Ein Beispielprojekt ist safe@home, in dem die Wissenschaftler mit stationärer 3-D-Sensorik ein berührungsloses und unauffälliges System für das private Umfeld realisiert haben.

Das System erkennt Stürze und bewegungslos auf dem Boden liegende Menschen und leitet geeignete Maßnahmen ein. Mobile Roboter wie der Care-O-bot oder die mobile Notfallassistenz MoBiNa können sich mit dieser stationären Sensorik vernetzen und nach einem Sturz autonom zum Hilfsbedürftigen fahren. Dabei dienen sie als Kommunikationsplattform für das direkte Gespräch mit der Notfallzentrale.

Im aktuellen Projekt bauen die Wissenschaftler des Fraunhofer IPA auf diesen bestehenden Technologien auf und entwickeln die stationäre Sensorik zur Emotionserkennung sowie mobile Robotersysteme als Interaktions- und Informationsschnittstelle weiter. Die Herausforderung ist, eine zuverlässige Emotionserkennung umzusetzen. Denn anders als bei Stürzen, die über Bewegungsabläufe erkannt werden, können sich Emotionen vielfältig anhand von Gestik oder dem Verhalten einer Person äußern. Die Assistenzsysteme müssen diese auswerten und ihre Reaktion daran anpassen.

(ID:43740482)