TU Chemnitz Forschung Projekte MIRobO - Multimodale Interaktionsstrategien für die robotergestützte Objektübergabe bei Sichteinschränkung

MIRobO - Multimodale Interaktionsstrategien für die robotergestützte Objektübergabe bei Sichteinschränkung

MIRobO - Multimodale Interaktionsstrategien für die robotergestützte Objektübergabe bei Sichteinschränkung

Teilthema:
Nutzerzentrierte Entwicklung von Interaktionsstrategien für die Objektübergabe
Finanzierung
BMBF
Projektpartner
Professur Privatrecht und Recht des geistigen Eigentums, TU ChemnitzFraunhofer Institut für Werkzeugmaschinen und Umformtechnik, ChemnitzFusionSytems GmbH, ChemnitzSIKOM Software GmbH, Heidelberg
Projektlaufzeit
Juli, 2018 bis Juni, 2021

Motivation und Zielstellung


Die Übergabe von Gegenständen gehört zu den interaktiven Grundfertigkeiten robotischer Systeme. Dies reicht für eine erfolgreiche Interaktion im Alltag jedoch nicht aus. Damit Serviceroboter auch in der Praxis einfache Tätigkeiten ausführen und damit alltagstaugliche Assistenz bieten, müssen sie zukünftig „intelligent“ genug sein, um menschliche Kommunikation und Verhalten in einer größtmöglichen Bandbreite alltäglicher Situationen korrekt interpretieren sowie darauf angemessen reagieren zu können. Das beinhaltet auch, dass der Roboter nicht nur passiv auf Befehle des Menschen wartet, sondern beispielsweise bei einer Objektübergabe im Sinne eines vollwertigen Dialogpartners auch den aktiven Part übernehmen kann. Damit dies gelingt, ist eine Kommunikation zwischen Mensch und Roboter über mehrere (Sinnes-)Kanäle notwendig, denn im Alltag stehen diese nicht immer gleichermaßen zur Verfügung. So ist in der praktischen Nutzung nicht immer Sichtkontakt zum Roboter während der Interaktion möglich. Dies ist in mehreren Anwendungsfeldern der Fall. Beispielsweise sind folgende drei Alltagsbereiche durch wenig bis keine aktive Zuwendung zum Roboter gekennzeichnet:

  1. Da vor allem bei älteren Menschen die Sehfähigkeit insbesondere im peripheren Sichtfeld eingeschränkt und oftmals mit einer begrenzten Beweglichkeit hinsichtlich Zuwendungsbewegungen zum Roboter verbunden ist, kann die Assistenz im Pflegebereich als relevant angesehen werden, z.B. beim Reichen einer Tasse Tee an eine bettlägerige Person.
  2. Zudem können Roboter auch zur Pflege oder Alltagsunterstützung sehbehinderter und blinder Menschen eingesetzt werden, sowohl im beruflichen als auch im privaten Umfeld. Auch hier ist beispielsweise die Werkzeugübergabe in einer Werkstatt denkbar oder das Reichen von Gegenständen im Alltag, wie z.B. eines Messers in der Küche.
  3. Darüber hinaus ist eine Assistenz bei Arbeitstätigkeiten aussichtsreich, die eine Fokussierung auf einen bestimmten Punkt erfordern und somit keine Blickabwendung erlauben. Hierunter fällt z.B. das Reichen von Werkzeug zur Metallbearbeitung bei laufender Zerspanungsmaschine in einer Werkstatt. Dieser Anwendungsbereich stellt den schwierigsten der denkbaren Fälle dar. Daher sichert dessen erfolgreiche Bewältigung die Lösung aller einfacheren Situationen (Design-for-All-Ansatz).

Was bei uneingeschränkter Sehfähigkeit unproblematisch erscheint, kann bei eingeschränkter Sehfähigkeit sogar gefährlich werden, wie z.B. die Übergabe von sichtbar gefährlichen, wie spitzen und scharfkantigen, Gegenständen sowie unsichtbar gefährlichen Gegenständen, wie einer heißen Teetasse. Hier kann ein Roboter aktiv die Rolle des Sehenden übernehmen, die zu übergebenden Gegenstände auf ihr Gefahrenpotenzial bewerten und diese dann in aktiver Interaktion an den Menschen übergeben. Dass eine Übergabe stattfinden kann, hängt jedoch nicht allein von der Sehfähigkeit ab. Vielmehr ist die Übergabe von Gegenständen eingebettet in eine Interaktionsbeziehung zwischen mehreren Akteuren und bestimmt durch Gestik, Mimik und Bewegung.

Ziel des Vorhabens ist die Gestaltung eines multimodalen Interaktionskonzepts (ohne optischen Sinneskanal) für die Übergabe von Objekten mit inhärentem Verletzungsrisiko. Dies soll durch die intelligente Kombination mehrerer weiterentwickelter Grundfertigkeiten umgesetzt werden und eine vertrauensvolle Interaktion ermöglichen.

Sicherer und aktiver Übergabeprozess durch erfolgreiche multimodale Interaktionsstrategien zwischen Mensch und Roboter
Sicherer und aktiver Übergabeprozess durch erfolgreiche multimodale Interaktionsstrategien zwischen Mensch und Roboter

Vorgehensweise


Im Vorfeld erfolgt die Definition der Anforderungen und Rahmenbedingungen. Dazu ist das Verhalten des Menschen mit beeinträchtigter Sehfähigkeit bei der Übergabe von Objekten zu untersuchen. Als Ergebnis steht die Diagnose, welche Gesten zur Signalisierung der Kooperationsbereitschaft geeignet sind und wie die Bewegungsabläufe beim Greifen von Gegenständen zusammengesetzt sind. Auf dieser Basis wird das Steuerungs- und Regelungskonzept für die Übergabe von Objekten mittels Roboter definiert und entwickelt. Dazu ist es notwendig, Menschen sowie das gegriffene Objekt in Bezug zum Roboter mittels Bildverarbeitung erkennbar und lokalisierbar zu machen. Dafür werden folgende Teilziele verfolgt:

  • Die Realisierung eines Designs aus unterschiedlichen Kamerasensoren (Farbe, Temperatur u. Tiefe/Abstand),
  • eine exakte Kalibrierung der Sensoren aufeinander, sowie die Fusionierung der Daten zur Steigerung des Informationsgehalts.

Mittels Bildverarbeitung kann in den folgenden Schritten der Mensch in seinen Körpergliedern und mit seinen definierten Gesten zur Signalisierung der Kooperationsbereitschaft, erkannt und lokalisiert werden. Genauer müssen dazu

  • Algorithmen entwickelt werden, die auch bei schlechten Lichtverhältnissen zuverlässig und sicher arbeiten sowie
  • die gegriffenen Objekte in der menschlichen Hand segmentiert werden, sodass der Algorithmus in der Lage ist, Position, Form und Größe des Gegenstandes zu bestimmen, um eine sichere Greifstrategie auszuwählen.

Die Bestimmung der optimalen Greifflächen erfolgt nur anhand der Bildinformationen. Neben der Beschaffenheit der Objektkontur muss sichergestellt werden, dass Verletzung der menschlichen Hand ausgeschlossen werden. Gefahrenquellen müssen erkannt bzw. in die Greifplanung einbezogen werden. Das zweite technische Ziel umfasst die Entwicklung einer situativen In-Prozess-Roboterregelung zur Koordination des gesamten Übergabeprozesses. Dafür ist es notwendig, die folgenden Teilziele umzusetzen, indem das System

  • eine autonomen Steuerungsarchitektur aufweist, die auf Basis der Bildverarbeitung und Sprachkontexturierung situative Entscheidungen trifft,
  • in der Lage ist, ohne äußere Einwirkungen den Übergabeprozess zu koordinieren,
  • Gesten und Sprachbefehle des Menschen versteht und seine Bereitschaft zur Übergabe signalisiert,
  • das Bewegungsverhalten des Menschen vorhersagen kann sowie
  • unter der Voraussetzung der Entwicklung einer hybriden Roboterregelung, die situativ zwischen einer bild- und kraftbasierten Lageregelung wechselt, für eine erfolgreiche, d.h. kollisionsfreie, Übergabe eine Trajektorie durch den Raum plant.

Kontakt


Konferenzbeiträge


Langer, D., Legler, F., Diekmann, P., Dettmann, A., Glende, S., & Bullinger, A.C. (2023 April, 26-28). Got it? Usability of robotic handovers with visually impaired and sighted users [Poster presentation]. Human Factors and Ergonomics Society Europe Chapter, Liverpool, United Kingdom. https://www.hfes-europe.org/wp-content/uploads/2023/04/DorotheaLanger2023.pdf

Walde, P., Langer, D., Legler, F., Goy, A., Dittrich, F., & Bullinger, A.C. (2019 October, 02-04). Interaction Strategies for Handing Over Objects to Blind People [Poster presentation]. Human Factors and Ergonomics Society Europe Chapter, Nantes, France. https://hfes-europe.org/wp-content/uploads/2019/10/Walde2019poster.pdf

Beiträge in Konferenzband


Langer, D., Legler, F., Krusche, S., Bdiwi, M., & Bullinger, A.C. (2022). Greif zu - Wahrnehmung robotergestützter Objektübergaben durch User mit und ohne Sichtkontakt. In GfA e.V. (Ed.), Technologie und Bildung in hybriden Arbeitswelten. 68. Kongress der Gesellschaft für Arbeitswissenschaft e.V. (Article B.8.3). GfA-Press.

Legler, F., Langer, D., Lottermoser, L.‑M., Dettmann, A., & Bullinger, A.C. (2023). Put Your Hands Up - or Better Down? Towards Intuitive Gesture Interaction for Diverse Users of an Assistive Robot. In Antona, M. & Stephanidis, C. (Eds.), Lecture Notes in Computer Science. Universal Access in Human-Computer Interaction (Vol. 14020, pp. 256–276). Springer Nature Switzerland. https://doi.org/10.1007/978-3-031-35681-0_17

Journals


Langer, D., Legler, F., Kotsch, P., Dettmann, A., & Bullinger, A.C. (2022). I Let Go Now! Towards a Voice-User Interface for Handovers between Robots and Users with Full and Impaired Sight. Robotics, 11(5), 112. https://doi.org/10.3390/robotics11050112

Langer, D., Legler, F., Krusche, S., Bdiwi, M., Palige, S., & Bullinger, A.C. (2023). Greif zu – Entwicklung einer Greifstrategie für robotergestützte Objektübergaben mit und ohne Sichtkontakt. Zeitschrift Für Arbeitswissenschaft, 77, 297–316. https://doi.org/10.1007/s41449-023-00366-6

Langer, D., Legler, F., Diekmann, P., Dettmann, A., Glende, S., & Bullinger, A. C. (2024). Got It? Comparative Ergonomic Evaluation of Robotic Object Handover for Visually Impaired and Sighted Users. Robotics, 13(3), 43. https://doi.org/10.3390/robotics13030043