TU Chemnitz Forschung Projekte KARIFF - Kontextsensitive Augmented-Reality-Interaktion mit Fahrerlosen Transportfahrzeugen

KARIFF - Kontextsensitive Augmented-Reality-Interaktion mit Fahrerlosen Transportfahrzeugen

KARIFF - Kontextsensitive Augmented-Reality-Interaktion mit Fahrerlosen Transportfahrzeugen

Finanzierung
BMWi
Projektpartner
TU Chemnitz, Professur Produktionssysteme und -prozesseZentrum für Bild- und Signalverarbeitung e. V.compl3te GmbH
Projektlaufzeit
November, 2021 bis Oktober, 2023

Motivation und Zielstellung


Fahrerlose Transportfahrzeuge (FTF) sind eine innovative Lösung, um Materialien in der Intralogistik (z. B. Produktion, Warenlager) zu transportieren. Besonders kooperierende FTF versprechen eine Optimierung der Prozesse, da sie die Flexibilität des Menschen mit der Ausdauer der Maschine kombinieren. Die Nutzer der FTF unterscheiden sich dabei durch ihre Technikaffinität, ihre Erfahrung und ihre Akzeptanz gegenüber neuen Technologien.
Bisherige FTF bieten keine adäquate Schnittstelle zur Mensch-Maschine-Interaktion, welche die Anforderungen an die unterschiedlichen Nutzer erfüllt. Mit dem angestrebten Projekt sollen FTF befähigt werden, durch AR-Projektion (Augmented Reality) und eine kontextsensitive Fußgesteninteraktion, als leitende Instanz zu agieren. Somit wird ermöglicht, dass dem FTFNutzer nächste Schritte angezeigt werden und der Nutzer eine Bestätigung des Arbeitsschrittes abfragen kann. Außerdem führt bei ungeschulten Mitarbeitern die Projektion zusätzlicher Informationen bezüglich ihrer Tätigkeit zu einer kürzeren Anlernzeit mit geringeren Fehlerquoten. Weiterhin errechnet das FTF die optimalen Wege für die Transporttätigkeiten, sodass das FTF den Mitarbeitern den schnellsten Weg vorschlagen kann.

Vorgehensweise


Die projektive AR nutzt die Berechnungen und Daten der Steuerungssoftware zur Projektion eines nutzerzentriert entwickelten User Interfaces und die erkannten Fußgesten zu dessen Steuerung. Konkret werden folgende Arbeiten geplant:
- Nutzerzentrierte Entwicklung eines User Interfaces (UI), zur Steuerung des FTF sowie zur Darstellung verschiedener Fahrzeugzustände,
- Auswahl der Fußgestenart in Abhängigkeit von dem gewählten Menü,
- Nutzerstudien zur Bewertung der Ergonomie (Effizienz, körperliche Beanspruchung und Intuitivität der Interaktion),
- Bedienung und Auswahl des UI auf Basis der erkannten Gesten,
- Perspektivische Transformation und Entzerrung des UI für die anschließende ARProjektion.

Kontakt