TU ChemnitzForschungProjekteMANUACT – Hands and Objects in Language, Culture and Technology: Manual Actions at Workplaces between Robotics, Gesture and Product Design

MANUACT – Hands and Objects in Language, Culture and Technology: Manual Actions at Workplaces between Robotics, Gesture and Product Design

MANUACT – Hands and Objects in Language, Culture and Technology: Manual Actions at Workplaces between Robotics, Gesture and Product Design

Finanzierung

BMBF (13918503)

Projektpartner

Professur Germanistische Sprachwissenschaft, TU ChemnitzSächsisches IndustriemuseumArs Electronica, Linz

Projektlaufzeit

April, 2015 bis März, 2018

Webseite

Motivation und Zielstellung


Berührungslose Freihandgesten zur Steuerung interaktiver Systeme weisen dann einen höheren Intuitivitätsgrad auf, wenn sie auf konventionalisierten Alltagsgesten der zwischenmenschlichen Kommunikation basieren. Am Beispiel typischer Selektions-, Manipulations- und Navigationsaufgaben, die mittels gestenbasierter 3D-Eingabegeräte steuerbar sind, wird mit explorativen Nutzertests untersucht, welche Gesten als Bedienstrategien durch Nutzer typischerweise spontan hervorgebracht werden. Ziel ist es, dargebotene Gesten auf der Basis ihrer Ähnlichkeit zueinander zu Typen intuitiver Gestenbefehle zusammenzufassen. Mit den definierten Aufgaben zugeordneten Gestentypen als Entscheidungshilfe bei der Implementierung von Gesten-Sets ist es Entwicklern möglich, berührungslose Freihandbedienungen intuitiver zu gestalten. Auf Basis der für spezifische Arbeitsaufgaben dargebotenen Gesten der Probanden (N=59) konnten für 17 typische Arbeitsaufgaben bereits vorläufige Gestentypen abgeleitet und in ein prototypisches Gestenmanual aufgenommen werden.
 

Vorgehensweise


  1. Literaturrecherche zu Natural User Interfaces & Operationalisierung intuitiver Mensch-Maschine-Schnittstellen
  2. Erarbeitung eines geeigneten Versuchsdesigns
  3. Durchführung von Usability-Studien zur Taxonomierung und Bewertung intuitiver Gestenbefehle für typische Manipulations-, Selektions- und Navigationsaufgaben in interaktiven Systemen
  4. Datenanalyse (Typenbildung) auf Grundlage geeigneter linguistischer Vergleichsparameter sowie aus dem Bereich der Mensch-Maschine-Forschung
  5. Entwicklung eines generischen Gestenmanuals für Entwickler
Usability-Test
Usability-Test

Ergebnisse


Am Ende des Projektes steht ein Manual für die Gestaltung von intuitiven Mensch-Maschine-Schnittstellen, die mit Gestenbedienung steuerbar sind. Entwickler finden darin für als typisch definierte Selektions-, Manipulations- und Navigationsaufgaben von Nutzern als Bedienstrategien hervorgebrachte, typische Gestenbefehle. Diese zu Typen zusammengefassten Gestenbefehle werden durch weitere erhobene Daten wie etwa dem subjektiv wahrgenommenen Komfort- und Belastungsempfinden sowie der Fähigkeit der Probanden, sich an das dargebotene Gestenkommando zu erinnern, im Manual näher beschrieben. Durch den Einsatz des Manuals gelingt es Entwicklern, Gestenvokabulare in interaktive Systeme zu implementieren, die als intuitiv wahrgenommen werden, weil sie auf realweltlichen Objektgebrauchsgesten der Nutzer gründen.

 

Ansprechpartner


Konferenzbeiträge


Seeling, T.Bullinger, A. C. (2017). Natürliche User Interfaces mit Anwendern gestalten - Eine Handreichung für die Gestaltung intuitiver Gesten-Sets. In: Gesellschaft für Arbeitswissenschaft e.V. (Hrsg.), Soziotechnische Gestaltung des digitalen Wandels – kreativ, innovativ, sinnhaft, 63. Kongress der Gesellschaft für Arbeitswissenschaft (GfA). (S. ). Dortmund: GfA-Press.

Seeling, T.; Bullinger, A.C. (2017). Intuitiv bedient. Ein Gestemanual für die Gestaltung intuitiver Gesten-Sets in interaktiven Systemen. Grenzen. Kontakt - Kommunikation - Kontrast, Tagungsband 15. Internationaler Kongress der Deutschen Gesellschaft für Semiotik.
12.09.2017 bis 15.09.2017
, Passau (S. 82-84).

Seeling, T. Dittrich, F. Fricke, E. Bullinger, A. C. (2016). Gestenbasierte Google-Earth-Bedienung. Implikationen für ein natürliches Gesten-Set am Beispiel einer 3D-Topographieanwendung. In: Gesellschaft für Arbeitswissenschaft e.V. (Hrsg.), Arbeit in komplexen Systemen – Digital, vernetzt, human?!, 62. Kongress der Gesellschaft für Arbeitswissenschaft. (S. 88-92). Dortmund: GfA-Press.

Fricke, E.Seeling, T.Lynn, U.Schöller, D.Bullinger, A. (2016). Hände und Objekte: Perspektiven linguistischer Gestenforschung für die Gestaltung von Mensch-Maschine-Schnittstellen. 3D Sensation, Tagungsband innteract conference 2016.
22.06.2016 bis 24.06.2016
, Chemnitz (S. ).

Fricke, E.Seeling, T.Lynn, U.Schöller, D.Bullinger, A. (2016). Gesture, virtual globes and technological innovation: Metaphorical concepts as basis for gesturally steering Google Earth with Leap Motion. Gesture - Creativity - Multimodality, Tagungsband 7th Conference of the International Society for Gesture Studies (ISGS).
18.07.2016 bis 22.07.2016
, Paris (S. ).

Seeling, T.Fricke, E.Schöller, D.Bullinger, A.C. (2016). Natürliche User Interfaces durch das Einbeziehen von Nutzern gestalten. Implikationen für ein Entwickler-Gestenmanual. Mensch-Technik-Interaktion im Industrie 4.0 Zeitalter, Tagungsband 8. VDI/VDE Fachtagung USEWARE.
06.10.2016 bis 07.10.2016
, Dresden (S. 65-81).