TU ChemnitzForschungProjekteComfyDrive - Integration von 3D-Fahrzeuginnenraum- und -umfelderfassung zur Steigerung des Nutzererlebnisses beim hochautomatisierten Fahren

ComfyDrive - Integration von 3D-Fahrzeuginnenraum- und -umfelderfassung zur Steigerung des Nutzererlebnisses beim hochautomatisierten Fahren

ComfyDrive - Integration von 3D-Fahrzeuginnenraum- und -umfelderfassung zur Steigerung des Nutzererlebnisses beim hochautomatisierten Fahren

Finanzierung

BMBF (03ZZ0432A)

Projektpartner

Interdisziplinäres Zentrum für Fahrerassistenzsysteme der TU ChemnitzAIM Micro Systems GmbHFusionSystems GmbHFraunhofer IOFFORTechH Software GmbHSQB GmbH

Projektlaufzeit

Oktober, 2016 bis September, 2019

Motivation und Zielstellung


Hochautomatisiertes Autofahren (HAF) sichert in Zukunft allen Altersgruppen neue Möglichkeiten des Zugangs und Erhalts der individuellen Mobilität. Die damit einhergehende Veränderung der Fahrerrolle vom aktiven Lenker zum zunehmend passiven Systemüberwacher wirft neue Fragen der Mensch-Technik-Interaktion auf.

  • Wie interagiert das automatisierte Fahrzeug mit anderen Verkehrsteilnehmern, insbesondere Fußgängern oder Radfahrern?
  • Wie erkennt das automatisierte Fahrzeug, dass der Fahrer weiter in der Lage ist, bei Bedarf die Fahrfunktion zu übernehmen und z. B. nicht eingeschlafen ist?
  • Wie kann sichergestellt werden, dass eine automatisierte Fahrweise vom Fahrer bzw. Passagier als komfortabel erlebt wird?

Eine Grundfunktion zur Erfüllung dieser Anforderungen ist die maschinelle Wahrnehmung des unmittelbaren Fahrzeugumfeldes und Fahrzeuginnenraums, denn die Interpretation des Fahrerverhaltens kann nur im Zusammenhang mit der vorliegenden Umfeldsituation erfolgen. Für Seriensysteme der Fahrerassistenz (eine Vorstufe des automatisierten Fahrens) mussten diese Bereiche nicht hochauflösend erfasst werden – es genügte, z. B. andere Fahrzeuge und Straßenmarkierungen durch Fusion von Radar, Lasersensoren und Kameras möglichst weit vor dem eigenen Fahrzeug zu detektieren. Bei automatisierten Fahrfunktionen ändern sich die Anforderungen an die direkte Interaktion zwischen Mensch und Fahrzeug massiv. Das intelligente Fahrzeug muss wissen, ob ein Fußgänger durch sein Verhalten oder direkte Gesten einem automatisierten Fahrzeug die Vorfahrt einräumt. Das Fahrzeug muss erkennen, ob ein Fahrer interessiert das Verkehrsgeschehen beobachtet, über einer Lektüre eingeschlafen ist oder sich in bestimmten Verkehrssituationen oder bei vom Fahrzeug durchgeführten Manövern unwohl bzw. unkomfortabel fühlt. Nur so ist gewährleistet, dass die neue Technologie dauerhaft von einer breiten Bevölkerungsschicht akzeptiert und genutzt wird.

Die dafür benötigten Informationen über den Zustand der Passagiere im Innenraum und der Fahrsituation im Außenraum stellen besondere Anforderungen an die erforderliche optische Sensorhardware zur Gewinnung der zu interpretierenden 3D-Basisdaten. Diese müssen aus stark variierenden Objektbereichen mit flexiblem Anforderungsprofil hinsichtlich lateraler als auch axialer Auflösung und Gesichtswinkel in Echtzeit mit großer Robustheit gegenüber Störeinflüssen gewonnen werden. Hierzu soll ein multiskaliges Sensorsystem entwickelt werden, dass erstmalig die jeweils für sich allein betrachtet bereits 3D-fähigen Prinzipien plenoptischer Array-Kameras, der Stereoskopie sowie der Musterprojektion kombiniert. Dabei wird die neuartige hochgenaue dreidimensionale räumliche Auflösung der 3D-Multisensoren die Interpretationsalgorithmen zur Fahrstilverbesserung mit bisher unerreichbaren Inputdaten versorgen.

Erfassungslücke (orange, rot) hochgenauer 3D Daten für automatisiertes Fahren: Fahrzeuginnenraum und Umfeld im Bereich 0…2 m (Fahrzeugnahfeld) können heute nicht automotivetauglich hochaufgelöst 3D erfasst werden
Erfassungslücke (orange, rot) hochgenauer 3D Daten für automatisiertes Fahren: Fahrzeuginnenraum und Umfeld im Bereich 0…2 m (Fahrzeugnahfeld) können heute nicht automotivetauglich hochaufgelöst 3D erfasst werden

Vorgehensweise


  1. Im Projekt werden zunächst relevante Szenarien, bei denen die Anpassung des Fahrstils bzw. die Anzeige zusätzlicher Informationen notwendig ist, identifiziert.
  2. Im nächsten Schritt erfolgt die Ermittlung von Parametern, die mit 3D-Sensoren erfassbar sind und aus denen sich der Fahrerzustand z. B. bezüglich des erlebten Komforts ableiten lässt.
  3. In einem Probandenversuch im Fahrsimulator werden beide, aus der Literatur stammenden, Faktoren empirisch überprüft.
  4. Parallel erfolgt die Weiterentwicklung der 3D-Sensoren für das Fahrzeugnahfeld/Fahrzeuginnenraum, so dass eine irritationsfreie Erfassung der relevanten Parameter sichergestellt wird.
  5. Im folgenden Schritt werden die aufgenommenen 3D-Sensordaten aus Fahrzeugnahfeld und -innenraum so fusioniert, dass eine abgesicherte Aussage bezüglich der Notwendigkeit der Anpassung des Fahrstils möglich ist.
  6. Zuletzt erfolgt eine Implementierung der durchgeführten Arbeiten in einen Versuchsträger, um damit die Praxistauglichkeit des Konzeptes zu demonstrieren.
Automatisierter Versuchsträger BMW i3; integrierte Umfeldsensorik (oben, 3D LiDAR, Auswahl) und Rechentechnik für Sensorfusion und automatisierte Fahrfunktionen (rechts unten)
Automatisierter Versuchsträger BMW i3; integrierte Umfeldsensorik (oben, 3D LiDAR, Auswahl) und Rechentechnik für Sensorfusion und automatisierte Fahrfunktionen (rechts unten)

Ansprechpartner