Hochautomatisiertes Autofahren (HAF) sichert in Zukunft allen Altersgruppen neue Möglichkeiten des Zugangs und Erhalts der individuellen Mobilität. Die damit einhergehende Veränderung der Fahrerrolle vom aktiven Lenker zum zunehmend passiven Systemüberwacher wirft neue Fragen der Mensch-Technik-Interaktion auf.
- Wie interagiert das automatisierte Fahrzeug mit anderen Verkehrsteilnehmern, insbesondere Fußgängern oder Radfahrern?
- Wie erkennt das automatisierte Fahrzeug, dass der Fahrer weiter in der Lage ist, bei Bedarf die Fahrfunktion zu übernehmen und z. B. nicht eingeschlafen ist?
- Wie kann sichergestellt werden, dass eine automatisierte Fahrweise vom Fahrer bzw. Passagier als komfortabel erlebt wird?
Eine Grundfunktion zur Erfüllung dieser Anforderungen ist die maschinelle Wahrnehmung des unmittelbaren Fahrzeugumfeldes und Fahrzeuginnenraums, denn die Interpretation des Fahrerverhaltens kann nur im Zusammenhang mit der vorliegenden Umfeldsituation erfolgen. Für Seriensysteme der Fahrerassistenz (eine Vorstufe des automatisierten Fahrens) mussten diese Bereiche nicht hochauflösend erfasst werden – es genügte, z. B. andere Fahrzeuge und Straßenmarkierungen durch Fusion von Radar, Lasersensoren und Kameras möglichst weit vor dem eigenen Fahrzeug zu detektieren. Bei automatisierten Fahrfunktionen ändern sich die Anforderungen an die direkte Interaktion zwischen Mensch und Fahrzeug massiv. Das intelligente Fahrzeug muss wissen, ob ein Fußgänger durch sein Verhalten oder direkte Gesten einem automatisierten Fahrzeug die Vorfahrt einräumt. Das Fahrzeug muss erkennen, ob ein Fahrer interessiert das Verkehrsgeschehen beobachtet, über einer Lektüre eingeschlafen ist oder sich in bestimmten Verkehrssituationen oder bei vom Fahrzeug durchgeführten Manövern unwohl bzw. unkomfortabel fühlt. Nur so ist gewährleistet, dass die neue Technologie dauerhaft von einer breiten Bevölkerungsschicht akzeptiert und genutzt wird.
Die dafür benötigten Informationen über den Zustand der Passagiere im Innenraum und der Fahrsituation im Außenraum stellen besondere Anforderungen an die erforderliche optische Sensorhardware zur Gewinnung der zu interpretierenden 3D-Basisdaten. Diese müssen aus stark variierenden Objektbereichen mit flexiblem Anforderungsprofil hinsichtlich lateraler als auch axialer Auflösung und Gesichtswinkel in Echtzeit mit großer Robustheit gegenüber Störeinflüssen gewonnen werden. Hierzu soll ein multiskaliges Sensorsystem entwickelt werden, dass erstmalig die jeweils für sich allein betrachtet bereits 3D-fähigen Prinzipien plenoptischer Array-Kameras, der Stereoskopie sowie der Musterprojektion kombiniert. Dabei wird die neuartige hochgenaue dreidimensionale räumliche Auflösung der 3D-Multisensoren die Interpretationsalgorithmen zur Fahrstilverbesserung mit bisher unerreichbaren Inputdaten versorgen.
Erfassungslücke (orange, rot) hochgenauer 3D Daten für automatisiertes Fahren: Fahrzeuginnenraum und Umfeld im Bereich 0…2 m (Fahrzeugnahfeld) können heute nicht automotivetauglich hochaufgelöst 3D erfasst werden