Prozessautomatisierung
Prozessautomatisierung

Anwendung biologisch inspirierter Methoden für die Navigation autonomer Systeme

Screenshot unserer C++-Implementierung eines Pose-Cell-Networks

Seit den 70er Jahren wurden in den Gehirnen von Ratten, Primaten und Menschen verschiedene Typen von Zellen identifiziert, die bei der Ausführung von Navigations- und Orientierungsaufgaben beteiligt sind. Experimente verschiedener Forschergruppen zeigen, dass zum Beispiel die Position und die Orientierung im Raum, aber auch das Vorhandensein räumlicher Begrenzungen und anderer Merkmale von spezialisierten Zellen im Gehirn codiert werden.

Neurologen und theoretische Biologen entwickeln seitdem Modelle, die bestimmte Verhaltensweisen von Versuchstieren, aber auch von Menschen, mit Hilfe dieser Zellen und ihrer Vernetzung untereinander und mit anderen Hirnarealen erklären helfen. Wir interessieren uns für diese Entwicklungen und wollen aus den Erkentnissen der Neurowissenschaften eigene Algorithmen zur Lösung von Navigations- und Kartierungsaufgaben (SLAM) mit autonomen Robotern ableiten.

Dabei verfolgen wir einen pragmatischen Ansatz, d.h. wir versuchen nicht, die biologischen Prozesse in ihren Details nachzubilden (z.B. auf Ebene einzelner Neuronen oder gar Spikes). Stattdessen wollen wir die in der Biologie ablaufenden Prozesse abstrahieren und zu effizienten Algorithmen vereinfachen.


Grundlagen und kurze Einführung in die Thematik

Spezialisierte Gehirnzellen

Verschiedene Typen von spezialisierten Gehirnzellen sind an der Ausführung von Navigations- und Orientierungsaufgaben beteiligt. Sie konnten überwiegend alle bei Nagern, Affen und Menschen nachgewiesen werden. Wir wollen diese Zellen in einer kurzen Übersicht vorstellen.

Wie sind die Bilder zu interpretieren? Untenstehende Abbildungen zeigen mit den roten Punkten die Orte in einem Raum an, an denen ein bestimmtes spezialisiertes Neuron einer Ratte aktiv ist. Manche Zellen feuern nur, wenn die Ratte in eine bestimmte Richtung schaut. Dies wird durch einen Strich am Punkt verdeutlicht.

Place Cells Diese Zellen feuern immer in der Umgebung eines bestimmten Ortes. Sie reagieren im allgemeinen nicht auf die Orientierung (Blickrichtung) im Raum. Head Direction Cells codieren nicht den Aufenthaltsort, sondern die Ausrichtung des Kopfes in einem globalen Koordinatensystem. Diese Zellen sind vergleichbar mit einem inneren Kompass.
Grid Cells Die Aktivitätsregionen von Grid Cells sind regelmäßig über den Raum verteilt. Eine solche Zelle ist an verschiedenen Orten im Raum aktiv. Grid Cells wurden im Jahr 2005 am norwegischen NTNU entdeckt. Spatial View Cells Im Unterschied zu den Place Cells feuern die Spatial View Cells nicht, wenn sich das Versuchstier an einem bestimmten Ort aufhält, sondern wenn es in Richtung eines bestimmten Ortes (z.B. einer Landmarke) blickt, unabhängig vom tatsächlichen Aufenthaltsort.
Place-by-Direction Cells kombinieren die Eigenschaften von Place Cells und Head Direction Cells: Sie feuern, wenn sich das Versuchstier an einem bestimmten Orte im Raum befindet und dabei in eine bestimmte Richtung blickt. Border Cells wurden erst im Herbst 2008 am norwegischen NTNU entdeckt. Sie sind in der Nähe von räumlichen Begrenzungen und Hindernissen aktiv.

RatSLAM - Ein biologisch inspiriertes SLAM-System

Unter dem Namen RatSLAM wird seit 2003 an der University of Queensland (Australien) ein biologisch inspiriertes SLAM-System entwickelt, dessen Kern die Funktionsprinzipien von Grid Cells, Place Cells und Head Direction Cells aufweist.

Die Autoren (Micheal Milford und Gordon Wyeth) konnten 2008 in ihrem Paper "Mapping a Suburb with a Single Camera using a Biologically Inspired SLAM System" beeindruckende Ergebnisse vorstellen: RatSLAM gelang die topologisch korrekte, "semi-metrische" Kartierung eines Vorortes von Brisbane, wobei der einzige verwendete Sensor eine einfache Webcam auf dem Dach eines PKW war. Insgesamt wurden dabei 66 km auf den Straßen des Ortes zurückgelegt. Nebenstehendes Video zeigt den Ablauf des Experimentes im Zeitraffer.

Die Ergebnisse sind um so beeindruckender, als dass der verwendete Algorithmus und die zugrundeliegende Mathematik vergleichsweise simpel sind. Im Gegensatz zu den etablierten SLAM-Algorithmen (EKF, UKF, Partikelfilter, ...) kommen keinerlei probabilistische Verfahren zum Einsatz.

Empfehlenswerte Literatur:

Das Video rechts zeigt unsere eigene RatSLAM-Implementierung (C++) in Aktion (Stand Oktober 2009): Dargestellt sind das PoseCell-Network und die Experience Map. Der simulierte Roboter bewegt sich in einer 2-dimensionalen Umwelt und führt mehrere Loop-Closings durch. Das Video demonstriert lediglich die grundlegende Funktionalität.


Eigene Arbeiten: Der Causal Update Filter

Aufbauend auf den oben kurz geschilderten Ergebnissen von Milford et al. haben wir einen neuen Ansatz entwickelt, der die Grundprinzipien von RatSLAM beibehält, diese aber auf einer höheren Abstraktionsebene implementiert. Dadurch ist eine höhere Effizienz möglich. Das Resultat ist ein neuartiger SLAM-Algorithmus, der aus den Bildern einer einzigen Kamera genügend Informationen extrahiert und verarbeitet, um eine topologisch korrekte, semi-metrische Karte einer 66 km langen Fahrt auf öffentlichen Straßen (d.h. dynamische Umwelt mit Bewegung und Veränderungen der Szenen, Änderung der Beleuchtungsverhältnisse usw.) zu erstellen.

cufSLAM-schema.png

Kontakt

Ansprechpartner für das Projekt sind Dipl.-Inf. Niko Sünderhauf und Dipl.-Inf. Peer Neubert.

Publikationen zum Thema

  • Sünderhauf, N., Neubert, P., Protzel, P. (2010). The Causal Update Filter - A Novel Biologically Inspired Filter Paradigm for Appearance Based SLAM. Proc. of IEEE International Conference on Intelligent Robots and Systems (IROS), Taipeh, Taiwan.

  • Sünderhauf, N., Protzel, P., (2010). Beyond RatSLAM: Improvements to a Biologically Inspired SLAM System. Proc. of IEEE International Conference on Emerging Technologies and Factory Automation (ETFA), Bilbao, Spain.