Prozessautomatisierung

Studentische Abschlussarbeiten (Bachelor, Master, Diplom)

Sie suchen ein forschungsnahes, interessantes Thema für Ihre Abschlussarbeit? Sprechen Sie uns an! Wir unterstützen auch gern Studenten anderer Fakultäten, die eines unserer Themen bearbeiten möchten.

Aktuell zu vergebende Themen

Wir haben ständig interessante Aufgaben aus unseren Forschungsprojekten zu vergeben, auch über die hier vorgestellten Themen hinaus. Sprechen Sie uns einfach an!

Kontakt: Die Arbeiten im Bereich Mobile Robotik werden von Dr.-Ing. Niko Sünderhauf, Dipl.-Ing. Sven Lange und Dipl.-Inf. Peer Neubert betreut.

Verbesserung der GPS-Lokalisierung in städtischen Umgebungen

3Sats.png Die satelliten-gestützte Lokalisierung hat sich in den letzten zehn Jahren zu einer echten Alltagsanwendung entwickelt und ist zum Beispiel als Navigationsassistent im Fahrzeug allgegenwärtig. Die durch kostengünstige Empfänger erreichte Positionsgenauigkeit ist in den meisten Fällen ausreichend, um das Fahrzeug Straßen-genau zu lokalisieren. Für eine Fahrspur-genaue Lokalisierung (sog. lane level accuracy) reicht die Genauigkeit jedoch gerade in dicht bebauten Innenstädten noch nicht aus. Der Grund dafür sind sogenannte Mehrwege-Empfangsfehler, die durch die Reflektion von Satellitensignalen an Gebäuden entstehen.

Wir haben einen Ansatz entwickelt, solche Mehrwege-Effekte effektiv zu erkennen und zu eliminieren. Dadurch wird die Positionierung entscheidend verbessert.

In mehreren Bachelor- oder Masterarbeiten wollen wir unser System um weitere wichtige Komponenten ergänzen, um die Positionsgenauigkeit noch zu steigern:
  • Nutzung von Kartenmaterial Das verfügbare Kartenmaterial stellt eine wichtige Informationsquelle bei der Verbesserung der Positionsbestimmugn dar. Ein Fahrzeug wird sich zum Beispiel meist auf und nicht neben einer Straße befinden und sich auch meist in Richtung der Fahrbahn bewegen usw. Weiterhin können bestimmte Einschränkungen der möglichen Bewegungsgeschwindigkeit abgeleitet werden. In der Arbeit soll also die vom bisher schon vorhandenen Positionierungsmodul berechnete Position mit der Karte (z.B. von OpenStreetMaps) abgeglichen werden, Informationen extrahiert und an das Berechnungsmodul zurückgeleitet werden.

  • Nutzung von Bewegungsmodellen Eine weitere Verbesserung der Positionierung ergibt sich, wenn die anhand der GPS-Daten geschätzte Bewegung des Fahrzeugs mit einem Bewegungsmodell abgeglichen werden. Zum Beispiel kann sich ein PKW nicht seitwärts bewegen und nicht beliebig beschleunigen. Verschiedene Bewegungsmodelle (zum Beispiel constant turn rate and velocity, constant turn rate and acceleration) sollen untersucht werden.

  • Nutzung von Kamerabildern Immer mehr Fahrzeuge werden zukünftig mit Kameras ausgestattet sein, die von verschiedenen Assistenzsystemen genutzt werden können. Auch die Genauigkeit der Positionierung kann durch Nutzung der Kamerabilder noch verbessert werden.
Haben Sie Interesse an einer Arbeit in diesem Bereich? Wenden Sie sich bitte an Dr.-Ing. Niko Sünderhauf.

Forschung im Bereich autonomer mobiler Robotik am Beispiel eines autonomen indoor Flugsystems

pelican_freigestellt_klein.png In den vergangenen Jahren wurde die Entwicklung eines autonomen Flugsystems an der Professur für Prozessautomatisierung erfolgreich vorangetrieben. Dabei sehen wir den primären Anwendungsfall und auch die größte Herausforderung bzw. das meiste Forschungspotential in der Nutzung dieser Systeme im Innenbereich. Hierbei muss betont werden, dass unser Fokus nicht auf der Entwicklung eines neuen Flugsystems liegt, sondern in der Erweiterung eines etablierten Systems um zusätzliche Sensorik und dazu passender Algorithmik zur Auswertung und Weiterverarbeitung. Im angestrebten Idealfall bildet das System „QuadroCopter“ dabei keine Einschränkung, sondern den konkreten Anwendungsfall zur Validierung der Forschungsarbeiten. D.h. die durchgeführten Forschungsarbeiten haben Allgemeingültigkeit auch für andere Anwendungen und beinhalten grundsätzlich folgende Themengebiete:

  • Sensordatenverarbeitung Hierbei geht es hauptsächlich um die Aufbereitung und Verknüpfung von Sensordaten. Aktuell werden ein Ultraschallsensor, Optical Flow Sensor und eine Inertial Measurement Unit (IMU) verwendet, um das System automatisch über einer Position schweben zu lassen. Mit weiterer Integration einer Farbkamera kann ebenso ein automatisches Landemanöver durchgeführt werden. Unser Ziel ist es, im Rahmen von studentischen Abschlussarbeiten, die Umgebungswahrnehmung durch weitere Sensorik zu verbessern und vor allem robuster zu gestalten. U.a. sind folgende Arbeiten geplant:
    • Positionsbestimmung mit einer Mono-Kamera Eine Farbkamera wird genutzt, um Feature-Punkte zu finden, zu verfolgen und unter Verwendung von IMU Sensorik, eine relative Position zu berechnen. Ein solches Prinzip wurde bereits erfolgreich von anderen Gruppen eingesetzt und soll jetzt auch in unser System integriert werden. Grundlage ist das PTAM System von Georg Klein (PTAM Demo Videos).
    • Sensorfusion unter Berücksichtigung aktueller Entwicklungen Bisherige Ansätze zur Echtzeit-Sensordatenfusion nutzen fast ausschließlich Filteransätze die auf verschieden Varianten des Kalman Filters basieren. Aufgrund des verwendeten hochdynamischen, nichtlinearen Systems, ist es unser Ziel, die Sensordatenfusion unter Verwendung von Optimierungsansätzen zu verbessern. Hierzu sind verschiedene Ansätze und (Minimal-) Beispiele zu implementieren und zu bewerten.
    • Bildverarbeitung zur Umgebungswahrnehmung Untersuchung der LIBVISO2 und fovis Bibliothek auf einen sinnvollen Einsatz in Verbindung mit dem System „QuadroCopter“. Insbesondere sollte hier die Machbarkeit untersucht werden und die Vor- bzw. Nachteile im Vergleich zu ähnlichen Ansätzen, die zumeist nur auf RGB-D Kameras ausgelegt sind.
    • kinect_depth_klein.png Verarbeitung von 3D Daten Mit dem Erscheinen des preisgünstigen und leistungsfähigen RGB-D Sensor „Kinect“ wurden vielfältige Anwendungen im Bereich der Robotik möglich. Quelloffene Treiber ermöglichen die Nutzung der 3D und Farbinformationen für eigene Anwendungen. Neben dem normalen Farbbild liefern RGB-D Kameras für jeden Pixel im Bild eine Entfernungsinformation. Es ist also möglich, Objekte im Bild nicht nur visuell wahrzunehmen, sondern gleichzeitig auch in ihrer räumlichen Struktur zu beschreiben. In möglichen Bachelor- und Masterarbeiten sollen die RGB-D Daten zur sicheren Navigation unseres QuadroCopters inkl. Ausweichen von statischen oder beweglichen Hindernissen, Fliegen durch Türen, Engstellen usw. genutzt werden. Die Themen können in folgenden Gebiten angesiedelt sein: Sensordatenfusion, Kartographierung und Lokalisierung (SLAM / Erstellung eines texturierten 3D-Modells)

  • Systemintegration Ist die Aufgabe, funktionstüchtige Algorithmen auf geeignete Hardware zu portieren. Im konkreten Anwendungsfall heißt das, dass nur begrenzte Rechenkapazität auf den verwendeten embedded PC-Systemen zur Verfügung steht. Die auch häufig im industriellen Umfeld eingesetzten PC-Systeme bieten den Vorteil kleiner Bauformen und geringem Energieverbrauch. Sollte ein System für einen geplanten Verwendungszweck nicht ausreichen, liegt die Verwendung mehrerer solcher Systeme nahe. Mögliche Themen für Abschlussarbeiten beinhalten folgende Aufgaben:
    • Portierung und Untersuchung der Leistungsfähigkeit von Algorithmen auf ein Gumstix Embedded PC-System
    • Mikrocontrollerprogrammierung

  • qc_tracker_aufbau_klein.png Regelung Wird für den low-level Bereich schon von der Firmware des Flugsystems abgedeckt, doch zur Positionsregelung wird bspw. eine weitere, höhere, Regelungs-Ebene benötigt. Diese wiederum ist abhängig von korrekten und robusten Sensordaten und somit erst von größerer Bedeutung, wenn das Problem der Sensordatenverarbeitung ausreichend gut gelöst ist. Abschlussarbeiten in diesem Bereich können allerdings unabhängig davon mit unserem Indoor Tracking System (Siehe Beschreibung des Tracking Systems auf der SkeyeCopter Projektseite oder Konferenzbeitrag) verwirklicht werden.

  • Kartenerstellung Ist eng mit der Sensordatenverarbeitung verknüpft und beinhaltet die Kartierung eines zuvor unbekannten Gebietes. Der Begriff einer Karte ist in der Robotik etwas allgemeiner gehalten und nicht mit dem menschlichen Verständnis einer Karte gleichzusetzen. Für die Erstellung einer Karte liegt die Verwendung einer RGB-D Kamera nahe.

  • Lokalisierung Ist eng mit der Sensordatenverarbeitung und Kartenerstellung verknüpft und nur zur Vollständigkeit separat aufgelistet.

  • Navigationsplanung Um einen Roboter komplett autonom zu gestalten, müssen Gebiete automatisch exploriert werden und Wege in bereits bekannten Gebieten geplant werden. Hierbei kommt es nicht nur auf die Planung in der statischen Karte an, sondern auch auf die Reaktion auf plötzlich auftretende Hindernisse und dynamischen Objekten. Sollte Interesse auf diesem Gebiet vorliegen, werden auch in diesem Themenbereich gern Abschlussarbeiten vergeben. Die Arbeit in diesem Bereich wird hauptsächlich mit Simulationssoftware wie z.B. USARSim oder Gazebo durchgeführt.

Haben Sie Interesse an einer Arbeit in diesem Bereich? Wenden Sie sich bitte an Dipl.-Ing. Sven Lange.

Je nach gewähltem Thema und bestehenden Vorkenntnissen, können Sie bei uns Erfahrungen in den Bereichen Linux, Matlab, Matlab Simulink, C++, Python, AVR-GCC, ROS und weiteren Tools/Programmiersprachen sammeln. Wir unterstützen Sie gern mit der Weitergabe von eigenen Erfahrungen, Tipps und Literaturempfehlungen.

Wiedererkennung von Szenen in Videodaten

Das Wiedererkennen von Szenen in Videodaten oder den Livebildern einer Kamera hat zahlreiche Anwendungsmöglichkeiten im Bereich der mobilen Robotik, zum Beispiel um einem autonom agierenden System Anhaltspunkte für die Orientierung und Navigation zu geben.

Aber auch für Assistenzsysteme in Fahrzeugen finden solche Erkennungsverfahren Anwendung, zum Beispiel um die Lokalisierungsschätzung per GPS zu verbessern. Im Rahmen einer Abschlussarbeit können verschiedene Verfahren untersucht werden, um schnell und zuverlässig die von einer Kamera im Fahrzeug aufgenommene Szene mit bekannten Szenen aus einer Datenbank abzugleichen. Dabei können auch bereits bestehende Verfahren weiterentwickelt werden. Verbesserungsmöglichkeiten gibt es zum Beispiel, wenn dynamische Objekte, also andere sich bewegende Fahrzeuge im Bild enthalten sind, oder sich die Witterungs- und Beleuchtungsbedingungen stark geändert haben.

Haben Sie Interesse an einer Arbeit in diesem Bereich? Wenden Sie sich bitte an Dr.Ing. Niko Sünderhauf.

Redundante Höhenmessung und Seitenaufprallschutz

Im Forschungsbereich autonome mobile Systeme wird u.a. mit Miniaturhelikoptern vom Typ Hummingbird und Pelican gearbeitet. Diese Systeme wurden mit verschiedener Sensorik aufgerüstet, um einen möglichst autonomen Betrieb der Geräte zu ermöglichen. Das Messen der Höhe über dem Boden ist dabei ein entscheidender Beitrag. Momentan geschieht dies allein über einen Ultraschall-Sensor. Kommt es zu einem Ausfall dieses Sensors oder zu Fehlmessungen durch externe Störeinflüsse, so hätte dies fatale Folgen für das Gesamtsystem. Innerhalb dieser Arbeit soll eine Möglichkeit erarbeitet werden die Höhe durch weitere Sensoren zu bestimmen. Die so gewonnenen redundanten Messungen sollen in einer geeigneten Form fusioniert werden und somit dem Mikrocontroller zur Verfügung stehen.

Ein zweiter Teil der Aufgabe besteht im seitlichen Anbringen von zwei zusätzlichen Ultraschall-Sensoren, um seitlich vorhandene Hindernisse zu detektieren.

Kenntnisse im Umgang mit Linux, Matlab und Mikrocontroller-Programmierung (AVR-GCC) sind von Vorteil, können aber auch im Laufe der Arbeit erworben werden.