Prozessautomatisierung

Forschungsprojekte an der Professur

Neben klassischen Themen der Automatisierungstechnik (Prozessführung und -optimierung mit wissensbasierten Methoden, Modellierung, Simulation und digitale Regelung komplexer Prozesse sowie industrieller Bildverarbeitung) bildet die Forschung an autonomen intelligenten Systemen einen Schwerpunkt der Aktivitäten an unserer Professur.

Seit dem Jahr 2000 arbeiten wir dabei mit verschiedenen mobilen outdoor-"Robotern". Die Bandbreite der eingesetzten Roboterplattformen umfasst dabei:
  • den bekannten Pioneer 2 AT
  • eine selbst gebaute größere Plattform
  • ein RobuCar TT für mehr Geländegängigkeit und Nutzlast
  • drei verschiedene Prototypen von autonomen Luftschiffen
  • drei Quadrocopter (kleine "Helikopter" mit vier Rotoren)

Unsere Forschungsinteressen berühren u.a. die folgenden Themengebiete:
  • Verfahren zur visuell gestützten Navigation und Kartierung mit Mono- und Stereokameras (visual SLAM, stereo odometry, monoSLAM)
  • verschiedene Filteralgorithmen für SLAM und Sensordatenfusion wie die unterschiedlichen Ausprägungen der Kalman Filter (KF, EKF, UKF, ...) oder Partikelfilter
  • Epipolargeometrie
  • Umweltrekonstruktion aus Kamerabildern (z.B. structure from motion)
  • allgemeine visuelle Umgebungswahrnehmung und -klassifikation
  • neue, biologisch inspirierte Verfahren zur Navigation und Umweltwahrnehmung
  • Regelung komplexer Systeme
  • Kinematik und Pfadplanung autonomer Systeme

SpaceBot Cup – Autonome Roboter für die Planetenerkundung

Roboter sind heutzutage allgegenwärtig - auf der Erde und im All. Die mit Hightech vollgepackten Helfer übernehmen hier vielfältige Jobs. Die Weltraumrobotik gilt längst als Schrittmachertechnologie auch für terrestrische Anwendungen von der Medizintechnik bis zu Fahrerassistenzsystemen. Vor diesem Hintergrund lobte im vergangen Jahr das Deutsche Zentrum für Luft- und Raumfahrt (DLR) einen Wettbewerb aus - den "SpaceBot Cup". Bundesweit gesucht wurden außergewöhnliche Ideen, die zunächst als Projektskizze eingereicht werden konnten. Wir sind nun eines von zehn Teams, die am Wettbewerb teilnehmen werden.

Die Aufgabe beim SpaceBot Cup ist anspruchsvoll: Die Roboter sollen autonom ein zerklüftetes Gelände - wie man es auch auf dem Mond oder Mars antreffen würde - erkunden und interessante Objekte aufspüren und transportieren. Unser Konzept zur Bewältigung dieser Aufgabenstellung sieht zwei kooperierende Roboter am Boden vor, die optional von einem fliegenden Roboter unterstützt werden können.

Alle weiteren Informationen über den Wettbewerb, unser Konzept und den Projektfortschritt gibt es auf finden sich auf unserer Wettbewerbshomepage. Zur Mitarbeit an diesem spannenden Projekt suchen wir noch engagierte Studenten, die uns im Rahmen von Abschlussarbeiten unterstützen wollen.

Verbesserung der GPS-Lokalisierung in städtischen Umgebungen

3Sats.png Die satelliten-gestützte Lokalisierung hat sich in den letzten zehn Jahren zu einer echten Alltagsanwendung entwickelt und ist zum Beispiel als Navigationsassistent im Fahrzeug allgegenwärtig. Die durch kostengünstige Empfänger erreichte Positionsgenauigkeit ist in den meisten Fällen ausreichend, um das Fahrzeug Straßen-genau zu lokalisieren. Für eine Fahrspur-genaue Lokalisierung (sog. lane level accuracy) reicht die Genauigkeit jedoch gerade in dicht bebauten Innenstädten noch nicht aus. Der Grund dafür sind sogenannte Mehrwege-Empfangsfehler, die durch die Reflektion von Satellitensignalen an Gebäuden entstehen.

Wir haben einen Ansatz entwickelt, solche Mehrwege-Effekte effektiv zu erkennen und zu eliminieren. Dadurch wird die Positionierung entscheidend verbessert.

Simultaneous Localization and Mapping (SLAM)

Eines der grundlegenden Probleme in der mobilen Robotik wird als das SLAM-Problem bezeichnet. Der Begriff "SLAM" ist ein englisches Akronym und lautet ausgeschrieben ”simultaneous localization and mapping“.

Was versteht man darunter? Ein Roboter erkundet ohne Vorwissen seine Umgebung und soll diese anhand von Sensordaten kartieren (mapping). Eine genaue Karte kann allerdings nur dann erstellt werden, wenn die jeweilige aktuelle Position des Roboters in der Welt genau bekannt ist (localization). Diese genaue Lokalisierung in der Umwelt ist wiederum nicht ohne eine genaue Karte möglich.

Das SLAM-Problem beinhaltet zahlreiche interessante Fragestellungen und Teilprobleme:
  • Wie kann ein autonomes System schon bekannte Orte in seiner Umwelt wiedererkennen, wie können Verwechslungen vermieden werden ? Dieses Problem bezeichnet man als "Place Recognition".
  • Was geschieht, wenn doch einmal ein Fehler in der Wiedererkennung auftritt? Wie kann das SLAM-System robust damit umgehen?
  • Wie können auch große Umgebungen gehandhabt werden? Kann der Roboter über sehr lange Zeit in einer Umgebung operieren und dabei lernen, wie sich diese Umgebung über die Zeit verändert?
  • Wie geht der Roboter mit dynamischen (also sich selbst bewegenden Objekten, z.B. Menschen!) um?
  • ...

Außerdem werden noch andere Aspekte der mobilen Robtik berührt. Diese sind zum Beispiel:
  • Visuelle Odometrie: Wie kann das System anhand von Kameradaten seine Eigenbewegung (also Rotation und Translation) möglichst genau schätzen?
  • Umgang mit unsicheren Messdaten und Informationen: Alle Sensordaten über die Umwelt sind mit Unsicherheiten behaftet. Wie können wir damit umgehen?
  • Sensorfusion: Wie können die Daten aus mehreren Quellen miteinander verbunden werden?

Weitere Informationen finden Sie auf unserer SLAM-Webseite.

SkeyeCopter

Im Forschungsbereich SkeyeCopter dreht sich alles um fliegende Mini-Helikopter mit 4 Rotoren, sog. Quadrocopter. Mit Kamera und Videofunk ausgestattet, können diese Fluggeräte der Feuerwehr, Polizei oder dem THW bei ihren Einsätzen helfen und wertvolle Informationen liefern. Die Quadrocopter sollen zunächst hauptsächlich als fliegendes Auge dienen. Bei entsprechendem Miniaturisierungsgrad ist aber auch der Einsatz anderer Sensorik (zum Beispiel zur Schadstoffmessung) möglich.

Superpixel

Image pixels are the base unit in most image processing tasks. However, they are a consequence of the discrete representation of images and not natural entities. Superpixels are the result of perceptual grouping of pixels, or seen the other way around, the results of an image oversegmentation. Superpixels carry more information than pixels and align better with image edges than rectangular image patches. Superpixel can cause substantial speed-up of subsequent processing since the number of superpixels of an image varies from 25 to 2500, in contrast to hundreds of thousands of pixels. A superpixel segmentation of an input image is illustrated in the left figure.

More information on this research subject and a Matlab toolbox containing two benchmarks can be found here.

Interdisziplinäres Kompetenzzentrum Virtual Humans

Die digitale Modellierung menschlicher Eigenschaften birgt sowohl erhebliche Herausforderungen für die Forschung als auch enormes Potential zur Entwicklung innovativer Anwendungen. So werden Menschmodelle derzeit u. a. für die Produkt- und Prozessergonomie, die Ausbildung in Berufen mit hohem Risikopotential, medizinische Zwecke, Sportsimulationen und in der Unterhaltungsbranche eingesetzt.

Dabei wächst die Bedeutung eines Menschmodells signifikant mit der Anzahl menschlicher Eigenschaften, die in dem Modell integriert werden können. Zentrale Aspekte betreffen die realitätsnahe Beschreibung des menschlichen Körpers, die Simulation seiner Bewegungen und Sinne sowie die Steuerung virtueller Menschen unter Berücksichtigung von Wahrnehmung und Emotionen.

Homepage des Kompentenzzentrums

Industrielle Bildverarbeitung

In einem gemeinsamen Projekt mit der Firma K+L Elektrotechnik GmbH aus Limbach-Oberfrohna entwickeln wir Verfahren zur vollautomatisierten endoskopischen Sichtprüfung in der industriellen Qualitätssicherung. Das Projekt wird vom Zentralen Innovationsprogramm Mittelstand des Bundesministeriums für Wirtschaft gefördert.

Die Erprobung und der Funktionsnachweis soll über den Bau eines Prototypen (Demonstrators) erfolgen. Dies erfordert die Kombination, Weiter- und Neuentwicklung modernster Techniken aus den Bereichen Robotik, Feinwerktechnik, Mess- und Regelungstechnik, Endoskopie, Bildverarbeitung in Verbindung mit völlig neuartigen adaptiven Prüfverfahren. Nach unserer Kenntnis existiert ein solches Verfahren bisher weder als Prototyp noch als Produkt.

Biologisch inspirierte, aufmerksamkeitsgesteuerte Wahrnehmung und Bildverarbeitung

Die Leistungsfähigkeit der menschlichen visuellen Wahrnehmung ist beeindruckend und in vielen Bereich unerreicht von technischen Systemen. Im Gehirn existieren mehrere Bereiche, in denen die von den Stäbchen und Zäpfchen in der Netzhaut aufgenommenen optischen Reize verarbeitet und interpretiert werden. Zumindest die unteren, ersten Stufen dieser zunehmend komplexeren Verarbeitung sind mittlerweile durch verschiedene Experimente gut verstanden.

Ein wichtiges Konzept der visuellen Wahrnehmung ist die sog. visuelle Aufmerksamkeit. Eng verknüpft damit ist der Begriff der visuellen Salienz. Dieser beschreibt, wie stark sich ein Objekt innerhalb einer Szene von seiner Umgebung abhebt, sei es durch Farbe, Form oder Bewegung. Je größer die Salienz eines Bildbereiches ist, umso stärker wird die Aufmerksamkeit des Betrachters auf diesen Bereich gezogen. Umgangssprachlich formuliert fallen einem also besonders saliente Objekte sofort ins Auge.

Nebenstehendes Bild zeigt eine Szene aus dem Straßenverkehr und die zugehörige Salienzkarte. Der gelbe Container, die drei sichtbaren Verkehrsschilder sowie der blaue PKW haben die größte Salienz und ziehen so den Blick des Betrachters mit hoher Wahrscheinlichkeit auf sich.

Wir untersuchen, wie sich salienzgesteuerte Verfahren der Bildverarbeitung für verschiedene technische Anwendungen nutzen lassen.

Weitere Ausstattung

RobuCar TT

Das RobuCar TT ist eine von der französischen Firma Robosoft hergestellte Plattform, die sich vor allem durch ihre Robustheit und Geländegängigkeit und die hohe Nutzlast auszeichnet.

Das RobuCar hat unsere beiden älteren Roboter Hans und Franz abgelöst und dient uns als Forschungsplattform für Experimente mit autonomen, am Boden operierenden Robotern. Natürlich ist auch eine aktive Zusammenarbeit zwischen Robotern am Boden und in der Luft möglich und sinnvoll. So kann zum Beispiel ein Quadrocopter auf dem RobuCar stationiert werden, zu kurzen autonomen Erkundungsflügen starten und anschließend wieder landen.

Das RobuCar TT findet außerdem als Demonstrator im Rahmen der Nachwuchsforschergruppe MoLeiRo und des Projektes GPSV Verwendung.

Autonomes Luftschiff

Ein autonom oder teilautonom fliegendes Luftschiff kann Feuerwehr, THW oder Polizei bei der Aufklärung und Beobachtung von Einsatzgebieten bzw. der Überwachung von gefährdeten Arealen unterstützen. Die unverfälschte Messung von Luftschadstoffen ist ebenfalls möglich, da der emmissionsfreie Elektroantrieb die Messwerte nicht beeinflusst (im Gegensatz zu einem Hubschrauber).

Unsere Forschungsinteressen und Arbeiten in diesem Projekt gelten insbesondere der Regelung dieses komplexen nichtlinearen Systems. Außerdem interessiert uns, welche Algorithmen zur visuellen Navigation auf dem Luftschiff sinnvoll eingesetzt werden können und wie diese angepasst bzw. weiterentwickelt werden müssen.

3D-Laserscanner

Im Rahmen einer Studienarbeit wurde ein eigener 3D-Laserscanner auf Basis des Sick LMS200 entwickelt. Damit sind echte 3-dimensionale Scans der Umgebung mit einem Blickwinkel von 120°x180° möglich. Objekte können bis zu einer Entfernung von etwa 60 bis 80 Metern erfasst werden.

In der Zwischenzeit haben wir einen vom Fraunhofer IAIS entwickelten 3D-Scanner, der ebenfalls auf einem Sick LMS200 basiert, in Betrieb genommen. Eine aktuelle Fragestellung ist, wie sich die 3D-Scandaten mit Bildern einer Kamera fusionieren lassen, um eine genauere Umgebungswahrnehmung zu ermöglichen.

Die Roboterplattform "RoboLaus"

Diese kleinen Roboter kommen beim Praktikum Mobile Robotik zum Einsatz und werden dort von den Studenten programmiert. Die Roboter sollen am Ende des zweisemestrigen Praktikums in einem Labyrinth navigieren können.

Gesteuert werden die Roboter von einem Mikrocontroller vom Typ ATMega32, die in C programmiert werden. Sie sind mit zwei Sensoren zur Hindernis-Erkennung, Reflexkopplern und Radencodern ausgerüstet.

Die Roboter Hans (Pioneer II AT) und Franz (Eigenbauplattform)

Diese beiden Roboter waren die ersten mobilen Systeme, die am Lehrstuhl aktiv waren. Hans, eine kommerziell erhältliche Roboterplattform vom Typ Pioneer II AT, hat uns von 2000 bis 2007 begleitet und war die Basis für viele Experimente. Der Roboter Franz wurde ab 2004 aufgebaut und speziell für den Einsatz im Gelände entwickelt.

Beide Roboter befinden sich im Ruhestand und wurden von den oben genannten Systemen abgelöst. Sie können aber noch in unserem Labor besichtigt werden.