next up previous contents
Next: Herleitungen und Beweise Up: diplom Previous: Experimente im Schloss Birlinghoven

Zusammenfassung und Ausblick

Roboter benötigen zur sicheren Navigation 3D-Sensoren und 3D-Karten. Die Akquisition eines 3D-Modells ist daher eine wichtige Fragestellung in der Robotik. Die vorliegende Arbeit hat gezeigt, dass sich der AIS 3D-Laserscanner zur Erstellung eines dreidimensionalen Weltmodells eignet. Effiziente Algorithmen für diesen Sensor werden vorgestellt. Durch die Kombination des 3D-Laserscanners und des Roboters mit den ausgefeilten Algorithmen entsteht ein geschlossenes System zur Exploration und Modellierung von Umwelten.

Bereits während der Aufnahme der 3D-Scans beginnt die Extraktion von Fakten über die Welt, indem auf jeder Schnittebene Linien erkannt und diese zu Flächen zusammengeführt werden. Die Objekterkennung liefert danach Bounding-Boxen um Objekte herum. Der Roboter kennt somit die Areale, in die er nicht fahren kann.

Anschließend werden aus verschiedenen Positionen aufgenommene 3D-Scans zusammengefügt, also registriert. Gleichzeitig wird dabei die Pose des Roboters korrigiert. Im Mittelpunkt stehen Algorithmen, die das Scanmatching trotz der Datenflut von bis zu 200000 Messpunkten pro 3D-Scan sehr schnell ausführen. Simultanes Scanmatching propagiert den beim Zusammenfügen der Scans entstehenden Fehler auf bereits registrierte Scans zurück und minimiert den globalen Fehler. Doch ist das paarweise Matching wegen des geringeren Rechenaufwands für eine Roboterkontrollarchitektur vorzuziehen. Es kann sehr schnell ausgeführt werden ($ <2$ Sekunden).

Auf der Grundlage theoretischer Ergebnisse wird dann ein schneller randomisierter Approximationsalgorithmus für die Berechnung der nächsten optimalen Scanposition vorgestellt. Die implementierte Strategie lässt den Roboter in Richtung großer noch nicht explorierter Teile der Karte fahren. Der geplante Weg führt an den Bounding-Boxen der Objekte vorbei. Eine Kollision mit statischen Hindernissen ist somit ausgeschlossen. Während der Fahrt kommt zusätzlich Kollisionsvermeidung mittels der 2D-Laserscanner zum Einsatz. Gesteuert wird der Roboter durch eine geschlossene Motorregelung.


2D-Laserscanner gehören bereits zum Standard in der Robotik. Zunehmend werden nun aber 3D-Laserscanner als Sensoren eingesetzt [22,32,75,82]. Die Entwicklung wird auch hier weitergehen. So erforschen verschiedene Gruppen die Konstruktion von 3D-Kameras [49,66], die ähnlich wie der in dieser Arbeit verwendete Scanner funktionieren. Ein Laserscanner sendet einen Lichtstrahl aus und misst die Zeit, bis reflektiertes Licht zum Sensor zurückkehrt. Aus dieser Zeit kann die Tiefeninformation errechnet werden. Die Kameras arbeiten ebenfalls nach dem Lichtlaufzeitverfahren. Die abzutastende Szene wird mit Licht geblitzt und der Sensor ermittelt für alle Richtungen, wie viel Licht reflektiert wird [2,49,66]. Dieser Prozess benötigt nur den Bruchteil einer Sekunde, so dass die Wiederholrate von Tiefenbildern bei mehreren Hertz liegt [49].

Diese Entwicklung verdeutlicht, dass bei der Performanz der Algorithmen angesetzt werden muss, um eine hohe Wiederholrate beim Registrieren zu erreichen. Das Scanmatching mit ICP-Algorithmus lässt sich auf Tiefenbildern in weniger als 2 Sekunden durchführen, wenn die Odometrie des Roboters eine erste Schätzung liefert. Es besteht also ein Bedarf an genauen Odometriewerten, um den Prozess zu beschleunigen. Auch wird intensiv nach weiteren Geschwindigkeitsverbesserungen beim Scanmatching mit ICP-Algorithmus gesucht, wie die aktuellen Referenzen belegen [62,65].

Darüber hinaus ist das Planen im Zusammenhang mit Sensoren ebenfalls ein sehr aktuelles Forschungsgebiet [30]. Da es sich um NP-vollständige Probleme handelt, sind gute und effiziente Approximationen gefragt. Es stellt sich die interessante und noch zu behandelnde Frage des Vergleichs mit anderen Strategien. Die Kompetitivität muss untersucht werden. Wie oben beschrieben, versprechen neue Sensoren zudem, kontinuierlich einen Strom von 3D-Daten zu liefern. Damit ist das Sensorplanen nicht mehr mit dem Kunstausstellungsproblem vergleichbar. Es resultiert vielmehr im so genannten Wachpostenweg- (engl.: watchman route problem) bzw. Polygonexpolorationsproblem. Hierbei sind nicht diskrete Orte gesucht, die den Überblick über die gesamte Karte erlauben, sondern ein Weg, von dem aus die gesamte Karte eingesehen werden kann [38,48,70].

Als die wichtigste Aufgabe [36] bei der Roboternavigation mit Hilfe von Tiefenbildern wird die Kombination der deterministischen Techniken zur Registrierung (vgl. Kapitel 3) mit den stochastischen Lokalisations-Techniken [79] genannt. Es muss das Ziel verfolgt werden, die Genauigkeit der Registrierungstechniken mit der Flexibilität der Lokalisierungsmethoden zu verbinden [36].


Des Weiteren muss die Kontrollarchitektur des Roboters noch weiter ausgebaut werden. So ist es dem Roboter zurzeit nicht möglich, aus Sackgassen herauszumanövrieren oder den Weg zur optimalen nächsten Scanposition mit mehreren Zwischenstationen anzufahren.

Eine weitere noch zu lösende Aufgabe ergibt sich aus dem Wunsch, die Handlungsfähigkeit des Roboters zu verbessern. Kollisionsvermeidung ist, wie diese Arbeit auch gezeigt hat, mit den in Abschnitt 2.4.2 vorgestellten Boxen um Objekte herum möglich. Auf einer in dieser Art und Weise segmentierten Szene könnte man nun auch Objekterkennung betreiben und eine symbolische Repräsentation erzeugen.


next up previous contents
Next: Herleitungen und Beweise Up: diplom Previous: Experimente im Schloss Birlinghoven
Andreas Nüchter
2002-07-10