Laser-augmented omnidirectional vision for 3D localisation and mapping - PASTEL - Thèses en ligne de ParisTech Accéder directement au contenu
Thèse Année : 2007

Laser-augmented omnidirectional vision for 3D localisation and mapping

Couplage vision omnidirectionnelle et télémétrie laser pour la navigation en robotique

Christopher Mei
  • Fonction : Auteur

Résumé

The problem of estimating the motion of a robot and simultaneously building a representation of the environment (known as SLAM: Simultaneous Localisation And Mapping) is often considered as an essential topic of research to build fully autonomous systems that do not require any prior knowledge of the environment to fulfill their tasks. The evolution of SLAM is closely linked to the sensors used. Sonars with odometry are often presented as the first sensors having led to convincing results. Since then, 2D laser range finders have often replaced sonars when possible because of the higher precision and better signal to noise ratio. However 2D lasers alone limit SLAM to planar motion estimation and do not provide sufficiently rich information to reliably identify previously explored regions. These observations have led us to explore throughout this thesis how to combine an omnidirectional camera with a laser range finder to help solve some of the challenges of SLAM in large-scale complex environments. The contributions of this thesis concern a method to calibrate central catadioptric cameras (with the development of an opensource toolbox available on the author's website) and find the relative position between an omnidirectional sensor and a laser range finder. How to represent lines and planes for motion estimation is also studied with the use of Lie algebras to provide a minimal parameterisation. Finally we will detail how laser and vision can be combined for planar SLAM and 3D structure from motion.
Estimer le mouvement d'un robot et construire en même temps une représentation de l'environnement (problème SLAM: Simultaneous Localisation And Mapping) est souvent considéré comme un problème essentiel pour développer des robots pleinement autonomes qui ne nécessitent pas de connaissances à priori de l'environnement pour réaliser leurs tâches. L'évolution du SLAM est très liée aux capteurs utilisés. Les sonars couplés avec l'odométrie sont souvent présentés comme les premiers capteurs ayant fourni des résultats convaincants. Depuis, les lasers 2D ont souvent remplacés ces capteurs pour des raisons de précision et de rapport signal/bruit. Néanmoins les lasers 2D permettent uniquement d'estimer des mouvements planaires et ne donnent pas des informations perceptuelles suffisantes pour identifier de manière fiable des régions précédemment explorées. Ces observations nous ont amenés à explorer à travers cette thèse comment combiner un capteur omnidirectionnel avec un télémètre laser pour effectuer la localisation et cartographie simultanée dans des environnements complexes et de grandes tailles. Les contributions de cette thèse concernent l'étalonnage des capteurs centraux catadioptriques (avec le développement d'un logiciel open source disponible sur le site internet de l'auteur) et la recherche de la position relative entre un capteur omnidirectionnel et un télémètre laser. Des approches efficaces pour estimer le mouvement 3D du capteur en utilisant des droites et des plans sont détaillées. Enfin deux méthodes sont proposées combinant laser et vision pour effectuer du SLAM planaire mais aussi pour estimer la position 3D du robot ainsi que la structure de l'environnement.
Fichier principal
Vignette du fichier
phd_christopher_mei_2007.pdf (18.01 Mo) Télécharger le fichier

Dates et versions

pastel-00004652 , version 1 (29-01-2009)

Identifiants

  • HAL Id : pastel-00004652 , version 1

Citer

Christopher Mei. Laser-augmented omnidirectional vision for 3D localisation and mapping. domain_other. École Nationale Supérieure des Mines de Paris, 2007. English. ⟨NNT : ⟩. ⟨pastel-00004652⟩
667 Consultations
612 Téléchargements

Partager

Gmail Facebook X LinkedIn More