Augmented reality : the fusion of vision and navigation - PASTEL - Thèses en ligne de ParisTech Accéder directement au contenu
Thèse Année : 2013

Augmented reality : the fusion of vision and navigation

La réalité augmentée : fusion de vision et navigation

Nadège Zarrouati-Vissière
  • Fonction : Auteur
  • PersonId : 771034
  • IdRef : 17708264X

Résumé

The purpose of this thesis is to study algorithms for visual augmented reality. Different requirements of such an application are addressed, with the constraint that the use of a monocular system makes depth and linear motion indistinguishable. The real-time realistic insertion of virtual objects in images of a real arbitrary environment yields the need for a dense Threedimensional (3D) perception of this environment on one hand, and a precise localization of the camera on the other hand. The first requirement is studied under an assumption of known dynamics, and the second under the assumption of known depth: both assumptions are practically realizable. Both problems are posed in the context of a spherical camera model, which yields SO(3)-invariant dynamical equations for light intensity and depth. The study of theoreticalobservability requires differential geometry tools for the Riemannian unit sphere. Practical implementation on a system is presented and experimental results demonstrate the ability to localize a camera in a unknown environment while precisely mapping this environment.
Cette thèse a pour objet l'étude d'algorithmes pour des applications de réalité visuellement augmentée. Plusieurs besoins existent pour de telles applications, qui sont traités en tenant compte de la contrainte d'indistinguabilité de la profondeur et du mouvement linéaire dans le cas de l'utilisation de systèmes monoculaires. Pour insérer en temps réel de manière réaliste des objets virtuels dans des images acquises dans un environnement arbitraire et inconnu, il est non seulement nécessaire d'avoir une perception 3D de cet environnement à chaque instant, mais également d'y localiser précisément la caméra. Pour le premier besoin, on fait l'hypothèse d'une dynamique de la caméra connue, pour le second on suppose que la profondeur est donnée en entrée: ces deux hypothèses sont réalisables en pratique. Les deux problèmes sont posés dans lecontexte d'un modèle de caméra sphérique, ce qui permet d'obtenir des équations de mouvement invariantes par rotation pour l'intensité lumineuse comme pour la profondeur. L'observabilité théorique de ces problèmes est étudiée à l'aide d'outils de géométrie différentielle sur la sphère unité Riemanienne. Une implémentation pratique est présentée: les résultats expérimentauxmontrent qu'il est possible de localiser une caméra dans un environnement inconnu tout en cartographiant précisément cet environnement.
Fichier principal
Vignette du fichier
2013ENMP0061.pdf (14.88 Mo) Télécharger le fichier
Origine : Version validée par le jury (STAR)
Loading...

Dates et versions

pastel-00961962 , version 1 (20-03-2014)

Identifiants

  • HAL Id : pastel-00961962 , version 1

Citer

Nadège Zarrouati-Vissière. Augmented reality : the fusion of vision and navigation. Other [cs.OH]. Ecole Nationale Supérieure des Mines de Paris, 2013. English. ⟨NNT : 2013ENMP0061⟩. ⟨pastel-00961962⟩
666 Consultations
600 Téléchargements

Partager

Gmail Facebook X LinkedIn More