High dimensional Markov chain Monte Carlo methods : theory, methods and applications

Résumé : L'objet de cette thèse est l'analyse fine de méthodes de Monte Carlopar chaînes de Markov (MCMC) et la proposition de méthodologies nouvelles pour échantillonner une mesure de probabilité en grande dimension. Nos travaux s'articulent autour de trois grands sujets.Le premier thème que nous abordons est la convergence de chaînes de Markov en distance de Wasserstein. Nous établissons des bornes explicites de convergence géométrique et sous-géométrique. Nous appliquons ensuite ces résultats à l'étude d'algorithmes MCMC. Nous nous intéressons à une variante de l'algorithme de Metropolis-Langevin ajusté (MALA) pour lequel nous donnons des bornes explicites de convergence. Le deuxième algorithme MCMC que nous analysons est l'algorithme de Crank-Nicolson pré-conditionné, pour lequel nous montrerons une convergence sous-géométrique.Le second objet de cette thèse est l'étude de l'algorithme de Langevin unajusté (ULA). Nous nous intéressons tout d'abord à des bornes explicites en variation totale suivant différentes hypothèses sur le potentiel associé à la distribution cible. Notre étude traite le cas où le pas de discrétisation est maintenu constant mais aussi du cas d'une suite de pas tendant vers 0. Nous prêtons dans cette étude une attention toute particulière à la dépendance de l'algorithme en la dimension de l'espace d'état. Dans le cas où la densité est fortement convexe, nous établissons des bornes de convergence en distance de Wasserstein. Ces bornes nous permettent ensuite de déduire des bornes de convergence en variation totale qui sont plus précises que celles reportées précédemment sous des conditions plus faibles sur le potentiel. Le dernier sujet de cette thèse est l'étude des algorithmes de type Metropolis-Hastings par échelonnage optimal. Tout d'abord, nous étendons le résultat pionnier sur l'échelonnage optimal de l'algorithme de Metropolis à marche aléatoire aux densités cibles dérivables en moyenne Lp pour p ≥ 2. Ensuite, nous proposons de nouveaux algorithmes de type Metropolis-Hastings qui présentent un échelonnage optimal plus avantageux que celui de l'algorithme MALA. Enfin, nous analysons la stabilité et la convergence en variation totale de ces nouveaux algorithmes.
Type de document :
Thèse
Probability [math.PR]. Université Paris-Saclay, 2016. English. 〈NNT : 2016SACLT001〉
Liste complète des métadonnées

Littérature citée [145 références]  Voir  Masquer  Télécharger

https://pastel.archives-ouvertes.fr/tel-01529750
Contributeur : Abes Star <>
Soumis le : mercredi 31 mai 2017 - 12:42:07
Dernière modification le : jeudi 11 janvier 2018 - 06:23:39
Document(s) archivé(s) le : mercredi 6 septembre 2017 - 15:52:38

Fichier

73643DURMUS2016archivage.pdf
Version validée par le jury (STAR)

Identifiants

  • HAL Id : tel-01529750, version 1

Citation

Alain Durmus. High dimensional Markov chain Monte Carlo methods : theory, methods and applications. Probability [math.PR]. Université Paris-Saclay, 2016. English. 〈NNT : 2016SACLT001〉. 〈tel-01529750〉

Partager

Métriques

Consultations de la notice

492

Téléchargements de fichiers

85