Model Averaging in Large Scale Learning - PASTEL - Thèses en ligne de ParisTech Accéder directement au contenu
Thèse Année : 2018

Model Averaging in Large Scale Learning

Estimateur par agrégat en apprentissage statistique en grande dimension

Résumé

This thesis explores properties of estimations procedures related to aggregation in the problem of high-dimensional regression in a sparse setting. The exponentially weighted aggregate (EWA) is well studied in the literature. It benefits from strong results in fixed and random designs with a PAC-Bayesian approach. However, little is known about the properties of the EWA with Laplace prior. Chapter 2 analyses the statistical behaviour of the prediction loss of the EWA with Laplace prior in the fixed design setting. Sharp oracle inequalities which generalize the properties of the Lasso to a larger family of estimators are established. These results also bridge the gap from the Lasso to the Bayesian Lasso. Chapter 3 introduces an adjusted Langevin Monte Carlo sampling method that approximates the EWA with Laplace prior in an explicit finite number of iterations for any targeted accuracy. Chapter 4 explores the statisctical behaviour of adjusted versions of the Lasso for the transductive and semi-supervised learning task in the random design setting.
Les travaux de cette thèse explorent les propriétés de procédures d'estimation par agrégation appliquées aux problèmes de régressions en grande dimension. Les estimateurs par agrégation à poids exponentiels bénéficient de résultats théoriques optimaux sous une approche PAC-Bayésienne. Cependant, le comportement théorique de l'agrégat avec extit{prior} de Laplace n'est guère connu. Ce dernier est l'analogue du Lasso dans le cadre pseudo-bayésien. Le Chapitre 2 explicite une borne du risque de prédiction de cet estimateur. Le Chapitre 3 prouve qu'une méthode de simulation s'appuyant sur un processus de Langevin Monte Carlo permet de choisir explicitement le nombre d'itérations nécessaire pour garantir une qualité d'approximation souhaitée. Le Chapitre 4 introduit des variantes du Lasso pour améliorer les performances de prédiction dans des contextes partiellement labélisés.
Fichier principal
Vignette du fichier
73105_GRAPPIN_2018_archivage.pdf (3.39 Mo) Télécharger le fichier
Origine : Version validée par le jury (STAR)

Dates et versions

tel-01735320 , version 1 (15-03-2018)

Identifiants

  • HAL Id : tel-01735320 , version 1

Citer

Edwin Grappin. Model Averaging in Large Scale Learning. Statistics [math.ST]. Université Paris Saclay (COmUE), 2018. English. ⟨NNT : 2018SACLG001⟩. ⟨tel-01735320⟩
353 Consultations
376 Téléchargements

Partager

Gmail Facebook X LinkedIn More