thesis

Quelques questions de sélection de variables autour de l'estimateur Lasso

Defense date:

Jan. 1, 2009

Edit

Institution:

Paris 7

Disciplines:

Authors:

Directors:

Abstract EN:

In this thesis, we consider the linear regression model in the high dimensional setup. In particular, estimation methods which exploit the sparsity of the model are studied even when the dimension is larger than the sample size. The S\ell_lS penalized least square estmator, also known as the lasso, is a popular method in such a framework which succeeds in providing sparse estmators. The contributions of this thesis concern extensions of the lasso which takeinto account either additional information on the entries, or a semi-supervised data acquisition mode. More precisely, the questions considered in this work are: i) the estimation of the regression parameter when correlation or other structures may exist between the variables (presence of correlations, order structure on the variables or grouping of variables); ii) the construction of estmators adapted to the trasductive setting. These exensions are derived from a modification of the penalty term in the definition of the lasso. The performance of the methods is theoretically explored from a non-asymptotic point of view; we prôve that the estmators satisfy sparsity oracle inequalities. Moreover, variables selection consistency is also established. Furthermore, the practical performance of these procedures is illustrated through numerical experments on smulated datasets.

Abstract FR:

Le probleme general etudier dans cette these est celui de la regression lineaire en grande dimension. On s'intéresse particulièrement aux méthodes d'estimation qui capturent la sparsité du paramètre cible, Même dans le cas où la dimension est supérieure au nombre d'observations. Une méthode populaire pour estimer le paramètre inconnu de la régression dans ce contexte est l'estimateur des moindres carrés Pénalisés par la norme S\ell_1S des coefficients, connu sous le nom de lasso. Les contributions de la thèse portent sur l'étude de variantes du lasso prenant en compte soit des Informations supplémentaires sur les variables d'entrée, soit des modes semi-supervisés d'acquisition des données. Plus précisément, les questions abordées dans ce travail sont : i) l'estimation du paramètre inconnu Lorsque l'espace des variables explicatives a une structure bien déterminée (présence de corrélations, Structure d'ordre sur les variables ou regroupements entre variables) ; ii) la construction d'estimateurs Adaptés au cadre transductif, pour lequel les nouvelles observations non étiquetées sont prises en considération. Ces adaptations sont en partie déduites par une modification de la pénalité dans la Définition de l'estimateur lasso. Les procédures introduites sont essentiellement analysées d'un point de vue non-asymptotipue ; nous Prouvons notamment que les estimateurs vérifient des inégalités de sparsité oracles. Des résultats de consistance en sélection de variables sont également établis. Les performances pratiques des méthodes étudiées sont par ailleurs illustrées à travers des résultats de simulation.