Estimation dans des modèles à variables cachées
Institution:
Paris 11Disciplines:
Directors:
Abstract EN:
This thesis is devoted to the inference in hidden-variables models. The Chapter 1 considers the properties of the maximum likelihood estimator (MLE) for a possibly not stationary hidden Markov model, where the hidden state space is a metric compact space, and both the transition kernel of the hidden chain and the conditional distribution of the observations depend on a parameter. For identifiable models, consistency, asymptotic normality and efficiency of the MLE is shown to follow from exponential memorylessness properties of the state prediction filter and geometric ergodicity of suitably extended Markov chains. Chapter 2 deals with a semiparametric deconvolution model. The observations are the independent sum of a signal composed by i. I. D. Random variables with common unknown density g, and a white noise sequence Gaussian centered with unknown standard deviation s. When s is unknown, we prove that the rate of convergence for the estimation of g is seriously deteriorated. We propose an estimator of s that is nearly minimax when g has a support included in some fixed compact set. We also construct a universal estimator of s (i. E. Without any constraint on g except the one that ensures the identifiability of the model). Chapter 3 still deals with the convolution model but assuming that the Gaussian noise has a known variance (fixed to 1). We study the estimation properties of linear functionals of g depending on a entirely known function f. We extend the results of Taupin (1998, 2001) when f is a polynomial or a trigonometric function, proving lower bounds for the pointwise minimax quadratic risk and for the minimax risk with respect to the uniform norm, and establishing lower and upper bounds for the minimax risk with respect to the "p-norm". We prove that the estimator given by Taupin (2001) reaches the optimal rates when f is a polynomial function and is nearly minimax when f is a trigonometric function.
Abstract FR:
Cette thèse porte sur des problèmes d'estimation dans des modèles à variables cachées. Le Chapitre 1 est consacré à l'étude d'un modèle de Markov, non-nécessairement stationnaire, est supposée à valeurs dans un espace d'états compact et les observations dans un espace métrique séparable complet. La loi de la chaîne cachée ainsi que la fonctionnelle dont sont issues les observations dépendent d'un paramètre. Nous prouvons que l'estimateur du maximum de vraisemblance du paramètre pour les observations est consistant, asymptotiquement normal et efficace. Le Chapitre 2 porte sur l'étude du modèle de convolution. Les observations sont la somme indépendante d'un signal composé de variables aléatoires i. I. D. De densité inconnue g et d'un bruit blanc Gaussien centré d'écart-type inconnu s. Nous montrons que la non-connaissance de s dégrade nettement la vitesse d'estimation de g. Nous proposons alors un estimateur de s qui est presque minimax lorsque g possède un support inclus dans un compact fixé. Nous construisons également un estimateur consistant universel de s (i. E. Sans contrainte sur g autre que celle d'identifiabilité du modèle). Dans le Chapitre 3, nous considérons ce même modèle de convolution mais lorsque le bruit possède une variance connue (fixée égale à 1) et nous nous intéressons, aux propriétés d'estimation de fonctionnelles linéaires intégrales de g d'une certaine forme dépendant d'une fonction f connue. Nous étendons les résultats de Taupin (1998, 2001), dans le cas où la fonction f est soit une fonction polynomiale, soit un polynôme trigonométrique, en établissant des minorations du risque quadratique ponctuel et du risque par rapport à la norme uniforme, ainsi que des majoration et minorations du risque par rapport à la norme p. Nous montrons que l'estimateur proposé par Taupin (2001) atteint les vitesses optimales dans le cas où f est un polynôme et est presque minimax dans le cas où f est un polynôme trigonométrique.