thesis

Problèmes d'estimation paramétrique pour des champs de Gibbs Markoviens : applications au traitement d'images

Defense date:

Jan. 1, 1988

Edit

Institution:

Paris 11

Disciplines:

Authors:

Directors:

Abstract EN:

We study parameter estimation by maximum of likelihood for Gibbs Markov Random Fields. We begin by a heuristic discussion about statistical analysis of pictures, to obtain a modelization by random fields, and by a summary of various parameter estimation technics that exist. Then, we recall some results related to Gibbs Fields, and to their statistical analysis we introduce the notion of potential, and recall existence and uniqueness conditions for an associated Gibbs field. Ln the next chapter, we present a stochastic gradient algorithm in order to maximize the Likelihood. It uses the Gibbs sampler, which is an iterative method for Markov field simulation. We give properties related to the ergodicity of this sampler. Finaly we recall some results of Métivier and Priouret about stochastic gradient algorithms, such as the one we use that allow measurement of the (trend for) convergence for this kind of procedures. Ln chapter 4, we make a precise study of the convergence of the algorithm. First, with fixed lattice, we deal with the case of exponential models and show almost sure convergence of the algorithm. We study then more general models, and especialy problems related to imperfect (or noisy) observa tions. Ln chapter 5, we study the asymptotic behaviour of the maximum of likelihood estimator, and prove consistency, and asymptotic normality. Eventualy we give some practical remarks on the estimation algorithm, followed by some experiments.

Abstract FR:

Nous nous intéressons à l’estimation paramétrique par maximum de vraisemblance pour des champs de Gibbs markoviens. Apres une introduction composée d'une part d'une discussion heuristique de l'analyse statistique des images aboutissant à une modélisation par champs aléatoires. Et d'autre part d'un rappel de différentes techniques d'estimation paramétrique existant dans la littérature, nous consacrons un chapitre au rappel de quelques résultats reliés aux champs de Gibbs, et à leur étude statistique: nous introduisons la notion de potentiel, ainsi que les définitions qui s’y rattachent, puis nous rappelons des conditions d'existence et d'unicité de champs de Gibbs associés à un potentiel. Nous présentons ensuite te un algorithme de gradient stochastique permettant la maximisation de la vraisemblance. Il utilise l'échantillonneur de Gibbs qui est une méthode itérative de simulation de champs markoviens. Des propriétés relatives à l'ergodicité de cet échantillonneur sont alors données. En fin de chapitre, nous rappelons des résultats de Métivier et Priouret sur les algorithmes stochastiques du type de celui que nous utilisons, qui permettent de mesurer la (tendance à la) convergence de telles procédures. Le chapitre 4 est consacré à l'étude plus précise de la convergence de l’algorithme. A réseau fixé, tout d'abord nous étudions le cas de modèle exponentiel, et nous démontrons un résultat de convergence presque sûre de l'algorithme. Nous étudions ensuite les modèles plus généraux en nous intéressant en particulier aux problèmes d’estimation basée sur de observations imparfaites (ou bruitées). Dans le chapitre 5, nous étudions le comportement asymptotique de l'estimateur de maximum de vraisemblance proprement dit, prouvant un résultat de consistance et de normalité asyptotique. Enfin, nous donnons quelques remarques pratiques sur l'algorithme d'estimation, suivies de résultats expérimentaux, composés d'une part de simulations et d'autre part de traitements appliqués à de vraies images.