Distances entropiques et informationnelles en traitement de donnees
Institution:
Paris 11Disciplines:
Directors:
Abstract EN:
Pas de résumé disponible.
Abstract FR:
Ce travail porte sur l'utilisation de criteres regularises entropiques pour la resolution de problemes inverses mal-poses en traitement de donnees experimentales. En traitement de donnees, le terme entropie designe classiquement l'entropie croisee ou l'entropie de burg. Nous lui donnons ici le sens plus general de transformee de cramer d'une mesure de probabilite que nous appelons mesure de reference. Ce type de fonction est egalement appele entropie de niveau 1 en physique statistique. La selection d'un estimateur par minimisation d'un tel critere strictement convexe est appelee methode du maximum d'entropie sur la moyenne. Ce critere etant infini a l'exterieur de l'enveloppe convexe du support de la mesure de reference, cette methode permet aisement d'imposer l'appartenance de l'estimateur a un ensemble convexe pre-defini. De nombreux criteres bien connus s'interpretent dans ce cadre. Nous montrons comment construire, dans ce formalisme, une large classe de criteres penalisant des differences entre pixels et assimilables a des champs de markov a potentiels convexes. Dans le cadre d'un probleme inverse lineaire, la formulation du probleme admet une forme duale au sens de fenchel que nous exposons. Ces deux formulations permettent d'obtenir un test original d'arret des iterations dans le cadre de l'optimisation numerique iterative d'un critere strictement convexe sous contrainte convexe. Ensuite, nous discutons de l'utilisation plus generale de distances entropiques et informationnelles (distances de bregman et distances d'ali-silvey-csiszar) pour la resolution de problemes inverses en traitement de donnees. Nous presentons enfin deux exemples synthetiques de simulation, en deconvolution et en synthese de fourier, qui nous permettent d'illustrer les contributions methodologiques de ce travail.