thesis

Un modele connexionniste utilisant un principe de longueur de description minimale : application a la detection de visages

Defense date:

Jan. 1, 1997

Edit

Institution:

Rennes 1

Disciplines:

Authors:

Directors:

Abstract EN:

Pas de résumé disponible.

Abstract FR:

Les reseaux de neurones sont des modeles statistiques, qui permettent l'apprentissage numerique par l'exemple. Un modele pour l'apprentissage d'un reseau de neurones est developpe et applique a la detection de visages. Cette approche est basee sur les reseaux de neurones autoassociatifs. Nous verrons, que pour utiliser ce type de reseau comme un estimateur, il faut faire des hypotheses tres fortes sur les donnees. En etudiant l'affaiblissement de ces hypotheses, nous presenterons notre modele, le modele generatif contraint : - generatif, puisque le but de l'apprentissage de ce reseau est d'evaluer la probabilite qu'une entree ait ete generee par le modele, - et contraint car pour ameliorer la qualite de l'estimation, certains contre-exemples sont utilises lors de l'apprentissage. Pour etendre la detection a differentes orientations du visage, trois modeles de combinaisons de ces reseaux sont proposes. Des resultats ameliorant notablement l'etat de l'art sont presentes en utilisant un melange conditionnel de ces estimateurs. Les neurones formels sont des unites de traitement de l'information. En enoncant une nouvelle formulation du principe de longueur de description minimale, basee sur la complexite de kolmogorov, nous montrerons que l'apprentissage peut se reduire a un probleme de compression de donnees. Considerons une sequence d'entrees x#n, une sequence de sorties y#n, et une sequence jointe z#n = (x#n, y#n). La question est la suivante : peut-on compresser la sequence jointe z#n plus efficacement que les sequences x#n et y#n separement ? si oui, cela veut dire que cette compression de z#n capture des dependances entre x#n et y#n. Or, c'est exactement ce que cherchent a faire les algorithmes d'apprentissage. Nous montrerons que lorsque l'on ne gagne rien a compresser conjointement x#n et y#n alors ces series sont statistiquement independantes. Une contrainte, basee sur ces developpements de la theorie de l'information, permettant de controler la faculte de generalisation d'un perceptron multicouches, est proposee.