thesis

Calcul de différentielles dans les réseaux de neurones généralisés : algorithmes, complexité, implantation logicielle et applications

Defense date:

Jan. 1, 1996

Edit

Institution:

Paris 9

Disciplines:

Authors:

Directors:

Abstract EN:

Pas de résumé disponible.

Abstract FR:

Les réseaux de neurones sont des outils de régression non linéaire asymptotiquement plus parcimonieux que les b-splines ou les polynômes. Certains types de réseaux comme les perceptrons multicouches et réseaux de radial basis functions ont été étudiés de façon assez complète. D'autres types, comme les réseaux d'ondelettes ou les neurones d'ordre supérieur, restent plus délicats à mettre en œuvre. Nous développons un cadre mathématique général permettant une unification de tous les types de réseaux de neurones dans une unique définition. Nous montrons que les réseaux classiques sont tous des cas particuliers de la définition proposée. Ce cadre mathématique permet d'analyser les réseaux de neurones sans se préoccuper de la fonction implantée par chaque neurone, mais en préservant la structure du réseau étudié. Nous introduisons ainsi des algorithmes de calcul des différentielles du premier et second ordre portant sur les fonctions calculables par ce modèle. Nous étudions les complexités exactes de ces algorithmes et montrons que la rétropropagation (étendue au cas général) n'est pas nécessairement la méthode la plus efficace. Nous décrivons enfin une implantation orientée objet des réseaux généralisés proposés. Nous illustrons ainsi l'utilisation pratique du cadre mathématique proposé. Il permet une unification des algorithmes d'apprentissage sous la forme de méthodes de minimisation de fonctions. Il permet aussi d'obtenir un logiciel très facilement extensible et résout ainsi un des problèmes liés à la simulation neuronale dans un environnement de recherche : l'implantation dans un simulateur d'un nouveau type de réseau de neurones.