thesis

Robustesse des interfaces homme-machine en langue naturelle

Defense date:

Jan. 1, 1992

Edit

Disciplines:

Directors:

Abstract EN:

Once having demonstrated that robustness is currently a crucial problem for systems based on a natural language man-machine interface, we will evidence the extent of the problem through the analysis of researd carried out in error processing. We can thus define a deviation as any elements which violates academic use of the language and or system's expectations at every of analysis. Then, we show that a robust strategy must solve the double bind between tolerance (release of contraints) and the selection of the most plausible solution (constriction). We offer to identify deviations (either real or potential) which are not detected by the natural language understanding system by questioning the validity of the user's input as early as possible. We suggest a strategy based on additional knowledge that must be modelized in order to put in place predictive mechanisms that controll the robust processing, so as to direct suspicion towards the plausible deviation and to direct its processing towards the most likely hypothesis. This body of knowledge is derived from: - data which can be provided by the very operation of the parser thanks to a multi-agent structure; - external data (linguistic, cognitive, ergonomic) structured in five models constructed from the corpus of manmachine dialogue : the technological model, the field and application model, the language model (and its pitfalls), the dialogue model & the user's model. This

Abstract FR:

Nous montrons a travers l'analyse des recherches menees autour du traitement des erreurs, l'ampleur de la problematique de la robustesse pour les systemes d'interface homme-machine en langue naturelle. Nous definissons alors l'ecart comme tout enonce qui n'est pas conforme a la norme academique du "bon usage" et ou aux attentes du systeme, a tous les niveaux de l'analyse. Nous exposons ensuite la double contrainte qui pese sur un systeme robuste, qui doit a la fois prevenir. Le plus tot possible, les ecarts - donc relacher les contraintes d'analyse en emettant des soupcons sur les donnees - et en meme temps controler l'explosion combinatoire. Nous proposons une strategie qui est fondee sur des connaissances utilisees a titre predictif, pour orientier le soupcon vers l'ecart plausible, et pour orienter son traitement vers l'hypothese la plus vraisemblable. Ces connaissances sont issues : -des informations que le fonctionnement meme de l'analyseur peut delivrer grace a une architecture multi-agents; - d'informations externes (linguistiques, cognitives, ergonomiques) organisees en cinq modeles que nous avons construits a partir de corpus de dialogue homme-machine : le modele technologique, le modele du domaine et de l'application, le modele de la langue (et de ses pieges), le modele du dialogue et les modeles des utilisateurs. Cette analyse permet de serier des differents parametres qui interviennent au sein de ce qu'on appelle generalement la modelisation de l'utilisateur. Nous exposons successivement chacun de ces modeles et illustrons la strategie d'analyse robuste que nous proposons par un certain nombre d'e