thesis

De la perception audiovisuelle des flux oro-faciaux en parole à la perception des flux manuo-faciaux en langue française parlée complétée adultes et enfants : entendants, aveugles ou sourds

Defense date:

Jan. 1, 2009

Edit

Disciplines:

Authors:

Abstract EN:

Cued Speech was created by Cornett in 1967 in order to disambiguate the phonology of the visible face by simultaneous phonemic hand gestures. But its productive secret was disclosed just five years ago when discovering that the hand was always ahead of the face (Attina & al. , 2004). This anticipatory coordination was a reminder of the current anticipatory behaviour in speech. The core question here addressed to this anticipatory issue concerned the perception of the acoustic and optic flows in Speech and Cued Speech. We will first establish the flexibility of bimodal speech even in simple CVCV structures, both between and within speakers. If speech can be seen before it is heard (as evidenced at its best by Cathiard & al. , 1991), we will show that the reverse is also true, even for the same speaker. Namely we will assess that speech can be heard before it is seen and even that speech can be heard as soon as it is seen. By carefully examining the pattern of behaviour of the perceived stimuli, we will show that the perceptive outcomes are locked to the produced oro-facial structures, provided we take into account their articulatory to acoustic relationships. Gating and desynchronization experiments for speech et Cued Speech, run with hearing and deaf adults and children – with blind "control" subjects for the audio –, will give us the opportunity to test the range of flexibility allowed by this unique hand-face phonemic coordination. These results will reinforce the proposal that the anticipatory Cued Speech behaviour relies on the phasing of compatible contact controls for hand vowels with orofacial consonants. The window offered by Cornett’s code – and the way it was skillfully embodied (say "embrained") – brought us a surprisingly more decisive answer about the nature of the controls in the phonology of language than the mere observation of simple speech behaviour.

Abstract FR:

La Langue française Parlée Complétée (LPC) a été élaborée à partir de son Cued Speech par Cornett (1967), pour pouvoir désambiguïser la phonologie visible sur le visage par des gestes phonémiques manuels simultanés. Mais c'est seulement depuis cinq ans que le secret de sa production est connu, lorsqu'il a été découvert que la main était toujours en avance sur le visage (Attina & al. , 2004). Ce comportement anticipatoire nous renvoie à celui de la parole. Sur ce comportement général, la question clé que nous allons poser ici est celle de la perception des flux acoustiques et optiques dans la parole et dans la parole coordonnée avec le code manuel de Cornett pour le LPC. Nous déterminerons en premier lieu que la parole bimodale est flexible même dans les structures CVCV les plus simples, non seulement entre locuteurs mais chez un même sujet. Si la parole peut être vue avant même d'être entendue (comme l'ont établi de manière exemplaire Cathiard & al. , 1991), l'inverse est aussi vrai, et chez le même locuteur. En fait nous montrerons que la parole peut aussi être entendue avant d'être vue et même que la parole peut être entendue aussitôt qu'elle est vue. En examinant soigneusement la structure des stimuli testés, nous avons pu montrer que les patrons perceptifs résultants sont "rivés" (locked) à la production oro-faciale de la parole. Ce qui se démontre en tenant compte des relations articulatori-acoustiques. Nos expériences de gating et de désynchronisation, menées avec des entendants et des sourds, adultes et enfants – et aussi des sujets aveugles "contrôles" pour l'audio – nous ont permis de tester la gamme de flexibilité que peut permettre cette coordination phonémique unique de la face et de la main. Ces résultats viennent renforcer la conception avancée depuis Attina & al. (2004), comme quoi le comportement anticipatoire dans la Langue française Parlée Complétée repose sur la mise en phase des types de contrôles les plus compatibles, ceux des (con)tacts de la main avec le visage pour les voyelles et ceux des constrictions de la bouche pour les consonnes. La fenêtre qui nous a été ainsi ouverte par le code de Cornett (Cornett's code) – surtout par la tournure qui lui a permis d'être neuralement incorporé (embodied & "embrained") dans une habileté linguistique – nous a ainsi de manière surprenante permis d'apporter des réponses plus décisives sur la nature des contrôles des segments dans la phonologie du langage que par la seule observation des actes de parole.