Conception et évaluation d'interfaces de navigation dans les environnements sonores 3D
Institution:
Paris, CNAMDisciplines:
Directors:
Abstract EN:
We are dealing with usability and Human Computer Interaction, so we are interested, not only in the way to functionalize the spatial auditory cues, but also in the way a spatial auditory display should be implemented. The first study was concerned by an egocentric perspective (or first person view), which offers the minimum of visual information about the space being explored. The experiment was a game-like test, in which the task was to navigate in a simplified virtual town using auditory cues that are provided by different targets. We observed different localization behaviours, more or less effective, which explain the differences in performance between binaural and sterephonic rendering (binaural globally reduced the time needed to make a decision at each crossroad). Secondly, we have defined the architecture of a “zoomable” auditory interface, based on a sonic abstraction composed of two audio nodes, whose semantic is borrowed from MPEG-4 standard: the DirectiveSounds, which are monophonic sounds individually spatialized, and the SurroundingSounds, which are native multi-channel sounds encoding the spatial configuration of a scene (amplitude panning). Once a first prototype has been implemented, we have conducted a last experiment, assessing to which extend the replacement of a group of DirectiveSounds by a single SurroundingSound, is an impairment for the end-user. The results showed that such a substitution offered an enhancement compared to a stereophonic upmix, only when the number of sound sources in the scene was sufficiently important.
Abstract FR:
Nous nous posons ici la question de l’ergonomie d’un dispositif audio 3D, donc de sa mise en œuvre et de son usage. Avant d’entrer dans les détails de la conception d’une interface Humain-Machine, nous avons voulu tester préalablement les capacités des indices de la localisation auditive à représenter l’espace lui-même. L’expérience a pris la forme d’un jeu de navigation en vue subjective dans une ville virtuelle simplifiée où le joueur devait s’orienter en mettant à profit les informations sonores qui lui étaient fournies. Nous avons pu décrire assez précisément différents comportements de localisation dynamique, qui expliquent en partie pourquoi un rendu binaural des effets de spatialisation offrent de meilleures performances qu’un rendu stéréophonique. D’autre part, nous avons définit l’architecture d’une interface sonore dite « zoomable ». Elle s’articule autour d’une abstraction analytique, composée de deux noeuds audio, dont la sémantique est emprunté à la norme MPEG-4 : les DirectiveSounds, sons monophoniques spatialisés individuellement et les Surroundingsounds, sons multi-canaux, capturant la configuration spatiale d’une scène sonore grâce à un certain encodage (panning d’amplitude). Une fois développé un premier prototype de l’interface, nous avons réalisé une dernière expérience tentant d’évaluer la dégradation perçue lorsque l’on substituait un ensemble de DirectiveSound par un unique SurroundingSound. Les résultats indiquent que les SurroundingSound ne constituent une amélioration significative par rapport à une stéréophonie upmixée, que lorsque le nombre de sources qui constituent la scène est suffisamment important.