Perception multimodale de la distance dans un environnement virtuel
Abstract
La position des objets dans un espace est défini par trois coordonnées : l'azimut, l'élévation et la distance. Bien que certaines études aient étudié la perception d'objets sonores et visuels en élévation et en azimut, peu d'études se sont focalisées sur la perception en distance. Cependant, il a été montré que les humains sous-estiment la distance d'objets sonores et visuels distants et sur-estiment la distance d'objets sonores et visuels proches. L'humain perçoit la distance d'un objet et la profondeur d'une scène par le biais de plusieurs indices. Ceux-ci sont combinés afin d'estimer avec précision la distance et la profondeur. Les applications de réalité virtuelle permettent de manipuler des objets dans un environnement généralement multimodal. Pour cela, il est nécessaire de reproduire fidèlement la position des objets dans cet environnement virtuel. La perception de la profondeur est affectée par différents facteurs inhérents aux environnements virtuels comme le champ de vision restreint ou la visualisation d'images de synthèse non réalistes. Une des techniques les plus employées en réalité virtuelle afin de reproduire la profondeur d'un environnement est la stéréoscopie. Cette technique reproduit certains indices de vision binoculaire. Cependant, cette technique ne permet pas de reproduire fidèlement l'ensemble des indices visuels car elle découple la convergence et l'accommodation. Cette étude a pour but de comparer, dans des tâches de perception de la distance égocentrique, la restitution sonore spatialisée et le rendu visuel stéréoscopique.
Origin | Files produced by the author(s) |
---|
Loading...