AdViS

Transcription

AdViS
Projet AdViS
(Adaptive Visual Substitution)
Substitution Visuelle Adaptative
Objectif
Elaboration d’un dispositif de substitution visuo-auditive utilisable
par des non-voyants. Les informations venant d’une caméra sont
converties en signaux audio transmis par des écouteurs.
Principe
Les paramètres de la caméra et la synthèse des sons sont
directement ajustés par l’utilisateur selon la situation. De même
que le toucher naturel, notre dispositif bio-inspiré coordonne
l’action et la perception pour percevoir l’espace.
Architecture
Notre projet se construit de façon évolutive et modulaire. Les
éléments d’entrée, de sortie ou de traitement peuvent être
individuellement remplacés ou surajoutés, et remis à jour à la
demande des non-voyants. Des modules de paramétrage, de
réglage et d’ajustement en ligne, sont accessibles à la commande
par l’usager.
Bio-inspiration
Notre architecture s’appuie sur des principes de neuro-anatomie
fonctionnelle et de biologie comparée. D’une part, il accorde une place
importante aux processus sensorimoteurs, avec le modèle des colliculi
(ou tubercules quadrijumeaux) dans le guidage et la
focalisation attentionnelle ; d’autre part il s’inspire de la neuroéthologie d’animaux qui naviguent dans l’obscurité, comme les
poissons électriques, les dauphins et les chauves-souris.
Historique
Le projet a débuté par l’utilisation d’ un capteur de distance utilisé
pour les jeux vidéo (Kinect® pour X-Box). L’ensemble d’une scène est
convertie en une harmonie de 64 sons plus ou moins puissants selon la
distance et plus ou moins aigus selon la hauteur des surfaces exposées.
Après une confirmation expérimentale de l’usage de cette scène
globale à des déplacements en couloirs, un autre modèle s’est
concentré pour repérer le point le plus proche, obstacle focal le plus
significatif. Actuellement le dispositif se concentre vers une adaptation
globale / focale, une meilleure interactivité avec l’utilisateur et pour
l’emploi généralisé en intérieur et en extérieur grâce à un nouveau
capteur Zed.
Equipe
Enseignants-chercheurs : Pr Denis Pellerin (analyse de vidéo et
perception visuelle) et Dr Sylvain Huet (adéquation algorithme –
architecture) dans l’équipe AGPIG du département Images et Signal du
laboratoire GIPSA-Lab ; Dr Christian Graff (neuroéthologie et
psychophysique) dans l’équipe Perception et Sensori-Motricité du
LPNC.
Stagiaires : Marion Revolle (étudiante ingénieur à Grenoble-INP,
traitement du signal et des images) ; Olivia Puy, (étudiante en Master
de Psychologie à l’UPMF)

Documents pareils