AdViS
Transcription
AdViS
Projet AdViS (Adaptive Visual Substitution) Substitution Visuelle Adaptative Objectif Elaboration d’un dispositif de substitution visuo-auditive utilisable par des non-voyants. Les informations venant d’une caméra sont converties en signaux audio transmis par des écouteurs. Principe Les paramètres de la caméra et la synthèse des sons sont directement ajustés par l’utilisateur selon la situation. De même que le toucher naturel, notre dispositif bio-inspiré coordonne l’action et la perception pour percevoir l’espace. Architecture Notre projet se construit de façon évolutive et modulaire. Les éléments d’entrée, de sortie ou de traitement peuvent être individuellement remplacés ou surajoutés, et remis à jour à la demande des non-voyants. Des modules de paramétrage, de réglage et d’ajustement en ligne, sont accessibles à la commande par l’usager. Bio-inspiration Notre architecture s’appuie sur des principes de neuro-anatomie fonctionnelle et de biologie comparée. D’une part, il accorde une place importante aux processus sensorimoteurs, avec le modèle des colliculi (ou tubercules quadrijumeaux) dans le guidage et la focalisation attentionnelle ; d’autre part il s’inspire de la neuroéthologie d’animaux qui naviguent dans l’obscurité, comme les poissons électriques, les dauphins et les chauves-souris. Historique Le projet a débuté par l’utilisation d’ un capteur de distance utilisé pour les jeux vidéo (Kinect® pour X-Box). L’ensemble d’une scène est convertie en une harmonie de 64 sons plus ou moins puissants selon la distance et plus ou moins aigus selon la hauteur des surfaces exposées. Après une confirmation expérimentale de l’usage de cette scène globale à des déplacements en couloirs, un autre modèle s’est concentré pour repérer le point le plus proche, obstacle focal le plus significatif. Actuellement le dispositif se concentre vers une adaptation globale / focale, une meilleure interactivité avec l’utilisateur et pour l’emploi généralisé en intérieur et en extérieur grâce à un nouveau capteur Zed. Equipe Enseignants-chercheurs : Pr Denis Pellerin (analyse de vidéo et perception visuelle) et Dr Sylvain Huet (adéquation algorithme – architecture) dans l’équipe AGPIG du département Images et Signal du laboratoire GIPSA-Lab ; Dr Christian Graff (neuroéthologie et psychophysique) dans l’équipe Perception et Sensori-Motricité du LPNC. Stagiaires : Marion Revolle (étudiante ingénieur à Grenoble-INP, traitement du signal et des images) ; Olivia Puy, (étudiante en Master de Psychologie à l’UPMF)