Stéréoscopie

Transcription

Stéréoscopie
Un premier exemple complet
d’interaction homme/machine
afin de poser le problème …
Interaction entre un homme et un robot distant
via une liaison internet
I.1
31
Premier exemple: projet ARITI
[Otmane et al., 2000],
http://ariti.ibisc.univ-evry.fr/
Site esclave
Site maître
Internet
Un PC portable standard
Robot FANUC LRMate 200i, 6ddl
I.1
Plateforme EVR@, IBISC
32
Projet ARITI
[Otmane et al., 2000], http://ariti.ibisc.univ-evry.fr/
[Vidéo du projet ARITI]
I.1
33
Projet ARITI
[Otmane et al, 2000],
http://ariti.ibisc.univ-evry.fr/
• Intention (tâche):Téléopération de robots distants via Internet pour réaliser
des tâches de saisie/dépose d’objets avec contraintes de précision et
sécurité sur la tâche
• Environnement (site maître):
– un simple PC connecté à Internet
– une plateforme de Réalité Virtuelle
– transformation logicielle de l’action de la personne en commandes du robot
• Action:
– Clavier,souris
– Gestes de la main
• Perception (du site esclave):
– Vision monoscopique ou stéréoscopique du site esclave (robot)
– Retour d’effort
– Incrustations vidéos
I.1
34
Site esclave robotisé
I.1
- Robot FANUC LRMate 200i, 6ddl
- Pièces géométriques colorées à déplacer d’un socle à l’autre
- Deux Webcams (permet la vision stéréoscopique) surploimbant le robot
- PC serveur d’images relié aux Webcams, délivrant un flux stéréoscopique
- PC serveur de commandes pilotant le robot axe par axe
35
Plateforme de RV/RA EVR@
http://evra.ibisc.univ-evry.fr
Caractéristiques de EVR@:
Gestes naturels
et peu contraints
I.1
Système semi-immersif
Stéréoscopie active
Tracking de gestes
- caméras IR ARTTrack1
- système SPIDAR
Système à retour d’effort SPIDAR
3 PCs serveurs
- Tracking ART, SPIDAR, Graphique
36
Environnement logiciel
de EVR@: 3DVIA Virtools
I.1
Gère l’interactivité
- Communication avec les 3 serveurs de EVR@37
- Relation entre les actions de la Personne et leur conséquence
Relation entre geste de la personne
et mouvement du robot
I.1
[Vidéo de la manip avec un robot 4ddl]
Geste naturel de la personne et garantie de précision et de sécurité
sur le site esclave, grâce aux assistances visuelles et à la commande
du robot dues à la méthode d’interaction
38
En quoi a résidé la conception
« utile » d’ARITI?
• 1. Spécifier les actions élémentaires de la personne
pour réaliser la mission.
• 2. Définir les canaux perceptifs utiles.
• 3. Formaliser et coder sous Virtools la méthode
d’interaction, i.e. la relation entre le geste (ou
l’ordre symbolique) de la personne et sa
conséquence dans le monde virtuel.
• 4. Valider expérimentalement l’utilisabilité du
système obtenu et corriger les points 1,2 ou 3 si
besoin.
I.1
39
Un test de la validation expérimentale
d’ARITI
[Ouramdane, 2008]
[Vidéo]
I.1
40
Que nous apprend ce premier exemple
sur l’interaction homme/machine?
• Diversité des actions et modes perceptifs pour réaliser un
même objectif
• Choix de la méthode (technique) d’interaction très
important
• La mise en œuvre technique est rapidement complexe si
des outils adéquats ne sont pas utilisés
• Beaucoup de questions relevant des sciences cognitives
I.1
41
Plan du Cours
• I. De la Boucle Perception/Action dans un monde réel puis virtuel
1. Boucle perception/action chez l’homme, premiers exemples
2. Caractérisation des éléments clés de la boucle
perception/action en rapport avec la Réalité Virtuelle
42
Fondement de la notion d’interaction:
Boucle perception/action
chez l’homme
intention
Personne
action
perception
Machine
interaction
L’homme perçoit la réalité à travers l’action coordonnée
de ses organes sensori-moteurs.
I.2
43
Lorsque cette boucle perception-action
s’intègre dans un monde virtuel:
Naissance d’une « autre » réalité
• Une « autre » réalité naît de l’action
coordonnée des périphériques d’entrée
(Transfert de l’action des organes moteurs
de l’homme vers la machine) et des
périphériques de sortie (Transfert de
l’activité de la machine vers les organes
sensoriels de l’homme)
I.2
44
Une définition de la Réalité Virtuelle
[Fuch et al., 2006]
La finalité de la réalité virtuelle est de
permettre à une personne (ou plusieurs)
une activité sensori-motrice et cognitive
dans
un
monde
artificiel,
créé
numériquement, qui peut être imaginaire,
symbolique ou une simulation de certains
aspects du monde réel.
I.2
45
Une autre définition de la Réalité
Virtuelle
[Tisseau, 2001]
• La RV est un univers de modèles au sein
duquel tout se passe comme si les modèles
étaient réels parce qu’ils proposent
simultanément la triple médiation des sens,
de l’action et de l’esprit.
I.2
46
Conséquence: lien entre RV et interaction
Ces définitions de la RV intègrent très
fortement le fait que l’homme puisse
interagir avec le monde virtuel.
Cela est très différent, par exemple, de la
notion de simulation mathématique.
I.2
47
Exemple en biologie moléculaire:
interaction Homme/Chromosome
[Essabbah et al., 2009]
La configuration spatiale des molécules est soumise
à des contraintes.
I.2
La simulation permet de visualiser quelques résultats
à partir des équations
MAIS l’homme est hors-jeu dans ce processus.
48
Exemple en biologie moléculaire:
interaction Homme/Chromosome
[Essabbah et al., 2009]
[Vidéo]
I.2
L’interaction redonne sa place à l’homme
dans le choix des conformations correctes
pour lui.
49
Schéma générique de
communication Homme/Machine
adapté de [Bowman et al., 2005]
rendu physique
information perceptive
Périphériques
de sortie
analyse
I.2
rendu physique
Personne
intention
intention
action
Périphériques
IMMERSION
d’entrée
Machine
Réaction
programmée
action
50
signaux
Notion d’immersion
[Burkhardt et al., 2003]
L’immersion est l’exposition d’un
utilisateur à un environnement virtuel au
moyen de dispositifs occultant tout ou
partie du monde réel, pour afficher en lieu
et place un monde simulé numériquement.
I.2
51
Notion d’immersion
[Burkhardt et al., 2003]
Objectif:
Recréer les sensations du monde réel dans un
monde virtuel à partir des dispositifs dédiés.
• Stéréoscopie
• Retour d’effort
• Son 3D
• Etc.
I.2
52
Effets indésirables de
l’immersion
• Le cerveau anticipe au niveau de la boucle
perception/action interne à la personne
[Berthoz, 1997]
• S’il existe un petit décalage entre ce que le
cerveau anticipe et ce qui se passe
(incohérence), possibilité de mal du
simulateur.
I.2
Exemple classique: navigation dans un monde virtuel.
53
Notion d’autonomie
L’autonomie de la personne réside dans sa
capacité à coordonner ses perceptions et
ses actions au cours du processus de
l’interaction avec les autres entités.
[Ouramdane et al, 2009].
I.2
54
Présence et autonomie en réalité
virtuelle
[Tisseau, 2001]
I.2
Extrait de [Ouramdane, 2009]
55
Conséquence
• La personne doit être capable de
comprendre intuitivement et d’anticiper
l’action qu’elle produit sur le monde virtuel.
• Sinon, problèmes: la personne n’accepte pas
le système.
I.2
56
Résumé
• La création d’une méthode d’interaction (I3D) en
RV doit tenir compte de tous ces facteurs:
–
–
–
–
Besoin d’immersion
Besoin de Présence
Besoin d’autonomie
(Co-)Influence des actions, de la perception et de
l’environnement
afin de réaliser une tâche en RV/RA le mieux
possible.
I.2
57
Sens : passage du réel au virtuel
1- Stéréoscopie
2- Suivi de mouvements (tracking)
3- Retour d’effort (haptique)
I.2
58
1- Stéréoscopie et vision humaine dans
un environnement réel et virtuel
• Accommodation et disparité rétinienne
comme principe de la vision stéréoscopique
• Différents modes de stéréoscopie pour
générer des environnements virtuels 3D
– Stéréoscopie active
– Stéréoscopie passive anaglyphe
– Stéréoscopie passive par polarisation
I.2
59
Point de fixation et
dédoublement des images réelles
I.2
60
Convergence sur une scène réelle
I.2
61
Accommodation sur un objet réel
Le mécanisme d’accommodation se fait grâce à la
variation de convergence du cristallin.
Accommodation à l’infini
I.2
Accommodation à courte distance
62
Disparité rétinienne
I.2
La perception de la profondeur à partir de la disparité
rétinienne s’appelle la stéréoscopie.
63
La stéréoscopie est issue d’un
processus neurologique autonome.
La construction d’une image en relief n’est pas liée à
la perception d’un contenu en monoculaire
[Julesz, 1971]: Possibilité de perception du relief sans
Information monoculaire.
Impression de profondeur
I.2
64
Environnements virtuels
Deux images à générer
• Deux imager à créer, une pour chaque œil, puis affichées
sur un écran par projection.
• Parallaxe: distance entre deux points homologues sur les
deux images
Disparité rétinienne
perception de la profondeur
• Chaque œil perçoit une image similaire à une image réelle.
65
Environnements virtuels stéréoscopiques
Sensibilité au point de vue
P
Objet derrière l’écran
P
Pg Pd
Pg Pd
Og
Og
Od
Od
Pd Pg
P
Objet devant l’écran
Og
Od
La position P d’un objet dans le monde virtuel
varie suivant la position de l’utilisateur … et l’ordre de Pg et Pd.
66
Environnements virtuels stéréoscopiques
Rectification suivant le point de vue
P
P
Pg Pd
Pg Pd
Modification temps réel
de Pg et Pd
Og
Og
P
Pg
Pd
Od
Od
Pour garder une position fixe de l’objet virtuel, il faut que
la position et l’orientation de la tête doivent être trackées!
67
Og
Od
Environnements virtuels stéréoscopiques
Rectification suivant le point de vue
En règle générale, une unique personne peut avoir un rendu 3d
« parfait ».
68
Dispositif de la visualisation stéréoscopique active
Émetteur IR
Station de travail
Carte graphique 3D
type NVIDIA Quadro
Lunette 1
Coût environ 50€
I.2
…
Lunette n
69
Principe de la visualisation stéréoscopique active
A l’instant t: La station de travail envoie l’image gauche et un signal à l’émetteur
pour obturer l’œil droit des lunettes (cristaux liquides)
Les lunettes reçoivent l’information et l’interprètent via un circuit électronique
interne et une source d’énergie.
A l’instant t+1/2: La station de travail envoie l’image droite et un signal à
l’émetteur
pour obturer l’œil gauche des lunettes (cristaux liquides)
A chaque instant, le cerveau ne perçoit qu’une image
Comme les images gauche et droite sont légèrement décalées horizontalement et
persistance rétinienne, le cerveau reconstruit une image 3D nette.
I.2
70
Dispositif de visualisation stéréoscopique
passive anaglyphe
Projecteur monoscopique
PC standard
Lunette 1
Coût 1 à 5 €
I.2
…
Lunette n
Pas besoin de source
d’énergie.
71
Principe de visualisation stéréoscopique
passive anaglyphe
Utilisation de deux couleurs
complémentaires (ici rouge
et cyan=vert+bleu).
Deux images légèrement
décalées.
Distance inter images
I.2
Images RGB: extraction de la
composante R d’une part,
de la composante G+B
d’autre part.
Lunette filtre R (œil gauche)
et G+B (œil droit)
72
Dispositif de visualisation stéréoscopique
passive par polarisation
+Filtre polarisant
horizontal
+Filtre polarisant
vertical
Projecteurs monoscopiques
PC standard
+ synchronisation des 2 flux vidéo
Lunette polarisée (horizontal/vertical)
Coût environ 15 €
I.2
…
+ écran de projection
métallisé
Lunette n
Pas besoin de source
d’énergie.
73
Principe de visualisation stéréoscopique
passive par polarisation
Polarisation circulaire
[Vidéo polarisation horizontale/verticale]
I.2
74

Documents pareils