CMARL

Transcription

CMARL
CMARL Collaborative Multimodal Augmented Reality Labyrinth Rapport de projet MSE Frédéric Barras Reynald Seydoux Didier Perroud Collaborative Multimodal Augmented Reality Labyrinth MSE Table des mathières 1. Introduction ................................................................................................................................. 3 2. Analyse ........................................................................................................................................... 3 2.1 But du projet ...................................................................................................................... 3 2.2 Etude technologique....................................................................................................... 4 2.2.1 iPhone .............................................................................................................................. 4 2.2.2 Framework VICI .......................................................................................................... 4 2.2.3 Framework NAIF......................................................................................................... 5 3. Conception .................................................................................................................................... 5 3.1 Jeu ........................................................................................................................................... 5 3.2 Interactions multimodales .......................................................................................... 5 3.2.1 Interactions gestuelles ............................................................................................. 5 3.2.2 Interactions vocales ................................................................................................... 6 3.2.3 CASE .................................................................................................................................. 6 3.2.4 CARE ................................................................................................................................. 7 3.2.5 Fusion et Fission ......................................................................................................... 7 3.3 Architecture ....................................................................................................................... 7 4. Implémentation .......................................................................................................................... 8 4.1 Jeu ........................................................................................................................................... 8 4.2 Détection gestuelle sur iPhone .................................................................................. 9 4.3 Reconnaissance vocale .................................................................................................. 9 4.3.1 Système utilisé dans CMARL ............................................................................... 11 4.4 VICI ...................................................................................................................................... 13 4.4.1 Gestion de la multimodalité ................................................................................ 13 4.4.2 Problèmes rencontrés ........................................................................................... 13 4.5 Communication ............................................................................................................. 14 5. Evaluation .................................................................................................................................. 16 5.1 Evaluation avec utilisateurs ..................................................................................... 16 5.1.1 Méthode qualitative ................................................................................................ 16 5.1.2 Méthode quantitative ............................................................................................. 16 5.1.3 Problèmes déjà relevés ......................................................................................... 17 Rapport de projet CMARL Page 2 sur 17 Collaborative Multimodal Augmented Reality Labyrinth MSE 1. Introduction Ce document est le compte rendu du travail effectué dans le cadre du projet master du cours interface multimodale. L’objectif du projet est de réaliser une application exploitant plusieurs modalités différentes. Plusieurs contextes d’application ont été proposés. Le thème choisi pour ce projet sont les interactions collaboratives dans un Cboard (panneau de communication). Les interactions prises en compte dans ce travail sont de type « moyenne distance ». L’utilisateur est proche de la surface du panneau mais pas assez pour pouvoir la toucher par conséquent il interagit à l’aide d’un dispositif externe de type appareil mobile. Le projet doit proposer des interactions multimodales à l’utilisateur. La contrainte principale est l’utilisation de l’interaction gestuelle appliquée dans le thème choisi. Le contenu de ce rapport effectuera dans un premier temps une petite analyse du travail à effectuer. Puis la conception sera présentée en exposant notamment l’architecture du système et l’élaboration des différentes interactions. Le troisième point sera consacré à l’implémentation du système. Pour terminer, une petite critique du système permettra de conclure ce document en évaluant le travail effectué. 2. Analyse Le contexte choisi pour la réalisation du projet est celui d’un jeu. Il s’agit du labyrinthe traditionnellement en bois. La surface du jeu est composée de murs qui délimitent plusieurs couloirs. La bille est lâchée dans le labyrinthe qui doit alors être incliné par le joueur afin de faire progresser la bille jusqu’à la sortie. Les différents couloirs du labyrinthe peuvent être gorgés de pièges (trous) afin de compliquer la tâche. Ce jeu existe sous multiples formes et dimensions. On trouve des labyrinthes géants qui nécessitent la collaboration de plusieurs joueurs afin de terminer une partie. 2.1
Figure 1 : Labyrinthe piégé géant en bois But du projet Le but du projet CMARL est de réaliser un jeu du labyrinthe nécessitant la collaboration de deux utilisateurs pour acheminer la bille. Les utilisateurs pourront agir sur le plateau du labyrinthe grâce à des interactions multimodales. Les interactions étant de type « moyenne distance », les deux joueurs sont situés dans la même pièce et peuvent donc se parler. Rapport de projet CMARL Page 3 sur 17 Collaborative Multimodal Augmented Reality Labyrinth 2.2
MSE Etude technologique Ce point présente quelques petites études technologiques effectuées afin de cibler les composants utilisables dans le développement de CMARL. 2.2.1 iPhone L’iPhone est un appareil mobile connaissant un succès non négligeable. Il est composé de nombreux capteurs qui permettent de connaître en détails son état actuel. Cet appareil est notamment capable de détecter : •
le contact d’un doigt sur l’écran, à plusieurs endroits simultanément •
le changement du positionnement du téléphone dans l’espace et son orientation actuelle •
la proximité de l’oreille d’un utilisateur par rapport au haut parleur •
la luminosité ambiante •
le positionnement géographique actuel Figure 2 : iPhone L’iPhone supporte également les technologies de communication EDGE, 3G et Wifi qui lui offrent un accès performant et permanent aux réseaux. En terme de développement, un kit de développement software est fourni par le développeur. Il permet d’effectuer une programmation de haut niveau et fournit de nombreux outils pour développer aisément des interfaces graphiques. 2.2.2 Framework VICI VICI est un Framework développé à l’Ecole d’Ingénieurs et d’Architecte de Fribourg. Son but est d’offrir un système aux développeurs pour créer facilement des environnements et des applications de réalité augmentée. VICI dispose d’un système de gestion de monde 3D ainsi que d’un moteur physique permettant de simuler le comportement des objets virtuels dans le monde réel. L’incrustation des éléments virtuels dans le monde réel est réalisée grâce à l’utilisation de marqueurs spécifiques. Plusieurs modalités sont traitées Figure 3 : Dispositif utilisant le framework VICI Rapport de projet CMARL Page 4 sur 17 Collaborative Multimodal Augmented Reality Labyrinth MSE au sein de VICI afin d’offrir au développeur des solutions d’interaction avec les éléments virtuels. En plus d’interactions vocales, le Framework propose l’utilisation d’interaction gestuelle effectuée à l’aide d’un gant spécial. 2.2.3 Framework NAIF Le Framework NAIF est développé à l’Ecole d’Ingénieurs et d’Architecte de Fribourg. Son but est d’offrir des outils facilitant la mise en place d’un environnement intelligent. Un des outils proposés par NAIF est une solution de communication entre des systèmes hétérogènes. Il permet au développeur de se concentrer sur l’information à transmettre et non pas sur l’établissement de base d’une communication entre systèmes. 3. Conception L’analyse effectuée dans le point précédent nous permet de concevoir un jeu exploitant des interactions multimodales réalisable à l’aide des technologies hardwares et softwares disponibles. 3.1
Jeu Le concept de jeu à réaliser dans ce projet est un labyrinthe collaboratif pour deux joueurs. Chaque joueur peut orienter le labyrinthe sur un axe différent de celui de l’autre joueur (x ou y). Le labyrinthe n’est pas piégé, en d’autre terme il n’y a pas de trous qui peuvent faire tomber la bille. Cependant le plateau de jeu est composé de portes que les deux joueurs doivent ouvrir explicitement. Ce concept a pour objectif de centraliser l’utilisation du jeu sur l’aspect de collaboration entre les deux joueurs. En ce qui concerne le comportement physique du jeu, il doit être représentatif des paramètres physiques du monde réel. 3.2
Interactions multimodales La manipulation du jeu doit être faite grâce à des interactions multimodales. Dans l’utilisation standard du jeu du labyrinthe, le joueur emploi ses mains pour orienter le plateau de jeu. La modalité gestuelle est donc la première retenue pour la réalisation de CMARL en raison de son caractère intuitif par rapport au contexte. Les mains de l’utilisateur étant occupées, la voix s’impose comme une modalité des plus adéquates pour effectuer d’autres interactions avec le jeu. 3.2.1 Interactions gestuelles D’après l’analyse effectuée précédemment, l’iPhone est capable de détecter son positionnement dans l’espace. Par analogie avec la Rapport de projet CMARL Page 5 sur 17 Collaborative Multimodal Augmented Reality Labyrinth MSE manipulation de l’inclinaison d’une surface, cet appareil est capable de détecter l’orientation que l’utilisateur souhaite donner au labyrinthe. L’iPhone sera donc utilisé pour traiter la modalité gestuelle. L’inclinaison de l’appareil permettra de détecter la rotation à appliquer sur l’axe du labyrinthe géré par le joueur. Un geste secondaire devra être traité par l’iPhone. Il s’agit de la secousse. Des portes du labyrinthe doivent être ouvertes afin de pouvoir poursuivre la progession. L’utilisateur devra agiter sa main afin d’actionner l’ouverture de ces portes. 3.2.2 Interactions vocales Un système de reconnaissance vocale devra être mis en place afin de traiter la seconde modalité. La voix sera utilisée pour commander le jeu. Les actions suivantes devront être supportées par cette modalité : •
•
•
•
•
Choix de la porte à ouvrir Choix de la porte à fermer Démarrer une nouvelle partie Mettre une partie en pause Arrêter la partie 3.2.3 CASE Figure 4 : Modèle CASE de CMARL Le modèle CASE nous permet d’établir qu’il faudra traiter une fusion de type « concurrente » en raison de l’utilisation en parallèle et indépendante de nos deux modalités. Le niveau d’abstraction sera sémantique. Rapport de projet CMARL Page 6 sur 17 Collaborative Multimodal Augmented Reality Labyrinth MSE 3.2.4 CARE D’après le modèle CARE, l’utilisation des gestes pour orienter le labyrinthe et de la voix pour commander la partie sera de type « assignement ». Il y a cependant un cas de complémentarité dans le cadre de l’ouverture ou fermeture d’une porte du labyrinthe. La voix permettra de sélectionner la porte tandis que le geste permettra de l’ouvrir ou respectivement la fermer. 3.2.5 Fusion et Fission La fusion des différentes modalités se fera au niveau décisionnel. En ce qui concerne la fission, les deux joueurs pourront percevoir l’état du labyrinthe grâce à l’affichage du rendu visuel de ce dernier sur un beamer. Pour faciliter également la coordination entre la voix et le geste lors de l’ouverture ou fermeture d’une porte, les iPhones auront la possibilité de vibrer. Lorsque la porte aura été sélectionnée, l’appareil vibrera ce qui indiquera à l’utilisateur que la commande vocale a bien été traitée et qu’il doit effectuer le geste d’ouverture. 3.3
Architecture Figure 5 : Architecture de CMARL La conception en matière d’interactions multimodales étant effectué, le schéma de l’architecture globale du système peut donc être établi. Le Framework VICI sera utilisé pour construire le modèle du labyrinthe en tenant compte des propriétés physiques du jeu. Ce sera également lui qui sera le coordinateur de l’application et qui devra gérer la multimodalité des interactions. Il s’occupera encore d’effectuer le rendu visuel du plateau de jeu. Rapport de projet CMARL Page 7 sur 17 Collaborative Multimodal Augmented Reality Labyrinth MSE Un système de reconnaissance vocale devra être mis en place pour capturer les commandes prononcées par les deux joueurs. Une application iPhone devra être développée afin de traiter les gestes effectués par les deux joueurs. Pour terminer, la communication entre les différents composants de CMARL devra être établie. Le service Gateway du Framework NAIF pourra être utilisé afin d’assurer une liaison de base entre VICI et les différents périphériques de traitement de modalité. 4. Implémentation 4.1
Jeu Le plateau de jeu est présenté de la manière suivante : La balle verte roule sur le plateau et ne peut pas passer à travers les murs. Les portes sont représentées par des parties de mur de couleur rouge ou bleue. Sur l’image, la balle est placée à son point de départ. Lorsque les portes sont fermées, on peut encore apercevoir une fine ligne à l’emplacement de celles‐ci. Pour ouvrir ou fermer les portes, prière de se reporter à l’explication du fonctionnement des modalités dans le jeu. Le plateau de jeu blanc est la pièce qui est inclinée par les utilisateurs lors de leurs mouvements avec leur Iphone. Rapport de projet CMARL Page 8 sur 17 Collaborative Multimodal Augmented Reality Labyrinth 4.2
MSE Détection gestuelle sur iPhone Une petite application a été développée sur l’iPhone pour détecter les différents gestes effectués par le joueur. Le Framework de développement offre des concepts de haut niveau qui facilite grandement l’implémentation de cette tâche. Des événements contenant une mesure sont générés à chaque modification de l’orientation de l’appareil. Il suffit donc de récupérer ces valeurs et les transmettre au gestionnaire de multimodalité, VICI. Une interface graphique simple a été établie afin de vérifier le bon fonctionnement de l’application. Elle est constituée d’un label indiquant l’axe du labyrinthe manipulé par le joueur ainsi que la valeur actuelle d’inclinaison. L’axe manipulé peut être spécifié comme paramètre dans le panneau réglage. 4.3
Reconnaissance vocale L’implémentation de la partie reconnaissance vocale du système a été faite avec l’api Microsoft Speech. Depuis plusieurs années Microsoft fournit Figure 6 : Gestural detection application for iPhone d’importants efforts dans le domaine de la reconnaissance de la parole et de la synthèse vocale. Depuis XP puis Vista et 7, l’utilisateur peut commander les applications Microsoft comme Office et Visual Studio entre autres facilement avec la reconnaissance vocale. Pour les développeurs, une API, facile d’utilisation, est fournie. Nous l’avons utilisée pour notre application. Dans les dernières versions de SAPI, d’autres composants ont été ajoutés pour créer un Speech SDK complet. Voici ses fonctionnalités : Rapport de projet CMARL Page 9 sur 17 Collaborative Multimodal Augmented Reality Labyrinth •
•
•
•
•
•
•
•
•
MSE API definition files ‐ in MIDL and as C or C++ header files. Runtime components ‐ e.g. sapi.dll. Control Panel applet ‐ to select and configure default speech recognizer and synthesizer. Text­To­Speech engines in multiple languages. Speech Recognition engines in multiple languages. Redistributable components to allow developers to package the engines and runtime with their application code to produce a single installable application. Sample application code. Sample engines ‐ implementations of the necessary engine interfaces but with no true speech processing which could be used as a sample for those porting an engine to SAPI. Documentation. Source : http://en.wikipedia.org/wiki/Speech_Application_Programming_Interface Rapport de projet CMARL Page 10 sur 17 Collaborative Multimodal Augmented Reality Labyrinth MSE 4.3.1 Système utilisé dans CMARL Il se base sur une grammaire, définie dans un fichier XML, composée d’un nombre restreint de commandes. <grammar xmlns="http://www.w3.org/2001/06/grammar"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://www.w3.org/2001/06/grammar
http://www.w3.org/TR/speechgrammar/grammar.xsd"
xml:lang="en-EN" version="1.0">
<rule id="Labyrinth" scope="public">
<one-of>
<item>New game</item>
<item>Pause</item>
<item>Exit</item>
<item>Open gate one</item>
<item>Open gate two</item>
<item>Close gate one</item>
<item>Close gate two</item>
</one-of>
</rule>
</grammar>
Le code source C# de la solution Visual Studio est disponible sur le CD. La reconnaissance faite par Windows 7 est très performante sur une grammaire aussi petite. Même sans entraînement préalable de d’utilisateur le temps de reconnaissance se situe entre 0.5 sec et 0.95 sec. Ce qui est acceptable pour notre système. Nous avons aussi observé quelques faux positifs lorsque l’ambiance est bruyante. L’application analyse tous les sons audibles et tente de trouver une correspondance avec les mots à reconnaître de la grammaire. Il faut donc être attentif à ne parler que pour donner des commandes et nous conseillons d’utiliser une oreillette‐micro afin d’améliorer les performances de la reconnaissance. Ci‐dessous, les mots reconnus par notre système ainsi que le temps que le système a pris pour faire la reconnaissance. Rapport de projet CMARL Page 11 sur 17 Collaborative Multimodal Augmented Reality Labyrinth MSE Ci‐dessous, la même reconnaissance après que l’utilisateur se soit entraîné sur le système. On constate que le temps de reconnaissance est cette fois constant et ce pour tous les mots de la grammaire, ce qui n’était pas le cas précédemment sans l’entraînement. On peut penser que nous avons perdu de la vitesse de reconnaissance pour certain mots mais ce n’est pas crucial pour notre application. Par contre le nombre de faux positifs a été considérablement diminué et le fait que le système ne reconnaisse pas un mot de grammaire quand l’utilisateur le prononce aussi. Rapport de projet CMARL Page 12 sur 17 Collaborative Multimodal Augmented Reality Labyrinth 4.4
MSE VICI VICI est responsable de l’utilisation de la réalité augmentée et de l’association des différentes modalités utilisées en entrée et sortie dans notre projet. L’implémentation de la partie VICI s’est faite en respectant les principes imposés par le framework. L’application devrait être une machine d’état qui réagit aux évènements envoyés. Dans notre cas, nous avons les évènements suivants à prendre en compte : messages venant du réseau, générés soit par un Iphone ou par l’application de reconnaissance vocale, et informations venant du Framework lui‐même, telles que l’état du moteur physique et la gestion du monde virtuel. La machine d’état mis en place suit les points importants suivants : ‐ Lorsqu’un utilisateur a prononcé une commande vocale en rapport avec les portes à ouvrir, l’orientation du labyrinthe sera bloquée. ‐ L’orientation du labyrinthe peut être débloquée uniquement lorsque les utilisateurs secouent leur Iphone pour ouvrir/fermer la porte correspondante. Une fois fait, l’orientation est directement libérée et de nouveau couplée aux accélérateurs de l’Iphone. 4.4.1 Gestion de la multimodalité La multimodalité est gérée dans la partie de l’application qui utilise VICI. La fusion des modalités se fait au niveau de la décision, car tous les signaux sont transformés en évènements de structure semblable avant d’arriver à l’application. La machine d’état présentée dans le paragraphe précédent sert à assurer que les modalités s’utilisent de manière séquentielle, comme prévu lors de l’analyse de notre projet. L’implémentation est relativement simple pour la multimodalité, il s’agit simplement d’une série de tests pour déterminer quelle modalité a envoyé quel message et d’une machine d’état qui se modifie en conséquence. Des modifications ont dû être effectuées dans la gestion du moteur physique. Plus d’informations sont disponibles dans le paragraphe suivant, à propos des problèmes rencontrés. Le reste est géré par le framework VICI, réalisé à l’école d’ingénieurs de Fribourg. 4.4.2 Problèmes rencontrés Le plus gros problème rencontré fût l’intégration des mouvements de l’utilisateur dans la simulation gérée par le moteur physique. Il a fallu fixer certains éléments tels que les cubes et la planche qui forment le labyrinthe et effectuer leur déplacement hors de la boucle de l’algorithme de la simulation physique. Ensuite, il fallait les réintroduire correctement afin que la balle, gérée entièrement par la physique, réagisse avec ces éléments. Ceci a demandé de longues heures de travail et de test. Nous avons estimé que ce problème devait être résolu, car avec une simulation réussie, l’utilisateur a vraiment l’impression d’avoir la planche dans les mains, ce qui nous rapproche du principe des interfaces tangibles (l’orientation de l’Iphone agit sur l’orientation de la planche). Rapport de projet CMARL Page 13 sur 17 Collaborative Multimodal Augmented Reality Labyrinth MSE 4.5
Communication Notre système doit supporter la communication entre les différentes composantes, à savoir la réalité augmentée avec tags, le moteur physique gérés par le Famework VICI, le reconnaissance de la parole de Windows 7 et une détection de gestes par les accéléromètres de deux IPhones. Chacune de ces composantes est développée séparément et est capable de fonctionner seule. Ces trois parties sont aussi développées dans trois langages différents à savoir pour VICI le C++, les IPhones l’objective‐C et la reconnaissance vocale le C#. Nous avons donc besoin d’un environnement collaboratif pour faire fonctionner et communiquer ces éléments ensembles. Le service Gateway du Framework NAIF nous permet d’implémenter ceci. Le service Gateway fonctionne comme une sorte de chat, par conséquent nous allons y créer une « room » CMARL, dans laquelle les différentes parties vont pouvoir échanger des messages. Figure 7 : Intercommunication au sein de CMARL Chacune des parties possède un client « Gateway » dans son propre langage qui lui permettra de se connecter à la « room ». Les messages échangés sont en format XML. Le contenu utile à envoyer aux partenaires est encapsulé dans des trames formés par le client « Gateway ». Chaque élément doit suivre une procédure précise pour se connecter à la « room » CMARL et pouvoir y envoyer des messages. Le diagramme en flèche ci‐après montre le détail de la procédure de connexion et la séquence des messages. Rapport de projet CMARL Page 14 sur 17 Collaborative Multimodal Augmented Reality Labyrinth MSE Chaque client commence par envoyer un message Hello, suivi du message Start pour conclure l’établissement de connexion. Après cette phase le client peut alors envoyer des messages et recevoir des notifications de la part des autres membres de la « room ». Chaque message envoyé est redistribué en broadcast à tous les autres membres. Figure 8 : Echange de trame pour la connexion au service Gateway Le tableau suivant résume les messages échangés entre les systèmes et leur but. Message Source Format But Inclinaison de l’axe X Iphone A <X>float</X> Inclinaison de l’axe Y Iphone B <Y>float</Y> Reconnaissance Vocale Reconnaissance Vocale <Word>mot reconnu</Word> Vibrer VICI <Vibrate/> Secousse Iphone A ou B <Shake/> Rapport de projet CMARL Modifier l’inclinaison x du labyrinthe Modifier l’inclinaison y du labyrinthe Commander le labyrinthe Signaler aux joueurs en vibrant que la commande vocale est prise en compte Ouvrir ou fermer une porte du labyrinthe Page 15 sur 17 Collaborative Multimodal Augmented Reality Labyrinth MSE 5. Evaluation Dans l’ensemble, la réalisation de ce projet s’est déroulé sans rencontrer trop de difficultés. Les différents composants ayant été utilisés ont déjà pu faire leurs preuves dans d’autres contextes d’utilisation, par conséquent les risques d’un échec en terme de réalisation étaient faibles. D’après notre point de vue, le résultat est satisfaisant et l’application a pu répondre à nos objectifs initiaux. Il est en effet possible de jouer correctement en utilisant les différentes interactions multimodales. Néanmoins étant les concepteurs de l’application, il est difficile d’effectuer un jugement objectif. Il serait intéressant d’effectuer des tests avec des utilisateurs réels afin de prendre conscience des avantages et faiblesses de notre application. 5.1
Evaluation avec utilisateurs Voici un plan d’évaluation de CMARL qu’il serait intéressant de réaliser avec des utilisateurs. Malheureusement, nous n’avons pas assez de temps et de moyens à disposition pour le mettre réellement en place, et donc vérifier son efficacité et ses problèmes potentiels. Nous avons pensé utiliser une méthode qualitative ainsi qu’une méthode quantitative. 5.1.1 Méthode qualitative Pour les méthodes qualitatives, une méthode d’interaction constructive sera suffisante. Ayant deux utilisateurs en collaboration à chaque fois, nous pourrons automatiquement écouter ce qu’ils se disent, et voir si des problèmes existent à ce niveau‐là, sans avoir à intervenir. Avant de passer aux tests, il est nécessaire de préparer une grille avec les principaux points à vérifier. Voici une liste des éléments utilisables : •
•
•
•
•
Passage des portes Souplesse de l’orientation du plateau Coordination entre les utilisateurs pour l’orientation Coordination des utilisateurs pour les commandes vocales Compréhension du fonctionnement 5.1.2 Méthode quantitative Pour ce qui est des méthodes quantitatives, une simple mesure du temps nécessaire aux utilisateurs pour sortir du labyrinthe est suffisante. Vu qu’il s’agit d’un exercice collaboratif, il nous faudra placer plusieurs personnes en même temps face au logiciel. Chaque personne jouera avec chaque autre utilisateur. De cette manière, nous éliminons le biais dû à l’apprentissage collaboratif et au risque de mauvaise compréhension entre certains testeurs. Une expérience contrôlée incluant tout un processus statistique nous semble incompatible avec notre projet. L’observation simple du temps nécessaire aux utilisateurs pour finir le jeu et la prise en compte de leurs Rapport de projet CMARL Page 16 sur 17 Collaborative Multimodal Augmented Reality Labyrinth MSE remarques suffira à détecter les principaux problèmes d’utilisabilité, ainsi que leur préférence dans l’utilisation de la multimodalité. 5.1.3 Problèmes déjà relevés Un des problèmes déjà aperçu lors de tests préliminaires avec une version non‐finale de l’application est la reconnaissance d’ordres vocaux lorsque les utilisateurs veulent juste discuter entre eux pour collaborer dans la tâche. La barrière entre le français pour la discussion et l’anglais pour les ordres n’est pas suffisante avec les capacités actuelles de la détection de parole. Un deuxième problème est la difficulté de bien se rendre compte de l’orientation réelle du labyrinthe. Il faudrait pour cela y remédier en jouant plus finement avec la lumière dans le monde virtuelle, en la plaçant par exemple au même endroit que la lumière physique, pour simplifier le travail d’analyse de l’utilisateur. Rapport de projet CMARL Page 17 sur 17 

Documents pareils