Conception par maquettage rapide : application à des
Transcription
Conception par maquettage rapide : application à des
Publié dans les actes d’ergoIA 1998, Biarritz, France Conception par maquettage rapide : application à des écrans tactiles pour le contrôle aérien. Christophe Mertz1,2 et Jean-Luc Vinot 1 1 Centre d’Études de la Navigation Aérienne Orly Sud 205 94542 ORLY AEROGARES, France fax : +33 (0) 1 69 57 63 52 tél. : +33 (0) 1 69 57 70 10 {mertz|vinot}@cena.dgac.fr 2 CR2A-DI Bâtiment River Seine 25 quai Galliéni 92150 Suresnes fax : +33 (0) 1 47-68-87-81 tél. : +33 (0) 1 47-68-97-97 Résumé Nous présentons l’utilisation conjointe d’un écran tactile et d’animations. Après avoir précisé l’intérêt de ces paradigmes d’interaction homme machine dans le contexte du contrôle aérien, nous donnons l’état de l’art de ces deux techniques. Puis, nous présentons la méthode originale à base de maquette papier et vidéo que nous avons suivie pour déterminer rapidement les spécifications de premières maquettes informatiques. La maquette fonctionnelle réalisée montre qu’un couplage fort entre interactions sur un écran tactile et animations rend l’interface plus naturelle. Ces résultats trouvent des applications dans les futures IHM des contrôleurs aériens. Mots-clés maquette papier, maquette vidéo, écran tactile, gestes, animations, contrôle aérien, Interaction Homme Machine, conscience mutuelle Abstract In this paper we present a joint use of tactile screen and animation. We first recall why this two techniques are valuable for air traffic controller computer interaction and then describe the current trends for these techniques. We then describe the methodology we used, based on paper and video fast prototyping. It allowed us to quickly design the first computer-based prototypes. These prototypes demonstrated that tightly coupling tactile screen and animation make the computer human interaction more natural. These results can easily be applied in future air traffic controller computer interfaces studied at the CENA. Keywords Paper prototype, video prototype, touch input screen, gestures, animation, air traffic control, computer human interactions, mutual awareness INTRODUCTION Le déplacement et l’organisation d’objets informatiques sur un écran peuvent-ils être aussi naturels, efficaces, explicites, rapides que la manipulation du papier ? Aujourd’hui, Non ! Cette question est importante pour la modernisation des postes de travail des contrôleurs aériens. Oublions donc la «souris qui rend manchot son utilisateur » et cherchons des alternatives plus naturelles : écrans tactiles et animations. Les contrôleurs aériens utilisent des bandes de papier appelées strips. Un strip est imprimé automatiquement quelques minutes avant l’entrée du vol dans le secteur. Les informations imprimées concernent le plan de vol et les contrôleurs y notent beaucoup d’informations nécessaires à leurs activités. Un des rôles majeurs des strips découle de l’organisation du tableau de strips. En effet, c’est un réel support à la planification et à la communication tacite entre contrôleurs [5,10]. Pour cela, ils décalent des strips comme aide-mémoire (figure 1.a), ils créent des paquets de strips selon le trafic ou des conflits, ils se transmettent et se désignent les strips, etc. figure 1 : tableau de strips papier (a) deux strips dans leur porte-strip (b) et DigiStrips sur écran tactile (c) Le Centre d’Études de la Navigation Aérienne (CENA) étudie les évolutions possibles des postes de travail des contrôleurs aériens. Une partie des informations inscrites aujourd’hui au stylo sur les strips par les contrôleurs devra être connue des futurs outils informatiques d’aide au contrôle comme ERATO [8] développé au CENA. Une démarche basée sur la réalité augmentée [15] autour du strip papier proposée par Mackay et Fayard [10] est intéressante. Malheureusement, la technologie actuelle n’est pas mûre pour une mise en oeuvre opérationnelle. C’est pourquoi l’étude DigiStrips propose d’autres techniques d’interactions. DigiStrips utilise un écran tactile et des animations pour améliorer les interactions. Bien que cette étude soit appliquée à un tableau de strips électroniques, les résultats sont transposables à d’autres représentations utiles aux contrôleurs aériens. Après ce rappel du contexte du contrôle aérien, nous présenterons les possibilités offertes par les écrans tactiles et les animations dans les IHM. Nous donnerons les objectifs de l’étude DigiStrips et développerons les méthodes de maquettage rapide utilisées. Nous conclurons par les premiers résultats obtenus et les travaux futurs envisagés. SOURIS, ECRANS TACTILES ET ANIMATIONS Dans un environnement informatique bureautique ou de station de travail, la souris est certainement l’un des périphériques d’interaction indirects 1 en 2 dimensions les plus performants. D’autres dispositifs comme la boule roulante, le joystick, le trackpad, le touchpad, la tablette avec son stylet, s’ils ont leur intérêt propre (par exemple pour des ordinateurs portables) sont généralement moins performants [1] que la souris. Cependant, dans un environnement à forte contrainte temporelle comme le contrôle aérien, les utilisateurs (contrôleurs aériens) sont soumis à des stress importants. L’expérimentation CINDI [11] a montré que les performances de la souris (temps de saisie, taux d’erreur) diminuent sensiblement dans ces conditions de stress ou de charge cognitive importante. Comme les autres périphériques d’interaction indirectes, la souris est difficile à partager entre plusieurs utilisateurs. Elle masque les interactions d’un utilisateur : il est souvent difficile de percevoir ou de comprendre ce que fait l’autre. Elle crée une distance entre l’objet graphique à l’écran et la main de l’opérateur. Ces limitations de la souris amènent à reconsidérer l’écran tactile. L’écran tactile constitue une alternative intéressante [1] avec de nombreux avantages. C’est un périphérique d’interaction direct : l’utilisateur désigne directement, avec un doigt, sur l’écran, l’objet graphique (bouton, zone, ...) désiré. L’écran tactile permet des actions proches de la préhension d’objets réels, il est très intuitif et ne nécessite aucun apprentissage contrairement au clavier ou à la souris. Une bonne IHM basée sur un écran tactile exige peu de précision de l’utilisateur ; l’effort cognitif et moteur nécessaire pour désigner est plus faible avec un écran tactile qu’avec des dispositifs de pointage indirects. L’utilisateur d’un écran tactile peut utiliser alternativement ses deux mains ce qui lui permet d’optimiser son temps de manipulation ou d’utiliser sa main non-dominante quand l’autre est occupée. Cela est plus difficile avec la souris qui exige d’être plus ou moins ambidextre. L’écran tactile n’est pas accaparé par un utilisateur. Au contraire, la souris reste souvent dans la main de l’utilisateur et elle est difficile à utiliser par un utilisateur mal placé (debout, assis sur le coté…). De plus, l’utilisation d’un écran tactile par un opérateur est explicite pour quiconque se trouve à proximité ; un rapide coup d’oeil en vision périphérique suffit généralement à savoir que l’autre opérateur utilise l’écran tactile. Avec la souris, il faut généralement chercher le curseur sur l’écran pour avoir une idée de l’activité, ce qui est long et coûteux en attention visuelle. Enfin il est possible de se partager un écran tactile à deux ou trois. Cela découle de deux propriétés précédentes. Bien que les dalles tactiles ne sachent traiter qu’un seul point de contact, Les utilisateurs partagent naturellement dans le temps l’écran tactile. Les nombreuses démonstrations de la maquette GRIGRI [3] l’ont bien démontré. Ces deux dernières propriétés (perception du travail de l’autre, utilisation partagée) sont importantes pour les contrôleurs aériens. En effet ils travaillent à deux ou trois en collaboration étroite. Un écran tactile facilite la conscience mutuelle des opérateurs de leurs activités réciproques. De même, un opérateur, assis ou debout, qui désire aider un collègue, pourra plus facilement le faire avec l’écran tactile de son collègue qu’avec sa souris. L’écran tactile possède toutefois un certain nombre de limitations. La précision en est limitée, non par la dalle tactile, mais par la taille de la pulpe du doigt et par les erreurs de parallaxe induites par la distance2 entre le plan de l’image et le plan de la dalle tactile. Il est illusoire de vouloir désigner 1 Il existe une distance physique de plusieurs dizaines de centimètres entre le périphérique d’interaction indirect et la représentation des objets sur lesquels il agit (sur l’écran). 2 Cette distance est importante pour les écrans tactiles à base de tube cathodique mais négligeable du doigt des zones de taille inférieure au centimètre. Un écran tactile ne dispose que d’un «bouton» au contraire d’une souris qui en a 1, 2 ou 3. Enfin l’utilisation prolongée nécessite de bien disposer l’écran tactile. Celui-ci doit être placé face à l’utilisateur, incliné et à la bonne distance ce qui facilite l’usage et diminue les fatigues posturales. De plus l’intégration d’un écran tactile dans un meuble de contrôle est difficile à cause des nombreux autres systèmes déjà présents. Quelles utilisations des écrans tactiles? Les écrans tactiles sont utilisés depuis près de trente ans en salle de contrôle. En France, un écran tactile appelé digitatron permet aux contrôleurs d’informer le système informatique de changements qui modifient les données imprimées sur les strips des secteurs suivants. Quand un avion vole moins haut que prévu ou quand il est dérouté vers un autre aéroport, d’autres secteurs que ceux prévus initialement par le système informatique doivent recevoir des strips papier. Le contrôleur se sert alors du digitatron. D’autres écrans tactiles sont utilisés comme interface de commande, par exemple pour sélectionner des fréquences radios. De nombreuses applications grand public utilisent des écrans tactiles. Ce sont par exemple les kiosques SNCF de réservation et d’achat de billets, les kiosques multimédia placés dans des lieux publics ou encore Cybcérone [16] à l’université de Lausanne. La visualisation va du plus simple (kiosque SNCF) au plus complexe (affichage de vidéo dans les kiosques multimédia ou informations en temps réels dans Cybcérone). Les interactions proposées aux utilisateurs sont, elles, toujours de même nature. L’utilisateur appuie sur une zone de l’écran, matérialisée par un dessin de bouton et cet appui (ou le relâchement qui suit) déclenche un changement de page ou la saisie d’une information. Les interactions sont donc toujours de type « clic ». De rares applications utilisent les interactions drag-and-drop, par exemple pour excentrer une image [6]. Celles-ci sont pourtant le moyen naturel pour déplacer des objets graphiques sur un écran. Les écrans tactiles sont aussi utilisés conjointement avec un stylet pour permettre l’écriture. Celleci peut être reconnue comme dans l’expérimentation GRIGRI [3] ou dans les notepad comme le Newton d’Apple. L’écriture peut aussi être utilisée pour cocher des cases dans des formulaires informatiques ou simplement être enregistrée pour la prise de notes ou de croquis sans interprétation par l’ordinateur. Certains écrans tactiles [9] distinguent l’appui d’un doigt ou d’un stylet. Ils permettent de concevoir des dialogues différents suivant l’outil de désignation, doigt ou stylet. Les animations dans les interactions Les écrans tactiles, périphériques d’interactions directes, favorisent des dialogues plus naturels. Des animations qui ponctuent les dialogues remplissent les mêmes objectifs. Les animations sont utilisées dans les IHM depuis de nombreuses années. Le Finder du Macintosh en est l’exemple emblématique depuis 1983. Par exemple, l’ouverture et la fermeture d’un dossier s’accompagnent d’animations qui explicitent le résultat de l’action de l’utilisateur. En l’absence d’animation, l’utilisateur est obligé de décrypter les conséquences de son action au lieu de les pour les écrans tactiles plats. percevoir [2]. Les animations sont encore peu utilisées dans les applications en dehors évidemment des jeux et des interfaces graphiques d’OS. Ce n’est que récemment que Microsoft a introduit les animations dans Windows95 (ouverture et fermeture d’application) ou dans Excel 7 (insertion et suppression de lignes). Dans le monde de la recherche, les animations sont proposées dans des IHM de parcours de grandes quantités d’informations [2,13]. Les raisons probables de la faible utilisation d’animations dans des produits sont : - les concepteurs n’ont pas toujours été sensibles à l’utilité des animations, - leurs implémentations ont sûrement été jugées trop coûteuses (en temps de développement ou en puissance de calcul) ; elles sont difficiles notamment pour traiter les cas généraux, - la conception et la réalisation d’animations demandent des compétences nouvelles, plus proches de celles d’un graphiste que de celles d’un informaticien ou d’un concepteur. Des extensions de toolkits ont cependant été réalisées [12], basées sur les principes utilisés en dessin animé [7]. Chatty [4] a proposé une toolkit basée sur une métaphore musicale pour décrire des animations et Vodislav [14] une toolkit basée sur la programmation visuelle. Mais peu de toolkits commerciales existent actuellement. LES OBJECTIFS DE DIGISTRIPS Un tableau de strips électroniques doit offrir des fonctions de manipulation des strips et de saisie d’informations. DigiStrips utilise un écran tactile qui distingue doigt et stylet. L’utilisateur organise ses strips avec le doigt et utilise le stylet pour saisir des informations reconnues, comme dans GRIGRI [3], ou non par le système. Les avantages sont : - l’organisation du tableau de strips directement avec le doigt est plus facile qu’avec la souris, dispositif indirect, - la saisie d’information par le stylet est rapide et exige peu d’effort cognitif, comme le laisse penser l’expérimentation GRIGRI, - le partage d’un même écran tactile par deux utilisateurs est possible, que ce soit pour écrire, pour déplacer les strips ou comme support de conscience mutuelle. Dans un premier temps, DigiStrips étudie uniquement la gestion la plus naturelle possible d’un tableau de strips électroniques. Nous nous sommes donc basés sur les opérations actuelles de gestion d’un tableau de strips : - Le décalage d’un strip vers la gauche ou la droite comme aide-mémoire ; Le contrôleur fait glisser d’un doigt le strip dans son support en matière plastique appelé porte-strip (figure 1.b). - Le « poussage » de strips vers le haut ou le bas pour organiser le tableau en paquets ; les portestrips sont enclipsés dans des rails verticaux et le contrôleur les pousse facilement vers le haut ou le bas. - Le déplacement d’un strip; Le contrôleur dé-clipse le porte-strip correspondant et le re-clipse à l’endroit désiré. - L’insertion d’un nouveau strip ; le contrôleur prend le strip papier en sortie de l’imprimante, le glisse dans un porte-strip et l’insère dans le tableau. - Le retrait d’un strip; quand le contrôleur a transmis le vol au secteur suivant, il retire strip et porte-strip du tableau. Pour faciliter ces cinq opérations, nous avons identifié les contraintes suivantes : - L’utilisation (alternée) des deux mains doit être aisée, indifférenciée et naturelle. - Un utilisateur mal placé (sur le côté, debout,...) doit pouvoir utiliser le système. - La précision exigée doit être faible, au déclenchement de l’interaction, mais aussi à la fin. Le système doit donc reconnaître les actions de l’utilisateur et l’aider à placer ses strips en complétant ses actions. - Les feed backs (ou retours d’information) pendant l’interaction doivent être les plus explicites possibles pour lever toute ambiguïté sur le résultat de l’interaction. - Le dispositif doit favoriser la conscience mutuelle entre plusieurs utilisateurs. Afin d’explorer rapidement les alternatives d’interactions, nous avons utilisé une méthode originale de maquettage. Elle est basée sur des maquettages très rapides à base de papier et de vidéo. Nous présentons maintenant cette méthode. METHODE UTILISEE Les deux premières phases de maquettage ont été très rapides et ont duré 3 jours chacune. Le maquettage papier L’objectif de ce maquettage est d’observer et d’identifier les gestes spontanés des utilisateurs pour gérer un tableau de strips sur un écran tactile. Ces interactions naturelles doivent être possibles dans DigiStrips. Le principe du maquettage papier est d’utiliser des supports faciles à réaliser, à base de papier, pour montrer à de futurs utilisateurs le fonctionnement d’une IHM. Dans notre cas, nous avons utilisé un «écran tactile » en papier représenté par une feuille de format A3, taille proche d’un écran de 20" de diagonale. Les sujets devaient déplacer des strips dessinés sur cette feuille à l’aide de leurs doigts (figure 2.a), comme s’ils agissaient sur un écran tactile. Bien sûr, le papier ne réagissait pas aux interactions. Cela n’empêchait nullement les sujets de jouer le jeu. Ils étaient libres d’agir très naturellement (au contraire, une maquette informatique impose ses contraintes). Un caméscope placé verticalement au-dessus de la feuille (figure 2.b) enregistrait la séance. La revisualisation à volonté était nécessaire pour analyser plus précisément les gestes et interactions des sujets. figure 2 : Un sujet au cours du maquettage papier (a) et la caméra au dessus de l’écran « tactile » (b) Pour progresser rapidement, nous avons procédé en trois étapes : - Pendant la première étape, 4 sujets ont effectué les opérations de gestion des strips à leur guise. Aucune indication n’était donnée quant à la manière de procéder. Ils devaient simplement utiliser un doigt à la fois, procéder en drag-and-drop et répéter trois fois avec la main dominante puis avec l’autre main les opérations des scénarios établis pour l’occasion. Nous avons ainsi constaté des différences entre main gauche et main droite et la nécessité de préciser davantage les dialogues d’interaction aux sujets. - Durant la deuxième étape, deux styles d’interaction ont été testés avec 4 autres sujets. Dans le premier style, les cinq opérations étaient déclenchées depuis des zones différentes du strip. Dans le deuxième style, c’est la nature du geste de drag-and-drop, c.-à-d. la trajectoire, qui permet de distinguer les opérations. Cette étape a montré la difficulté de particulariser des zones sur le strip, dans le cas d’usage avec les deux mains. Par exemple, une zone à droite d’un strip est plus difficile à utiliser avec la main gauche. Les zones devant être de taille suffisante, il n’est donc pas possible de dupliquer ces zones pour rendre le strip symétrique. Il nous a semblé préférable et plus naturel d’utiliser les trajectoires des gestes de drag-and-drop pour distinguer les opérations. - Dans la troisième étape nous avons donc proposé aux sujets d’interagir uniquement selon le style basé sur les trajectoires. Cette étape a confirmé le caractère très naturel des interactions. Avec très peu d’informations, notamment en l’absence de feed back, les sujets réussissaient à effectuer « virtuellement » les opérations demandées. Nous avons aussi constaté que le geste proposé pour retirer un strip (geste oblique, court et rapide) était inacceptable car trop proche d’autres gestes. Nous avons donc supprimé ce geste, le retrait d’un strip se faisant alors par un déplacement vers une zone « poubelle ». Le maquettage vidéo Après avoir étudié les actions des utilisateurs nous voulions étudier les réactions (feed backs) du système. Deux aspects nous intéressaient tout particulièrement : - quels feed backs proposer à l’amorce du geste et pendant le drag-and-drop? - comment le système doit-il déplacer les strips à la fin d’une interaction (c.-à-d. quand l’utilisateur lâche un strip du doigt) pour compléter le geste opératoire? Nous avons donc réalisé plusieurs séquences vidéo animées afin d’explorer des alternatives possibles. Ces séquences ont été réalisées avec des techniques d’animation « image par image » très simples. Chaque prise de vue durait ¼ ou ½s grâce à la fonction « animation » du caméscope. Des éléments en papier (strips, caches blancs, feed backs, fantôme, main symbolique de l’utilisateur, voir figure 3.a) étaient déplacés entre chaque prise. figure 3 : matériel utilisé (a) et extraits d’animations : déplacement du strip2 avec fantôme (b), avec drag-and-drop (c) Ce maquettage vidéo a montré, pour l’opération de déplacement, que l’utilisation d’un fantôme (cadre rectangulaire figure 3.b) et d’une animation finale ne sont pas compatibles. Quand l’utilisateur relâche son doigt, si l’animation déplace le strip depuis sa position initiale, elle distrait l’utilisateur qui regarde le fantôme et non l’ancienne position. Si le strip remplace brutalement le fantôme avant de se déplacer vers sa position finale, cela crée une rupture opposée au principe d’animation. Au contraire, prolonger le drag-and-drop (figure 3.c) du strip lui-même par une animation est parfaitement naturel. Les séquences d’animation nous ont aussi permis d’améliorer les feed backs des différentes opérations. Par exemple, lors du déplacement d’un strip et son insertion entre deux autres, une barre de couleur indique précisement l’endroit de l’insertion. Le maquettage vidéo nous a aidé à déterminer la forme et la dynamique de cette barre. Ce maquettage vidéo «artisanal » a été très rapide et très efficace. Deux ou trois séquences d’animations étaient réalisées en 1h à 1h30. Un maquettage informatique équivalent aurait demandé plusieurs journées. De plus, il était aisé de montrer la vidéo à d’autres concepteurs pour enrichir la réflexion. Enfin, la vidéo permet d’effectuer des arrêts sur images, des ralentis ou des retour en arrière (impossibles avec des maquettages informatiques). Ceci facilite d’autant la réflexion et l’analyse de l’animation. Les maquettes papier et vidéo ont cependant des limitations. Lors du maquettage papier il n’y a pas de système et lors du maquettage vidéo il n’y a pas d’utilisateur. Ils ne permettent donc pas d’étudier la boucle de réaction entre l’utilisateur et le système. C’est pourquoi nous avons réalisé des maquettes informatiques « classiques ». Une maquette informatique non-fonctionnelle Cette maquette avait comme objectif d’étudier les animations en fin d’interaction et leurs caractéristiques pour une utilisation dans DigiStrips. La maquette a été réalisée avec MetaCard [17], un outil de développement rapide similaire à HyperCard. Elle utilise un écran tactile de 20" et propose des scénarios simples, par exemple : déplacez le strip 3 entre les strips 7 et 8, ou poussez les strips 4, 5 et 6 vers le haut. L’utilisateur doit obligatoirement se conformer au scénario choisi car les animations sont pré-programmées et ne prennent pas en compte d’autres opérations. Cette maquette a montré qu’il était techniquement assez facile de réaliser des animations simples pour compléter les interactions. Ces animations doivent être courtes (env. 0,2s) et nécessitent peu d’images (6 à 8 sont suffisantes). La maquette implémente des accélérations-décélérations et des exagérations utilisées dans le monde du dessin animé [7,12]. Ces caractéristiques d’animations sont paramétrables; Nous avons ainsi pu montrer leur intérêt lors de démonstrations. Une maquette informatique fonctionnelle Pour tester DigiStrips avec des sujets, nous avons réalisé une maquette fonctionnelle (figure 1.c). Elle applique les résultats des trois premiers maquettages et utilise un écran tactile de 20". Elle propose les trois opérations (décalage, poussage et déplacement), discriminées par la direction du début de geste (figure 4.a) comme testé dans le maquettage papier. Un algorithme simple est utilisé pour activer l’opération correspondant au geste de drag-and-drop. Il est basé sur la direction (horizontale, verticale, oblique) d’entame du geste. La maquette traite également les transitions entre opérations (figure 4.b). Par exemple un geste initialement vertical correspond à un poussage. Si ce geste devient horizontal, l’opération de poussage se transforme en déplacement. figure 4 : sélection de l’opération selon l’angle d’entame des gestes (a) et transitions entre opérations (b) La maquette met en œuvre et améliore les feed backs et animations étudiés lors du maquettage vidéo. La figure 5 donne des exemples de feed backs pendant des interactions. figure 5 : feed backs pendant le décalage du strip 3 (a), le déplacement du strip 4 entre les strips 5 et 3 (b) et le poussage du strip 4 qui entraîne les strips 2 et 5 (c) Bien qu’aucune expérimentation n’ait encore été faite, les premières démonstrations de DigiStrips sont extrêmement encourageantes. En effet tous les contrôleurs qui ont essayé la maquette ont réussi très rapidement et sans effort à organiser le tableau de strips à leur guise. La proximité avec le modèle physique (les strips papier) favorise une bonne prégnation. Les utilisateurs ont le sentiment d’une bonne coopération avec le système. Plusieurs utilisateurs arrivent facilement à se partager le tableau et perçoivent aisément les actions d’un autre utilisateur. Ceci est du à la fois à l’utilisation d’un écran tactile (et donc à la perception des gestes) et aux animations. Ce dernier point est certainement celui qui aura a très court terme le plus d’impact au CENA. En effet, suite à DigiStrips, d’autres IHM développées au CENA commencent à utiliser des animations pour faciliter la perception par les contrôleurs de changement d’états du système. LES EXPERIMENTATIONS FUTURES La maquette fonctionnelle n’a pour l’instant fait l’objet que de démonstrations. Elle sera utilisée pour deux expérimentations. La première a comme objectif de comparer les performances (temps de réalisation et taux d’erreur) d’un utilisateur selon deux variables : le moyen d’interaction écran tactile ou souris (DigiStrips fonctionne aussi à la souris) et la présence ou non d’animations. La deuxième expérimentation étudiera l’apport de l’écran tactile et des animations dans le cadre de la conscience mutuelle : un utilisateur « passif » devra percevoir et comprendre les actions d’un utilisateur actif. L’expérimentation utilisera des enregistrements vidéo. Les sujets devront regarder les enregistrements et indiquer ce qu’ils auront compris des interactions. La qualité de la perception et de la compréhension seront les critères d’évaluation. CONCLUSION ET PERSPECTIVES Cette première phase d’étude de DigiStrips a permis l’application aux IHM de contrôle aérien de plusieurs techniques d’IHM prometteuses. Du point de vue méthodologique, les maquettages papier et vidéo sont très intéressants. L’aide procurée en phase de spécification, leurs facilités et rapidités de mise en œuvre, leurs souplesses, nous amènerons à les appliquer (ou du moins les envisager) avant tout développement de maquette informatique d’IHM. Du point de vue des interactions, l’écran tactile est certainement un moyen d’interaction simple qui présente un grand nombre de caractéristiques importantes pour des environnements où le travail collaboratif est essentiel. Enfin, les animations permettent de diminuer les charges cognitives des utilisateurs en utilisant davantage leurs capacités perceptives. Après l’expérimentation de la maquette actuelle de DigiStrips, nous envisageons plusieurs axes d’études. Nous intégrerons la saisie d’information avec un stylet ou le doigt (voire avec la souris ou un clavier numérique). Nous pensons aussi expérimenter DigiStrips dans un contexte plus réaliste de simulation de contrôle aérien. Même si l’avènement du strip électronique en opérationnel est incertain, les résultats seront de toute façon transposables à d’autres représentations plus pertinentes. REFERENCES [1] Baber C., Beyond the Desktop : designing and using interaction devices, 1997 Academic Press, p57-62. [2] Robertson G. G., Mackinlay J. D., Card S. K., Cone trees: Animated 3D Visualizations of Hierarchical Information. Dans Proceedings of CHI'91 ACM Conference on Human Factors in Computing System.(p. 189-194) 1991 New Orleans, Louisania: ACM Press. [3] Chatty S., Lecoanet P., Pen Computing and Air Traffic Control. Dans Proceedings of CHI'96 ACM Conference on Human Factors in Computing (p. 87-94) 1996 Vancouver, British Columbia: ACM Press. [4] Chatty S., La construction d’interfaces homme-machine animées, thèse de l’Université de Paris-Sud, Mars 1992. [5] Hopkin V.D., Human Factors in Air Traffic Control. London. 1995. Taylor & Francis editor. [6] Johnson J. A., A Comparison of User Interfaces for Panning on a Touch-Controlled Display. Dans Proceedings of CHI'95 ACM Conference on Human Factors in Computing (p. 218225) 1995 Denver, Colorado: ACM Press. [7] Lasseter J., Principles of traditional animation applied to 3D computer graphics. Dans Proceedings of SIGGRAPH’87, (p. 5-44) Anaheim, Californie, Juillet 1987. ACM, ACM Press. [8] Leroux M., The role of expert systems in future cooperative tools for air traffic controllers. In Proceedings of the 7th International Symposium on Aviation Psychology. (pp. 26-29) 1993. Columbus, OH. [9] http://www.microtouch.com [10] Mackay W., Fayard A.L., Frobert L., Médini L., Reinventing the Familiar: Exploring an Augmented Reality Design Space for Air Traffic Control. to be published in CHI 98. 1998 Los Angeles. [11] Mertz C., Faut-il tuer la souris ? Une comparaison des charges cognitives induites par 6 procédures de saisies. Dans les actes de IHM 97 Neuvièmes Journées sur l’ingénierie de l’Interaction Homme-Machine (p. 79-87) 1997 Poitiers, France: Cépaduès-éditions. [12] Thomas B. H., Calder P. R., Animating Direct Manipulation Interfaces. 1995 dans Proceedings of the ACM SIGGRAPH UIST95 [13] Vernier F., Nigay L., Représentations Multiples d’une Grande Quantité d’Informations. Dans les actes de IHM 97 Neuvièmes Journées sur l’ingénierie de l’Interaction Homme-Machine (p. 79-87) 1997 Poitiers, France: Cépaduès-éditions. [14] Vodislav D., Programmation visuelle pour l’animation dans les Interfaces Homme-Machine. 1997. Thèse au CNAM. Paris, France. [15] Wellner P., Mackay W., Gold R., Computer Augmented Environment: Back to the Real Word. Special issue of Communications of the ACM, 36(7) 1993. [16] Grize F., Aminian M., Cybcérone: a Kiosk Information System Based on the WWW and Java. (P. 62-69) Nov. 1997 Interactions IV.6 [17] http://www.metacard.com