Conception par maquettage rapide : application à des

Transcription

Conception par maquettage rapide : application à des
Publié dans les actes d’ergoIA 1998, Biarritz, France
Conception par maquettage rapide :
application à des écrans tactiles pour le contrôle aérien.
Christophe Mertz1,2 et Jean-Luc Vinot 1
1
Centre d’Études de la Navigation Aérienne
Orly Sud 205
94542 ORLY AEROGARES, France
fax : +33 (0) 1 69 57 63 52
tél. : +33 (0) 1 69 57 70 10
{mertz|vinot}@cena.dgac.fr
2
CR2A-DI
Bâtiment River Seine
25 quai Galliéni
92150 Suresnes
fax : +33 (0) 1 47-68-87-81
tél. : +33 (0) 1 47-68-97-97
Résumé
Nous présentons l’utilisation conjointe d’un écran tactile et d’animations. Après avoir précisé
l’intérêt de ces paradigmes d’interaction homme machine dans le contexte du contrôle aérien, nous
donnons l’état de l’art de ces deux techniques. Puis, nous présentons la méthode originale à base
de maquette papier et vidéo que nous avons suivie pour déterminer rapidement les spécifications
de premières maquettes informatiques. La maquette fonctionnelle réalisée montre qu’un couplage
fort entre interactions sur un écran tactile et animations rend l’interface plus naturelle. Ces résultats
trouvent des applications dans les futures IHM des contrôleurs aériens.
Mots-clés
maquette papier, maquette vidéo, écran tactile, gestes, animations, contrôle aérien, Interaction
Homme Machine, conscience mutuelle
Abstract
In this paper we present a joint use of tactile screen and animation. We first recall why this two
techniques are valuable for air traffic controller computer interaction and then describe the current
trends for these techniques. We then describe the methodology we used, based on paper and
video fast prototyping. It allowed us to quickly design the first computer-based prototypes. These
prototypes demonstrated that tightly coupling tactile screen and animation make the computer
human interaction more natural. These results can easily be applied in future air traffic controller
computer interfaces studied at the CENA.
Keywords
Paper prototype, video prototype, touch input screen, gestures, animation, air traffic control,
computer human interactions, mutual awareness
INTRODUCTION
Le déplacement et l’organisation d’objets informatiques sur un écran peuvent-ils être aussi
naturels, efficaces, explicites, rapides que la manipulation du papier ? Aujourd’hui, Non ! Cette
question est importante pour la modernisation des postes de travail des contrôleurs aériens.
Oublions donc la «souris qui rend manchot son utilisateur » et cherchons des alternatives plus
naturelles : écrans tactiles et animations.
Les contrôleurs aériens utilisent des bandes de papier appelées strips. Un strip est imprimé
automatiquement quelques minutes avant l’entrée du vol dans le secteur. Les informations
imprimées concernent le plan de vol et les contrôleurs y notent beaucoup d’informations
nécessaires à leurs activités. Un des rôles majeurs des strips découle de l’organisation du tableau
de strips. En effet, c’est un réel support à la planification et à la communication tacite entre
contrôleurs [5,10]. Pour cela, ils décalent des strips comme aide-mémoire (figure 1.a), ils créent
des paquets de strips selon le trafic ou des conflits, ils se transmettent et se désignent les strips,
etc.
figure 1 : tableau de strips papier (a) deux strips dans leur porte-strip (b) et DigiStrips sur écran tactile (c)
Le Centre d’Études de la Navigation Aérienne (CENA) étudie les évolutions possibles des postes
de travail des contrôleurs aériens. Une partie des informations inscrites aujourd’hui au stylo sur les
strips par les contrôleurs devra être connue des futurs outils informatiques d’aide au contrôle
comme ERATO [8] développé au CENA. Une démarche basée sur la réalité augmentée [15]
autour du strip papier proposée par Mackay et Fayard [10] est intéressante. Malheureusement, la
technologie actuelle n’est pas mûre pour une mise en oeuvre opérationnelle. C’est pourquoi
l’étude DigiStrips propose d’autres techniques d’interactions. DigiStrips utilise un écran tactile et
des animations pour améliorer les interactions. Bien que cette étude soit appliquée à un tableau de
strips électroniques, les résultats sont transposables à d’autres représentations utiles aux
contrôleurs aériens.
Après ce rappel du contexte du contrôle aérien, nous présenterons les possibilités offertes par les
écrans tactiles et les animations dans les IHM. Nous donnerons les objectifs de l’étude DigiStrips
et développerons les méthodes de maquettage rapide utilisées. Nous conclurons par les premiers
résultats obtenus et les travaux futurs envisagés.
SOURIS, ECRANS TACTILES ET ANIMATIONS
Dans un environnement informatique bureautique ou de station de travail, la souris est certainement
l’un des périphériques d’interaction indirects 1 en 2 dimensions les plus performants. D’autres
dispositifs comme la boule roulante, le joystick, le trackpad, le touchpad, la tablette avec son
stylet, s’ils ont leur intérêt propre (par exemple pour des ordinateurs portables) sont généralement
moins performants [1] que la souris. Cependant, dans un environnement à forte contrainte
temporelle comme le contrôle aérien, les utilisateurs (contrôleurs aériens) sont soumis à des stress
importants. L’expérimentation CINDI [11] a montré que les performances de la souris (temps de
saisie, taux d’erreur) diminuent sensiblement dans ces conditions de stress ou de charge cognitive
importante.
Comme les autres périphériques d’interaction indirectes, la souris est difficile à partager entre
plusieurs utilisateurs. Elle masque les interactions d’un utilisateur : il est souvent difficile de
percevoir ou de comprendre ce que fait l’autre. Elle crée une distance entre l’objet graphique à
l’écran et la main de l’opérateur. Ces limitations de la souris amènent à reconsidérer l’écran tactile.
L’écran tactile constitue une alternative intéressante [1] avec de nombreux avantages. C’est un
périphérique d’interaction direct : l’utilisateur désigne directement, avec un doigt, sur l’écran,
l’objet graphique (bouton, zone, ...) désiré. L’écran tactile permet des actions proches de la
préhension d’objets réels, il est très intuitif et ne nécessite aucun apprentissage contrairement au
clavier ou à la souris. Une bonne IHM basée sur un écran tactile exige peu de précision de
l’utilisateur ; l’effort cognitif et moteur nécessaire pour désigner est plus faible avec un écran tactile
qu’avec des dispositifs de pointage indirects. L’utilisateur d’un écran tactile peut utiliser
alternativement ses deux mains ce qui lui permet d’optimiser son temps de manipulation ou
d’utiliser sa main non-dominante quand l’autre est occupée. Cela est plus difficile avec la souris
qui exige d’être plus ou moins ambidextre. L’écran tactile n’est pas accaparé par un utilisateur. Au
contraire, la souris reste souvent dans la main de l’utilisateur et elle est difficile à utiliser par un
utilisateur mal placé (debout, assis sur le coté…). De plus, l’utilisation d’un écran tactile par un
opérateur est explicite pour quiconque se trouve à proximité ; un rapide coup d’oeil en vision
périphérique suffit généralement à savoir que l’autre opérateur utilise l’écran tactile. Avec la souris,
il faut généralement chercher le curseur sur l’écran pour avoir une idée de l’activité, ce qui est long
et coûteux en attention visuelle. Enfin il est possible de se partager un écran tactile à deux ou trois.
Cela découle de deux propriétés précédentes. Bien que les dalles tactiles ne sachent traiter qu’un
seul point de contact, Les utilisateurs partagent naturellement dans le temps l’écran tactile. Les
nombreuses démonstrations de la maquette GRIGRI [3] l’ont bien démontré.
Ces deux dernières propriétés (perception du travail de l’autre, utilisation partagée) sont
importantes pour les contrôleurs aériens. En effet ils travaillent à deux ou trois en collaboration
étroite. Un écran tactile facilite la conscience mutuelle des opérateurs de leurs activités
réciproques. De même, un opérateur, assis ou debout, qui désire aider un collègue, pourra plus
facilement le faire avec l’écran tactile de son collègue qu’avec sa souris.
L’écran tactile possède toutefois un certain nombre de limitations. La précision en est limitée, non
par la dalle tactile, mais par la taille de la pulpe du doigt et par les erreurs de parallaxe induites par
la distance2 entre le plan de l’image et le plan de la dalle tactile. Il est illusoire de vouloir désigner
1
Il existe une distance physique de plusieurs dizaines de centimètres entre le périphérique
d’interaction indirect et la représentation des objets sur lesquels il agit (sur l’écran).
2
Cette distance est importante pour les écrans tactiles à base de tube cathodique mais négligeable
du doigt des zones de taille inférieure au centimètre. Un écran tactile ne dispose que d’un
«bouton» au contraire d’une souris qui en a 1, 2 ou 3. Enfin l’utilisation prolongée nécessite de
bien disposer l’écran tactile. Celui-ci doit être placé face à l’utilisateur, incliné et à la bonne
distance ce qui facilite l’usage et diminue les fatigues posturales. De plus l’intégration d’un écran
tactile dans un meuble de contrôle est difficile à cause des nombreux autres systèmes déjà
présents.
Quelles utilisations des écrans tactiles?
Les écrans tactiles sont utilisés depuis près de trente ans en salle de contrôle. En France, un écran
tactile appelé digitatron permet aux contrôleurs d’informer le système informatique de
changements qui modifient les données imprimées sur les strips des secteurs suivants. Quand un
avion vole moins haut que prévu ou quand il est dérouté vers un autre aéroport, d’autres secteurs
que ceux prévus initialement par le système informatique doivent recevoir des strips papier. Le
contrôleur se sert alors du digitatron. D’autres écrans tactiles sont utilisés comme interface de
commande, par exemple pour sélectionner des fréquences radios.
De nombreuses applications grand public utilisent des écrans tactiles. Ce sont par exemple les
kiosques SNCF de réservation et d’achat de billets, les kiosques multimédia placés dans des lieux
publics ou encore Cybcérone [16] à l’université de Lausanne. La visualisation va du plus simple
(kiosque SNCF) au plus complexe (affichage de vidéo dans les kiosques multimédia ou
informations en temps réels dans Cybcérone). Les interactions proposées aux utilisateurs sont,
elles, toujours de même nature. L’utilisateur appuie sur une zone de l’écran, matérialisée par un
dessin de bouton et cet appui (ou le relâchement qui suit) déclenche un changement de page ou la
saisie d’une information. Les interactions sont donc toujours de type « clic ». De rares applications
utilisent les interactions drag-and-drop, par exemple pour excentrer une image [6]. Celles-ci sont
pourtant le moyen naturel pour déplacer des objets graphiques sur un écran.
Les écrans tactiles sont aussi utilisés conjointement avec un stylet pour permettre l’écriture. Celleci peut être reconnue comme dans l’expérimentation GRIGRI [3] ou dans les notepad comme le
Newton d’Apple. L’écriture peut aussi être utilisée pour cocher des cases dans des formulaires
informatiques ou simplement être enregistrée pour la prise de notes ou de croquis sans
interprétation par l’ordinateur. Certains écrans tactiles [9] distinguent l’appui d’un doigt ou d’un
stylet. Ils permettent de concevoir des dialogues différents suivant l’outil de désignation, doigt ou
stylet.
Les animations dans les interactions
Les écrans tactiles, périphériques d’interactions directes, favorisent des dialogues plus naturels.
Des animations qui ponctuent les dialogues remplissent les mêmes objectifs.
Les animations sont utilisées dans les IHM depuis de nombreuses années. Le Finder du Macintosh
en est l’exemple emblématique depuis 1983. Par exemple, l’ouverture et la fermeture d’un dossier
s’accompagnent d’animations qui explicitent le résultat de l’action de l’utilisateur. En l’absence
d’animation, l’utilisateur est obligé de décrypter les conséquences de son action au lieu de les
pour les écrans tactiles plats.
percevoir [2]. Les animations sont encore peu utilisées dans les applications en dehors
évidemment des jeux et des interfaces graphiques d’OS. Ce n’est que récemment que Microsoft a
introduit les animations dans Windows95 (ouverture et fermeture d’application) ou dans Excel 7
(insertion et suppression de lignes). Dans le monde de la recherche, les animations sont proposées
dans des IHM de parcours de grandes quantités d’informations [2,13].
Les raisons probables de la faible utilisation d’animations dans des produits sont :
- les concepteurs n’ont pas toujours été sensibles à l’utilité des animations,
- leurs implémentations ont sûrement été jugées trop coûteuses (en temps de développement ou en
puissance de calcul) ; elles sont difficiles notamment pour traiter les cas généraux,
- la conception et la réalisation d’animations demandent des compétences nouvelles, plus proches
de celles d’un graphiste que de celles d’un informaticien ou d’un concepteur.
Des extensions de toolkits ont cependant été réalisées [12], basées sur les principes utilisés en
dessin animé [7]. Chatty [4] a proposé une toolkit basée sur une métaphore musicale pour décrire
des animations et Vodislav [14] une toolkit basée sur la programmation visuelle. Mais peu de
toolkits commerciales existent actuellement.
LES OBJECTIFS DE DIGISTRIPS
Un tableau de strips électroniques doit offrir des fonctions de manipulation des strips et de saisie
d’informations. DigiStrips utilise un écran tactile qui distingue doigt et stylet. L’utilisateur organise
ses strips avec le doigt et utilise le stylet pour saisir des informations reconnues, comme dans
GRIGRI [3], ou non par le système. Les avantages sont :
- l’organisation du tableau de strips directement avec le doigt est plus facile qu’avec la souris,
dispositif indirect,
- la saisie d’information par le stylet est rapide et exige peu d’effort cognitif, comme le laisse
penser l’expérimentation GRIGRI,
- le partage d’un même écran tactile par deux utilisateurs est possible, que ce soit pour écrire,
pour déplacer les strips ou comme support de conscience mutuelle.
Dans un premier temps, DigiStrips étudie uniquement la gestion la plus naturelle possible d’un
tableau de strips électroniques. Nous nous sommes donc basés sur les opérations actuelles de
gestion d’un tableau de strips :
- Le décalage d’un strip vers la gauche ou la droite comme aide-mémoire ; Le contrôleur fait
glisser d’un doigt le strip dans son support en matière plastique appelé porte-strip (figure 1.b).
- Le « poussage » de strips vers le haut ou le bas pour organiser le tableau en paquets ; les portestrips sont enclipsés dans des rails verticaux et le contrôleur les pousse facilement vers le haut ou
le bas.
- Le déplacement d’un strip; Le contrôleur dé-clipse le porte-strip correspondant et le re-clipse à
l’endroit désiré.
- L’insertion d’un nouveau strip ; le contrôleur prend le strip papier en sortie de l’imprimante, le
glisse dans un porte-strip et l’insère dans le tableau.
- Le retrait d’un strip; quand le contrôleur a transmis le vol au secteur suivant, il retire strip et
porte-strip du tableau.
Pour faciliter ces cinq opérations, nous avons identifié les contraintes suivantes :
- L’utilisation (alternée) des deux mains doit être aisée, indifférenciée et naturelle.
- Un utilisateur mal placé (sur le côté, debout,...) doit pouvoir utiliser le système.
- La précision exigée doit être faible, au déclenchement de l’interaction, mais aussi à la fin. Le
système doit donc reconnaître les actions de l’utilisateur et l’aider à placer ses strips en
complétant ses actions.
- Les feed backs (ou retours d’information) pendant l’interaction doivent être les plus explicites
possibles pour lever toute ambiguïté sur le résultat de l’interaction.
- Le dispositif doit favoriser la conscience mutuelle entre plusieurs utilisateurs.
Afin d’explorer rapidement les alternatives d’interactions, nous avons utilisé une méthode originale
de maquettage. Elle est basée sur des maquettages très rapides à base de papier et de vidéo.
Nous présentons maintenant cette méthode.
METHODE UTILISEE
Les deux premières phases de maquettage ont été très rapides et ont duré 3 jours chacune.
Le maquettage papier
L’objectif de ce maquettage est d’observer et d’identifier les gestes spontanés des utilisateurs
pour gérer un tableau de strips sur un écran tactile. Ces interactions naturelles doivent être
possibles dans DigiStrips.
Le principe du maquettage papier est d’utiliser des supports faciles à réaliser, à base de papier,
pour montrer à de futurs utilisateurs le fonctionnement d’une IHM. Dans notre cas, nous avons
utilisé un «écran tactile » en papier représenté par une feuille de format A3, taille proche d’un
écran de 20" de diagonale. Les sujets devaient déplacer des strips dessinés sur cette feuille à
l’aide de leurs doigts (figure 2.a), comme s’ils agissaient sur un écran tactile. Bien sûr, le papier ne
réagissait pas aux interactions. Cela n’empêchait nullement les sujets de jouer le jeu. Ils étaient
libres d’agir très naturellement (au contraire, une maquette informatique impose ses contraintes).
Un caméscope placé verticalement au-dessus de la feuille (figure 2.b) enregistrait la séance. La
revisualisation à volonté était nécessaire pour analyser plus précisément les gestes et interactions
des sujets.
figure 2 : Un sujet au cours du maquettage papier (a) et la caméra au dessus de l’écran « tactile » (b)
Pour progresser rapidement, nous avons procédé en trois étapes :
- Pendant la première étape, 4 sujets ont effectué les opérations de gestion des strips à leur guise.
Aucune indication n’était donnée quant à la manière de procéder. Ils devaient simplement utiliser
un doigt à la fois, procéder en drag-and-drop et répéter trois fois avec la main dominante puis
avec l’autre main les opérations des scénarios établis pour l’occasion. Nous avons ainsi constaté
des différences entre main gauche et main droite et la nécessité de préciser davantage les
dialogues d’interaction aux sujets.
- Durant la deuxième étape, deux styles d’interaction ont été testés avec 4 autres sujets. Dans le
premier style, les cinq opérations étaient déclenchées depuis des zones différentes du strip. Dans
le deuxième style, c’est la nature du geste de drag-and-drop, c.-à-d. la trajectoire, qui permet de
distinguer les opérations. Cette étape a montré la difficulté de particulariser des zones sur le strip,
dans le cas d’usage avec les deux mains. Par exemple, une zone à droite d’un strip est plus
difficile à utiliser avec la main gauche. Les zones devant être de taille suffisante, il n’est donc pas
possible de dupliquer ces zones pour rendre le strip symétrique. Il nous a semblé préférable et
plus naturel d’utiliser les trajectoires des gestes de drag-and-drop pour distinguer les opérations.
- Dans la troisième étape nous avons donc proposé aux sujets d’interagir uniquement selon le style
basé sur les trajectoires. Cette étape a confirmé le caractère très naturel des interactions. Avec
très peu d’informations, notamment en l’absence de feed back, les sujets réussissaient à effectuer
« virtuellement » les opérations demandées. Nous avons aussi constaté que le geste proposé
pour retirer un strip (geste oblique, court et rapide) était inacceptable car trop proche d’autres
gestes. Nous avons donc supprimé ce geste, le retrait d’un strip se faisant alors par un
déplacement vers une zone « poubelle ».
Le maquettage vidéo
Après avoir étudié les actions des utilisateurs nous voulions étudier les réactions (feed backs) du
système. Deux aspects nous intéressaient tout particulièrement :
- quels feed backs proposer à l’amorce du geste et pendant le drag-and-drop?
- comment le système doit-il déplacer les strips à la fin d’une interaction (c.-à-d. quand l’utilisateur
lâche un strip du doigt) pour compléter le geste opératoire?
Nous avons donc réalisé plusieurs séquences vidéo animées afin d’explorer des alternatives
possibles. Ces séquences ont été réalisées avec des techniques d’animation « image par image »
très simples. Chaque prise de vue durait ¼ ou ½s grâce à la fonction « animation » du caméscope.
Des éléments en papier (strips, caches blancs, feed backs, fantôme, main symbolique de
l’utilisateur, voir figure 3.a) étaient déplacés entre chaque prise.
figure 3 : matériel utilisé (a) et extraits d’animations : déplacement du strip2 avec fantôme (b),
avec drag-and-drop (c)
Ce maquettage vidéo a montré, pour l’opération de déplacement, que l’utilisation d’un fantôme
(cadre rectangulaire figure 3.b) et d’une animation finale ne sont pas compatibles. Quand
l’utilisateur relâche son doigt, si l’animation déplace le strip depuis sa position initiale, elle distrait
l’utilisateur qui regarde le fantôme et non l’ancienne position. Si le strip remplace brutalement le
fantôme avant de se déplacer vers sa position finale, cela crée une rupture opposée au principe
d’animation. Au contraire, prolonger le drag-and-drop (figure 3.c) du strip lui-même par une
animation est parfaitement naturel.
Les séquences d’animation nous ont aussi permis d’améliorer les feed backs des différentes
opérations. Par exemple, lors du déplacement d’un strip et son insertion entre deux autres, une
barre de couleur indique précisement l’endroit de l’insertion. Le maquettage vidéo nous a aidé à
déterminer la forme et la dynamique de cette barre.
Ce maquettage vidéo «artisanal » a été très rapide et très efficace. Deux ou trois séquences
d’animations étaient réalisées en 1h à 1h30. Un maquettage informatique équivalent aurait
demandé plusieurs journées. De plus, il était aisé de montrer la vidéo à d’autres concepteurs pour
enrichir la réflexion. Enfin, la vidéo permet d’effectuer des arrêts sur images, des ralentis ou des
retour en arrière (impossibles avec des maquettages informatiques). Ceci facilite d’autant la
réflexion et l’analyse de l’animation.
Les maquettes papier et vidéo ont cependant des limitations. Lors du maquettage papier il n’y a
pas de système et lors du maquettage vidéo il n’y a pas d’utilisateur. Ils ne permettent donc pas
d’étudier la boucle de réaction entre l’utilisateur et le système. C’est pourquoi nous avons réalisé
des maquettes informatiques « classiques ».
Une maquette informatique non-fonctionnelle
Cette maquette avait comme objectif d’étudier les animations en fin d’interaction et leurs
caractéristiques pour une utilisation dans DigiStrips. La maquette a été réalisée avec MetaCard
[17], un outil de développement rapide similaire à HyperCard. Elle utilise un écran tactile de 20" et
propose des scénarios simples, par exemple : déplacez le strip 3 entre les strips 7 et 8, ou
poussez les strips 4, 5 et 6 vers le haut. L’utilisateur doit obligatoirement se conformer au
scénario choisi car les animations sont pré-programmées et ne prennent pas en compte d’autres
opérations.
Cette maquette a montré qu’il était techniquement assez facile de réaliser des animations simples
pour compléter les interactions. Ces animations doivent être courtes (env. 0,2s) et nécessitent peu
d’images (6 à 8 sont suffisantes). La maquette implémente des accélérations-décélérations et des
exagérations utilisées dans le monde du dessin animé [7,12]. Ces caractéristiques d’animations
sont paramétrables; Nous avons ainsi pu montrer leur intérêt lors de démonstrations.
Une maquette informatique fonctionnelle
Pour tester DigiStrips avec des sujets, nous avons réalisé une maquette fonctionnelle
(figure 1.c). Elle applique les résultats des trois premiers maquettages et utilise un écran tactile de
20". Elle propose les trois opérations (décalage, poussage et déplacement), discriminées par la
direction du début de geste (figure 4.a) comme testé dans le maquettage papier. Un algorithme
simple est utilisé pour activer l’opération correspondant au geste de drag-and-drop. Il est basé sur
la direction (horizontale, verticale, oblique) d’entame du geste. La maquette traite également les
transitions entre opérations (figure 4.b). Par exemple un geste initialement vertical correspond à un
poussage. Si ce geste devient horizontal, l’opération de poussage se transforme en déplacement.
figure 4 : sélection de l’opération selon l’angle d’entame des gestes (a) et transitions entre opérations (b)
La maquette met en œuvre et améliore les feed backs et animations étudiés lors du maquettage
vidéo. La figure 5 donne des exemples de feed backs pendant des interactions.
figure 5 : feed backs pendant le décalage du strip 3 (a), le déplacement du strip 4 entre les strips 5 et 3 (b)
et le poussage du strip 4 qui entraîne les strips 2 et 5 (c)
Bien qu’aucune expérimentation n’ait encore été faite, les premières démonstrations de DigiStrips
sont extrêmement encourageantes. En effet tous les contrôleurs qui ont essayé la maquette ont
réussi très rapidement et sans effort à organiser le tableau de strips à leur guise. La proximité avec
le modèle physique (les strips papier) favorise une bonne prégnation. Les utilisateurs ont le
sentiment d’une bonne coopération avec le système. Plusieurs utilisateurs arrivent facilement à se
partager le tableau et perçoivent aisément les actions d’un autre utilisateur. Ceci est du à la fois à
l’utilisation d’un écran tactile (et donc à la perception des gestes) et aux animations. Ce dernier
point est certainement celui qui aura a très court terme le plus d’impact au CENA. En effet, suite à
DigiStrips, d’autres IHM développées au CENA commencent à utiliser des animations pour
faciliter la perception par les contrôleurs de changement d’états du système.
LES EXPERIMENTATIONS FUTURES
La maquette fonctionnelle n’a pour l’instant fait l’objet que de démonstrations. Elle sera utilisée
pour deux expérimentations. La première a comme objectif de comparer les performances (temps
de réalisation et taux d’erreur) d’un utilisateur selon deux variables : le moyen d’interaction écran
tactile ou souris (DigiStrips fonctionne aussi à la souris) et la présence ou non d’animations.
La deuxième expérimentation étudiera l’apport de l’écran tactile et des animations dans le cadre
de la conscience mutuelle : un utilisateur « passif » devra percevoir et comprendre les actions d’un
utilisateur actif. L’expérimentation utilisera des enregistrements vidéo. Les sujets devront regarder
les enregistrements et indiquer ce qu’ils auront compris des interactions. La qualité de la
perception et de la compréhension seront les critères d’évaluation.
CONCLUSION ET PERSPECTIVES
Cette première phase d’étude de DigiStrips a permis l’application aux IHM de contrôle aérien de
plusieurs techniques d’IHM prometteuses. Du point de vue méthodologique, les maquettages
papier et vidéo sont très intéressants. L’aide procurée en phase de spécification, leurs facilités et
rapidités de mise en œuvre, leurs souplesses, nous amènerons à les appliquer (ou du moins les
envisager) avant tout développement de maquette informatique d’IHM.
Du point de vue des interactions, l’écran tactile est certainement un moyen d’interaction simple qui
présente un grand nombre de caractéristiques importantes pour des environnements où le travail
collaboratif est essentiel. Enfin, les animations permettent de diminuer les charges cognitives des
utilisateurs en utilisant davantage leurs capacités perceptives.
Après l’expérimentation de la maquette actuelle de DigiStrips, nous envisageons plusieurs axes
d’études. Nous intégrerons la saisie d’information avec un stylet ou le doigt (voire avec la souris
ou un clavier numérique). Nous pensons aussi expérimenter DigiStrips dans un contexte plus
réaliste de simulation de contrôle aérien. Même si l’avènement du strip électronique en
opérationnel est incertain, les résultats seront de toute façon transposables à d’autres
représentations plus pertinentes.
REFERENCES
[1] Baber C., Beyond the Desktop : designing and using interaction devices, 1997 Academic
Press, p57-62.
[2] Robertson G. G., Mackinlay J. D., Card S. K., Cone trees: Animated 3D Visualizations of
Hierarchical Information. Dans Proceedings of CHI'91 ACM Conference on Human Factors
in Computing System.(p. 189-194) 1991 New Orleans, Louisania: ACM Press.
[3] Chatty S., Lecoanet P., Pen Computing and Air Traffic Control. Dans Proceedings of
CHI'96 ACM Conference on Human Factors in Computing (p. 87-94) 1996 Vancouver,
British Columbia: ACM Press.
[4] Chatty S., La construction d’interfaces homme-machine animées, thèse de l’Université de
Paris-Sud, Mars 1992.
[5] Hopkin V.D., Human Factors in Air Traffic Control. London. 1995. Taylor & Francis editor.
[6] Johnson J. A., A Comparison of User Interfaces for Panning on a Touch-Controlled Display.
Dans Proceedings of CHI'95 ACM Conference on Human Factors in Computing (p. 218225) 1995 Denver, Colorado: ACM Press.
[7] Lasseter J., Principles of traditional animation applied to 3D computer graphics. Dans
Proceedings of SIGGRAPH’87, (p. 5-44) Anaheim, Californie, Juillet 1987. ACM, ACM
Press.
[8] Leroux M., The role of expert systems in future cooperative tools for air traffic controllers. In
Proceedings of the 7th International Symposium on Aviation Psychology. (pp. 26-29) 1993.
Columbus, OH.
[9] http://www.microtouch.com
[10] Mackay W., Fayard A.L., Frobert L., Médini L., Reinventing the Familiar: Exploring an
Augmented Reality Design Space for Air Traffic Control. to be published in CHI 98. 1998 Los
Angeles.
[11] Mertz C., Faut-il tuer la souris ? Une comparaison des charges cognitives induites par 6
procédures de saisies. Dans les actes de IHM 97 Neuvièmes Journées sur l’ingénierie de
l’Interaction Homme-Machine (p. 79-87) 1997 Poitiers, France: Cépaduès-éditions.
[12] Thomas B. H., Calder P. R., Animating Direct Manipulation Interfaces. 1995 dans
Proceedings of the ACM SIGGRAPH UIST95
[13] Vernier F., Nigay L., Représentations Multiples d’une Grande Quantité d’Informations. Dans
les actes de IHM 97 Neuvièmes Journées sur l’ingénierie de l’Interaction Homme-Machine
(p. 79-87) 1997 Poitiers, France: Cépaduès-éditions.
[14] Vodislav D., Programmation visuelle pour l’animation dans les Interfaces Homme-Machine.
1997. Thèse au CNAM. Paris, France.
[15] Wellner P., Mackay W., Gold R., Computer Augmented Environment: Back to the Real
Word. Special issue of Communications of the ACM, 36(7) 1993.
[16] Grize F., Aminian M., Cybcérone: a Kiosk Information System Based on the WWW and
Java. (P. 62-69) Nov. 1997 Interactions IV.6
[17] http://www.metacard.com

Documents pareils