Texte complet - Société Française de Psychologie

Transcription

Texte complet - Société Française de Psychologie
Rencontres doctorales
EPIQUE’2003
301
302
EPIQUE’2003
Analyse du lien entre la confiance a priori et
l’intention d’utiliser un système d’aide à la conduite
(l’ACC)
Bako Rajaonah
CNRS-LAMIH- Equipe PERCOTEC
Université de Valenciennes et du Hainaut Cambrésis - Le Mont Houy F-59313 Valenciennes Cedex 9
[email protected]
RESUME
Ce texte propose un cadre théorique permettant d’analyser la confiance au sein des systèmes homme-machine
dits coopératifs et adaptatifs, c’est-à-dire qui s’adaptent en temps réel aux contraintes. Dans l’analyse de tels
systèmes, le facteur confiance doit être pris en compte pour expliquer les conditions dans lesquelles l’opérateur
utilise le contrôle automatique. La confiance est un état psychologique qui favorise la délégation du contrôle au
contrôle automatique. Elle évolue à court terme et à long terme, et elle se construit dans un premier temps quand l’opérateur n’a encore aucune interaction avec le contrôle automatique - à partir de sources extérieures.
Nous avons étudié à l’aide d’un questionnaire ce début de confiance que nous avons dénommée « confiance a
priori ». Les résultats montrent quels sont les avantages et les inconvénients d’une aide à la conduite (l’ACC) tels
qu’ils sont perçus par les participants à partir d’une description écrite du dispositif. Ils montrent également le lien
entre la confiance a priori et l’intention d’utiliser l’ACC.
MOTS-CLES
ACC, confiance a priori, intention d’utilisation, questionnaire, système homme-machine
1
INTRODUCTION
Ce texte vise à présenter les résultats partiels d’une analyse portant sur le lien entre la confiance a
priori, c’est-à-dire avant toute interaction avec un dispositif d’aide à la conduite - l’Adaptive Cruise
Control (ACC) - et son intention d’utilisation. Le domaine dans lequel s’inscrit cette étude est celui
des systèmes homme-machine coopératifs et adaptatifs. Nous donnerons un aperçu de cette structure
théorique et nous présenterons ensuite les résultats partiels d’une analyse portant sur la confiance a
priori réalisée à l’aide d’un questionnaire.
2
CADRE THEORIQUE
Le cadre théorique dans lequel s’insère notre recherche est articulé autour de deux éléments clés :
d’une part les systèmes homme-machine coopératifs et adaptatifs, d’autre part la confiance. Nous
allons essayer de montrer que l’analyse d’un système homme-machine dit coopératif et adaptatif
nécessite de prendre en compte la variable confiance. Nous suggèrerons ensuite une définition de la
confiance qui nous semble appropriée pour l’analyse des systèmes homme-machine dits coopératifs et
adaptatifs, et enfin nous proposerons un modèle de son évolution.
2.1 Coopérativité et adaptabilité d’un système homme-machine
Considérant le concept de Joint Cognitive System (Hollnagel & Woods, 1983), Hollnagel (1993)
définit l’adaptabilité d’un système homme-machine comme sa capacité à réaliser une tâche quand les
conditions environnementales font que les procédures normales ne peuvent plus être utilisées. La
conséquence de cette perspective de système homme-machine adaptatif est que la meilleure répartition
des tâches, celle qui fait l’adaptabilité du système, ne saurait être rigide, fixée a priori. Elle doit être
flexible et dynamique, modulable en fonction de la situation (Hollnagel & Woods, 1983). Selon
Hollnagel et Bye (2000), les fonctions ne devraient plus être réparties suivant le principe de
compensation mais suivant un principe de complémentarité : les agents que sont la machine et
EPIQUE’2003
303
l’opérateur humain sont mutuellement dépendants pour réaliser une performance globale, ils doivent
collaborer, ou coopérer si l’on se réfère à Hoc (2000, 2001).
La définition minimale de la coopération entre deux agents donnée par Hoc (2001) est la
suivante : (a) chaque agent poursuit des buts et peut interférer sur les buts, les ressources, les
procédures ou les résultats de l’un ou de l’autre; (b) chaque agent essaie de gérer les interférences afin
de faciliter l’activité individuelle (de l’un ou l’autre agent) et/ou la tâche commune quand elle existe.
L’interférence est positive lorsqu’elle favorise la réalisation du but de l’un des agents, elle est négative
lorsqu’elle menace la réalisation de ce but. L’auteur précise cependant que la définition n’est pas
forcément symétrique, c’est-à-dire que l’on peut appliquer le principe de la coopération aux systèmes
homme-machine malgré la capacité coopérative limitée des machines.
En résumé, l’adaptabilité du système homme-machine aux contraintes environnantes permet de
mieux coordonner les fonctions afin de gérer les interférences de façon dynamique. L’adaptabilité du
système homme-machine nécessitant que les agents soient interchangeables, du moins pour certaines
fonctions, l’agent humain reste le responsable de l’organisation globale de la tâche (Hoc, 2000, 2001).
Et c’est dans ce cas précis que la confiance est une variable intermédiaire que nous devons prendre en
compte en tant que facteur influençant la décision de l’opérateur d’utiliser ou non le contrôle
automatique (Lee & Moray, 1992, 1994 ; Muir & Moray, 1996). En effet, du fait des différentes
dynamiques qui se côtoient au sein de la situation dans laquelle évolue le système homme-machine,
l’opérateur ne peut avoir en temps réel une pleine connaissance des informations nécessaires pour agir
et notamment décider de la meilleure répartition des fonctions. Il lui faut donc un mécanisme interne
qui lui permette de transformer ou du moins de réduire son sentiment d’incertitude et de risque quant
aux conséquences possibles de sa décision (Luhmann, 2000).
2.2 La variable confiance au sein des systèmes homme-machine coopératifs et
adaptatifs 2.2.1 Définition
Nous définissons la confiance comme une expérience mentale, un état psychologique constitué de
connaissances, de croyances et d’attentes positives induisant chez l’opérateur la volonté d’utiliser le
contrôle automatique. La confiance résulte de la représentation de la situation de l’opérateur ainsi que
d’un compromis entre, d’une part, les avantages perçus apportés par l’utilisation du contrôle
automatique et, d’autre part, des inconvénients qui lui sont associés, notamment dans le cas où le
contrôle automatique ne répondrait pas à ses attentes, ce qui l’obligerait à reprendre le contrôle. Cette
définition, résultant d’une revue de la littérature, nous semble adaptée à l’analyse des situations de
décision engendrées par les interactions homme-machine au sein desquelles l’opérateur humain a le
libre choix de déléguer ou non une ou plusieurs fonction(s) au contrôle automatique.
La manifestation observable de la confiance au sein des systèmes homme-machine coopératifs et
adaptatifs serait l’utilisation du contrôle automatique. En effet, de nombreux auteurs (comme par
exemple Luhmann, 2000) s’accordent sur le fait que le problème de la confiance n’est vraiment
pertinent que si il y a une opportunité de choix de comportement. Pour Castelfranchi (1998), la
confiance est à la base de la délégation : la délégation est une relation dans laquelle un premier agent
cognitif X, ayant besoin de l’action réalisée par un deuxième agent cognitif Y, inclut l’activité de
Y sous la forme de rôle concernant un but ou une action. Il précise que cette attribution de rôle repose
sur la confiance.
Le processus mental qui sous-tend la confiance est selon nous le processus qui permet de réduire
le sentiment de risque. En effet, pour de nombreux auteurs, une des fonctions de la confiance est de
réduire le sentiment d’incertitude et de risque (Luhmann, 2000 ; Möllering, 2001). Une situation est
ressentie comme risquée par un individu quand celui ci n’exclut pas d’être confronté dans le futur à
des conséquences négatives de la situation actuelle ; la perception du risque dépend du sentiment de
contrôle de l’individu sur la situation (Numan, 1998), c’est-à-dire de la confiance en soi. L’incertitude
et le risque, bien que liés, sont distincts : le risque est associé à l’éventualité de conséquences négatives
pour l’individu alors que l’incertitude concerne le manque de connaissances sur ce qui va advenir, que
ces évènements soient positifs ou négatifs. Parce que le futur est incertain, l’individu doit envisager
que les conséquences de ses décisions actuelles pourront être négatives (et/ou positives) ; alors que
304
EPIQUE’2003
lorsqu’il perçoit le futur comme certain, cela signifie qu’il pense (même à tort) savoir exactement
quels seront ces évènements.
Le processus mental de réduction du sentiment de risque sous-tendant la confiance pourrait alors
se passer au cours de l’activité d’anticipation de la situation future : il pourrait s’agir d’une part de la
réduction mentale des possibles, notamment à ceux qui ont des conséquences positives pour
l’opérateur et, d’autre part, de la croyance momentanée que les possibles anticipés correspondent à
ceux qui vont le plus probablement advenir. En effet, Lewis et Weigert (1985 – cités par Möllering,
2001) déclarent à propos de la confiance : « to trust is to live as if certain rationaly possible futures
will not occur » ; et pour Numan (1998), « trust is anticipating the future by assuming that the future is
certain ». Avoir confiance c’est donc croire momentanément que « tout va bien se passer », ce qui
correspond au « leap of faith » évoqué par Muir (1994) dans sa description de l’évolution de la
confiance : le dernier stade de l’évolution de la confiance est la foi lorsque l’opérateur humain croit
que la machine va continuer à bien fonctionner, même dans les situations où il n’a pas pu la tester.
2.2.2 Évolution de la confiance
La confiance évolue à court terme et à long terme. Elle est modifiée à court terme en fonction de
la performance locale du contrôle automatique (Muir & Moray, 1996) ainsi que de la performance
propre de l’opérateur (Lee & Moray, 1992, 1994). La confiance évolue également sur un plus long
terme, avec l’élaboration par l’opérateur d’un modèle mental stable de l’agent machine et de soi
(Zuboff, 1988 ; Hoc, 2000) et d’un modèle de l’interaction entre les deux agents (Rajaonah, 2001).
Selon Numan (1998), la confiance se situe sur un continuum qui va de la foi aveugle basée sur
aucune connaissance sur le référent, à la certitude totale quand l’individu est totalement sûr de ce qui
va advenir : il ne perçoit plus de risque. Numan (1998) propose un modèle de l’évolution de la
confiance qui décrit la manière dont cette évolution se fait sur les deux empans temporels :
- Au temps T1, un fait empirique permet à la confiance de se baser sur des résultats
d’interactions avec le contrôle automatique. Puis, en fonction des conséquences des
évènements qui surviennent en T2, T3, T4, etc., la confiance augmente ou diminue
localement. Muir (Muir, 1994; Muir & Moray, 1996) observe d’ailleurs que la confiance est
fragile et qu'elle est directement affectée par les performances de la machine.
- Cependant, sur le long terme, la courbe de confiance va en augmentant. Selon Numan
(1998), tout individu tend vers le niveau de certitude totale. Et une fois la confiance
accordée, elle ne disparaît jamais même si elle peut être altérée localement. Néanmoins, Lee
et Moray (1992) observent que si la confiance dans la machine s'accroît avec la
familiarisation et baisse lorsque la machine est défaillante, elle est alors plus longue à se
rétablir.
Pour Numan (1998), la construction de la confiance commence par une première étape où seules
les sources extérieures peuvent être utilisées par l’individu pour construire la confiance. Ces ressources
extérieures sont entre autres les autres utilisateurs qui font déjà confiance à la machine ou des
individus qui incitent à faire confiance à la machine et à l’utiliser. L’auteur distingue donc la confiance
de type I, basée sur les informations indirectes, de la confiance de type II basée sur les informations
directes, les faits empiriques.
La confiance de type II est celle qui est classiquement décrite dans la littérature. Selon Muir
(Muir, 1994 ; Muir & Moray, 1996), le premier stade de la confiance est la prédictibilité des
performances de la machine. Il faut souligner que ces performances peuvent être bonnes ou mauvaises.
Le deuxième stade de la confiance est la fiabilité de la machine ressentie par l'opérateur lorsqu'il a pu
la tester dans des conditions risquées et incertaines : dans ces conditions, il est assuré de la bonne
performance de la machine et n'éprouve plus le besoin de vérifier sa prédictibilité. Le troisième stade
est la foi, lorsque l’opérateur croit que la machine va rester fiable même dans des situations non encore
rencontrées. Ainsi que nous l’avons écrit dans le paragraphe précédent, c’est la foi qui permet
d'affronter l'incertitude des environnements dynamiques.
2.3 Problématique
L’objectif des travaux effectués au cours de la thèse est d’analyser la confiance ressentie par le
conducteur lorsqu’il doit interagir avec un système d’aide tel l’Adaptive Cruise Control (ACC).
EPIQUE’2003
305
L’ACC fait partie des aides actives apportées au conducteur automobile. Il prend en charge une partie
de la tâche de conduite à savoir la régulation de la vitesse et de l’interdistance et peut, de ce fait,
contribuer à l’amélioration de la sécurité.
Un des problèmes essentiels posés par les assistances comme l’ACC est la reprise du contrôle par
le conducteur. L’ACC ne peut en effet gérer que des décélérations modérées, de plus il n’est souvent
fonctionnel que dans un intervalle de vitesse donné et, enfin, la cible doit se situer à une certaine
distance pour être détectée. La situation peut devenir dangereuse, et pour éviter la collision, le
conducteur doit reprendre le contrôle pour freiner rapidement. Il est donc intéressant de connaître les
conditions psychologiques et situationnelles dans lesquelles le conducteur utilise le contrôle
automatique (manuel) de la vitesse et de l’interdistance.
Le travail présenté ici consiste en l’analyse du lien entre la première étape de la confiance, la
confiance de type I décrite par Numan (1998) ou confiance a priori - c’est-à-dire avant interaction
avec l’ACC – et l’intention d’utiliser le dispositif.
3
ANALYSE EMPIRIQUE DU LIEN ENTRE LA CONFIANCE A PRIORI ET
L’INTENTION D’UTILISATION DE L’ACC
3.1 Participants, matériel et procédure
256 participants (164 femmes et 92 hommes) de moyenne d’âge 26 ans (± 8ans) ont répondu à un
questionnaire de 55 items relatifs à la confiance interpersonnelle, à la confiance dans les nouvelles
technologies, aux avantages et aux inconvénients supposés d’un régulateur de vitesse et
d’interdistance, ainsi qu’à l’intention d’utilisation de l’ACC. Le principe de fonctionnement de l’ACC
est décrit dans le questionnaire. Cette description sur papier correspond aux sources extérieures dont
parle Numan (1998) lorsqu’il décrit la construction de la confiance. Les participants ont été invités à
positionner leur degré d’accord avec le contenu des items à l’aide d’une croix sur une ligne de 10 cm.
3.2 Résultats et discussions
Nous avons posé plusieurs questions relatives aux avantages et aux inconvénients potentiels de
l’ACC. Ensuite, nous avons posé la question de savoir si le participant utiliserait souvent l’ACC si son
véhicule en avait été équipé. Les résultats sont présentés dans le tableau 1.
Nous observons qu’aux yeux des participants interrogés, l’ACC présente des avantages certains
dont les plus importants semblent être une conduite plus sécurisée et moins stressante ainsi qu’une
amélioration du confort de conduite (la question sur l’utilité de l’ACC a été posée séparément des
avantages). Ces résultats sont importants dans la mesure où ce sont les objectifs visés par les
concepteurs de ce type de dispositif : les régulateurs de vitesse et d’interdistance sont censés alléger la
charge de travail du conducteur et améliorer sa sécurité (Hoedemaker & Brookhuis, 1998).
Nous observons également que les risques de perte du plaisir de la conduite et de gêne à la
conduite habituelle sont parmi les inconvénients potentiels liés à l’utilisation d’un ACC. Dans un
travail antérieur effectué en collaboration l’INRETS et Renault (Rajaonah, 2001), nous avons
effectivement mis en évidence que l’ACC pouvait créer des interférences négatives de trois types : en
gênant le conducteur dans sa volonté de maintenir une vitesse de croisière, en gênant les autres usagers
de la route ce qui pouvait gêner en retour le conducteur.
Selon nous, ces avantages et inconvénients perçus sont des éléments sur lesquels est basée la
confiance (voir section 2.2.1). Cependant, le poids accordé à chacun de ces éléments ne sera sans
doute pas le même si l’individu est réellement confronté à l’ACC. Par exemple, en situation de
conduite, en considérant que le but principal du conducteur est de se déplacer d’un point à un autre en
évitant les accidents, les éléments comme le risque d’accident avec le véhicule de devant et/ou de
derrière seront certainement davantage corrélés à l’intention ou non d’utiliser le régulateur. C’est
effectivement ce qui a été mis en évidence lors d’une expérimentation réalisée en collaboration avec
l’INRETS, ultérieurement à la présente étude. Dans cette seconde expérimentation, nous avons utilisé
un mini simulateur de conduite avec un ACC implémenté dans les programmes de simulation.
L’analyse des scores aux questionnaires ainsi que des données de conduite montrent par exemple
qu’après le premier essai expérimental au cours duquel le participant a eu le choix d’utiliser ou non
306
EPIQUE’2003
l’ACC, le risque d’accident avec le véhicule de derrière est corrélé négativement et significativement
avec l’intention d’utilisation de l’ACC (r = - 0.595; p < 0.005).
Nous observons également dans le tableau 1 que, malgré les scores relativement élevés aux items
concernant l’utilité du régulateur et les avantages certains perçus par les participants (conduite plus
sécurisée et moins stressante, amélioration du confort de conduite), l’intention d’utilisation de l’ACC
reste modérée (5,90 sur une échelle de 10). Mais ici encore, l’intention d’utilisation de l’ACC ainsi que
son utilisation effective pourraient être différentes en cas de confrontation réelle avec le dispositif.
Tableau 1. Les scores moyens et les écart-types aux questions ainsi que les coefficients de corrélation
avec le score relatif à la question sur l’intention d’utilisation de l’ACC.
Inconvénients perçus
Avantages perçus
Avantages et inconvénients apportés par
l’utilisation de l’ACC
Conduite moins stressante
Allègement de la tâche de
conduite
Facilitation de la tâche de
conduite
Amélioration du confort de
conduite
Conduite plus sécurisée
Utilité de l’ACC
Conduite plus dangereuse
Risque d’accident avec le
véhicule de devant
Risque d’accident avec le
véhicule de derrière
Risque de dépendance à l’ACC
Risque de perdre le plaisir de la
conduite
Risque de gêne à la conduite
habituelle
Scores moyens
(de 0 à 10cm)
Ecart type
5,34
4,27
2,67
2,72
Corrélations significatives
avec l’intention d’utilisation
moyenne : 5,90 cm (2,91)
r=0,479 ; p<0,001
r=0,300 ; p<0,001
4,65
2,71
r=0,410 ; p<0,001
5,25
2,65
r=0,484 ; p<0,001
6,98
6,32
3,58
3,48
2,35
2,54
2,76
2,60
r =0,512 ; p <0,001
r=0,607 ; p <0,001
r = - 0,132 ; p < 0.05
4,13
2,69
5,42
5,07
3,00
3,18
r = - 0,448 ; p < 0.001
4,90
2,91
r = - 0,574 ; p < 0.001
En effet, pour la plupart des auteurs, seule la familiarisation avec le contrôle automatique permet
à la confiance de se construire et à l’opérateur de décider s’il est judicieux ou non d’utiliser le contrôle
automatique. Il semble donc nécessaire que l’utilisateur potentiel d’une aide à la conduite ait
l’opportunité de se familiariser avec le dispositif. En effet, d’après le résultat obtenu, il apparaît que
même si l’ACC est implémenté en série dans son véhicule, la perception par le conducteur de l’utilité
de l’ACC n’implique pas forcément une intention d’utilisation de sa part et ce, d’autant que sa
confiance a priori reste faible. Or, la non confiance inappropriée, tout autant que la confiance
inappropriée (par exemple, la surconfiance) peuvent avoir des conséquences dommageables pour le
système homme-machine (Muir, 1994 ; Parasuraman & Riley, 1997). En cas de non confiance
inappropriée, outre le fait que le système homme-machine ne profite pas des avantages du contrôle
automatique, la charge de travail de l’opérateur humain ainsi que le risque d’erreurs humaines peuvent
être accrus. En cas de confiance inappropriée, l’opérateur peut ne plus savoir faire face aux situations
critiques, notamment lorsque le contrôle automatique est défaillant à les gérer. Il court également le
risque de ne pas savoir reprendre le contrôle en temps opportun en cas de défaillance technique du
contrôle automatique.
Par conséquent, à défaut d’une familiarisation obligatoire avec l’ACC (par exemple lors de
l’apprentissage de la conduite), il est important de chercher à augmenter le niveau de la confiance a
priori pour amener le conducteur d’un véhicule équipé du dispositif à l’essayer, ce qui lui permettra de
se faire une opinion à partir de faits empiriques et, à terme, de coopérer de façon efficace avec l’ACC.
EPIQUE’2003
307
4
CONCLUSION
Il est évident que cette première étude n’apporte aucune réponse à la question de savoir comment
la confiance influence l’utilisation effective de l’ACC. Elle a tout de même permis d’identifier des
dimensions possibles de la confiance du conducteur lorsqu’il doit utiliser un ACC, ce qui nous a aidé à
élaborer un questionnaire sur la confiance de type II à savoir la confiance résultant de l’interaction
avec le dispositif, confiance qui fait l’objet de l’étude qui a été réalisée en collaboration avec
l’INRETS sur mini simulateur de conduite, et dont les données recueillies sont en cours d’analyse. Les
21 participants de cette étude ont répondu à des questionnaires sur la confiance de type I (avant
familiarisation avec l’ACC) et de type II (après chaque essai expérimental). Chaque participant a été
invité à tester l’ACC pendant la phase de familiarisation. Puis, pour les trois phases expérimentales, il
était libre d’utiliser ou non l’ACC. L’état d’activation de l’ACC est une des données analysées.
Nous espérons que les résultats obtenus nous permettront d’analyser l’évolution de la confiance,
notamment les conditions dans lesquelles elle peut augmenter et éventuellement diminuer, d’examiner
les liens entre confiance a priori (type I) et confiance basée sur la pratique de l’ACC (type II) ainsi
qu’entre intention d’utilisation et utilisation réelle de l’ACC. Nous espérons également apporter des
éléments de réponse quant à la nature de la confiance ressentie par le conducteur, les deux types de
questionnaire contenant des items relatifs à la confiance dans le dispositif ACC, la confiance dans la
relation entre le conducteur et l’ACC et la confiance en soi en ce qui concerne la gestion des vitesses et
de l’interdistance. Une autre expérimentation sur simulateur de conduite et avec ACC est en cours de
préparation. A l’issue de ces deux expérimentations, nous espérons pouvoir proposer un modèle de la
confiance ainsi qu’une méthode d’analyse de la confiance qui pourraient servir pour d’autres types
d’aide à la conduite.
5 REFERENCES BIBLIOGRAPHIQUES
Castelfranchi, C. (1998). Modelling social action for AI agents. Artificial Intelligence, 103, 157-182
Hoc, J.-M. (2000). From human-machine interaction to human-machine cooperation. Ergonomics, 43, 833-843.
Hoc, J.-M. (2001). Towards a cognitive approach to human-machine cooperation in dynamic situations. International Journal of
Human-Computer Studies, 54, 509-540.
Hoedemaeker, M., Brookhuis, K.A. (1998).Behavioural adaptation to driving with an adaptive cruise control (ACC).
Transportation Research Part F, 1, 95-106.
Hollnagel, E. (1993). Human reliability analysis : context and control. London : Academic Press.
Hollnagel, E., & Woods, D.D. (1983). Cognitive systems engineering : new wine in new bottles. International Journal of ManMachine Studies, 18, 583-600.
Hollnagel & Bye (2000). Principles for modelling function allocation. International Journal of Human-Computer Studies, 52,
253-265.
Lee, J., & Moray, N. (1992). Trust, control strategies and allocation of function in human-machine systems. Ergonomics, 35,
1243-1270.
Lee, J., & Moray, N. (1994). Trust, self-confidence, and operators’ adaptation to automation. International Journal of HumanComputer Studies, 40, 153-184.
Luhmann, N. (2000). Familiarity, confidence, trust : problems and alternatives. In D. Gambetta (Ed.), Trust – Making and
breaking cooperative relation, electronic edition, Department of Sociology, University of Oxford, chapter 6, pp. 94-107,
http://www.sociology.ox.ac.uk/papers/luhmann94-107.pdf.
Möllering, G. (2001). The nature of trust : from Georg Simmel to a theory of expectation, interpretation and suspension.
Sociology, 35, 403-420.
Muir, B.N. (1994). Trust in automation : Part I. Theorical issues in the study of trust and human intervention in automated
systems. Ergonomics, 37, 1905-1922.
Muir, B.M., & Moray, N. (1996). Trust in automation. Part II. Experimental studies of trust and human intervention in a process
control simulation. Ergonomics, 39, 429-460.
Numan, J.H. (1998). Knowledge-based systems as companions. Trust, human computer interaction and complex systems,
electronic edition, University Library Groningen, pp. 30-56, http://www.ub.rug.nl/eldoc/dis/management/j.h.numan/,
accédé le 05/11/02.
Parasuraman, R., & Riley, V. (1997). Humans and automation : use, misuse, disuse, abuse. Human Factors, 39, 230-253.
308
EPIQUE’2003
Rajaonah, B. (2001). La relation de confiance entre le conducteur et un système automatique de régulation de vitesse.
Communication présentée à EPIQUE 2001: Premières Journées d'Étude en Psychologie Ergonomique. Nantes, France,
Octobre.
Zuboff, S. (1988). In the age of the smart machine. The future of work and power. New York : Basic Books.
EPIQUE’2003
309
310
EPIQUE’2003
Rôle de la modalité perceptive dans les processus
de mémorisation chez des travailleurs postés
Edith Galy
Laboratoire Travail et Cognition
Maison de la Recherche
Université Toulouse Le Mirail
5, allée Antonio Machado
31058 Toulouse cedex 9
Jean-François Camps
IUFM de Midi-Pyrénées
Toulouse
Claudine Mélan
Laboratoire Travail et Cognition
RESUME
De nombreuses entreprises fonctionnant de plus en plus en continu, les opérateurs sont amenés à travailler en
équipes alternantes (3X8) couvrant l’ensemble du nycthémère. De plus, l’automatisation poussée des
installations s’est traduite par un accroissement des tâches de surveillance et de supervision. Notre travail est
donc basé sur l’étude des performances de mémorisation immédiate en fonction de la modalité de présentation
de mots (auditive vs visuelle) et de leurs fluctuations au cours du nycthémère. Une supériorité des performances
lors d’une présentation auditive est observée tout au long des 24 heures. Cet effet s’explique par les
caractéristiques particulières de traitement des mots lus et entendus (codages sensoriels, phonologique et lexical).
Par ailleurs, lors d’un encodage auditif des mots, les performances restent stables tout au long des 24 heures
alors qu’elles varient avec l’état de vigilance des sujets lorsque les items sont présentés visuellement. Ces
données devraient être prises en compte pour optimiser le fonctionnement des salles de contrôle et adapter les
postes de travail aux variations circadiennes des capacités de traitement des opérateurs.
MOTS-CLES
Mémoire à court terme ; Modalité visuelle ; Modalité auditive ; Variations circadiennes ; Travail posté
1
INTRODUCTION
Le travail en équipes alternantes ou travail posté a connu une extension considérable en France au
cours des 30 dernières années (20%). Cependant, la plupart des paramètres physiologiques et
psychologiques de l’homme sont caractérisés par une alternance, au cours de la journée de 24 heures,
entre des phases d’efficacité croissante et des phases d’efficacité réduite. Ainsi les opérateurs
travaillant en 3X8, par exemple selon un cycle de deux matinées, suivies de deux après-midi, puis de
trois nuits voient leur rythme activité/repos déphasé par rapport au système circadien, entraînant une
fatigue chronique susceptible d’engendrer irritabilité et baisse de performance au travail et, à plus long
terme, des problèmes de santé (Marquié, Paumès, & Volkoff, 1998 ; Folkard & Monk, 1979a).
Par ailleurs, l’automatisation poussée des installations a modifié considérablement la nature des
tâches dévolues aux travailleurs postés. Selon Lejon (1991), de nombreux secteurs industriels sont
concernés par ces mutations technologiques (l’énergie, la chimie, la sidérurgie, le secteur pétrolier,
ainsi que les transports…). La transformation des systèmes de production, avec notamment
l’introduction des ordinateurs de process, s’est traduite par un accroissement des tâches de surveillance
et de supervision, nécessitant le maintien d’un niveau de vigilance élevé. En effet, le niveau
d’intervention directe et manuelle de l’homme se déplace progressivement vers des activités mentales
de commande et de coordination (Poyet, 1990, p.224). A cela s’ajoute la surcharge de travail de
l’opérateur, la nuit, en particulier de par son bas niveau de vigilance.
La réflexion dans le sens de la sécurité des installations et processus de production devrait donc
partir de l’éventualité d’une défaillance de l’opérateur dans certaines conditions pour envisager la
EPIQUE’2003
311
conception et l’aménagement des salles de contrôle et des écrans (Quéinnec & de Terssac, 1980). Une
attention particulière devrait être consacrée à la présentation des informations afin de réduire la
pénibilité du travail et d’améliorer les conditions de sécurité. Une étude de simulation menée par
Chatty, Athènes et Bustico (1999) chez des contrôleurs aériens montre qu’une alarme visuelle affichée
sur un écran ordinateur en périphérie, proche de l’avion concerné, est détectée seulement 15 minutes
plus tard. Ces informations étant visuelles, elles ne pourront être appréhendées que lorsque les yeux
balayent le champ visuel correspondant et que le contrôleur y prête attention. De plus, une étude faite
par Andorre et Quéinnec (1998) révèle que la consultation de pages écran était supérieure l’après-midi
et moindre la nuit et le matin. Cette diminution du nombre de regards la nuit peut laisser penser que
l’information visuelle sera détectée moins facilement qu’une information auditive, qui elle, est
habituellement intégrée automatiquement et rapidement.
Les données concernant l’efficacité respective des canaux visuels et auditifs dans le traitement des
consignes verbales sont rares. De plus, parmi les travaux s’intéressant à cette question, ceux qui
tiennent compte des fluctuations circadiennes des performances en fonction de la modalité de
présentation des informations semblent inexistants. Des recherches dans ce domaine pourraient alors
éclairer utilement les choix en matière de présentation d’informations et ainsi contribuer à améliorer
certains postes de travail.
Dans cette optique, nous avons étudié dans quelle mesure la modalité de présentation d’un
matériel verbal influence la mémorisation de celui-ci lorsqu’elle est évaluée à différentes heures du
jour et de la nuit chez des opérateurs postés. Pour cela, nous nous sommes déplacés dans une
entreprise de production d’énergie (centrale nucléaire) en fonctionnement continu. Une partie des
opérateurs travaille en horaires alternants (3X8) à rotation rapide (changeant de postes tous les 2 ou 3
jours), postés devant des écrans de contrôle, des ordinateurs et des alarmes. La démarche choisie est
une démarche expérimentale, c’est à dire l’utilisation d’un matériel verbal (listes de mots) inconnu et
non lié à l’activité des opérateurs. Le déroulement des expériences se fait dans une pièce calme avec
des conditions contrôlées. Cependant, cette étude est réalisée dans des conditions écologiques, puisque
les volontaires étaient des travailleurs postés et que l’étude se fait sur leur lieu de travail et au moment
où les opérateurs se tiennent en poste.
2
FLUCTUATIONS CIRCADIENNES DES PERFORMANCES DE MEMORISATION
L’évaluation du niveau de vigilance de l’individu grâce à des indicateurs objectifs (activité
électro-encéphalographique) montre que celui-ci est à son minimum vers cinq heures du matin,
augmente rapidement jusqu’en fin de matinée, puis plus lentement, pour être à son maximum en fin
d’après-midi. Ensuite, le niveau de vigilance chute rapidement jusqu’en fin de cycle. Des résultats
similaires ont été obtenus avec l’échelle d’auto-estimation de la vigilance de Thayer (Thayer, 1986).
De nombreux travaux montrent que l’efficience cognitive varie également au cours des 24 heures et
cela parallèlement au niveau de vigilance en ce qui concerne notamment les performances à des tâches
perceptivo-motrices. (Kleitman, 1963 ; Tassi, 1999 ; Colquoun, 1971 ). Pour des tâches cognitives plus
complexes, impliquant notamment la mémoire immédiate, la relation entre performances et niveau de
vigilance est toutefois moins étroite (Folkard & Monk, 1985 ; Owens et al., 2000 ; Testu, 1988).
Un certain nombre de travaux se sont intéressés à l’interaction entre vigilance et performances de
mémorisation. Deux hypothèses sont proposées pour expliquer les rythmes de l’efficacité mnésique,
chacune basée sur une conception différente de la mémoire. La première conception est fondée sur un
système mnésique à court terme doté d’une capacité limitée qui évoluerait en fonction d’un processus
unique d’activation (Blake, 1967 ; Colquhoun, 1971 ; Folkard & Monk, 1979b). La capacité de
traitement du sujet varierait au cours de la journée de 24 heures « avec une capacité plus grande à
certaines heures et moins grande à d’autres » (Querrioux-Coulombier, 1989). La capacité de traitement
serait modulée par des fluctuations du niveau d’activation cérébrale du sujet. En fin d’après-midi,
moment où le niveau d’activation serait maximal, la capacité de traitement du sujet serait donc plus
grande, et une tâche saturerait moins rapidement cette capacité de traitement que le matin (Wright,
Hull, & Czeisler, 2002). Par ailleurs, une étude de Baddeley et al. (1999) montre que, lors d’une tâche
de mémoire à court terme, le maintien en mémoire d’informations est coûteux et sollicite fortement
l’administrateur central de la mémoire de travail. La capacité de cet administrateur serait limitée et
diminuerait lorsque la tâche requiert une attention soutenue. On peut ainsi penser que la capacité de
312
EPIQUE’2003
l’administrateur central, qui permet l’allocation des ressources attentionnelles nécessaires à l’exécution
de la tâche, serait plus élevée lorsque le niveau de vigilance des sujets l’est aussi.
Cependant, cette conception ne permet pas de rendre compte de changements qualitatifs de la
performance intervenant indépendamment de variations quantitatives des scores de rappel. Ainsi
Folkard et Monk (1979b) ont suggéré que le matin, le sujet procéderait spontanément à un traitement
de surface des mots et qu’une activité de répétition subvocale, relativement automatique permettrait de
maintenir l’information en mémoire à court terme. Lorsque le niveau de vigilance augmente, une
stratégie de traitement plus élaborée et concernant les aspects sémantiques des mots, serait mise en jeu.
Les auteurs proposent que des variations d’un processus d’activation seraient responsables de
l’évolution des processus de traitement du matériel. Cette hypothèse est en accord avec des études de
laboratoire portant sur la mémorisation d’informations verbales (Oakhill & Davies, 1989 ; Lorenzetti
& Natale, 1996 ; Maury et Quéinnec, 1992).
En effet, les informations verbales mémorisées subissent de très nombreuses transformations
appelés codages. Il existe des codes sensoriels (auditif, visuel) mais également des codes plus abstraits
comme le code lexical ou sémantique. Chaque code a ses propres caractéristiques, et en particulier une
durée de vie différente (Lieury, 1992). Dans un premier temps, une information auditive sera codée
sous forme d’un code acoustique alors qu’une information visuelle sera codée en un code visuel. Ces
informations sont par la suite codées sous forme phonologique, puis lexicale et sémantique. Le codage
sensoriel représente donc un traitement très superficiel, le codage phonologique un traitement
intermédiaire et les codages lexical et sémantique correspondent au traitement le plus profond de
l’information. Ainsi, selon l’hypothèse de Folkard et Monk (1979b), une stratégie de traitement des
aspects de surface des mots le matin correspondrait à un codage sensoriel ou phonologique, alors
qu’une stratégie de traitement plus élaborée l’après-midi correspondrait à un codage lexical ou
sémantique. Sachant que ces codes n’ont pas les mêmes caractéristiques en fonction de la modalité de
présentation des informations (auditive vs visuel), le niveau de vigilance des sujets ne devrait pas avoir
le même effet sur les performances de mémorisation en fonction de la modalité utilisée.
3
MODALITE PERCEPTIVE ET MEMORISATION
Les codes sensoriels auditif et visuel n’ont pas la même durée de vie, en effet, le code visuel
persisterait 200 à 400 ms (van der Heijden, 1981) et le code auditif de l’ordre de 3 à 4 secondes
(Darwin, Turvey et Crowder, 1972). Cette persistance du code auditif au-delà du code visuel
expliquerait que les performances de restitution à des tâches de rappel ou de reconnaissance à court
terme sont meilleures lors d’une présentation auditive plutôt que visuelle des mots (Murdock, 1967 ;
Madigan, 1971 ; Routh, 1976 ; Murdock & Walker, 1969 ; Engle, 1974). Cette supériorité est appelée
« effet de modalité » ou encore « supériorité auditive ». Certains auteurs soulignent cependant que
l’effet de modalité est si robuste et durable que la persistance du code acoustique ne permet pas à elle
seule d’expliquer ce phénomène.
Un autre élément explicatif de la supériorité auditive peut être apporté par l’étude des étapes
ultérieurs du traitement de l’information. En effet, les informations présentées visuellement et
auditivement ne semblent pas avoir accès au codage phonologique de la même manière. Le stockage
phonologique correspond d’une part à la subvocalisation qui assure le recodage du graphique (visuel)
en phonologique et à l’autorépétition subvocale qui sert de mémoire « artificielle » permettant de
prolonger la durée de vie de l’information (Lieury, 1992). Ainsi, les informations verbales visuelles
subissent d’abord un recodage phonologique alors que les informations auditives sont
automatiquement et directement codées de cette manière (Baddeley, 1996). Par conséquent, la
supériorité auditive peut être expliquée en partie par le fait que, contrairement aux informations
visuelles, les informations auditives accèdent directement au stock phonologique permettant leur
maintien en mémoire.
De même, l’accès à la mémoire lexicale serait plus direct pour les mots entendus que lus (Gineste
& Le Ny, 2002). En effet, les éléments du mot entendu seraient traités de manière séquentielle de sorte
que la reconnaissance du mot entier pourrait souvent être faite avant que la fin du mot ne soit entendue
(Marslen-Wilson, 1987 ; 1990). Au contraire, pour un mot écrit, le traitement se ferait pour toutes les
lettres simultanément et par saccade avant que le mot ainsi traité n’accède au niveau lexical (Reicher,
EPIQUE’2003
313
1969). Par conséquent, l’accès au code lexical serait quasiment instantané pour les informations
auditives et moins immédiat pour les informations visuelles.
En résumé, nous avons vu qu’à différentes étapes du traitement des mots, les informations
présentées dans la modalité auditive mettraient en jeu des processus moins coûteux que les
informations visuelles. La supériorité des performances de mémorisation résulteraient d’un codage
acoustique plus durable, et des codages phonologique et lexical plus directs.
4
PERFORMANCES DE MEMORISATION IMMEDIATE EN FONCTION DE LA
MODALITE DE PRESENTATION DES MOTS ET LEURS FLUCTUATIONS AU
COURS DU NYCTHEMERE
Les travaux décrits ici tentent de préciser les liens qui existent entre le moment de la journée et les
caractéristiques perceptives (modalité visuelle/auditive) et mnésiques de la tâche. Les performances
sont évaluées toutes les quatre heures (3h, 7h, 11h, 15h, 19h et 23h) au cours du nycthémère grâce à
des listes de mots : épreuve qui met en jeu des capacités également impliquées dans de nombreuses
activités de notre vie quotidienne (n° tel, carte bancaire, règles de jeux, production et compréhension
du langage – enchaînement de mots de phrases- et de la musique…) et professionnelle (consignes de
fonctionnement, de sécurité, …).
Dans l’épreuve sérielle utilisée, lors de chacun des 24 essais, six mots sont présentés au rythme de
un par seconde (phase d’encodage), puis après un délai de 4 secondes, un mot-test est présenté et les
sujets décident si celui-ci figurait ou non dans la liste de mots présentée au début de cet essai (phase de
restitution). La modalité de présentation des mots varie aléatoirement à la fois lors de la phase
d’encodage et de restitution ce qui permet de vérifier si l’effet de la modalité de présentation mis en
évidence lors de la phase d’encodage, est modulé par la modalité de présentation du mot-test lors de la
phase de restitution.
Les performances de mémorisation, évaluées par le nombre moyen de mots reconnus, sont
supérieures lorsque l’encodage se fait par le canal auditif, et ce quelque soit la modalité de présentation
du mot-test. Cette supériorité auditive concerne plus particulièrement la partie récente de la courbe
sérielle, et ce à tous les points horaires d’observation. Par conséquent, elle pourrait être attribuée à une
persistance durable du code acoustique et à un codage phonologique direct des informations auditives.
Par ailleurs, l’effet de récence qui est observé à tous les points horaires lors d’un encodage auditif
des mots est donc stable dans cette modalité tout au long des 24 heures. En revanche, lors d’un
encodage visuel, l’effet de récence apparaît l’après-midi (15h et 19h), alors qu’un tel effet est absent le
matin et la nuit. Or, c’est à ce moment-là que le niveau de vigilance des sujets est le plus faible tels
qu’en attestent les résultats obtenus avec le questionnaire d’auto-évaluation de Thayer. Par conséquent,
dans ces conditions expérimentales, les performances de reconnaissance d’items présentés
visuellement varient avec l’état de vigilance des sujets, alors qu’elles restent stables au cours du
nycthémère lorsque les items sont présentés auditivement. Ces résultats permettent de trouver des
applications utiles pour certains postes de travail, notamment ceux sur lesquels travaillent les agents de
surveillance que nous avons évalués, qui n’utilisent jusqu’à présent que la modalité visuelle.
Les items les plus récents d’une liste de mots subissent un traitement plus superficiel que les
premiers items (Greene, 1987 ; Wixted, 1991). L’apparition d’un effet de récence l’après-midi lors
d’une présentation visuelle pourrait donc être expliquée par une variation au cours de la journée de la
capacité de stockage des informations sensorielles et phonologiques dans des registres à capacité
limitée. Celle-ci serait plus importante l’après-midi au moment où le niveau de vigilance est le plus
élevé alors qu’une telle variation circadienne ne se produirait pas pour des informations auditives
(Monk et Leng, 1982). Les premiers items d’une liste seraient quant à eux stockés indépendamment de
leur modalité d’apparition initiale sous forme d’un code lexical et sémantique dans un registre à long
terme à capacité quasiment illimitée (Lieury, 1992), et ne subiraient pas de variations circadiennes.
5
CONCLUSION
En accord avec d’autres auteurs, cette étude tend à dire que la présentation auditive des
informations doit être utilisée lorsque ces informations doivent être mises à profit rapidement (Harvey,
1999). Le canal auditif est multidirectionnel et particulièrement efficace pour transmettre l’information
urgente et donc attirer rapidement l’attention de l’opérateur, peu importe l’orientation du champ visuel
314
EPIQUE’2003
de celui-ci (Tucker, 1991), ce qui pourrait être un atout lorsque le niveau de vigilance est faible. De
plus, les informations lues, comme nous l’avons montré dans cette étude, pourraient être traitées moins
efficacement la nuit que les informations entendues. Ces données devraient être prises en compte pour
optimiser le fonctionnement des salles de contrôles, réduire la pénibilité du travail et limiter les
incidents dus à un niveau de vigilance plus faible la nuit.
6 BIBLIOGRAPHIE
Andorre, V., & Quéinnec, Y. (1998). Changes in supervisory activity of a continuous process during
night and day shifts. International Journal of Industrial Ergonomics, 21, 179-186.
Baddeley, A., Cocchini, G., S., D. S., Logie, R. H., & Spinnler, H. (1999). Working memory and
vigilance: Evidence from normal aging and Alzheimer's desease. Brain and Cognition, 41, 87108.
Blake, M. J. F. (1967). Time of day effects on performance in a range of tasks. Psychonomic Science,
9, 349-350.
Chatty, S., S., A., & Bustico, A. (1999). votre attention s'il vous plait! Eléments d'un espace de
conception de signaux visuels. Processings de la 11e conférence francophone de l'interaction
homme-machine.
Colquhoun, W. P. (1971). Biological rhythms and human performance. New-York: Academic Press.
Darwin, C. J., Turvey, M. T., & Crowder, R. G. (1972). An auditory analogue of the Sperling partial
report procedure: Evidence for brief auditory storage. Cognitive Psychology, 3, 255-267.
Engle, R. W. (1974). The modality effect : Is precategorical acoustic storage responsible? Journal of
experimental Psychology, 102, 824-829.
Folkard, S., & Monk, T. H. (1979a). Shift work and performance. Human factors, 21, 483-492.
Folkard, S., & Monk, T. H. (1979b). Time of day and processing strategy in free recall. Quaterly
Journal of experimental Psychology, 31, 461-475.
Folkard, S., & Monk, T. H. (1985). Circadian performance rhythms. In T. H. M. Folkard S. (Ed.),
Hours of work temporal Factors in Work Scheduling (pp. 37-52). Chichester: John Wiley.
Gineste, M.-D., & Le Ny, J.-F. (2002). Psychologie cognitive du langage: De la reconnaissance à la
compréhension. Paris.
Greene, R. L. (1987). Effects of maintenance rehearsal on human memory. Psychological Bulletin,
102(3), 403-413.
Harvey, D. (1999). La multimédiatisation en éducation: Vers une multimédiatisation efficace des
messages dans les systèmes d'apprentissage multimédia interactif (SAMI). Paris: L'Harmattan.
Kleitman, N. (1963). Sleep and wakefulness. Chicago: University of Chicago Press.
Lejon, J. C. (1991). L'évolution de la conduite sur SNCC. L'ergonomie des systèmes numériques de
contrôle commande. Paris.
Lieury, A. (1992). La mémoire. Liège.
Lorenzetti, R., & Natale, V. (1996). Time of day and processing strategies in narrative comprehension.
british Journal of Psychology, 87, 209-221.
Madigan, S. A. (1971). Modality and recall order interactions in short-term memory for serial order.
Journal of experimental Psychology, 87, 294-296.
Marquié, J. C., Paumès, D., & Volkoff, S. (1998). Working with age. London: Taylor & Francis.
Marslen-Wilson, W. D. (1987). Functional parallelism in spoken word recognition. Cognition, 25, 71102.
Marslen-Wilson, W. D. (1990). Activation, competition, and frequency in lexical access. In G. T. M.
Altman (Ed.), Cognitive models of speech processing: psycholinguistic and computational
perspectives. Cambridge: MA, MIT Press.
Maury, P., & Quéinnec, Y. (1992). Effects of 24-hour day on depth of processing in recall memory.
British Journal of Psychology, 83, 249-260.
Monk, T. H., & Leng, V. (1982). Time of day effects in simple repetitive tasks: some possible
mechanisms. Acta Psychologica, 51, 207-221.
Murdock, B. B. (1968). Modality effects in short-term memory: storage or retrieval? Journal of
experimental Psychology, 77(1), 79-86.
EPIQUE’2003
315
Murdock, B. B., & Walker, K. D. (1969). Modality effects in freerecall. Journal of Verbal Learning
and Verbal Behavior, 8, 665-676.
Oakhill, J. (1989). Effects of time of day on text memory and inference. In M. M. Gruneberg & P. E.
Morris & R. N. Sykes (Eds.), Practical aspects of memory: Current research and issues (pp. 465482). New-York: John Wiley and Sons.
Owens, D. S., Macdonald, I., Tucker, P., Sytnik, N., Totterdell, P., Minors, D., Waterhouse, J., & S.,
F. (2000). Diurnal variations in the mood and performance of highly practised young women
living under strictly controlled conditions. British Journal of Psychology, 91, 41-60.
Poyet, C. (1990). L'homme, agent de fiabilité dans des systèmes automatisés. In J. Leplat & G. d.
Terssac (Eds.), Les facteurs humains de la fiabilité dans les systèmes automatisés (pp. 223-241).
Marseille.
Quéinnec, Y., & de Terssac, G. (1980). variation temporelle du comportement des opérateurs : le cas
de processus à feu continu. Le Travail Humain, 44, 39-53.
Querrioux-Coulombier, G. (1989). Variations journalières de la sélection thématique au cours de la
lecture. L'Année Psychologique, 89, 27-36.
Reicher, G. M. (1969). Perceptual recognition as a function of meaningfulness of stimulus matérial.
Journal of experimental Psychology, 81, 274-280.
Routh, D. A. (1976). An "across-the-board" modality effect in immediate serial recall. Quaterly
Journal of Experimental Psychology, 28, 285-304.
Tassi, P. (1999). Etude des relations entre éveil, vigilance et performances cognitives à partir de leurs
fluctuations circadiennes. Unpublished Thèse d'habilitation, Université de Strasbourg 1,
Strasbourg.
Testu, F. (1988). Variations journalières de l'activité intellectuelle et profondeur du traitement de
l'information. Bulletin du Groupe d'Etude des Rythmes Biologiques, 20(4), 31-38.
Thayer, R. E. (1986). Activation-Deactivation adjective check-list: current overview and structural
analysis. Psychological Report, 58, 607-614.
Tucker, P., & Jones, D. M. (1991). Voice as interface: an overview. International journal of humancomputer interaction, 3, 145-169.
van der Heijden, A. H. C. (1981). Short-term visual information forgetting. London: Routledge &
Kegan Paul.
Wixted, J. T. (1991). Conditions and consequences of maintenance rehearsal. Journal of Experimental
Psychology: Learning, Memory and Cognition, 17(5), 963-973.
Wright, K. P., Hull, J. T., & Czeisler, C. A. (2002). Relationship between alertness, performance, and
body temperature in humans. Am J Physiol regul Integr Comp Physiol, 283(6), 1370-1377.
316
EPIQUE’2003
Conception et validation d’une interface numérique
de perception dédiée aux personnes non-voyantes
Amal Ali Ammar
[email protected]
Université de Technologie de Compiègne - COSTECH
Centre Pierre Guillaumat BP 20 319
60 203 Compiègne cedex
RESUME
Un dispositif de suppléance perceptive conçu initialement dans sa forme minimale fait l’objet d’une démarche
ergonomique de conception et d’évaluation. Ce dispositif offre un accès non-visuel aux formes numériques 2D et
rend possible, entre autres, l’apprentissage des mathématiques chez le collégien aveugle. Sur le plan théorique,
l’enjeu est de formaliser les conditions de son usage efficient. Une attention particulière est portée aux stratégies
perceptives médiatisées dont le mérite est d’apporter de nouveaux éclairages fondamentaux sur la perception,
tout en désignant des pistes de spécification. La méthodologie s’appuie sur une étude longitudinale conduite en
deux étapes. L’étape 1 a été réalisée en collaboration avec deux adultes non-voyants. L’étape 2 s’effectue auprès
de quatre collégiens non-voyants et poursuit le travail avec les deux adultes. L’étape 1 a révélé le caractère
heuristiquement fécond de l’analyse des stratégies puisque les modifications induites par leur connaissance ont
eu une influence décisive sur les performances dans la discrimination de formes mathématiques.
MOTS-CLES
Suppléance perceptive, non-voyants, perception tactile, stratégies d’exploration, formes mathématiques
1
INTRODUCTION
L’outil informatique, notamment dans son association avec Internet, est potentiellement un
vecteur d’autonomie, de dialogue et de connaissance pour les non-voyants. Malheureusement le
passage à l’interface graphique ne s’est pas traduit par la même amélioration de confort d’utilisation
chez les voyants et les non-voyants. Si les technologies d’assistance actuelles donnent accès aux
éléments textuels, les objets graphiques sont ignorés ou au mieux nommés. Peut-on concevoir alors
une interface numérique qui offre à l’utilisateur la possibilité de percevoir dessins, graphes, tableaux ?
Cette thèse s’inscrit dans le projet qui consiste à favoriser la lecture de formes numériques 2D au
moyen d’un dispositif (Tactos) inspiré du TVSS de Bach Y Rita. Tactos, qui est dédié aux nonvoyants, trouve une de ses applications dans l’apprentissage des mathématiques au collège. Il alimente
une réflexion ergonomique qui met en résonance conception des interfaces spécialisées et
connaissance des mécanismes perceptifs prothétisés.
Ce dispositif fait l’objet d’une démarche de conception qui se veut minimaliste et gradualiste. Il
s’agit de comprendre ce que permet Tactos dans un état de développement donné (initialement
restreint) et également d’en appréhender les limites. À travers un enrichissement contrôlé du dispositif
est envisagée la dynamique entre stratégies exploratoires, performances et contraintes/ressources. Se
posent alors les questions suivantes : peut-on tirer de la connaissance des stratégies des principes de
conception augurant de l’appropriation de Tactos ? Est-il pertinent d’instruire ces stratégies en les
confrontant à des explorations tactiles de formes en relief sur support traditionnel ? À supposer qu’il
existe des stratégies efficaces, leur mise en œuvre sera-t-elle suggérée par des fonctionnalités et/ou un
apprentissage formalisé ?
Ces questions scandent le déploiement d’un processus de conception qui prend corps dans une
étude longitudinale de trois ans entreprise auprès de six partenaires non-voyants.
EPIQUE’2003
317
2
TACTOS, UN DISPOSITIF MINIMALISTE DE SUPPLEANCE PERCEPTIVE
2.1 Le TVSS de Paul Bach y Rita
Dans les années 1960, Paul Bach y Rita a élaboré un dispositif innovant, le TVSS, Tactile Vision
Sensory Substitution, qui a ouvert de vastes perspectives de recherche sur la perception et la plasticité
cérébrale (Bach-y-Rita, 1972) (Bach y Rita, Tyler & Kaczmarek, 2003).
Ce système convertit et restitue sur une plage tactile, localisée sur une partie du corps, les images
capturées par une caméra qui est pilotée par les mouvements du sujet. Le principe sur lequel repose le
TVSS a été étendu à d’autres dispositifs tels que l’Optacon, l’ETVS et le TDU (Kaczmarek & Bach y
Rita, 1995). Cette famille technologique de dispositifs permet d’accéder, sans contact direct, aux
propriétés jusque là inaccessibles des objets. L’un des apports fondamentaux majeurs du TVSS a été
de démontrer le rôle essentiel joué par l’action dans l’émergence progressive des percepts.
2.2 La théorie de la perception-action
Il existe en effet deux façons de concevoir la perception (O’Regan & Noë, 2001) : d’après le
paradigme computo-représentationnel, la perception est le mécanisme par lequel l’organisme reçoit
passivement des entrées sensorielles puis leur applique un traitement afin d’identifier les objets sous la
forme de représentations internes. Par souci d’exhaustivité et de rigueur intellectuelle, il conviendra de
confronter la lecture critique réalisée par O’Regan et Noë à l’encontre des théories cognitivistes, à une
présentation effective de ces travaux sur la perception.
Selon un paradigme que l’on peut qualifier de constructiviste, ce que perçoit le sujet, ce n’est pas
les invariants de la sensation mais les invariants dans les boucles sensori-motrices. En d’autres termes,
c’est par ses propres actions que les sujet construit des lois de co-variation entre les réponses motrices
et les entrées sensorielles résultant d’autres réponses motrices. La théorie des lois de contingences
sensori-motrices (O’Regan & Noë, 001) est un exemple de cette approche.
À Compiègne a été développé un dispositif minimal de couplage sensori-moteur (la plage tactile
comporte 2 cellules Braille cf. matériel, au lieu des 400 du TVSS) qui fournit des arguments
empiriques à cette thèse.
2.3 Une réduction expérimentale : le minimalisme
Le parti pris méthodologique minimaliste vise à déterminer les conditions techniques nécessaires
pour que la succession des sensations donne lieu à la perception d’un objet extériorisé. Ces réflexions
ont entre autres conduit à la conclusion qu’il ne s’agit pas à proprement parler de substitution
sensorielle mais plutôt de suppléance perceptive. Ces dispositifs ouvrent sur un espace perceptif inédit
et n’opèrent pas de remplacement de la sensations visuelle par des sensations tactiles. Est ainsi
considéré comme technologie de suppléance tout type de dispositif technique qui déplace le pouvoir
d’action et qui suppose la constitution de nouveaux percepts. Ces dispositifs suscitent de nouvelles
catégorisations de l’interaction homme-machine. L’enjeu de cette thématisation est de s’interroger sur
la possibilité de proposer des technologies satisfaisantes (Gapenne, Lenay & Boullier, 2001).
Dans cet ensemble de questionnements fondamentaux et techniques, l’activité perceptive
médiatisée en tant que technologie de suppléance peut être mise à l’épreuve dans le contexte d’accès à
l’image par et pour les aveugles.
3
TACTOS, UN DIPOSITIF ORIGINAL D’ACCES AU GRAPHIQUE
3.1 Les aveugles et l’accès aux données numériques Il existe actuellement des dispositifs nommés « technologies d’assistance» qui, conjointement
avec des équipements informatiques standards, permettent aux non-voyants de lire le contenu de
l’écran d’ordinateur (Les technologies d’assistance).
Parmi ces dispositifs figurent les lecteurs d’écran fonctionnant avec synthèse vocale et/ou
terminal braille. Viennent s’y ajouter les dispositifs spécifiques à la navigation Web, comme les
navigateurs spécialisés qui filtrent l’information graphique et qui proposent généralement des
commandes de lecture. Grâce à ces systèmes, les non-voyants au travail peuvent accroître de façon
importante la qualité et la quantité de leur production écrite .
318
EPIQUE’2003
Cependant, la qualité des interfaces pour non-voyants reste limitée par rapport aux atouts de
l’interface graphique (Burger, 1993). Les études qui recensent les problèmes ergonomiques posés par
l’utilisation de ces technologies d’assistance sont finalement peu nombreuses. On peut l’attribuer au
fait que des études comparatives sur l’efficience des systèmes sont très exigeantes en temps, nécessaire
pour qu’un panel de testeurs atteignent le même niveau d’expertise sur un ensemble d’aides techniques
différentes (Griffith, 1990).
Parmi les rares études réalisées, citons celle de Doris Aaronson et Paul Gabias, des Universités de
New York et du Wisconsin, effectuée en 1987 auprès d’une population de déficients visuels et qui a
relevé sept classes de problèmes, toujours d’actualité : problème de compatibilité entre les différents
dispositifs, information incomplète ou non fiable, perception limitée, astreinte mnésique plus
importante, tâches sensori-motrices perturbées, feed-back plus lent, lenteur dans l’exécution générale
(Aaranson & Gabias, 1987).
Si la réalisation de tâches bureautiques courantes n’est pas totalement garantie, la lecture et la
production de graphiques par l’entremise de ces technologies est pour le moment difficilement
envisageable.
3.2 Les aveugles et l’accès au graphique via les technologies d’assistance
Actuellement l’existence d’objets graphiques de l’interface (icônes, boutons) peut être signalée
par la synthèse vocale Jaws : l’activation du « curseur Jaws » autorise l’utilisateur à explorer tout
l’écran en passant d’un objet graphique à l’autre, ou d’un mot à l’autre (Jaws for windows). Cette prise
de connaissance est linéaire, elle se fait pas à pas, elle est donc longue et fastidieuse. Par ailleurs, elle
n’aide pas l’utilisateur à se construire une topologie de l’écran, les applications multi-fenêtres sont à ce
titre particulièrement pénalisantes pour les non-voyants.
Sur Internet, le nom ou descriptif des images pourra être lu par la synthèse si le concepteur du site
a bien fourni une alternative textuelle à cet élément non-textuel, soit respecté la première directive des
recommandations du W3C (World Wide Web Consortium, 1999).
Néanmoins, cet accès à l’image ne se fait que sur un mode descriptif, ces dispositifs n’ouvrent pas
sur l’expérience singulière de la perception de l’image, comme c’est par exemple le cas lors de
l’exploration d’un dessin en relief. Le papier thermoformé pour la lecture et la planche molle pour la
production sont les supports traditionnels qui invitent les non-voyants à la raison graphique (Goody,
1979). Les technologies numériques offrent l’occasion de perpétuer ce partage mais à condition que les
non-voyants bénéficient de l’aide et de la médiation d’autrui pour s’en saisir.
3.3 Le cas particulier de l’enseignement mathématiques
L’usage du graphique dans un domaine tel que la mathématique est incontournable. C’est par le
dessin que l’élève peut acquérir une interprétation opérationnelle de concepts géométriques
(Tall,1992). On peut voir dans l’activité opératoire la source première de la connaissance (Vergnaud,
2001). Les mathématiques étant à leur début une connaissance pragmatique, on comprend tout l’enjeu
d’introduire le corps propre dans l’apprentissage des mathématiques. Avec Tactos l’ambition est en
outre de rendre accessible aux élèves non-voyants, sous un format numérique, c’est à dire stockable,
modifiable à loisir et partageable à distance, les vertus didactiques du graphique.
4
A LA RECHERCHE DE PRINCIPES THEORIQUES DE CONCEPTION D’UNE
INTERFACE ADAPTEE
La conception d’une interface adaptée, reposant sur une interaction non-visuelle, exige des acquis
théoriques et des réalisations concrètes dans les disciplines telles que les sciences cognitives, les
sciences de l’éducation, l’ergonomie, l’informatique et les neurosciences (Burger & Spérandio, 1993).
On peut distinguer trois types de connaissances à l’œuvre dans ce projet.
1. Des productions de nature méthodologique : des modèles et des méta-modèles pour la
conception, des grilles spécifiques d’évaluation ; ce qui suscite de nombreuses recherches
dans la communauté scientifique du Universal Design for All.
2. Des recherches sur les mécanismes perceptifs, pour lesquelles une population avec un
handicap aura un caractère paradigmatique.
EPIQUE’2003
319
3. Des études autour de dispositifs inédits qui elles mêmes vont croiser les deux types
d’approches précédentes.
4.1 Le cas paradigmatique des non-voyants
À partir d’une expérience sensible différente, les aveugles construisent-ils néanmoins le même
sens de l’espace ? Landau affirme contre Fraiberg et Bower qu’aveugles et voyants partagent les
mêmes idées spatiales et que ces idées sont produites par un système riche et articulé de connaissances
spatiales (Landau, 1988). Hatwell, contrairement à Landau, pointe des retards dans l’espace de
préhension et dans l’espace moteur des nourrissons et enfants aveugles, qui finissent par s’atténuer
chez les adultes lorsque « les procédures d’exploration s’améliorent et d’autres modes de traitement
deviennent possibles ». Mais elle se rapproche de Landau quand elle conclut que la vision n’est pas
indispensable pour arriver à une bonne représentation de l’espace (Hatwell, 2002). De façon générale,
les données relatives aux différences inter-groupes ne sont pas convergentes, ceci découle de facteurs
méthodologiques, notamment l’hétérogénéité des panels de non-voyants (aveugles de naissance,
aveugles précoces, aveugles tardifs) et d’approches théoriques différentes (Gaunet, 2002).
4.2 Les procédures d’exploration tactile chez les voyants et les non-voyants
Au sein de ces études, un axe de recherche souvent privilégié vise la description de patterns
sensori-moteurs, dont l’une des plus célèbre reste « les six principales procédures exploratoires » selon
Lederman et Klatzky (1987). Schèmes, patterns, procédures, stratégies d’exploration : une réflexion
sur ces concepts mérite d’être couplée à leur traduction méthodologique. Quelles sont les unités
comportementales dégagées par ces études ?
Aujourd’hui, un ensemble de recherches autour de prototypes non-visuels d’accès au graphique
vient renouveler la thématique des stratégies perceptivo-cognitives.
4.3 De l’applicabilité des stratégies perceptivo-cognitives en situation naturelle à la
situation médiatisée
Ces dispositifs diffèrent par les modalités d’interaction envisagées, vocale pour Mathtalk
(Stevens, Edwards & Harling, 1997), tactilo-sonore pour TouchMelody (Ramloll & Brewster, 2002)
ou haptique pour le PHANToM (Jansson). Cependant, ils partagent ce principe heuristique qui consiste
à se demander comment s’opère la prise de connaissance de graphique en absence de vision et ce afin
de s’en inspirer pour guider l’exploration avec le prototype. Tactos, à l’instar de ces dispositifs,
procure les moyens d’approfondir la question de l’identification de stratégies et de leur possible
facilitation par le dispositif.
5
METHODOLOGIE
La méthodologie de ce travail repose sur une étude longitudinale réalisée auprès de deux adultes,
et de quatre collégiens non-voyants. L’étude procède en deux étapes. La première étape, de nature
exploratoire et préparatoire, a été réalisée auprès des deux adultes non-voyants. La deuxième est
conduite auprès des quatre collégiens, tout en prolongeant la collaboration avec les deux adultes. Nous
avons privilégié le suivi individuel afin de caractériser les stratégies dans leur variabilité, leur
évolution et leur convergence éventuelle.
Une fois identifiées les conditions de l’efficacité d’une stratégie, sa facilitation pourra être
suggérée par des fonctionnalités (incorporation d’action par l’interface, comme la fonction zoom) ou
par une transposition didactique. Ces assistances et apprentissage à l’activité perceptivo-cognitive
seront à leur tour soumis à de nouveaux tests.
Parallèlement à ces investigations sur la perception de formes, un travail régulier d’amélioration
des objets de l’interface (boîtes de dialogue, menus, raccourcis clavier, barre d’état, feed-back sonores)
est réalisé avec le concours expert de nos partenaires adultes non-voyants. Ce travail bénéficie
également des résultats de recherche de deux autres thèses, l’une portant sur la fonction zoom, l’autre
sur les effecteurs (stylet, souris, track-ball) et les champs récepteurs (cf. matériel).
Ces spécifications successives de l’interface auront pour horizon une mise à l’épreuve finale lors
d’un cours individuel de géométrie.
320
EPIQUE’2003
5.1 Sujets
Deux sujets adultes : une femme âgée de 55 ans, et un homme âgé de 53 ans.
Quatre collégiens âgés de 13 à 14 ans. Un collégien et une collégienne en intégration et deux
collégiennes scolarisées dans un centre spécialisé.
5.2 Matériel
Tactos est un logiciel qui fonctionne sous environnement Windows et permet d’explorer les
formes bi-dimensionnelles présentes à l’écran. L’interface comporte un stylet, une tablette graphique
et une sortie braille de deux ou quatre cellules de huit picots. Le stylet commande les déplacements
d’une matrice dont on peut faire varier la taille, la forme et le nombre de champs récepteurs (cf.
tableau 1). Le croisement d’au moins un pixel noir déclenche l’activation des picots. Le sujet manie
d’une main le stylet, sa main libre est placée sur les cellules brailles.
5.3 Étape 1 : exploratoire et préparatoire
5.3.1 Phase de familiarisation
Au cours des trois premières séances, les sujets ont été, d’une part, familiarisés avec le dispositif
(matériel et logiciel) et, d’autre part, entraînés à la reconnaissance de formes élémentaires telles que
des droites ou des petites courbes.
5.3.2 Phase d’apprentissage
Dans une seconde phase (cinq séances) proche des situations expérimentales, nous avons, au titre
d’un apprentissage, proposé aux sujets des tâches dont la catégorisation est inspirée de « the child
conception of geometry » (Szeminska, Inhelder & Piaget, 1970) : tâches de mesure et de représentation
de position, tâches de conservation des longueurs, tâches de discrimination angle-courbe.
5.3.3 Phase expérimentale (5 séances)
Deux séances ont été consacrées à des tâches de reconnaissance de polygones et trois séances à la
discrimination de courbes dans un repère avec un degré de difficulté évoluant de la localisation de la
courbe dans un cadran à la précision de son lieu d’intersection avec les axes.
5.4 Résultats de l’étape 1
Cette phase a permis de montrer que la lecture de formes géométriques et de courbes dans des
repères étaient possibles.
Ont été identifiés trois types de suivis : le suivi continu, le micro-balayage, le tapotement latéral.
Le recours relatif à l’un ou à l’autre de ces mouvements définit un style exploratoire propre à chaque
sujet.
Les stratégies sont également influencées par la tâche. Dès qu’il en a la possibilité, le sujet utilise
des stratégies plus économiques que le suivi intégral. Par exemple, pour déterminer dans quelle partie
du repère se trouve une courbe dont l’orientation varie, les mouvements exploratoires de suivi font
place à des traçages hypothético-déductifs. La stratégie consiste alors à identifier le repère, accrocher
la courbe et localiser par là sa position ; puis tracer une horizontale et une verticale et, en fonction du
nombre d’intersections, déduire l’orientation de la courbe. Cependant, cette stratégie donne lieu à des
confusions entre courbe et repère. En introduisant une distinction de signal entre la courbe et le repère
par le marquage sonore de ce dernier, il a été possible de dissiper ces confusions.
Il a également été démontré que les difficultés dans l’exploration, par exemple les situations
d’insistance et de perdition au niveau des sommets de polygones, pouvaient être surmontées par le
marquage sonore des sommets.
Dans ces deux situations, l’usage de la bi-modalité est venu pallier les limites des stratégies, soit
en signifiant une différence de statut entre courbe et repère, soit en rendant saillantes les propriétés
géométriques de la figure (Ali Ammar & al., 2002).
EPIQUE’2003
321
5.5 Étape 2 5.5.1 Exploration de formes géométriques sur papier thermoformé (2 séances)
Les stratégies exploratoires étant au centre de nos investigations, afin de mieux les qualifier nous
les confrontons à l’exploration en « mode naturel ». Sachant qu’avec Tactos le nombre de points de
contact est pour le moment limité à un (il correspond à la position de la pointe du stylet sur la tablette),
que les mouvements exploratoires sont essentiellement de suivi et les interruptions fréquentes, nous en
avons déduit une grille d’analyse des enregistrements vidéo des quatre collégiens explorant les formes
en relief.
5.5.2 Phase de familiarisation avec le dispositif (3 séances)
Les collégiens ont été initiés au maniement autonome de l’interface. Les différents composants
ont été présentés et il leur a été remis un document rassemblant l’ensemble des raccourcis clavier
propres à Tactos.
5.5.3 Entraînement au suivi continu de lignes (3 séances)
Étant donné que le suivi continu permet de rester en contact le plus longtemps possible avec la
forme, ce qui a l’avantage de limiter le nombre de perditions, nous avons suggéré aux quatre
collégiens ce type de mouvement exploratoire. Les figures proposées étaient des lignes, des formes
composées de deux segments, des triangles, des carrés et des formes curvilignes.
5.5.4 Phase expérimentale
Cette partie regroupe cinq sessions tests. Chaque session comporte un entraînement consistant à
suivre une horizontale, une verticale et une oblique, puis le sujet doit ensuite reconnaître quatre formes
qui sont un quadrilatère, une forme ouverte de deux segments, un triangle et une courbe.
5.6 Premiers résultats de l’étape 2
Les premières analyses des trajectoires nous ont amenés à pointer les problèmes rencontrés lors
de l’exploration : erreur de discrimination droite-courbe, erreur de mesure d’angle, non détection d’un
changement de direction, non détection d’un embranchement, erreur d’assemblage (deux demi-cercles
peuvent former un cercle ou une vague), erreur d’incomplétude (un angle droit à la place du T), erreur
de doublage (un triangle devient losange ou parallélogramme) et erreur d’inversion (la figure perçue
est la même mais pivotée). Ces erreurs doivent être rapprochées des problèmes plus fondamentaux que
pose Tactos comme la difficulté à se construire une mémoire topologique de la scène explorée.
5.7 Prochaines séances prévues
Nous nous demandons si avec de l’entraînement il est possible de diminuer l’occurrence des
erreurs mentionnées. Les cinq prochaines séances prévues vont donc porter sur la discrimination
d’angles, de frises (pour les changements fréquents d’orientation), de lettres (pour les
embranchements) et de courbes. Une séance finale intégrant ces différents éléments sera proposée.
6
CONCLUSION
Pour favoriser la lecture de formes numériques 2D, ont été testés jusque là trois types de
solutions : le recours à une fonctionnalité (le marquage sonore ), la suggestion d’un type de
mouvement exploratoire et enfin l’entraînement systématique. Le groupe suppléance perceptive
envisage actuellement d’autres fonctionnalités (par exemple le système œil-main qui donne la position
du point de contact dans l’espace d’exploration), les résultats de l’analyse des stratégies permettront de
traduire ces solutions en hypothèses expérimentales.
7 BIBLIOGRAPHIE
Aaronson, D. & Gabias, P. (1987). Computer use by the visually impaired. Behavior Research and
Methods, Instruments & Computers, 19(2), 275-282.
322
EPIQUE’2003
Ali Ammar, A., Gapenne O., Lenay, C. & Stewart, J. (2002). Effect of bimodality on the perception of
2D forms by means of specific assistive technology for blind persons. In Proceedings of the
Conference on Assistive Technology for Vision and Hearing Impairement (CVHI’2002). Granada,
Spain
Bach y Rita, P. (1972). Brain mechanism in sensory substitution. New York : Academic Press.
Bach y Rita, P., Tyler, M. E., Kaczmarek, K. A. (2003). Seeing with the brain. International Journal of
Human Computer Interaction, 15(2), 285-295. Laurence Erlbaum Associates Inc.
Burger, D. (1993). Les handicapés visuels face à l'informatique. In J. C. Spérandio (Ed.), L'ergonomie
dans la conception des projets informatiques (1 ed., pp. 247-263). Octarès.
Burger, D. & Spérandio, J. C. (1993). Préface. In D. Burger & J.C. Spérandio (Eds.), Non-Visual
Human-Computer Interaction : Prospects for the visually handicapped (pp. 7). Paris: John Libbey
Eurotext & Les Editions Inserm.
Gapenne, O., Lenay, C. & Boullier, D. (2001). Assistance, Suppléance et Substitution : trois modalités
distinctes du couplage Humain/Technique. In proceedings of the Conference JIM’2001. Metz,
France
Gaunet, F. (2002). Overview of research on the notion of space in blind people. Oral communication.
Third Workshop on the genesis of perception and the notion of space in machines and humans.
Paris.
Goody, J. (1979). La raison graphique, la domestication de la pensée sauvage. Paris : Editions de
Minuit.
Hatwell, Y. (2000). Les procédures manuelles d’exploration chez l’enfant et l’adulte. In Y. Hatwell, A.
Streri & E. Gentaz (Eds.), Toucher pour connaître (pp.287-306). Paris : Presses Universitaires de
France.
Hatwell, Y.(2002). Le développement perceptivo-moteur de l’enfant aveugle. Oral communication.
Congrès APSLF. Rouen, France.
Jansson, G. The Importance of available Exploration Methods for the Efficiency of Haptic Displays.
Available at: http://www.ida.liu.se/~ssomc/papers/Jansson.pdf.
Jaws for windows. Available at :
http://www.freedomscientific.com/fs_products/software_jaws.asp
Kaczmarek K. A. & Bach-y-Rita P. (1995). Tactile Displays. In W. Barfield & T. A. Furness (Eds),
Virtual environments and advanced interface design, (pp. 349-341). New York: Oxford
University Press.
Landau, B. (1988). The construction and use of spatial knowledge in blind and sighted children. In J.
Stiles-Davis, M. Kritchevski & U. Bellugi (Eds.), Spatial Cognition: Brain Bases and
Development (pp.343-371). Hillsdale, New Jersey: Lawrence Erlbaum Associates.
Lederman, S. J. & Klatzky R. L. (1987). Hand mouvements: A window into haptic object recognition.
Cognitive Psychology, 19,. 342-368.
Lenay, C., Gapenne, O., Hanneton, S., Marque, C. & Genouel, C. (2000). La substitution sensorielle
limites et perspectives. In Y. Hatwell, A. Streri & E. Gentaz (Eds.), Toucher pour connaître
(pp.287-306). Paris : Presses Universitaires de France.
Les technologies d'assistance. Available at:
http://www.uqtr.uquebec.ca/laridi/documents/PolyhandicapYves_fichiers/frame.htm.
O’Regan, K.J. & Noë, A. (2001). A sensorimotor account of vision and visual consciousness.
Behavioral and Brain Sciences, 24(5).
Ramloll, R. & Brewster, S. (2002). A Generic Approach for Augmenting Tactile Diagrams with
Spatial Non-Speech Sounds. In Proceedings of the CHI2002. Minneapolis, Minnesota, USA.
Stevens, R. D., Edwards, A.D. N. & Harling P. A. (1997). Access to mathematics for Visually
Disabled Students Through Multimodal Interaction. Human Computer Interaction : Multimodal
Interface, 12. London : Lawrence Erlbaum Associates Publisher.
Szeminska, A., Inhelder, B. & Piaget J. (1970). The child conception of geometry. New York: Basic
books.
Tall, D. (1992). Enseignement de l’analyse à l’âge de l’informatique. In B. Cornu (Ed.), L’ordinateur
pour enseigner les maths (pp. 159-182). Paris : Presses Universitaires de France.
Vergnaud, G. (2001). Piaget visité par la didactique. In J. Montangero (Ed.), Piaget et les Sciences
Cognitives, (pp. 107-123). Intellectica, 33.
EPIQUE’2003
323
World Wide Web Consortium. (1999). Available at: http://www.w3.org/TR/WAI-WEBCONTENT
324
EPIQUE’2003
La gestion des conflits d’objectifs dans les activités
à risques : la conduite d’installations nucléaires
Pierre Letzkus
Doctorant CEA / TECHNICATOME* / Université de Toulouse le Mirail**
Centre d’Etudes de Cadarache
DER/STR/LCFR – Bât. 208, 13108 St Paul lez Durance
[email protected]
RESUME
L’étude des conflits d’objectifs dans la conduite de processus à risques est très récente. Elle considère ces
situations comme des facteurs aggravants dans l’activité des opérateurs. Cette étude empirique recherche, par
l’analyse des origines et des effets des conflits d’objectifs, à définir des aides pour éviter ou gérer ces situations,
tant à la conception qu’à l’exploitation d’installations nucléaires. L’identification et la compréhension des
processus de gestion par compromis ou innovation font partie de ces axes de recherche.
MOTS-CLES
conflit d’objectifs, prise de décision, environnement dynamique, hiérarchisation, sûreté de fonctionnement.
1
INTRODUCTION
La gestion des conflits d’objectifs fait partie des situations que rencontrent les opérateurs en
charge de la conduite d’installations nucléaires. Pour y faire face, ils ne disposent pas toujours de
moyens adéquats permettant l’identification des objectifs en conflit (interfaces de conduite,
documentation...). L’aide que l’on cherche à apporter aux opérateurs demande que l’on s’intéresse aux
types de conflits qu’ils peuvent rencontrer dans leur activité, et à la perception qu’ils en ont. Pour cela,
nous baserons sur l’observation de la résolution d’une situation incidentelle à dynamique rapide par
une équipe de conduite de réacteur. Cette situation présentera une situation conflictuelle potentielle.
Nous tenterons, à partir de nos observations d’identifier les conflits d’objectifs que rencontreront les
opérateurs, la perception qu’ils en ont, et le type de stratégie retenue pour les gérer.
1.1 Les objectifs dans la conduite de systèmes complexes
La compréhension des conflits d’objectifs demande une identification préalable des objectifs.
Nous intéressant dans cette étude à la conduite d’une installation nucléaire embarquée, nous opérerons
une première distinction entre les objectifs de conduite et fonctionnement du système et ceux des
opérateurs.
Pour un système industriel, les objectifs sont l’ensemble des exigences à satisfaire et qui y entrent
en jeu dans son exploitation. Ils sont définis lors de la conception, puis recherchés à être maintenus en
exploitation. Les objectifs que nous retiendrons pour notre étude sont ceux appartenant à la Sûreté de
Fonctionnement de systèmes à risques, (Mortureux, 2001). Nous retiendrons ici ceux qui présentent un
intérêt pour cette étude : la sûreté (capacité du réacteur à éviter la dégradation de son environnement),
la disponibilité (aptitude à pouvoir répondre à tout moment à une demande de fourniture de
puissance), la maintenabilité (aptitude d’un système à être remis en état, par une maintenance donnée,
en termes de rapidité de recouvrement de la disponibilité en vue d’accomplir des fonctions requises
dans les conditions données), la productivité (aptitude d’un réacteur à pouvoir fournir ce dont il est
capable à un moment et dans des conditions données), et la sécurité (aptitude d’un système à ne pas
causer de dommages matériels ou humains).
Les hommes ont aussi des objectifs dans leur activité. Il est déjà plus difficile de définir
l’ensemble des objectifs humains car bien que les objectifs professionnels puissent être rattachés à leur
activité, les objectifs personnels présentent une variété bien plus étendue. Une approche des objectifs
*
Equipe Facteurs Humains, BP34000, 13791 Aix en Provence Cedex 3
Laboratoire Travail et Cognition, UMR CNRS 5551, Maison de la recherche, 31058 Toulouse Cédex 01.
**
EPIQUE’2003
325
personnels est cependant possible si l’on se réfère aux objectifs de survie (Rasmussen, 1990,
Amalberti, 2001), lesquels se caractérisent par des finalités variables en fonction du temps disponible.
Stratégiquement, à court terme ces objectifs de survie tentent d’éviter les erreurs ou les situations
fatales, et recherchent à long terme à économiser les ressources de l’individu. D’autres types
d’objectifs, sociaux ou individuels, participent aussi à l’activité humaine, et sont ici aussi, source
d’objectifs personnels : la recherche d’une désirabilité sociale (renvoyer une « bonne image » de soi),
les valeurs protégées (spécifiques à l’éthique personnelle et professionnelle) ou encore la recherche
et/ou le maintient d’un pouvoir ou d’une ascendance sur son entourage.
1.2 Les conflits d’objectifs
A partir des objectifs précédemment cités, nous définirons un conflit d’objectifs comme une
situation dans laquelle la satisfaction d’un objectif se voit dégradée lorsque celle d’un autre objectif est
modifiée. Par exemple, si la sûreté d’une installation est menacée, il convient de mettre en œuvre des
procédures de plus en plus restrictives. Cette progression dans le durcissement des procédures
dégradera la satisfaction des objectifs de disponibilité et de productivité. Dans l’industrie nucléaire, la
satisfaction de la sûreté est l’objectif majeur. C’est pourquoi depuis les choix de conception des
installations nucléaires jusqu’à la formation des personnels qui en ont la charge, l’objectif prioritaire
de la conduite revient à toujours devoir assurer la sûreté. C’est dans ce sens que sont rédigés les
documents d’exploitation, issus des règles édictées par les autorités de sûreté : « La culture de sûreté
est l'ensemble des caractéristiques et des attitudes qui, dans les organismes et chez les individus, font
que les questions relatives à la sûreté de toutes les installations bénéficient, en priorité, de l'attention
qu'elles méritent en raison de leur importance. (Principe n°1) » (INSAG-4, 1991).
Bien qu’une installation à risques possède une finalité de production, elle est aussi conçue à
l’origine pour être sûre (Doniol-Shaw, 1996). Cette finalité de production est prise en compte par les
concepteurs qui font en sorte de rendre compatibles les exigences de sûreté avec celles de productivité.
Cependant il existe des situations particulières dans lesquelles la sûreté n’est plus un objectif
prioritaire. Ceci peut être causé, par exemple, par des conflits entre les objectifs des opérateurs et ceux
de l’installation. Ces situations ne sont pas nécessairement voulues et sont bien souvent associées des
transgressions réglementaires alors qu’elles correspondent chez l’opérateur à une volonté de « bien
faire » (Doniol-Shaw, 1996). Les conflits d’objectifs peuvent aussi provenir de la logique de
fonctionnement d’un système et prendre la forme de dilemmes chez les opérateurs (appliquer dans une
situation particulière des consignes de sûreté pouvant dégrader encore plus celle-ci).
Cette mise en balance entre différents objectifs et la sûreté est très grave pour les autorités de
sûreté nucléaire, pour qui cela doit être absolument évité. Cependant, ces situations semblent
inévitables. Par exemple, Reason (1993) dans sa représentation de la décision erronée montre que les
objectifs de production et de sécurité sont clairement compatibles sur le long terme, mais que puisque
les ressources sont finies, les chances pour qu’il existe des conflits d’intérêts sont nombreuses. Dans
pareilles situations, les ressources qui seront allouées pour satisfaire les conditions de production
risquent de diminuer celles de la sécurité ou l’inverse. Ainsi, le décideur (opérateur, chef d’équipe,
directeur…) se retrouve dans une situation délicate où le retour de ses investissements ne se présente
pas de la même façon. Les efforts concédés à la sûreté vont dans le sens de la réduction des incidents,
des blessures du personnel. C’est donc une réussite qui ne se remarque pas. Reason parle alors de
réussite indiquée négativement (par l’absence de problèmes). Par contre, les efforts consentis à
l’amélioration de la production sont en retour bien plus facilement quantifiable, comme la réduction
des coûts de production et l’augmentation des marges bénéficiaires. Il en découle que les décideurs qui
se retrouvent face à ce paradoxe vont montrer une tendance à choisir les options qui permettent
d’obtenir des résultats « quantifiables». Par contre, en ce qui concerne l’activité, le conflit d’objectif
prend la forme d’un dilemme opératoire chez l’opérateur pour faire face aux évènements. « Quelle que
soit sa manière de s'y prendre, il est pris en défaut. Alors il "tranche" en faveur du défaut qui lui
paraît le plus acceptable et le moins pénalisant. Or, c'est la sécurité qui fait généralement les frais de
l'arbitrage réalisé » (Benchekroun, Bourgeois & Hubault, 2002). Nous nous retrouvons ici face à un
constat où d’un côté le prescrit « normatif » définissant des règles absolues de sûreté apparaît être
dépassé par la réalité de terrain, où ces règles sont discutées, contournées, transformées (Doniol-Shaw,
1996). On peut alors se demander comment si peu d’incidents graves ont lieu. Rochlin, LaPorte et
326
EPIQUE’2003
Roberts (1987) pensent que la réponse tient dans les dispositifs techniques et organisationnels mis en
œuvre : redondance, décentralisation, responsabilisation, culture de sûreté, apprentissage.... Ces
auteurs voient ainsi dans les centrales nucléaires des « Organisations à Haute Fiabilité ». Ils en veulent
pour preuve la rareté des accidents nucléaires et les probabilités très faibles de défaillance du système,
au point qu’il est question de « systèmes ultra-sûrs » (Amalberti, 2001). Ainsi il est possible de gérer la
complexité des technologies à hauts risques par le biais d’une robustesse organisationnelle résultant de
l’ensemble de ces dispositifs techniques et organisationnels.
2
PROBLEMATIQUE
Nous venons de voir que la sûreté est un objectif qui peut être mis en balance avec d’autres
objectifs dans certaines situations. En effet, cet objectif prioritaire pour les concepteurs et les autorités
de sûreté ne l’est plus pour les opérateurs au cours de l’activité. On peut alors se poser la question du
mécanisme rendant possible un tel renversement. Comment, chez un individu, la compréhension de la
situation et sa dynamique peuvent avoir un effet sur la perception du conflit, et biaiser de fait la
décision en situation opérationnelle ? Existe-t-il dans une équipe de conduite, des régulations qui
permettent d’éviter ce type de biais ? L’identification de ces mécanismes de régulation ou de ces biais
empêchant la détection de conflit permettraient de proposer des orientations de conception destinées à
améliorer la sûreté dans l’exploitation d’installations à risques.
3
EXPERIMENTATION
La démarche que nous avons retenue pour cette étude consistait à reprendre les données brutes
(enregistrements vidéo) d’exercices de résolution d’incidents réalisés sur un simulateur de sous-marin
nucléaire. Ces exercices ont été réalisés par Technicatome au cours d’une étude précédente (Salazar &
Guillermain, 1996) portant sur l’analyse de l’activité d’opérateurs de conduite de réacteurs. L’analyse
des observations se fera par l’intermédiaire de CATCH1, un modèle créé pour représenter et
comprendre les conflits. Pour cela, dix équipes de quatre opérateurs (un Chef de Quart supervisant
trois autre opérateurs) ont réalisé un exercice de résolution incidentelle sur un simulateur pleine
échelle.
3.1 Situation expérimentale
Dans cette expérimentation, une pollution corrosive se déclare sur le circuit de production de la
vapeur servant à propulser le sous-marin. Ce circuit est constitué de deux réservoirs d’eau, de deux
pompes principales alimentant un générateur de vapeur, et de deux pompes de secours. L’ensemble de
l’installation est ensuite réparti par bords (bâbord et tribord), comme sur le schéma (simplifié pour des
raisons de confidentilaité) ci-dessous :
Réservoir
Bd
Réservoir
Td
Pompe
principale Bd
(PAA)
Pompe
principale Td
(PAA)
Générateur de
vapeur (GV)
Pompes de secours
Bd et Td (EPAD)
Schéma 1 : Répartition par bords des moyens permettant d’assurer la disponibilité propulsion
d’un sous-marin nucléaire
1
CATCH (Comportement de l’Axe pour Trouver une Conduite Homogène) est un modèle développé pour cette
recherche visant à représenter les conflits d’objectifs. CATCH représente les objectifs en conflit sous la forme
d’une « balance » dont l’axe n’est pas fixe et possède plusieurs logiques de fonctionnement et de placement.
Ces différentes façons de placer les axes permettent de représenter, pour une même situation, la situation telle
qu’elle est dans la réalité, et telle qu’elle est perçue. La différence de placement des axes montre alors que les
effets obtenus et attendus ne sont pas les mêmes.
EPIQUE’2003
327
La situation expérimentale était soit simple, soit complexe, et faisait intervenir une pollution aux
chlorures dans les circuits d’eau servant à la production de vapeur (et donc d’énergie). Dans la
situation simple, la pollution est déclarée sur un des réservoirs d’eau servant à la propulsion du sousmarin. Le circuit d’alimentation en eau et ses composants sont entièrement disponibles et sans
limitation d’usage. La gestion de la situation se fait alors sans contrainte supplémentaire. Dans la
situation complexe, tous les moyens pour gérer la situation ne sont pas disponibles : une pompe
principale au bord opposé à celui de la pollution est perdue.
Toute la difficulté de la situation pour les équipes de conduite passe par la réalisation de deux
objectifs : éviter la propagation de la pollution vers le générateur de vapeur (au risque d’une corrosion
pouvant provoquer une fuite entre un circuit d’eau «radioactive » et ce circuit d’eau), et assurer à ce
générateur de vapeur une alimentation en eau suffisante. Les deux pompes principales doivent assurer
ensemble l’alimentation en eau, sans quoi le générateur de vapeur s’assèche rapidement. En cas de
perte d’une pompe principale, il est possible d’utiliser conjointement les deux pompes de secours, plus
petites, pour remplacer une pompe principale défaillante. La complexité de cette situation fait que l’on
s’attend à ce que les opérateurs n’utiliseront pas les deux pompes de secours pour remplacer la pompe
principale défaillante à cause d’une mauvaise représentation mentale causée par la séparation par bord
des moyens disponibles, alors que le système est conçu de façon à pouvoir utiliser pour un bord les
éléments du bord opposé.
4
RESULTATS DES OBSERVATIONS
La résolution de situation incidentelle analysée sur bande vidéo, qu’elle soit simple ou complexe,
montre qu’un conflit d’objectif peut émerger pour plusieurs raisons : l’insuffisance des interfaces
hommes-machines, incohérences de la documentation, mauvaise représentation mentale, erreurs de
manipulations, difficultés de rattrapage d’erreurs. Quantitativement on remarquera le lien existant
entre la complexité d’une situation et la probabilité d’apparition d’un conflit pour les équipes de
conduite :
simple
4.1.1.1 Situation
incidentell
e
Présence de conflit
oui
non
2
1
complexe
6
1
Tableau 1 : nombre d’équipes confrontées à des conflits d’objectifs
selon la complexité de la situation incidentelle
Nous n’avons pas trouvé de lien probant entre la réussite dans la gestion de la situation et sa
complexité : la grande majorité des équipes (7 sur 10) a réussi à gérer plus ou moins efficacement la
situation, qu’elle soit complexe ou non.
Les facteurs déclenchant l’apparition de conflits tiennent en premier lieu à des problèmes de
représentation de l’installation et des moyens à disposition. La répartition nominative par bords des
composants du système prend le sens chez les opérateurs d’une véritable séparation fonctionnelle. Ce
clivage dans le modèle mental des opérateurs les amène alors à considérer qu’il n’est pas possible
d’utiliser les deux pompes de secours (EPAD) pour pallier la perte d’une pompe principale (PAA). Ce
clivage et la réduction de l’espace problème qui en résulte ont pour conséquence pour les opérateurs
d’employer une stratégie de gestion du conflit de type « compromis », alors qu’une meilleure
représentation de la situation leur permettrait de trouver une solution innovante, passant par
l’utilisation des EPAD. Cependant, si des équipes pensent à utiliser les EPAD, elles finissent par
appliquer différentes stratégies (lorsque leur représentation est modifiée par cet effet de clivage) qui
leur fait démarrer ces deux pompes puis arrêter quelque temps plus tard celle du côté du bord pollué,
mettant alors à mal la disponibilité en sous-alimentant le générateur de vapeur.
Le c o m p r o m i s se caractérise par l’emploi d’un moyen de conduite ou d'un mode de
fonctionnement commun aux objectifs en conflit. Par notre méthode de représentation des conflits
(CATCH) nous symbolisons le compromis par un déplacement vertical et conjoint (action positive ou
négative du moyen employé) des deux indicateurs de performance des objectifs :
328
EPIQUE’2003
Situation de départ
La situation présentée ici correspond à un incident de type
complexe caractérisé par l’indisponibilité d’une pompe
principale sur un bord et l’apparition d’une pollution aux
chlorures sur l’autre bord.
Performance
+
-
MD
LP
Gérer le conflit par le
compromis
Performance
+
PAA
-
MD
LP
Gérer le conflit par
Performance
l’innovation
+
EPAD
-
MD
Au départ, l’état idéal pour les deux objectifs MD (maintien de
la disponibilité) et LP (limitation de la pollution) est le suivant :
pas de pollution (LP minimal) et les deux pompes principales
sont en fonction (MD nominal). La droite de satisfaction de ces
objectifs doit être conservée horizontale pour que la situation
soit nominale.
Lors de la déclaration de pollution, les opérateurs réduisent la
vitesse du sous-marin pour réduire la propagation. Ils coupent
aussi la pompe principale (PAA) du bord pollué. Ceci a pour
effet de réduire la disponibilité consécutive à la perte
d'alimentation en eau du Générateur de Vapeur. L’état des
objectifs correspondant à ces actions est représenté en gris.
Comme l'autre PAA est déclarée indisponible, les équipes
décident d’utiliser la PAA du bord pollué selon les besoins de la
disponibilité. Ceci a pour effet de restaurer la disponibilité et la
propagation de la pollution par la même occasion (représenté ici
en noir).
Sortir du conflit revient à utiliser des moyens spécifiques à un
objectif pour le rétablir sans qu’il y ait d’effet sur l’autre
objectif. L’utilisation des deux EPAD permet alors d’éviter la
propagation des chlores et d’assurer pleinement l’objectif de
disponibilité (alimentation suffisante du Générateur de Vapeur
en eau). Cette utilisation d’un moyen spécifique à l’objectif de
Disponibilité est symbolisée par la ligne pointillée grise, faisant
la satisfaction des objectifs à leur état initial (en noir).
LP
Lorsque les opérateurs n’utilisent pas les deux EPAD, ils se retrouvent obligatoirement dans une
situation conflictuelle. D’autres facteurs jouent en faveur ou en défaveur des équipes, pour gérer alors
la situation dans ce scénario :
• le leadership du chef de quart : les plus mauvaises performances ont été obtenues par les
équipes manquant de cohésion, où le Chef de Quart prenait des décision unilatéralement et
sans en avertir son équipe
• les erreurs d’actions, tenant essentiellement à des reconfigurations de circuits hydrauliques
complexes ou lorsque le nombre d’actions à réaliser devenait trop important pour le temps
disponible,
• le mauvais support documentaire où plusieurs documents de conduite devaient être recoupés
pour comprendre les systèmes hydrauliques à reconfigurer, des consignes différentes pour une
même situation selon les documents utilisés,
• des objectifs personnels ou de faux objectifs, créant de faux conflits chez les chefs de quart.
Par exemple la recherche de l’origine de la pollution tout en essayant de la circonscrire ou
alors la focalisation sur la recherche de la pollution quitte à ignorer la satisfaction des autres
objectifs.
En définitive, le soutien de l’équipe est essentiel pour le chef de quart. Celui-ci ne dispose pas de
supports pour gérer la situation, l’obligeant alors à tout réaliser « de tête ». Ceci est d’autant plus
EPIQUE’2003
329
pénalisant qu’il a en charge le suivi des différents objectifs de conduite, et de fait, la gestion des
conflits d’objectifs.
5
DISCUSSION : RESOLUTION, ECHEC OU POURSUITE DU CONFLIT
Les situations observées ont permit de montrer l’impact des conflits d’objectifs sur les
performances de récupération de situations incidentelles par des collectifs. Elles montrent que le chef
de quart est l’opérateur en première ligne pour gérer les objectifs de haut niveau (sûreté, disponibilité).
Ce résultat est d’autant plus important qu’il permet de cibler la position de l’opérateur à privilégier
dans la gestion des conflits d’objectifs car elle est directement liée à la représentation de la situation.
Concernant la résolution, quatre modes ont été identifiés. La résolution triviale est une résolution
simple et immédiate du conflit et n'a rien à voir avec la complexité du conflit. Viennent ensuite trois
modes de résolution non triviaux qui nécessitent une série d'actions à la complexité variable pour
gérer la situation. L’innovation fait appel à des moyens ou des méthodes qui, soit ne sont pas prévues
initialement pour cela (hors espace problème), soit par une combinaison qui n’avait jamais été
envisagée des moyens à disposition (effet de la réduction de l’espace problème). Le compromis est
une résolution (souvent employée) par laquelle il est recherché un état d'équilibre n’apportant qu’une
satisfaction moyenne de l'ensemble des objectifs en conflits. Enfin, le choix est une hiérarchisation
dans laquelle un objectif est défini comme prioritaire et sera alors satisfait au détriment des autres. La
finalité de ces stratégies est alors soit une réussite, soit un échec, soit un report. Le report concerne
essentiellement les gestions par compromis ou par choix pour lesquelles il faudra revenir à une
satisfaction optimale des objectifs par de nouvelles stratégies de résolution. Nous nous intéresserons
ici aux modes de gestion par compromis et par innovation.
La gestion par compromis ou innovation a pour origine la représentation de la situation. La
fréquence du recours au compromis en fait de celui-ci le mode de gestion « naturel » de l’opérateur. Il
lui permet d’opérer de manière générale dans une « enveloppe » de degrés de liberté qui traduit ellemême les compromis entre le coût cognitif et l’efficacité. Cette stratégie bénéficie alors des capacités
métacognitives de l’individu (Valot, Grau & Amalberti, 1992). Cependant, nous estimons que dans la
gestion d’un conflit, le recours à une stratégie de compromis représente aussi un échec de la réduction
de l’espace problème. Cet échec conduit les opérateurs à n’utiliser que les moyens qu’ils pensent avoir
à disposition. Ceci les oriente alors sur des solutions sous optimales qu’ils estiment satisfaisantes.
Dans la situation étudiée, cela revient alors à composer avec les règles et les degrés de liberté, par
exemple en choisissant l’option de « polluer modérément » le générateur de vapeur. L’évaluation de la
« modération » de la pollution est alors très variable d’un Chef de Quart à un autre. Il est cependant
possible de bénéficier d’un effet positif de la réduction de l’espace problème pour trouver des solutions
innovantes. Cependant elles semblent d’autant plus difficile à obtenir en situation à dynamique rapide
que les performances qu’elles proposent sont optimales.
6
CONCLUSION
Au cours de notre étude, nous avons pu observer chez les opérateurs la réalisation d’actions
opposées et grandement répétées. Les études de Technicatome précédemment réalisées en faisaient
aussi état en signalant les aspect aggravants quelles présentaient pour la sûreté (augmentation de la
charge de travail et donc du nombre d’erreurs de manipulations). Nous pensons que cette activité est
issue d’une gestion par compromis et est soutenue par deux facteurs. Le premier concerne cette
activité « en boucle » qui requiert une attention importante. Elle provient d’une alternance du point de
vue de l’état d’une fonction, témoignant pour l’opérateur d’un manque de vision synthétique du
process. L’autre est une manifestation du stress en situation opérationnelle, connu pour réduire
l’espace attentionnel à quelques actions et paramètres, et ceci d’autant plus que la pression temporelle
s’accentue, ou de l’ambiance de travail. Ainsi, il a été observé de nombreux démarrages et arrêts de la
PAA du bord pollué. Dans un premier temps, la PAA est mise en marche pour satisfaire la
disponibilité, puis elle est arrêtée pour éviter que la pollution se propage. La pompe est alors remise en
marche pour éviter l’assèchement du générateur de vapeur. Le point d’arrêt réside alors soit dans
l’utilisation des deux EPAD, soit l’isolement de la source de pollution. Ces actions opposées
présentent ici aussi un des facteurs aggravant que peuvent apporter des conflits d’objectifs mal gérés.
En définitive, les situations observées montrent qu’il est possible d’apporter un soutien en améliorant
330
EPIQUE’2003
la représentation mentale de l’installation et de la situation aux opérateurs, sans nécessairement passer
par une représentation des objectifs puisque ces derniers manquent en général du recul nécessaire pour
pouvoir les évaluer.
7 BIBLIOGRAPHIE
Amalberti, R. (2001). La conduite de systèmes à risques, PUF, coll. Le Travail Humain.
Benchekroun, H., Bourgeois, F., Hubault, F. (2002). Comment aider l'encadrement de proximité à
faire des arbitrages face à des situations à risques ? in Actes du 37e congrès de la SELF d'Aix en
Provence "Les évolutions de la prescription", pp. 376-384. Greact Ed. CEA (2002). Rapport interne de Sûreté 2002, Direction de la sûreté Nucléaire et de la Qualité
(DSNQ).
Doniol-Shaw, G. (1996), Les potentialités de conflit entre la sécurité et les finalités de l'entreprise, in
Llory M. et Heintz JG., Les facteurs Humains et la prévention des risques technologiques. Erreur
humaine et pathologie des organisations. Rapport final. Collège de la Prévention des risques
Technologiques à l'Institut du Travail Humain. Ministère de l'Environnement, Direction de le
Prévention des Pollutions et des Risques.
INSAG-4 (1991).Culture de sûreté. Agence Internationale de l'Energie Atomique - Collection Sécurité
n° 75. AIEA Ed.
Mortureux, Y. (2001). La sûreté de fonctionnement : méthodes pour maîtriser les risques. Techniques
de l’ingénieur, Récupéré sur Internet : http://www.techniquesingénieur.fr/affichage/DispIntro.asp?nGcmid=AG4670
Rasmussen, J. (1990). Taxonomy for cognitive work analysis, Rasmussen J., Brehmer B., de
Montmollin M., Leplat J. (Eds). Proceeding of the First MOHAWC Project, vol. 1, Risø, Rosklide.
Reason, J. (1993). L'erreur humaine (J.M. Hoc, Trad.). Paris: Presses Universitaires de France.
(Édition originale, 1990).
Rochlin G., LaPorte T., Roberts K. (1987). The Self Designing High-Reliability Organization :
Aircraft Carrier Flight Operations at Sea , Naval War College Review, pp. 76-90.
Salazar, P., Guillermain, H. (1996). Rapport OSCAR-SNA. L'activité de conduite de la chaufferie en
situation incidentelle : Incidents sur la physico-chimie du circuit secondaire. Rapport interne
TECHNICATOME n° DE/SER/96-40275 DR (Diffusion Restreinte).
Valot, C., Grau, J.-Y., Amalberti, R. (1992) Les métaconnaissances : des représentations de ses
propres compétences, in A. Weill-Fassina, P. Rabardel et D. Dubois. Représentations pour
l’action, Toulouse : Octarès. pp. 271-293.
EPIQUE’2003
331
332
EPIQUE’2003
Comprendre l’activité collective dans les EVC pour
mieux les concevoir
Joël Tapie
France Telecom Recherche & Développement
Université Toulouse le Mirail – Laboratoire Travail et Cognition
FTR&D/DIH/HDM ; 2, avenue Pierre Marzin
22307, Lannion Cedex, France
[email protected]
RESUME
La conception d’Environnements Virtuels Collaboratifs (EVC) est une pratique récente qui ne peut pas encore
s’appuyer sur les retours d’expérience d’un usage régulier.
Dans l’optique de générer des connaissances utiles à la conception, nous proposons des hypothèses sur la façon
dont les caractéristiques fondamentales de certains outils de collaboration à distance contraignent l’activité
collective. Les caractéristiques évoquées portent sur la représentation de l’utilisateur par un avatar de synthèse et
sur le partage des ressources de l’espace commun distribué. Les hypothèses seront étayées dans le cadre d’une
tâche de prise de décision collective dans le domaine médical.
MOTS-CLES
EVC, avatar, partage, représentation, conception.
1
INTRODUCTION
Le domaine du Travail Coopératif Assisté par Ordinateur2 (TCAO) recouvrent une gamme
étendue d’outils au service d'un travail collectif impliquant des acteurs dont l'interaction est médiée par
un ordinateur. La principale distinction au sein des dispositifs de TCAO oppose les outils synchrones
et les outils asynchrones. Les Environnements Virtuels Collaboratifs (EVC) sont des systèmes de
TCAO synchrones, ils permettent un échange immédiat entre des utilisateurs distants.
Un EVC est un dispositif qui propose un espace de travail distribué entre plusieurs utilisateurs
distants disposants de moyens d'interaction au sein de cet espace. Le lieu virtuel et les ressources
nécessaires à l’activité collective sont partagés entre les utilisateurs distants (Benford, Bowers, Fahlen,
Greenhalg & Snowdon, 1995 ; Benford, Brown, Reynard, & Greenhalg, 1996 ; Bowers, Pycock &
O'Brien, 1996 ; Goebbels & Lalioti, 2001). Cet espace, différent de l’environnement physique des
utilisateurs, constitue un cadre de référence commun pour la réalisation collective de la tâche. En
revanche, les EVC ne se caractérisent pas par les périphériques utilisés (Fuchs, Moreau & Papin,
2001). Les domaines d'applications sont variés : CAO ; Enseignement à distance ; Entraînement,
organisation ou préparation à l'action dans le médical, le militaire ou le sécuritaire ; Installations
artistiques ; Jeux en réseau.
Nous nous intéressons plus particulièrement aux EVC qui sont au croisement des outils de TCAO
et de la Réalité Virtuelle (RV) et au sein desquels les utilisateurs sont représentés par des avatars de
synthèse. La RV est sollicitée, comme souvent (Burkhardt, 2003) pour générer la représentation
numérique d'une scène et d'objets 3D. Un avatar est une représentation graphique fixe ou animée
destinée à symboliser la présence et éventuellement l'activité de l'utilisateur dans la scène. Il s'agit
d'une "instanciation" de l'utilisateur dans l’espace calculé (Bowers et al.,1996). L’objet de notre
recherche est de comprendre comment certaines spécificités des EVC servent et contraignent l’activité
collective afin de dégager des connaissances pour la conception.
Après avoir spécifié ce que recouvrent les notions de collaboration et de coopération, nous
présenterons une situation de référence, laquelle servira de base à nos hypothèses de travail sur le rôle
2
Computer Supported Cooperative Work (CSCW) pour les anglophones.
EPIQUE’2003
333
des avatars et le partage des ressources de l’espace commun. Enfin nous évoquerons les résultats
attendus en terme de connaissances pour la conception d’EVC.
2
COLLABORATION ET COOPERATION
Les termes de collaboration et de coopération ne renvoient pas à la même organisation collective
du travail. Le travail est collaboratif quand tous les acteurs partagent les mêmes sous-tâches. Il est
coopératif quand les acteurs réalisent des sous-tâches différentes dont la somme permettra d'atteindre
le but. Le terme de collaboratif ne préjuge pas des rapports hiérarchiques entre les utilisateurs, ni de la
séquentialité de leurs actions, ni de leurs compétences respectives, ni enfin des informations et outils
assignés à chacun.
Pour Rogalski (1994), il existe un continuum entre la « collaboration » (où les acteurs partagent
une même tâche prescrite) et la « coaction » (où les acteurs ne partagent pas de buts mais des
ressources et l'espace de travail). L’auteur nomme « coopération distribuée » l’ensemble des situations
dans lesquelles les buts immédiats diffèrent mais concourent à l'atteinte d'un même but global.
3
UNE SITUATION DE REFERENCE
Nous abordons l’étude des spécificités des EVC sur le travail collectif en nous appuyant sur une
activité collective de référence, réalisée habituellement en co-présence physique ou par
visioconférence. Cette activité provient de la réunion de plusieurs spécialistes du domaine médical.
Leur objectif commun consiste à décider de la faisabilité et des modalités d'une intervention
chirurgicale sur un patient atteint d'un cancer de l'appareil digestif et plus particulièrement de tumeurs
au foie.
Le diagnostic médical des cas complexes du cancer du foie est une activité collective et
pluridisciplinaire. L'équipe est constituée d'un ou plusieurs chirurgiens de l'appareil digestif, d'un ou
plusieurs médecins cancérologues, d'un radiologue, et éventuellement du médecin généraliste,
susceptible de fournir des informations sur le bilan clinique de son patient (antécédents, tension, état
général, …). Les participants ont par conséquent des spécialités portant sur des organes (appareil
digestif, foie), des techniques (chirurgie, chimiothérapie) ou des pathologies (cancer). Leur métier et
leur spécialité singularisent chacun des membres au sein de l'équipe de diagnostic. Le diagnostic
d'intervention est établi en fonction de critères d'opérabilité. Parmi ces critères, certains prennent en
compte le nombre, la taille et la localisation des tumeurs, l’envahissement du réseau veineux et le
volume de foie sain après résection. La construction d’une stratégie chirurgicale est une tâche de prise
de décision collective, par conséquent une tâche de collaboration (Rogalski, 1994).
4
HYPOTHESES DE TRAVAIL
4.1 Le rôle des avatars sur la représentation d’autrui
Dans l'environnement virtuel, l'avatar animé rend visible des informations statiques qui sont, sans
cela, indiquées à l'oral. A l'instar de l’identité ou de la profession d’un utilisateur, ces informations
n'évoluent pas au fil de l'interaction. Les informations statiques sont fondamentales pour
l'établissement d'une relation interpersonnelle et l'identification des interlocuteurs (Benford & al., 1995
; Gabbard & Hix, 1997). L'avatar rend également visible des informations dynamiques sur l'activité de
l'utilisateur (Pina, Cerezo & Seron, 2000).
Les conséquences de la médiation de la communication est un champ souvent étudié par la
psychologie sociale dans le domaine de la TCAO (Sproull & Kiesler, 1991 ; Sherman, 2001 ; Biocca,
1997). La médiation se traduit dans la communication par un effet de nivellement des représentations
d’autrui. La représentation se construisant sans informations sur le rôle ou le statut de l’interlocuteur
distant, la communication médiée est caractérisée par une diminution des règles sociales (Navarro,
2001; Riva & Galimberti, 1998) et un phénomène de désinhibition du discours (France, Anderson &
Gardner, 2001 ; Kreinjs & Kirschner, 2001).
Du point de vue de la cognition, l’effet de nivellement des représentations va influencer le
processus de prise de décision collective. Dans la prise de décision collective, les informations liées
aux caractéristiques de la source pondèrent les arguments et les avis individuels. Dans la situation de
référence que nous avons choisie, les critères d’opérabilité relèvent de plusieurs champs disciplinaires.
334
EPIQUE’2003
En l'absence d'informations susceptibles d’être portés par l’avatar, les arguments sont pondérés par des
caractéristiques de la source qui ne tiennent pas compte de la discipline. L’attribution d’action ou
d’arguments se fondera sur des représentations sans référence au domaine de spécialité de chacun.
Ainsi la prise de décision collective prendra la forme d'une négociation dans laquelle tous les avis se
valent, certaines caractéristiques pertinentes de la source étant gommées par le système de médiation.
La définition d’une stratégie chirurgicale est un processus de prise de décision collective et
pluridisciplinaire. Les critères d’opérabilité qui guident ce processus nécessitent à la fois des
informations sur la nature des métastases et des informations sur les techniques chirurgicales
envisagées. Sans avatars animés, les informations relatives à l'identité et aux fonctions de chaque
participant ne sont plus présentes visuellement et les actions sur la scène virtuelle ne sont plus
symbolisées. La permanence des informations visuelles rendues par l'avatar renforce la perception et la
conscience des autres collaborateurs et de leur activité. Ces informations permettent d'attribuer à un
interlocuteur une identité, des compétences propres et ciblées sur lesquelles s’appuieront les actions et
les propositions verbales concernant le diagnostic. En ajoutant de l’information utile sur les
caractéristiques de la source, la présence d’un avatar animé va avoir un impact sur la prise de décision
collective et donc sur le diagnostic médical du patient.
4.2 Le partage et l'activité collective
4.2.1 L'attribution de droit sur les fonctions et les caractéristiques de la source
Le partage est un aménagement fondamental des EVC pour l’activité collective. Il permet aux
utilisateurs un accès individuel à la manipulation d'un objet ou à l'emploi d'un outil dans l'EV.
Dans la tâche de diagnostic à distance d'une stratégie d'intervention chirurgicale, le partage libre
des outils remet en cause les spécificités professionnelles des participants en présence. Dans la
situation de référence, les radiologues manipulent les images médicales (scanner et radiographies). Les
chirurgiens, quant à eux, n'ont pas de système de simulation des actes chirurgicaux, par conséquent, ils
construisent à partir des informations disponibles (et en particulier celles provenant des radiologues)
leur propre diagnostic de l’intervention. Par ailleurs, l'imagerie médicale devient progressivement plus
lisible, son interprétation est facilitée notamment grâce à la tridimensionnalité. Dans ce contexte, les
radiologues s'interrogent sur l’évolution de leur métier, a fortiori avec la modélisation automatique des
organes et des pathologies. En autorisant le partage, les fonctions autrefois réservées à un corps de
métier sont désormais disponibles à tous. Si le système l'autorise, les chirurgiens peuvent manipuler les
images scanner et les radiologues des outils chirurgicaux virtuels.
L'attribution d'outils et de fonctions est un procédé de marquage des rôles spécifiques au sein de
la situation d'interaction. Les droits accès aux fonctions servent au même titre que d'autres types
d'informations (celles portées par l’avatar, voir la première hypothèse de travail) à construire la
représentation que se fait chaque utilisateur des collaborateurs distants. Dans le processus de prise de
décision collective, les informations liées aux caractéristiques de la source pondèrent les arguments et
les avis individuels. En l'absence de ses informations, les arguments sont pondérés par des
caractéristiques de la source qui ne tiennent pas compte de la discipline. Or le diagnostic médical d'une
intervention chirurgicale du cancer du foie est une activité pluridisciplinaire. Dans le cas du diagnostic
médical, le partage libre des outils risque de rendre le diagnostic moins sûr.
4.2.2 Le partage favorise la construction de connaissances communes
C'est dans les tâches de collaboration (comme la prise de décision collective) que l'on retrouve le
plus un besoin de construire un référentiel commun (Rogalski, 1994). Intéressons-nous à un espace
virtuel de travail contenant un objet 3D complexe et unique comme c'est fréquemment le cas en
maquettage virtuel. Le partage de cet objet visible par tous impose la séquentialité des manipulations
et des actions. Il s’agit d’une forme de régulation de l'interaction collective. L'utilisateur qui a "la
main" sur l'objet 3D est acteur de sa recherche d'information par les manipulations qu'il impose à
l'objet (rotations, translations). Durant ce temps, les autres utilisateurs sont spectateurs des
manipulations sur l'objet, visibles par tous. Ils forment des connaissances communes à partir de tous
les indices disponibles (Olson & Olson, 2000) et en particulier à partir de l'activité de recherche
d'information d'un collaborateur. Il faut néanmoins préciser que ces indices ne sont pas toujours
EPIQUE’2003
335
directement accessibles ou interprétables. Ils sont par exemple soumis à la capacité de l'avatar à
symboliser l'activité.
Nous faisons l'hypothèse que le partage d'un objet complexe 3D, parce qu'il organise de façon
séquentielle la recherche d'information et qu'il la rend visible à tous, favorise la construction de
connaissances communes.
4.3 Méthodologie
Les hypothèses présentées ici n'ont pas été soumises au contrôle de l'expérimentation. Pour ce
faire, nous utiliserons un EVC consacré au diagnostic médical. FTR&D (France Telecom Recherche &
Développement) et l'IRCAD (Institut de Recherche sur le Cancer de l'Appareil Digestif) se sont
associés pour produire "Opération Argonaute 3D"3, un EVC prototype qui permet à des chirurgiens et
des radiologues géographiquement distants de décider d'une stratégie chirurgicale adaptée aux cas
complexe de cancer hépatique (figure 1). Opération Argonaute 3D comporte des fonctions de
simulation des actions chirurgicales (résection, endoscopie, etc.) sur les organes modélisés en trois
dimensions, ainsi qu'une fonction d'imagerie médicale (affichage des images scanner). Les utilisateurs
distants sont représentés dans le lieu virtuel par des avatars anthropomorphiques. Les avatars sont
configurables pour l'expérimentation en terme d'information statique (nom et profession) et dynamique
(comportements gestuels).
Figure 1 : Les organes d'un patient modélisés dans l'EVC "Opération Argonaute 3D".
Des groupes pluridisciplinaires de trois utilisateurs seront constitués pour définir, via l'EVC
Opération Argonaute 3D, les modalités d'une intervention chirurgicale sur un cas clinique précis. Les
différentes modalités expérimentales feront varier les informations portées par l'avatar, ainsi qu'un
droit d'accès aux fonctions et aux organes qui constituent l'objet 3D complexe. Les modalités
d'intervention chirurgicale retenues constitueront en sortie un des indicateurs de l'influence des
facteurs étudiés sur le processus de prise de décision collective.
5
CONCLUSION ET RESULTATS ATTENDUS POUR LA CONCEPTION D’EVC
Les hypothèses de travail présentées cherchent à montrer comment des dispositifs qui fournissent
un espace de travail commun à des utilisateurs distants représentés par des avatars animés et qui se
partagent les ressources de l’environnement virtuel, aident et contraignent une activité de collaboration
pluridisciplinaire. Les connaissances sur la conception d'EVC seront enrichies des résultats attendus
sur les informations portées par l’avatar et l’attribution de droits sur le partage en fonctions des
compétences spécifiques des utilisateurs.
3
P. Le Hir, "Des images en trois dimensions au service des médecins", Journal Le Monde, 8 nov 2002.
336
EPIQUE’2003
Par ailleurs, nous cherchons à établir que le partage d'un objet complexe 3D favorise la
construction de connaissances communes notamment durant les phases de recherche individuelle
d’information. Si cette hypothèse est avérée, nous pourrons en déduire pour la conception que les
tâches ou les conditions qui incluent le plus de recherche individuelle d’information tireront davantage
de bénéfice du partage que proposent les EVC.
6 BIBLIOGRAPHIE
Benford, S., Bowers, J., Fahlen, L. E., Greenhalg, C. & Snowdon, D. (1995). User Embodiment in
Collaborative Virtual Environments. CHI'95, ACM Press.
Benford, S., Brown, C., Reynard, G. and Greenhalg, C. (1996). Shared spaces : Transportation,
artificiality, and spatiality. Computer Suported Cooperative Work (CSCW'96), Boston.
Biocca, F. (1997). The Cyborg's dilemma : Progressive Embodiment in Virtual Environments. Journal
of Computer-Mediated Communication 3(2).
Bowers, J., Pycock, J. and O'Brien, J. (1996). Talk and Embodiment in Collaborative Virtual
Environments. ACM CHI'96, Pittsburgh, PA USA.
Burkhardt J.-M. (2003). Réalité Virtuelle et Ergonomie : Quelques apports réciproques. Le Travail
Humain, 66(1), pp 65-91.
France, E., Anderson, A. H. & Gardner, M. (2001). The impact of status and audio-conferencing
technology on business meetings. International Journal of Human-Computer Studies, 54, pp 857876.
Fuchs, P., Moreau, G. & Papin, J.P. (2001). Le Traité de la Réalité Virtuelle. Paris, Presses de l'Ecole
des Mines.
Gabbard, J.L. & Hix, D. (1997). A Taxonomy of Usability Characteristics in Virtual Environments.
M.S. Thesis, Department of Computer Science and Applications, Virginia Polytechnic Institute
and State University.
Goebbels, G. & Lalioti, V. (2001). Co-presence & Co-working in Distributed Collaborative Virtual
Environments. Proceedings of ACM SIGGRAPH, 1st International Conference on Virtual
Reality, Computer Graphics and Visualisation (Afrigraph 2001), Cape Town.
Kreinjs, K. & Kirschner, P. A. (2001). The social affordance of computer-supported collaborative
learning environments. Proceedings of the 31th Annual Frontiers in Education Conference, Reno,
Nevada.
Navarro, C. (2001). Partage de l'information en situation de coopération à distance et nouvelles
technologies : Bilan des recherches récentes. Le Travail Humain 64(4): 297-319.
Olson, G. M. & Olson, J. S. (2000). Distance matters. Human-Computer Interaction, 15.
Pina, A., Cerezo, E. & Seron, F. J. (2000). Computer animation : from avatars to unrestricted
autonomous actors (A survey on replication and modelling mechanisms). Computer & Graphics,
24, pp 297-311.
Riva, G. & Galimberti, C. (1998). Computer-mediated communication : identity and social interaction
in an electronic environment. Genetic, Social and General Psychology Monographs, 124, pp 434464.
Sherman, R. C. (2001). The Mind's Eye in Cyberspace : Online Perceptions of Self and Others. In G.
Riva and C. Galimberti (Eds), Towards Cyberspsychology : Mind, Cognition, and Society in the
Internet Age. Washington, D.C., IOS Press.
Sproull, L. & Kiesler, S. (1991). Connections: New ways of working in the Networked Organisation.
Cambridge, Massachusetts, The MIT Press.
Rogalski, J. (1994). Formation aux activités collectives. Le Travail Humain, 57(4), pp 367-386.
EPIQUE’2003
337
338
EPIQUE’2003
Travail coopératif à distance
en conception de produits :
apports et limites de l’usage d’un collecticiel
Guillaume Gronier, Jean-Claude Sagot
Equipe Ergonomie et Conception des Systèmes (ERCOS)
Laboratoire Systèmes et Transports (SeT)
Université de Technologie de Belfort-Montbéliard
Rue du Château
90010 Belfort Cedex
{guillaume.gronier/jean-claude.sagot}@utbm.fr
RESUME
L’utilisation des collecticiels dans les projets industriels soulève de nombreuses questions, notamment en ce qui
concerne la productivité et l’efficacité du travail collectif. Autrefois limités aux interactions homme-homme, les
échanges coopératifs interindividuels mutent peu à peu vers une interaction homme-machine-homme. Les enjeux
de ces nouvelles formes de coopération sont dès lors sans cesse redéfinis en fonction de l’émergence des
nouvelles technologies pour la communication. Cet article se propose de présenter une méthodologie,
actuellement suivie dans le cadre d’un travail de Thèse en Psychologie du Travail, qui se propose de comparer
coopération en présence et médiée afin de dégager les apports et les limites de l’usage d’un collecticiel en
conception de produits. Quelques résultats, issus des premières analyses, viennent illustrer le travail en cours.
MOTS-CLES
Coopération en conception de produits, coordination, communication, travail coopératif assisté par ordinateur,
collecticiel.
1
INTRODUCTION
Le contexte socio-économique à forte concurrence, perpétuellement en mouvement, est le plus
souvent responsable des mutations technologiques et organisationnelles qui s’opèrent dans les
structures de production. Les entreprises sont en effet contraintes d’adopter un mode plus flexible de
leur organisation du travail en vue de réagir plus rapidement aux exigences de leur environnement (de
Terssac et Lompré, 1994). La mise en œuvre de l’ingénierie concourante, « qui vise à la fois un
accroissement de la qualité, une diminution des coûts et une réduction du temps de développement »
(Bossard et al., 1997), apporte une réponse à l’optimisation du processus de conception par
l’ordonnancement simultané des tâches. La flexibilité est également intégrée aux nouveaux modèles
d’organisations à travers le développement d’une stratégie d’externalisation. Cette externalisation, qui
repose sur un mode d’organisation-réseau, permet aux entreprises de renforcer leur domaine
d’expertise et de maîtriser davantage leur production face au marché turbulent (Bossuet et al., 1997).
La coopération entre les acteurs d’un même groupe de travail, ou d’une même organisation,
apparaît dès lors comme une absolue nécessité. Elle peut être en effet considérée comme le
management de l’interférence entre les activités individuelles en vue de faciliter les sous-tâches des
membres de l’équipe et la tâche commune à l’équipe (Hoc, 2001). Elle est la condition de
l’organisation flexible (de Terssac et Lompré, 1994), de l’ingénierie concourante (Bossard, 1997) et de
l’externalisation entreprenariale (Bossuet et al., 1997).
Dans ce cadre, les outils de Travail Coopératif Assisté par Ordinateur (TCAO) (traduction du
terme anglo-saxon Computer Supported Cooperative Work), le plus souvent représentés par les
collecticiels, sont aujourd’hui plébiscités par les entreprises qui cherchent un moyen plus efficace de
gérer leur nouveau modèle d’organisation. Ces outils permettent en effet « d’améliorer le
fonctionnement des groupes de travail » (Favier, 1998) par le partage d’information et de documents à
distance, la multiplication des canaux de communication synchrone et asynchrone, la coordination des
tâches de production, ou encore l’instrumentation des prises de décisions collectives.
EPIQUE’2003
339
Toutefois, la réelle efficacité des collecticiels est encore mal connue, et il est aujourd’hui difficile
de se prononcer sur les avantages ou les limites qu’offrent ces outils en conception collective. C'est
dans ce contexte que se situe ce travail de Thèse, qui se donne pour objectif d’approfondir la
compréhension des activités coopératives de conception à distance. Nos recherches s’appuient sur un
outil de TCAO spécifique, développé par l'équipe de recherche en Ergonomie et Conception des
Systèmes (ERCOS) du Laboratoire Systèmes et Transports (SeT), baptisé Atelier Coopératif de Suivi
de Projet (ACSP) (Gomes et Sagot, 2002).
2
COOPERATION EN PRESENCE ET COOPERATION A DISTANCE
La coopération dans les équipes de travail est souvent étudiée selon ses aspects socio-cognitifs
(Bourdon & Weill-Fassina, 1994 ; Maggi, 1996 ; Kvan, 2000) ou selon la situation dans laquelle elle
s’inscrit : en face-à-face ou médiée (Doherty-Sneddon et al., 1997 ; Foulon-Molenda, 2000 ; Navarro,
2001). Dans cette partie, nous tentons de faire état des recherches les plus représentatives entreprises
dans ces différents domaines, en vue de définir tout d’abord en quoi consiste l’activité de coopération
en conception, puis quels sont les nouveaux enjeux de la coopération à distance.
2.1 Caractéristiques du travail collectif en conception de produits
Les actions coordinatrices, qui régulent et finalisent l’action collective (Maggi, 1996), font partie
intégrante de la coopération. Elles sont essentiellement gérées par les communications verbales ou
non-verbales (Bourdon et Weill-Fassina, 1994). Coopération, coordination et communication sont
donc trois processus intimement liés qui régissent le travail en équipe.
2.1.1 La coopération
Les approches et les définitions de la coopération sont multiples. Pour Kvan (2000), la
coopération en conception est le jeu de relations informelles qui existent sans que soient définis
communément de mission, de structure ou d’effort. La coopération apparaît alors comme une activité
collective désordonnée, incapable de combiner des actions synchronisées et finalisées. A l’inverse,
Maggi (1996) définit la coopération comme un acte plus structuré : elle est « l’action de participer à
une œuvre commune, l’action collective par laquelle les sujets contribuent à un même résultat ».
Maggi distingue toutefois les actions et les buts de la coopération. Ainsi, même si les buts sont
communs aux membres d’une équipe de travail, les actions de ces membres peuvent être séparées.
Elles demanderont alors d’étroits échanges mutuels entre les acteurs. Kvan (2000) souligne à ce propos
que le travail collectif des concepteurs est plus souvent l’objet de tâches individuelles, réunies à
certaines étapes du processus de conception, que de tâches réalisées en commun.
Il apparaît ainsi que la coopération, prise isolément, ne peut caractériser à elle seule le travail en
équipe. L’approche de Kvan (2000) met clairement en évidence que la coopération n’assure pas
l’efficacité du travail en équipe. Maggi (1996) ajoute quant à lui la nécessité de réguler, de structurer et
de finaliser les actions coopératives. La coopération requiert alors un ordre : une coordination.
2.1.2 La coordination
La coordination constitue une condition du processus de coopération (De Terssac et Lompré,
1994). Elle est l’ordre par lequel la coopération s’assure d’être efficace. Elle pose « des règles pour lier
ensemble les différentes actions vers le but commun » (Maggi, 1996). Ainsi, la coordination permet la
décomposition d’un but commun en sous-buts indépendants, dont les tâches simultanées prises en
charge individuellement sont liées par des réseaux de correspondances (Hoc, 2001).
Maggi (1996) reprend trois formes typiques de coordination. 1) La coordination par rapports
réciproques met en relation symétrique chaque unité avec toutes les autres unités. Elle implique une
forte transmission d’informations et des règles fermes d’ajustements mutuels. 2) La coordination par
séquence met en relation directe, mais non symétrique, chaque unité avec d’autres unités. L’ordre du
processus est alors assuré par des règles de programme dont les informations liées suivent le
déroulement. 3) Enfin, la coordination d’unités séparées ne met pas en relation directe chaque unité
l’une avec l’autre, mais sollicite uniquement leur contribution pour le résultat global. Son homogénéité
et sa cohérence sont garanties par des règles standard. L’échange d’informations est alors plus faible.
340
EPIQUE’2003
La coordination implique dès lors un certain nombre de ressources et de moyens pour être mise en
œuvre. Il peut ainsi s’agir de règles, mais d’autres moyens peuvent être employés, comme la
communication verbale ou non verbale qui reste l’un des moyens les plus fréquents pour la
coordination (Bourdon et Weill-Fassina, 1994 ; Grusenmeyer et Trognon, 1997).
2.1.3 La communication
Dans une étude sur la coopération dans la gestion du trafic ferroviaire, Bourdon et Weill-Fassina
(1994) relèvent que la coordination entre les opérateurs « passe essentiellement par les
communications et les échanges ». L’analyse de ces communications a permis d’en dégager les
fonctions de 1) circulation de l’information ; 2) gestion des savoirs ; 3) construction et maintien d’un
référentiel commun. Dans une autre recherche sur l’analyse des communications coopératives entre
opérateurs en phase de relève de poste, Grusenmeyer et Trognon (1997) ont montré qu’une
représentation fonctionnelle partagée se construisait au fur et à mesure des interactions verbales.
Ainsi, comme le souligne Zarifian (1998), travailler ensemble dans une « forte » coopération
signifie communiquer, au sens de développer un espace de compréhension réciproque, en vue d’établir
des accords solides sur 1) la nature des problèmes à traiter ; 2) l’identité des objectifs ; 3) le sens des
actions ; 4) les implications subjectives des individus qui agissent ensemble.
Par conséquent, la communication constitue, avec la coordination, un processus indispensable à la
coopération. Il est alors légitime de s’interroger sur les nouveaux modes de coopération à distance,
lorsque les canaux de communication sont transformés.
2.2 Caractéristiques du travail collectif à distance
Le travail collectif à distance est un champ d’études perpétuellement en mouvement qui s’adapte
et se co-construit en fonction de l’émergence des nouvelles technologies pour la coopération. Bien
avant l’apparition du Computer Supported Cooperative Work, Williams (1977) faisait déjà le bilan des
recherches menées sur la communication médiée. Aujourd’hui, les réseaux et systèmes informatiques
ont enrichi les médias traditionnels (téléphone, fax, courrier) par de nouveaux moyens de coopération :
e-mail, forum, chat, environnement virtuel, application partagé, base de données, workflow, etc.
Dans cette partie, nous décrivons les nouvelles technologies de la coopération médiée réunies
sous le terme de collecticiel. Puis nous présentons en quoi consiste le partage d’informations à distance
et quelles sont les spécificités des nouveaux modes de coopération.
2.2.1 Le collecticiel
Traduction du terme anglo-saxon groupware, nous retiendrons, en accord avec Favier (1998), que
le collecticiel est « l’ensemble des techniques et des méthodes qui contribuent à la réalisation d’un
objectif commun à plusieurs acteurs, séparés ou réunis par le temps et l’espace, à l’aide d’un dispositif
interactif faisant appel à l’informatique, aux télécommunications et aux méthodes de conduite de
groupe ». Selon cette définition, le collecticiel est envisagé sous trois aspects. 1) Il fait tout d’abord
abstraction des barrières spatiotemporelles. Il permet donc la coopération à distance ou en présence,
tout comme la coopération asynchrone ou synchrone. 2) Le collecticiel regroupe ensuite les
technologies nécessaires à toute forme de communication (en présence, à distance, asynchrone,
synchrone). Néanmoins, les technologies du collecticiel seront adaptées aux besoins des utilisateurs et
au type d’échanges (écrit, oral, visuel) qui auront lieu par son intermédiaire (Navarro, 2001). 3) Le
collecticiel intègre enfin des méthodes, qu’il emprunte non seulement à la « conduite de groupe »,
mais aussi à la « gestion de la production » (Lococo et Yen, 1998). Le collecticiel est donc orienté vers
l’optimisation du travail en équipe.
2.2.2 Coopération et partage d’informations à distance
L’introduction des collecticiels au sein des nouvelles organisations pose de nombreuses questions,
notamment en ce qui concerne l’efficacité et la qualité du travail en équipe (Foulon-Molenda, 2000).
Bien que l’objectif des collecticiels soit d’assister la collaboration, la coordination et la communication
dans les prises de décisions collectives (Lococo et Yen, 1998), l’absence d’un contexte de travail
partagé et d’informations visuelles sur autrui peut compliquer le travail collectif. Ainsi, Navarro
EPIQUE’2003
341
(2001) souligne, dans un bilan de recherches récentes, que « les situations en face-à-face semblent plus
adaptées que les situations de communication médiées par un outil quelconque ».
Pour favoriser le travail en équipe, les collecticiels semblent donc devoir palier à certains
manques de la coopération à distance. Nous relèverons chez Navarro (2001) deux notions, relatives
aux communications, qui constituent le ciment des activités collectives en présence, et qui se doivent
d’être compensées dans les situations médiées : 1) l’espace de travail partagé, qui facilite le processus
de compréhension de la situation à travers l’échange d’informations visuelles relatives à la tâche en
cours ; 2) la conscience mutuelle, qui garantit la meilleure coordination possible et qui passe par le
repérage d’informations visuelles relatives à autrui (gestes, postures, mimiques, etc.).
Le canal visuel semble alors déterminant pour la bonne marche de la coopération médiée. Dans ce
cadre, Doherty et al. (1997) ont montré que les co-actions réalisées à distance étaient plus
performantes lorsque les interlocuteurs pouvaient uniquement se voir que lorsqu’ils pouvaient
uniquement s’entendre. Toutefois, la coopération était toujours plus efficace en coprésence qu’en
situation médiée. Foulon-Molenda (2000) reste néanmoins prudent sur le rôle du regard lors de
communications naturelles ou médiées. Les résultats contradictoires issus d’une revue de la littérature
(Foulon-Molenda, 2000) ne permettent pas en effet de conclure en l’indispensable utilité d’un canal
visuel centré sur l’interlocuteur pour la coopération.
2.3 Problématique
Les collecticiels sont donc contraints de fournir aux interlocuteurs des outils et des méthodes
capables de reproduire, au moins en partie, les caractéristiques de coopération (en termes de prises
d’informations relatives à la tâche et à autrui) proches de celle en présence. On sait toutefois que la
similitude des situations ne peut pas être irréprochable. Dans ce cadre, quelles sont alors les limites des
collecticiels pour le travail coopératif à distance en conception de produits ?
Néanmoins, les collecticiels sont chargés d’optimiser le travail en équipe. Si cette optimisation
n’est pas appliquée aux communications, qui semblent plus efficaces en coprésence, on peut imaginer
qu’elle s’applique à d’autres processus de coopération. Pour Lococo et Yen (1998), les collecticiels
accélèrent les délais de réponse entre interlocuteurs et offrent un accès permanent aux informations
d’un projet. Les collecticiels semblent dès lors mieux adapter pour l’optimisation de la coordination.
3
METHODOLOGIE
Notre méthode d’observation du travail collectif en conception repose sur une approche
systémique. Nous nous proposons en effet d’observer le travail collectif sous l’angle de :
1- la coopération, à travers la définition des buts en communs, les actions parallèles, les
documents échangés ;
2- la coordination, à travers la répartition des tâches et des rôles, les formes de coordination
réelles et prescrites, les règles de coordination ;
3- la communication, à travers les échanges verbaux et écrits, traitée par l’intermédiaire d’un
logiciel d’analyse de données textuelles, ALCESTE.
En ce sens, nous nous approchons du modèle du trèfle fonctionnel de Salber (1995), qui décrit les
collecticiels sous l’angle de la production, de la coordination et de la communication. En ce qui nous
concerne, nous appliquons cette méthode d’observation à l’analyse du travail collectif en présence et à
distance.
3.1 L’Atelier Coopératif de Suivi de projet (ACSP)
Le collecticiel ACSP, issu des recherches de l’équipe ERCOS (Gomes et Sagot, 2002), est un
environnement logiciel de type client-serveur disponible sur Internet. Reposant sur un Système de
Gestion de Données Techniques (SGDT), l’ASCP structure la coopération en conception de produits
autour de quatre grands domaines : 1) la gestion du projet (gestion des tâches, gestion des ressources
humaines, gestion des coûts, etc.) ; 2) la gestion du produit (cahier des charges fonctionnel, gestion des
pièces, etc.) ; 3) la gestion du process (procédés de fabrication, gestion des ressources matérielles,
etc.) ; 4) et la gestion des activités gestuelles futures souhaitables (en termes de sécurité, confort, santé
et efficacité). Cette architecture de l’ACSP a pour objectif d’accompagner l’équipe de travail de la
342
EPIQUE’2003
première à la dernière étape du processus de conception, tout en y intégrant une dimension
ergonomique à travers la gestion des activités futures souhaitables (Sagot et al., 2003).
Pour finir, les échanges de documents, qui assurent une grande part dans la coordination des
tâches, sont structurés par un outil de type workflow. Des modules de chat, de forum, et d’e-mail
assurent quant à eux les communications synchrones ou asynchrones entre les acteurs du projet.
3.2 Cadre d’observation
Ce travail de Thèse se propose d'analyser plusieurs situations contrôlées de travail collectif en
présence et à distance. Ces situations concernent la conception de deux produits distincts, un appareil
de détection des troubles musculo-squelettiques (TMS) et une tondeuse à gazon électrique, par six
groupes d’élèves-ingénieurs en fin d’étude répartis sur deux sites distants, l’Université de Technologie
de Belfort-Montbéliard (UTBM) et l’Université de Technologie de Troyes (UTT).
Ainsi, quatre projets ont été créés afin d’obtenir deux situations de coopération à distance et deux
situations de coopération en présence. Les deux projets de coopération à distance reposaient sur la
collaboration entre les deux Universités de Technologie, et étaient tous deux composés d’un groupe
d’élèves-ingénieurs de l’UTBM et d’un groupe d’élèves-ingénieurs de l’UTT. Les deux projets de
coopération en présence reposaient quant à eux sur la collaboration entre les élèves-ingénieurs de la
même université (celle de l’UTBM ou celle de l’UTT).
Pour finir, tous les projets se sont déroulés sur la même durée (cinq mois). Ils étaient composés du
même nombre d’acteurs (sept acteurs) et définis par les mêmes objectifs (proposition d’un concept de
produit sur la base du cahier des charges). Les élèves-ingénieurs de chaque projet en présence avaient
pour consigne de coopérer plutôt par l’intermédiaire de réunions qui ont toutes été filmées. Ils avaient
néanmoins toujours accès à l’ACSP s’ils le souhaitaient. Les groupes-projet à distance devaient quant
à eux coopérer uniquement par l’intermédiaire de l’ACSP.
La configuration des 4 projets est récapitulée dans le tableau 1 :
Conception d’un appareil de
détection des TMS (Projet A)
Conception d’une tondeuse à
gazon électrique (Projet B)
Coopération en présence
Coopération à distance
Coopération en présence
Coopération à distance
Université de Technologie
de Belfort-Montbéliard
7 (dont le chef de projet)
3 (dont le chef de projet)
0
3
Université de Technologie
de Troyes
0
4
7 (dont le chef de projet)
4 (dont le chef de projet)
Tableau 1 : répartition des élèves-ingénieurs selon le sujet du projet et le type de coopération.
4
PREMIERS RESULTATS ET TRAVAUX EN COURS
Une première analyse exploratoire du travail collectif dans les groupes contrôlés (tableau 1) a
révélé quelques grandes tendances propres à la coopération à distance ou en présence (figure 1 et 2).
Période de vacances
universitaires
120
Période de vacances
universitaires
106
120
103
100
100
Projet A (en présence)
80
Projet A (à distance)
Projet B (en présence)
60
Projet B (à distance)
40
Nombre d'utilisations
Nombre de connexions à l'ACSP
140
84
80
77
Forum
60
E-mail
52
Chat
37
40
20
20
s4
s3
3
s2
s1
s5
6
s4
7
s4
8
s4
9
s5
0
s5
1
s5
2
s4
s3
9
s4
0
s4
1
s4
2
s4
3
s4
4
s4
5
0
Temps (en semaines de l'année 2002, suivie de l'année
2003)
Figure 1 : Evolution du nombre de connexions
à l’ACSP selon le projet
10
1
0
0
Projet A (en présence)
Projet A (à distance)
0
0
Projet B (en présence)
2
Projet B (à distance)
Projets
Figure 2 : Utilisation des outils de communication
de l’ACSP selon le projet
Par exemple, nous pouvons observer dans la figure 1 que le Projet A en présence totalise chaque
semaine un nombre de connexions à l’ACSP souvent proche de celui des Projets à distance, alors que
l’on pourrait s’attendre à ce que le collecticiel soit peu utilisé au cours des projets en présence (comme
c’est le cas du Projet B en présence qui ne s’est pratiquement jamais connecté à l’ACSP). Le Projet A
en présence utilise toutefois moins les outils de communication : il totalise 139 communications par
EPIQUE’2003
343
l’intermédiaire de l’e-mail, du forum ou du chat, alors que les Projets A et B à distance comptent
respectivement 190 et 142 communications médiées (figure 2). En ce qui concerne l’usage des outils
de communication, l’e-mail et le forum (communications asynchrones) semblent globalement bien
plus utilisés que le chat (communication synchrone) (figure 2).
Ces premières analyses doivent néanmoins faire l’objet de tests de significativité et d’un plus
grand approfondissement avant qu’en soit tirée quelque conclusion. Le contenu des e-mails, des
messages du forum, de l’utilisation réelle de l’ACSP (les connexions ne peuvent refléter la qualité de
son utilisation) sont autant de données qui complèteront notre étude.
Les données recueillies, tout comme nos analyses, nécessiteront enfin d’être structurées autour
des trois aspects du travail collectif que nous avons décrits précédemment : la coopération, la
coordination et la communication. Pour chacun de ces aspects, nous tenterons de dégager les
caractéristiques, en termes d’apports et de limites, du travail collectif médiée par rapport à celui en
présence. Nos analyses seront bien entendu discutées sur la base d’une revue de la littérature qui suivra
les lignes tracées dans cette communication.
5 BIBLIOGRAPHIE
Bossard, P., Chanchevrier, C., & Leclair, P. (Eds.) (1997). Ingénierie concourante : de la technique au
social. Paris, Economica.
Bossuet, C., Lamothe, J., & Lacoste, G. (1997). Analyse des formes de coopération enter-entreprises :
influence des niveaux informationnels. Communication présentée au 2ème Congrès International
Franco-Québécois. Albi, France, Sept.
Bourdon, F, & Weill-Fassina, A. (1994). Réseau et processus de coopération dans la gestion du trafic
ferroviaire. Le Travail Humain, 57 (3), 271-287.
Doherty-Sneddon, G., Anderson, A. H., O’Malley, C., Langton, S., Garrod, S., & Bruce, V. (1997).
Face-to-face interaction and video mediated communication : a comparison of dialogue structure
and cooperative task performance. Journal of Experimental Psychology : Applied, 3, 105-125.
Favier, M. (Ed.) (1998). Le travail en groupe à l’âge des réseaux. Paris, Economica.
Foulon-Molenda, S. (2000). A-t-on besoin de se voir pour coopérer ? Contribution théorique issue de
la psycholinguistique. Le Travail Humain, 63, 97-120.
Gomes, S., & Sagot, J. C. (2002). A concurrent engineering experience based on a Cooperative and
Object Oriented Design Methodology. In P. Chedmail, G. Cognet, C. Fortin, C. Mascle, & J.
Pegna (Eds.), Integrating design and manufacturing in mechanical engineering (pp. 11-18).
London, Kluwer Academic Publishers.
Grusenmeyer, C., & Trognon, A. (1997). Les mécanismes coopératifs en jeu dans les communications
de travail : un cadre méthodologique. Le Travail Humain, 60 (1), 5-31.
Hoc, J. M. (2001). Towards a cognitive approach to human-machine cooperation in dynamic
situations. International Journal of Human-Computer Studies, 54, 1-32.
Kvan, T. (2000). Collaborative design, what is it ? Automation in construction, 9, 409-415.
Lococo, A., & Yen, D. D. (1998). Groupware : computer supported collaboration. Telematics and
Informatics, 15, 85-101.
Maggi, B. (1996). Coopération et coordination : enjeux pour l’ergonomie. In J. C. Sperandio (Ed.),
L’ergonomie face aux changements technologiques et organisationnels du travail humain (pp. 1126). Toulouse, Octarès.
Navarro, C. (2001). Partage de l’information en situation de coopération à distance et nouvelles
technologies de la communication : bilan de recherches récentes. Le Travail Humain, 64 (4), 297319.
Sagot, J. C., Gouin, V., & Gomes, S. (2003). Ergonomics in product design : safety factor. Safety
Science, 41, 2-3, 137-154.
Salber, D. (1995). De l’interaction homme-machine individuelle aux systèmes multi-utilisateurs :
l’exemple de la communication homme-homme médiatisée. Thèse, Université Joseph Fournier,
Grenoble.
Terssac, G. de, & Lompré, N. (1994). Coordination et coopération dans les organisations. In B. Pavard
(Ed.), Systèmes coopératifs : de la modélisation à la conception (pp. 175-201). Toulouse, Octarès.
Zarifian, P. (1998). Travail et communication. Paris, Presses Universitaires de France.
344
EPIQUE’2003
Williams, E. (1977). Experimental comparisons of face-to-face and mediated communication : a
review. Psychological Bulletin, 84 (5), 963-976.
EPIQUE’2003
345
346
EPIQUE’2003
COOPERA : ANALYSE D’USAGE
D’UNE PLATE-FORME DE COOPERATION
Jean-Charles Hautecouverture
Laboratoire de Psychologie de l’Interaction – GRC
Université Nancy 2
BP 33-97
54015 Nancy Cedex
France
[email protected]
RESUME
L’environnement informatique sur lequel porte notre étude propose à des utilisateurs, en l’occurrence ici des
enfants du primaire, un mode de coopération particulier pour la réalisation de projets communs. Notre
participation à ce projet consiste à rendre compte de l’usage que font les élèves de l’outil, et plus précisément des
facteurs qui facilitent ou gênent son appropriation. Pour ce faire, nous analysons les interactions entre élèves,
médiatisées par la plate-forme, au cours de son utilisation effective. Il en résulte que si les propriétés de l’artefact
jouent un rôle essentiel dans son appropriation, l’inscription historico-culturelle du dispositif est également un
facteur déterminant dans ce processus.
MOTS-CLES
Cognition distribuée et située, Psychologie historico-culturelle, Clinique de l’activité, Interactions HommeMachine, Cognition et émotion.
1
INTRODUCTION
Depuis février 2002, nous sommes engagés dans un projet de conception de plate-forme de
coopération, via Internet, dont l’objectif est de permettre à des enfants de CM1/CM2 (10-11 ans) de
différentes classes de travailler sur un projet commun (Hautecouverture et al., 2003). Ce projet
s’inscrit dans une volonté d’introduction des nouvelles technologies dans les activités scolaires, pour la
mise en œuvre de démarches pédagogiques innovantes. Il est alors colinéaire des initiatives
gouvernementales, telles que la mise en place du Brevet Informatique et Internet (B2I), dans les écoles
du primaire et du secondaire. L’utilisabilité de ce collecticiel repose sur son appropriation par les
élèves, caractérisée par la construction et la mobilisation de significations, lors de situations naturelles
d’utilisation. Aussi, notre participation à l’élaboration de cet environnement informatique consiste en
l’analyse des usages, envisagés comme processus d’appropriation.
Nous commencerons par une description de l’outil, dans le but de cerner ses spécificités. Puis
nous expliciterons notre position théorique et méthodologique. Nous présenterons enfin les
expérimentations menées jusqu’à présents, ainsi que les principaux résultats auxquels nous parvenons.
2
UNE PLATE-FORME POUR COOPERER
Le projet Coopéra4 a pour visée l’élaboration d’une plate-forme de coopération, à distance et
asynchrone. L’originalité de cet environnement informatique est de permettre aux utilisateurs de
réguler leurs activités de production en fonction de celles des autres, dans l’objectif d’une coopération
efficiente. Il s’agit dès lors d’anticiper les situations de cumul de versions différentes d’un même
fichier. La régulation des conduites est concomitante du développement chez chacun des utilisateurs
d’une conscience de groupe. Elle se traduit par la capacité des acteurs à se considérer ainsi que les
autres sujets comme membres compétents d’un même groupe inscrit dans une dynamique
collaborative ; à mener une pensée réflexive sur leur place, leur rôle et leurs productions au regard de
4
Le programme de R&D Coopéra est financé par le réseau RIAM (2002-2004). Il est porté par la société Jériko,
en association avec trois laboratoires : projet Ecoo du Loria (Université H. Poincaré, Nancy 1), Gr@mmsci
(Université M. de Montaigne, Bordeaux 3) et nous-mêmes, projet Codisant du LPI-GRC (Université Nancy 2).
EPIQUE’2003
347
cette dynamique ; ou encore à percevoir les attitudes et les attentes d’autrui envers soi, ainsi que ses
attentions de production.
Ce potentiel repose sur les deux dimensions constitutives de l’outil : le modèle de partage de
fichiers et l’application logiciel.
2.1 Le modèle de partage de fichiers
Le partage de fichiers s’organise autour de trois espaces : (i) un espace local, sur l’ordinateur des
membres du projet ; (ii) un espace commun à tous les membres, situé sur Internet ; (iii) entre les
espaces local et commun, un espace privé pour chaque utilisateur, également sur Internet. C’est ce
dernier qui rend possible la régulation des conduites. En effet, le principe est que les espaces local et
privé des utilisateurs soient constamment à l’identique, par une synchronisation systématique. Et
comme l’espace privé est sur Internet, chaque membre peut savoir qui a modifié ou a créé un fichier,
ainsi que le nom de ce fichier. La mise en commun d’un fichier quant à elle s’organise en deux
opérations. Lorsqu’un utilisateur a terminé son travail et qu’il a synchronisé ses espaces local et privé,
il publie son fichier dans l’espace commun pour le rendre accessible au groupe. Les autres membres
sont ensuite responsables de la mise à jour de leur espace privé, qu’ils synchroniseront avec leur
espace local, afin de consulter le fichier nouvellement modifié (ou créé) et d’y faire éventuellement
des ajouts.
2.2 L’application logiciel
L’application logiciel est la visualisation de l’état du système. Elle permet aux utilisateurs d’avoir
« conscience » du travail en train de se faire au fur et à mesure de son déroulement et d’agir en
conséquence. Elle est constituée d’un ensemble de pages, sur lesquelles figurent des ancres. Ces ancres
peuvent être catégorisées selon leur fonction : (i) les ancres informatives, qui fournissent les
renseignements essentiels à la compréhension d’une situation ou d’une action ; (ii) les ancres
opérantes, qui servent soit à la navigation dans l’application, soit à l’activation d’une opération, telle
que la publication.
La page centrale dans l’utilisation de la plate-forme est l’espace privé, au sens où c’est celui-ci
qui est dédié au pilotage de l’activité coopérative. Les ancres principales figurant sur cette page sont (i)
un code couleur qui renseigne sur l’état du système : est-ce qu’il y a un nouveau fichier à récupérer
dans l’espace commun, est-ce que quelqu’un travaille sur un fichier et quel est le nom de ce fichier
etc. ; (ii) la liste des dossiers du répertoire de l’utilisateur, où leur état est indiqué (à jour ; à mettre à
jour) ; (iii) les commandes de synchronisation, de publication et de mise à jour.
Ainsi, l’utilisation de la plate-forme suit une règle implicite, selon laquelle il faut toujours prendre
connaissance de l’état du système avant d’effectuer une quelconque opération.
3
OBJECTIFS D’USAGE
Le pilotage de l’activité coopérative, qui se traduit par une régulation de l’activité de production
des utilisateurs selon l’état du système (code couleur), nécessite l’appropriation de cet environnement
informatique. Autrement dit, l’usage du collecticiel, dans une dynamique de construction conjointe de
document, est fonction des significations construites par les utilisateurs, notamment sur le modèle de
partage de fichiers et sur sa visualisation. Et c’est à ce niveau que réside l’enjeu inhérent à
l’élaboration de la plate-forme Coopéra. Quels sont les facteurs qui facilitent ou gênent ce processus
d’appropriation ?
Notre contribution dans le projet consiste en l’analyse des usages, envisagés comme une
construction de significations, fruit et des interactions entre les sujets et des rapports qu’entretiennent
ces sujets avec le monde. Plus précisément, il s’agit pour nous de rendre compte de la codétermination entre les propriétés de la plate-forme et les utilisateurs dans l’émergence des
significations.
La méthodologie employée répond à nos objectifs d’analyse de l’activité en train de se faire, dans
l’ici et maintenant (Brassac et Grégori, 2003 ; Grégori et Brassac, 2001). Le recueil des corpus relève
d’un double enregistrement vidéo, l’un orienté sur l’activité des élèves, l’autre sur l’activité à l’écran.
Nous rendons compte de ces activités dans les transcriptions de corpus en faisant figurer, dans l’ordre
chronologique de leur apparition, les pages affichées, les tours de paroles et les actions des élèves.
348
EPIQUE’2003
Précisons que durant les séances d’utilisation de la plate-forme, nous interrogeons les enfants sur leurs
actions, leurs blocages, leurs désaccords, etc., afin de mettre au jour leur représentations.
Sur la base de ces corpus, nous réalisons une analyse des interactions prenant en compte les dires
et les faires des usagers dans leur environnement de travail. Cette analyse s’appuie à la fois sur une
dialogisation de la théorie des actes de langage (Trognon et Brassac, 1992) et sur les principes de
l’analyse conversationnelle développée par l’ethnométhodologie. Nous recourons également à la
catégorie objets intermédiaires, issue de la sociologie de l’innovation (Vinck, 1999).
Notre posture est colinéaire de l’approche vygotskienne de l’activité instrumentale, qui souligne
que les deux formes fondamentales du comportement culturel sont le langage et l’utilisation
d’instruments.
4 EXPERIMENTATIONS
4.1 Première série d’observations : la création de poésies illustrées
Une première série d’observations a eu lieu en juin 2002 dans deux écoles primaires nancéiennes.
Cette série a été réalisée à partir du logiciel ToxicFarm, développé par l’équipe ECOO du LORIA.
Chaque classe s’est répartie en quinze binômes. Puis, nous avons formé quinze groupes de deux
binômes représentant chacune des deux écoles. Chaque groupe avait pour projet d’écrire, illustrer et
mettre en page de poésies, ces tâches étant réparties entre les deux binômes.
Les résultats d’analyse indiquent que les enfants ont vite acquis la maîtrise opératoire de
l’environnement informatique. Ils se sont en effet rapidement appropriés les différentes modalités
d’activation des ancres, telles que la saisie d’un texte ou d’une valeur numérique dans un formulaire,
ou encore le lancement relativement complexe du synchroniseur.
En revanche, ils ont rencontré des difficultés dans la gestion de la dynamique coopérative. Cela
s’est traduit de diverses manières.
(i) Par des difficultés à localiser les commandes.
(ii) Par une non perception immédiate des informations présentes sur les pages. Les enfants ne
remarquent pas d’emblée s’il y a par exemple un nouveau message à leur attention ou si un
fichier a été modifié ou ajouté.
(iii) Par des erreurs ou des blocages quant à la détermination des actions à opérer en fonction d’une
situation précise. Prenons comme exemple une séquence (figure 1) ayant eu lieu à la 14ème minute
et 25ème seconde de la 5ème séance d’utilisation du groupe sp03 (B et M). Elle dure 23 secondes. La
page affichée correspond à l’espace privé. A cet instant, les élèves doivent publier l’illustration
qu’ils viennent de réaliser pour la poésie de l’autre binôme.
Figure 1. Page mobilisée, interactions et action d’une séquence de la séance 5 du groupe sp03.
14’25’’
Page espace privé
14’48’’
Acteurs
Interventions
EJ 190
B 191
EJ 192
Et ben maintenant vous allez faire quoi
Euh
Donc maintenant vous avez fait vous l’avez mis dans
l’espace de travail
Oui
Maintenant il faut le mettre où dans quel espace
Accueil
Dans synchronize
Non synchronize tu l’as déjà fait
Dans connexion
Ben connexion non puisque (inaudible)
Mettre à jour
Ben non
Publier publier
C’est publier voilà
M 193
EJ 194
B 195
M 196
EJ 197
M 198
EJ 199
M 200
EJ 201
M 202
EJ 203
B 204
Actions
Clique sur publier
Cet exemple illustre bien les difficultés des enfants à rendre présent les connaissances propres au
modèle de partage de fichiers. En effet, les élèves trouvent la réponse à la question de EJ, après avoir
passé en revue l’ensemble des opérations disponibles sur cette page. En EJ 194, EJ leur pose une
question sur le cheminement du fichier, et les élèves répondent en évoquant l’opération à effectuer.
EPIQUE’2003
349
Ceci est caractéristique de la démarche des élèves à vouloir appliquer une procédure type, sans prendre
en compte le contexte, dans lequel s’inscrivent leurs actions.
Ces erreurs et blocages sont l’expression d’une non-appropriation de la plate-forme par les
enfants. Le développement de la conscience de groupe n’est alors que partiel, où seule la perception de
leur inscription dans un projet commun a émergé chez les élèves. Deux facteurs expliquent selon nous
ces difficultés. Le premier est que l’ergonomie de la plate-forme n’est pas efficiente, du fait d’une
interface graphique non adaptée à un publique scolaire. En effet, il n’y a ni métaphore signifiante pour
des enfants, ni représentation concrète du modèle de partage de fichiers. A cela s’ajoute une
architecture complexe et une organisation des éléments de la page trop peu explicite. L’usage de cet
environnement informatique nécessite dès lors un niveau d’abstraction élevé et, de facto, des efforts
cognitifs importants. Le second facteur est que si l’informatique est bien ancrée dans notre société, on
peut le remarquer par la maîtrise opératoire que les enfants ont de l’outil, le modèle de coopération
propre à la plate-forme est quant à lui culturellement en rupture, par le type de relation à soi et à autrui
qu’il induit. L’acquisition des significations nécessaires à son utilisation doit alors faire l’objet d’une
attention particulière. Or, au regard du peu de temps imparti au projet, les enfants n’ont eu droit qu’à
une explication orale et sommaire de son fonctionnement lors de la première séance. Ces analyses ont
débouché sur une nouvelle interface (cf. figure 2), plus adaptée à un public scolaire, notamment par
l’emploi de métaphores.
Figure 2. Première évolution de l’interface de l’application.
Toxic Farm
Coopéra
Code
couleur
Commandes
Dossiers avec
leur état
4.2 Deuxième série d’observations : la création d’un site Internet
Une troisième école a intégré le projet Coopéra pour ces nouvelles expérimentations. Etant donné
que celles-ci s’étalent sur l’année, nous avons pu mettre en place avec nos partenaires, notamment les
instituteurs des écoles, un projet plus ambitieux. Ce dernier porte sur l’élaboration d’un site Internet
sur l’opéra de Nancy. Le projet se décompose en trois grandes étapes (i) création d’un questionnaire
thématique ; (ii) réponses aux questions (les élèves se répartissent en binômes dans les trois classes,
chaque binôme étant responsable d’une question) ; (iii) finalisation des fichiers par le binôme
responsable et création en commun du site Internet. La coopération interclasse repose sur la possibilité
pour tous les binômes de faire des ajouts dans tous les fichiers.
4.2.1 Mise en place d’une animation pour l’acculturation au modèle de partage de fichiers
Nous avons mis en évidence dans nos premières analyses que l’utilisabilité de la plate-forme
dépend et de l’ergonomie des interfaces et de l’expérience des sujets quant au modèle de partage de
fichiers. Trois postulats ressortent de ces analyses : (i) si un sujet ne possède pas les connaissances
relatives au modèle de partage de fichiers, alors il ne pourra pas utiliser la plate-forme, même si
l’ergonomie des interfaces est efficiente ; (ii) si un sujet possède ces connaissances et si l’ergonomie
des interfaces est efficiente, alors il arrivera à utiliser la plate-forme sans trop de difficultés ; (iii) si un
sujet possède ces connaissances, mais si l’ergonomie des interfaces n’est pas efficiente, alors il aura
des difficultés à utiliser la plate-forme. L’environnement informatique s’inscrit dès lors dans une
logique de mémorisation, où l’efficience de son ergonomie réside dans le fait d’induire chez les
utilisateurs les concepts concordants avec les éléments affichés à l’écran.
350
EPIQUE’2003
Au regard de ces postulats, il apparaît qu’il est difficile d’évaluer l’ergonomie de la plate-forme si
les utilisateurs ne se sont pas acculturés au modèle de partage de fichiers. La question de
l’acculturation concerne également la commercialisation de la plate-forme, où l’élaboration d’une
mallette pédagogique devant accompagner le logiciel se révèle essentielle. Aussi, pour répondre à ce
problème d’acculturation, nous avons mis en place dans chaque classe une animation, afin que les
élèves fassent l’expérience des concepts relatifs au modèle de partage de fichiers. Nous avons
également abordé le système de code couleur, pour que les enfants vivent les différents scénarios
élémentaires qu’ils seront susceptibles de rencontrer lors de l’utilisation de l’outil. Cette animation
s’est déroulée avec tous les élèves en même temps. Nous avons préféré à l’explication de projections,
l’établissement d’une mise en scène où les élèves en sont les acteurs et où les concepts sont
matérialisés par des objets (dont certains de notre fabrication) à manipuler au cours de l’animation. Ce
choix fut motivé par le fait que l’acquisition de tout concept dépend de la manière dont on vit une
expérience. Cette dernière ne doit pas être essentiellement cognitive, mais aussi physique et
émotionnelle.
4.2.2
Répercussions ergonomiques de l’animation : création d’une interface alternative
pour une démarche proactive
Perçue comme fondamentale dès lors que l’analyse des interactions entre enfants a permis de
montrer une difficulté d’appropriation de Coopéra bien plus conceptuelle qu’opératoire, l’animation a
d’abord été conçue comme un moyen pour permettre l’utilisation de la plate-forme et comme une
méthode pour la construction d’une mallette pédagogique destinée à accompagner la
commercialisation du logiciel. Ces deux objectifs étaient pleinement explicites lors de sa mise en place
en préalable de la deuxième série d’observation. Mais cette animation s’est révélée efficace pour une
autre raison. En effet, elle s’est révélée être une véritable méthode d’évaluation ergonomique
permettant de faire des préconisations sur le design. Ce dernier objectif a été construit durant les
séances de formation elles-mêmes. Parce que nous évoluions dans un espace objectivé, en manipulant
des objets concrets et que nous étions en situations de construction de significations avec les enfants,
nous avons été capables de pointer des problèmes ergonomiques dans l’interface actuelle.
Nous faisons alors l’hypothèse que, malgré les améliorations effectuées, l’ergonomie n’est
toujours pas efficiente. Et donc que les enfants auront des difficultés à s’approprier la plate-forme.
Aussi, dans un souci de proactivité dans le projet, nous avons élaboré une interface alternative de la
page espace privé sous la forme de diapositives PowerPoint (figure 3), qui présente selon nous les
caractéristiques nécessaires à une utilisabilité efficiente de Coopéra. Les principales modifications par
rapport à la page actuelle concernent (i) l’élaboration d’une représentation du modèle de partage de
fichier, en utilisant les métaphores déjà existantes ; (ii) un repositionnement des ronds du code couleur
selon l’espace concerné, qui sont activés en fonction de l’état du système ; (iii) un repositionnement
des commandes de partage de fichiers, selon leur fonctionnalité.
Figue 3. Interface actuelle / interface alternative.
métaphores
code couleur
commandes
EPIQUE’2003
351
Nous avons mis en place une seconde animation, afin d’évaluer l’ergonomie des deux interfaces.
Nous les avons projetées successivement dans chaque classe (selon un ordre de projection différent
d’une classe à l’autre), en demandant aux élèves « ce qu’ils reconnaissaient de ce qu’on avait vu
ensemble la dernière fois ». Puis, nous leur avons présenté les différentes situations possibles de
l’activité coopérative, pour voir s’ils comprenaient les situations présentées et s’ils savaient agir en
conséquence. Les résultats indiquent que les élèves éprouvent toujours des difficultés avec l’interface
actuelle, quant à la compréhension des situations exposées et à la détermination des actions à effectuer.
En revanche, ils n’ont pas rencontré ces difficultés avec l’interface alternative, sur laquelle ils ont pu
situer leurs connaissances.
4.2.3 L’élaboration du site Internet
A la suite de ces animations, les élèves ont entrepris leur activité de conception collaborative du
site Internet. Douze binômes par classe ont été constitués et répartis selon les thèmes et les questions
préalablement définis. L’élaboration du site s’est réalisée en plusieurs séances. Elles ont duré du 17
mars au 31 mai 2002, à raison d’une heure par semaine pour une école, et de deux heures par semaine
pour les deux autres écoles. Pour ces séances, nous avons mis en place un dispositif d’observation
identique à celui utilisé pour la première série d’observations.
Il ressort des premiers retours d’analyse le fait que les enfants ne perçoivent pas d’emblée l’état
de l’activité coopérative au moment où ils affichent la page de visualisation de celle-ci et commettent
des erreurs dans leurs actions, bien que lorsqu’on les interrogent sur les propriétés affichées à l’écran
et sur les actions à entreprendre en conséquence, ils répondent correctement aux questions, malgré
quelques hésitations pour certains. Nous faisons l’hypothèse que ces difficultés proviennent certes de
la non-efficience de l’ergonomie des interfaces, mais aussi du scénario, co-déterminé avec nos
partenaires des écoles, mis en place pour la réalisation conjointe de leur site Internet. En effet, ce
dernier n’engageait pas les élèves à s’inscrire dans une dynamique coopérative, reposant sur leur seule
volonté.
5
CONCLUSION
Les analyses d’usage que nous menons sont étayées sur une posture constructiviste. Les
cognitions se construisent dans l’interaction sociale, terme à prendre dans un sens large, c’est-à-dire
incluant la matérialité ambiante. C’est pourquoi nous cherchons à confronter très rapidement les
usagers potentiels au produit en conception. Nos perspectives pour l’année prochaine sont de mettre en
place un nouveau projet de coopération dans des écoles (une quatrième école intègrera le projet), en
veillant à définir avec les instituteurs un scénario adapté aux spécificités du collecticiel. Ce projet sera
réalisé avec la nouvelle plate-forme, fruit d’une concertation importante entre les équipes partenaires,
sur la base de leurs travaux respectifs. Nous reconduirons les animations dans les classes, ainsi que les
enregistrements vidéo de séances d’utilisations, indispensables dans la compréhension du processus
d’appropriation de cet environnement informatique.
6 BIBLIOGRAPHIE
Brassac, Ch. et Grégori, N. (2003). Une étude clinique de la conception collaborative : la conception
d’un artefact. Le Travail Humain, 66, pp.101-127.
Grégori, N. et Brassac, Ch. (2001). La conception collaborative d’artefacts : activités cognitives en
situation dialogiques. Actes des Premières Journées d’Études en Psychologie Ergonomique,
(pp. 21-31). Nantes, France 29-30 octobre 2001.
Hautecouverture, J.C. ; Grégori, N. ; Charoy, F. ; Godart, C. ; Patten, M. ; Faugeras, I. (2003).
Coopéra : Analyse de l’usage d’Une plate-forme de coopération à destination d’enfants du
primaire. Human Centered Process Conference – HCP’2003. Luxembourg, 5-7 mai.
Trognon, A. & Brassac Ch. (1992). L’enchaînement conversationnel. Cahiers de linguistique
française, 13, pp.76-107.
Vinck, D. (1999). Les objets intermédiaires dans les réseaux de coopération scientifique. Contribution
à la prise en compte des objets dans les dynamiques sociales. Revue Française de Sociologie, XL
(2), pp.385-414.
352
EPIQUE’2003

Documents pareils