Texte complet - Société Française de Psychologie
Transcription
Texte complet - Société Française de Psychologie
Rencontres doctorales EPIQUE’2003 301 302 EPIQUE’2003 Analyse du lien entre la confiance a priori et l’intention d’utiliser un système d’aide à la conduite (l’ACC) Bako Rajaonah CNRS-LAMIH- Equipe PERCOTEC Université de Valenciennes et du Hainaut Cambrésis - Le Mont Houy F-59313 Valenciennes Cedex 9 [email protected] RESUME Ce texte propose un cadre théorique permettant d’analyser la confiance au sein des systèmes homme-machine dits coopératifs et adaptatifs, c’est-à-dire qui s’adaptent en temps réel aux contraintes. Dans l’analyse de tels systèmes, le facteur confiance doit être pris en compte pour expliquer les conditions dans lesquelles l’opérateur utilise le contrôle automatique. La confiance est un état psychologique qui favorise la délégation du contrôle au contrôle automatique. Elle évolue à court terme et à long terme, et elle se construit dans un premier temps quand l’opérateur n’a encore aucune interaction avec le contrôle automatique - à partir de sources extérieures. Nous avons étudié à l’aide d’un questionnaire ce début de confiance que nous avons dénommée « confiance a priori ». Les résultats montrent quels sont les avantages et les inconvénients d’une aide à la conduite (l’ACC) tels qu’ils sont perçus par les participants à partir d’une description écrite du dispositif. Ils montrent également le lien entre la confiance a priori et l’intention d’utiliser l’ACC. MOTS-CLES ACC, confiance a priori, intention d’utilisation, questionnaire, système homme-machine 1 INTRODUCTION Ce texte vise à présenter les résultats partiels d’une analyse portant sur le lien entre la confiance a priori, c’est-à-dire avant toute interaction avec un dispositif d’aide à la conduite - l’Adaptive Cruise Control (ACC) - et son intention d’utilisation. Le domaine dans lequel s’inscrit cette étude est celui des systèmes homme-machine coopératifs et adaptatifs. Nous donnerons un aperçu de cette structure théorique et nous présenterons ensuite les résultats partiels d’une analyse portant sur la confiance a priori réalisée à l’aide d’un questionnaire. 2 CADRE THEORIQUE Le cadre théorique dans lequel s’insère notre recherche est articulé autour de deux éléments clés : d’une part les systèmes homme-machine coopératifs et adaptatifs, d’autre part la confiance. Nous allons essayer de montrer que l’analyse d’un système homme-machine dit coopératif et adaptatif nécessite de prendre en compte la variable confiance. Nous suggèrerons ensuite une définition de la confiance qui nous semble appropriée pour l’analyse des systèmes homme-machine dits coopératifs et adaptatifs, et enfin nous proposerons un modèle de son évolution. 2.1 Coopérativité et adaptabilité d’un système homme-machine Considérant le concept de Joint Cognitive System (Hollnagel & Woods, 1983), Hollnagel (1993) définit l’adaptabilité d’un système homme-machine comme sa capacité à réaliser une tâche quand les conditions environnementales font que les procédures normales ne peuvent plus être utilisées. La conséquence de cette perspective de système homme-machine adaptatif est que la meilleure répartition des tâches, celle qui fait l’adaptabilité du système, ne saurait être rigide, fixée a priori. Elle doit être flexible et dynamique, modulable en fonction de la situation (Hollnagel & Woods, 1983). Selon Hollnagel et Bye (2000), les fonctions ne devraient plus être réparties suivant le principe de compensation mais suivant un principe de complémentarité : les agents que sont la machine et EPIQUE’2003 303 l’opérateur humain sont mutuellement dépendants pour réaliser une performance globale, ils doivent collaborer, ou coopérer si l’on se réfère à Hoc (2000, 2001). La définition minimale de la coopération entre deux agents donnée par Hoc (2001) est la suivante : (a) chaque agent poursuit des buts et peut interférer sur les buts, les ressources, les procédures ou les résultats de l’un ou de l’autre; (b) chaque agent essaie de gérer les interférences afin de faciliter l’activité individuelle (de l’un ou l’autre agent) et/ou la tâche commune quand elle existe. L’interférence est positive lorsqu’elle favorise la réalisation du but de l’un des agents, elle est négative lorsqu’elle menace la réalisation de ce but. L’auteur précise cependant que la définition n’est pas forcément symétrique, c’est-à-dire que l’on peut appliquer le principe de la coopération aux systèmes homme-machine malgré la capacité coopérative limitée des machines. En résumé, l’adaptabilité du système homme-machine aux contraintes environnantes permet de mieux coordonner les fonctions afin de gérer les interférences de façon dynamique. L’adaptabilité du système homme-machine nécessitant que les agents soient interchangeables, du moins pour certaines fonctions, l’agent humain reste le responsable de l’organisation globale de la tâche (Hoc, 2000, 2001). Et c’est dans ce cas précis que la confiance est une variable intermédiaire que nous devons prendre en compte en tant que facteur influençant la décision de l’opérateur d’utiliser ou non le contrôle automatique (Lee & Moray, 1992, 1994 ; Muir & Moray, 1996). En effet, du fait des différentes dynamiques qui se côtoient au sein de la situation dans laquelle évolue le système homme-machine, l’opérateur ne peut avoir en temps réel une pleine connaissance des informations nécessaires pour agir et notamment décider de la meilleure répartition des fonctions. Il lui faut donc un mécanisme interne qui lui permette de transformer ou du moins de réduire son sentiment d’incertitude et de risque quant aux conséquences possibles de sa décision (Luhmann, 2000). 2.2 La variable confiance au sein des systèmes homme-machine coopératifs et adaptatifs 2.2.1 Définition Nous définissons la confiance comme une expérience mentale, un état psychologique constitué de connaissances, de croyances et d’attentes positives induisant chez l’opérateur la volonté d’utiliser le contrôle automatique. La confiance résulte de la représentation de la situation de l’opérateur ainsi que d’un compromis entre, d’une part, les avantages perçus apportés par l’utilisation du contrôle automatique et, d’autre part, des inconvénients qui lui sont associés, notamment dans le cas où le contrôle automatique ne répondrait pas à ses attentes, ce qui l’obligerait à reprendre le contrôle. Cette définition, résultant d’une revue de la littérature, nous semble adaptée à l’analyse des situations de décision engendrées par les interactions homme-machine au sein desquelles l’opérateur humain a le libre choix de déléguer ou non une ou plusieurs fonction(s) au contrôle automatique. La manifestation observable de la confiance au sein des systèmes homme-machine coopératifs et adaptatifs serait l’utilisation du contrôle automatique. En effet, de nombreux auteurs (comme par exemple Luhmann, 2000) s’accordent sur le fait que le problème de la confiance n’est vraiment pertinent que si il y a une opportunité de choix de comportement. Pour Castelfranchi (1998), la confiance est à la base de la délégation : la délégation est une relation dans laquelle un premier agent cognitif X, ayant besoin de l’action réalisée par un deuxième agent cognitif Y, inclut l’activité de Y sous la forme de rôle concernant un but ou une action. Il précise que cette attribution de rôle repose sur la confiance. Le processus mental qui sous-tend la confiance est selon nous le processus qui permet de réduire le sentiment de risque. En effet, pour de nombreux auteurs, une des fonctions de la confiance est de réduire le sentiment d’incertitude et de risque (Luhmann, 2000 ; Möllering, 2001). Une situation est ressentie comme risquée par un individu quand celui ci n’exclut pas d’être confronté dans le futur à des conséquences négatives de la situation actuelle ; la perception du risque dépend du sentiment de contrôle de l’individu sur la situation (Numan, 1998), c’est-à-dire de la confiance en soi. L’incertitude et le risque, bien que liés, sont distincts : le risque est associé à l’éventualité de conséquences négatives pour l’individu alors que l’incertitude concerne le manque de connaissances sur ce qui va advenir, que ces évènements soient positifs ou négatifs. Parce que le futur est incertain, l’individu doit envisager que les conséquences de ses décisions actuelles pourront être négatives (et/ou positives) ; alors que 304 EPIQUE’2003 lorsqu’il perçoit le futur comme certain, cela signifie qu’il pense (même à tort) savoir exactement quels seront ces évènements. Le processus mental de réduction du sentiment de risque sous-tendant la confiance pourrait alors se passer au cours de l’activité d’anticipation de la situation future : il pourrait s’agir d’une part de la réduction mentale des possibles, notamment à ceux qui ont des conséquences positives pour l’opérateur et, d’autre part, de la croyance momentanée que les possibles anticipés correspondent à ceux qui vont le plus probablement advenir. En effet, Lewis et Weigert (1985 – cités par Möllering, 2001) déclarent à propos de la confiance : « to trust is to live as if certain rationaly possible futures will not occur » ; et pour Numan (1998), « trust is anticipating the future by assuming that the future is certain ». Avoir confiance c’est donc croire momentanément que « tout va bien se passer », ce qui correspond au « leap of faith » évoqué par Muir (1994) dans sa description de l’évolution de la confiance : le dernier stade de l’évolution de la confiance est la foi lorsque l’opérateur humain croit que la machine va continuer à bien fonctionner, même dans les situations où il n’a pas pu la tester. 2.2.2 Évolution de la confiance La confiance évolue à court terme et à long terme. Elle est modifiée à court terme en fonction de la performance locale du contrôle automatique (Muir & Moray, 1996) ainsi que de la performance propre de l’opérateur (Lee & Moray, 1992, 1994). La confiance évolue également sur un plus long terme, avec l’élaboration par l’opérateur d’un modèle mental stable de l’agent machine et de soi (Zuboff, 1988 ; Hoc, 2000) et d’un modèle de l’interaction entre les deux agents (Rajaonah, 2001). Selon Numan (1998), la confiance se situe sur un continuum qui va de la foi aveugle basée sur aucune connaissance sur le référent, à la certitude totale quand l’individu est totalement sûr de ce qui va advenir : il ne perçoit plus de risque. Numan (1998) propose un modèle de l’évolution de la confiance qui décrit la manière dont cette évolution se fait sur les deux empans temporels : - Au temps T1, un fait empirique permet à la confiance de se baser sur des résultats d’interactions avec le contrôle automatique. Puis, en fonction des conséquences des évènements qui surviennent en T2, T3, T4, etc., la confiance augmente ou diminue localement. Muir (Muir, 1994; Muir & Moray, 1996) observe d’ailleurs que la confiance est fragile et qu'elle est directement affectée par les performances de la machine. - Cependant, sur le long terme, la courbe de confiance va en augmentant. Selon Numan (1998), tout individu tend vers le niveau de certitude totale. Et une fois la confiance accordée, elle ne disparaît jamais même si elle peut être altérée localement. Néanmoins, Lee et Moray (1992) observent que si la confiance dans la machine s'accroît avec la familiarisation et baisse lorsque la machine est défaillante, elle est alors plus longue à se rétablir. Pour Numan (1998), la construction de la confiance commence par une première étape où seules les sources extérieures peuvent être utilisées par l’individu pour construire la confiance. Ces ressources extérieures sont entre autres les autres utilisateurs qui font déjà confiance à la machine ou des individus qui incitent à faire confiance à la machine et à l’utiliser. L’auteur distingue donc la confiance de type I, basée sur les informations indirectes, de la confiance de type II basée sur les informations directes, les faits empiriques. La confiance de type II est celle qui est classiquement décrite dans la littérature. Selon Muir (Muir, 1994 ; Muir & Moray, 1996), le premier stade de la confiance est la prédictibilité des performances de la machine. Il faut souligner que ces performances peuvent être bonnes ou mauvaises. Le deuxième stade de la confiance est la fiabilité de la machine ressentie par l'opérateur lorsqu'il a pu la tester dans des conditions risquées et incertaines : dans ces conditions, il est assuré de la bonne performance de la machine et n'éprouve plus le besoin de vérifier sa prédictibilité. Le troisième stade est la foi, lorsque l’opérateur croit que la machine va rester fiable même dans des situations non encore rencontrées. Ainsi que nous l’avons écrit dans le paragraphe précédent, c’est la foi qui permet d'affronter l'incertitude des environnements dynamiques. 2.3 Problématique L’objectif des travaux effectués au cours de la thèse est d’analyser la confiance ressentie par le conducteur lorsqu’il doit interagir avec un système d’aide tel l’Adaptive Cruise Control (ACC). EPIQUE’2003 305 L’ACC fait partie des aides actives apportées au conducteur automobile. Il prend en charge une partie de la tâche de conduite à savoir la régulation de la vitesse et de l’interdistance et peut, de ce fait, contribuer à l’amélioration de la sécurité. Un des problèmes essentiels posés par les assistances comme l’ACC est la reprise du contrôle par le conducteur. L’ACC ne peut en effet gérer que des décélérations modérées, de plus il n’est souvent fonctionnel que dans un intervalle de vitesse donné et, enfin, la cible doit se situer à une certaine distance pour être détectée. La situation peut devenir dangereuse, et pour éviter la collision, le conducteur doit reprendre le contrôle pour freiner rapidement. Il est donc intéressant de connaître les conditions psychologiques et situationnelles dans lesquelles le conducteur utilise le contrôle automatique (manuel) de la vitesse et de l’interdistance. Le travail présenté ici consiste en l’analyse du lien entre la première étape de la confiance, la confiance de type I décrite par Numan (1998) ou confiance a priori - c’est-à-dire avant interaction avec l’ACC – et l’intention d’utiliser le dispositif. 3 ANALYSE EMPIRIQUE DU LIEN ENTRE LA CONFIANCE A PRIORI ET L’INTENTION D’UTILISATION DE L’ACC 3.1 Participants, matériel et procédure 256 participants (164 femmes et 92 hommes) de moyenne d’âge 26 ans (± 8ans) ont répondu à un questionnaire de 55 items relatifs à la confiance interpersonnelle, à la confiance dans les nouvelles technologies, aux avantages et aux inconvénients supposés d’un régulateur de vitesse et d’interdistance, ainsi qu’à l’intention d’utilisation de l’ACC. Le principe de fonctionnement de l’ACC est décrit dans le questionnaire. Cette description sur papier correspond aux sources extérieures dont parle Numan (1998) lorsqu’il décrit la construction de la confiance. Les participants ont été invités à positionner leur degré d’accord avec le contenu des items à l’aide d’une croix sur une ligne de 10 cm. 3.2 Résultats et discussions Nous avons posé plusieurs questions relatives aux avantages et aux inconvénients potentiels de l’ACC. Ensuite, nous avons posé la question de savoir si le participant utiliserait souvent l’ACC si son véhicule en avait été équipé. Les résultats sont présentés dans le tableau 1. Nous observons qu’aux yeux des participants interrogés, l’ACC présente des avantages certains dont les plus importants semblent être une conduite plus sécurisée et moins stressante ainsi qu’une amélioration du confort de conduite (la question sur l’utilité de l’ACC a été posée séparément des avantages). Ces résultats sont importants dans la mesure où ce sont les objectifs visés par les concepteurs de ce type de dispositif : les régulateurs de vitesse et d’interdistance sont censés alléger la charge de travail du conducteur et améliorer sa sécurité (Hoedemaker & Brookhuis, 1998). Nous observons également que les risques de perte du plaisir de la conduite et de gêne à la conduite habituelle sont parmi les inconvénients potentiels liés à l’utilisation d’un ACC. Dans un travail antérieur effectué en collaboration l’INRETS et Renault (Rajaonah, 2001), nous avons effectivement mis en évidence que l’ACC pouvait créer des interférences négatives de trois types : en gênant le conducteur dans sa volonté de maintenir une vitesse de croisière, en gênant les autres usagers de la route ce qui pouvait gêner en retour le conducteur. Selon nous, ces avantages et inconvénients perçus sont des éléments sur lesquels est basée la confiance (voir section 2.2.1). Cependant, le poids accordé à chacun de ces éléments ne sera sans doute pas le même si l’individu est réellement confronté à l’ACC. Par exemple, en situation de conduite, en considérant que le but principal du conducteur est de se déplacer d’un point à un autre en évitant les accidents, les éléments comme le risque d’accident avec le véhicule de devant et/ou de derrière seront certainement davantage corrélés à l’intention ou non d’utiliser le régulateur. C’est effectivement ce qui a été mis en évidence lors d’une expérimentation réalisée en collaboration avec l’INRETS, ultérieurement à la présente étude. Dans cette seconde expérimentation, nous avons utilisé un mini simulateur de conduite avec un ACC implémenté dans les programmes de simulation. L’analyse des scores aux questionnaires ainsi que des données de conduite montrent par exemple qu’après le premier essai expérimental au cours duquel le participant a eu le choix d’utiliser ou non 306 EPIQUE’2003 l’ACC, le risque d’accident avec le véhicule de derrière est corrélé négativement et significativement avec l’intention d’utilisation de l’ACC (r = - 0.595; p < 0.005). Nous observons également dans le tableau 1 que, malgré les scores relativement élevés aux items concernant l’utilité du régulateur et les avantages certains perçus par les participants (conduite plus sécurisée et moins stressante, amélioration du confort de conduite), l’intention d’utilisation de l’ACC reste modérée (5,90 sur une échelle de 10). Mais ici encore, l’intention d’utilisation de l’ACC ainsi que son utilisation effective pourraient être différentes en cas de confrontation réelle avec le dispositif. Tableau 1. Les scores moyens et les écart-types aux questions ainsi que les coefficients de corrélation avec le score relatif à la question sur l’intention d’utilisation de l’ACC. Inconvénients perçus Avantages perçus Avantages et inconvénients apportés par l’utilisation de l’ACC Conduite moins stressante Allègement de la tâche de conduite Facilitation de la tâche de conduite Amélioration du confort de conduite Conduite plus sécurisée Utilité de l’ACC Conduite plus dangereuse Risque d’accident avec le véhicule de devant Risque d’accident avec le véhicule de derrière Risque de dépendance à l’ACC Risque de perdre le plaisir de la conduite Risque de gêne à la conduite habituelle Scores moyens (de 0 à 10cm) Ecart type 5,34 4,27 2,67 2,72 Corrélations significatives avec l’intention d’utilisation moyenne : 5,90 cm (2,91) r=0,479 ; p<0,001 r=0,300 ; p<0,001 4,65 2,71 r=0,410 ; p<0,001 5,25 2,65 r=0,484 ; p<0,001 6,98 6,32 3,58 3,48 2,35 2,54 2,76 2,60 r =0,512 ; p <0,001 r=0,607 ; p <0,001 r = - 0,132 ; p < 0.05 4,13 2,69 5,42 5,07 3,00 3,18 r = - 0,448 ; p < 0.001 4,90 2,91 r = - 0,574 ; p < 0.001 En effet, pour la plupart des auteurs, seule la familiarisation avec le contrôle automatique permet à la confiance de se construire et à l’opérateur de décider s’il est judicieux ou non d’utiliser le contrôle automatique. Il semble donc nécessaire que l’utilisateur potentiel d’une aide à la conduite ait l’opportunité de se familiariser avec le dispositif. En effet, d’après le résultat obtenu, il apparaît que même si l’ACC est implémenté en série dans son véhicule, la perception par le conducteur de l’utilité de l’ACC n’implique pas forcément une intention d’utilisation de sa part et ce, d’autant que sa confiance a priori reste faible. Or, la non confiance inappropriée, tout autant que la confiance inappropriée (par exemple, la surconfiance) peuvent avoir des conséquences dommageables pour le système homme-machine (Muir, 1994 ; Parasuraman & Riley, 1997). En cas de non confiance inappropriée, outre le fait que le système homme-machine ne profite pas des avantages du contrôle automatique, la charge de travail de l’opérateur humain ainsi que le risque d’erreurs humaines peuvent être accrus. En cas de confiance inappropriée, l’opérateur peut ne plus savoir faire face aux situations critiques, notamment lorsque le contrôle automatique est défaillant à les gérer. Il court également le risque de ne pas savoir reprendre le contrôle en temps opportun en cas de défaillance technique du contrôle automatique. Par conséquent, à défaut d’une familiarisation obligatoire avec l’ACC (par exemple lors de l’apprentissage de la conduite), il est important de chercher à augmenter le niveau de la confiance a priori pour amener le conducteur d’un véhicule équipé du dispositif à l’essayer, ce qui lui permettra de se faire une opinion à partir de faits empiriques et, à terme, de coopérer de façon efficace avec l’ACC. EPIQUE’2003 307 4 CONCLUSION Il est évident que cette première étude n’apporte aucune réponse à la question de savoir comment la confiance influence l’utilisation effective de l’ACC. Elle a tout de même permis d’identifier des dimensions possibles de la confiance du conducteur lorsqu’il doit utiliser un ACC, ce qui nous a aidé à élaborer un questionnaire sur la confiance de type II à savoir la confiance résultant de l’interaction avec le dispositif, confiance qui fait l’objet de l’étude qui a été réalisée en collaboration avec l’INRETS sur mini simulateur de conduite, et dont les données recueillies sont en cours d’analyse. Les 21 participants de cette étude ont répondu à des questionnaires sur la confiance de type I (avant familiarisation avec l’ACC) et de type II (après chaque essai expérimental). Chaque participant a été invité à tester l’ACC pendant la phase de familiarisation. Puis, pour les trois phases expérimentales, il était libre d’utiliser ou non l’ACC. L’état d’activation de l’ACC est une des données analysées. Nous espérons que les résultats obtenus nous permettront d’analyser l’évolution de la confiance, notamment les conditions dans lesquelles elle peut augmenter et éventuellement diminuer, d’examiner les liens entre confiance a priori (type I) et confiance basée sur la pratique de l’ACC (type II) ainsi qu’entre intention d’utilisation et utilisation réelle de l’ACC. Nous espérons également apporter des éléments de réponse quant à la nature de la confiance ressentie par le conducteur, les deux types de questionnaire contenant des items relatifs à la confiance dans le dispositif ACC, la confiance dans la relation entre le conducteur et l’ACC et la confiance en soi en ce qui concerne la gestion des vitesses et de l’interdistance. Une autre expérimentation sur simulateur de conduite et avec ACC est en cours de préparation. A l’issue de ces deux expérimentations, nous espérons pouvoir proposer un modèle de la confiance ainsi qu’une méthode d’analyse de la confiance qui pourraient servir pour d’autres types d’aide à la conduite. 5 REFERENCES BIBLIOGRAPHIQUES Castelfranchi, C. (1998). Modelling social action for AI agents. Artificial Intelligence, 103, 157-182 Hoc, J.-M. (2000). From human-machine interaction to human-machine cooperation. Ergonomics, 43, 833-843. Hoc, J.-M. (2001). Towards a cognitive approach to human-machine cooperation in dynamic situations. International Journal of Human-Computer Studies, 54, 509-540. Hoedemaeker, M., Brookhuis, K.A. (1998).Behavioural adaptation to driving with an adaptive cruise control (ACC). Transportation Research Part F, 1, 95-106. Hollnagel, E. (1993). Human reliability analysis : context and control. London : Academic Press. Hollnagel, E., & Woods, D.D. (1983). Cognitive systems engineering : new wine in new bottles. International Journal of ManMachine Studies, 18, 583-600. Hollnagel & Bye (2000). Principles for modelling function allocation. International Journal of Human-Computer Studies, 52, 253-265. Lee, J., & Moray, N. (1992). Trust, control strategies and allocation of function in human-machine systems. Ergonomics, 35, 1243-1270. Lee, J., & Moray, N. (1994). Trust, self-confidence, and operators’ adaptation to automation. International Journal of HumanComputer Studies, 40, 153-184. Luhmann, N. (2000). Familiarity, confidence, trust : problems and alternatives. In D. Gambetta (Ed.), Trust – Making and breaking cooperative relation, electronic edition, Department of Sociology, University of Oxford, chapter 6, pp. 94-107, http://www.sociology.ox.ac.uk/papers/luhmann94-107.pdf. Möllering, G. (2001). The nature of trust : from Georg Simmel to a theory of expectation, interpretation and suspension. Sociology, 35, 403-420. Muir, B.N. (1994). Trust in automation : Part I. Theorical issues in the study of trust and human intervention in automated systems. Ergonomics, 37, 1905-1922. Muir, B.M., & Moray, N. (1996). Trust in automation. Part II. Experimental studies of trust and human intervention in a process control simulation. Ergonomics, 39, 429-460. Numan, J.H. (1998). Knowledge-based systems as companions. Trust, human computer interaction and complex systems, electronic edition, University Library Groningen, pp. 30-56, http://www.ub.rug.nl/eldoc/dis/management/j.h.numan/, accédé le 05/11/02. Parasuraman, R., & Riley, V. (1997). Humans and automation : use, misuse, disuse, abuse. Human Factors, 39, 230-253. 308 EPIQUE’2003 Rajaonah, B. (2001). La relation de confiance entre le conducteur et un système automatique de régulation de vitesse. Communication présentée à EPIQUE 2001: Premières Journées d'Étude en Psychologie Ergonomique. Nantes, France, Octobre. Zuboff, S. (1988). In the age of the smart machine. The future of work and power. New York : Basic Books. EPIQUE’2003 309 310 EPIQUE’2003 Rôle de la modalité perceptive dans les processus de mémorisation chez des travailleurs postés Edith Galy Laboratoire Travail et Cognition Maison de la Recherche Université Toulouse Le Mirail 5, allée Antonio Machado 31058 Toulouse cedex 9 Jean-François Camps IUFM de Midi-Pyrénées Toulouse Claudine Mélan Laboratoire Travail et Cognition RESUME De nombreuses entreprises fonctionnant de plus en plus en continu, les opérateurs sont amenés à travailler en équipes alternantes (3X8) couvrant l’ensemble du nycthémère. De plus, l’automatisation poussée des installations s’est traduite par un accroissement des tâches de surveillance et de supervision. Notre travail est donc basé sur l’étude des performances de mémorisation immédiate en fonction de la modalité de présentation de mots (auditive vs visuelle) et de leurs fluctuations au cours du nycthémère. Une supériorité des performances lors d’une présentation auditive est observée tout au long des 24 heures. Cet effet s’explique par les caractéristiques particulières de traitement des mots lus et entendus (codages sensoriels, phonologique et lexical). Par ailleurs, lors d’un encodage auditif des mots, les performances restent stables tout au long des 24 heures alors qu’elles varient avec l’état de vigilance des sujets lorsque les items sont présentés visuellement. Ces données devraient être prises en compte pour optimiser le fonctionnement des salles de contrôle et adapter les postes de travail aux variations circadiennes des capacités de traitement des opérateurs. MOTS-CLES Mémoire à court terme ; Modalité visuelle ; Modalité auditive ; Variations circadiennes ; Travail posté 1 INTRODUCTION Le travail en équipes alternantes ou travail posté a connu une extension considérable en France au cours des 30 dernières années (20%). Cependant, la plupart des paramètres physiologiques et psychologiques de l’homme sont caractérisés par une alternance, au cours de la journée de 24 heures, entre des phases d’efficacité croissante et des phases d’efficacité réduite. Ainsi les opérateurs travaillant en 3X8, par exemple selon un cycle de deux matinées, suivies de deux après-midi, puis de trois nuits voient leur rythme activité/repos déphasé par rapport au système circadien, entraînant une fatigue chronique susceptible d’engendrer irritabilité et baisse de performance au travail et, à plus long terme, des problèmes de santé (Marquié, Paumès, & Volkoff, 1998 ; Folkard & Monk, 1979a). Par ailleurs, l’automatisation poussée des installations a modifié considérablement la nature des tâches dévolues aux travailleurs postés. Selon Lejon (1991), de nombreux secteurs industriels sont concernés par ces mutations technologiques (l’énergie, la chimie, la sidérurgie, le secteur pétrolier, ainsi que les transports…). La transformation des systèmes de production, avec notamment l’introduction des ordinateurs de process, s’est traduite par un accroissement des tâches de surveillance et de supervision, nécessitant le maintien d’un niveau de vigilance élevé. En effet, le niveau d’intervention directe et manuelle de l’homme se déplace progressivement vers des activités mentales de commande et de coordination (Poyet, 1990, p.224). A cela s’ajoute la surcharge de travail de l’opérateur, la nuit, en particulier de par son bas niveau de vigilance. La réflexion dans le sens de la sécurité des installations et processus de production devrait donc partir de l’éventualité d’une défaillance de l’opérateur dans certaines conditions pour envisager la EPIQUE’2003 311 conception et l’aménagement des salles de contrôle et des écrans (Quéinnec & de Terssac, 1980). Une attention particulière devrait être consacrée à la présentation des informations afin de réduire la pénibilité du travail et d’améliorer les conditions de sécurité. Une étude de simulation menée par Chatty, Athènes et Bustico (1999) chez des contrôleurs aériens montre qu’une alarme visuelle affichée sur un écran ordinateur en périphérie, proche de l’avion concerné, est détectée seulement 15 minutes plus tard. Ces informations étant visuelles, elles ne pourront être appréhendées que lorsque les yeux balayent le champ visuel correspondant et que le contrôleur y prête attention. De plus, une étude faite par Andorre et Quéinnec (1998) révèle que la consultation de pages écran était supérieure l’après-midi et moindre la nuit et le matin. Cette diminution du nombre de regards la nuit peut laisser penser que l’information visuelle sera détectée moins facilement qu’une information auditive, qui elle, est habituellement intégrée automatiquement et rapidement. Les données concernant l’efficacité respective des canaux visuels et auditifs dans le traitement des consignes verbales sont rares. De plus, parmi les travaux s’intéressant à cette question, ceux qui tiennent compte des fluctuations circadiennes des performances en fonction de la modalité de présentation des informations semblent inexistants. Des recherches dans ce domaine pourraient alors éclairer utilement les choix en matière de présentation d’informations et ainsi contribuer à améliorer certains postes de travail. Dans cette optique, nous avons étudié dans quelle mesure la modalité de présentation d’un matériel verbal influence la mémorisation de celui-ci lorsqu’elle est évaluée à différentes heures du jour et de la nuit chez des opérateurs postés. Pour cela, nous nous sommes déplacés dans une entreprise de production d’énergie (centrale nucléaire) en fonctionnement continu. Une partie des opérateurs travaille en horaires alternants (3X8) à rotation rapide (changeant de postes tous les 2 ou 3 jours), postés devant des écrans de contrôle, des ordinateurs et des alarmes. La démarche choisie est une démarche expérimentale, c’est à dire l’utilisation d’un matériel verbal (listes de mots) inconnu et non lié à l’activité des opérateurs. Le déroulement des expériences se fait dans une pièce calme avec des conditions contrôlées. Cependant, cette étude est réalisée dans des conditions écologiques, puisque les volontaires étaient des travailleurs postés et que l’étude se fait sur leur lieu de travail et au moment où les opérateurs se tiennent en poste. 2 FLUCTUATIONS CIRCADIENNES DES PERFORMANCES DE MEMORISATION L’évaluation du niveau de vigilance de l’individu grâce à des indicateurs objectifs (activité électro-encéphalographique) montre que celui-ci est à son minimum vers cinq heures du matin, augmente rapidement jusqu’en fin de matinée, puis plus lentement, pour être à son maximum en fin d’après-midi. Ensuite, le niveau de vigilance chute rapidement jusqu’en fin de cycle. Des résultats similaires ont été obtenus avec l’échelle d’auto-estimation de la vigilance de Thayer (Thayer, 1986). De nombreux travaux montrent que l’efficience cognitive varie également au cours des 24 heures et cela parallèlement au niveau de vigilance en ce qui concerne notamment les performances à des tâches perceptivo-motrices. (Kleitman, 1963 ; Tassi, 1999 ; Colquoun, 1971 ). Pour des tâches cognitives plus complexes, impliquant notamment la mémoire immédiate, la relation entre performances et niveau de vigilance est toutefois moins étroite (Folkard & Monk, 1985 ; Owens et al., 2000 ; Testu, 1988). Un certain nombre de travaux se sont intéressés à l’interaction entre vigilance et performances de mémorisation. Deux hypothèses sont proposées pour expliquer les rythmes de l’efficacité mnésique, chacune basée sur une conception différente de la mémoire. La première conception est fondée sur un système mnésique à court terme doté d’une capacité limitée qui évoluerait en fonction d’un processus unique d’activation (Blake, 1967 ; Colquhoun, 1971 ; Folkard & Monk, 1979b). La capacité de traitement du sujet varierait au cours de la journée de 24 heures « avec une capacité plus grande à certaines heures et moins grande à d’autres » (Querrioux-Coulombier, 1989). La capacité de traitement serait modulée par des fluctuations du niveau d’activation cérébrale du sujet. En fin d’après-midi, moment où le niveau d’activation serait maximal, la capacité de traitement du sujet serait donc plus grande, et une tâche saturerait moins rapidement cette capacité de traitement que le matin (Wright, Hull, & Czeisler, 2002). Par ailleurs, une étude de Baddeley et al. (1999) montre que, lors d’une tâche de mémoire à court terme, le maintien en mémoire d’informations est coûteux et sollicite fortement l’administrateur central de la mémoire de travail. La capacité de cet administrateur serait limitée et diminuerait lorsque la tâche requiert une attention soutenue. On peut ainsi penser que la capacité de 312 EPIQUE’2003 l’administrateur central, qui permet l’allocation des ressources attentionnelles nécessaires à l’exécution de la tâche, serait plus élevée lorsque le niveau de vigilance des sujets l’est aussi. Cependant, cette conception ne permet pas de rendre compte de changements qualitatifs de la performance intervenant indépendamment de variations quantitatives des scores de rappel. Ainsi Folkard et Monk (1979b) ont suggéré que le matin, le sujet procéderait spontanément à un traitement de surface des mots et qu’une activité de répétition subvocale, relativement automatique permettrait de maintenir l’information en mémoire à court terme. Lorsque le niveau de vigilance augmente, une stratégie de traitement plus élaborée et concernant les aspects sémantiques des mots, serait mise en jeu. Les auteurs proposent que des variations d’un processus d’activation seraient responsables de l’évolution des processus de traitement du matériel. Cette hypothèse est en accord avec des études de laboratoire portant sur la mémorisation d’informations verbales (Oakhill & Davies, 1989 ; Lorenzetti & Natale, 1996 ; Maury et Quéinnec, 1992). En effet, les informations verbales mémorisées subissent de très nombreuses transformations appelés codages. Il existe des codes sensoriels (auditif, visuel) mais également des codes plus abstraits comme le code lexical ou sémantique. Chaque code a ses propres caractéristiques, et en particulier une durée de vie différente (Lieury, 1992). Dans un premier temps, une information auditive sera codée sous forme d’un code acoustique alors qu’une information visuelle sera codée en un code visuel. Ces informations sont par la suite codées sous forme phonologique, puis lexicale et sémantique. Le codage sensoriel représente donc un traitement très superficiel, le codage phonologique un traitement intermédiaire et les codages lexical et sémantique correspondent au traitement le plus profond de l’information. Ainsi, selon l’hypothèse de Folkard et Monk (1979b), une stratégie de traitement des aspects de surface des mots le matin correspondrait à un codage sensoriel ou phonologique, alors qu’une stratégie de traitement plus élaborée l’après-midi correspondrait à un codage lexical ou sémantique. Sachant que ces codes n’ont pas les mêmes caractéristiques en fonction de la modalité de présentation des informations (auditive vs visuel), le niveau de vigilance des sujets ne devrait pas avoir le même effet sur les performances de mémorisation en fonction de la modalité utilisée. 3 MODALITE PERCEPTIVE ET MEMORISATION Les codes sensoriels auditif et visuel n’ont pas la même durée de vie, en effet, le code visuel persisterait 200 à 400 ms (van der Heijden, 1981) et le code auditif de l’ordre de 3 à 4 secondes (Darwin, Turvey et Crowder, 1972). Cette persistance du code auditif au-delà du code visuel expliquerait que les performances de restitution à des tâches de rappel ou de reconnaissance à court terme sont meilleures lors d’une présentation auditive plutôt que visuelle des mots (Murdock, 1967 ; Madigan, 1971 ; Routh, 1976 ; Murdock & Walker, 1969 ; Engle, 1974). Cette supériorité est appelée « effet de modalité » ou encore « supériorité auditive ». Certains auteurs soulignent cependant que l’effet de modalité est si robuste et durable que la persistance du code acoustique ne permet pas à elle seule d’expliquer ce phénomène. Un autre élément explicatif de la supériorité auditive peut être apporté par l’étude des étapes ultérieurs du traitement de l’information. En effet, les informations présentées visuellement et auditivement ne semblent pas avoir accès au codage phonologique de la même manière. Le stockage phonologique correspond d’une part à la subvocalisation qui assure le recodage du graphique (visuel) en phonologique et à l’autorépétition subvocale qui sert de mémoire « artificielle » permettant de prolonger la durée de vie de l’information (Lieury, 1992). Ainsi, les informations verbales visuelles subissent d’abord un recodage phonologique alors que les informations auditives sont automatiquement et directement codées de cette manière (Baddeley, 1996). Par conséquent, la supériorité auditive peut être expliquée en partie par le fait que, contrairement aux informations visuelles, les informations auditives accèdent directement au stock phonologique permettant leur maintien en mémoire. De même, l’accès à la mémoire lexicale serait plus direct pour les mots entendus que lus (Gineste & Le Ny, 2002). En effet, les éléments du mot entendu seraient traités de manière séquentielle de sorte que la reconnaissance du mot entier pourrait souvent être faite avant que la fin du mot ne soit entendue (Marslen-Wilson, 1987 ; 1990). Au contraire, pour un mot écrit, le traitement se ferait pour toutes les lettres simultanément et par saccade avant que le mot ainsi traité n’accède au niveau lexical (Reicher, EPIQUE’2003 313 1969). Par conséquent, l’accès au code lexical serait quasiment instantané pour les informations auditives et moins immédiat pour les informations visuelles. En résumé, nous avons vu qu’à différentes étapes du traitement des mots, les informations présentées dans la modalité auditive mettraient en jeu des processus moins coûteux que les informations visuelles. La supériorité des performances de mémorisation résulteraient d’un codage acoustique plus durable, et des codages phonologique et lexical plus directs. 4 PERFORMANCES DE MEMORISATION IMMEDIATE EN FONCTION DE LA MODALITE DE PRESENTATION DES MOTS ET LEURS FLUCTUATIONS AU COURS DU NYCTHEMERE Les travaux décrits ici tentent de préciser les liens qui existent entre le moment de la journée et les caractéristiques perceptives (modalité visuelle/auditive) et mnésiques de la tâche. Les performances sont évaluées toutes les quatre heures (3h, 7h, 11h, 15h, 19h et 23h) au cours du nycthémère grâce à des listes de mots : épreuve qui met en jeu des capacités également impliquées dans de nombreuses activités de notre vie quotidienne (n° tel, carte bancaire, règles de jeux, production et compréhension du langage – enchaînement de mots de phrases- et de la musique…) et professionnelle (consignes de fonctionnement, de sécurité, …). Dans l’épreuve sérielle utilisée, lors de chacun des 24 essais, six mots sont présentés au rythme de un par seconde (phase d’encodage), puis après un délai de 4 secondes, un mot-test est présenté et les sujets décident si celui-ci figurait ou non dans la liste de mots présentée au début de cet essai (phase de restitution). La modalité de présentation des mots varie aléatoirement à la fois lors de la phase d’encodage et de restitution ce qui permet de vérifier si l’effet de la modalité de présentation mis en évidence lors de la phase d’encodage, est modulé par la modalité de présentation du mot-test lors de la phase de restitution. Les performances de mémorisation, évaluées par le nombre moyen de mots reconnus, sont supérieures lorsque l’encodage se fait par le canal auditif, et ce quelque soit la modalité de présentation du mot-test. Cette supériorité auditive concerne plus particulièrement la partie récente de la courbe sérielle, et ce à tous les points horaires d’observation. Par conséquent, elle pourrait être attribuée à une persistance durable du code acoustique et à un codage phonologique direct des informations auditives. Par ailleurs, l’effet de récence qui est observé à tous les points horaires lors d’un encodage auditif des mots est donc stable dans cette modalité tout au long des 24 heures. En revanche, lors d’un encodage visuel, l’effet de récence apparaît l’après-midi (15h et 19h), alors qu’un tel effet est absent le matin et la nuit. Or, c’est à ce moment-là que le niveau de vigilance des sujets est le plus faible tels qu’en attestent les résultats obtenus avec le questionnaire d’auto-évaluation de Thayer. Par conséquent, dans ces conditions expérimentales, les performances de reconnaissance d’items présentés visuellement varient avec l’état de vigilance des sujets, alors qu’elles restent stables au cours du nycthémère lorsque les items sont présentés auditivement. Ces résultats permettent de trouver des applications utiles pour certains postes de travail, notamment ceux sur lesquels travaillent les agents de surveillance que nous avons évalués, qui n’utilisent jusqu’à présent que la modalité visuelle. Les items les plus récents d’une liste de mots subissent un traitement plus superficiel que les premiers items (Greene, 1987 ; Wixted, 1991). L’apparition d’un effet de récence l’après-midi lors d’une présentation visuelle pourrait donc être expliquée par une variation au cours de la journée de la capacité de stockage des informations sensorielles et phonologiques dans des registres à capacité limitée. Celle-ci serait plus importante l’après-midi au moment où le niveau de vigilance est le plus élevé alors qu’une telle variation circadienne ne se produirait pas pour des informations auditives (Monk et Leng, 1982). Les premiers items d’une liste seraient quant à eux stockés indépendamment de leur modalité d’apparition initiale sous forme d’un code lexical et sémantique dans un registre à long terme à capacité quasiment illimitée (Lieury, 1992), et ne subiraient pas de variations circadiennes. 5 CONCLUSION En accord avec d’autres auteurs, cette étude tend à dire que la présentation auditive des informations doit être utilisée lorsque ces informations doivent être mises à profit rapidement (Harvey, 1999). Le canal auditif est multidirectionnel et particulièrement efficace pour transmettre l’information urgente et donc attirer rapidement l’attention de l’opérateur, peu importe l’orientation du champ visuel 314 EPIQUE’2003 de celui-ci (Tucker, 1991), ce qui pourrait être un atout lorsque le niveau de vigilance est faible. De plus, les informations lues, comme nous l’avons montré dans cette étude, pourraient être traitées moins efficacement la nuit que les informations entendues. Ces données devraient être prises en compte pour optimiser le fonctionnement des salles de contrôles, réduire la pénibilité du travail et limiter les incidents dus à un niveau de vigilance plus faible la nuit. 6 BIBLIOGRAPHIE Andorre, V., & Quéinnec, Y. (1998). Changes in supervisory activity of a continuous process during night and day shifts. International Journal of Industrial Ergonomics, 21, 179-186. Baddeley, A., Cocchini, G., S., D. S., Logie, R. H., & Spinnler, H. (1999). Working memory and vigilance: Evidence from normal aging and Alzheimer's desease. Brain and Cognition, 41, 87108. Blake, M. J. F. (1967). Time of day effects on performance in a range of tasks. Psychonomic Science, 9, 349-350. Chatty, S., S., A., & Bustico, A. (1999). votre attention s'il vous plait! Eléments d'un espace de conception de signaux visuels. Processings de la 11e conférence francophone de l'interaction homme-machine. Colquhoun, W. P. (1971). Biological rhythms and human performance. New-York: Academic Press. Darwin, C. J., Turvey, M. T., & Crowder, R. G. (1972). An auditory analogue of the Sperling partial report procedure: Evidence for brief auditory storage. Cognitive Psychology, 3, 255-267. Engle, R. W. (1974). The modality effect : Is precategorical acoustic storage responsible? Journal of experimental Psychology, 102, 824-829. Folkard, S., & Monk, T. H. (1979a). Shift work and performance. Human factors, 21, 483-492. Folkard, S., & Monk, T. H. (1979b). Time of day and processing strategy in free recall. Quaterly Journal of experimental Psychology, 31, 461-475. Folkard, S., & Monk, T. H. (1985). Circadian performance rhythms. In T. H. M. Folkard S. (Ed.), Hours of work temporal Factors in Work Scheduling (pp. 37-52). Chichester: John Wiley. Gineste, M.-D., & Le Ny, J.-F. (2002). Psychologie cognitive du langage: De la reconnaissance à la compréhension. Paris. Greene, R. L. (1987). Effects of maintenance rehearsal on human memory. Psychological Bulletin, 102(3), 403-413. Harvey, D. (1999). La multimédiatisation en éducation: Vers une multimédiatisation efficace des messages dans les systèmes d'apprentissage multimédia interactif (SAMI). Paris: L'Harmattan. Kleitman, N. (1963). Sleep and wakefulness. Chicago: University of Chicago Press. Lejon, J. C. (1991). L'évolution de la conduite sur SNCC. L'ergonomie des systèmes numériques de contrôle commande. Paris. Lieury, A. (1992). La mémoire. Liège. Lorenzetti, R., & Natale, V. (1996). Time of day and processing strategies in narrative comprehension. british Journal of Psychology, 87, 209-221. Madigan, S. A. (1971). Modality and recall order interactions in short-term memory for serial order. Journal of experimental Psychology, 87, 294-296. Marquié, J. C., Paumès, D., & Volkoff, S. (1998). Working with age. London: Taylor & Francis. Marslen-Wilson, W. D. (1987). Functional parallelism in spoken word recognition. Cognition, 25, 71102. Marslen-Wilson, W. D. (1990). Activation, competition, and frequency in lexical access. In G. T. M. Altman (Ed.), Cognitive models of speech processing: psycholinguistic and computational perspectives. Cambridge: MA, MIT Press. Maury, P., & Quéinnec, Y. (1992). Effects of 24-hour day on depth of processing in recall memory. British Journal of Psychology, 83, 249-260. Monk, T. H., & Leng, V. (1982). Time of day effects in simple repetitive tasks: some possible mechanisms. Acta Psychologica, 51, 207-221. Murdock, B. B. (1968). Modality effects in short-term memory: storage or retrieval? Journal of experimental Psychology, 77(1), 79-86. EPIQUE’2003 315 Murdock, B. B., & Walker, K. D. (1969). Modality effects in freerecall. Journal of Verbal Learning and Verbal Behavior, 8, 665-676. Oakhill, J. (1989). Effects of time of day on text memory and inference. In M. M. Gruneberg & P. E. Morris & R. N. Sykes (Eds.), Practical aspects of memory: Current research and issues (pp. 465482). New-York: John Wiley and Sons. Owens, D. S., Macdonald, I., Tucker, P., Sytnik, N., Totterdell, P., Minors, D., Waterhouse, J., & S., F. (2000). Diurnal variations in the mood and performance of highly practised young women living under strictly controlled conditions. British Journal of Psychology, 91, 41-60. Poyet, C. (1990). L'homme, agent de fiabilité dans des systèmes automatisés. In J. Leplat & G. d. Terssac (Eds.), Les facteurs humains de la fiabilité dans les systèmes automatisés (pp. 223-241). Marseille. Quéinnec, Y., & de Terssac, G. (1980). variation temporelle du comportement des opérateurs : le cas de processus à feu continu. Le Travail Humain, 44, 39-53. Querrioux-Coulombier, G. (1989). Variations journalières de la sélection thématique au cours de la lecture. L'Année Psychologique, 89, 27-36. Reicher, G. M. (1969). Perceptual recognition as a function of meaningfulness of stimulus matérial. Journal of experimental Psychology, 81, 274-280. Routh, D. A. (1976). An "across-the-board" modality effect in immediate serial recall. Quaterly Journal of Experimental Psychology, 28, 285-304. Tassi, P. (1999). Etude des relations entre éveil, vigilance et performances cognitives à partir de leurs fluctuations circadiennes. Unpublished Thèse d'habilitation, Université de Strasbourg 1, Strasbourg. Testu, F. (1988). Variations journalières de l'activité intellectuelle et profondeur du traitement de l'information. Bulletin du Groupe d'Etude des Rythmes Biologiques, 20(4), 31-38. Thayer, R. E. (1986). Activation-Deactivation adjective check-list: current overview and structural analysis. Psychological Report, 58, 607-614. Tucker, P., & Jones, D. M. (1991). Voice as interface: an overview. International journal of humancomputer interaction, 3, 145-169. van der Heijden, A. H. C. (1981). Short-term visual information forgetting. London: Routledge & Kegan Paul. Wixted, J. T. (1991). Conditions and consequences of maintenance rehearsal. Journal of Experimental Psychology: Learning, Memory and Cognition, 17(5), 963-973. Wright, K. P., Hull, J. T., & Czeisler, C. A. (2002). Relationship between alertness, performance, and body temperature in humans. Am J Physiol regul Integr Comp Physiol, 283(6), 1370-1377. 316 EPIQUE’2003 Conception et validation d’une interface numérique de perception dédiée aux personnes non-voyantes Amal Ali Ammar [email protected] Université de Technologie de Compiègne - COSTECH Centre Pierre Guillaumat BP 20 319 60 203 Compiègne cedex RESUME Un dispositif de suppléance perceptive conçu initialement dans sa forme minimale fait l’objet d’une démarche ergonomique de conception et d’évaluation. Ce dispositif offre un accès non-visuel aux formes numériques 2D et rend possible, entre autres, l’apprentissage des mathématiques chez le collégien aveugle. Sur le plan théorique, l’enjeu est de formaliser les conditions de son usage efficient. Une attention particulière est portée aux stratégies perceptives médiatisées dont le mérite est d’apporter de nouveaux éclairages fondamentaux sur la perception, tout en désignant des pistes de spécification. La méthodologie s’appuie sur une étude longitudinale conduite en deux étapes. L’étape 1 a été réalisée en collaboration avec deux adultes non-voyants. L’étape 2 s’effectue auprès de quatre collégiens non-voyants et poursuit le travail avec les deux adultes. L’étape 1 a révélé le caractère heuristiquement fécond de l’analyse des stratégies puisque les modifications induites par leur connaissance ont eu une influence décisive sur les performances dans la discrimination de formes mathématiques. MOTS-CLES Suppléance perceptive, non-voyants, perception tactile, stratégies d’exploration, formes mathématiques 1 INTRODUCTION L’outil informatique, notamment dans son association avec Internet, est potentiellement un vecteur d’autonomie, de dialogue et de connaissance pour les non-voyants. Malheureusement le passage à l’interface graphique ne s’est pas traduit par la même amélioration de confort d’utilisation chez les voyants et les non-voyants. Si les technologies d’assistance actuelles donnent accès aux éléments textuels, les objets graphiques sont ignorés ou au mieux nommés. Peut-on concevoir alors une interface numérique qui offre à l’utilisateur la possibilité de percevoir dessins, graphes, tableaux ? Cette thèse s’inscrit dans le projet qui consiste à favoriser la lecture de formes numériques 2D au moyen d’un dispositif (Tactos) inspiré du TVSS de Bach Y Rita. Tactos, qui est dédié aux nonvoyants, trouve une de ses applications dans l’apprentissage des mathématiques au collège. Il alimente une réflexion ergonomique qui met en résonance conception des interfaces spécialisées et connaissance des mécanismes perceptifs prothétisés. Ce dispositif fait l’objet d’une démarche de conception qui se veut minimaliste et gradualiste. Il s’agit de comprendre ce que permet Tactos dans un état de développement donné (initialement restreint) et également d’en appréhender les limites. À travers un enrichissement contrôlé du dispositif est envisagée la dynamique entre stratégies exploratoires, performances et contraintes/ressources. Se posent alors les questions suivantes : peut-on tirer de la connaissance des stratégies des principes de conception augurant de l’appropriation de Tactos ? Est-il pertinent d’instruire ces stratégies en les confrontant à des explorations tactiles de formes en relief sur support traditionnel ? À supposer qu’il existe des stratégies efficaces, leur mise en œuvre sera-t-elle suggérée par des fonctionnalités et/ou un apprentissage formalisé ? Ces questions scandent le déploiement d’un processus de conception qui prend corps dans une étude longitudinale de trois ans entreprise auprès de six partenaires non-voyants. EPIQUE’2003 317 2 TACTOS, UN DISPOSITIF MINIMALISTE DE SUPPLEANCE PERCEPTIVE 2.1 Le TVSS de Paul Bach y Rita Dans les années 1960, Paul Bach y Rita a élaboré un dispositif innovant, le TVSS, Tactile Vision Sensory Substitution, qui a ouvert de vastes perspectives de recherche sur la perception et la plasticité cérébrale (Bach-y-Rita, 1972) (Bach y Rita, Tyler & Kaczmarek, 2003). Ce système convertit et restitue sur une plage tactile, localisée sur une partie du corps, les images capturées par une caméra qui est pilotée par les mouvements du sujet. Le principe sur lequel repose le TVSS a été étendu à d’autres dispositifs tels que l’Optacon, l’ETVS et le TDU (Kaczmarek & Bach y Rita, 1995). Cette famille technologique de dispositifs permet d’accéder, sans contact direct, aux propriétés jusque là inaccessibles des objets. L’un des apports fondamentaux majeurs du TVSS a été de démontrer le rôle essentiel joué par l’action dans l’émergence progressive des percepts. 2.2 La théorie de la perception-action Il existe en effet deux façons de concevoir la perception (O’Regan & Noë, 2001) : d’après le paradigme computo-représentationnel, la perception est le mécanisme par lequel l’organisme reçoit passivement des entrées sensorielles puis leur applique un traitement afin d’identifier les objets sous la forme de représentations internes. Par souci d’exhaustivité et de rigueur intellectuelle, il conviendra de confronter la lecture critique réalisée par O’Regan et Noë à l’encontre des théories cognitivistes, à une présentation effective de ces travaux sur la perception. Selon un paradigme que l’on peut qualifier de constructiviste, ce que perçoit le sujet, ce n’est pas les invariants de la sensation mais les invariants dans les boucles sensori-motrices. En d’autres termes, c’est par ses propres actions que les sujet construit des lois de co-variation entre les réponses motrices et les entrées sensorielles résultant d’autres réponses motrices. La théorie des lois de contingences sensori-motrices (O’Regan & Noë, 001) est un exemple de cette approche. À Compiègne a été développé un dispositif minimal de couplage sensori-moteur (la plage tactile comporte 2 cellules Braille cf. matériel, au lieu des 400 du TVSS) qui fournit des arguments empiriques à cette thèse. 2.3 Une réduction expérimentale : le minimalisme Le parti pris méthodologique minimaliste vise à déterminer les conditions techniques nécessaires pour que la succession des sensations donne lieu à la perception d’un objet extériorisé. Ces réflexions ont entre autres conduit à la conclusion qu’il ne s’agit pas à proprement parler de substitution sensorielle mais plutôt de suppléance perceptive. Ces dispositifs ouvrent sur un espace perceptif inédit et n’opèrent pas de remplacement de la sensations visuelle par des sensations tactiles. Est ainsi considéré comme technologie de suppléance tout type de dispositif technique qui déplace le pouvoir d’action et qui suppose la constitution de nouveaux percepts. Ces dispositifs suscitent de nouvelles catégorisations de l’interaction homme-machine. L’enjeu de cette thématisation est de s’interroger sur la possibilité de proposer des technologies satisfaisantes (Gapenne, Lenay & Boullier, 2001). Dans cet ensemble de questionnements fondamentaux et techniques, l’activité perceptive médiatisée en tant que technologie de suppléance peut être mise à l’épreuve dans le contexte d’accès à l’image par et pour les aveugles. 3 TACTOS, UN DIPOSITIF ORIGINAL D’ACCES AU GRAPHIQUE 3.1 Les aveugles et l’accès aux données numériques Il existe actuellement des dispositifs nommés « technologies d’assistance» qui, conjointement avec des équipements informatiques standards, permettent aux non-voyants de lire le contenu de l’écran d’ordinateur (Les technologies d’assistance). Parmi ces dispositifs figurent les lecteurs d’écran fonctionnant avec synthèse vocale et/ou terminal braille. Viennent s’y ajouter les dispositifs spécifiques à la navigation Web, comme les navigateurs spécialisés qui filtrent l’information graphique et qui proposent généralement des commandes de lecture. Grâce à ces systèmes, les non-voyants au travail peuvent accroître de façon importante la qualité et la quantité de leur production écrite . 318 EPIQUE’2003 Cependant, la qualité des interfaces pour non-voyants reste limitée par rapport aux atouts de l’interface graphique (Burger, 1993). Les études qui recensent les problèmes ergonomiques posés par l’utilisation de ces technologies d’assistance sont finalement peu nombreuses. On peut l’attribuer au fait que des études comparatives sur l’efficience des systèmes sont très exigeantes en temps, nécessaire pour qu’un panel de testeurs atteignent le même niveau d’expertise sur un ensemble d’aides techniques différentes (Griffith, 1990). Parmi les rares études réalisées, citons celle de Doris Aaronson et Paul Gabias, des Universités de New York et du Wisconsin, effectuée en 1987 auprès d’une population de déficients visuels et qui a relevé sept classes de problèmes, toujours d’actualité : problème de compatibilité entre les différents dispositifs, information incomplète ou non fiable, perception limitée, astreinte mnésique plus importante, tâches sensori-motrices perturbées, feed-back plus lent, lenteur dans l’exécution générale (Aaranson & Gabias, 1987). Si la réalisation de tâches bureautiques courantes n’est pas totalement garantie, la lecture et la production de graphiques par l’entremise de ces technologies est pour le moment difficilement envisageable. 3.2 Les aveugles et l’accès au graphique via les technologies d’assistance Actuellement l’existence d’objets graphiques de l’interface (icônes, boutons) peut être signalée par la synthèse vocale Jaws : l’activation du « curseur Jaws » autorise l’utilisateur à explorer tout l’écran en passant d’un objet graphique à l’autre, ou d’un mot à l’autre (Jaws for windows). Cette prise de connaissance est linéaire, elle se fait pas à pas, elle est donc longue et fastidieuse. Par ailleurs, elle n’aide pas l’utilisateur à se construire une topologie de l’écran, les applications multi-fenêtres sont à ce titre particulièrement pénalisantes pour les non-voyants. Sur Internet, le nom ou descriptif des images pourra être lu par la synthèse si le concepteur du site a bien fourni une alternative textuelle à cet élément non-textuel, soit respecté la première directive des recommandations du W3C (World Wide Web Consortium, 1999). Néanmoins, cet accès à l’image ne se fait que sur un mode descriptif, ces dispositifs n’ouvrent pas sur l’expérience singulière de la perception de l’image, comme c’est par exemple le cas lors de l’exploration d’un dessin en relief. Le papier thermoformé pour la lecture et la planche molle pour la production sont les supports traditionnels qui invitent les non-voyants à la raison graphique (Goody, 1979). Les technologies numériques offrent l’occasion de perpétuer ce partage mais à condition que les non-voyants bénéficient de l’aide et de la médiation d’autrui pour s’en saisir. 3.3 Le cas particulier de l’enseignement mathématiques L’usage du graphique dans un domaine tel que la mathématique est incontournable. C’est par le dessin que l’élève peut acquérir une interprétation opérationnelle de concepts géométriques (Tall,1992). On peut voir dans l’activité opératoire la source première de la connaissance (Vergnaud, 2001). Les mathématiques étant à leur début une connaissance pragmatique, on comprend tout l’enjeu d’introduire le corps propre dans l’apprentissage des mathématiques. Avec Tactos l’ambition est en outre de rendre accessible aux élèves non-voyants, sous un format numérique, c’est à dire stockable, modifiable à loisir et partageable à distance, les vertus didactiques du graphique. 4 A LA RECHERCHE DE PRINCIPES THEORIQUES DE CONCEPTION D’UNE INTERFACE ADAPTEE La conception d’une interface adaptée, reposant sur une interaction non-visuelle, exige des acquis théoriques et des réalisations concrètes dans les disciplines telles que les sciences cognitives, les sciences de l’éducation, l’ergonomie, l’informatique et les neurosciences (Burger & Spérandio, 1993). On peut distinguer trois types de connaissances à l’œuvre dans ce projet. 1. Des productions de nature méthodologique : des modèles et des méta-modèles pour la conception, des grilles spécifiques d’évaluation ; ce qui suscite de nombreuses recherches dans la communauté scientifique du Universal Design for All. 2. Des recherches sur les mécanismes perceptifs, pour lesquelles une population avec un handicap aura un caractère paradigmatique. EPIQUE’2003 319 3. Des études autour de dispositifs inédits qui elles mêmes vont croiser les deux types d’approches précédentes. 4.1 Le cas paradigmatique des non-voyants À partir d’une expérience sensible différente, les aveugles construisent-ils néanmoins le même sens de l’espace ? Landau affirme contre Fraiberg et Bower qu’aveugles et voyants partagent les mêmes idées spatiales et que ces idées sont produites par un système riche et articulé de connaissances spatiales (Landau, 1988). Hatwell, contrairement à Landau, pointe des retards dans l’espace de préhension et dans l’espace moteur des nourrissons et enfants aveugles, qui finissent par s’atténuer chez les adultes lorsque « les procédures d’exploration s’améliorent et d’autres modes de traitement deviennent possibles ». Mais elle se rapproche de Landau quand elle conclut que la vision n’est pas indispensable pour arriver à une bonne représentation de l’espace (Hatwell, 2002). De façon générale, les données relatives aux différences inter-groupes ne sont pas convergentes, ceci découle de facteurs méthodologiques, notamment l’hétérogénéité des panels de non-voyants (aveugles de naissance, aveugles précoces, aveugles tardifs) et d’approches théoriques différentes (Gaunet, 2002). 4.2 Les procédures d’exploration tactile chez les voyants et les non-voyants Au sein de ces études, un axe de recherche souvent privilégié vise la description de patterns sensori-moteurs, dont l’une des plus célèbre reste « les six principales procédures exploratoires » selon Lederman et Klatzky (1987). Schèmes, patterns, procédures, stratégies d’exploration : une réflexion sur ces concepts mérite d’être couplée à leur traduction méthodologique. Quelles sont les unités comportementales dégagées par ces études ? Aujourd’hui, un ensemble de recherches autour de prototypes non-visuels d’accès au graphique vient renouveler la thématique des stratégies perceptivo-cognitives. 4.3 De l’applicabilité des stratégies perceptivo-cognitives en situation naturelle à la situation médiatisée Ces dispositifs diffèrent par les modalités d’interaction envisagées, vocale pour Mathtalk (Stevens, Edwards & Harling, 1997), tactilo-sonore pour TouchMelody (Ramloll & Brewster, 2002) ou haptique pour le PHANToM (Jansson). Cependant, ils partagent ce principe heuristique qui consiste à se demander comment s’opère la prise de connaissance de graphique en absence de vision et ce afin de s’en inspirer pour guider l’exploration avec le prototype. Tactos, à l’instar de ces dispositifs, procure les moyens d’approfondir la question de l’identification de stratégies et de leur possible facilitation par le dispositif. 5 METHODOLOGIE La méthodologie de ce travail repose sur une étude longitudinale réalisée auprès de deux adultes, et de quatre collégiens non-voyants. L’étude procède en deux étapes. La première étape, de nature exploratoire et préparatoire, a été réalisée auprès des deux adultes non-voyants. La deuxième est conduite auprès des quatre collégiens, tout en prolongeant la collaboration avec les deux adultes. Nous avons privilégié le suivi individuel afin de caractériser les stratégies dans leur variabilité, leur évolution et leur convergence éventuelle. Une fois identifiées les conditions de l’efficacité d’une stratégie, sa facilitation pourra être suggérée par des fonctionnalités (incorporation d’action par l’interface, comme la fonction zoom) ou par une transposition didactique. Ces assistances et apprentissage à l’activité perceptivo-cognitive seront à leur tour soumis à de nouveaux tests. Parallèlement à ces investigations sur la perception de formes, un travail régulier d’amélioration des objets de l’interface (boîtes de dialogue, menus, raccourcis clavier, barre d’état, feed-back sonores) est réalisé avec le concours expert de nos partenaires adultes non-voyants. Ce travail bénéficie également des résultats de recherche de deux autres thèses, l’une portant sur la fonction zoom, l’autre sur les effecteurs (stylet, souris, track-ball) et les champs récepteurs (cf. matériel). Ces spécifications successives de l’interface auront pour horizon une mise à l’épreuve finale lors d’un cours individuel de géométrie. 320 EPIQUE’2003 5.1 Sujets Deux sujets adultes : une femme âgée de 55 ans, et un homme âgé de 53 ans. Quatre collégiens âgés de 13 à 14 ans. Un collégien et une collégienne en intégration et deux collégiennes scolarisées dans un centre spécialisé. 5.2 Matériel Tactos est un logiciel qui fonctionne sous environnement Windows et permet d’explorer les formes bi-dimensionnelles présentes à l’écran. L’interface comporte un stylet, une tablette graphique et une sortie braille de deux ou quatre cellules de huit picots. Le stylet commande les déplacements d’une matrice dont on peut faire varier la taille, la forme et le nombre de champs récepteurs (cf. tableau 1). Le croisement d’au moins un pixel noir déclenche l’activation des picots. Le sujet manie d’une main le stylet, sa main libre est placée sur les cellules brailles. 5.3 Étape 1 : exploratoire et préparatoire 5.3.1 Phase de familiarisation Au cours des trois premières séances, les sujets ont été, d’une part, familiarisés avec le dispositif (matériel et logiciel) et, d’autre part, entraînés à la reconnaissance de formes élémentaires telles que des droites ou des petites courbes. 5.3.2 Phase d’apprentissage Dans une seconde phase (cinq séances) proche des situations expérimentales, nous avons, au titre d’un apprentissage, proposé aux sujets des tâches dont la catégorisation est inspirée de « the child conception of geometry » (Szeminska, Inhelder & Piaget, 1970) : tâches de mesure et de représentation de position, tâches de conservation des longueurs, tâches de discrimination angle-courbe. 5.3.3 Phase expérimentale (5 séances) Deux séances ont été consacrées à des tâches de reconnaissance de polygones et trois séances à la discrimination de courbes dans un repère avec un degré de difficulté évoluant de la localisation de la courbe dans un cadran à la précision de son lieu d’intersection avec les axes. 5.4 Résultats de l’étape 1 Cette phase a permis de montrer que la lecture de formes géométriques et de courbes dans des repères étaient possibles. Ont été identifiés trois types de suivis : le suivi continu, le micro-balayage, le tapotement latéral. Le recours relatif à l’un ou à l’autre de ces mouvements définit un style exploratoire propre à chaque sujet. Les stratégies sont également influencées par la tâche. Dès qu’il en a la possibilité, le sujet utilise des stratégies plus économiques que le suivi intégral. Par exemple, pour déterminer dans quelle partie du repère se trouve une courbe dont l’orientation varie, les mouvements exploratoires de suivi font place à des traçages hypothético-déductifs. La stratégie consiste alors à identifier le repère, accrocher la courbe et localiser par là sa position ; puis tracer une horizontale et une verticale et, en fonction du nombre d’intersections, déduire l’orientation de la courbe. Cependant, cette stratégie donne lieu à des confusions entre courbe et repère. En introduisant une distinction de signal entre la courbe et le repère par le marquage sonore de ce dernier, il a été possible de dissiper ces confusions. Il a également été démontré que les difficultés dans l’exploration, par exemple les situations d’insistance et de perdition au niveau des sommets de polygones, pouvaient être surmontées par le marquage sonore des sommets. Dans ces deux situations, l’usage de la bi-modalité est venu pallier les limites des stratégies, soit en signifiant une différence de statut entre courbe et repère, soit en rendant saillantes les propriétés géométriques de la figure (Ali Ammar & al., 2002). EPIQUE’2003 321 5.5 Étape 2 5.5.1 Exploration de formes géométriques sur papier thermoformé (2 séances) Les stratégies exploratoires étant au centre de nos investigations, afin de mieux les qualifier nous les confrontons à l’exploration en « mode naturel ». Sachant qu’avec Tactos le nombre de points de contact est pour le moment limité à un (il correspond à la position de la pointe du stylet sur la tablette), que les mouvements exploratoires sont essentiellement de suivi et les interruptions fréquentes, nous en avons déduit une grille d’analyse des enregistrements vidéo des quatre collégiens explorant les formes en relief. 5.5.2 Phase de familiarisation avec le dispositif (3 séances) Les collégiens ont été initiés au maniement autonome de l’interface. Les différents composants ont été présentés et il leur a été remis un document rassemblant l’ensemble des raccourcis clavier propres à Tactos. 5.5.3 Entraînement au suivi continu de lignes (3 séances) Étant donné que le suivi continu permet de rester en contact le plus longtemps possible avec la forme, ce qui a l’avantage de limiter le nombre de perditions, nous avons suggéré aux quatre collégiens ce type de mouvement exploratoire. Les figures proposées étaient des lignes, des formes composées de deux segments, des triangles, des carrés et des formes curvilignes. 5.5.4 Phase expérimentale Cette partie regroupe cinq sessions tests. Chaque session comporte un entraînement consistant à suivre une horizontale, une verticale et une oblique, puis le sujet doit ensuite reconnaître quatre formes qui sont un quadrilatère, une forme ouverte de deux segments, un triangle et une courbe. 5.6 Premiers résultats de l’étape 2 Les premières analyses des trajectoires nous ont amenés à pointer les problèmes rencontrés lors de l’exploration : erreur de discrimination droite-courbe, erreur de mesure d’angle, non détection d’un changement de direction, non détection d’un embranchement, erreur d’assemblage (deux demi-cercles peuvent former un cercle ou une vague), erreur d’incomplétude (un angle droit à la place du T), erreur de doublage (un triangle devient losange ou parallélogramme) et erreur d’inversion (la figure perçue est la même mais pivotée). Ces erreurs doivent être rapprochées des problèmes plus fondamentaux que pose Tactos comme la difficulté à se construire une mémoire topologique de la scène explorée. 5.7 Prochaines séances prévues Nous nous demandons si avec de l’entraînement il est possible de diminuer l’occurrence des erreurs mentionnées. Les cinq prochaines séances prévues vont donc porter sur la discrimination d’angles, de frises (pour les changements fréquents d’orientation), de lettres (pour les embranchements) et de courbes. Une séance finale intégrant ces différents éléments sera proposée. 6 CONCLUSION Pour favoriser la lecture de formes numériques 2D, ont été testés jusque là trois types de solutions : le recours à une fonctionnalité (le marquage sonore ), la suggestion d’un type de mouvement exploratoire et enfin l’entraînement systématique. Le groupe suppléance perceptive envisage actuellement d’autres fonctionnalités (par exemple le système œil-main qui donne la position du point de contact dans l’espace d’exploration), les résultats de l’analyse des stratégies permettront de traduire ces solutions en hypothèses expérimentales. 7 BIBLIOGRAPHIE Aaronson, D. & Gabias, P. (1987). Computer use by the visually impaired. Behavior Research and Methods, Instruments & Computers, 19(2), 275-282. 322 EPIQUE’2003 Ali Ammar, A., Gapenne O., Lenay, C. & Stewart, J. (2002). Effect of bimodality on the perception of 2D forms by means of specific assistive technology for blind persons. In Proceedings of the Conference on Assistive Technology for Vision and Hearing Impairement (CVHI’2002). Granada, Spain Bach y Rita, P. (1972). Brain mechanism in sensory substitution. New York : Academic Press. Bach y Rita, P., Tyler, M. E., Kaczmarek, K. A. (2003). Seeing with the brain. International Journal of Human Computer Interaction, 15(2), 285-295. Laurence Erlbaum Associates Inc. Burger, D. (1993). Les handicapés visuels face à l'informatique. In J. C. Spérandio (Ed.), L'ergonomie dans la conception des projets informatiques (1 ed., pp. 247-263). Octarès. Burger, D. & Spérandio, J. C. (1993). Préface. In D. Burger & J.C. Spérandio (Eds.), Non-Visual Human-Computer Interaction : Prospects for the visually handicapped (pp. 7). Paris: John Libbey Eurotext & Les Editions Inserm. Gapenne, O., Lenay, C. & Boullier, D. (2001). Assistance, Suppléance et Substitution : trois modalités distinctes du couplage Humain/Technique. In proceedings of the Conference JIM’2001. Metz, France Gaunet, F. (2002). Overview of research on the notion of space in blind people. Oral communication. Third Workshop on the genesis of perception and the notion of space in machines and humans. Paris. Goody, J. (1979). La raison graphique, la domestication de la pensée sauvage. Paris : Editions de Minuit. Hatwell, Y. (2000). Les procédures manuelles d’exploration chez l’enfant et l’adulte. In Y. Hatwell, A. Streri & E. Gentaz (Eds.), Toucher pour connaître (pp.287-306). Paris : Presses Universitaires de France. Hatwell, Y.(2002). Le développement perceptivo-moteur de l’enfant aveugle. Oral communication. Congrès APSLF. Rouen, France. Jansson, G. The Importance of available Exploration Methods for the Efficiency of Haptic Displays. Available at: http://www.ida.liu.se/~ssomc/papers/Jansson.pdf. Jaws for windows. Available at : http://www.freedomscientific.com/fs_products/software_jaws.asp Kaczmarek K. A. & Bach-y-Rita P. (1995). Tactile Displays. In W. Barfield & T. A. Furness (Eds), Virtual environments and advanced interface design, (pp. 349-341). New York: Oxford University Press. Landau, B. (1988). The construction and use of spatial knowledge in blind and sighted children. In J. Stiles-Davis, M. Kritchevski & U. Bellugi (Eds.), Spatial Cognition: Brain Bases and Development (pp.343-371). Hillsdale, New Jersey: Lawrence Erlbaum Associates. Lederman, S. J. & Klatzky R. L. (1987). Hand mouvements: A window into haptic object recognition. Cognitive Psychology, 19,. 342-368. Lenay, C., Gapenne, O., Hanneton, S., Marque, C. & Genouel, C. (2000). La substitution sensorielle limites et perspectives. In Y. Hatwell, A. Streri & E. Gentaz (Eds.), Toucher pour connaître (pp.287-306). Paris : Presses Universitaires de France. Les technologies d'assistance. Available at: http://www.uqtr.uquebec.ca/laridi/documents/PolyhandicapYves_fichiers/frame.htm. O’Regan, K.J. & Noë, A. (2001). A sensorimotor account of vision and visual consciousness. Behavioral and Brain Sciences, 24(5). Ramloll, R. & Brewster, S. (2002). A Generic Approach for Augmenting Tactile Diagrams with Spatial Non-Speech Sounds. In Proceedings of the CHI2002. Minneapolis, Minnesota, USA. Stevens, R. D., Edwards, A.D. N. & Harling P. A. (1997). Access to mathematics for Visually Disabled Students Through Multimodal Interaction. Human Computer Interaction : Multimodal Interface, 12. London : Lawrence Erlbaum Associates Publisher. Szeminska, A., Inhelder, B. & Piaget J. (1970). The child conception of geometry. New York: Basic books. Tall, D. (1992). Enseignement de l’analyse à l’âge de l’informatique. In B. Cornu (Ed.), L’ordinateur pour enseigner les maths (pp. 159-182). Paris : Presses Universitaires de France. Vergnaud, G. (2001). Piaget visité par la didactique. In J. Montangero (Ed.), Piaget et les Sciences Cognitives, (pp. 107-123). Intellectica, 33. EPIQUE’2003 323 World Wide Web Consortium. (1999). Available at: http://www.w3.org/TR/WAI-WEBCONTENT 324 EPIQUE’2003 La gestion des conflits d’objectifs dans les activités à risques : la conduite d’installations nucléaires Pierre Letzkus Doctorant CEA / TECHNICATOME* / Université de Toulouse le Mirail** Centre d’Etudes de Cadarache DER/STR/LCFR – Bât. 208, 13108 St Paul lez Durance [email protected] RESUME L’étude des conflits d’objectifs dans la conduite de processus à risques est très récente. Elle considère ces situations comme des facteurs aggravants dans l’activité des opérateurs. Cette étude empirique recherche, par l’analyse des origines et des effets des conflits d’objectifs, à définir des aides pour éviter ou gérer ces situations, tant à la conception qu’à l’exploitation d’installations nucléaires. L’identification et la compréhension des processus de gestion par compromis ou innovation font partie de ces axes de recherche. MOTS-CLES conflit d’objectifs, prise de décision, environnement dynamique, hiérarchisation, sûreté de fonctionnement. 1 INTRODUCTION La gestion des conflits d’objectifs fait partie des situations que rencontrent les opérateurs en charge de la conduite d’installations nucléaires. Pour y faire face, ils ne disposent pas toujours de moyens adéquats permettant l’identification des objectifs en conflit (interfaces de conduite, documentation...). L’aide que l’on cherche à apporter aux opérateurs demande que l’on s’intéresse aux types de conflits qu’ils peuvent rencontrer dans leur activité, et à la perception qu’ils en ont. Pour cela, nous baserons sur l’observation de la résolution d’une situation incidentelle à dynamique rapide par une équipe de conduite de réacteur. Cette situation présentera une situation conflictuelle potentielle. Nous tenterons, à partir de nos observations d’identifier les conflits d’objectifs que rencontreront les opérateurs, la perception qu’ils en ont, et le type de stratégie retenue pour les gérer. 1.1 Les objectifs dans la conduite de systèmes complexes La compréhension des conflits d’objectifs demande une identification préalable des objectifs. Nous intéressant dans cette étude à la conduite d’une installation nucléaire embarquée, nous opérerons une première distinction entre les objectifs de conduite et fonctionnement du système et ceux des opérateurs. Pour un système industriel, les objectifs sont l’ensemble des exigences à satisfaire et qui y entrent en jeu dans son exploitation. Ils sont définis lors de la conception, puis recherchés à être maintenus en exploitation. Les objectifs que nous retiendrons pour notre étude sont ceux appartenant à la Sûreté de Fonctionnement de systèmes à risques, (Mortureux, 2001). Nous retiendrons ici ceux qui présentent un intérêt pour cette étude : la sûreté (capacité du réacteur à éviter la dégradation de son environnement), la disponibilité (aptitude à pouvoir répondre à tout moment à une demande de fourniture de puissance), la maintenabilité (aptitude d’un système à être remis en état, par une maintenance donnée, en termes de rapidité de recouvrement de la disponibilité en vue d’accomplir des fonctions requises dans les conditions données), la productivité (aptitude d’un réacteur à pouvoir fournir ce dont il est capable à un moment et dans des conditions données), et la sécurité (aptitude d’un système à ne pas causer de dommages matériels ou humains). Les hommes ont aussi des objectifs dans leur activité. Il est déjà plus difficile de définir l’ensemble des objectifs humains car bien que les objectifs professionnels puissent être rattachés à leur activité, les objectifs personnels présentent une variété bien plus étendue. Une approche des objectifs * Equipe Facteurs Humains, BP34000, 13791 Aix en Provence Cedex 3 Laboratoire Travail et Cognition, UMR CNRS 5551, Maison de la recherche, 31058 Toulouse Cédex 01. ** EPIQUE’2003 325 personnels est cependant possible si l’on se réfère aux objectifs de survie (Rasmussen, 1990, Amalberti, 2001), lesquels se caractérisent par des finalités variables en fonction du temps disponible. Stratégiquement, à court terme ces objectifs de survie tentent d’éviter les erreurs ou les situations fatales, et recherchent à long terme à économiser les ressources de l’individu. D’autres types d’objectifs, sociaux ou individuels, participent aussi à l’activité humaine, et sont ici aussi, source d’objectifs personnels : la recherche d’une désirabilité sociale (renvoyer une « bonne image » de soi), les valeurs protégées (spécifiques à l’éthique personnelle et professionnelle) ou encore la recherche et/ou le maintient d’un pouvoir ou d’une ascendance sur son entourage. 1.2 Les conflits d’objectifs A partir des objectifs précédemment cités, nous définirons un conflit d’objectifs comme une situation dans laquelle la satisfaction d’un objectif se voit dégradée lorsque celle d’un autre objectif est modifiée. Par exemple, si la sûreté d’une installation est menacée, il convient de mettre en œuvre des procédures de plus en plus restrictives. Cette progression dans le durcissement des procédures dégradera la satisfaction des objectifs de disponibilité et de productivité. Dans l’industrie nucléaire, la satisfaction de la sûreté est l’objectif majeur. C’est pourquoi depuis les choix de conception des installations nucléaires jusqu’à la formation des personnels qui en ont la charge, l’objectif prioritaire de la conduite revient à toujours devoir assurer la sûreté. C’est dans ce sens que sont rédigés les documents d’exploitation, issus des règles édictées par les autorités de sûreté : « La culture de sûreté est l'ensemble des caractéristiques et des attitudes qui, dans les organismes et chez les individus, font que les questions relatives à la sûreté de toutes les installations bénéficient, en priorité, de l'attention qu'elles méritent en raison de leur importance. (Principe n°1) » (INSAG-4, 1991). Bien qu’une installation à risques possède une finalité de production, elle est aussi conçue à l’origine pour être sûre (Doniol-Shaw, 1996). Cette finalité de production est prise en compte par les concepteurs qui font en sorte de rendre compatibles les exigences de sûreté avec celles de productivité. Cependant il existe des situations particulières dans lesquelles la sûreté n’est plus un objectif prioritaire. Ceci peut être causé, par exemple, par des conflits entre les objectifs des opérateurs et ceux de l’installation. Ces situations ne sont pas nécessairement voulues et sont bien souvent associées des transgressions réglementaires alors qu’elles correspondent chez l’opérateur à une volonté de « bien faire » (Doniol-Shaw, 1996). Les conflits d’objectifs peuvent aussi provenir de la logique de fonctionnement d’un système et prendre la forme de dilemmes chez les opérateurs (appliquer dans une situation particulière des consignes de sûreté pouvant dégrader encore plus celle-ci). Cette mise en balance entre différents objectifs et la sûreté est très grave pour les autorités de sûreté nucléaire, pour qui cela doit être absolument évité. Cependant, ces situations semblent inévitables. Par exemple, Reason (1993) dans sa représentation de la décision erronée montre que les objectifs de production et de sécurité sont clairement compatibles sur le long terme, mais que puisque les ressources sont finies, les chances pour qu’il existe des conflits d’intérêts sont nombreuses. Dans pareilles situations, les ressources qui seront allouées pour satisfaire les conditions de production risquent de diminuer celles de la sécurité ou l’inverse. Ainsi, le décideur (opérateur, chef d’équipe, directeur…) se retrouve dans une situation délicate où le retour de ses investissements ne se présente pas de la même façon. Les efforts concédés à la sûreté vont dans le sens de la réduction des incidents, des blessures du personnel. C’est donc une réussite qui ne se remarque pas. Reason parle alors de réussite indiquée négativement (par l’absence de problèmes). Par contre, les efforts consentis à l’amélioration de la production sont en retour bien plus facilement quantifiable, comme la réduction des coûts de production et l’augmentation des marges bénéficiaires. Il en découle que les décideurs qui se retrouvent face à ce paradoxe vont montrer une tendance à choisir les options qui permettent d’obtenir des résultats « quantifiables». Par contre, en ce qui concerne l’activité, le conflit d’objectif prend la forme d’un dilemme opératoire chez l’opérateur pour faire face aux évènements. « Quelle que soit sa manière de s'y prendre, il est pris en défaut. Alors il "tranche" en faveur du défaut qui lui paraît le plus acceptable et le moins pénalisant. Or, c'est la sécurité qui fait généralement les frais de l'arbitrage réalisé » (Benchekroun, Bourgeois & Hubault, 2002). Nous nous retrouvons ici face à un constat où d’un côté le prescrit « normatif » définissant des règles absolues de sûreté apparaît être dépassé par la réalité de terrain, où ces règles sont discutées, contournées, transformées (Doniol-Shaw, 1996). On peut alors se demander comment si peu d’incidents graves ont lieu. Rochlin, LaPorte et 326 EPIQUE’2003 Roberts (1987) pensent que la réponse tient dans les dispositifs techniques et organisationnels mis en œuvre : redondance, décentralisation, responsabilisation, culture de sûreté, apprentissage.... Ces auteurs voient ainsi dans les centrales nucléaires des « Organisations à Haute Fiabilité ». Ils en veulent pour preuve la rareté des accidents nucléaires et les probabilités très faibles de défaillance du système, au point qu’il est question de « systèmes ultra-sûrs » (Amalberti, 2001). Ainsi il est possible de gérer la complexité des technologies à hauts risques par le biais d’une robustesse organisationnelle résultant de l’ensemble de ces dispositifs techniques et organisationnels. 2 PROBLEMATIQUE Nous venons de voir que la sûreté est un objectif qui peut être mis en balance avec d’autres objectifs dans certaines situations. En effet, cet objectif prioritaire pour les concepteurs et les autorités de sûreté ne l’est plus pour les opérateurs au cours de l’activité. On peut alors se poser la question du mécanisme rendant possible un tel renversement. Comment, chez un individu, la compréhension de la situation et sa dynamique peuvent avoir un effet sur la perception du conflit, et biaiser de fait la décision en situation opérationnelle ? Existe-t-il dans une équipe de conduite, des régulations qui permettent d’éviter ce type de biais ? L’identification de ces mécanismes de régulation ou de ces biais empêchant la détection de conflit permettraient de proposer des orientations de conception destinées à améliorer la sûreté dans l’exploitation d’installations à risques. 3 EXPERIMENTATION La démarche que nous avons retenue pour cette étude consistait à reprendre les données brutes (enregistrements vidéo) d’exercices de résolution d’incidents réalisés sur un simulateur de sous-marin nucléaire. Ces exercices ont été réalisés par Technicatome au cours d’une étude précédente (Salazar & Guillermain, 1996) portant sur l’analyse de l’activité d’opérateurs de conduite de réacteurs. L’analyse des observations se fera par l’intermédiaire de CATCH1, un modèle créé pour représenter et comprendre les conflits. Pour cela, dix équipes de quatre opérateurs (un Chef de Quart supervisant trois autre opérateurs) ont réalisé un exercice de résolution incidentelle sur un simulateur pleine échelle. 3.1 Situation expérimentale Dans cette expérimentation, une pollution corrosive se déclare sur le circuit de production de la vapeur servant à propulser le sous-marin. Ce circuit est constitué de deux réservoirs d’eau, de deux pompes principales alimentant un générateur de vapeur, et de deux pompes de secours. L’ensemble de l’installation est ensuite réparti par bords (bâbord et tribord), comme sur le schéma (simplifié pour des raisons de confidentilaité) ci-dessous : Réservoir Bd Réservoir Td Pompe principale Bd (PAA) Pompe principale Td (PAA) Générateur de vapeur (GV) Pompes de secours Bd et Td (EPAD) Schéma 1 : Répartition par bords des moyens permettant d’assurer la disponibilité propulsion d’un sous-marin nucléaire 1 CATCH (Comportement de l’Axe pour Trouver une Conduite Homogène) est un modèle développé pour cette recherche visant à représenter les conflits d’objectifs. CATCH représente les objectifs en conflit sous la forme d’une « balance » dont l’axe n’est pas fixe et possède plusieurs logiques de fonctionnement et de placement. Ces différentes façons de placer les axes permettent de représenter, pour une même situation, la situation telle qu’elle est dans la réalité, et telle qu’elle est perçue. La différence de placement des axes montre alors que les effets obtenus et attendus ne sont pas les mêmes. EPIQUE’2003 327 La situation expérimentale était soit simple, soit complexe, et faisait intervenir une pollution aux chlorures dans les circuits d’eau servant à la production de vapeur (et donc d’énergie). Dans la situation simple, la pollution est déclarée sur un des réservoirs d’eau servant à la propulsion du sousmarin. Le circuit d’alimentation en eau et ses composants sont entièrement disponibles et sans limitation d’usage. La gestion de la situation se fait alors sans contrainte supplémentaire. Dans la situation complexe, tous les moyens pour gérer la situation ne sont pas disponibles : une pompe principale au bord opposé à celui de la pollution est perdue. Toute la difficulté de la situation pour les équipes de conduite passe par la réalisation de deux objectifs : éviter la propagation de la pollution vers le générateur de vapeur (au risque d’une corrosion pouvant provoquer une fuite entre un circuit d’eau «radioactive » et ce circuit d’eau), et assurer à ce générateur de vapeur une alimentation en eau suffisante. Les deux pompes principales doivent assurer ensemble l’alimentation en eau, sans quoi le générateur de vapeur s’assèche rapidement. En cas de perte d’une pompe principale, il est possible d’utiliser conjointement les deux pompes de secours, plus petites, pour remplacer une pompe principale défaillante. La complexité de cette situation fait que l’on s’attend à ce que les opérateurs n’utiliseront pas les deux pompes de secours pour remplacer la pompe principale défaillante à cause d’une mauvaise représentation mentale causée par la séparation par bord des moyens disponibles, alors que le système est conçu de façon à pouvoir utiliser pour un bord les éléments du bord opposé. 4 RESULTATS DES OBSERVATIONS La résolution de situation incidentelle analysée sur bande vidéo, qu’elle soit simple ou complexe, montre qu’un conflit d’objectif peut émerger pour plusieurs raisons : l’insuffisance des interfaces hommes-machines, incohérences de la documentation, mauvaise représentation mentale, erreurs de manipulations, difficultés de rattrapage d’erreurs. Quantitativement on remarquera le lien existant entre la complexité d’une situation et la probabilité d’apparition d’un conflit pour les équipes de conduite : simple 4.1.1.1 Situation incidentell e Présence de conflit oui non 2 1 complexe 6 1 Tableau 1 : nombre d’équipes confrontées à des conflits d’objectifs selon la complexité de la situation incidentelle Nous n’avons pas trouvé de lien probant entre la réussite dans la gestion de la situation et sa complexité : la grande majorité des équipes (7 sur 10) a réussi à gérer plus ou moins efficacement la situation, qu’elle soit complexe ou non. Les facteurs déclenchant l’apparition de conflits tiennent en premier lieu à des problèmes de représentation de l’installation et des moyens à disposition. La répartition nominative par bords des composants du système prend le sens chez les opérateurs d’une véritable séparation fonctionnelle. Ce clivage dans le modèle mental des opérateurs les amène alors à considérer qu’il n’est pas possible d’utiliser les deux pompes de secours (EPAD) pour pallier la perte d’une pompe principale (PAA). Ce clivage et la réduction de l’espace problème qui en résulte ont pour conséquence pour les opérateurs d’employer une stratégie de gestion du conflit de type « compromis », alors qu’une meilleure représentation de la situation leur permettrait de trouver une solution innovante, passant par l’utilisation des EPAD. Cependant, si des équipes pensent à utiliser les EPAD, elles finissent par appliquer différentes stratégies (lorsque leur représentation est modifiée par cet effet de clivage) qui leur fait démarrer ces deux pompes puis arrêter quelque temps plus tard celle du côté du bord pollué, mettant alors à mal la disponibilité en sous-alimentant le générateur de vapeur. Le c o m p r o m i s se caractérise par l’emploi d’un moyen de conduite ou d'un mode de fonctionnement commun aux objectifs en conflit. Par notre méthode de représentation des conflits (CATCH) nous symbolisons le compromis par un déplacement vertical et conjoint (action positive ou négative du moyen employé) des deux indicateurs de performance des objectifs : 328 EPIQUE’2003 Situation de départ La situation présentée ici correspond à un incident de type complexe caractérisé par l’indisponibilité d’une pompe principale sur un bord et l’apparition d’une pollution aux chlorures sur l’autre bord. Performance + - MD LP Gérer le conflit par le compromis Performance + PAA - MD LP Gérer le conflit par Performance l’innovation + EPAD - MD Au départ, l’état idéal pour les deux objectifs MD (maintien de la disponibilité) et LP (limitation de la pollution) est le suivant : pas de pollution (LP minimal) et les deux pompes principales sont en fonction (MD nominal). La droite de satisfaction de ces objectifs doit être conservée horizontale pour que la situation soit nominale. Lors de la déclaration de pollution, les opérateurs réduisent la vitesse du sous-marin pour réduire la propagation. Ils coupent aussi la pompe principale (PAA) du bord pollué. Ceci a pour effet de réduire la disponibilité consécutive à la perte d'alimentation en eau du Générateur de Vapeur. L’état des objectifs correspondant à ces actions est représenté en gris. Comme l'autre PAA est déclarée indisponible, les équipes décident d’utiliser la PAA du bord pollué selon les besoins de la disponibilité. Ceci a pour effet de restaurer la disponibilité et la propagation de la pollution par la même occasion (représenté ici en noir). Sortir du conflit revient à utiliser des moyens spécifiques à un objectif pour le rétablir sans qu’il y ait d’effet sur l’autre objectif. L’utilisation des deux EPAD permet alors d’éviter la propagation des chlores et d’assurer pleinement l’objectif de disponibilité (alimentation suffisante du Générateur de Vapeur en eau). Cette utilisation d’un moyen spécifique à l’objectif de Disponibilité est symbolisée par la ligne pointillée grise, faisant la satisfaction des objectifs à leur état initial (en noir). LP Lorsque les opérateurs n’utilisent pas les deux EPAD, ils se retrouvent obligatoirement dans une situation conflictuelle. D’autres facteurs jouent en faveur ou en défaveur des équipes, pour gérer alors la situation dans ce scénario : • le leadership du chef de quart : les plus mauvaises performances ont été obtenues par les équipes manquant de cohésion, où le Chef de Quart prenait des décision unilatéralement et sans en avertir son équipe • les erreurs d’actions, tenant essentiellement à des reconfigurations de circuits hydrauliques complexes ou lorsque le nombre d’actions à réaliser devenait trop important pour le temps disponible, • le mauvais support documentaire où plusieurs documents de conduite devaient être recoupés pour comprendre les systèmes hydrauliques à reconfigurer, des consignes différentes pour une même situation selon les documents utilisés, • des objectifs personnels ou de faux objectifs, créant de faux conflits chez les chefs de quart. Par exemple la recherche de l’origine de la pollution tout en essayant de la circonscrire ou alors la focalisation sur la recherche de la pollution quitte à ignorer la satisfaction des autres objectifs. En définitive, le soutien de l’équipe est essentiel pour le chef de quart. Celui-ci ne dispose pas de supports pour gérer la situation, l’obligeant alors à tout réaliser « de tête ». Ceci est d’autant plus EPIQUE’2003 329 pénalisant qu’il a en charge le suivi des différents objectifs de conduite, et de fait, la gestion des conflits d’objectifs. 5 DISCUSSION : RESOLUTION, ECHEC OU POURSUITE DU CONFLIT Les situations observées ont permit de montrer l’impact des conflits d’objectifs sur les performances de récupération de situations incidentelles par des collectifs. Elles montrent que le chef de quart est l’opérateur en première ligne pour gérer les objectifs de haut niveau (sûreté, disponibilité). Ce résultat est d’autant plus important qu’il permet de cibler la position de l’opérateur à privilégier dans la gestion des conflits d’objectifs car elle est directement liée à la représentation de la situation. Concernant la résolution, quatre modes ont été identifiés. La résolution triviale est une résolution simple et immédiate du conflit et n'a rien à voir avec la complexité du conflit. Viennent ensuite trois modes de résolution non triviaux qui nécessitent une série d'actions à la complexité variable pour gérer la situation. L’innovation fait appel à des moyens ou des méthodes qui, soit ne sont pas prévues initialement pour cela (hors espace problème), soit par une combinaison qui n’avait jamais été envisagée des moyens à disposition (effet de la réduction de l’espace problème). Le compromis est une résolution (souvent employée) par laquelle il est recherché un état d'équilibre n’apportant qu’une satisfaction moyenne de l'ensemble des objectifs en conflits. Enfin, le choix est une hiérarchisation dans laquelle un objectif est défini comme prioritaire et sera alors satisfait au détriment des autres. La finalité de ces stratégies est alors soit une réussite, soit un échec, soit un report. Le report concerne essentiellement les gestions par compromis ou par choix pour lesquelles il faudra revenir à une satisfaction optimale des objectifs par de nouvelles stratégies de résolution. Nous nous intéresserons ici aux modes de gestion par compromis et par innovation. La gestion par compromis ou innovation a pour origine la représentation de la situation. La fréquence du recours au compromis en fait de celui-ci le mode de gestion « naturel » de l’opérateur. Il lui permet d’opérer de manière générale dans une « enveloppe » de degrés de liberté qui traduit ellemême les compromis entre le coût cognitif et l’efficacité. Cette stratégie bénéficie alors des capacités métacognitives de l’individu (Valot, Grau & Amalberti, 1992). Cependant, nous estimons que dans la gestion d’un conflit, le recours à une stratégie de compromis représente aussi un échec de la réduction de l’espace problème. Cet échec conduit les opérateurs à n’utiliser que les moyens qu’ils pensent avoir à disposition. Ceci les oriente alors sur des solutions sous optimales qu’ils estiment satisfaisantes. Dans la situation étudiée, cela revient alors à composer avec les règles et les degrés de liberté, par exemple en choisissant l’option de « polluer modérément » le générateur de vapeur. L’évaluation de la « modération » de la pollution est alors très variable d’un Chef de Quart à un autre. Il est cependant possible de bénéficier d’un effet positif de la réduction de l’espace problème pour trouver des solutions innovantes. Cependant elles semblent d’autant plus difficile à obtenir en situation à dynamique rapide que les performances qu’elles proposent sont optimales. 6 CONCLUSION Au cours de notre étude, nous avons pu observer chez les opérateurs la réalisation d’actions opposées et grandement répétées. Les études de Technicatome précédemment réalisées en faisaient aussi état en signalant les aspect aggravants quelles présentaient pour la sûreté (augmentation de la charge de travail et donc du nombre d’erreurs de manipulations). Nous pensons que cette activité est issue d’une gestion par compromis et est soutenue par deux facteurs. Le premier concerne cette activité « en boucle » qui requiert une attention importante. Elle provient d’une alternance du point de vue de l’état d’une fonction, témoignant pour l’opérateur d’un manque de vision synthétique du process. L’autre est une manifestation du stress en situation opérationnelle, connu pour réduire l’espace attentionnel à quelques actions et paramètres, et ceci d’autant plus que la pression temporelle s’accentue, ou de l’ambiance de travail. Ainsi, il a été observé de nombreux démarrages et arrêts de la PAA du bord pollué. Dans un premier temps, la PAA est mise en marche pour satisfaire la disponibilité, puis elle est arrêtée pour éviter que la pollution se propage. La pompe est alors remise en marche pour éviter l’assèchement du générateur de vapeur. Le point d’arrêt réside alors soit dans l’utilisation des deux EPAD, soit l’isolement de la source de pollution. Ces actions opposées présentent ici aussi un des facteurs aggravant que peuvent apporter des conflits d’objectifs mal gérés. En définitive, les situations observées montrent qu’il est possible d’apporter un soutien en améliorant 330 EPIQUE’2003 la représentation mentale de l’installation et de la situation aux opérateurs, sans nécessairement passer par une représentation des objectifs puisque ces derniers manquent en général du recul nécessaire pour pouvoir les évaluer. 7 BIBLIOGRAPHIE Amalberti, R. (2001). La conduite de systèmes à risques, PUF, coll. Le Travail Humain. Benchekroun, H., Bourgeois, F., Hubault, F. (2002). Comment aider l'encadrement de proximité à faire des arbitrages face à des situations à risques ? in Actes du 37e congrès de la SELF d'Aix en Provence "Les évolutions de la prescription", pp. 376-384. Greact Ed. CEA (2002). Rapport interne de Sûreté 2002, Direction de la sûreté Nucléaire et de la Qualité (DSNQ). Doniol-Shaw, G. (1996), Les potentialités de conflit entre la sécurité et les finalités de l'entreprise, in Llory M. et Heintz JG., Les facteurs Humains et la prévention des risques technologiques. Erreur humaine et pathologie des organisations. Rapport final. Collège de la Prévention des risques Technologiques à l'Institut du Travail Humain. Ministère de l'Environnement, Direction de le Prévention des Pollutions et des Risques. INSAG-4 (1991).Culture de sûreté. Agence Internationale de l'Energie Atomique - Collection Sécurité n° 75. AIEA Ed. Mortureux, Y. (2001). La sûreté de fonctionnement : méthodes pour maîtriser les risques. Techniques de l’ingénieur, Récupéré sur Internet : http://www.techniquesingénieur.fr/affichage/DispIntro.asp?nGcmid=AG4670 Rasmussen, J. (1990). Taxonomy for cognitive work analysis, Rasmussen J., Brehmer B., de Montmollin M., Leplat J. (Eds). Proceeding of the First MOHAWC Project, vol. 1, Risø, Rosklide. Reason, J. (1993). L'erreur humaine (J.M. Hoc, Trad.). Paris: Presses Universitaires de France. (Édition originale, 1990). Rochlin G., LaPorte T., Roberts K. (1987). The Self Designing High-Reliability Organization : Aircraft Carrier Flight Operations at Sea , Naval War College Review, pp. 76-90. Salazar, P., Guillermain, H. (1996). Rapport OSCAR-SNA. L'activité de conduite de la chaufferie en situation incidentelle : Incidents sur la physico-chimie du circuit secondaire. Rapport interne TECHNICATOME n° DE/SER/96-40275 DR (Diffusion Restreinte). Valot, C., Grau, J.-Y., Amalberti, R. (1992) Les métaconnaissances : des représentations de ses propres compétences, in A. Weill-Fassina, P. Rabardel et D. Dubois. Représentations pour l’action, Toulouse : Octarès. pp. 271-293. EPIQUE’2003 331 332 EPIQUE’2003 Comprendre l’activité collective dans les EVC pour mieux les concevoir Joël Tapie France Telecom Recherche & Développement Université Toulouse le Mirail – Laboratoire Travail et Cognition FTR&D/DIH/HDM ; 2, avenue Pierre Marzin 22307, Lannion Cedex, France [email protected] RESUME La conception d’Environnements Virtuels Collaboratifs (EVC) est une pratique récente qui ne peut pas encore s’appuyer sur les retours d’expérience d’un usage régulier. Dans l’optique de générer des connaissances utiles à la conception, nous proposons des hypothèses sur la façon dont les caractéristiques fondamentales de certains outils de collaboration à distance contraignent l’activité collective. Les caractéristiques évoquées portent sur la représentation de l’utilisateur par un avatar de synthèse et sur le partage des ressources de l’espace commun distribué. Les hypothèses seront étayées dans le cadre d’une tâche de prise de décision collective dans le domaine médical. MOTS-CLES EVC, avatar, partage, représentation, conception. 1 INTRODUCTION Le domaine du Travail Coopératif Assisté par Ordinateur2 (TCAO) recouvrent une gamme étendue d’outils au service d'un travail collectif impliquant des acteurs dont l'interaction est médiée par un ordinateur. La principale distinction au sein des dispositifs de TCAO oppose les outils synchrones et les outils asynchrones. Les Environnements Virtuels Collaboratifs (EVC) sont des systèmes de TCAO synchrones, ils permettent un échange immédiat entre des utilisateurs distants. Un EVC est un dispositif qui propose un espace de travail distribué entre plusieurs utilisateurs distants disposants de moyens d'interaction au sein de cet espace. Le lieu virtuel et les ressources nécessaires à l’activité collective sont partagés entre les utilisateurs distants (Benford, Bowers, Fahlen, Greenhalg & Snowdon, 1995 ; Benford, Brown, Reynard, & Greenhalg, 1996 ; Bowers, Pycock & O'Brien, 1996 ; Goebbels & Lalioti, 2001). Cet espace, différent de l’environnement physique des utilisateurs, constitue un cadre de référence commun pour la réalisation collective de la tâche. En revanche, les EVC ne se caractérisent pas par les périphériques utilisés (Fuchs, Moreau & Papin, 2001). Les domaines d'applications sont variés : CAO ; Enseignement à distance ; Entraînement, organisation ou préparation à l'action dans le médical, le militaire ou le sécuritaire ; Installations artistiques ; Jeux en réseau. Nous nous intéressons plus particulièrement aux EVC qui sont au croisement des outils de TCAO et de la Réalité Virtuelle (RV) et au sein desquels les utilisateurs sont représentés par des avatars de synthèse. La RV est sollicitée, comme souvent (Burkhardt, 2003) pour générer la représentation numérique d'une scène et d'objets 3D. Un avatar est une représentation graphique fixe ou animée destinée à symboliser la présence et éventuellement l'activité de l'utilisateur dans la scène. Il s'agit d'une "instanciation" de l'utilisateur dans l’espace calculé (Bowers et al.,1996). L’objet de notre recherche est de comprendre comment certaines spécificités des EVC servent et contraignent l’activité collective afin de dégager des connaissances pour la conception. Après avoir spécifié ce que recouvrent les notions de collaboration et de coopération, nous présenterons une situation de référence, laquelle servira de base à nos hypothèses de travail sur le rôle 2 Computer Supported Cooperative Work (CSCW) pour les anglophones. EPIQUE’2003 333 des avatars et le partage des ressources de l’espace commun. Enfin nous évoquerons les résultats attendus en terme de connaissances pour la conception d’EVC. 2 COLLABORATION ET COOPERATION Les termes de collaboration et de coopération ne renvoient pas à la même organisation collective du travail. Le travail est collaboratif quand tous les acteurs partagent les mêmes sous-tâches. Il est coopératif quand les acteurs réalisent des sous-tâches différentes dont la somme permettra d'atteindre le but. Le terme de collaboratif ne préjuge pas des rapports hiérarchiques entre les utilisateurs, ni de la séquentialité de leurs actions, ni de leurs compétences respectives, ni enfin des informations et outils assignés à chacun. Pour Rogalski (1994), il existe un continuum entre la « collaboration » (où les acteurs partagent une même tâche prescrite) et la « coaction » (où les acteurs ne partagent pas de buts mais des ressources et l'espace de travail). L’auteur nomme « coopération distribuée » l’ensemble des situations dans lesquelles les buts immédiats diffèrent mais concourent à l'atteinte d'un même but global. 3 UNE SITUATION DE REFERENCE Nous abordons l’étude des spécificités des EVC sur le travail collectif en nous appuyant sur une activité collective de référence, réalisée habituellement en co-présence physique ou par visioconférence. Cette activité provient de la réunion de plusieurs spécialistes du domaine médical. Leur objectif commun consiste à décider de la faisabilité et des modalités d'une intervention chirurgicale sur un patient atteint d'un cancer de l'appareil digestif et plus particulièrement de tumeurs au foie. Le diagnostic médical des cas complexes du cancer du foie est une activité collective et pluridisciplinaire. L'équipe est constituée d'un ou plusieurs chirurgiens de l'appareil digestif, d'un ou plusieurs médecins cancérologues, d'un radiologue, et éventuellement du médecin généraliste, susceptible de fournir des informations sur le bilan clinique de son patient (antécédents, tension, état général, …). Les participants ont par conséquent des spécialités portant sur des organes (appareil digestif, foie), des techniques (chirurgie, chimiothérapie) ou des pathologies (cancer). Leur métier et leur spécialité singularisent chacun des membres au sein de l'équipe de diagnostic. Le diagnostic d'intervention est établi en fonction de critères d'opérabilité. Parmi ces critères, certains prennent en compte le nombre, la taille et la localisation des tumeurs, l’envahissement du réseau veineux et le volume de foie sain après résection. La construction d’une stratégie chirurgicale est une tâche de prise de décision collective, par conséquent une tâche de collaboration (Rogalski, 1994). 4 HYPOTHESES DE TRAVAIL 4.1 Le rôle des avatars sur la représentation d’autrui Dans l'environnement virtuel, l'avatar animé rend visible des informations statiques qui sont, sans cela, indiquées à l'oral. A l'instar de l’identité ou de la profession d’un utilisateur, ces informations n'évoluent pas au fil de l'interaction. Les informations statiques sont fondamentales pour l'établissement d'une relation interpersonnelle et l'identification des interlocuteurs (Benford & al., 1995 ; Gabbard & Hix, 1997). L'avatar rend également visible des informations dynamiques sur l'activité de l'utilisateur (Pina, Cerezo & Seron, 2000). Les conséquences de la médiation de la communication est un champ souvent étudié par la psychologie sociale dans le domaine de la TCAO (Sproull & Kiesler, 1991 ; Sherman, 2001 ; Biocca, 1997). La médiation se traduit dans la communication par un effet de nivellement des représentations d’autrui. La représentation se construisant sans informations sur le rôle ou le statut de l’interlocuteur distant, la communication médiée est caractérisée par une diminution des règles sociales (Navarro, 2001; Riva & Galimberti, 1998) et un phénomène de désinhibition du discours (France, Anderson & Gardner, 2001 ; Kreinjs & Kirschner, 2001). Du point de vue de la cognition, l’effet de nivellement des représentations va influencer le processus de prise de décision collective. Dans la prise de décision collective, les informations liées aux caractéristiques de la source pondèrent les arguments et les avis individuels. Dans la situation de référence que nous avons choisie, les critères d’opérabilité relèvent de plusieurs champs disciplinaires. 334 EPIQUE’2003 En l'absence d'informations susceptibles d’être portés par l’avatar, les arguments sont pondérés par des caractéristiques de la source qui ne tiennent pas compte de la discipline. L’attribution d’action ou d’arguments se fondera sur des représentations sans référence au domaine de spécialité de chacun. Ainsi la prise de décision collective prendra la forme d'une négociation dans laquelle tous les avis se valent, certaines caractéristiques pertinentes de la source étant gommées par le système de médiation. La définition d’une stratégie chirurgicale est un processus de prise de décision collective et pluridisciplinaire. Les critères d’opérabilité qui guident ce processus nécessitent à la fois des informations sur la nature des métastases et des informations sur les techniques chirurgicales envisagées. Sans avatars animés, les informations relatives à l'identité et aux fonctions de chaque participant ne sont plus présentes visuellement et les actions sur la scène virtuelle ne sont plus symbolisées. La permanence des informations visuelles rendues par l'avatar renforce la perception et la conscience des autres collaborateurs et de leur activité. Ces informations permettent d'attribuer à un interlocuteur une identité, des compétences propres et ciblées sur lesquelles s’appuieront les actions et les propositions verbales concernant le diagnostic. En ajoutant de l’information utile sur les caractéristiques de la source, la présence d’un avatar animé va avoir un impact sur la prise de décision collective et donc sur le diagnostic médical du patient. 4.2 Le partage et l'activité collective 4.2.1 L'attribution de droit sur les fonctions et les caractéristiques de la source Le partage est un aménagement fondamental des EVC pour l’activité collective. Il permet aux utilisateurs un accès individuel à la manipulation d'un objet ou à l'emploi d'un outil dans l'EV. Dans la tâche de diagnostic à distance d'une stratégie d'intervention chirurgicale, le partage libre des outils remet en cause les spécificités professionnelles des participants en présence. Dans la situation de référence, les radiologues manipulent les images médicales (scanner et radiographies). Les chirurgiens, quant à eux, n'ont pas de système de simulation des actes chirurgicaux, par conséquent, ils construisent à partir des informations disponibles (et en particulier celles provenant des radiologues) leur propre diagnostic de l’intervention. Par ailleurs, l'imagerie médicale devient progressivement plus lisible, son interprétation est facilitée notamment grâce à la tridimensionnalité. Dans ce contexte, les radiologues s'interrogent sur l’évolution de leur métier, a fortiori avec la modélisation automatique des organes et des pathologies. En autorisant le partage, les fonctions autrefois réservées à un corps de métier sont désormais disponibles à tous. Si le système l'autorise, les chirurgiens peuvent manipuler les images scanner et les radiologues des outils chirurgicaux virtuels. L'attribution d'outils et de fonctions est un procédé de marquage des rôles spécifiques au sein de la situation d'interaction. Les droits accès aux fonctions servent au même titre que d'autres types d'informations (celles portées par l’avatar, voir la première hypothèse de travail) à construire la représentation que se fait chaque utilisateur des collaborateurs distants. Dans le processus de prise de décision collective, les informations liées aux caractéristiques de la source pondèrent les arguments et les avis individuels. En l'absence de ses informations, les arguments sont pondérés par des caractéristiques de la source qui ne tiennent pas compte de la discipline. Or le diagnostic médical d'une intervention chirurgicale du cancer du foie est une activité pluridisciplinaire. Dans le cas du diagnostic médical, le partage libre des outils risque de rendre le diagnostic moins sûr. 4.2.2 Le partage favorise la construction de connaissances communes C'est dans les tâches de collaboration (comme la prise de décision collective) que l'on retrouve le plus un besoin de construire un référentiel commun (Rogalski, 1994). Intéressons-nous à un espace virtuel de travail contenant un objet 3D complexe et unique comme c'est fréquemment le cas en maquettage virtuel. Le partage de cet objet visible par tous impose la séquentialité des manipulations et des actions. Il s’agit d’une forme de régulation de l'interaction collective. L'utilisateur qui a "la main" sur l'objet 3D est acteur de sa recherche d'information par les manipulations qu'il impose à l'objet (rotations, translations). Durant ce temps, les autres utilisateurs sont spectateurs des manipulations sur l'objet, visibles par tous. Ils forment des connaissances communes à partir de tous les indices disponibles (Olson & Olson, 2000) et en particulier à partir de l'activité de recherche d'information d'un collaborateur. Il faut néanmoins préciser que ces indices ne sont pas toujours EPIQUE’2003 335 directement accessibles ou interprétables. Ils sont par exemple soumis à la capacité de l'avatar à symboliser l'activité. Nous faisons l'hypothèse que le partage d'un objet complexe 3D, parce qu'il organise de façon séquentielle la recherche d'information et qu'il la rend visible à tous, favorise la construction de connaissances communes. 4.3 Méthodologie Les hypothèses présentées ici n'ont pas été soumises au contrôle de l'expérimentation. Pour ce faire, nous utiliserons un EVC consacré au diagnostic médical. FTR&D (France Telecom Recherche & Développement) et l'IRCAD (Institut de Recherche sur le Cancer de l'Appareil Digestif) se sont associés pour produire "Opération Argonaute 3D"3, un EVC prototype qui permet à des chirurgiens et des radiologues géographiquement distants de décider d'une stratégie chirurgicale adaptée aux cas complexe de cancer hépatique (figure 1). Opération Argonaute 3D comporte des fonctions de simulation des actions chirurgicales (résection, endoscopie, etc.) sur les organes modélisés en trois dimensions, ainsi qu'une fonction d'imagerie médicale (affichage des images scanner). Les utilisateurs distants sont représentés dans le lieu virtuel par des avatars anthropomorphiques. Les avatars sont configurables pour l'expérimentation en terme d'information statique (nom et profession) et dynamique (comportements gestuels). Figure 1 : Les organes d'un patient modélisés dans l'EVC "Opération Argonaute 3D". Des groupes pluridisciplinaires de trois utilisateurs seront constitués pour définir, via l'EVC Opération Argonaute 3D, les modalités d'une intervention chirurgicale sur un cas clinique précis. Les différentes modalités expérimentales feront varier les informations portées par l'avatar, ainsi qu'un droit d'accès aux fonctions et aux organes qui constituent l'objet 3D complexe. Les modalités d'intervention chirurgicale retenues constitueront en sortie un des indicateurs de l'influence des facteurs étudiés sur le processus de prise de décision collective. 5 CONCLUSION ET RESULTATS ATTENDUS POUR LA CONCEPTION D’EVC Les hypothèses de travail présentées cherchent à montrer comment des dispositifs qui fournissent un espace de travail commun à des utilisateurs distants représentés par des avatars animés et qui se partagent les ressources de l’environnement virtuel, aident et contraignent une activité de collaboration pluridisciplinaire. Les connaissances sur la conception d'EVC seront enrichies des résultats attendus sur les informations portées par l’avatar et l’attribution de droits sur le partage en fonctions des compétences spécifiques des utilisateurs. 3 P. Le Hir, "Des images en trois dimensions au service des médecins", Journal Le Monde, 8 nov 2002. 336 EPIQUE’2003 Par ailleurs, nous cherchons à établir que le partage d'un objet complexe 3D favorise la construction de connaissances communes notamment durant les phases de recherche individuelle d’information. Si cette hypothèse est avérée, nous pourrons en déduire pour la conception que les tâches ou les conditions qui incluent le plus de recherche individuelle d’information tireront davantage de bénéfice du partage que proposent les EVC. 6 BIBLIOGRAPHIE Benford, S., Bowers, J., Fahlen, L. E., Greenhalg, C. & Snowdon, D. (1995). User Embodiment in Collaborative Virtual Environments. CHI'95, ACM Press. Benford, S., Brown, C., Reynard, G. and Greenhalg, C. (1996). Shared spaces : Transportation, artificiality, and spatiality. Computer Suported Cooperative Work (CSCW'96), Boston. Biocca, F. (1997). The Cyborg's dilemma : Progressive Embodiment in Virtual Environments. Journal of Computer-Mediated Communication 3(2). Bowers, J., Pycock, J. and O'Brien, J. (1996). Talk and Embodiment in Collaborative Virtual Environments. ACM CHI'96, Pittsburgh, PA USA. Burkhardt J.-M. (2003). Réalité Virtuelle et Ergonomie : Quelques apports réciproques. Le Travail Humain, 66(1), pp 65-91. France, E., Anderson, A. H. & Gardner, M. (2001). The impact of status and audio-conferencing technology on business meetings. International Journal of Human-Computer Studies, 54, pp 857876. Fuchs, P., Moreau, G. & Papin, J.P. (2001). Le Traité de la Réalité Virtuelle. Paris, Presses de l'Ecole des Mines. Gabbard, J.L. & Hix, D. (1997). A Taxonomy of Usability Characteristics in Virtual Environments. M.S. Thesis, Department of Computer Science and Applications, Virginia Polytechnic Institute and State University. Goebbels, G. & Lalioti, V. (2001). Co-presence & Co-working in Distributed Collaborative Virtual Environments. Proceedings of ACM SIGGRAPH, 1st International Conference on Virtual Reality, Computer Graphics and Visualisation (Afrigraph 2001), Cape Town. Kreinjs, K. & Kirschner, P. A. (2001). The social affordance of computer-supported collaborative learning environments. Proceedings of the 31th Annual Frontiers in Education Conference, Reno, Nevada. Navarro, C. (2001). Partage de l'information en situation de coopération à distance et nouvelles technologies : Bilan des recherches récentes. Le Travail Humain 64(4): 297-319. Olson, G. M. & Olson, J. S. (2000). Distance matters. Human-Computer Interaction, 15. Pina, A., Cerezo, E. & Seron, F. J. (2000). Computer animation : from avatars to unrestricted autonomous actors (A survey on replication and modelling mechanisms). Computer & Graphics, 24, pp 297-311. Riva, G. & Galimberti, C. (1998). Computer-mediated communication : identity and social interaction in an electronic environment. Genetic, Social and General Psychology Monographs, 124, pp 434464. Sherman, R. C. (2001). The Mind's Eye in Cyberspace : Online Perceptions of Self and Others. In G. Riva and C. Galimberti (Eds), Towards Cyberspsychology : Mind, Cognition, and Society in the Internet Age. Washington, D.C., IOS Press. Sproull, L. & Kiesler, S. (1991). Connections: New ways of working in the Networked Organisation. Cambridge, Massachusetts, The MIT Press. Rogalski, J. (1994). Formation aux activités collectives. Le Travail Humain, 57(4), pp 367-386. EPIQUE’2003 337 338 EPIQUE’2003 Travail coopératif à distance en conception de produits : apports et limites de l’usage d’un collecticiel Guillaume Gronier, Jean-Claude Sagot Equipe Ergonomie et Conception des Systèmes (ERCOS) Laboratoire Systèmes et Transports (SeT) Université de Technologie de Belfort-Montbéliard Rue du Château 90010 Belfort Cedex {guillaume.gronier/jean-claude.sagot}@utbm.fr RESUME L’utilisation des collecticiels dans les projets industriels soulève de nombreuses questions, notamment en ce qui concerne la productivité et l’efficacité du travail collectif. Autrefois limités aux interactions homme-homme, les échanges coopératifs interindividuels mutent peu à peu vers une interaction homme-machine-homme. Les enjeux de ces nouvelles formes de coopération sont dès lors sans cesse redéfinis en fonction de l’émergence des nouvelles technologies pour la communication. Cet article se propose de présenter une méthodologie, actuellement suivie dans le cadre d’un travail de Thèse en Psychologie du Travail, qui se propose de comparer coopération en présence et médiée afin de dégager les apports et les limites de l’usage d’un collecticiel en conception de produits. Quelques résultats, issus des premières analyses, viennent illustrer le travail en cours. MOTS-CLES Coopération en conception de produits, coordination, communication, travail coopératif assisté par ordinateur, collecticiel. 1 INTRODUCTION Le contexte socio-économique à forte concurrence, perpétuellement en mouvement, est le plus souvent responsable des mutations technologiques et organisationnelles qui s’opèrent dans les structures de production. Les entreprises sont en effet contraintes d’adopter un mode plus flexible de leur organisation du travail en vue de réagir plus rapidement aux exigences de leur environnement (de Terssac et Lompré, 1994). La mise en œuvre de l’ingénierie concourante, « qui vise à la fois un accroissement de la qualité, une diminution des coûts et une réduction du temps de développement » (Bossard et al., 1997), apporte une réponse à l’optimisation du processus de conception par l’ordonnancement simultané des tâches. La flexibilité est également intégrée aux nouveaux modèles d’organisations à travers le développement d’une stratégie d’externalisation. Cette externalisation, qui repose sur un mode d’organisation-réseau, permet aux entreprises de renforcer leur domaine d’expertise et de maîtriser davantage leur production face au marché turbulent (Bossuet et al., 1997). La coopération entre les acteurs d’un même groupe de travail, ou d’une même organisation, apparaît dès lors comme une absolue nécessité. Elle peut être en effet considérée comme le management de l’interférence entre les activités individuelles en vue de faciliter les sous-tâches des membres de l’équipe et la tâche commune à l’équipe (Hoc, 2001). Elle est la condition de l’organisation flexible (de Terssac et Lompré, 1994), de l’ingénierie concourante (Bossard, 1997) et de l’externalisation entreprenariale (Bossuet et al., 1997). Dans ce cadre, les outils de Travail Coopératif Assisté par Ordinateur (TCAO) (traduction du terme anglo-saxon Computer Supported Cooperative Work), le plus souvent représentés par les collecticiels, sont aujourd’hui plébiscités par les entreprises qui cherchent un moyen plus efficace de gérer leur nouveau modèle d’organisation. Ces outils permettent en effet « d’améliorer le fonctionnement des groupes de travail » (Favier, 1998) par le partage d’information et de documents à distance, la multiplication des canaux de communication synchrone et asynchrone, la coordination des tâches de production, ou encore l’instrumentation des prises de décisions collectives. EPIQUE’2003 339 Toutefois, la réelle efficacité des collecticiels est encore mal connue, et il est aujourd’hui difficile de se prononcer sur les avantages ou les limites qu’offrent ces outils en conception collective. C'est dans ce contexte que se situe ce travail de Thèse, qui se donne pour objectif d’approfondir la compréhension des activités coopératives de conception à distance. Nos recherches s’appuient sur un outil de TCAO spécifique, développé par l'équipe de recherche en Ergonomie et Conception des Systèmes (ERCOS) du Laboratoire Systèmes et Transports (SeT), baptisé Atelier Coopératif de Suivi de Projet (ACSP) (Gomes et Sagot, 2002). 2 COOPERATION EN PRESENCE ET COOPERATION A DISTANCE La coopération dans les équipes de travail est souvent étudiée selon ses aspects socio-cognitifs (Bourdon & Weill-Fassina, 1994 ; Maggi, 1996 ; Kvan, 2000) ou selon la situation dans laquelle elle s’inscrit : en face-à-face ou médiée (Doherty-Sneddon et al., 1997 ; Foulon-Molenda, 2000 ; Navarro, 2001). Dans cette partie, nous tentons de faire état des recherches les plus représentatives entreprises dans ces différents domaines, en vue de définir tout d’abord en quoi consiste l’activité de coopération en conception, puis quels sont les nouveaux enjeux de la coopération à distance. 2.1 Caractéristiques du travail collectif en conception de produits Les actions coordinatrices, qui régulent et finalisent l’action collective (Maggi, 1996), font partie intégrante de la coopération. Elles sont essentiellement gérées par les communications verbales ou non-verbales (Bourdon et Weill-Fassina, 1994). Coopération, coordination et communication sont donc trois processus intimement liés qui régissent le travail en équipe. 2.1.1 La coopération Les approches et les définitions de la coopération sont multiples. Pour Kvan (2000), la coopération en conception est le jeu de relations informelles qui existent sans que soient définis communément de mission, de structure ou d’effort. La coopération apparaît alors comme une activité collective désordonnée, incapable de combiner des actions synchronisées et finalisées. A l’inverse, Maggi (1996) définit la coopération comme un acte plus structuré : elle est « l’action de participer à une œuvre commune, l’action collective par laquelle les sujets contribuent à un même résultat ». Maggi distingue toutefois les actions et les buts de la coopération. Ainsi, même si les buts sont communs aux membres d’une équipe de travail, les actions de ces membres peuvent être séparées. Elles demanderont alors d’étroits échanges mutuels entre les acteurs. Kvan (2000) souligne à ce propos que le travail collectif des concepteurs est plus souvent l’objet de tâches individuelles, réunies à certaines étapes du processus de conception, que de tâches réalisées en commun. Il apparaît ainsi que la coopération, prise isolément, ne peut caractériser à elle seule le travail en équipe. L’approche de Kvan (2000) met clairement en évidence que la coopération n’assure pas l’efficacité du travail en équipe. Maggi (1996) ajoute quant à lui la nécessité de réguler, de structurer et de finaliser les actions coopératives. La coopération requiert alors un ordre : une coordination. 2.1.2 La coordination La coordination constitue une condition du processus de coopération (De Terssac et Lompré, 1994). Elle est l’ordre par lequel la coopération s’assure d’être efficace. Elle pose « des règles pour lier ensemble les différentes actions vers le but commun » (Maggi, 1996). Ainsi, la coordination permet la décomposition d’un but commun en sous-buts indépendants, dont les tâches simultanées prises en charge individuellement sont liées par des réseaux de correspondances (Hoc, 2001). Maggi (1996) reprend trois formes typiques de coordination. 1) La coordination par rapports réciproques met en relation symétrique chaque unité avec toutes les autres unités. Elle implique une forte transmission d’informations et des règles fermes d’ajustements mutuels. 2) La coordination par séquence met en relation directe, mais non symétrique, chaque unité avec d’autres unités. L’ordre du processus est alors assuré par des règles de programme dont les informations liées suivent le déroulement. 3) Enfin, la coordination d’unités séparées ne met pas en relation directe chaque unité l’une avec l’autre, mais sollicite uniquement leur contribution pour le résultat global. Son homogénéité et sa cohérence sont garanties par des règles standard. L’échange d’informations est alors plus faible. 340 EPIQUE’2003 La coordination implique dès lors un certain nombre de ressources et de moyens pour être mise en œuvre. Il peut ainsi s’agir de règles, mais d’autres moyens peuvent être employés, comme la communication verbale ou non verbale qui reste l’un des moyens les plus fréquents pour la coordination (Bourdon et Weill-Fassina, 1994 ; Grusenmeyer et Trognon, 1997). 2.1.3 La communication Dans une étude sur la coopération dans la gestion du trafic ferroviaire, Bourdon et Weill-Fassina (1994) relèvent que la coordination entre les opérateurs « passe essentiellement par les communications et les échanges ». L’analyse de ces communications a permis d’en dégager les fonctions de 1) circulation de l’information ; 2) gestion des savoirs ; 3) construction et maintien d’un référentiel commun. Dans une autre recherche sur l’analyse des communications coopératives entre opérateurs en phase de relève de poste, Grusenmeyer et Trognon (1997) ont montré qu’une représentation fonctionnelle partagée se construisait au fur et à mesure des interactions verbales. Ainsi, comme le souligne Zarifian (1998), travailler ensemble dans une « forte » coopération signifie communiquer, au sens de développer un espace de compréhension réciproque, en vue d’établir des accords solides sur 1) la nature des problèmes à traiter ; 2) l’identité des objectifs ; 3) le sens des actions ; 4) les implications subjectives des individus qui agissent ensemble. Par conséquent, la communication constitue, avec la coordination, un processus indispensable à la coopération. Il est alors légitime de s’interroger sur les nouveaux modes de coopération à distance, lorsque les canaux de communication sont transformés. 2.2 Caractéristiques du travail collectif à distance Le travail collectif à distance est un champ d’études perpétuellement en mouvement qui s’adapte et se co-construit en fonction de l’émergence des nouvelles technologies pour la coopération. Bien avant l’apparition du Computer Supported Cooperative Work, Williams (1977) faisait déjà le bilan des recherches menées sur la communication médiée. Aujourd’hui, les réseaux et systèmes informatiques ont enrichi les médias traditionnels (téléphone, fax, courrier) par de nouveaux moyens de coopération : e-mail, forum, chat, environnement virtuel, application partagé, base de données, workflow, etc. Dans cette partie, nous décrivons les nouvelles technologies de la coopération médiée réunies sous le terme de collecticiel. Puis nous présentons en quoi consiste le partage d’informations à distance et quelles sont les spécificités des nouveaux modes de coopération. 2.2.1 Le collecticiel Traduction du terme anglo-saxon groupware, nous retiendrons, en accord avec Favier (1998), que le collecticiel est « l’ensemble des techniques et des méthodes qui contribuent à la réalisation d’un objectif commun à plusieurs acteurs, séparés ou réunis par le temps et l’espace, à l’aide d’un dispositif interactif faisant appel à l’informatique, aux télécommunications et aux méthodes de conduite de groupe ». Selon cette définition, le collecticiel est envisagé sous trois aspects. 1) Il fait tout d’abord abstraction des barrières spatiotemporelles. Il permet donc la coopération à distance ou en présence, tout comme la coopération asynchrone ou synchrone. 2) Le collecticiel regroupe ensuite les technologies nécessaires à toute forme de communication (en présence, à distance, asynchrone, synchrone). Néanmoins, les technologies du collecticiel seront adaptées aux besoins des utilisateurs et au type d’échanges (écrit, oral, visuel) qui auront lieu par son intermédiaire (Navarro, 2001). 3) Le collecticiel intègre enfin des méthodes, qu’il emprunte non seulement à la « conduite de groupe », mais aussi à la « gestion de la production » (Lococo et Yen, 1998). Le collecticiel est donc orienté vers l’optimisation du travail en équipe. 2.2.2 Coopération et partage d’informations à distance L’introduction des collecticiels au sein des nouvelles organisations pose de nombreuses questions, notamment en ce qui concerne l’efficacité et la qualité du travail en équipe (Foulon-Molenda, 2000). Bien que l’objectif des collecticiels soit d’assister la collaboration, la coordination et la communication dans les prises de décisions collectives (Lococo et Yen, 1998), l’absence d’un contexte de travail partagé et d’informations visuelles sur autrui peut compliquer le travail collectif. Ainsi, Navarro EPIQUE’2003 341 (2001) souligne, dans un bilan de recherches récentes, que « les situations en face-à-face semblent plus adaptées que les situations de communication médiées par un outil quelconque ». Pour favoriser le travail en équipe, les collecticiels semblent donc devoir palier à certains manques de la coopération à distance. Nous relèverons chez Navarro (2001) deux notions, relatives aux communications, qui constituent le ciment des activités collectives en présence, et qui se doivent d’être compensées dans les situations médiées : 1) l’espace de travail partagé, qui facilite le processus de compréhension de la situation à travers l’échange d’informations visuelles relatives à la tâche en cours ; 2) la conscience mutuelle, qui garantit la meilleure coordination possible et qui passe par le repérage d’informations visuelles relatives à autrui (gestes, postures, mimiques, etc.). Le canal visuel semble alors déterminant pour la bonne marche de la coopération médiée. Dans ce cadre, Doherty et al. (1997) ont montré que les co-actions réalisées à distance étaient plus performantes lorsque les interlocuteurs pouvaient uniquement se voir que lorsqu’ils pouvaient uniquement s’entendre. Toutefois, la coopération était toujours plus efficace en coprésence qu’en situation médiée. Foulon-Molenda (2000) reste néanmoins prudent sur le rôle du regard lors de communications naturelles ou médiées. Les résultats contradictoires issus d’une revue de la littérature (Foulon-Molenda, 2000) ne permettent pas en effet de conclure en l’indispensable utilité d’un canal visuel centré sur l’interlocuteur pour la coopération. 2.3 Problématique Les collecticiels sont donc contraints de fournir aux interlocuteurs des outils et des méthodes capables de reproduire, au moins en partie, les caractéristiques de coopération (en termes de prises d’informations relatives à la tâche et à autrui) proches de celle en présence. On sait toutefois que la similitude des situations ne peut pas être irréprochable. Dans ce cadre, quelles sont alors les limites des collecticiels pour le travail coopératif à distance en conception de produits ? Néanmoins, les collecticiels sont chargés d’optimiser le travail en équipe. Si cette optimisation n’est pas appliquée aux communications, qui semblent plus efficaces en coprésence, on peut imaginer qu’elle s’applique à d’autres processus de coopération. Pour Lococo et Yen (1998), les collecticiels accélèrent les délais de réponse entre interlocuteurs et offrent un accès permanent aux informations d’un projet. Les collecticiels semblent dès lors mieux adapter pour l’optimisation de la coordination. 3 METHODOLOGIE Notre méthode d’observation du travail collectif en conception repose sur une approche systémique. Nous nous proposons en effet d’observer le travail collectif sous l’angle de : 1- la coopération, à travers la définition des buts en communs, les actions parallèles, les documents échangés ; 2- la coordination, à travers la répartition des tâches et des rôles, les formes de coordination réelles et prescrites, les règles de coordination ; 3- la communication, à travers les échanges verbaux et écrits, traitée par l’intermédiaire d’un logiciel d’analyse de données textuelles, ALCESTE. En ce sens, nous nous approchons du modèle du trèfle fonctionnel de Salber (1995), qui décrit les collecticiels sous l’angle de la production, de la coordination et de la communication. En ce qui nous concerne, nous appliquons cette méthode d’observation à l’analyse du travail collectif en présence et à distance. 3.1 L’Atelier Coopératif de Suivi de projet (ACSP) Le collecticiel ACSP, issu des recherches de l’équipe ERCOS (Gomes et Sagot, 2002), est un environnement logiciel de type client-serveur disponible sur Internet. Reposant sur un Système de Gestion de Données Techniques (SGDT), l’ASCP structure la coopération en conception de produits autour de quatre grands domaines : 1) la gestion du projet (gestion des tâches, gestion des ressources humaines, gestion des coûts, etc.) ; 2) la gestion du produit (cahier des charges fonctionnel, gestion des pièces, etc.) ; 3) la gestion du process (procédés de fabrication, gestion des ressources matérielles, etc.) ; 4) et la gestion des activités gestuelles futures souhaitables (en termes de sécurité, confort, santé et efficacité). Cette architecture de l’ACSP a pour objectif d’accompagner l’équipe de travail de la 342 EPIQUE’2003 première à la dernière étape du processus de conception, tout en y intégrant une dimension ergonomique à travers la gestion des activités futures souhaitables (Sagot et al., 2003). Pour finir, les échanges de documents, qui assurent une grande part dans la coordination des tâches, sont structurés par un outil de type workflow. Des modules de chat, de forum, et d’e-mail assurent quant à eux les communications synchrones ou asynchrones entre les acteurs du projet. 3.2 Cadre d’observation Ce travail de Thèse se propose d'analyser plusieurs situations contrôlées de travail collectif en présence et à distance. Ces situations concernent la conception de deux produits distincts, un appareil de détection des troubles musculo-squelettiques (TMS) et une tondeuse à gazon électrique, par six groupes d’élèves-ingénieurs en fin d’étude répartis sur deux sites distants, l’Université de Technologie de Belfort-Montbéliard (UTBM) et l’Université de Technologie de Troyes (UTT). Ainsi, quatre projets ont été créés afin d’obtenir deux situations de coopération à distance et deux situations de coopération en présence. Les deux projets de coopération à distance reposaient sur la collaboration entre les deux Universités de Technologie, et étaient tous deux composés d’un groupe d’élèves-ingénieurs de l’UTBM et d’un groupe d’élèves-ingénieurs de l’UTT. Les deux projets de coopération en présence reposaient quant à eux sur la collaboration entre les élèves-ingénieurs de la même université (celle de l’UTBM ou celle de l’UTT). Pour finir, tous les projets se sont déroulés sur la même durée (cinq mois). Ils étaient composés du même nombre d’acteurs (sept acteurs) et définis par les mêmes objectifs (proposition d’un concept de produit sur la base du cahier des charges). Les élèves-ingénieurs de chaque projet en présence avaient pour consigne de coopérer plutôt par l’intermédiaire de réunions qui ont toutes été filmées. Ils avaient néanmoins toujours accès à l’ACSP s’ils le souhaitaient. Les groupes-projet à distance devaient quant à eux coopérer uniquement par l’intermédiaire de l’ACSP. La configuration des 4 projets est récapitulée dans le tableau 1 : Conception d’un appareil de détection des TMS (Projet A) Conception d’une tondeuse à gazon électrique (Projet B) Coopération en présence Coopération à distance Coopération en présence Coopération à distance Université de Technologie de Belfort-Montbéliard 7 (dont le chef de projet) 3 (dont le chef de projet) 0 3 Université de Technologie de Troyes 0 4 7 (dont le chef de projet) 4 (dont le chef de projet) Tableau 1 : répartition des élèves-ingénieurs selon le sujet du projet et le type de coopération. 4 PREMIERS RESULTATS ET TRAVAUX EN COURS Une première analyse exploratoire du travail collectif dans les groupes contrôlés (tableau 1) a révélé quelques grandes tendances propres à la coopération à distance ou en présence (figure 1 et 2). Période de vacances universitaires 120 Période de vacances universitaires 106 120 103 100 100 Projet A (en présence) 80 Projet A (à distance) Projet B (en présence) 60 Projet B (à distance) 40 Nombre d'utilisations Nombre de connexions à l'ACSP 140 84 80 77 Forum 60 E-mail 52 Chat 37 40 20 20 s4 s3 3 s2 s1 s5 6 s4 7 s4 8 s4 9 s5 0 s5 1 s5 2 s4 s3 9 s4 0 s4 1 s4 2 s4 3 s4 4 s4 5 0 Temps (en semaines de l'année 2002, suivie de l'année 2003) Figure 1 : Evolution du nombre de connexions à l’ACSP selon le projet 10 1 0 0 Projet A (en présence) Projet A (à distance) 0 0 Projet B (en présence) 2 Projet B (à distance) Projets Figure 2 : Utilisation des outils de communication de l’ACSP selon le projet Par exemple, nous pouvons observer dans la figure 1 que le Projet A en présence totalise chaque semaine un nombre de connexions à l’ACSP souvent proche de celui des Projets à distance, alors que l’on pourrait s’attendre à ce que le collecticiel soit peu utilisé au cours des projets en présence (comme c’est le cas du Projet B en présence qui ne s’est pratiquement jamais connecté à l’ACSP). Le Projet A en présence utilise toutefois moins les outils de communication : il totalise 139 communications par EPIQUE’2003 343 l’intermédiaire de l’e-mail, du forum ou du chat, alors que les Projets A et B à distance comptent respectivement 190 et 142 communications médiées (figure 2). En ce qui concerne l’usage des outils de communication, l’e-mail et le forum (communications asynchrones) semblent globalement bien plus utilisés que le chat (communication synchrone) (figure 2). Ces premières analyses doivent néanmoins faire l’objet de tests de significativité et d’un plus grand approfondissement avant qu’en soit tirée quelque conclusion. Le contenu des e-mails, des messages du forum, de l’utilisation réelle de l’ACSP (les connexions ne peuvent refléter la qualité de son utilisation) sont autant de données qui complèteront notre étude. Les données recueillies, tout comme nos analyses, nécessiteront enfin d’être structurées autour des trois aspects du travail collectif que nous avons décrits précédemment : la coopération, la coordination et la communication. Pour chacun de ces aspects, nous tenterons de dégager les caractéristiques, en termes d’apports et de limites, du travail collectif médiée par rapport à celui en présence. Nos analyses seront bien entendu discutées sur la base d’une revue de la littérature qui suivra les lignes tracées dans cette communication. 5 BIBLIOGRAPHIE Bossard, P., Chanchevrier, C., & Leclair, P. (Eds.) (1997). Ingénierie concourante : de la technique au social. Paris, Economica. Bossuet, C., Lamothe, J., & Lacoste, G. (1997). Analyse des formes de coopération enter-entreprises : influence des niveaux informationnels. Communication présentée au 2ème Congrès International Franco-Québécois. Albi, France, Sept. Bourdon, F, & Weill-Fassina, A. (1994). Réseau et processus de coopération dans la gestion du trafic ferroviaire. Le Travail Humain, 57 (3), 271-287. Doherty-Sneddon, G., Anderson, A. H., O’Malley, C., Langton, S., Garrod, S., & Bruce, V. (1997). Face-to-face interaction and video mediated communication : a comparison of dialogue structure and cooperative task performance. Journal of Experimental Psychology : Applied, 3, 105-125. Favier, M. (Ed.) (1998). Le travail en groupe à l’âge des réseaux. Paris, Economica. Foulon-Molenda, S. (2000). A-t-on besoin de se voir pour coopérer ? Contribution théorique issue de la psycholinguistique. Le Travail Humain, 63, 97-120. Gomes, S., & Sagot, J. C. (2002). A concurrent engineering experience based on a Cooperative and Object Oriented Design Methodology. In P. Chedmail, G. Cognet, C. Fortin, C. Mascle, & J. Pegna (Eds.), Integrating design and manufacturing in mechanical engineering (pp. 11-18). London, Kluwer Academic Publishers. Grusenmeyer, C., & Trognon, A. (1997). Les mécanismes coopératifs en jeu dans les communications de travail : un cadre méthodologique. Le Travail Humain, 60 (1), 5-31. Hoc, J. M. (2001). Towards a cognitive approach to human-machine cooperation in dynamic situations. International Journal of Human-Computer Studies, 54, 1-32. Kvan, T. (2000). Collaborative design, what is it ? Automation in construction, 9, 409-415. Lococo, A., & Yen, D. D. (1998). Groupware : computer supported collaboration. Telematics and Informatics, 15, 85-101. Maggi, B. (1996). Coopération et coordination : enjeux pour l’ergonomie. In J. C. Sperandio (Ed.), L’ergonomie face aux changements technologiques et organisationnels du travail humain (pp. 1126). Toulouse, Octarès. Navarro, C. (2001). Partage de l’information en situation de coopération à distance et nouvelles technologies de la communication : bilan de recherches récentes. Le Travail Humain, 64 (4), 297319. Sagot, J. C., Gouin, V., & Gomes, S. (2003). Ergonomics in product design : safety factor. Safety Science, 41, 2-3, 137-154. Salber, D. (1995). De l’interaction homme-machine individuelle aux systèmes multi-utilisateurs : l’exemple de la communication homme-homme médiatisée. Thèse, Université Joseph Fournier, Grenoble. Terssac, G. de, & Lompré, N. (1994). Coordination et coopération dans les organisations. In B. Pavard (Ed.), Systèmes coopératifs : de la modélisation à la conception (pp. 175-201). Toulouse, Octarès. Zarifian, P. (1998). Travail et communication. Paris, Presses Universitaires de France. 344 EPIQUE’2003 Williams, E. (1977). Experimental comparisons of face-to-face and mediated communication : a review. Psychological Bulletin, 84 (5), 963-976. EPIQUE’2003 345 346 EPIQUE’2003 COOPERA : ANALYSE D’USAGE D’UNE PLATE-FORME DE COOPERATION Jean-Charles Hautecouverture Laboratoire de Psychologie de l’Interaction – GRC Université Nancy 2 BP 33-97 54015 Nancy Cedex France [email protected] RESUME L’environnement informatique sur lequel porte notre étude propose à des utilisateurs, en l’occurrence ici des enfants du primaire, un mode de coopération particulier pour la réalisation de projets communs. Notre participation à ce projet consiste à rendre compte de l’usage que font les élèves de l’outil, et plus précisément des facteurs qui facilitent ou gênent son appropriation. Pour ce faire, nous analysons les interactions entre élèves, médiatisées par la plate-forme, au cours de son utilisation effective. Il en résulte que si les propriétés de l’artefact jouent un rôle essentiel dans son appropriation, l’inscription historico-culturelle du dispositif est également un facteur déterminant dans ce processus. MOTS-CLES Cognition distribuée et située, Psychologie historico-culturelle, Clinique de l’activité, Interactions HommeMachine, Cognition et émotion. 1 INTRODUCTION Depuis février 2002, nous sommes engagés dans un projet de conception de plate-forme de coopération, via Internet, dont l’objectif est de permettre à des enfants de CM1/CM2 (10-11 ans) de différentes classes de travailler sur un projet commun (Hautecouverture et al., 2003). Ce projet s’inscrit dans une volonté d’introduction des nouvelles technologies dans les activités scolaires, pour la mise en œuvre de démarches pédagogiques innovantes. Il est alors colinéaire des initiatives gouvernementales, telles que la mise en place du Brevet Informatique et Internet (B2I), dans les écoles du primaire et du secondaire. L’utilisabilité de ce collecticiel repose sur son appropriation par les élèves, caractérisée par la construction et la mobilisation de significations, lors de situations naturelles d’utilisation. Aussi, notre participation à l’élaboration de cet environnement informatique consiste en l’analyse des usages, envisagés comme processus d’appropriation. Nous commencerons par une description de l’outil, dans le but de cerner ses spécificités. Puis nous expliciterons notre position théorique et méthodologique. Nous présenterons enfin les expérimentations menées jusqu’à présents, ainsi que les principaux résultats auxquels nous parvenons. 2 UNE PLATE-FORME POUR COOPERER Le projet Coopéra4 a pour visée l’élaboration d’une plate-forme de coopération, à distance et asynchrone. L’originalité de cet environnement informatique est de permettre aux utilisateurs de réguler leurs activités de production en fonction de celles des autres, dans l’objectif d’une coopération efficiente. Il s’agit dès lors d’anticiper les situations de cumul de versions différentes d’un même fichier. La régulation des conduites est concomitante du développement chez chacun des utilisateurs d’une conscience de groupe. Elle se traduit par la capacité des acteurs à se considérer ainsi que les autres sujets comme membres compétents d’un même groupe inscrit dans une dynamique collaborative ; à mener une pensée réflexive sur leur place, leur rôle et leurs productions au regard de 4 Le programme de R&D Coopéra est financé par le réseau RIAM (2002-2004). Il est porté par la société Jériko, en association avec trois laboratoires : projet Ecoo du Loria (Université H. Poincaré, Nancy 1), Gr@mmsci (Université M. de Montaigne, Bordeaux 3) et nous-mêmes, projet Codisant du LPI-GRC (Université Nancy 2). EPIQUE’2003 347 cette dynamique ; ou encore à percevoir les attitudes et les attentes d’autrui envers soi, ainsi que ses attentions de production. Ce potentiel repose sur les deux dimensions constitutives de l’outil : le modèle de partage de fichiers et l’application logiciel. 2.1 Le modèle de partage de fichiers Le partage de fichiers s’organise autour de trois espaces : (i) un espace local, sur l’ordinateur des membres du projet ; (ii) un espace commun à tous les membres, situé sur Internet ; (iii) entre les espaces local et commun, un espace privé pour chaque utilisateur, également sur Internet. C’est ce dernier qui rend possible la régulation des conduites. En effet, le principe est que les espaces local et privé des utilisateurs soient constamment à l’identique, par une synchronisation systématique. Et comme l’espace privé est sur Internet, chaque membre peut savoir qui a modifié ou a créé un fichier, ainsi que le nom de ce fichier. La mise en commun d’un fichier quant à elle s’organise en deux opérations. Lorsqu’un utilisateur a terminé son travail et qu’il a synchronisé ses espaces local et privé, il publie son fichier dans l’espace commun pour le rendre accessible au groupe. Les autres membres sont ensuite responsables de la mise à jour de leur espace privé, qu’ils synchroniseront avec leur espace local, afin de consulter le fichier nouvellement modifié (ou créé) et d’y faire éventuellement des ajouts. 2.2 L’application logiciel L’application logiciel est la visualisation de l’état du système. Elle permet aux utilisateurs d’avoir « conscience » du travail en train de se faire au fur et à mesure de son déroulement et d’agir en conséquence. Elle est constituée d’un ensemble de pages, sur lesquelles figurent des ancres. Ces ancres peuvent être catégorisées selon leur fonction : (i) les ancres informatives, qui fournissent les renseignements essentiels à la compréhension d’une situation ou d’une action ; (ii) les ancres opérantes, qui servent soit à la navigation dans l’application, soit à l’activation d’une opération, telle que la publication. La page centrale dans l’utilisation de la plate-forme est l’espace privé, au sens où c’est celui-ci qui est dédié au pilotage de l’activité coopérative. Les ancres principales figurant sur cette page sont (i) un code couleur qui renseigne sur l’état du système : est-ce qu’il y a un nouveau fichier à récupérer dans l’espace commun, est-ce que quelqu’un travaille sur un fichier et quel est le nom de ce fichier etc. ; (ii) la liste des dossiers du répertoire de l’utilisateur, où leur état est indiqué (à jour ; à mettre à jour) ; (iii) les commandes de synchronisation, de publication et de mise à jour. Ainsi, l’utilisation de la plate-forme suit une règle implicite, selon laquelle il faut toujours prendre connaissance de l’état du système avant d’effectuer une quelconque opération. 3 OBJECTIFS D’USAGE Le pilotage de l’activité coopérative, qui se traduit par une régulation de l’activité de production des utilisateurs selon l’état du système (code couleur), nécessite l’appropriation de cet environnement informatique. Autrement dit, l’usage du collecticiel, dans une dynamique de construction conjointe de document, est fonction des significations construites par les utilisateurs, notamment sur le modèle de partage de fichiers et sur sa visualisation. Et c’est à ce niveau que réside l’enjeu inhérent à l’élaboration de la plate-forme Coopéra. Quels sont les facteurs qui facilitent ou gênent ce processus d’appropriation ? Notre contribution dans le projet consiste en l’analyse des usages, envisagés comme une construction de significations, fruit et des interactions entre les sujets et des rapports qu’entretiennent ces sujets avec le monde. Plus précisément, il s’agit pour nous de rendre compte de la codétermination entre les propriétés de la plate-forme et les utilisateurs dans l’émergence des significations. La méthodologie employée répond à nos objectifs d’analyse de l’activité en train de se faire, dans l’ici et maintenant (Brassac et Grégori, 2003 ; Grégori et Brassac, 2001). Le recueil des corpus relève d’un double enregistrement vidéo, l’un orienté sur l’activité des élèves, l’autre sur l’activité à l’écran. Nous rendons compte de ces activités dans les transcriptions de corpus en faisant figurer, dans l’ordre chronologique de leur apparition, les pages affichées, les tours de paroles et les actions des élèves. 348 EPIQUE’2003 Précisons que durant les séances d’utilisation de la plate-forme, nous interrogeons les enfants sur leurs actions, leurs blocages, leurs désaccords, etc., afin de mettre au jour leur représentations. Sur la base de ces corpus, nous réalisons une analyse des interactions prenant en compte les dires et les faires des usagers dans leur environnement de travail. Cette analyse s’appuie à la fois sur une dialogisation de la théorie des actes de langage (Trognon et Brassac, 1992) et sur les principes de l’analyse conversationnelle développée par l’ethnométhodologie. Nous recourons également à la catégorie objets intermédiaires, issue de la sociologie de l’innovation (Vinck, 1999). Notre posture est colinéaire de l’approche vygotskienne de l’activité instrumentale, qui souligne que les deux formes fondamentales du comportement culturel sont le langage et l’utilisation d’instruments. 4 EXPERIMENTATIONS 4.1 Première série d’observations : la création de poésies illustrées Une première série d’observations a eu lieu en juin 2002 dans deux écoles primaires nancéiennes. Cette série a été réalisée à partir du logiciel ToxicFarm, développé par l’équipe ECOO du LORIA. Chaque classe s’est répartie en quinze binômes. Puis, nous avons formé quinze groupes de deux binômes représentant chacune des deux écoles. Chaque groupe avait pour projet d’écrire, illustrer et mettre en page de poésies, ces tâches étant réparties entre les deux binômes. Les résultats d’analyse indiquent que les enfants ont vite acquis la maîtrise opératoire de l’environnement informatique. Ils se sont en effet rapidement appropriés les différentes modalités d’activation des ancres, telles que la saisie d’un texte ou d’une valeur numérique dans un formulaire, ou encore le lancement relativement complexe du synchroniseur. En revanche, ils ont rencontré des difficultés dans la gestion de la dynamique coopérative. Cela s’est traduit de diverses manières. (i) Par des difficultés à localiser les commandes. (ii) Par une non perception immédiate des informations présentes sur les pages. Les enfants ne remarquent pas d’emblée s’il y a par exemple un nouveau message à leur attention ou si un fichier a été modifié ou ajouté. (iii) Par des erreurs ou des blocages quant à la détermination des actions à opérer en fonction d’une situation précise. Prenons comme exemple une séquence (figure 1) ayant eu lieu à la 14ème minute et 25ème seconde de la 5ème séance d’utilisation du groupe sp03 (B et M). Elle dure 23 secondes. La page affichée correspond à l’espace privé. A cet instant, les élèves doivent publier l’illustration qu’ils viennent de réaliser pour la poésie de l’autre binôme. Figure 1. Page mobilisée, interactions et action d’une séquence de la séance 5 du groupe sp03. 14’25’’ Page espace privé 14’48’’ Acteurs Interventions EJ 190 B 191 EJ 192 Et ben maintenant vous allez faire quoi Euh Donc maintenant vous avez fait vous l’avez mis dans l’espace de travail Oui Maintenant il faut le mettre où dans quel espace Accueil Dans synchronize Non synchronize tu l’as déjà fait Dans connexion Ben connexion non puisque (inaudible) Mettre à jour Ben non Publier publier C’est publier voilà M 193 EJ 194 B 195 M 196 EJ 197 M 198 EJ 199 M 200 EJ 201 M 202 EJ 203 B 204 Actions Clique sur publier Cet exemple illustre bien les difficultés des enfants à rendre présent les connaissances propres au modèle de partage de fichiers. En effet, les élèves trouvent la réponse à la question de EJ, après avoir passé en revue l’ensemble des opérations disponibles sur cette page. En EJ 194, EJ leur pose une question sur le cheminement du fichier, et les élèves répondent en évoquant l’opération à effectuer. EPIQUE’2003 349 Ceci est caractéristique de la démarche des élèves à vouloir appliquer une procédure type, sans prendre en compte le contexte, dans lequel s’inscrivent leurs actions. Ces erreurs et blocages sont l’expression d’une non-appropriation de la plate-forme par les enfants. Le développement de la conscience de groupe n’est alors que partiel, où seule la perception de leur inscription dans un projet commun a émergé chez les élèves. Deux facteurs expliquent selon nous ces difficultés. Le premier est que l’ergonomie de la plate-forme n’est pas efficiente, du fait d’une interface graphique non adaptée à un publique scolaire. En effet, il n’y a ni métaphore signifiante pour des enfants, ni représentation concrète du modèle de partage de fichiers. A cela s’ajoute une architecture complexe et une organisation des éléments de la page trop peu explicite. L’usage de cet environnement informatique nécessite dès lors un niveau d’abstraction élevé et, de facto, des efforts cognitifs importants. Le second facteur est que si l’informatique est bien ancrée dans notre société, on peut le remarquer par la maîtrise opératoire que les enfants ont de l’outil, le modèle de coopération propre à la plate-forme est quant à lui culturellement en rupture, par le type de relation à soi et à autrui qu’il induit. L’acquisition des significations nécessaires à son utilisation doit alors faire l’objet d’une attention particulière. Or, au regard du peu de temps imparti au projet, les enfants n’ont eu droit qu’à une explication orale et sommaire de son fonctionnement lors de la première séance. Ces analyses ont débouché sur une nouvelle interface (cf. figure 2), plus adaptée à un public scolaire, notamment par l’emploi de métaphores. Figure 2. Première évolution de l’interface de l’application. Toxic Farm Coopéra Code couleur Commandes Dossiers avec leur état 4.2 Deuxième série d’observations : la création d’un site Internet Une troisième école a intégré le projet Coopéra pour ces nouvelles expérimentations. Etant donné que celles-ci s’étalent sur l’année, nous avons pu mettre en place avec nos partenaires, notamment les instituteurs des écoles, un projet plus ambitieux. Ce dernier porte sur l’élaboration d’un site Internet sur l’opéra de Nancy. Le projet se décompose en trois grandes étapes (i) création d’un questionnaire thématique ; (ii) réponses aux questions (les élèves se répartissent en binômes dans les trois classes, chaque binôme étant responsable d’une question) ; (iii) finalisation des fichiers par le binôme responsable et création en commun du site Internet. La coopération interclasse repose sur la possibilité pour tous les binômes de faire des ajouts dans tous les fichiers. 4.2.1 Mise en place d’une animation pour l’acculturation au modèle de partage de fichiers Nous avons mis en évidence dans nos premières analyses que l’utilisabilité de la plate-forme dépend et de l’ergonomie des interfaces et de l’expérience des sujets quant au modèle de partage de fichiers. Trois postulats ressortent de ces analyses : (i) si un sujet ne possède pas les connaissances relatives au modèle de partage de fichiers, alors il ne pourra pas utiliser la plate-forme, même si l’ergonomie des interfaces est efficiente ; (ii) si un sujet possède ces connaissances et si l’ergonomie des interfaces est efficiente, alors il arrivera à utiliser la plate-forme sans trop de difficultés ; (iii) si un sujet possède ces connaissances, mais si l’ergonomie des interfaces n’est pas efficiente, alors il aura des difficultés à utiliser la plate-forme. L’environnement informatique s’inscrit dès lors dans une logique de mémorisation, où l’efficience de son ergonomie réside dans le fait d’induire chez les utilisateurs les concepts concordants avec les éléments affichés à l’écran. 350 EPIQUE’2003 Au regard de ces postulats, il apparaît qu’il est difficile d’évaluer l’ergonomie de la plate-forme si les utilisateurs ne se sont pas acculturés au modèle de partage de fichiers. La question de l’acculturation concerne également la commercialisation de la plate-forme, où l’élaboration d’une mallette pédagogique devant accompagner le logiciel se révèle essentielle. Aussi, pour répondre à ce problème d’acculturation, nous avons mis en place dans chaque classe une animation, afin que les élèves fassent l’expérience des concepts relatifs au modèle de partage de fichiers. Nous avons également abordé le système de code couleur, pour que les enfants vivent les différents scénarios élémentaires qu’ils seront susceptibles de rencontrer lors de l’utilisation de l’outil. Cette animation s’est déroulée avec tous les élèves en même temps. Nous avons préféré à l’explication de projections, l’établissement d’une mise en scène où les élèves en sont les acteurs et où les concepts sont matérialisés par des objets (dont certains de notre fabrication) à manipuler au cours de l’animation. Ce choix fut motivé par le fait que l’acquisition de tout concept dépend de la manière dont on vit une expérience. Cette dernière ne doit pas être essentiellement cognitive, mais aussi physique et émotionnelle. 4.2.2 Répercussions ergonomiques de l’animation : création d’une interface alternative pour une démarche proactive Perçue comme fondamentale dès lors que l’analyse des interactions entre enfants a permis de montrer une difficulté d’appropriation de Coopéra bien plus conceptuelle qu’opératoire, l’animation a d’abord été conçue comme un moyen pour permettre l’utilisation de la plate-forme et comme une méthode pour la construction d’une mallette pédagogique destinée à accompagner la commercialisation du logiciel. Ces deux objectifs étaient pleinement explicites lors de sa mise en place en préalable de la deuxième série d’observation. Mais cette animation s’est révélée efficace pour une autre raison. En effet, elle s’est révélée être une véritable méthode d’évaluation ergonomique permettant de faire des préconisations sur le design. Ce dernier objectif a été construit durant les séances de formation elles-mêmes. Parce que nous évoluions dans un espace objectivé, en manipulant des objets concrets et que nous étions en situations de construction de significations avec les enfants, nous avons été capables de pointer des problèmes ergonomiques dans l’interface actuelle. Nous faisons alors l’hypothèse que, malgré les améliorations effectuées, l’ergonomie n’est toujours pas efficiente. Et donc que les enfants auront des difficultés à s’approprier la plate-forme. Aussi, dans un souci de proactivité dans le projet, nous avons élaboré une interface alternative de la page espace privé sous la forme de diapositives PowerPoint (figure 3), qui présente selon nous les caractéristiques nécessaires à une utilisabilité efficiente de Coopéra. Les principales modifications par rapport à la page actuelle concernent (i) l’élaboration d’une représentation du modèle de partage de fichier, en utilisant les métaphores déjà existantes ; (ii) un repositionnement des ronds du code couleur selon l’espace concerné, qui sont activés en fonction de l’état du système ; (iii) un repositionnement des commandes de partage de fichiers, selon leur fonctionnalité. Figue 3. Interface actuelle / interface alternative. métaphores code couleur commandes EPIQUE’2003 351 Nous avons mis en place une seconde animation, afin d’évaluer l’ergonomie des deux interfaces. Nous les avons projetées successivement dans chaque classe (selon un ordre de projection différent d’une classe à l’autre), en demandant aux élèves « ce qu’ils reconnaissaient de ce qu’on avait vu ensemble la dernière fois ». Puis, nous leur avons présenté les différentes situations possibles de l’activité coopérative, pour voir s’ils comprenaient les situations présentées et s’ils savaient agir en conséquence. Les résultats indiquent que les élèves éprouvent toujours des difficultés avec l’interface actuelle, quant à la compréhension des situations exposées et à la détermination des actions à effectuer. En revanche, ils n’ont pas rencontré ces difficultés avec l’interface alternative, sur laquelle ils ont pu situer leurs connaissances. 4.2.3 L’élaboration du site Internet A la suite de ces animations, les élèves ont entrepris leur activité de conception collaborative du site Internet. Douze binômes par classe ont été constitués et répartis selon les thèmes et les questions préalablement définis. L’élaboration du site s’est réalisée en plusieurs séances. Elles ont duré du 17 mars au 31 mai 2002, à raison d’une heure par semaine pour une école, et de deux heures par semaine pour les deux autres écoles. Pour ces séances, nous avons mis en place un dispositif d’observation identique à celui utilisé pour la première série d’observations. Il ressort des premiers retours d’analyse le fait que les enfants ne perçoivent pas d’emblée l’état de l’activité coopérative au moment où ils affichent la page de visualisation de celle-ci et commettent des erreurs dans leurs actions, bien que lorsqu’on les interrogent sur les propriétés affichées à l’écran et sur les actions à entreprendre en conséquence, ils répondent correctement aux questions, malgré quelques hésitations pour certains. Nous faisons l’hypothèse que ces difficultés proviennent certes de la non-efficience de l’ergonomie des interfaces, mais aussi du scénario, co-déterminé avec nos partenaires des écoles, mis en place pour la réalisation conjointe de leur site Internet. En effet, ce dernier n’engageait pas les élèves à s’inscrire dans une dynamique coopérative, reposant sur leur seule volonté. 5 CONCLUSION Les analyses d’usage que nous menons sont étayées sur une posture constructiviste. Les cognitions se construisent dans l’interaction sociale, terme à prendre dans un sens large, c’est-à-dire incluant la matérialité ambiante. C’est pourquoi nous cherchons à confronter très rapidement les usagers potentiels au produit en conception. Nos perspectives pour l’année prochaine sont de mettre en place un nouveau projet de coopération dans des écoles (une quatrième école intègrera le projet), en veillant à définir avec les instituteurs un scénario adapté aux spécificités du collecticiel. Ce projet sera réalisé avec la nouvelle plate-forme, fruit d’une concertation importante entre les équipes partenaires, sur la base de leurs travaux respectifs. Nous reconduirons les animations dans les classes, ainsi que les enregistrements vidéo de séances d’utilisations, indispensables dans la compréhension du processus d’appropriation de cet environnement informatique. 6 BIBLIOGRAPHIE Brassac, Ch. et Grégori, N. (2003). Une étude clinique de la conception collaborative : la conception d’un artefact. Le Travail Humain, 66, pp.101-127. Grégori, N. et Brassac, Ch. (2001). La conception collaborative d’artefacts : activités cognitives en situation dialogiques. Actes des Premières Journées d’Études en Psychologie Ergonomique, (pp. 21-31). Nantes, France 29-30 octobre 2001. Hautecouverture, J.C. ; Grégori, N. ; Charoy, F. ; Godart, C. ; Patten, M. ; Faugeras, I. (2003). Coopéra : Analyse de l’usage d’Une plate-forme de coopération à destination d’enfants du primaire. Human Centered Process Conference – HCP’2003. Luxembourg, 5-7 mai. Trognon, A. & Brassac Ch. (1992). L’enchaînement conversationnel. Cahiers de linguistique française, 13, pp.76-107. Vinck, D. (1999). Les objets intermédiaires dans les réseaux de coopération scientifique. Contribution à la prise en compte des objets dans les dynamiques sociales. Revue Française de Sociologie, XL (2), pp.385-414. 352 EPIQUE’2003