Coopération humaine et systèmes coopératifs1
Transcription
Coopération humaine et systèmes coopératifs1
Hoc, J.M. (2003). Coopération humaine et systèmes coopératifs. In G. Boy (Ed.), Ingénierie cognitive. IHM et cognition (pp. 139-187). Paris : Hermès. Chapitre 5 Coopération humaine et systèmes coopératifs1 5.1. Introduction 5.1.1. L'évolution de la conception de la relation homme-machine La nature des relations entre les humains et les machines a considérablement évolué depuis le début de l’ère industrielle. Les relations purement physiques se sont transformées en des relations plus intellectuelles, tant et si bien que les machines dont il est maintenant question sont essentiellement des ordinateurs. Depuis le milieu du XXe siècle, les progrès de l’intelligence artificielle ont considérablement accru les capacités intellectuelles des ordinateurs. Nous entendons ici le développement de l’intelligence par l’accroissement des capacités d’adaptation d’un système cognitif, notamment par l’élaboration de modèles internes, éventuellement très abstraits, qui permettent d’anticiper et de concevoir des environnements (naturels ou artéfactuels). Dans un premier temps, les ordinateurs mettaient en œuvre des programmes très rigides et le recours à l’humain était très fréquent (en particulier pour saisir des informations). C’est alors qu’est progressivement apparu un courant de recherche sur les interactions homme-machine (IHM)2. Ce courant a d’abord largement 1 Chapitre rédigé par Jean-Michel HOC. Nous conserverons cette abréviation, bien qu’elle puisse prêter à confusion. En effet, elle est indifféremment utilisée pour signifier les interactions ou les interfaces 2 140 L'ingénierie Cognitive : IHM et Cognition exploité les connaissances en psychologie des activités sensori-motrices pour concevoir des interfaces adaptées à leurs utilisateurs [MAR 73]. Si ces travaux se poursuivent, avec l’introduction de nouvelles interfaces [HEL 97], jusqu’à exploiter la multimodalité, les questions vives qui ont été posées à la recherche se sont progressivement éloignées de la structure de surface des interfaces pour s’enfoncer dans la structure profonde des représentations et des raisonnements utilisés par les programmes [CAR 83] [GRE 91] [NOR 86] [SMI 80] [WAE 89]. C’est que les humains quittaient le simple rôle de « servant » d’une machine sans yeux et sans oreille pour interagir avec elle dans leurs propres tâches (ex. : pour accéder à des bases de donnée, pour concevoir des textes, voire des programmes). Le problème de la compatibilité de la machine avec la boucle « signal-réponse » se déplaçait vers des boucles plus longues impliquant des signes et des concepts. Une façon de résoudre ces problèmes a été de concevoir des programmes « human-like », raisonnant et se représentant les choses comme les humains [BOY 95]. Toutefois, cette approche n’est pas la seule possible — une telle compatibilité pouvant être assurée par l’explication [KAR 95a&b], qui ne nécessite pas toujours de longs dialogues en pouvant s’appuyer sur des images. Avec le développement des capacités de communication des ordinateurs, grâce à des programmes appropriés (reconnaissance perceptive, reconnaissance et synthèse de la parole), le courant IHM a rapidement intégré une communauté de recherche, notamment issue de la linguistique computationnelle, travaillant sur la communication homme-machine [BLA 93] [JON 94] [OGD 88] [PAV 94]. Il s’est agi, non seulement d’accroître les performances linguistiques des ordinateurs, mais aussi leurs performances communicationnelles, en s’inspirant d’un large spectre de travaux en sciences sociales [AUS 62] [GRI 75] [SEA 69] [SPE 86]. Au sein de la communication homme-ordinateur, qui aurait pu n’être conçue qu’au seul niveau syntaxique, s’est immédiatement posé le problème de la coopération. Les agents communiquent pour se comprendre. La coopération est nécessaire à la compréhension [CLA 96]. Par conséquent, il n’y a pas de communication sans coopération. Toutefois, à ces travaux manquait un maillon important : l’action. En effet, dans les situations de travail, les agents s’efforcent de se comprendre pour agir en commun. homme-machine. Dans le sens large adopté ici, IHM renvoie aux interactions, qui intègrent un partage d’informations (interfaces) et un partage d’activité entre humain et machine. Coopération humaine et systèmes coopératifs 141 5.1.2. Le point de vue de la coopération homme-machine dans l’étude des accidents et des difficultés de l’opérateur humain face à l’automation C’est alors que d’une conception de la coopération enchâssée dans les besoins de la communication, les travaux se sont orientés vers l’étude de la coopération cognitive dans la réalisation des tâches. La communication devenait en quelque sorte le moyen de la coopération, tout autant que l’inverse. Ce domaine de recherche reste toutefois en émergence et le thème de la coopération homme-machine n’en est pas encore à bénéficier du statut de marque déposée. Son émergence peut être située au moment de la publication de l'article de Hollnagel et Woods qui défendait l'opportunité d'analyser les système homme-machine comme des « Joint Cognitive Systems » [HOL 83]. Cette approche s'appliquait tout naturellement à la relation homme-système expert, dont la performance apparaissait bien meilleure lorsque l'utilisateur menait le même type de raisonnement en parallèle avec le système, en étant ainsi en mesure de filtrer les données pertinentes [ROT 88]. En aéronautique la notion d’assistance adaptative s’imposait, avec un accent sur la compréhension mutuelle des actions et intentions des partenaires [BIL 91] [MAS 96]. Le point de vue de la coopération homme-machine s’est imposé devant certains échecs retentissants de l’introduction de l’automation dans les systèmes complexes et à risques. Dans ces systèmes, les opérateurs humains exercent des responsabilités cruciales (centrales nucléaires, aviation, anesthésie, etc.), alors même que les machines peuvent agir de façon relativement autonome. Si l’on ne considère la machine que comme un outil peu sophistiqué, on est renvoyé à des interventions « ergonomiques » de soulignement des informations pertinentes sur les interfaces. Mais, à force de tout souligner, on ne met plus rien en évidence. Si l’ordinateur avait été un humain dans les exemples qui suivent, n’aurait-on pas parlé de défaut de coopération ? En tout cas, les concepteurs étaient des humains et les utilisateurs des systèmes informatiques ont tendance à se comporter vis-à-vis d’eux comme s’ils l’étaient [NAS 96]. – Dans l’erreur de mode de l’accident de l’Airbus du Mont-Sainte-Odile (M.E.T.T., 1993). Si la commission d’enquête a vu juste, en introduisant ‘33’ dans l’ordinateur, le pilote voulait commander un angle de descente de 3.3° que la machine a interprété comme une vitesse de descente de 3.300 pieds/min. Si l’intention du pilote avait pu être identifiée grâce au contexte (altitude de l’avion en approche d’aéroport au-dessus d’un massif montagneux), l’erreur aurait été détectée et l’accident évité. En termes de coopération entre humains, on parlerait d’un défaut de référentiel commun. – Dans l’incident de Three-Mile Island [REA 90]. L’opérateur humain ne savait pas que l’indication du synoptique (vanne fermée) signifiait, non pas l’état d’une vanne (en fait, coincée ouverte), mais la mémoire de son action (fermer la vanne). Il s’agit là encore d’un défaut de référentiel commun. 142 L'ingénierie Cognitive : IHM et Cognition Dans l’aviation au moins, une forte proportion d’accidents met en cause des problèmes entre les humains et les automatismes [FUN 99]. Plus généralement, quatre grands types de difficultés rencontrées par les humains face à l’automation dans ces systèmes sont souvent soulignées [PAR 97]. Leurs traductions en termes de coopération est assez immédiate. – Perte d’expertise. Certains auteurs ont montré que les idées reçues sur les bienfaits de l’automation en termes d’accroissement de l’expertise humaine étaient loin d’être confirmées par les faits qui montrent, au contraire, une détérioration [MOU 97] [MOS 97] [ROT 97]. Quand la machine assure les diagnostics de haut niveau, les situations inconnues de la machine sont trop rares pour que les opérateurs humains puissent y entretenir leurs habiletés et le risque est grand pour qu’ils échouent [SHE 88]. Il est souvent suggéré d’engager les opérateurs à exercer un contrôle mutuel sur la machine pour conserver leurs habiletés. Quand la machine prend en charge les activités de bas niveau, c’est l’entretien des automatismes (par exemple sensorimoteurs) qui n’est plus assuré. De plus, les opérateurs humains perdent également les rétroactions rapprochées de la conduite du système, ce qui conduit à une perte de conscience de la situation dommageable quand il est nécessaire de reprendre le contrôle manuel, en quelque sorte « à froid » [EPH 81] [END 99]. Il est alors recommandé de réintroduire les rétroactions, sous une forme ou sous une autre. C’est recommander le maintien d’un référentiel commun entre les humains et les ordinateurs, en les considérant comme des systèmes redondants qui peuvent accroître la fiabilité du système homme-machine dans son ensemble [SHE 96]. – Contentement. Certaines études ont montré que, même avec des opérateurs confirmés et très au clair des limites de performance de la machine, la solution proposée par la machine pouvait être adoptée même si elle était loin d’être optimale (par exemple des pilotes de ligne [LAY 94] [MOS 98] [SMI 97] ou des contrôleurs de trafic aérien [HOC 98b]). Ce type de résultat est évidemment reproduit dans des situations de laboratoire, avec des sujets tout venants [DIJ 99] [GLO 97] [SKI 99]. Ces phénomènes de contentement montrent que libérer les opérateurs d’une tâche ne devrait pas les libérer de sa supervision, dans la mesure où ils en sont responsables. L’un des risques encourus par l’automation est un partage de la supervision sur des parties étanches du champ supervisé, l’opérateur ne supervisant vraiment que la partie où il agit. Si l’automation n’est pas conçue dans la seule perspective d’accroître la charge du système homme-machine, en permettant de confier aux opérateurs des tâches supplémentaires, il est recommandé que la machine propose plusieurs solutions et non pas une seule [CLA 93] [SMI 97]. Ainsi, la supervision et le contrôle mutuel peuvent être encouragées et la performance de l’ensemble du système homme-machine peut être meilleure que celle de chacune de ses composantes prises isolément. Les Coopération humaine et systèmes coopératifs 143 situations les plus intéressantes à examiner sont évidemment celles où le système est mis en défaut et montre sa fragilité [ROT 97]. – Confiance. Le risque majeur que les opérateurs ont à gérer est la perte de maîtrise de la situation [AMA 96] [HOC 96]. Par exemple, Amalberti cite le cas de pilotes confirmés dans un stage de remise à niveau pour l’utilisation d’une assistance à l’atterrissage qui ne l’utilisent pas de peur que le système ne les entraînent dans une situation qu’ils ne maîtriseraient pas [AMA 92a]. Ce phénomène illustre bien, dans une situation réelle, le mécanisme de régulation qui fait passer du contrôle manuel au contrôle automatique et inversement. Il a été modélisé dans une situation de laboratoire utilisant un micromonde dynamique, sujet à des incidents, où le contrôle manuel pouvait conduire à une meilleure performance [LEE 94]. Dans leurs stratégies de gestion des ressources, les sujets de l’expérience s’appuyaient sur le rapport entre leur confiance en eux-mêmes (en faveur de l’adoption du contrôle manuel) et leur confiance dans l’ordinateur (en faveur de l’adoption du contrôle automatique). Cette approche expérimentale s’appuyait sur les travaux théoriques de Muir [MUI 94] qui rendait compte de l’évolution de la confiance par une construction progressive d’un modèle, de soi-même ou de la machine. Au départ, sans aucun modèle, le recours à l’un ou l’autre agent ne peut s’appuyer que sur la foi. Mais, progressivement, par observation du comportement, l’agent paraît cohérent et semble obéir à des règles dans une classe délimitée de situations, puis cette classe s’accroît. Il en ressort un modèle de soi-même et un modèle du partenaire dont il a été prouvé qu’ils jouaient un rôle important dans la coopération [CAS 98] [JON 94] [ROG 94] [SAR 94]. Toutefois, une « surconfiance » dans le système peut s’installer quand les limites du système n’ont pas été suffisamment explorées par l’opérateur, comme c’est souvent le cas dans l’aviation [FUN 99]. Une telle surconfiance ne doit pas être confondue avec le phénomène de contentement dont il vient d’être question. – Perte d’adaptabilité. Reason [REA 88] a exprimé ce phénomène de façon très percutante, en rejoignant les critiques de Bainbridge [BAI 87] dans son chapitre célèbre sur les « ironies de l’automation » : « Les concepteurs de systèmes ont involontairement créé des situations de travail dans lesquelles bien des caractéristiques normalement adaptatives de la cognition humaine sont transformées en des handicaps dangereux » (p. 7). Les heuristiques humaines, de nature anticipative, sont l’une des caractéristiques en question dans cette citation, qui sont souvent contrariées par une conception réactive de la cognition humaine : l’opérateur n’est supposé intervenir que lorsque la machine a échoué, mais les rétroactions nécessaires aux stratégies anticipatives ne sont pas fournies. La fameuse erreur de mode témoigne également d'un manque de rétroaction [SAR 95] tout autant que de l'absence de reconnaissances des intentions du partenaire. Ce n’est que dans le cadre 144 L'ingénierie Cognitive : IHM et Cognition d’une conception coopérative de la relation homme-machine que l’on peut se poser le problème de ce que la machine doit transmettre à l’opérateur pour que ce dernier puisse jouer son rôle. Cette situation correspond bien au paradigme de la répartition dynamique des fonctions [DEA 00] [MIL 95] [OLD 97] qui est, par nature, une situation de coopération. Encore une fois, l’automation est nécessairement fragile et peut emmener le système homme-machine dans des situations dangereuses qui ne peuvent avoir des chances d’être récupérées par l’humain que si ce dernier dispose des rétroactions nécessaires [FUN 99]. 5.1.3. Les objectifs et les limites de notre approche cognitive de la coopération Ce chapitre s’inscrit dans la ligne de cette évolution des conceptions de la relation homme-machine, de l’interaction à la communication, puis à la coopération, pour tenter de répondre à ces difficultés de l’homme face à l’automation. C’est d’une contribution théorique et méthodologique dont il s’agit et qui s’appuie en très grande partie sur les travaux de psychologie cognitive et d’intelligence artificielle sur la résolution de problème et la planification, sans pour autant négliger les travaux pertinents sur les activités collectives. Il s’agit là d’une limite essentielle de ce travail qui peut se justifier par le niveau d’analyse qui est adopté. On a coutume de distinguer les collectifs selon leur taille [OLS 97] : l’organisation (ex. : une entreprise), le groupe (ex. : un service) et l’équipe (ex. : un équipage d’avion). Le premier niveau est couramment étudié par la sociologie (fonctionnement de l’organisation) ou la psychologie des organisations (retentissement de ce fonctionnement au niveau individuel). Le second est la spécialité de la psychologie sociale, notamment dans ses travaux sur la résolution de problème en groupe, mettant en évidence des phénomènes tels que le « leadership », le syndrome de « group thinking » (convergence sur des consensus inadaptés [JAN 72]), les réseaux de communication, etc. [KRA 90]. Le troisième commence à être abordé par la psychologie cognitive, dans ces situations où l’activité individuelle n’a aucun sens si elle n’est pas étudiée dans son articulation avec celle d’un petit nombre de partenaires (opérateurs humains et machines), finalisés par une tâche particulière. L’IAD (Intelligence Artificielle Distribuée) s’est plus particulièrement attachée à étudier les deux premiers niveaux [FER 97], sous la terminologie des agents « réactifs », en examinant une intelligence en quelque sorte émergente d’une communauté dont les agents le sont moins (à l’instar des communautés d’insectes). La notion d’agent « cognitif » est apparue ensuite, mais l’objectif principal de l’IAD est moins la modélisation des collectifs que la formalisation de nouvelles méthodes de génie logiciel plus propres à maîtriser les systèmes complexes et à concevoir des Coopération humaine et systèmes coopératifs 145 logiciels faciles à modifier, ce qui a toujours préoccupé les informaticiens. Les véritables objets à modéliser se situent évidemment dans le champ des sciences de l’homme et il faut convenablement les distinguer des formalismes. Entre ces trois niveaux se situent en fait des ruptures épistémologiques. Même si les modèles élaborés peuvent quelquefois paraître analogues, ils ne renvoient pas aux mêmes objets et aux mêmes phénomènes. La coopération des acteurs économiques pour réguler un taux d’inflation a peu de choses à voir avec la coopération dans un cockpit. En nous concentrant sur la coopération au sein d’une équipe de travail, nous nous intéressons à un petit groupe d’agents fortement finalisés sur l’exécution d’une tâche. Nous considérerons, avec Clark [CLA 96], qu’ils développent à la fois des activités cognitives privées et des activités coopératives tournées vers les autres agents. En particulier dans les situations à forte contrainte temporelle, les facteurs d’ordre psychosociaux peuvent ne jouer qu’un rôle limité, c’est pourquoi nous restreindrons volontairement notre approche aux mécanismes cognitifs privés et coopératifs. Toutefois, il faut rester sensible aux rôles des facteurs sociaux dans les situations où leur intervention est majeure [MAN 96]. De même, sans négliger le rôle de facteurs affectifs tels que le stress, nous ne les traiterons pas dans notre approche. Malgré ses limitations, nous pensons que le cadre que nous proposons permet d’aborder bon nombre de situations de supervision et de contrôle de situations dynamiques (partiellement contrôlées par l’opérateur [HOC 93] [HOC 96]) pour rendre compte à la fois de la coopération homme-homme et de la coopération homme-machine. Malgré ces restrictions, notre cadre n'engloutit pas les agents dans l'équipe qui deviendrait la seule unité d'analyse comme dans l'approche de Hutchins [HUT 95]. Nous ne dénions pas pour autant l'intérêt de ce type d'approche, au moins au cours des premières étapes de la conception d'un système homme-machine. Bien que le soutien informatique à la coopération homme-homme (CSCW3) ne soit pas notre propos, il n’en est pas totalement exclu. L’un des problèmes rencontrés dans le courant CSCW, qui veut traiter des trois niveaux de coopération, est la complexité des phénomènes et un état d’avancement modeste des constructions théoriques. Cependant, si l’on se restreint au soutien à la coopération au sein d’une équipe, nous nous proposons de montrer que les théories de la psychologie cognitive et de l’intelligence artificielle sont suffisamment avancées pour aborder la coopération d’un point de vue strictement cognitif, qui se justifie par la forte finalisation sur une tâche. Alors, en tentant de comprendre comment la coopération cognitive fonctionne, en s’efforçant de l’évaluer, on est en mesure de suggérer des soutiens à la coopération. Dans le cadre limité de cet article, nous ne pourrons pas nous étendre longuement sur cette problématique du soutien, mais elle est l’une des motivations essentielles de notre approche. De même, nous ne pourrons 3 Computer Supported Cooperative Work 146 L'ingénierie Cognitive : IHM et Cognition pas traiter à fond les conséquences de cette approche sur la conception de machines coopératives. La perspective que nous adopterons est modeste. Nous montrerons que malgré les limites intellectuelles des machines actuelles (au sens de leurs capacités adaptatives), elles peuvent développer certaines activités coopératives, au moins dans des situations spécifiques. Quand elles en sont incapables, nous rejoindrons d’une certaine façon le courant CSCW en arguant du fait qu’elles peuvent au moins soutenir leurs utilisateurs dans la coopération homme-machine avec elles. La seconde partie de ce chapitre est consacrée à la présentation succincte de deux situations dans lesquelles notre cadre a été appliqué (contrôle de la navigation aérienne et pilotage d’avion de combat biplace). Ces situations nous serviront d’illustrations tout au long de ce texte. Dans la troisième partie, nous situerons la notion de coopération par rapport à des concepts connexes (activité collective, coordination et communication). Dans la quatrième partie, nous rappellerons brièvement les principaux types d’approches de la coopération pour qualifier la nôtre de descriptive et de fonctionnelle. Dans la cinquième et sixième partie, nous proposerons une architecture cognitive pour l’étude de la coopération de deux points de vue duaux : celui des représentations et celui des traitements. Du point de vue des représentations nous mettrons l’accent sur la notion de référentiel commun partagé par les agents, en nous appuyant sur des concepts couramment utilisés dans l’analyse des activités cognitives privées, mais en les étendant à l’équipe. Dans cette partie, les aspects subsymboliques et symboliques des représentations seront soulignés. Du point de vue des traitements, nous mettrons l’accent sur la gestion des interférences, tant au niveau subsymbolique qu’au niveau symbolique. La septième partie tracera les perspectives ouvertes par notre cadre théorique en matière d'évaluation de la coopération cognitive, de développement de soutiens et de conception de machines coopératives. 5.2. Deux exemples de situations de coopération 5.2.1. Contrôle de trafic aérien Le premier exemple d’étude sur lequel nous nous appuierons est emprunté à une série d’études qui ont exploré les possibilités de répartition dynamique de tâches (définies comme des conflits binaires entre avions) entre un opérateur humain et une machine dans le contrôle de la navigation aérienne. Ce paradigme de répartition consiste à optimiser le niveau de charge de l’opérateur entre deux limites : basse pour ne pas conduire à des pertes d’expertise et haute pour ne pas créer des risques d’erreur [MIL 95]. Un tel paradigme crée nécessairement une situation de coopération homme-machine, puisqu’il y a partage de tâches entre deux agents dont Coopération humaine et systèmes coopératifs 147 on n’est jamais absolument sûr de l’indépendance. Dans la situation examinée dans l’étude [HOC 98b], trois agents étaient concernés : – Un Contrôleur-Radar (CR), en charge des tâches tactiques de guidage des avions dans le secteur contrôlé et de résolution des conflits entre avions. Cet opérateur est seul à disposer du contact radio avec les pilotes et donc le seul à pouvoir leur donner des instructions. – Un Contrôleur Organique (CO), gérant les coordinations avec les secteurs adjacents et préparant le travail de son collègue pour réguler au mieux la charge du CR (par exemple en retardant l’entrée de certains avions dans le secteur). – Une machine dénommée SAINTEX (STX), capable de résoudre certains conflits binaires simples (calcul, envoi de l’instruction de déviation et remise sur la route). Outre ces trois agents, les contrôleurs pouvaient disposer d’une aide, dénommée à la prédiction des conflits, ainsi que de la charge du CR, et à la répartition dynamique de ces conflits entre CR et STX. Trois situations ont été comparées sur simulateur à partir d’un trafic nettement plus chargé que ce qui est réglementairement admis, pour justifier du recours aux aides (PLAF et SAINTEX) : une situation contrôle sans aide et deux situations expérimentales (EX et EA) représentant deux modalités de répartition des tâches entre CR et STX : – EX : Répartition explicite. Les deux contrôleurs pouvaient décider de la répartition des conflits entre CR et STX. Toutefois, les résultats ont montré que le CO se sentait moins responsable de cette répartition que le CR. Quand un conflit était partageable (gérable, soit par le CR, soit par STX) il était affecté par défaut à CR si aucun ordre n’était donné par l’un des opérateurs pour l’affecter à STX. PLAF , – EA : Répartition explicite assistée. PLAF proposait les affectations à STX sur la base de la partageabilité et de l’évaluation de la charge du RC. Seul le CO pouvait changer cette répartition. Par défaut, le conflit était affecté à STX. L’objectif de cette expérience était d’évaluer les effets des aides sur les stratégies individuelles des RC et sur la coopération, d’une part entre les deux contrôleurs, d’autre part entre CR et STX. Une autre expérience a consisté à partager artificiellement, sur simulateur, un même trafic entre deux contrôleurs radar [HOC 02]. Elle visait à mettre en évidence les propriétés de la coopération entre humains pour orienter la conception d’une machine plus coopérative. 148 L'ingénierie Cognitive : IHM et Cognition 5.2.2. Pilotage d’avion de combat La même approche théorique de la coopération a été appliquée au cas de la coopération entre pilote (P) et navigateur (N) à bord d’un avion de combat biplace, sur simulateur [LOI 99]. Grossièrement, P est chargé de la gestion de l’avion à court terme (environ 5 minutes), pour le maintenir dans son domaine de vol, le diriger vers sa destination dans une configuration compatible avec les menaces et l’objectif de la mission, effectuer les manœuvres, notamment défensives, et lancer l’armement. N est responsable de la gestion à long terme, en gérant la navigation, la configuration de l’avion utile au pilote et le système d’armement. P peut éventuellement contrôler la situation tactique et mettre en œuvre les systèmes défensifs lorsque N ne peut momentanément pas le faire. C’est pourquoi cette répartition entre court terme et long terme est grossière. Le niveau d’automatisation de l’avion est celui que l’on rencontre couramment sur les avions les plus modernes, avec une large redondance des visualisations sur les deux places. Les opérateurs ne peuvent pas se voir, mais peuvent correspondre oralement par interphone et consulter une partie des actions de l’autre sur les visualisations. Le scénario simulé s’apparentait à une mission de type LGW4 (armement guidé laser : l’objectif est illuminé par un rayon laser de sorte que le missile puisse se diriger dessus de façon autonome). Il y a quatre phases à la mission : (a) navigation vers l’objectif ; (b) acquisition de l’objectif (repérage) ; (c) traitement de l’objectif (pointage laser et manœuvre de tir) ; (d) dégagement (éloignement rapide, tout en maintenant l’illumination de la cible jusqu’à l’arrivée du missile). Cette étude était purement descriptive, en visant à la fois à évaluer la complétude et la pertinence d’un schème de codage des activités coopératives des deux opérateurs et à identifier le type de coopération développée au cours de ce type de mission. Une première utilisation de cette étude a consisté à concevoir et à évaluer des soutiens à la coopération entre les opérateurs. 5.3. Coopération et concepts connexes Le terme « coopération » est couramment employé dans de nombreuses disciplines, sans que les définitions qui en soient données entre disciplines ou à l’intérieur d’une même discipline soient très homogènes. Les différents auteurs mettent en avant, dans leurs définitions, des sous-ensembles de propriétés qui sont particulièrement saillantes dans leurs travaux respectifs. Définir l’union de ces sousensembles serait une tâche aisée, mais en faire la définition de la coopération ne serait guère raisonnable car, avec un critère d’identification aussi fort, aucune 4 Laser Guided Weapon Coopération humaine et systèmes coopératifs 149 situation ne pourrait correspondre à cette définition. Par exemple, certains auteurs insistent sur le fait qu’il n’y a pas coopération entre des agents sans but commun et partagé par les agents [BAG 94] [GRI 75] [MAR 75], ce que Savoyant appelait la co-activité [SAV 84], par opposition à l’activité collective. Rogalski [ROG 94] propose un continuum où, entre ces deux extrêmes, puisse se situer une coopération distribuée où les buts individuels sont distincts, mais avec la présence d’un but commun. L’exigence d’un but commun conduit à refuser que des agents poursuivant des buts indépendants puissent coopérer sur l’utilisation de ressources communes (par exemple une imprimante partagée entre plusieurs employés). Ceci conduit encore à refuser que l’on puisse coopérer pour résoudre un problème puisque, dans la majorité des cas, le but (commun) n’est pas défini précisément au départ. Quant à se restreindre à l’intersection de ces sous-ensembles de propriétés, la démarche serait encore plus aisée car cette intersection est quasiment vide. Plutôt que de proposer une synthèse des cadres théoriques existants qui sont très abondants et souvent contradictoires, nous avons préféré proposer notre propre cadre, élaboré pour aborder la coopération cognitive dans les équipes de travail, intégrant des agents humains et artificiels. Cette démarche a été initiée par une réflexion pluridisciplinaire sur la coopération homme-machine [MIL 97]. Une telle position peut paraître critiquable, mais elle a au moins le mérite de nous éclairer sur le soutien à la coopération et sur la conception de machines coopératives. Toutefois, cette position n’est pas une façon de nous situer hors des courants de recherche sur la coopération. Bien au contraire, nous avons cherché à articuler l’ensemble des propriétés décrites dans la littérature au sein d’une architecture cognitive susceptible de générer une grande variété de types de coopération. En d’autres termes, cette architecture peut être particularisée de différentes manières, de sorte que chacun des cadres théoriques évoqués puissent être retrouvés. Nous y ferons donc référence explicite au cours de cette présentation. Une tentative, en partie similaire à la nôtre, mais qui met davantage l'accent sur les facteurs sociaux dans les systèmes multiagents, a été proposée récemment par Castelfranchi [CAS 98]. Nous y ferons souvent référence. Afin d’éviter toute confusion terminologique, nous nous garderons de nous référer à des définitions proposées par d’autres auteurs pour les termes que nous emploierons. Comme plusieurs définitions contradictoires coexistent, cela pourrait aboutir à un texte plein de sources de confusion pour le lecteur. Par conséquent, nous serons amené à définir les termes que nous employons et à maintenir leur usage dans ce cadre tout au long de ce texte. 150 L'ingénierie Cognitive : IHM et Cognition 5.3.1. Activité collective Le concept superordonné à la coopération nous paraît être celui d’activité collective. En se plaçant du point de vue de l’observateur, on peut définir une activité collective comme une activité impliquant des opérations exécutées par plusieurs agents. Il n’est pas question ici de développer une typologie de la diversité de cette classe d’activités qui s’étend du simple partage de ressources à la réalisation d’une tâche vraiment commune. Nous opposerons seulement deux grandes catégories d’activités collectives mettant en jeu des agents humains ou(et) artificiels : – Celles où les relations entre les opérations des agents sont établies avant l’exécution des opérations, sans que les agents aient à gérer ces relations pendant l’exécution. Chaque agent développe alors une activité entièrement autonome (au sens de Clark [CLA 96]). Il va de soi qu’un agent spécifique, que l’on peut appeler concepteur, a géré ces relations au préalable pour économiser aux autres agents cette gestion. Cette situation est d’autant plus rare que l’environnement et le comportement des agents sont incertains (selon la distinction courante entre tâche prescrite et tâche effective [LEP 83]). Dans ce dernier cas, c’est bien la gestion des relations en temps réel qui va permettre au système multiagent de s’adapter. – Celles où les relations entre les opérations des agents sont gérées en temps réel, au cours de l’exécution des opérations par les agents. Là encore, un agent spécifique peut assister cette gestion, mais les autres agents y seront également impliqués. Selon notre approche, la coopération est à ranger dans cette classe, mais on y trouve également des situations de compétition qui sont à l’opposé de la coopération. Un match de football suppose évidemment la gestion de relations au sein d’une même équipe (coopération) et entre deux équipes (compétition). 5.3.2. Coordination La coordination regroupe des métaopérations [PIA 65] qui portent sur des opérations pour les assembler de sorte qu’elles satisfassent certains critères. Ces critères peuvent être variés. Il peut s’agir d’assembler des opérations pour créer un réseau de sous-buts adéquats pour atteindre un but final. Le critère peut aussi être de concevoir des réseaux parallèles de buts indépendants de sorte qu’ils ne se gênent pas mutuellement. Toutefois, la coordination de l'activité collective ouvre une source de complexité supérieure. Par exemple, Castelfranchi [CAS 98] oppose la coordination unilatérale (un seul agent changeant son plan), la coordination bilatérale (les deux) et la coordination mutuelle (avec conscience de l'intention de coordination et accord explicite). De même, la coordination peut servir les seuls intérêts de l'un des agents (coordination égocentrée) ou ceux des deux (coordination Coopération humaine et systèmes coopératifs 151 collaborative). La notion de coordination s’applique tout autant à la planification individuelle qu’à la planification collective, c’est pourquoi l’étude de la cognition individuelle a fourbi des outils pertinents pour aborder la cognition collective. La notion de métaopération introduit un niveau d’abstraction qu’il convient de ne pas perdre de vue dans la modélisation des activités collectives où la coordination par les agents eux-mêmes est impliquée. Nous y reviendrons. 5.3.3. Coopération Nous définirons plus loin ce que nous entendons précisément par coopération, mais il convient de délimiter d’abord grossièrement ce que nous entendons par là, à l’intérieur de la vaste classe des activités collectives avec gestion des relations entre opérations en temps réel. Il s’agit d’une définition minimale qui peut atteindre une très grande richesse si on y ajoute d’autres propriétés optionnelles, ce que nous ferons ultérieurement. Au minimum, nous retiendrons deux propriétés : la gestion d’interférences entre les agents et la facilitation de l’activité collective, par les agents eux-mêmes. Par exemple, dans le contrôle aérien, la solution adoptée par STX pour un conflit peut interférer avec une autre solution adoptée par le CR pour un autre conflit (les deux avions détournés par chacun des agents peuvent entrer en conflit). La gestion de cette interférence peut viser à faciliter la tâche du CR (si la solution adoptée par STX peut être modifiée) ou celle de STX (si le CR modifie sa solution). La facilitation peut porter sur les deux agents ou sur une tâche commune si les quatre avions peuvent être considérés dans leur ensemble, comme une configuration significative. La coordination fait évidemment partie intégrante de la coopération puisqu’elle va servir à la fois la gestion des interférences et la facilitation. Toutefois, la coopération ne se réduit pas à la coordination. Encore faut-il, par exemple, identifier les interférences et être en mesure de les réduire. Si notre définition (qui sera précisée plus loin) est minimale, elle a néanmoins pour but de couvrir une grande variété de situations. En particulier, nous y intégrons les trois grandes catégories d'activités collectives introduites par Rogalski [ROG 94], pourvu qu'il y ait effectivement gestion d'interférences en temps réel. C'est trois catégories s'ordonnent selon le rôle décroissant que joue une tâche commune dans la gestion de l'activité collective : collaboration (rôle central d'une tâche commune), coopération distribuée (tâche commune, mais jouant un rôle moins central) et coaction (absence de tâche commune, mais tâches interférentes). 152 L'ingénierie Cognitive : IHM et Cognition 5.3.4. Communication Nous verrons que bon nombre de connaissances sur la coopération ont été élaborées à partir d’études linguistiques, sociolinguistiques et psycholinguistiques sur la pragmatique de la communication [AUS 62] [GRI 75] [SEA 69] [SPE 86]. Communiquer, c’est se comprendre mutuellement à un certain niveau. Chacun des interlocuteurs doit donc nécessairement coopérer avec les autres pour se faire comprendre et les comprendre. Mais la communication est aussi au service de la coopération. C’est ainsi que coopération et communication interviennent toujours en alternance. Les communications sont évidemment un moyen d'accès privilégié à la coopération (cf. par exemple [BOW 95] [HOC 98b], dans le domaine aéronautique). La communication la plus typique qui vienne à l’esprit est l’usage de la langue dans la communication verbale — orale ou écrite. La langue étant la source de tous les codes, la notion de communication peut être étendue à l’usage de codes. La psychologie et la sociologie du travail ont aussi souvent souligné l’importance du recours à des codes informels qui conduisent à une économie de communication formelle chez des opérateurs expérimentés [CUN 67] [SCH 94]. Dans les situations à forte dynamique que nous étudions, il va de soi que ces communications informelles jouent un rôle majeur. Par exemple, dans l’aviation de combat, N voit les difficultés de P (par observation des effets de son comportement) à mettre l’avion dans une configuration propice au tir et décide de s’attribuer la tâche d’illumination de la cible qui devrait en principe revenir à P. Cette nouvelle répartition des rôles n’a pas nécessité de communication formelle, mais un signe a été utilisé (c’est-à-dire une unité à double face : forme/ contenu). Ceci nous conduit à étendre encore la notion de communication au-delà de l’usage de la langue et des codes formels pour intégrer la transmission de signes entre les agents, qu’elle soit volontaire ou non. Nous parlerons de communication lorsqu’un signe a été transmis d’un agent à un autre et utilisé effectivement par le récepteur. C’est bien là ce qui rend difficile l’étude de la coopération chez des experts, soumis à de fortes contraintes temporelles : les connaissances de l’analyste dans le domaine sont cruciales pour identifier les communications informelles. 5.4. Types d'approches de la coopération 5.4.1. Approches prescriptives et descriptives La littérature abondante sur la coopération se décompose grossièrement en deux types d’approches : prescriptives et descriptives. Les approches prescriptives sont en général motivées par deux ordres de préoccupations : soit la conception d’une Coopération humaine et systèmes coopératifs 153 formation à la coopération (par exemple en aviation, dans le cadre du Cockpit Resource Management ou CRM [ROG 96] [WIE 93]), soit la conception de systèmes multiagents coopératifs [CAS 98] [FER 97]. Ces approches nécessitent évidemment de commencer par définir l’objet que l’on se propose de former ou de concevoir. Les approches descriptives sont plus ouvertes et précèdent souvent les premières pour leur donner des fondements empiriques. C’est ainsi que de nombreuses études ont été consacrées à l’observation du travail d’équipe dans des domaines très variés. Les approches descriptives ne font évidemment pas l’économie d’hypothèses fortes sur ce qui constitue la coopération. C’est bien en introduisant une dialectique entre ces approches que la coopération peut être cernée. Toutefois, comme on peut s’y attendre, ce sont les approches prescriptives qui ont conduit aux définitions les plus exigeantes de la coopération, en intégrant des données sur l’évaluation. Par exemple, on peut montrer qu’il est plus facile de coopérer quand on a un plan commun ou quand chaque agent dispose de modèles des autres agents. Cela ne veut évidemment pas dire que l’on ne puisse pas coopérer sans cela. Dans la mesure où nous traitons notamment de la coopération hommemachine, avec des agents artificiels dont le savoir-coopérer est nécessairement limité, il nous a semblé utile d’adopter une approche descriptive et de faire choix de situations où la coopération se déroule dans des conditions difficiles. Ainsi, nous souhaitons, en quelque sorte, atteindre une limite basse et examiner à quelles conditions celle-ci peut être élevée en vue d’améliorer progressivement la coopération (dans une perspective de conception de systèmes). 5.4.2. Approches structurales et approches fonctionnelles Une autre distinction dans les approches de la coopération sépare des approches structurales et des approches fonctionnelles. Les approches structurales s’attachent à décrire la structure des relations entre les agents qui coopèrent et les propriétés de ces agents. Nous parlerons de structure coopérative, dont plusieurs auteurs ont tenté de produire des typologies [KOO 91] [KRA 90] [MIL 95]. L’évaluation de ces structures, dans différents contextes, en termes de performance du collectif a permis de suggérer des critères de choix. Par exemple, il est apparu qu’une organisation hiérarchisée d’un poste de commandement d’officiers sapeurs-pompiers produisait davantage d’anticipation qu’une organisation plus horizontale [SAM 93]. Mais, si une organisation hiérarchique peut permettre de satisfaire les objectifs en situation normale, Rochlin, La Porte et Roberts [ROC 87] ont montré, dans l’activité d’un équipage de navire de guerre, que cette organisation devenait moins hiérarchique en situation de combat pour s’adapter mieux aux imprévus. Il est toutefois probable que la répartition des responsabilités ait été inchangée et que les subordonnés ne s’autorisent, au combat, que des libertés de choix que les supérieurs avaliseront. Il va de soi que le type de structure coopérative détermine, dans une certaine mesure, la façon dont la coopération va se dérouler. Par exemple, dans les situations 154 L'ingénierie Cognitive : IHM et Cognition illustratives de cet article, nous sommes confrontés à deux opérateurs humains qui n’ont pas réellement de relation hiérarchique marquée. Dans le cas du contrôle aérien, les deux contrôleurs sont complètement interchangeables : d’un quart à l’autre ils peuvent changer de fonction sans aucun problème et ils ont souvent des niveaux d’expérience comparables. On sait toutefois que l’existence d’une relation hiérarchique peut profondément marquer le déroulement de la coopération et même conduire à des catastrophes, par exemple entre commandant de bord et copilote d’avion de ligne [FOU 84] [MET 93] ou entre chirurgien et anesthésiste en salle d’opération [HEL 94]. Les approches fonctionnelles cherchent moins à décrire la structure relationnelle entre les agents que les activités coopératives qu’ils développent. Il s’agit là proprement d’approches cognitives de la coopération, centrées sur les mécanismes. C’est ce type d’approche que nous avons adopté, étant donné les objectifs qui étaient les nôtres. Nous serons donc amené à développer plus particulièrement ce point de vue dans ce qui va suivre. Néanmoins, nous pensons que les deux types d’approche sont absolument nécessaires. La structure coopérative contraint l’activité coopérative : si les agents sont dans l’incapacité de communiquer aisément, leur coopération sera plus difficile. C’est ainsi par exemple que les stratégies de résolution de conflits, dans la navigation aérienne, sont fort différentes des stratégies d’anticollision en mer [CHA 00]. Les navires sont très rarement en contact-radio et leurs manœuvres doivent toujours être sélectionnées avec le double but d’éviter la collision et de faire comprendre son intention à l’autre agent. C’est évidemment aussi le cas dans la conduite automobile. Comme c’est à chaque fois le cas lorsqu’on est amené à décrire un certain type d’activité cognitive — et la coopération cognitive ne fait pas exception — il convient d’adopter successivement deux points de vue duaux (Parties V et VI) : celui de ce qui est traité (description des connaissances et représentations traitées) et celui de la façon dont c’est traité (description des traitements des connaissances et des représentations). 5.5. Architecture des connaissances et des représentations L’une des propriétés essentielles d’un système cognitif est de disposer de modèles internes de son environnement pour s’y adapter. Nous reprendrons ici la distinction courante entre connaissances et représentations, mais nous ne nous étendrons pas sur la distinction entre connaissances (avérées) et croyances (à prouver), bien que cette distinction puisse être utile. Les connaissances sont des éléments de ces modèles, présentant un certain degré de généralité et stockés durablement, ce qui ne veut pas dire que leur accès soit aisé. Les représentations sont des structures temporaires, construites à la fois à l’aide des connaissances Coopération humaine et systèmes coopératifs 155 acquises et à l’aide des données de la situation spécifique à laquelle est confronté le système cognitif. On peut les considérer comme des connaissances particularisées à la situation [RIC 90]. 5.5.1. Référentiel commun (REFCOM) Dans la coopération, divers auteurs ont souligné l’importance du partage d’une structure de connaissances et de représentations partagées par l’ensemble des agents [GRI 75] [MAR 75], que nous conviendrons d’appeler référentiel commun (REFCOM). De Terssac et Chabaud [TER 90] y voient : « La mise en commun des compétences pour préparer et réaliser une action ; cette mise en commun des compétences, en même temps qu’elle complète la représentation que chacun se fait de la tâche à réaliser, constitue un référentiel commun permettant d’ajuster les décisions de chacun en fonction des connaissances des autres ». (p. 128-129). Il s’agit donc à la fois de connaissances et de représentations partagées pour pouvoir tenir compte des autres agents dans ses décisions. Piaget, dans son essai sur la coopération de 1965, ne donne pas particulièrement de nom à cette structure qu’il définit pourtant, d’un point de vue logique, comme une échelle commune de valeurs intellectuelles : un langage, un système de notions, des propositions fondamentales auxquelles se référer en cas de discussion. Ceci permet aux agents de s’accorder sur des valeurs dans l’évaluation et de conserver les propositions reconnues antérieurement, pour pouvoir y revenir à tout moment. Vu sous cet angle, le REFCOM se construit et se maintient au cours du déroulement de la coopération. Il joue notamment un rôle crucial dans la compréhension des communications et dans les explications vues comme des ajustements du REFCOM pour intégrer une information nouvelle à une information ancienne [KAR 96] [KAR 00]. C’est au même type de notion qu’aboutit H.H. Clark [CLA 96] en étudiant la coopération dans la communication avec son concept de « commond ground », qui intègre la notion de connaissance commune en philosophie, de connaissance mutuelle en linguistique, de connaissance conjointe en intelligence artificielle et, bien entendu de représentation partagée en psychologie. Il complète la définition proposée par Piaget [PIA 65] en intégrant à la notion de proposition commune l’ensemble des justifications de cette proposition (logiques ou empiriques). Il décrit la fonction du REFCOM dans la coopération comme le faisaient De Terssac et Chabaud. Toutefois, il va peut-être un peu loin en exigeant que les membres du collectif aient la connaissance du partage du REFCOM. Par ailleurs, on peut évidemment coopérer sans tout partager [GAS 91], sinon la charge de travail et le degré d'autonomie des agents en pâtirait. 156 L'ingénierie Cognitive : IHM et Cognition Dans l’expérience d’évaluation de la répartition des tâches entre humain et machine dans le contrôle aérien [HOC 98b], nous avons d’ailleurs noté une amélioration du maintien du REFCOM avec les aides qui fournissaient un espace d’informations partagées. Cette amélioration se traduisait notamment par de meilleures compréhensions entre les contrôleurs : à partir de communications très laconiques, les contrôleurs parvenaient plus facilement à identifier de quoi il était question dans le message. Dans une expérience plus récente impliquant la coopération entre deux contrôleurs radar pour gérer un même secteur [HOC 02], l’essentiel des communications portaient sur le maintien d’un référentiel commun entre les contrôleurs. Ce résultat a été retrouvé dans la coopération entre pilote et navigateur dans l’aviation de combat [LOI 99], mais dans une moindre mesure car de nombreuses communications portaient sur le court terme dans cette tâche où l’anticipation est plus difficile. Plusieurs travaux ont été consacrés à la conception d’ « espaces de travail commun » (référentiels communs externes) pour soutenir le REFCOM et il s’agit là d’interventions déterminantes pour améliorer la coopération [CAN 93], [JON 95] dans la supervision de satellites et [JON 97]. En analysant la coopération dans un poste de commandement de services d’urgence, Garbis et Wæern [GAR 99] ont montré l’importance de ce qu’ils appellent des « artéfacts publics » dans le maintien du référentiel commun. Concrètement, dans cette situation, il s’agit de tableaux d’informations que renseignent régulièrement les différents membres de l’équipe et autour desquels ils communiquent. L’idée d’une coopération homme-machine pourrait bien être compromise si la machine ne pouvait avoir accès à ce genre d’artéfact. Le REFCOM est au centre de la coopération, mais il s’agit d’une structure qui présente une grande complexité. C’est pourquoi nous allons progressivement introduire l’ensemble de ses composantes. Il joue le même rôle au niveau du collectif que le cadre de référence au niveau individuel, tel que Hoc et Amalberti [HOC 95b] l’ont introduit au cœur d'une architecture cognitive individuelle de gestion de situation dynamique, dans leur tentative d’extension du modèle dit de l’échelle double de Rasmussen [RAS 86]. C’est ainsi qu’il y a une parfaite cohérence entre nos approches cognitives de la coopération et de l’activité individuelle. Salas et al. [SAL 95], appartenant au courant d’étude de la « situation awareness », adoptent ce point de vue en recherchant, au niveau collectif, une « team situation awareness » qui aurait les mêmes propriétés que la situation awareness étudiée au niveau individuel. Toutefois, tant au niveau individuel qu’au niveau collectif il convient d’élargir la notion de représentation pour ne pas s’enfermer dans une conception trop symbolique. Depuis longtemps, les modèles connexionnistes ont été considérés pour rendre compte d’activités dont la régulation subsymbolique échappe au contrôle Coopération humaine et systèmes coopératifs 157 attentionnel symbolique [RUM 86]. Mais c’est plutôt vers des modèles connexionnistes symboliques qu’il s’avère utile de s’orienter [RAU 98]. La plupart de ces modèles sont compatibles avec l’idée qu’un cadre de référence — la partie activée de la base de connaissances par une situation spécifique et certains déterminants endogènes — évolue au cours du déroulement de l’activité. Certaines parties du réseau dépassent un certain seuil d’activation, ce qui leur permet d’atteindre l’attention et la représentation symbolique. D’autres restent en deçà de ce seuil, mais sont actives et peuvent jouer un rôle important dans l’activité, en formant ce qu’on peut appeler par extension la représentation subsymbolique. Par ailleurs, il est raisonnable de concevoir une double détermination : de la représentation subsymbolique vers la représentation subsymbolique (puisque c’est par l’activation, de nature subsymbolique que la représentation symbolique peut se construire : émergence) et de la représentation symbolique vers la représentation subsymbolique (par des activations en retour qui peuvent être délibérées : supervision). Vu du point de vue d’un agent particulier, le référentiel commun comporte un ensemble de représentations (symboliques ou non) nécessaires à la coopération (Figure 5.1). Cet ensemble est évidemment intégré aux représentations dont dispose cet agent et qui comportent aussi des représentations privées. Trois types de représentations vont jouer un rôle pour cet agent dans la coopération : – Des représentations communes avérées (elles sont effectivement communes) et conscientes (l’agent sait qu’elles le sont). – Des représentations conscientes supposées communes (l’agent croit qu’elles le sont). – Des représentations communes avérées et non conscientes : elles sont effectivement communes, mais l’agent n’en a pas conscience. Les représentations portent, soit sur l’environnement, soit sur l’activité de l’équipe. Des représentations communes peuvent être identiques. Elles peuvent aussi être différentes, mais compatibles, c’est-à-dire équivalentes à un certain niveau d’abstraction. 5.5.2. Représentation symbolique C’est de représentation symbolique dont il est question dans les travaux de psychologie sur la représentation partagée. Ce concept est assimilable à celui de team situation awareness [SAL 95] si l’on admet une conception plus large de la situation que celle qui est décrite dans ce type de travaux. Endsley [END 95a], qui a mené des travaux conséquents sur cette question jusqu’à proposer une méthodologie 158 L'ingénierie Cognitive : IHM et Cognition précise et validée d’accès à la situation awareness, la décrit comme une structure à trois niveaux : (i) la perception des informations brutes de l’environnement ; (ii) la compréhension de ces informations (diagnostic au sens strict) ; (iii) sa projection dans le futur (pronostic). C’est considérer la situation uniquement comme un objet externe. Or les opérateurs s’intègrent souvent eux-mêmes dans la situation, notamment dans les situations dynamiques [AMA 92b] [HOC 95b]. Ils y intègrent leurs plans, la représentation qu’ils ont des risques qu’ils encourent personnellement (charge, risques de perte de maîtrise de la situation, etc.). La situation doit donc être envisagée, non pas au sens restreint de l’état et de l’évolution de l’environnement externe aux opérateurs, mais au sens plus large de l’état et de l’évolution d’un système opérateur-tâche [HOC 88]. La représentation symbolique comporte souvent plusieurs niveaux d’abstraction. Pour simplifier, nous en distinguerons trois : le niveau de l’action, le niveau du plan et un niveau méta. Par ailleurs, à chacun des niveaux, les opérateurs peuvent se représenter (et traiter) des propriétés procédurales de divers objets [POI 95], par exemple, leurs propres plans, mais aussi les plans des autres agents (y compris artificiels). La représentation symbolique, qualifiée de représentation occurrente par Hoc et Amalberti [HOC 95b], est mise à jour en permanence. Une structure de connaissances et de représentations pour la coopération Représentations identiques Représentations communes avérées non conscientes Représentations communes avérées conscientes Représentations conscientes supposées communes Représentations compatibles Représentations privées • sur l'environnement • sur l'activité Référentiel commun individuel Représentation occurrente individuelle Figure 5.1. Référentiel commun intégré aux représentations d’un agent particulier. Coopération humaine et systèmes coopératifs 159 5.5.2.1. Le niveau ACTION La représentation symbolique comporte des spécifications des actions, en particulier dans des situations nouvelles ou problématiques où le recours au contrôle subsymbolique (automatismes) n’est pas satisfaisant. Toutefois, une grande partie de ces spécifications n’est pas gérée au niveau attentionnel. La coopération peut éventuellement produire des activations attentionnelles de ces spécifications, au travers des interférences et des communications. L’étude citée sur la répartition des tâches entre humain et machine dans le contrôle aérien en montre de nombreux exemples [HOC 98]. En particulier, les aides fournies se sont traduites par une concentration de la coopération sur les spécifications de l’action, grâce à un accroissement de l’espace de travail commun (référentiel commun externe) qui a sans doute permis de réduire les nécessités d’ajustement des représentations sur des espaces plus abstraits. Il en est allé de même dans l’étude sur le pilotage d’avion de combat où, grâce à un plan commun initial et du fait des fortes contraintes de temps, la coopération s’est aussi déroulée au niveau des spécifications de l’action [LOI 99]. Toutefois, la coopération entre contrôleurs radar sur le même secteur [HOC 02] a montré qu’un maintien régulier du référentiel commun pouvait réduire les nécessités de communication à ce niveau, si ce n’est en ce qui concerne le suivi de plans (la vérification de la mise en œuvre des actions prévues). Il faut noter que cette expérience s’est déroulée sans assistances. C'est enfin à partir des spécifications de l'action que la coopération peut amener à traiter des raisons de l'action, notamment des diagnostics. Dans une étude sur la conduite de haut fourneau, Samurçay et Delsart [SAM 94] ont montré que les duos de conducteurs ne coopèrent pas spontanément sur le diagnostic. Ils y parviennent quand ils constatent leur désaccord sur les actions à entreprendre. Ce phénomène a également été souligné dans la prise de poste sur un moulin à papier [GRU 95]. 5.5.2.2. Le niveau PLAN Ce niveau représente en fait plusieurs niveaux d’abstraction par rapport à celui qui est impliqué lors de la mise en œuvre de l’action. Dans la coopération, il est exploité pour la compréhension et la planification (au sens de l’élaboration de représentations schématiques et hiérarchisées susceptibles de guider l’activité : cf. Hoc, 1988). Pour gérer des situations dynamiques, la notion de plan d’action doit être étendue dans la mesure où des déterminants externes à l’action des opérateurs doivent être considérés pour donner du sens à cette action [HOC 95a]. Enfin, puisqu’il s’agit ici d’activité collective, il faut y intégrer les objectifs communs, les plans communs et la répartition des fonctions. Là encore, il n’est pas nécessaire de supposer que les plans privés soient parfaitement compatibles avec ces éléments qui peuvent du reste être absents. C’est la dynamique de la coopération qui les articulera et les construira. À ce niveau d’abstraction se situent aussi des représentations de 160 L'ingénierie Cognitive : IHM et Cognition haut niveau qui structurent l’environnement. Par exemple, dans le contrôle aérien, il peut s’agir d’une décomposition commune du trafic instantané en un ensemble de conflits entre avions, c’est-à-dire en un espace problème commun [HOC 00]. Après Amalberti [AMA 96], on a coutume d’intégrer à la représentation symbolique des représentations des risques, des ressources et des coûts externes à l’activité. Une partie de ces représentations peut être partagée. Dans le contrôle aérien, par exemple, les risques externes sont bien illustrés par ces conflits entre avions qui n’en sont pas objectivement, mais que les contrôleurs continuent à surveiller grâce à des heuristiques prenant en compte l’incertitude du processus à contrôler [BIS 81]. Les coûts externes peuvent être illustrés par la règle bien connue selon laquelle il vaut mieux dévier un avion le plus tôt possible pour éviter de le faire trop tourner et de lui allonger sa route, ce qui se traduit par des coûts de carburant et par l’inconfort des passagers. Dans l’aviation de combat, des ressources externes à gérer sont, notamment, le carburant et l’armement qui restent disponibles pour la poursuite de la mission. Les méthodes d’évaluation de la situation awareness ont largement mis l’accent sur l’identification de ces entités dans le champ de l’attention [END 95a]. Des extensions de cette méthode à l’activité collective permettent d’accéder à la représentation partagée de ces entités [SAL 95]. 5.5.2.3. Le niveau MÉTA Plus les opérateurs sont impliqués dans le contrôle rapproché du processus à gérer, plus ils sont amenés à prendre en compte leurs propres caractéristiques de fonctionnement. C’est alors que des connaissances sur leur propre activité peuvent être évoquées et jouer un rôle majeur dans la planification [AMA 92b]. Cette fois, ce sont des risques, des ressources et des coûts internes qui sont gérés. Parmi les risques majeurs, il faut relever celui de ne pas maîtriser la situation qui a souvent été cité dans les difficultés qu’ont les opérateurs avec l’automation. Les ressources cognitives incluent évidemment la charge de travail dont l’évaluation subjective peut conduire à des changements notables de stratégie [SPE 77]. À ce propos, dans l’expérience sur la coopération homme-machine dans le contrôle aérien, une homéostasie de la charge a été relevée [HOC 98b]. À mesure que s’accroissaient les aides, les stratégies devenaient de moins en moins réactives et de plus en plus anticipatives, mais les évaluations subjectives de charge restaient constantes. Ainsi, le gain en ressources internes était mis à profit pour aboutir à une stratégie, aussi chargeante, mais plus fiable. Enfin, les coûts dont il est ici question sont des coûts cognitifs que des opérateurs expérimentés sont tout à fait capables d’évaluer. De telles évaluations en temps réel peuvent conduire à des modifications dans la répartition des rôles sur la base de la charge, de la facilité d’accès aux données nécessaires, de l’expérience de la sous-tâche concernée, etc. Le partage de ces représentations de sa propre activité et de celles des partenaires peut jouer un rôle central dans le bon déroulement de la coopération et de l’exécution de la tâche. Coopération humaine et systèmes coopératifs 161 5.5.3. Connaissances passives L’alimentation de la représentation symbolique provient de plusieurs sources : (a) des données de la situation, (b) du dépassement d’un certain seuil d’activation des processus subsymboliques et (c) des connaissances stockées en mémoire à long terme (ou/et dans des documents jouant le rôle de mémoire externe). Nous mettrons ici l’accent sur les connaissances. Dans l’énorme base de connaissances expertes dont disposent les opérateurs, il faut en distinguer deux catégories. En premier lieu, certaines connaissances resteront non pertinentes à la situation, du point de vue des opérateurs, même si elles restent pertinentes pour un observateur extérieur. Ces connaissances n’ont aucune chance d’être évoquées au cours de l’exécution de la tâche et nous les écarterons. Restent les connaissances passives qui sont accessibles à l’activation mais qui peuvent rester non évoquées. Selon la terminologie courante, elles sont dites « encapsulées » dans les automatismes. Il en va ainsi des connaissances biomédicales qui ne sont pas évoquées au cours du diagnostic mais qui fondent ce diagnostic et qui sont prêtes à être redéployées en cas de problème [BOS 92]. La coopération peut favoriser de tels redéploiements. 5.5.4. Représentations contextuelles Qu’il s’agisse de la psycholinguistique ou de l’intelligence artificielle de la résolution de problème, la notion de contexte est souvent considérée comme une notion utile, mais sa définition reste assez floue [CLA 96] [TUR 98]. En psycholinguistique, le contexte (à distinguer du cotexte, mais qui joue de ce point de vue un rôle similaire) réduit l’ensemble des interprétations possibles du texte. C’est dire implicitement que le texte est schématique puisqu’il est compatible avec plusieurs interprétations. Le contexte intervient alors au moment de la spécification de l’interprétation et il intègre aussi des éléments non linguistiques, parmi lesquels les connaissances du lecteur. Dans sa théorie Context Mediated Behavior, Turner [TUR 98] propose une définition du contexte dans la résolution de problème, en l’illustrant par des exemples empruntés à des travaux de robotique : « un contexte est une configuration identifiable de caractéristiques de l’environnement, de la mission et des agents qui permet de prédire le comportement » (p. 312). Il faut reconnaître qu’une telle définition est compatible avec une large variété d’éléments. Mais les exemples que l’auteur donne (mise en sécurité d’un sous-marin par une remontée à la surface dans un contexte de haute mer et par une descente au fond dans un contexte de port) montrent que la définition du contexte nécessite le recours à deux espaces d’abstraction. Dans le premier espace est défini un plan qui ne sera pas remis en question (mise en sécurité). Dans l’espace opérationnel où il faut spécifier ce plan, les éléments contextuels amènent à le particulariser différemment. C’est aussi le cas 162 L'ingénierie Cognitive : IHM et Cognition de Brézillon, Pomerol, et Saker [BRE 98] qui définissent les connaissances contextuelles comme celles qui contraignent indirectement une solution (ex. : la prise en compte des contre-indications d’un médicament dans le choix d’un traitement). Le contexte, en particulier le contexte partagé, joue évidemment un rôle très important dans la coopération, notamment dans les communications formelles ou informelles. L’étude sur la coopération homme-machine dans le contrôle aérien a également montré que plus les aides étaient développées (accroissement de l’espace d’informations partagées), plus les communications à propos du contexte étaient limitées [HOC 98b]. De même, Falzon [FAL 89] avait montré que les communications sur le contexte n’étaient requises que dans le cas où les deux agents ne partageaient pas le même schéma (communications entre contrôleurs aériens et pilotes, ou entre secrétaire et patient dans la prise de rendez-vous médical au téléphone). Dans le cadre de l’étude de la coopération cognitive, nous proposons de qualifier de contexte l’ensemble des éléments pris en compte pour adapter la particularisation d’un plan à une situation spécifique. Cette définition est tout à fait compatible avec celle qui est couramment admise dans la communication linguistique et semble bien correspondre à une réalité dans la résolution de problème. Les représentations contextuelles varient au cours du déroulement d’une tâche et comportent à la fois des composantes symboliques et subsymboliques. 5.5.5. Représentation subsymbolique Les approches connexionnistes symboliques [RAU 98] qui sont de plus en plus couramment admises nécessitent d’étendre nos conceptions d’une représentation trop exclusivement enfermée dans le niveau symbolique et attentionnel. L’expertise produit une automatisation de l’activité [CEL 97] [RAS 86] et il n’est pas raisonnable de considérer l’activité d’un opérateur expérimenté comme exclusivement contrôlée à un niveau symbolique. Certes, les techniques d’accès aux processus subsymboliques, en particulier dans les situations complexes dont il est question ici, ne sont pas très aisées (cf. par exemple [END 95b], pour la mesure de la situation awareness ). En tout cas, elles sont souvent invasives et peuvent modifier l’activité étudiée (en particulier les méthodes de jugement en temps réel qui amènent forcément à l’attention ce qui est supposé contrôlé à un niveau inférieur). Toutefois, les difficultés d’accès ne sauraient amener à se désintéresser de ces phénomènes. Pour accorder l’attention nécessaire à la navigation, il va de soi que le conducteur d’une voiture doit avoir automatisé une grande partie de son activité. Pour aboutir au bon diagnostic, le médecin s’appuie sur des inférences immédiates Coopération humaine et systèmes coopératifs 163 qui produisent le sous-ensemble des hypothèses entre lesquelles va s’opérer son choix [ELS 78] [RAU 98]. La terminologie utilisée par Shiffrin et Schneider [SHI 77] qui oppose processus contrôlés à processus automatiques pourrait laisser penser qu’il n’y a de contrôle qu’attentionnel. C’est évidemment inexact quand on considère, par exemple, la richesse des travaux sur les programmes moteurs qui soulignent leur adaptabilité [CAM 96]. C’est ainsi que le concept de représentation doit être étendu à la représentation subsymbolique. Dans les travaux sur les modèles connexionnistes symboliques, on admet de nos jours que des processus d’activation (et d’inhibition) modifient continuellement la représentation. Certains nœuds du réseau sont activés en dessous d’un certain seuil et constituent la représentation subsymbolique. D’autres ont un niveau d’activation supérieur au seuil et forment la représentation symbolique. Nous n’entrerons pas dans les détails de ces théories, mais nous en retiendrons seulement la double détermination entre le niveau symbolique et le niveau subsymbolique. Les nœuds activés dans la représentation symbolique sont en mesure de diffuser de l’activation au niveau inférieur, y compris d’accroître le seuil d’activation de certains nœuds pour les faire parvenir éventuellement à l’attention. Bien entendu, la représentation subsymbolique est active, en particulier en produisant des effets contextuels qui affectent les traitements symboliques. Il nous semble que les travaux actuels sur la coopération sous-estiment le rôle de la représentation subsymbolique. Ils n’admettent dans la représentation partagée que ce que les agents ont conscience de partager, de ce fait ils excluent totalement les représentations subsymboliques partagées. Il convient d’inclure ces dernières, notamment dans des situations à fortes contraintes temporelles, mais pas exclusivement, pour rendre compte de certaines difficultés, mais aussi de certaines réussites de la coopération quand une partie, certes implicite, mais cruciale du REFCOM est partagée. Après avoir tenté de définir la richesse des constituants du REFCOM (Figure 5.2) dont la mise à jour permanente doit être pistée pour comprendre le déroulement de la coopération cognitive, nous sommes maintenant en mesure d’aborder les activités coopératives qui ont la double fonction de mettre à jour le REFCOM et de contribuer à la réalisation collective des tâches. 164 L'ingénierie Cognitive : IHM et Cognition CONNAISSANCES PASSIVES REPRÉSENTATION SYMBOLIQUE: Niveau MÉTA CONNAISSANCES CONTEXTUELLES Niveau PLAN Niveau ACTION Émergence Supervision REPRÉSENTATION SUBSYMBOLIQUE Figure 5.2. Les constituants du référentiel commun. 5.6. Architecture des traitements 5.6.1. La coopération comme méta-activité Dans notre approche cognitive de la coopération, nous privilégions le point de vue fonctionnel, comme nous l’avons indiqué, mais surtout le point de vue de la psychologie cognitive. Ceci nous a amené à partir de la définition de la coopération proposée par Jean Piaget [PIA 65]. Il convient de la resituer dans le débat de l’époque qui opposait son approche intrinsèque du développement cognitif aux tenants du rôle majeur des interactions sociales (en particulier [VYG 78]). C’est alors qu’il a proposé une vision interactionniste des phénomènes internes (l’accès au stade des opérations formelles) et des phénomènes externes (la construction d’un savoir-coopérer). Pour Piaget, le développement cognitif nécessite la coopération et la coopération nécessite le développement cognitif. Ceux qui travaillent sur la formation à la coopération dans le cockpit [ORA 93] [ROG 96] ne sont pas loin de partager le même point de vue en montrant que le développement du savoir-coopérer va de pair avec le développement de l’expertise dans le domaine. Coopération humaine et systèmes coopératifs 165 Pour Piaget donc (op. cit. ) : « Coopérer dans l’action c’est opérer en commun, c’est-à-dire ajuster au moyen de nouvelles opérations […] les opérations exécutées par chacun des partenaires […] C’est coordonner les opérations de chaque partenaire en un seul système opératoire dont les actes mêmes de collaboration constituent les opérations intégrantes. » (p. 91). On ne peut pas être plus clair : les activités que nous conviendrons d’appeler coopératives se superposent aux activités « privées » et supposent le recours à un niveau d’abstraction supérieur (métaopérations), impliquant en particulier une décentration par rapport à son activité propre. C’est bien pourquoi Piaget fait le parallèle avec le développement de la pensée qui s’appuie sur l’abstraction réfléchissante. Néanmoins, nous distinguerons plusieurs niveaux d’abstraction dans la définition des activités coopératives. C’est cette conception de la coopération comme abstraction (et réciprocité) qui rend les travaux de psychologie cognitive et d’intelligence artificielle tout à fait pertinents pour modéliser la coopération cognitive. Plus précisément, nous adopterons la définition suivante pour la coopération (elle se généralise aisément à plus de deux agents) et nous en détaillerons les différents aspects dans les paragraphes qui vont suivre : Nous considérerons que deux agents sont en situation de coopération aux deux conditions minimales suivantes – Ils poursuivent chacun des buts qui peuvent entrer en interférence, au niveau des buts, des ressources, des procédures, etc. – Ils font en sorte de traiter ces interférences pour faciliter les activités individuelles ou(et) la tâche commune quand elle existe. Il s’agit là d’une définition minimale de la coopération qui souligne deux types de fonctionnalités : la gestion d’interférence et la facilitation de l’activité. Nous allons maintenant détailler ces deux aspects. Nous verrons ensuite que plusieurs niveaux d’activités coopératives peuvent être impliqués dans le déroulement de la coopération. En particulier, cette définition ne suppose pas le partage d’un objectif commun qui peut toutefois être élaboré. L’évitement pur est simple des interférences pour permettre de travailler individuellement ou, au contraire, leur introduction délibérée pour gêner un adversaire sortent du cadre de la coopération, bien qu’il y ait communauté de mécanismes. Ces cas se rencontrent dans la relation entre humains ou entre humains et machines. L’humain peut en effet adopter une stratégie telle que les risques d’interférences avec la machine soient minimaux. Dans l’utilisation d’une aide automatique au maintien de distance de séparation entre voitures (ACC5), le conducteur peut occuper plus longuement la file de gauche sur autoroute pour éviter 5 Adaptive Cruise Control 166 L'ingénierie Cognitive : IHM et Cognition d’être ralenti par les véhicules lents de la file de droite [SAA 99]. Dans le contrôle aérien, nous avons aussi remarqué que certains contrôleurs adoptaient des résolutions qui n’exploitaient pas les niveaux de vol où la machine était en train de résoudre des conflits [HOC 98b]. Ces contournements de la coopération peuvent révéler des surcharges de travail ou des incapacités à la mettre en œuvre qui peuvent rigidifier le système homme-machine quant à ses capacités adaptatives. Quand le partenaire est pris comme un adversaire, il s’agit non plus de coopération mais de compétition. Cette attitude des opérateurs vis-à-vis de la machine avait été rencontrée dans de précédentes expériences où la répartition des tâches était hors du contrôle de l’opérateur [DEB 92]. 5.6.2. Les notions d’interférence et de facilitation La notion d’interférence est empruntée à la littérature sur la planification [HOC 88] et s’oppose à la notion d’indépendance entre buts ou procédures. Elle est dépouillée de sa connotation négative, comme elle l’est du reste en physique d’où elle est importée de façon métaphorique : des signaux interférents peuvent en effet se renforcer s’ils sont en phase ou se gêner s’ils ne le sont pas. Nous rejoignons en cela Castelfranchi [CAS 98] qui définit l'interférence entre buts et procédures dans la coopération par le fait que « les effets des actions d’un agent sont pertinents pour les buts d’un autre agent, c’est-à-dire qu’ils peuvent, soit favoriser la poursuite de certains buts des autres agents (interférence positive), soit mettre en péril certains d’entre eux (interférence négative) » (p. 162). Plus précisément, plusieurs types d’interférence entre activités peuvent être définis (cette liste n’est pas exhaustive et couvre ce qu’on a coutume d’observer, en particulier dans les études citées auxquelles nous emprunterons des illustrations). Les deux premiers peuvent se trouver dans les activités privées et être résolus au niveau individuel. Quand les activités sont réparties entre plusieurs agents, leur traitement relève de la coopération. Les deux derniers sont propres aux situations de coopération. – Interférence de précondition. L’une des activités est une précondition au développement de l’autre ou peut être transformée pour satisfaire cette propriété. Dans le contrôle aérien, le CO baisse le niveau de sortie d’un avion pour permettre au CR de résoudre un conflit proche de la sortie de secteur par baisse du niveau de vol (la sortie au niveau prévu aurait été impossible et ce type de résolution n’aurait pas été envisageable). Parmi les interférences de précondition, Castelfranchi (op. cit. ) distingue le cas particulier de la dépendance quand un agent ne peut pas poursuivre son but sans l'autre agent. Une interférence de précondition peut en effet n'être qu'optionnelle quand la précondition peut être réalisée par un seul agent (évidemment au risque d'élever sa charge). Coopération humaine et systèmes coopératifs 167 – Interférence d’interaction. Les deux activités peuvent mutuellement mettre en péril leurs buts respectifs et doivent être conçues pour l’éviter. Dans le pilotage d’avion de combat, le navigateur cherche à optimiser le plan de vol en modifiant le prochain point de passage (but de destination). Pour ce faire, il va devoir modifier les affichages du pilote (ressources) et donc les conditions de son activité actuelle. Le pilote devra modifier son activité actuelle en conséquence. Castelfranchi (op. cit. ) distingue deux types d'interférences d'interaction : la dépendance mutuelle quand les agents dépendent l'un de l'autre pour réaliser un but commun et la dépendance réciproque lorsqu'ils dépendent l'un de l'autre pour réaliser des buts individuels (et non pas un but commun). – Interférence de contrôle mutuel. Pour des raisons de sécurité, l’aviation encourage dans tous les domaines le contrôle mutuel. Par exemple, le pilote qui n’est pas aux commandes est encouragé à vérifier le bien-fondé des actions du pilote aux commandes. Dans le contrôle aérien, le CO est encouragé à vérifier le travail du CR. Dans ces conditions, la tâche qui est exécutée effectivement par l’un des agents, parce qu’elle relève de sa responsabilité, est réalisée aussi, en quelque sorte « mentalement », par un autre. Lorsqu’il y a désaccord (interférence), il y a aussi recherche de consensus sur les actions à mener. Les protocoles cités en exemple en fournissent de nombreuses illustrations. Au sens de Schmidt [SCH 91], il s’agit d’une coopération « confrontative » qui tire profit de points de vue différents sur une même tâche. – Interférence de redondance. Il arrive que l’affectation d’une tâche particulière à un agent bien défini ne soit pas prévue à l’avance. C’est l’agent le mieux placé au moment de la survenue de cette tâche qui la réalisera. Dans le pilotage d’avion de combat, la recherche de l’objectif est réalisée par les deux opérateurs avec des moyens différents. Le premier à l’identifier procédera à l’acquisition. Dans les termes de Schmidt (op. cit.), la redondance permet la coopération « augmentative ». Ces différents types d’interférence montrent que le caractère négatif ou positif d’une interférence ne relève pas de sa définition, mais d’une évaluation dont il faut définir les critères. Dans chacun des cas, on peut considérer que l’interférence a été négative quand on aurait pu l’éviter, mais on peut considérer aussi qu’elle a été positive si sa survenue a permis d’améliorer la performance ou l’activité de l’équipe. 5.6.3. La gestion subsymbolique des interférences Dans la gestion de processus rapides, en ayant recours à des opérateurs expérimentés, bien des interférences sont gérées par des activités subsymboliques, c'est-à-dire par des réponses déjà acquises qui ne nécessitent pas le recours à 168 L'ingénierie Cognitive : IHM et Cognition l’attention. Peu de travaux portent sur cette question en situation de coopération et il est difficile, dans l’état actuel des connaissances et des méthodologies, de proposer un cadre théorique satisfaisant pour l’aborder. Toutefois, si l’on s’en tient à l’analyse des temps de réponse, au caractère laconique des communications, au nombre de tâches en cours requérant l’attention dans nos études, l’existence d’une gestion subsymbolique des interférences ne peut être ignorée. Nous partageons l'idée de Castelfranchi [CAS 98], selon laquelle la coopération ne peut être étudiée complètement sans la notion d'émergence. 5.6.4. La gestion symbolique des interférences 5.6.4.1. La coopération dans l’action Le niveau de la coopération dans l’action regroupe des activités coopératives opérationnelles directement liées à la gestion des buts et des procédures au cours de l’exécution, en temps réel et à court terme. Elles gèrent effectivement les interférences, même si elles doivent être préparées par des activités coopératives à des niveaux d’abstraction plus élevés, telles que nous les décrirons par la suite. Elles sont aussi susceptibles d’alimenter et de mettre à jour en permanence le REFCOM. À ce niveau, nous pouvons distinguer quatre types d’activités. – Création locale d’interférence. Il s’agit ici évidemment de la création délibérée d’interférence en vue de se faciliter la tâche, de faciliter celle de l’autre ou de faciliter la tâche commune. Le cas typique est le désaccord produit au cours d’un contrôle mutuel. Mais l’introduction d’une interférence peut contribuer à faciliter une tâche commune, voire même la tâche du partenaire. Dans la résolution de problème de gestion, Dalal et Kasper [DAL 94] ont étudié les bénéfices qui pouvaient être tirées d’une coopération homme-machine où les deux agents adoptent des styles cognitifs différents (stratégie analytique par opposition à une stratégie globale). Après avoir constaté les effets indésirables des systèmes experts, au moins chez des professionnels, un courant de recherche (bien documenté par Roth et al. [ROT 97] notamment dans le domaine médical, mais relativement ancien [JAC 84] ; voir aussi Guerlain et al. [GUE 99]) s’est attaché à montrer les intérêts des systèmes critiques. Ces systèmes ne produisent pas d’emblée une solution, mais « regardent par-dessus l’épaule » de leurs utilisateurs pour intervenir quand leur démarche s’écarte de ce qui est attendu. Des résultats très positifs ont été obtenus, en comparant notamment le mode critique au mode classique de la production de la solution par le système. Cette approche permet notamment d’éviter les inconvénients de l’attitude de contentement dans les situations où le système est fragile. Dans une étude sur la conduite de haut fourneau, Denecker et Hoc [DEN 97] ont montré que les utilisateurs réguliers d’un système Coopération humaine et systèmes coopératifs 169 d’assistance à l’anticipation avaient notamment développé des habiletés à l’utiliser pour critiquer leur analyse, ce à quoi n’étaient pas parvenus des utilisateurs plus irréguliers. Ce résultat rejoint celui que Smith et Crabtree [SMI 75] avaient observé dans l’utilisation d’une aide à l’ordonnancement dans la gestion de production. – Détection locale d’interférence. Pour gérer une interférence, il faut évidemment être en mesure de la détecter. Il en va ainsi par exemple d’une interférence de redondance : si un agent prend en charge une tâche, il faut que les autres agents en soient avertis d’une façon ou d’une autre (par une communication verbale ou par une information sur une interface). – Résolution locale d’interférence. Il s’agit ici de la résolution effective de l’interférence dans l’action. L’un des problèmes cruciaux qu’il faut résoudre dans la coopération, c’est la détermination du bon niveau d’abstraction à adopter pour trouver la solution à une interférence. Quelquefois, il suffit d’intervenir localement au niveau de l’action concrète. Quelquefois, il vaut mieux remettre en question le plan pour trouver une solution durable. Quelquefois, deux agents doivent être considérés. Quelquefois, il faudra considérer un ensemble d’agents plus large. – Identification de buts et de sous-buts. À ce niveau d’abstraction, l’inférence du but ou des sous-buts d’un autre agent s’appuie uniquement sur les connaissances du domaine. Dans le contrôle aérien, il n’est pas nécessaire au CO de disposer d’un modèle sophistiqué de son partenaire pour anticiper que la résolution la plus probable d’un conflit particulier entre avions consiste à en descendre un, étant donné le contexte. S’il y a interférence potentielle entre cette solution et la définition du niveau de sortie, le CO peut anticiper l’interférence et agir immédiatement pour faciliter la tâche de son partenaire. Cette activité coopérative est très importante puisqu’elle permet à l’équipe de détecter les interférences et de les résoudre par anticipation [CAS 98]. Souvent, du reste, l’interférence ne porte pas sur les buts, mais sur les sous-buts par lesquels il faut passer pour atteindre les buts. L’expertise dans le domaine joue un rôle considérable dans l’identification des sous-buts. C’est peut-être pour cette raison que le développement du savoir-faire est une condition à celui du savoir-coopérer. Les systèmes critiques dont il a été question plus haut doivent évidemment bénéficier de ce type d’habileté. C’est du reste sur l’identification des buts qu’ont commencé les travaux [GIB 88] [JAC 84]. 5.6.4.2. La coopération dans la planification Les activités coopératives dont il est ici question se développent à un niveau d’abstraction supérieur à celui de l’exécution. Elles peuvent évidemment faciliter la coopération dans l’action. Dans la plupart des cas, elles se déroulent sur un moyen 170 L'ingénierie Cognitive : IHM et Cognition terme par rapport au court terme de l’action. Dans certains cas, elles peuvent toutefois se produire très rapidement et ne sont pas à exclure a priori du court terme quant à leur exécution, mais leurs effets se traduisent à moyen et long terme. Ces activités de coopération dans la planification peuvent aller du simple maintien du référentiel commun à des élaborations plus ou moins difficiles. Dans le premier cas, elles se repèrent par des communications unitaires suivies d’un simple accusé de réception d’accord. L’information nouvelle est compatible avec représentation du partenaire et ce dernier l’intègre immédiatement. Dans le second cas, une suite plus ou moins importante de tours de parole, marquée par des désaccords ou des surprises précède un accord final qui termine l’élaboration. Dans les expériences citées sur le contrôle aérien [HOC 98b] [HOC 02] et sur l’aviation de combat [LOI 99], les activités de maintien du référentiel commun sont apparues prépondérantes. Rappelons qu’il s’agit de situation de contrôle de processus relativement rapides, avec un partage important d’expertise entre les agents. Le maintien ou l’élaboration du REFCOM peuvent porter sur deux types d’entités : le processus contrôlé (la situation externe à l’équipe) ou l’activité de contrôle elle-même (la situation interne à l’équipe). Bien entendu, les communications portant sur le processus contrôlé ne sont pas sans lien avec sa gestion. Mais la distinction doit être faite car les premières peuvent témoigner, soit d’informations sur le processus contrôlé qui ne sont pas nécessairement déjà bien intégrées au plan, soit de la nécessité de regrouper des informations qui ne sont pas accessibles à tous les agents. Quand les activités de coopération au niveau de la planification portent sur la situation externe, il s’agit évidemment de produire des représentations contextuelles partagées qui améliorent les communications et les choix de mise en œuvre des plans. Karsenty [KAR 00], dans plusieurs études sur la coopération synchrone (entre ingénieurs et dessinateurs) ou asynchrone (dans la réutilisation en conception — entre concepteurs — ou dans l’application des procédures en aviation — entre pilotes et concepteurs) a relié ces activités à l’explication. Dans une étude en cours (contrôle aérien) sur la conception d’une assistance capable de calculer des déviations optimales à partir de plans schématiques (ex. : « tourner à droite tel avion »), une grande attention est accordée au partage entre le contrôleur et la machine d’une même décomposition de l’espace problème en sous problèmes quasi indépendants. En calculant une trajectoire, la machine sera en mesure d’identifier des avions contextuels qui rendent le plan irréalisable et de suggérer au contrôleur de modifier sa représentation du problème. Trois grandes catégories d’activités coopératives au niveau de la planification peuvent être distinguées quand elles portent sur l’activité de contrôle : Coopération humaine et systèmes coopératifs 171 – Maintien et élaboration d’un objectif ou d’un but communs. Il s’agit là des critères de conception et d’évaluation de l’activité collective pendant une période plus ou moins longue. Ces entités ne se définissent pas encore en termes de moyens pour les satisfaire. Elles dirigent l’activité de l’ensemble de l’équipe. Par exemple, dans le pilotage d’avion de combat, les opérateurs peuvent avoir à s’entendre sur la modification d’un but de destination (nécessairement commun puisqu’ils sont dans le même avion) pour faciliter la mission. – Maintien et élaboration d’un plan commun. Cette fois, ce sont des moyens dont il s’agit. Un plan commun est nécessairement élaboré quand plusieurs agents sont impliqués dans sa réalisation. Il permet notamment de résoudre à l’avance les questions de coordination. Il intègre la répartition des ressources externes. Par exemple, à la suite d’un accident de chemin de fer dans la banlieue de Londres, Dowell [DOW 95] a pu montrer le rôle crucial qu’a pu jouer l’absence de plan commun entre les différents intervenants dans la mise en œuvre des secours. L’auteur a développé un simulateur et une méthode de formation pour favoriser le développement de cet aspect de l’activité collective. – Maintien ou élaboration d’une répartition des fonctions. Nous n’entrerons pas ici dans la distinction entre rôle, tâche et fonction. Dans la littérature, la notion de rôle implique une responsabilité (proprement humaine). Quant à la notion de tâche, elle renvoie à une macro-unité intentionnelle dans l’activité humaine, qui rend son usage inapproprié pour des opérations plutôt considérées comme des moyens que des fins. Nous prendrons la notion de fonction de façon générique pour recouvrir toutes ces entités, comme c’est du reste bien souvent le cas dans la littérature. Bien que la répartition des fonctions puisse paraître liée à l’élaboration d’un plan commun, elle peut changer sans que le plan ne soit remis en question. Par exemple, dans l’aviation de combat, le navigateur évalue la charge du pilote et propose de réaliser une fonction d’illumination de l’objectif qui était affectée au premier. Le plan n’a pas changé, mais seulement la répartition des fonctions qui permet de mieux adapter l’équipe à la situation rencontrée. Parmi les activités de répartition des fonctions, Castelfranchi [CAS 98] accorde une place importante à la délégation, dont la pertinence est évidente dans la coopération homme-machine. La délégation, selon cet auteur, peut être plus ou moins explicite vis-à-vis du partenaire : en tirant parti de l'action spontanée du partenaire, en induisant cette action (sans que le partenaire en soit conscient) ou en négociant cette action. Cette dernière forme (forte) de délégation s'inscrit dans le cadre de la répartition des fonctions. La fonction déléguée peut être purement exécutive ou plus productive (en laissant des marges de manœuvre) ; elle peut concerner une tâche du domaine ou une activité purement cognitive (de planification ou de contrôle). La répartition 172 L'ingénierie Cognitive : IHM et Cognition dynamique des fonctions entre humains est d’observation courante dans la coopération (voir par exemple une étude de Navarro, Terrier et Courteix, 1981, sur cette question entre CO et CR dans le contrôle aérien [NAV 81]). La répartition dynamique des fonctions entre humain et machine a donné lieu à de nombreux travaux sur lesquels nous ne reviendrons pas ici [DEA 00] [DEB 92] [MCC 00] [MIL 95] [PAR 96] [RIE 82] [OLD 97] [SHE 88] [WRI 00]. Ces travaux amènent à souligner les limites d'une répartition a priori en matière de capacités adaptatives du système homme-machine. Toutefois, l’attribution d’une fonction tactique à un opérateur qui a déjà un rôle stratégique peut conduire à des résultats contestables. Jentsch, Barnett, Bowers et Salas [JEN 99] ont interprété en ce sens le fait que le commandant de bord puisse prendre les commandes dans l’aviation civile, en remarquant qu’une majorité d’incidents graves (notamment en termes de perte de situation awareness) survenaient dans ces conditions. 5.6.4.3. La métacoopération Le préfixe « méta » doit être pris ici dans un sens plus faible que celui qui s’applique aux métaconnaissances. Il ne s’agit pas de coopération sur la coopération, mais d’activités coopératives d’un niveau d’abstraction plus élevé produisant des données générales qui sont utiles aux activités coopératives des deux niveaux précédents : des codes de communication, des systèmes de représentation compatibles et des modèles, de soi-même et des partenaires. Ce niveau d’activité entretient avec les activités coopératives de plus bas niveau le même type de relation que ce que Falzon [FAL 94] a appelé les activités « métafonctionnelles » par rapport aux activités fonctionnelles. Les premières se présentent comme des activités réflexives sur les secondes qui permettent de mettre en place des outils susceptibles de faciliter ces dernières à l’avenir. Les premières sont souvent produites hors de l’action. – Élaboration d’un code de communication commun. Assez trivialement, dans des domaines techniques, notamment quand les contraintes de temps sont sévères, les membres d’une équipe font usages de ce que P. Falzon [FAL 89] a appelé des langages « opératifs ». Il s’agit de restrictions de la langue susceptibles d’économiser les communications pour transmettre des valeurs de variables de schémas connus. Ces codes sont souvent formels ou au moins acquis par avance, par exemple les codes de communication dans les salles d’opération chirurgicale, entre pilotes et contrôleurs, etc. Quelquefois, ils se construisent pour une tâche particulière quand les codes préexistants sont insuffisants. Dans l’exemple du contrôle aérien, les contrôleurs disposaient de strips électroniques (affichés et manipulables sur écran). En réalité, il s’agit de petites bandes de papier, chacune étant imprimée à l’approche d’un avion dans le secteur contrôlé et comportant l’essentiel des informations concernant cet avion. Toutefois, pour ne pas introduire une Coopération humaine et systèmes coopératifs 173 trop grande distance entre les strips en papier, partagés par les contrôleurs et sur lesquels ils avaient l’habitude d’écrire des informations complémentaires, un répertoire d’icônes de différentes couleurs était disponible pour marquer les strips électroniques. Ces marquages permettaient notamment de repérer des avions en conflit, des avions qui atterrissaient sur le même aéroport, etc. En début de session, les contrôleurs s’entendaient entre eux sur la signification qu’ils donneraient aux icônes et aux couleurs. – Élaboration de représentations compatibles. On pense d’abord à des situations de coopération intégrative, au sens de K. Schmidt [SCH 91], où les partenaires ont des expertises différentes. Une équipe de suivi de projet en architecture est de cette nature. Elle peut intégrer des expertises aussi diverses que la résistance des matériaux, les charpentes métalliques, la fabrication s’il s’agit de construire une usine, l’ergonomie, etc. Dans une certaine mesure l’exemple du pilotage d’avion de combat bi-place intègre deux expertises : pilote et navigateur correspondent à deux professions différentes, chacun n’exerçant que la sienne. Toutefois, le recouvrement entre ces deux domaines d’expertise est important et une certaine répartition des rôles reste possible, comme nous l’avons vu plus haut. Dans le cas des deux contrôleurs aériens, CR et CO ne correspondent pas à des professions. Un contrôleur a l’habitude de travailler alternativement sur les deux positions d’un quart à l’autre. Cependant, qu’il y ait des expertises différentes ou identiques, dès lors que les rôles globaux des opérateurs sont différents (ou les styles cognitifs comme le montre une étude de la coopération homme-machine [DAL 94]), le type de représentation de la situation utilisé par chacun diffère de celui de l’autre. Le conducteur d’une voiture n’en a pas la même représentation que son garagiste. Si ces personnes doivent coopérer, la chose est d’autant plus aisée que l’un et l’autre disposent de capacités de traduction d’un système de représentation dans l’autre. Dans l’exemple du contrôle aérien, il était courant que CO transmette une information à CR sous une forme compatible avec l’activité de CO et que CR reformule cette information tout à fait autrement (notamment dans les termes des actions à entreprendre) pour lui répondre. Un observateur ne disposant pas des connaissances nécessaires dans le domaine aurait d’ailleurs pu considérer que les deux tours de parole n’avaient aucune relation. Quand les expertises sont proches, il s’agit d’habiletés à procéder à des changements de point de vue, quand elles sont très éloignées, ces capacités de traduction relèvent de ce qu’on appelle l’explication, largement étudiée en informatique [KAR 95a&b]. Expliquer revient à produire à l’autre les indices nécessaires pour que cette personne puisse intégrer une information nouvelle à un réseau préexistant 174 L'ingénierie Cognitive : IHM et Cognition d’informations connues [KAR 96] et cela va plus loin qu’un simple changement de points de vue. – 6 Élaboration d’un modèle de soi-même et du partenaire. Les connaissances dans le domaine peuvent permettre à chaque agent d’inférer les buts et les sous-buts poursuivis par chacun à partir d’indices comportementaux, comme nous l’avons vu plus haut. Il arrive cependant que la connaissance de particularités psychologiques liées à chaque agent soit nécessaire pour produire ces inférences qui jouent un rôle majeur dans une gestion anticipée des interférences conduisant à des solutions plus optimales. Castelfranchi [CAS 98] parle de « mind reading ». Pour ce faire, l’agent doit avoir, non seulement un modèle de son partenaire, mais aussi un modèle de lui-même, car c’est la confrontation de ces modèles qui permettra de gérer les interférences. Cette question est très proche de la problématique de la confiance, telle qu’elle a été introduite dans le domaine de la coopération homme-machine par Muir [MUI 94] et reprise par Lee et Moray [LEE 94]. Muir a distingué trois étapes dans le développement de la confiance de l’humain dans la machine : (a) la prédictibilité (quand, en s’appuyant sur quelque expérience, l’humain peut prédire le comportement de la machine dans certaines situations connues), (b) « dependability 6» (quand la prédictibilité peut être étendue à un large ensemble de situations) et (c) la foi (quand on estime que l’agent va continuer à se comporter de la même manière dans le futur). Un certain nombre de difficultés des opérateurs humains avec des machines peuvent être éclairées par cette approche, en particulier les contournements d’une automation en laquelle on n’a pas confiance. Cependant, dans leurs travaux empiriques, Lee et Moray (op. cit. ) ont bien montré que la confiance dans la machine seule ne peut pas rendre compte à elle seule des passages entre le mode manuel et le mode automatique. C’est bien l’évolution du rapport entre la confiance en soi et la confiance dans la machine qui règle ces passages. De façon ultime, ce rapport est réglé par le degré d’élaboration d’un modèle de soi-même (opérateur humain) et d’un modèle du partenaire (machine). Ces élaborations se développent sur de longues périodes de temps et nous n’avons pas été en mesure de les observer dans nos travaux. Même avec l'expérience du glass cockpit, il y a encore des pilotes surpris par ce que font les machines [FUN 99] [SAR 92]. Le niveau d’abstraction de ces élaborations est bien mis en avant par J. Piaget [PIA 65] quand il le met en parallèle avec le niveau d’abstraction nécessaire au développement des opérations formelles chez un même individu. C’est ce qui le conduit à penser que le développement intellectuel va de pair avec le développement du savoir-coopérer. La perception d’un certain « sérieux » chez le partenaire. Coopération humaine et systèmes coopératifs 175 La Figure 5.3 résume l'ensemble des activités coopératives qui viennent d'être définies. Figure 5.3. Les trois niveaux d'abstraction des activités coopératives. 5.7. Perspectives Dans le cadre limité de ce texte, il ne nous est pas possible de dériver toutes les conséquences méthodologiques et pratiques de notre approche théorique. Ces conséquences sont de trois ordres. En premier lieu, ce cadre théorique est de nature à orienter des réflexions sur l’évaluation de la coopération. Nous avons déjà abordé ce thème par ailleurs [HOC 98a]. Il est crucial pour guider la conception, la formation et le soutien de la coopération, ainsi que pour donner des critères de choix entre des alternatives. En second lieu, ce cadre permet d’éclairer des recherches dans le domaine du CSCW pour suggérer des soutiens à la coopération. Nos travaux sur ce point ne font que commencer, à la fois dans le contrôle aérien et le pilotage d’avion de combat biplace. En troisième lieu et en allant beaucoup plus loin, ce cadre conduit à redéfinir le concept de « machine coopérative » et à tracer des perspectives de recherche en informatique et en automatique dans ce domaine. Sur cette question, Millot et Lemoine [MIL 98] ont déjà fait quelques avancées. 176 L'ingénierie Cognitive : IHM et Cognition 5.7.1. Évaluation de la coopération Comme toute autre activité cognitive, la coopération peut être évaluée de deux façons [BRA 97]. En premier lieu, on peut s’intéresser aux effets que produit la coopération sur la réalisation d’une tâche. On évalue alors la coopération en termes de performance externe (performance au sens strict) et les critères d’évaluation sont empruntés au domaine, par rapport à une performance optimale. Par exemple, dans le contrôle aérien, on sera sensible à la façon dont le trafic s’écoule dans le secteur, à la consommation en carburant des avions, à l’économie dans le détournement des routes, aux near-misses, etc. Nous qualifierons cette évaluation d’extrinsèque. En second lieu, on peut examiner le déroulement de la coopération par rapport à ce qui pourrait être un déroulement optimal. La coopération est alors évaluée en termes de performance interne et les critères d’évaluation sont d’ordre psychologique. Par exemple, on pourra s’intéresser à la charge mentale que cette activité représente. Nous parlerons alors d’évaluation intrinsèque. 5.7.1.1. Évaluation extrinsèque Depuis longtemps les chercheurs se sont intéressés à l’évaluation extrinsèque de la coopération, soit en comparant la performance obtenue à des tâches par des individus isolés à la performance d’équipes (en particulier, des comparaisons entre solos et duos), soit en comparant les performances d’équipes. Les résultats de ces travaux sont assez contrastés. Nous n’en ferons pas ici une revue exhaustive, mais nous en citerons seulement quelques exemples illustratifs pour souligner quelques questions qu’ils soulèvent. Des comparaisons entre solos et duos, dans des situations de résolution de problème, conduisent en général à la conclusion d’une supériorité des duos sur les solos dans la conduite de haut fourneau [DEL 95], l'aviation de ligne [KRE 95] ou la situation expérimentale de découverte [OKA 97]. Toutefois, ces travaux ne vont pas jusqu’à se donner un cadre de description des activités coopératives pour le mettre précisément en relation avec les activités de résolution de problème. Le travail de Okada et Simon [OKA 97], au moins pour le type de situation étudiée, a le mérite de cerner les raisons de la supériorité des duos. Du point de vue de la performance, les duos produisent davantage d’expériences cruciales. Du point de vue (intrinsèque) des activités de résolution de problème, ils considèrent davantage d’hypothèses, ce qui produit davantage d’explications et de confrontations d’idées alternatives. Ils produisent aussi davantage de justifications. Ce type d’approche, qui tente de construire un modèle explicatif des gains en performance, d’abord par le rôle de la coopération sur la résolution de problème, puis de la résolution de problème sur la performance nous paraît bien être la direction vers laquelle devraient s’orienter résolument les recherches. Le cadre que nous proposons a été conçu dans cette perspective. Coopération humaine et systèmes coopératifs 177 D’autres travaux ont tenté de mettre en relation la qualité de la coopération avec la qualité de la performance [ORA 93] [ROG 96] [SAM 94] [SAM 93]. La conclusion majeure de ces travaux est qu’il est extrêmement difficile de séparer les effets de la coopération et les effets de l’expertise dans le domaine. Par exemple, Rogalski [ROG 96], en étudiant une formation à la coopération dans le cockpit, montre que l’acquisition d’expertise dans le domaine précède l’acquisition du savoir-coopérer. Toutefois, une étude dans le domaine de l’aviation [STO 94] a mis en évidence une corrélation positive entre habileté à coopérer et performance dans la tâche, à niveau de savoir-faire constant. 5.7.1.2. Évaluation intrinsèque L’architecture cognitive que nous avons proposée pour décrire les activités coopératives fait apparaître de nombreuses relations entre elles. Toutes ces activités sont susceptibles de se soutenir mutuellement. Le principal critère d’évaluation intrinsèque de la coopération est donc la complétude des activités développées. Au niveau d’abstraction le plus modeste, celui de la coopération dans l’action, on conçoit que l’incapacité à inférer les buts et les sous-buts des autres agents conduise à enfermer la coopération dans des stratégies réactives, du fait de l’impossibilité de gérer les interférences par anticipation. Dans les situations de gestion de situation dynamique, les contraintes de temps peuvent alors être un empêchement majeur à permettre à cette coopération réactive de produire ses résultats à temps. Si cette identification des buts nécessite plus que des connaissances dans le domaine, c’està-dire la disponibilité de modèles des partenaires, c’est un manque de niveau d’abstraction qu’il faut combler. Il en ira de même si la résolution d’une interférence ne peut conduire à un bon résultat au niveau local. Si la construction d’un plan commun est nécessaire et que ce niveau d’abstraction est manquant, la performance sera médiocre ou/et la charge de travail excessive. Une grande partie des critères d’évaluation de la coopération homme-homme, dont Militello et al. [MIL 99] ont proposé une revue, sont cohérents avec le cadre que nous venons de proposer, mais nous pensons que ce cadre structuré pourrait permettre de les enrichir et de mieux identifier les sources d’inefficacité (ou d’efficacité) d’une coopération particulière. 5.7.2. Soutien à la coopération L’architecture que nous proposons peut également être utilisée pour définir les soutiens nécessaires à la coopération. Les membres d’une équipe peuvent potentiellement mettre en œuvre toutes les activités coopératives dont il a été question, mais ne pas être en mesure de le faire, faute de soutien. Plusieurs travaux mettent en avant l’importance du soutien au maintien du REFCOM [JON 97] [LEM 96]. Cette entité joue en effet un rôle crucial dans la gestion anticipée des interférences et il est naturel qu’on y accorde le plus d’attention. Toutefois, dans des 178 L'ingénierie Cognitive : IHM et Cognition situations où la gestion locale des interférences est acceptable, il ne faut pas négliger la conception d’aides locales, comme dans le cas de la coopération homme-machine où le savoir-coopérer de la machine ne peut être que limité. Par ailleurs, il faut également soutenir la négociation et la construction dynamique des significations [SCH 92]. Si l’on ne peut envisager de développer une machine qui dispose d’un minimum de savoir-coopérer, il n’est pas pour autant judicieux d’abandonner le cadre de la coopération pour analyser la relation homme-machine. En effet, même si la machine n’est pas en mesure d’exécuter une quelconque activité coopérative, elle peut être conçue pour soutenir son utilisateur qui, lui, dispose d’un savoir-coopérer dans l’exécution des activités de coopération homme-machine. En ce qui concerne la gestion des interférences, de nombreuses solutions existent en concevant des machines susceptibles de délivrer les rétroactions appropriées, y compris des rétroactions anticipées. Informer l’utilisateur sur ce qu’est en train de faire la machine et sur ce qu’elle va faire dans un proche avenir est un soutien considérable à la détection et à l’anticipation des interférences. 5.7.3. Machine coopérative Le cadre que nous proposons peut fournir une base pour la définition de ce que l’on peut considérer comme une « machine coopérative », au-delà d’un simple label publicitaire. On admettra aisément qu’il n’est pas raisonnable d’accepter qu’une machine soit qualifiée de coopérative si elle n’est capable de mettre en œuvre aucune des activités coopératives décrites dans le cadre que nous proposons. Par ailleurs, la structure des connaissances, des représentations et des activités qui est décrite dans notre architecture peut également fournir une base à la gradation du savoir-coopérer d’une machine. Il va de soi que cette base peut également s’appliquer à une équipe d’agents humains. 5.8. Conclusions Sans négliger l'intérêt des approches sociales de la coopération, le cadre théorique que nous proposons pour étudier la coopération cognitive nous semble nécessaire pour orienter l'évaluation de la coopération, son soutien et la conception de machines coopératives. Malgré ses restrictions, ce cadre permet d'étendre les modèles cognitifs individuels à l'étude du travail d'équipe, au moins dans les situations où la dimension cognitive du travail est majeure, en tout cas dans celle où les contraintes temporelles et les risques sont importants. Coopération humaine et systèmes coopératifs 179 Ce cadre a été conçu pour être productif à moyen terme dans la conception d'une relation homme-machine qui se rapproche de la coopération homme-homme. Dans cette perspective, le modèle humain joue évidemment un rôle privilégié, puisque l'une des composantes du système coopératif est un humain. Toutefois, il ne nous paraît pas raisonnable de vouloir à tout prix transférer toute la complexité de la coopération homme-homme sur la coopération homme-machine. Le couple hommemachine est évidemment une chimère et les limites actuelles de la machine ne permettent pas un tel transfert. Nous pensons néanmoins qu'il est possible de concevoir des machines coopératives, sur la base de l'état de l'art actuel, sans attendre le développement de recherches hors de portée. Il serait dommage d'en rester à un constat d'inaccessibilité de la complexité de la coopération pour des machines et de se contenter, de ce fait, de relations homme-machine médiocres, alors que l'on peut les améliorer. Par ailleurs, il est relativement aisé de concevoir des machines susceptibles de soutenir les humains dans leurs activités de coopération avec elles. Toutefois, le nécessaire développement des recherches sur cette question de la coopération homme-machine ne saurait fournir que des données exploratoires par rapport aux questions difficiles de leur mise en pratique dans des situations réelles. Tout accroissement de l’intelligence de la machine, même en termes de savoircoopérer, est susceptible de créer des effets de bord, non anticipés. Cependant, ce n’est qu’en développant des machines susceptibles de coopérer que l’on pourra espérer observer de tels effets et étudier les parades à mettre en œuvre. C'est bien entendu la poursuite d'une pluridisciplinarité entre les sciences de l'homme et les sciences de l'ingénieur qui permettra de calibrer convenablement les recherches à entreprendre. S'agissant de la psychologie, sans négliger la complexité du fonctionnement humain, il convient que cette discipline sache fournir des points de repère productifs pour les concepteurs. S'agissant de l'informatique, sans négliger les contraintes de faisabilité auxquelles elle est soumise, il convient que cette discipline sache aussi sortir du cadre strict de l'interaction ou de la communication homme-machine. 5.9. Bibliographie [AMA 92a] Amalberti, R. « Safety in risky process control. » Reliability Engineering and System Safety, 38, p. 99-108, 1992. [AMA 96] Amalberti, R. La conduite de systèmes à risques. Paris: Presses Universitaires de France, 1996. [AMA 92b] Amalberti, R., & Deblon, F. « Cognitive modelling of fighter aircraft's process control: a step towards an intelligent onboard assistance system. » International Journal of Man-Machine Studies, 36, p. 639-671, 1992. 180 L'ingénierie Cognitive : IHM et Cognition [AUS 62] Austin, J.L. How to do things with words. Oxford: Oxford University Press, 1962. [BAG 94] Bagnara, S., Rizzo, A., & Failla, A. « Organizational structures and distributed decision-making. » Le Travail Humain, 57, p. 387-400, 1994. [BAI 87] Bainbridge, L. « Ironies of automation. » In J. Rasmussen, K.D. Duncan, & J. Leplat (Eds.), New technology and human error. Chichester, UK: Wiley, p. 271-284, 1987. [BIL 91] Billings, C.E. Human-centered aircraft automation: a concept and guidelines (Technical Memorandum). Moffett field, CA: NASA, Ames Research Center, 1991. [BIS 81] Bisseret, A. « Application of signal detection theory to decision making in supervisory control: the effect of the operator's experience. » Ergonomics, 24, p. 81-94, 1981. [BLA 93] Blanford, A.E. « An agent-theoretic approach to computer participation in dialogue. » International Journal of Man-Machine Studies, 39, p. 965-998, 1993. [BOS 92] Boshuizen, H.P.A., & Schmidt, H.G. « On the role of biomedical knowledge in clinical reasoning by experts, intermediates and novices. » Cognitive Science, 16, p. 153184, 1992. [BOY 95] Boy, G. « "Human-like" system certification and evaluation. » In J.M. Hoc, P.C. Cacciabue, & E. Hollnagel (Eds.), Expertise and technology: cognition and humancomputer cooperation. Hillsdale, NJ: Lawrence Erlbaum Associates, p. 243-254, 1995. [BOW 95] Bowers, C., Deaton, J., Oser, R., Prince, C., & Kolb, M. « Impact of automation on aircrew communication and decision-making performance. » International Journal of Aviation Psychology, 5, p. 145-167, 1995. [BRA 97] Brannick, M.T., Salas, E., & Prince, C. Team performance assessment and measurement: theory, methods, and applications. Mahwah, NJ: Lawrence Erlbaum Associates, 1997. [BRE 98] Brézillon, P., Pomerol, J.C., & Saker, I. « Contextual and contextualized knowledge: an application in subway control. » International Journal of HumanComputer Studies, 48, p. 357-373, 1998. [CAM 96] Camus, J.F. (1996). La psychologie cognitive de l’attention. Paris: Armand Colin, 1996. [CAN 93] Cannon-Bowers, J.A., Salas, E., Converse, S.A. (1993). « Shared mental model in expert decision making teams. » In N.J. Castellan, Jr. (Ed.), Current issues in individual and group decision making, Hillsdale, NJ: Lawrence Erlbaum Associates, p. 221-246, 1993. [CAR 83] Card, S.K., Moran, T.P., & Newell, A. The psychology of human-computer interaction. Hillsdale, NJ: Lawrence Erlbaum Associates, 1983. [CAS 98] Castelfranchi, C. « Modelling social action for agents. » Artificial Intelligence, 103, p. 157-182, 1998. [CEL 97] Cellier, J.M., Eyrolle, H., & Mariné, C. « Expertise in dynamic environments. » Ergonomics, 40, p. 28-50, 1997. Coopération humaine et systèmes coopératifs 181 [CHA 00] Chauvin, C. « Des marques linguistiques aux processus cognitifs: application à l’analyse de l’activité d’anticollision à bord des navires de commerce. » Le Travail Humain, 63, p. 31-58, 2000. [CLA 93] Clark, A.A., & Smyth, G.G. « A co-operative computer based on the principles of human co-operation. » International Journal of Man-Machine Studies, 38, p. 3-22, 1993. [CLA 96] Clark, H.H. Using language. Cambridge, UK: Cambridge University Press, 1996. [CUN 67] Cuny, X. « La circulation de l'information dans un système élémentaire d'un service de transport. » Bulletin du CERP, XVI, p. 1-19, 1967. [DAL 94] Dalal, N.P., & Kasper, G.M. « The design of joint cognitive systems: the effect of cognitive coupling on performance. » International Journal of Human-Computer Studies, 40, p. 677-702, 1994. [DEA 00] Dearden, A., Harrison, M., & Wright, P. « Allocation of function: scenarios, context and the economics of effort. » International Journal of Human-Machine Studies, 52, p. 289-318, 2000. [DEB 92] Debernard, S., Vanderhaegen, F., & Millot, P. « An experimental investigation of dynamic allocation of tasks between air traffic controller and A.I. system. » Paper presented at the 5th IFAC/IFIP/IFORS/IEA MMS, Amsterdam, 1992. [DEL 95] Delsart, F. Diagnostic collectif dans la conduite de processus industriel: coopération et ergonomie des systèmes homme-homme et homme-machine. Thèse, Université de Paris 8, Saint-Denis, 1995. [DEN 97] Denecker, P., & Hoc, J.M. « Analysis of the effects of a support to anticipation in the supervision of a long time-lag process: the blast furnace. » In S. Bagnara, E. Hollnagel, M. Mariani, & L. Norros (Eds.), Time and space in process control - 6th European Conference on Cognitive Science Approach to Process Control (pp. 165-170). Roma: CNR, Istituto di Psicologia, 1997. [DIJ 99] Dijkstra, J. « User agreement with incorrect expert system advice. » Behaviour & Information Technology, 18, p. 399-411, 1999. [DOW 95] Dowell, J. « Coordination in emergency operations and the tabletop training exercise.» Le Travail Humain, 58, p. 85-102, 1995. [ELS 78] Elstein, A.S., Shulman, L.S., & Sprafka, S. Medical problem-solving. Harvard University Press, Cambridge, MA, 1978. [END 95a] Endsley, M. « Toward a theory of situation awareness in dynamic systems. » Human Factors, 37, p. 32-64, 1995. [END 95b] Endsley, M. « Measurement of situation awareness in dynamic systems. » Human Factors, 37, p. 65-84, 1995. [END 99] Endsley, M., & Kaber, D.B. « Level of automation effects on performance, situation awareness and workload in a dynamic control task. » Ergonomics, 42, p. 462492, 1999. 182 L'ingénierie Cognitive : IHM et Cognition [EPH 81] Ephrath, A.R., & Young, L.R. « Monitoring versus man-in-the-loop detection of aircraft control failures. » In J. Rasmussen & W.B. Rouse (Eds.), Human detection and diagnosis of system failures, Plenum, New York, p. 143-154, 1981. [FAL 89] Falzon, P. L'ergonomie cognitive du dialogue. Presses Universitaires de Grenoble, 1989. [FAL 94] Falzon, P. « Les activités méta-fonctionnelles et leur assistance. » Le Travail Humain, 57, p. 1-23, 1994. [FER 97] Ferber, J. « Les systèmes multi-agents: un aperçu général. » Techniques et Science Informatiques, 16, p. 979-1012, 1997. [FOU 84] Foushee, H.C. « Dyads and triads at 35,000 feet. Factors affecting group process and aircrew performance. » American Psychologist, 39, p. 885-893, 1984. [FUN 99] Funk, K., Lyall, B., Wilson, J., Vint, R., Niemczyk, M., Suroteguh, C., & Owen, G. « Flight deck automation issues. » International Journal of Aviation Psychology, 9, p. 109-123, 1999. [GAR 99] Garbis, C., & Wærn, Y. « Team coordination and communication in a rescue command staff: The role of public representations. » Le Travail Humain, 62, p. 273-291, 1999. [GAS 91] Gasser, L. « Social conceptions of knowledge and action: Distributed artificial intelligence foundations and open systems semantics. » Artificial Intelligence, 47, p. 107138, 1991. [GIB 88] Giboin, A. The process of intention communication in advisory interaction. Paper presented at the IFAC Third Man-Machine System Conference. Oulu, Finland, 1988. [GUE 99] Guerlain, S.A., Smith, P.J., Rudmann, S., Strohm, P., Smith, J.W., Svirbely, J., & Sachs, L. « Interactive critiquing as a form of decision support: An empirical evaluation. » Human Factors, 41, p. 72-89, 1999. [GLO 97] Glover, S.M., Prawitt, D.F., & Spilker, B.C. « The influence of decision aids on user behavior: implications for knowledge acquisition and inappropriate reliance. » Organizational Behavior and Human Decision Processes, 72, p. 232-255, 1997. [GRE 91] Green, T.R.G., & Hoc, J.M. « What is Cognitive Ergonomics? » Le Travail Humain, 54, p. 291-304, 1991. [GRI 75] Grice, H.P. « Logic and conversation. » In P. Cole & J. Morgan (Eds.), Syntax and semantics 3: Speech acts. Academic Press, London, p. 41-58, 1975. [GRU 95] Grusenmeyer, C. « Shared functional representation in cooperative tasks: the example of shift changeover. » International Journal of Human Factors in Manufacturing, 5, p. 163-176, 1995. [HEL 97] Helander, M.G., Landauer, T.K., & Prabhu, P.V. (Eds.). Handbook of humancomputer interaction. North-Holland, Amsterdam, 1997. [HEL 94] Helmreich, R.L., & Schaefer, H.G. « Team performance in the operating room. » In M.S. Bogner (Ed.). Human error in medecine. Lawrence Erlbaum Associates, Hillsdale, NJ, p. 225-253, 1994. Coopération humaine et systèmes coopératifs 183 [HOC 88] Hoc, J.M. Cognitive psychology of planning. Academic Press, London, 1988. [HOC 93] Hoc, J.M. « Some dimensions of a cognitive typology of process control situations. » Ergonomics, 36, p. 1445-1455, 1993. [HOC 95a] Hoc, J.M. « Planning in diagnosing a slow process: some implications on the design of human operator computer support. » Zeitschrift für Psychologie, 203, p. 101115, 1995. [HOC 96] Hoc, J.M. Supervision et contrôle de processus: la cognition en situation dynamique. Presses Universitaires de Grenoble, France, 1996. [HOC 98a] Hoc, J.M. « How can we evaluate the quality of human-machine cooperation? » In F. Darses & P. Zaraté (Eds.), COOP'98. Third International Conference on the Design of Cooperative systems. INRIA, Le Chesnay, France, p. 121-130, 1998. [HOC 95b] Hoc, J.M., & Amalberti, R. « Diagnosis: some theoretical questions raised by applied research. » Current Psychology of Cognition, 14, p. 73-100, 1995. [HOC 98b] Hoc, J.M., & Lemoine, M.P. « Cognitive evaluation of human-human and humanmachine cooperation modes in air traffic control. » International Journal of Aviation Psychology, 8, p. 1-32, 1998. [HOC 00] Hoc, J.M., Morineau, T., Denecker, P. Gestion de l’espace problème et organisation temporelle de l’activité de contrôleurs aériens professionnels sur simulateur (Rapport de Recherche). CENA, Projet AMANDA, Athis-Mons, France, 2000. [HOC 02] Hoc, J.M., & Carlier, X. (2002). « Role of a common frame of reference in cognitive cooperation: sharing tasks between agents in air traffic control. » Cognition, Work, & Technology, 4, p. 37-47, 2002. [HOL 83] Hollnagel, E., & Woods, D.D. « Cognitive systems engineering: new wine in new bottles. » International Journal of Man-Machine Studies, 18, p. 583-600, 1983. [HUT 95] Hutchins, E. « How a cockpit remembers its speed. » Cognitive Science, 19, p. 265288, 1995. [JAC 84] Jackson, P., & Lefrere, P. « On the application of rule-based techniques to the design of advice-giving systems. » International Journal of Man-Machine Systems, 20, p. 63-86, 1984. [JAN 72] Janis, I.L. Victims of groupthink. Houghton Mifflin, Boston, 1972. [JEN 99] Jentsch, F., Barnett, J., Bowers, C., & Salas, E. « Who is flying this plane anyway? What mishaps tell us about crew member role assignment and air crew situation awareness. » Human Factors, 41, p. 1-14, 1999. [JON 95] Jones, P. « Cooperative work in mission operations: Analysis and implications for computer support. » Computer Supported Cooperative Work, 3, p. 103-145, 1995. [JON 97] Jones, P.M., & Jasek, C.A. « Intelligent support for activity management (ISAM): an architecture to support distributed supervisory control. » IEEE Transactions on Systems, Man, and Cybernetics - Part A: Systems and Humans, 27, p. 274-288, 1997. 184 L'ingénierie Cognitive : IHM et Cognition [JON 94] Jones, P.M., & Mitchell, C.M. « Model-based communicative acts: humancomputer collaboration in supervisory control. » International Journal of HumanComputer Studies, 41, p. 527-551, 1994. [KAR 96] Karsenty, L. « Une définition psychologique de l'explication. » Intellectica, 96, p. 327-345, 1996. [KAR 00] Karsenty, L. « Cooperative work: the role of explanation in creating a shared problem representation. » Le Travail Humain,63, p. 289-309, 2000. [KAR 95a] Karsenty, L., & Brézillon, P. « Cooperative problem solving and explanation. » International Journal of Expert Systems with Applications, 8, p. 445-462, 1995. [KAR 95b] Karsenty, L., & Brézillon, P. « Coopération homme-machine et explication. » Le Travail Humain, 58, p. 289-310, 1995. [KOO 91] Koopman, P., & Pool, J. « Organizational decision-making: models, contingencies and strategies. » In J. Rasmussen, B. Brehmer, & J. Leplat (Eds.), Distributed decisionmaking: cognitive models for cooperative work. Wiley, Chichester, UK, p. 19-46, 1991. [KRA 90] Kræmer, K.L., & Pinsonneault, A. « Technology and groups: assessment of the empirical research. » In J. Galegher, R.E. Kraut, & C. Egido (Eds.), Intellectual teamwork, Lawrence Erlbaum Associates, Hillsdale, NJ, p. 375-405, 1990. [KRE 95] Krems, M.H., & Severin, K. Collaborative problem-solving in the cockpit: crew communication and strategic decision-making. Paper presented at the 8th Symposium on Aviation Psychology. Columbus, OH, 1995. [LAY 94] Layton, C., Smith, P.J., & McCoy, E. « Design of a cooperative problem-solving system for en-route flight planning: an empirical evaluation. » Human Factors, 36, p. 94119, 1994. [LEE 94] Lee, J., & Moray, N. « Trust, self-confidence, and operators' adaptation to automation.» International Journal of Human-Computer Studies, 40, p. 153-184, 1994. [LEM 96] Lemoine, M.P., Debernard, S., Crevits, I., & Millot, P. « Cooperation between humans and machines: first results of an experiment with a multi-level cooperative organisation in air traffic control. » Computer Supported Cooperative Work, 5, p. 299321, 1996. [LEP 83] Leplat, J., & Hoc, J.M. « Tâche et activité dans l'analyse psychologique des situations.» Cahiers de Psychologie Cognitive, 3, p. 49-63, 1983. [LOI 99] Loiselet, A., & Hoc, J.M. Assessment of a method to study cognitive cooperation in fighter aircraft piloting. Paper presented at CSAPC'99. Villeneuve d'Ascq, France, Septembre, 1999. [MAN 96] Mantovani, G. « Social context in HCI: a new framework for mental models, cooperation, and communication. » Cognitive Science, 20, p. 237-269, 1996. [MAS 96] Masson, M. Réflexions sur les systèmes adaptatifs d'assistance aux opérateurs. » Le Travail Humain, 59, p. 277-298, 1996. [MAR 73] Martin, J. Design of man-computer interaction. Prentice Hall, Englewoods Cliffs, NJ, 1973. Coopération humaine et systèmes coopératifs 185 [MAR 75] Marwell, G., & Schmitt, D. Co-operation — an experimental analysis. Academic Press, London, 1975. [MCC 00] McCarthy, J.C., Fallon, E., & Bannon, L. Dialogues on function allocation [Special Issue]. International Journal of Human-Computer Studies, 52, 2000. [MET 93] M.E.T.T. (Ministère de l'Équipement, des Transports et du Tourisme). Rapport de la commission d'enquête sur l'accident survenu le 20 Janvier 1992 près du Mont Sainte Odile (Bas Rhin) à l'Airbus A. 320 immatriculé F-GGED exploité par la Compagnie Air Inter. Service de l'Information Aéronautique, Athis-Mons, France, 1993. [MIL 99] Militello, L.G., Kyne, M.M., Klein, G., Getchell, K., & Thordsen, M. « A synthesized model of team performance. » International Journal of Cognitive Ergonomics, 3, p. 131-158, 1999. [MIL 97] Millot, P., & Hoc, J.M. Human-machine cooperation: metaphor or possible reality? Paper presented at ECCS'97. Workshop on Human-Machine Cooperation. Manchester, UK, April, 1997. [MIL 98] Millot, P., & Lemoine, M.P. An attempt for generic concepts toward humanmachine cooperation. Paper presented at IEEE SMC. San Diego, CA, Octobre, 1998. [MIL 95] Millot, P., & Mandiau, R. « Man-machine cooperative organizations: formal and pragmatic implementation methods. » In J.M. Hoc, P.C. Cacciabue, & E. Hollnagel (Eds.), Expertise and technology: cognition & human-computer cooperation. Hillsdale, NJ: Lawrence Erlbaum Associates, p. 213-228, 1995. [MOS 97] Mosier, K.L. « Myths of expert decision-making and automated decision aids. » In C.E. Zsambok & G. Klein (Eds.), Naturalistic decision-making. Mahwah, NJ: Lawrence Erlbaum Associates, p. 319-330, 1997. [MOS 98] Mosier, K.L., Skitka, L.J., Heers, S., & Burdick, M. « Automation bias: decisionmaking and performance in high-tech cockpits. » International Journal of Aviation Psychology, 8, p.47-63, 1998. [MOU 97] Mouloua, M., & Koonce, J.M. Human-automation interaction: research and practice. Mahwah, NJ: Lawrence Erlbaum Associates, 1997. [MUI 94] Muir, B.M. « Trust in automation: Part I. Theoretical issues in the study of trust and human intervention in automated systems. » Ergonomics, 37, p. 1905-1922, 1994. [NAS 96] Nass, C., Fogg, B.J., & Moon, Y. « Can computers be teammates? » International Journal of Human-Computer Studies, 45, p. 669-678, 1996. [NAV 81] Navarro, C., Terrier, P., & Courteix, S. « Structure organisationnelle et régulation de l'activité de travail: le cas du contrôleur aérien. » Revue Internationale de Psychologie Sociale, 4, p. 45-68, 1981. [NOR 86] Norman, D.A., & Draper, S.W. (Eds.). User centered design. Hillsdale, NJ: Lawrence Erlbaum Associates, 1986. [OGD 88] Ogden, W.C. « Using natural language interfaces. » In M. Helander (Ed.), Handbook of Human-Computer Interaction. Elsevier, Amsterdam, p. 281-299, 1988. 186 L'ingénierie Cognitive : IHM et Cognition [OKA 97] Okada, T., & Simon, H.A. « Collaborative discovery in a scientific domain. » Cognitive Science, 21, p. 109-146, 1997. [OLD 97] Older, M.T., Waterson, P.E., & Clegg, C.W. « A critical assessment of task allocation methods and their applicability. » Ergonomics, 40, p. 151-171, 1997. [OLS 97] Olson, G.M., & Olson, J.S. « Research on computer supported cooperative work. » In M. Helander, T.K. Landauer, & P. Prabhu (Eds.), Handbook of Human-Computer Interaction. Amsterdam: North-Holland, p. 1433-1456, 1997. [ORA 93] Orasanu, J., & Salas, E. « Team decision-making in complex environments. » In G.A. Klein, J. Orasanu, R. Calderwood, & C.E. Zsambock (Eds.), Decision-making in action: models and methods. Ablex, Norwood, NJ, p. 327-345, 1993. [PAR 97] Parasuraman, R. « Humans and automation: Use, misuse, disuse, abuse. » Human Factors, 39, p. 230-253, 1997. [PAR 96] Parasuraman, R., Mouloua, M., & Molloy, R. « Effects od adaptive task allocation on monitoring of automated systems. » Human Factors, 38, p. 665-679, 1996. [PAV 94] Pavard, B. (Ed.). Systèmes coopératifs: de la modélisation à la conception. Octares, Toulouse, 1994. [PIA 65] Piaget, J. Études sociologiques. Droz, Genève, 1965. [POI 95] Poitrenaud, S. « The Procope Semantic Network: an alternative to action grammars. » International Journal of Human-Computer Studies, 42, p. 31-69, 1995. [RAS 86] Rasmussen, J. Information processing and human-machine interaction. NorthHolland, Amsterdam, 1986. [RAU 98] Raufaste, E., Eyrolle, H., & Mariné, C. « Pertinence generation in radiological diagnosis: spreading activation and the nature of expertise. » Cognitive Science, 22, p. 517-546, 1998. [REA 88] Reason, J. « Cognitive aids in process environments: prostheses or tools? » In E. Hollnagel, G. Mancini, & D.D. Woods (Eds.), Cognitive engineering in complex dynamic worlds. Academic Press, London, p. 7-14, 1988. [REA 90] Reason, J. Human error. Cambridge University Press, Cambridge, 1990. [RIC 90] Richard, J.F. Les activités mentales. Comprendre, raisonner, trouver des solutions. Paris: Armand Colin, 1990. [RIE 82] Rieger, C.A., & Greenstein, J.S. « The allocation of tasks between the human and computer in automated systems. » Proceedings of the IEEE 1982 International Conference on "Cybernetics and Society", IEEE, New York, p. 204-208, 1982. [ROC 87] Rochlin, G.I., La Porte, T.R., & Roberts, K.H. « The self-designing high-reliability organization: aircraft carrier flight operations at sea. » Naval War College Review, 40, p. 76-90, 1987. [ROG 94] Rogalski, J. « Formation aux activités collectives. » Le Travail Humain, 57, p. 425443, 1994. Coopération humaine et systèmes coopératifs 187 [ROG 96] Rogalski, J. « Cooperation processes in dynamic environment management: evolution through training experienced pilots in flying a highly automated aircraft. » Acta Psychologica, 91, p. 273-295, 1996. [ROT 88] Roth, E.M., Bennett, K.B., & Woods, D.D. « Human interaction with an "intelligent" machine. » In E. Hollnagel, G. Mancini & D.D. Woods (Eds.), Cognitive engineering in complex dynamic worlds. London: Academic Press, p. 23-69, 1988. [ROT 97] Roth, E.M., Malin, J.T., & Schreckenghost, D.L. « Paradigms for intelligent interface design. » In M. Helander, T.K. Landauer, & P. Prabhu (Eds.), Handbook of human-computer interaction. Amsterdam: North-Holland, p. 1177-1201, 1997. [RUM 86] Rumelhart, D.E., & McClelland (Eds.). Parallel distributed processing: explorations in the micro-structure of cognition. Vol. 1: Foundations. Cambridge, MA: MIT Press, 1986. [SAA 99] Saad, F., & Villame, T. « Intégration d'un nouveau système d'assistance dans l'activité des conducteurs d'automobile. » In J.G. Ganascia (Ed.), Sécurité et cognition (pp. 105-114). Paris: Hermès, 1999. [SAL 95] Salas, E., Prince, C., Baker, D.P., & Shrestha, L. « Situation awareness in team performance: implications for measurement and training. » Human Factors, 37, p. 123136, 1995. [SAM 94] Samurçay, R., & Delsart, F. « Collective activities in dynamic environment management: functioning and efficiency. » Le Travail Humain, 57, p. 277-296, 1994. [SAM 93] Samurçay, R., & Rogalski, J. « Cooperative work and decision-making in emergency management. » Le Travail Humain, 56, 53-77, 1993. [SAR 92] Sarter, N., & Woods, D.D. « Pilot interaction with cockpit automation. I: operational experiences with the Flight Management System. » International Journal of Aviation Psychology, 2, p. 303-321, 1992. [SAR 94] Sarter, N., & Woods, D.D. « Pilot interaction with cockpit automation II: an experimental study of pilots' model and awareness of the Flight Management System (FMS). » International Journal of Aviation Psychology, 4, p. 1-28, 1994. [SAR 95] Sarter, N., & Woods, D.D. « "How in the world did we get into that mode?" Mode error and awareness in supervisory control. » Human Factors, 37, p. 5-19, 1995. [SAV 84] Savoyant, A. « Définition et voies d'analyse de l'activité collective des équipes de travail. » Cahiers de Psychologie Cognitive, 4, p. 273-284, 1984. [SCH 91] Schmidt, K. « Cooperative work: a conceptual framework. » In J. Rasmussen, B. Brehmer, & J. Leplat (Eds.), Distributed decision-making: cognitive models for cooperative work, Wiley, Chichester, UK, p. 75-110, 1991. [SCH 94] Schmidt, K. « Cooperative work and its articulation: requirements for computer support. » Le Travail Humain, 57, p. 345-366, 1994. [SCH 92] Schmidt, K., & Bannon, L. « Taking CSCW seriously. » Computer Supported Cooperative Work, 1, p. 7-40, 1992. [SEA 69] Searle, J.R. Speech acts. Cambridge, UK: Cambridge University Press, 1969. 188 L'ingénierie Cognitive : IHM et Cognition [SHE 88] Sheridan, T.B. « Task allocation and supervisory control. » In M. Helander (Ed.) Handbook of human-computer interaction, Amsterdam, North-Holland, p. 159-173, 1988. [SHE 96] Sheridan, T.B. « Speculations on the future relations between humans and automation. » In R. Parasuraman & M. Mouloua (Eds.), Automation and human performance. Mahwah, NJ: Lawrence Erlbaum Associates, 1996. [SHI 77] Shiffrin, R.M., & Schneider, W. « Controlled and automatic human information processing. II.: perceptual learning, automatic attending and a general theory. » Psychological Review, 84, p. 127-190, 1977. [SKI 99] Skitka, L.J., Mosier, K.L., & Burdick, M. « Does automation bias decision-making? » International Journal of Human-Computer Studies, 51, p. 991-1006, 1999. [SMI 75] Smith, H.T., & Crabtree, R.G. « Interactive planning: a study of computer aiding in the execution of a simulated scheduling task. » International Journal of Man-Machine Studies, 7, p. 213-231, 1975. [SMI 80] Smith, H.T., & Green, T.R.G. (Eds.). Human interaction with computers. London: Academic Press, 1980. [SMI 97] Smith, P.J., McCoy, E., & Layton, C. « Brittleness in the design of cooperative problem-solving systems: the effects on user performance. » IEEE Transactions on Systems, Man, and Cybernetics - Part A: Systems and Humans, 27, p. 360-371, 1997. [SPE 77] Spérandio, J.C. « La régulation des modes opératoires en fonction de la charge de travail chez les contrôleurs de trafic aérien. » Le Travail Humain, 40, p. 249-256, 1977. [SPE 86] Sperber, D., & Wilson, D. Relevance, communication, and cognition. Oxford: Basil Blackwell, 1986. [STO 94] Stout, R.J., Salas, E., & Carson, R. « Individual task proficiency and team process: What’s important for team functioning. » Military Psychology, 6, p. 177-192, 1994. [TER 90] Terssac De, G., & Chabaud, C. « Référentiel opératif commun et fiabilité. » In J. Leplat & G. De Terssac (Eds.), Les facteurs humains de la fiabilité Octarès, Toulouse, p. 110-139, 1990. [TUR 98] Turner, R.M. « Context-mediated behavior for intelligent agents. » International Journal of Human-Computer Studies, 48, p. 307-330, 1998. [VYG 78] Vygotski, L. Mind in society. The development of higher psychological processes. Cambridge, MA: Harvard University Press, 1978. [WAE 89] Wærn, Y. Cognitive aspects of computer supported tasks. Chichester, UK: Wiley, 1989. [WIE 93] Wiener, E., Kanki, B., & Helmreich, R. (Eds.). Cockpit Resource Management. New York: Academic Press, 1993. [WRI 00] Wright, P., Dearden, A., & Fields, B. « Function allocation: a perspective from studies of work practice. » International Journal of Human-Machine Studies, 52, p. 335355, 2000.