Coopération humaine et systèmes coopératifs1

Transcription

Coopération humaine et systèmes coopératifs1
Hoc, J.M. (2003). Coopération humaine et systèmes coopératifs. In G. Boy (Ed.),
Ingénierie cognitive. IHM et cognition (pp. 139-187). Paris : Hermès.
Chapitre 5
Coopération humaine
et systèmes coopératifs1
5.1. Introduction
5.1.1. L'évolution de la conception de la relation homme-machine
La nature des relations entre les humains et les machines a considérablement
évolué depuis le début de l’ère industrielle. Les relations purement physiques se sont
transformées en des relations plus intellectuelles, tant et si bien que les machines
dont il est maintenant question sont essentiellement des ordinateurs. Depuis le
milieu du XXe siècle, les progrès de l’intelligence artificielle ont considérablement
accru les capacités intellectuelles des ordinateurs. Nous entendons ici le
développement de l’intelligence par l’accroissement des capacités d’adaptation d’un
système cognitif, notamment par l’élaboration de modèles internes, éventuellement
très abstraits, qui permettent d’anticiper et de concevoir des environnements
(naturels ou artéfactuels).
Dans un premier temps, les ordinateurs mettaient en œuvre des programmes très
rigides et le recours à l’humain était très fréquent (en particulier pour saisir des
informations). C’est alors qu’est progressivement apparu un courant de recherche
sur les interactions homme-machine (IHM)2. Ce courant a d’abord largement
1
Chapitre rédigé par Jean-Michel HOC.
Nous conserverons cette abréviation, bien qu’elle puisse prêter à confusion. En
effet, elle est indifféremment utilisée pour signifier les interactions ou les interfaces
2
140 L'ingénierie Cognitive : IHM et Cognition
exploité les connaissances en psychologie des activités sensori-motrices pour
concevoir des interfaces adaptées à leurs utilisateurs [MAR 73]. Si ces travaux se
poursuivent, avec l’introduction de nouvelles interfaces [HEL 97], jusqu’à exploiter
la multimodalité, les questions vives qui ont été posées à la recherche se sont
progressivement éloignées de la structure de surface des interfaces pour s’enfoncer
dans la structure profonde des représentations et des raisonnements utilisés par les
programmes [CAR 83] [GRE 91] [NOR 86] [SMI 80] [WAE 89]. C’est que les
humains quittaient le simple rôle de « servant » d’une machine sans yeux et sans
oreille pour interagir avec elle dans leurs propres tâches (ex. : pour accéder à des
bases de donnée, pour concevoir des textes, voire des programmes). Le problème de
la compatibilité de la machine avec la boucle « signal-réponse » se déplaçait vers
des boucles plus longues impliquant des signes et des concepts. Une façon de
résoudre ces problèmes a été de concevoir des programmes « human-like »,
raisonnant et se représentant les choses comme les humains [BOY 95]. Toutefois,
cette approche n’est pas la seule possible — une telle compatibilité pouvant être
assurée par l’explication [KAR 95a&b], qui ne nécessite pas toujours de longs
dialogues en pouvant s’appuyer sur des images.
Avec le développement des capacités de communication des ordinateurs, grâce à
des programmes appropriés (reconnaissance perceptive, reconnaissance et synthèse
de la parole), le courant IHM a rapidement intégré une communauté de recherche,
notamment issue de la linguistique computationnelle, travaillant sur la
communication homme-machine [BLA 93] [JON 94] [OGD 88] [PAV 94]. Il s’est
agi, non seulement d’accroître les performances linguistiques des ordinateurs, mais
aussi leurs performances communicationnelles, en s’inspirant d’un large spectre de
travaux en sciences sociales [AUS 62] [GRI 75] [SEA 69] [SPE 86]. Au sein de la
communication homme-ordinateur, qui aurait pu n’être conçue qu’au seul niveau
syntaxique, s’est immédiatement posé le problème de la coopération. Les agents
communiquent pour se comprendre. La coopération est nécessaire à la
compréhension [CLA 96]. Par conséquent, il n’y a pas de communication sans
coopération. Toutefois, à ces travaux manquait un maillon important : l’action. En
effet, dans les situations de travail, les agents s’efforcent de se comprendre pour agir
en commun.
homme-machine. Dans le sens large adopté ici, IHM renvoie aux interactions, qui
intègrent un partage d’informations (interfaces) et un partage d’activité entre humain
et machine.
Coopération humaine et systèmes coopératifs 141
5.1.2. Le point de vue de la coopération homme-machine dans l’étude des
accidents et des difficultés de l’opérateur humain face à l’automation
C’est alors que d’une conception de la coopération enchâssée dans les besoins de
la communication, les travaux se sont orientés vers l’étude de la coopération
cognitive dans la réalisation des tâches. La communication devenait en quelque sorte
le moyen de la coopération, tout autant que l’inverse. Ce domaine de recherche reste
toutefois en émergence et le thème de la coopération homme-machine n’en est pas
encore à bénéficier du statut de marque déposée. Son émergence peut être située au
moment de la publication de l'article de Hollnagel et Woods qui défendait
l'opportunité d'analyser les système homme-machine comme des « Joint Cognitive
Systems » [HOL 83]. Cette approche s'appliquait tout naturellement à la relation
homme-système expert, dont la performance apparaissait bien meilleure lorsque
l'utilisateur menait le même type de raisonnement en parallèle avec le système, en
étant ainsi en mesure de filtrer les données pertinentes [ROT 88]. En aéronautique la
notion d’assistance adaptative s’imposait, avec un accent sur la compréhension
mutuelle des actions et intentions des partenaires [BIL 91] [MAS 96].
Le point de vue de la coopération homme-machine s’est imposé devant certains
échecs retentissants de l’introduction de l’automation dans les systèmes complexes
et à risques. Dans ces systèmes, les opérateurs humains exercent des responsabilités
cruciales (centrales nucléaires, aviation, anesthésie, etc.), alors même que les
machines peuvent agir de façon relativement autonome. Si l’on ne considère la
machine que comme un outil peu sophistiqué, on est renvoyé à des interventions
« ergonomiques » de soulignement des informations pertinentes sur les interfaces.
Mais, à force de tout souligner, on ne met plus rien en évidence. Si l’ordinateur avait
été un humain dans les exemples qui suivent, n’aurait-on pas parlé de défaut de
coopération ? En tout cas, les concepteurs étaient des humains et les utilisateurs des
systèmes informatiques ont tendance à se comporter vis-à-vis d’eux comme s’ils
l’étaient [NAS 96].
– Dans l’erreur de mode de l’accident de l’Airbus du Mont-Sainte-Odile
(M.E.T.T., 1993). Si la commission d’enquête a vu juste, en introduisant
‘33’ dans l’ordinateur, le pilote voulait commander un angle de descente de
3.3° que la machine a interprété comme une vitesse de descente de 3.300
pieds/min. Si l’intention du pilote avait pu être identifiée grâce au contexte
(altitude de l’avion en approche d’aéroport au-dessus d’un massif
montagneux), l’erreur aurait été détectée et l’accident évité. En termes de
coopération entre humains, on parlerait d’un défaut de référentiel commun.
–
Dans l’incident de Three-Mile Island [REA 90]. L’opérateur humain ne
savait pas que l’indication du synoptique (vanne fermée) signifiait, non pas
l’état d’une vanne (en fait, coincée ouverte), mais la mémoire de son action
(fermer la vanne). Il s’agit là encore d’un défaut de référentiel commun.
142 L'ingénierie Cognitive : IHM et Cognition
Dans l’aviation au moins, une forte proportion d’accidents met en cause des
problèmes entre les humains et les automatismes [FUN 99]. Plus généralement,
quatre grands types de difficultés rencontrées par les humains face à l’automation
dans ces systèmes sont souvent soulignées [PAR 97]. Leurs traductions en termes de
coopération est assez immédiate.
– Perte d’expertise. Certains auteurs ont montré que les idées reçues sur les
bienfaits de l’automation en termes d’accroissement de l’expertise humaine
étaient loin d’être confirmées par les faits qui montrent, au contraire, une
détérioration [MOU 97] [MOS 97] [ROT 97]. Quand la machine assure les
diagnostics de haut niveau, les situations inconnues de la machine sont trop
rares pour que les opérateurs humains puissent y entretenir leurs habiletés et
le risque est grand pour qu’ils échouent [SHE 88]. Il est souvent suggéré
d’engager les opérateurs à exercer un contrôle mutuel sur la machine pour
conserver leurs habiletés. Quand la machine prend en charge les activités de
bas niveau, c’est l’entretien des automatismes (par exemple sensorimoteurs) qui n’est plus assuré. De plus, les opérateurs humains perdent
également les rétroactions rapprochées de la conduite du système, ce qui
conduit à une perte de conscience de la situation dommageable quand il est
nécessaire de reprendre le contrôle manuel, en quelque sorte « à froid »
[EPH 81] [END 99]. Il est alors recommandé de réintroduire les
rétroactions, sous une forme ou sous une autre. C’est recommander le
maintien d’un référentiel commun entre les humains et les ordinateurs, en
les considérant comme des systèmes redondants qui peuvent accroître la
fiabilité du système homme-machine dans son ensemble [SHE 96].
–
Contentement. Certaines études ont montré que, même avec des opérateurs
confirmés et très au clair des limites de performance de la machine, la
solution proposée par la machine pouvait être adoptée même si elle était loin
d’être optimale (par exemple des pilotes de ligne [LAY 94] [MOS 98] [SMI
97] ou des contrôleurs de trafic aérien [HOC 98b]). Ce type de résultat est
évidemment reproduit dans des situations de laboratoire, avec des sujets tout
venants [DIJ 99] [GLO 97] [SKI 99]. Ces phénomènes de contentement
montrent que libérer les opérateurs d’une tâche ne devrait pas les libérer de
sa supervision, dans la mesure où ils en sont responsables. L’un des risques
encourus par l’automation est un partage de la supervision sur des parties
étanches du champ supervisé, l’opérateur ne supervisant vraiment que la
partie où il agit. Si l’automation n’est pas conçue dans la seule perspective
d’accroître la charge du système homme-machine, en permettant de confier
aux opérateurs des tâches supplémentaires, il est recommandé que la
machine propose plusieurs solutions et non pas une seule [CLA 93] [SMI
97]. Ainsi, la supervision et le contrôle mutuel peuvent être encouragées et
la performance de l’ensemble du système homme-machine peut être
meilleure que celle de chacune de ses composantes prises isolément. Les
Coopération humaine et systèmes coopératifs 143
situations les plus intéressantes à examiner sont évidemment celles où le
système est mis en défaut et montre sa fragilité [ROT 97].
–
Confiance. Le risque majeur que les opérateurs ont à gérer est la perte de
maîtrise de la situation [AMA 96] [HOC 96]. Par exemple, Amalberti cite le
cas de pilotes confirmés dans un stage de remise à niveau pour l’utilisation
d’une assistance à l’atterrissage qui ne l’utilisent pas de peur que le système
ne les entraînent dans une situation qu’ils ne maîtriseraient pas [AMA 92a].
Ce phénomène illustre bien, dans une situation réelle, le mécanisme de
régulation qui fait passer du contrôle manuel au contrôle automatique et
inversement. Il a été modélisé dans une situation de laboratoire utilisant un
micromonde dynamique, sujet à des incidents, où le contrôle manuel pouvait
conduire à une meilleure performance [LEE 94]. Dans leurs stratégies de
gestion des ressources, les sujets de l’expérience s’appuyaient sur le rapport
entre leur confiance en eux-mêmes (en faveur de l’adoption du contrôle
manuel) et leur confiance dans l’ordinateur (en faveur de l’adoption du
contrôle automatique). Cette approche expérimentale s’appuyait sur les
travaux théoriques de Muir [MUI 94] qui rendait compte de l’évolution de la
confiance par une construction progressive d’un modèle, de soi-même ou de
la machine. Au départ, sans aucun modèle, le recours à l’un ou l’autre agent
ne peut s’appuyer que sur la foi. Mais, progressivement, par observation du
comportement, l’agent paraît cohérent et semble obéir à des règles dans une
classe délimitée de situations, puis cette classe s’accroît. Il en ressort un
modèle de soi-même et un modèle du partenaire dont il a été prouvé qu’ils
jouaient un rôle important dans la coopération [CAS 98] [JON 94] [ROG
94] [SAR 94]. Toutefois, une « surconfiance » dans le système peut
s’installer quand les limites du système n’ont pas été suffisamment
explorées par l’opérateur, comme c’est souvent le cas dans l’aviation [FUN
99]. Une telle surconfiance ne doit pas être confondue avec le phénomène de
contentement dont il vient d’être question.
–
Perte d’adaptabilité. Reason [REA 88] a exprimé ce phénomène de façon
très percutante, en rejoignant les critiques de Bainbridge [BAI 87] dans son
chapitre célèbre sur les « ironies de l’automation » : « Les concepteurs de
systèmes ont involontairement créé des situations de travail dans lesquelles
bien des caractéristiques normalement adaptatives de la cognition humaine
sont transformées en des handicaps dangereux » (p. 7). Les heuristiques
humaines, de nature anticipative, sont l’une des caractéristiques en question
dans cette citation, qui sont souvent contrariées par une conception réactive
de la cognition humaine : l’opérateur n’est supposé intervenir que lorsque la
machine a échoué, mais les rétroactions nécessaires aux stratégies
anticipatives ne sont pas fournies. La fameuse erreur de mode témoigne
également d'un manque de rétroaction [SAR 95] tout autant que de l'absence
de reconnaissances des intentions du partenaire. Ce n’est que dans le cadre
144 L'ingénierie Cognitive : IHM et Cognition
d’une conception coopérative de la relation homme-machine que l’on peut
se poser le problème de ce que la machine doit transmettre à l’opérateur
pour que ce dernier puisse jouer son rôle. Cette situation correspond bien au
paradigme de la répartition dynamique des fonctions [DEA 00] [MIL
95] [OLD 97] qui est, par nature, une situation de coopération. Encore une
fois, l’automation est nécessairement fragile et peut emmener le système
homme-machine dans des situations dangereuses qui ne peuvent avoir des
chances d’être récupérées par l’humain que si ce dernier dispose des
rétroactions nécessaires [FUN 99].
5.1.3. Les objectifs et les limites de notre approche cognitive de la coopération
Ce chapitre s’inscrit dans la ligne de cette évolution des conceptions de la
relation homme-machine, de l’interaction à la communication, puis à la coopération,
pour tenter de répondre à ces difficultés de l’homme face à l’automation. C’est
d’une contribution théorique et méthodologique dont il s’agit et qui s’appuie en très
grande partie sur les travaux de psychologie cognitive et d’intelligence artificielle
sur la résolution de problème et la planification, sans pour autant négliger les
travaux pertinents sur les activités collectives. Il s’agit là d’une limite essentielle de
ce travail qui peut se justifier par le niveau d’analyse qui est adopté.
On a coutume de distinguer les collectifs selon leur taille [OLS 97] :
l’organisation (ex. : une entreprise), le groupe (ex. : un service) et l’équipe (ex. : un
équipage d’avion). Le premier niveau est couramment étudié par la sociologie
(fonctionnement de l’organisation) ou la psychologie des organisations
(retentissement de ce fonctionnement au niveau individuel). Le second est la
spécialité de la psychologie sociale, notamment dans ses travaux sur la résolution de
problème en groupe, mettant en évidence des phénomènes tels que le « leadership »,
le syndrome de « group thinking » (convergence sur des consensus inadaptés [JAN
72]), les réseaux de communication, etc. [KRA 90]. Le troisième commence à être
abordé par la psychologie cognitive, dans ces situations où l’activité individuelle n’a
aucun sens si elle n’est pas étudiée dans son articulation avec celle d’un petit
nombre de partenaires (opérateurs humains et machines), finalisés par une tâche
particulière.
L’IAD (Intelligence Artificielle Distribuée) s’est plus particulièrement attachée à
étudier les deux premiers niveaux [FER 97], sous la terminologie des agents
« réactifs », en examinant une intelligence en quelque sorte émergente d’une
communauté dont les agents le sont moins (à l’instar des communautés d’insectes).
La notion d’agent « cognitif » est apparue ensuite, mais l’objectif principal de l’IAD
est moins la modélisation des collectifs que la formalisation de nouvelles méthodes
de génie logiciel plus propres à maîtriser les systèmes complexes et à concevoir des
Coopération humaine et systèmes coopératifs 145
logiciels faciles à modifier, ce qui a toujours préoccupé les informaticiens. Les
véritables objets à modéliser se situent évidemment dans le champ des sciences de
l’homme et il faut convenablement les distinguer des formalismes.
Entre ces trois niveaux se situent en fait des ruptures épistémologiques. Même si
les modèles élaborés peuvent quelquefois paraître analogues, ils ne renvoient pas
aux mêmes objets et aux mêmes phénomènes. La coopération des acteurs
économiques pour réguler un taux d’inflation a peu de choses à voir avec la
coopération dans un cockpit. En nous concentrant sur la coopération au sein d’une
équipe de travail, nous nous intéressons à un petit groupe d’agents fortement
finalisés sur l’exécution d’une tâche. Nous considérerons, avec Clark [CLA 96],
qu’ils développent à la fois des activités cognitives privées et des activités
coopératives tournées vers les autres agents. En particulier dans les situations à forte
contrainte temporelle, les facteurs d’ordre psychosociaux peuvent ne jouer qu’un
rôle limité, c’est pourquoi nous restreindrons volontairement notre approche aux
mécanismes cognitifs privés et coopératifs. Toutefois, il faut rester sensible aux
rôles des facteurs sociaux dans les situations où leur intervention est majeure [MAN
96]. De même, sans négliger le rôle de facteurs affectifs tels que le stress, nous ne
les traiterons pas dans notre approche. Malgré ses limitations, nous pensons que le
cadre que nous proposons permet d’aborder bon nombre de situations de supervision
et de contrôle de situations dynamiques (partiellement contrôlées par
l’opérateur [HOC 93] [HOC 96]) pour rendre compte à la fois de la coopération
homme-homme et de la coopération homme-machine. Malgré ces restrictions, notre
cadre n'engloutit pas les agents dans l'équipe qui deviendrait la seule unité d'analyse
comme dans l'approche de Hutchins [HUT 95]. Nous ne dénions pas pour autant
l'intérêt de ce type d'approche, au moins au cours des premières étapes de la
conception d'un système homme-machine.
Bien que le soutien informatique à la coopération homme-homme (CSCW3) ne
soit pas notre propos, il n’en est pas totalement exclu. L’un des problèmes
rencontrés dans le courant CSCW, qui veut traiter des trois niveaux de coopération,
est la complexité des phénomènes et un état d’avancement modeste des
constructions théoriques. Cependant, si l’on se restreint au soutien à la coopération
au sein d’une équipe, nous nous proposons de montrer que les théories de la
psychologie cognitive et de l’intelligence artificielle sont suffisamment avancées
pour aborder la coopération d’un point de vue strictement cognitif, qui se justifie par
la forte finalisation sur une tâche. Alors, en tentant de comprendre comment la
coopération cognitive fonctionne, en s’efforçant de l’évaluer, on est en mesure de
suggérer des soutiens à la coopération. Dans le cadre limité de cet article, nous ne
pourrons pas nous étendre longuement sur cette problématique du soutien, mais elle
est l’une des motivations essentielles de notre approche. De même, nous ne pourrons
3
Computer Supported Cooperative Work
146 L'ingénierie Cognitive : IHM et Cognition
pas traiter à fond les conséquences de cette approche sur la conception de machines
coopératives. La perspective que nous adopterons est modeste. Nous montrerons que
malgré les limites intellectuelles des machines actuelles (au sens de leurs capacités
adaptatives), elles peuvent développer certaines activités coopératives, au moins
dans des situations spécifiques. Quand elles en sont incapables, nous rejoindrons
d’une certaine façon le courant CSCW en arguant du fait qu’elles peuvent au moins
soutenir leurs utilisateurs dans la coopération homme-machine avec elles.
La seconde partie de ce chapitre est consacrée à la présentation succincte de deux
situations dans lesquelles notre cadre a été appliqué (contrôle de la navigation
aérienne et pilotage d’avion de combat biplace). Ces situations nous serviront
d’illustrations tout au long de ce texte. Dans la troisième partie, nous situerons la
notion de coopération par rapport à des concepts connexes (activité collective,
coordination et communication). Dans la quatrième partie, nous rappellerons
brièvement les principaux types d’approches de la coopération pour qualifier la
nôtre de descriptive et de fonctionnelle. Dans la cinquième et sixième partie, nous
proposerons une architecture cognitive pour l’étude de la coopération de deux points
de vue duaux : celui des représentations et celui des traitements. Du point de vue des
représentations nous mettrons l’accent sur la notion de référentiel commun partagé
par les agents, en nous appuyant sur des concepts couramment utilisés dans
l’analyse des activités cognitives privées, mais en les étendant à l’équipe. Dans cette
partie, les aspects subsymboliques et symboliques des représentations seront
soulignés. Du point de vue des traitements, nous mettrons l’accent sur la gestion des
interférences, tant au niveau subsymbolique qu’au niveau symbolique. La septième
partie tracera les perspectives ouvertes par notre cadre théorique en matière
d'évaluation de la coopération cognitive, de développement de soutiens et de
conception de machines coopératives.
5.2. Deux exemples de situations de coopération
5.2.1. Contrôle de trafic aérien
Le premier exemple d’étude sur lequel nous nous appuierons est emprunté à une
série d’études qui ont exploré les possibilités de répartition dynamique de tâches
(définies comme des conflits binaires entre avions) entre un opérateur humain et une
machine dans le contrôle de la navigation aérienne. Ce paradigme de répartition
consiste à optimiser le niveau de charge de l’opérateur entre deux limites : basse
pour ne pas conduire à des pertes d’expertise et haute pour ne pas créer des risques
d’erreur [MIL 95]. Un tel paradigme crée nécessairement une situation de
coopération homme-machine, puisqu’il y a partage de tâches entre deux agents dont
Coopération humaine et systèmes coopératifs 147
on n’est jamais absolument sûr de l’indépendance. Dans la situation examinée dans
l’étude [HOC 98b], trois agents étaient concernés :
– Un Contrôleur-Radar (CR), en charge des tâches tactiques de guidage des
avions dans le secteur contrôlé et de résolution des conflits entre avions. Cet
opérateur est seul à disposer du contact radio avec les pilotes et donc le seul
à pouvoir leur donner des instructions.
–
Un Contrôleur Organique (CO), gérant les coordinations avec les secteurs
adjacents et préparant le travail de son collègue pour réguler au mieux la
charge du CR (par exemple en retardant l’entrée de certains avions dans le
secteur).
–
Une machine dénommée SAINTEX (STX), capable de résoudre certains
conflits binaires simples (calcul, envoi de l’instruction de déviation et
remise sur la route).
Outre ces trois agents, les contrôleurs pouvaient disposer d’une aide, dénommée
à la prédiction des conflits, ainsi que de la charge du CR, et à la répartition
dynamique de ces conflits entre CR et STX. Trois situations ont été comparées sur
simulateur à partir d’un trafic nettement plus chargé que ce qui est
réglementairement admis, pour justifier du recours aux aides (PLAF et SAINTEX) : une
situation contrôle sans aide et deux situations expérimentales (EX et EA)
représentant deux modalités de répartition des tâches entre CR et STX :
– EX : Répartition explicite. Les deux contrôleurs pouvaient décider de la
répartition des conflits entre CR et STX. Toutefois, les résultats ont montré
que le CO se sentait moins responsable de cette répartition que le CR.
Quand un conflit était partageable (gérable, soit par le CR, soit par STX) il
était affecté par défaut à CR si aucun ordre n’était donné par l’un des
opérateurs pour l’affecter à STX.
PLAF ,
–
EA : Répartition explicite assistée. PLAF proposait les affectations à STX sur
la base de la partageabilité et de l’évaluation de la charge du RC. Seul le CO
pouvait changer cette répartition. Par défaut, le conflit était affecté à STX.
L’objectif de cette expérience était d’évaluer les effets des aides sur les stratégies
individuelles des RC et sur la coopération, d’une part entre les deux contrôleurs,
d’autre part entre CR et STX.
Une autre expérience a consisté à partager artificiellement, sur simulateur, un
même trafic entre deux contrôleurs radar [HOC 02]. Elle visait à mettre en évidence
les propriétés de la coopération entre humains pour orienter la conception d’une
machine plus coopérative.
148 L'ingénierie Cognitive : IHM et Cognition
5.2.2. Pilotage d’avion de combat
La même approche théorique de la coopération a été appliquée au cas de la
coopération entre pilote (P) et navigateur (N) à bord d’un avion de combat biplace,
sur simulateur [LOI 99]. Grossièrement, P est chargé de la gestion de l’avion à court
terme (environ 5 minutes), pour le maintenir dans son domaine de vol, le diriger vers
sa destination dans une configuration compatible avec les menaces et l’objectif de la
mission, effectuer les manœuvres, notamment défensives, et lancer l’armement. N
est responsable de la gestion à long terme, en gérant la navigation, la configuration
de l’avion utile au pilote et le système d’armement. P peut éventuellement contrôler
la situation tactique et mettre en œuvre les systèmes défensifs lorsque N ne peut
momentanément pas le faire. C’est pourquoi cette répartition entre court terme et
long terme est grossière. Le niveau d’automatisation de l’avion est celui que l’on
rencontre couramment sur les avions les plus modernes, avec une large redondance
des visualisations sur les deux places. Les opérateurs ne peuvent pas se voir, mais
peuvent correspondre oralement par interphone et consulter une partie des actions de
l’autre sur les visualisations.
Le scénario simulé s’apparentait à une mission de type LGW4 (armement guidé
laser : l’objectif est illuminé par un rayon laser de sorte que le missile puisse se
diriger dessus de façon autonome). Il y a quatre phases à la mission : (a) navigation
vers l’objectif ; (b) acquisition de l’objectif (repérage) ; (c) traitement de l’objectif
(pointage laser et manœuvre de tir) ; (d) dégagement (éloignement rapide, tout en
maintenant l’illumination de la cible jusqu’à l’arrivée du missile).
Cette étude était purement descriptive, en visant à la fois à évaluer la complétude
et la pertinence d’un schème de codage des activités coopératives des deux
opérateurs et à identifier le type de coopération développée au cours de ce type de
mission. Une première utilisation de cette étude a consisté à concevoir et à évaluer
des soutiens à la coopération entre les opérateurs.
5.3. Coopération et concepts connexes
Le terme « coopération » est couramment employé dans de nombreuses
disciplines, sans que les définitions qui en soient données entre disciplines ou à
l’intérieur d’une même discipline soient très homogènes. Les différents auteurs
mettent en avant, dans leurs définitions, des sous-ensembles de propriétés qui sont
particulièrement saillantes dans leurs travaux respectifs. Définir l’union de ces sousensembles serait une tâche aisée, mais en faire la définition de la coopération ne
serait guère raisonnable car, avec un critère d’identification aussi fort, aucune
4
Laser Guided Weapon
Coopération humaine et systèmes coopératifs 149
situation ne pourrait correspondre à cette définition. Par exemple, certains auteurs
insistent sur le fait qu’il n’y a pas coopération entre des agents sans but commun et
partagé par les agents [BAG 94] [GRI 75] [MAR 75], ce que Savoyant appelait la
co-activité [SAV 84], par opposition à l’activité collective. Rogalski [ROG 94]
propose un continuum où, entre ces deux extrêmes, puisse se situer une coopération
distribuée où les buts individuels sont distincts, mais avec la présence d’un but
commun. L’exigence d’un but commun conduit à refuser que des agents poursuivant
des buts indépendants puissent coopérer sur l’utilisation de ressources communes
(par exemple une imprimante partagée entre plusieurs employés). Ceci conduit
encore à refuser que l’on puisse coopérer pour résoudre un problème puisque, dans
la majorité des cas, le but (commun) n’est pas défini précisément au départ. Quant à
se restreindre à l’intersection de ces sous-ensembles de propriétés, la démarche
serait encore plus aisée car cette intersection est quasiment vide.
Plutôt que de proposer une synthèse des cadres théoriques existants qui sont très
abondants et souvent contradictoires, nous avons préféré proposer notre propre
cadre, élaboré pour aborder la coopération cognitive dans les équipes de travail,
intégrant des agents humains et artificiels. Cette démarche a été initiée par une
réflexion pluridisciplinaire sur la coopération homme-machine [MIL 97]. Une telle
position peut paraître critiquable, mais elle a au moins le mérite de nous éclairer sur
le soutien à la coopération et sur la conception de machines coopératives. Toutefois,
cette position n’est pas une façon de nous situer hors des courants de recherche sur
la coopération. Bien au contraire, nous avons cherché à articuler l’ensemble des
propriétés décrites dans la littérature au sein d’une architecture cognitive susceptible
de générer une grande variété de types de coopération. En d’autres termes, cette
architecture peut être particularisée de différentes manières, de sorte que chacun des
cadres théoriques évoqués puissent être retrouvés. Nous y ferons donc référence
explicite au cours de cette présentation. Une tentative, en partie similaire à la nôtre,
mais qui met davantage l'accent sur les facteurs sociaux dans les systèmes
multiagents, a été proposée récemment par Castelfranchi [CAS 98]. Nous y ferons
souvent référence.
Afin d’éviter toute confusion terminologique, nous nous garderons de nous
référer à des définitions proposées par d’autres auteurs pour les termes que nous
emploierons. Comme plusieurs définitions contradictoires coexistent, cela pourrait
aboutir à un texte plein de sources de confusion pour le lecteur. Par conséquent,
nous serons amené à définir les termes que nous employons et à maintenir leur usage
dans ce cadre tout au long de ce texte.
150 L'ingénierie Cognitive : IHM et Cognition
5.3.1. Activité collective
Le concept superordonné à la coopération nous paraît être celui d’activité
collective. En se plaçant du point de vue de l’observateur, on peut définir une
activité collective comme une activité impliquant des opérations exécutées par
plusieurs agents. Il n’est pas question ici de développer une typologie de la diversité
de cette classe d’activités qui s’étend du simple partage de ressources à la réalisation
d’une tâche vraiment commune. Nous opposerons seulement deux grandes
catégories d’activités collectives mettant en jeu des agents humains ou(et)
artificiels :
– Celles où les relations entre les opérations des agents sont établies avant
l’exécution des opérations, sans que les agents aient à gérer ces relations
pendant l’exécution. Chaque agent développe alors une activité entièrement
autonome (au sens de Clark [CLA 96]). Il va de soi qu’un agent spécifique,
que l’on peut appeler concepteur, a géré ces relations au préalable pour
économiser aux autres agents cette gestion. Cette situation est d’autant plus
rare que l’environnement et le comportement des agents sont incertains
(selon la distinction courante entre tâche prescrite et tâche effective [LEP
83]). Dans ce dernier cas, c’est bien la gestion des relations en temps réel
qui va permettre au système multiagent de s’adapter.
–
Celles où les relations entre les opérations des agents sont gérées en temps
réel, au cours de l’exécution des opérations par les agents. Là encore, un
agent spécifique peut assister cette gestion, mais les autres agents y seront
également impliqués. Selon notre approche, la coopération est à ranger dans
cette classe, mais on y trouve également des situations de compétition qui
sont à l’opposé de la coopération. Un match de football suppose
évidemment la gestion de relations au sein d’une même équipe (coopération)
et entre deux équipes (compétition).
5.3.2. Coordination
La coordination regroupe des métaopérations [PIA 65] qui portent sur des
opérations pour les assembler de sorte qu’elles satisfassent certains critères. Ces
critères peuvent être variés. Il peut s’agir d’assembler des opérations pour créer un
réseau de sous-buts adéquats pour atteindre un but final. Le critère peut aussi être de
concevoir des réseaux parallèles de buts indépendants de sorte qu’ils ne se gênent
pas mutuellement. Toutefois, la coordination de l'activité collective ouvre une source
de complexité supérieure. Par exemple, Castelfranchi [CAS 98] oppose la
coordination unilatérale (un seul agent changeant son plan), la coordination
bilatérale (les deux) et la coordination mutuelle (avec conscience de l'intention de
coordination et accord explicite). De même, la coordination peut servir les seuls
intérêts de l'un des agents (coordination égocentrée) ou ceux des deux (coordination
Coopération humaine et systèmes coopératifs 151
collaborative). La notion de coordination s’applique tout autant à la planification
individuelle qu’à la planification collective, c’est pourquoi l’étude de la cognition
individuelle a fourbi des outils pertinents pour aborder la cognition collective. La
notion de métaopération introduit un niveau d’abstraction qu’il convient de ne pas
perdre de vue dans la modélisation des activités collectives où la coordination par
les agents eux-mêmes est impliquée. Nous y reviendrons.
5.3.3. Coopération
Nous définirons plus loin ce que nous entendons précisément par coopération,
mais il convient de délimiter d’abord grossièrement ce que nous entendons par là, à
l’intérieur de la vaste classe des activités collectives avec gestion des relations entre
opérations en temps réel. Il s’agit d’une définition minimale qui peut atteindre une
très grande richesse si on y ajoute d’autres propriétés optionnelles, ce que nous
ferons ultérieurement. Au minimum, nous retiendrons deux propriétés : la gestion
d’interférences entre les agents et la facilitation de l’activité collective, par les
agents eux-mêmes. Par exemple, dans le contrôle aérien, la solution adoptée par
STX pour un conflit peut interférer avec une autre solution adoptée par le CR pour
un autre conflit (les deux avions détournés par chacun des agents peuvent entrer en
conflit). La gestion de cette interférence peut viser à faciliter la tâche du CR (si la
solution adoptée par STX peut être modifiée) ou celle de STX (si le CR modifie sa
solution). La facilitation peut porter sur les deux agents ou sur une tâche commune
si les quatre avions peuvent être considérés dans leur ensemble, comme une
configuration significative.
La coordination fait évidemment partie intégrante de la coopération puisqu’elle
va servir à la fois la gestion des interférences et la facilitation. Toutefois, la
coopération ne se réduit pas à la coordination. Encore faut-il, par exemple, identifier
les interférences et être en mesure de les réduire.
Si notre définition (qui sera précisée plus loin) est minimale, elle a néanmoins
pour but de couvrir une grande variété de situations. En particulier, nous y intégrons
les trois grandes catégories d'activités collectives introduites par Rogalski [ROG 94],
pourvu qu'il y ait effectivement gestion d'interférences en temps réel. C'est trois
catégories s'ordonnent selon le rôle décroissant que joue une tâche commune dans la
gestion de l'activité collective : collaboration (rôle central d'une tâche commune),
coopération distribuée (tâche commune, mais jouant un rôle moins central) et
coaction (absence de tâche commune, mais tâches interférentes).
152 L'ingénierie Cognitive : IHM et Cognition
5.3.4. Communication
Nous verrons que bon nombre de connaissances sur la coopération ont été
élaborées à partir d’études linguistiques, sociolinguistiques et psycholinguistiques
sur la pragmatique de la communication [AUS 62] [GRI 75] [SEA 69] [SPE 86].
Communiquer, c’est se comprendre mutuellement à un certain niveau. Chacun des
interlocuteurs doit donc nécessairement coopérer avec les autres pour se faire
comprendre et les comprendre. Mais la communication est aussi au service de la
coopération. C’est ainsi que coopération et communication interviennent toujours en
alternance. Les communications sont évidemment un moyen d'accès privilégié à la
coopération (cf. par exemple [BOW 95] [HOC 98b], dans le domaine aéronautique).
La communication la plus typique qui vienne à l’esprit est l’usage de la langue
dans la communication verbale — orale ou écrite. La langue étant la source de tous
les codes, la notion de communication peut être étendue à l’usage de codes. La
psychologie et la sociologie du travail ont aussi souvent souligné l’importance du
recours à des codes informels qui conduisent à une économie de communication
formelle chez des opérateurs expérimentés [CUN 67] [SCH 94]. Dans les situations
à forte dynamique que nous étudions, il va de soi que ces communications
informelles jouent un rôle majeur. Par exemple, dans l’aviation de combat, N voit
les difficultés de P (par observation des effets de son comportement) à mettre
l’avion dans une configuration propice au tir et décide de s’attribuer la tâche
d’illumination de la cible qui devrait en principe revenir à P. Cette nouvelle
répartition des rôles n’a pas nécessité de communication formelle, mais un signe a
été utilisé (c’est-à-dire une unité à double face : forme/ contenu).
Ceci nous conduit à étendre encore la notion de communication au-delà de
l’usage de la langue et des codes formels pour intégrer la transmission de signes
entre les agents, qu’elle soit volontaire ou non. Nous parlerons de communication
lorsqu’un signe a été transmis d’un agent à un autre et utilisé effectivement par le
récepteur. C’est bien là ce qui rend difficile l’étude de la coopération chez des
experts, soumis à de fortes contraintes temporelles : les connaissances de l’analyste
dans le domaine sont cruciales pour identifier les communications informelles.
5.4. Types d'approches de la coopération
5.4.1. Approches prescriptives et descriptives
La littérature abondante sur la coopération se décompose grossièrement en deux
types d’approches : prescriptives et descriptives. Les approches prescriptives sont en
général motivées par deux ordres de préoccupations : soit la conception d’une
Coopération humaine et systèmes coopératifs 153
formation à la coopération (par exemple en aviation, dans le cadre du Cockpit
Resource Management ou CRM [ROG 96] [WIE 93]), soit la conception de
systèmes multiagents coopératifs [CAS 98] [FER 97]. Ces approches nécessitent
évidemment de commencer par définir l’objet que l’on se propose de former ou de
concevoir. Les approches descriptives sont plus ouvertes et précèdent souvent les
premières pour leur donner des fondements empiriques. C’est ainsi que de
nombreuses études ont été consacrées à l’observation du travail d’équipe dans des
domaines très variés. Les approches descriptives ne font évidemment pas
l’économie d’hypothèses fortes sur ce qui constitue la coopération. C’est bien en
introduisant une dialectique entre ces approches que la coopération peut être cernée.
Toutefois, comme on peut s’y attendre, ce sont les approches prescriptives qui ont
conduit aux définitions les plus exigeantes de la coopération, en intégrant des
données sur l’évaluation. Par exemple, on peut montrer qu’il est plus facile de
coopérer quand on a un plan commun ou quand chaque agent dispose de modèles
des autres agents. Cela ne veut évidemment pas dire que l’on ne puisse pas coopérer
sans cela. Dans la mesure où nous traitons notamment de la coopération hommemachine, avec des agents artificiels dont le savoir-coopérer est nécessairement
limité, il nous a semblé utile d’adopter une approche descriptive et de faire choix de
situations où la coopération se déroule dans des conditions difficiles. Ainsi, nous
souhaitons, en quelque sorte, atteindre une limite basse et examiner à quelles
conditions celle-ci peut être élevée en vue d’améliorer progressivement la
coopération (dans une perspective de conception de systèmes).
5.4.2. Approches structurales et approches fonctionnelles
Une autre distinction dans les approches de la coopération sépare des approches
structurales et des approches fonctionnelles. Les approches structurales s’attachent à
décrire la structure des relations entre les agents qui coopèrent et les propriétés de
ces agents. Nous parlerons de structure coopérative, dont plusieurs auteurs ont tenté
de produire des typologies [KOO 91] [KRA 90] [MIL 95]. L’évaluation de ces
structures, dans différents contextes, en termes de performance du collectif a permis
de suggérer des critères de choix. Par exemple, il est apparu qu’une organisation
hiérarchisée d’un poste de commandement d’officiers sapeurs-pompiers produisait
davantage d’anticipation qu’une organisation plus horizontale [SAM 93]. Mais, si
une organisation hiérarchique peut permettre de satisfaire les objectifs en situation
normale, Rochlin, La Porte et Roberts [ROC 87] ont montré, dans l’activité d’un
équipage de navire de guerre, que cette organisation devenait moins hiérarchique en
situation de combat pour s’adapter mieux aux imprévus. Il est toutefois probable que
la répartition des responsabilités ait été inchangée et que les subordonnés ne
s’autorisent, au combat, que des libertés de choix que les supérieurs avaliseront. Il
va de soi que le type de structure coopérative détermine, dans une certaine mesure,
la façon dont la coopération va se dérouler. Par exemple, dans les situations
154 L'ingénierie Cognitive : IHM et Cognition
illustratives de cet article, nous sommes confrontés à deux opérateurs humains qui
n’ont pas réellement de relation hiérarchique marquée. Dans le cas du contrôle
aérien, les deux contrôleurs sont complètement interchangeables : d’un quart à
l’autre ils peuvent changer de fonction sans aucun problème et ils ont souvent des
niveaux d’expérience comparables. On sait toutefois que l’existence d’une relation
hiérarchique peut profondément marquer le déroulement de la coopération et même
conduire à des catastrophes, par exemple entre commandant de bord et copilote
d’avion de ligne [FOU 84] [MET 93] ou entre chirurgien et anesthésiste en salle
d’opération [HEL 94].
Les approches fonctionnelles cherchent moins à décrire la structure relationnelle
entre les agents que les activités coopératives qu’ils développent. Il s’agit là
proprement d’approches cognitives de la coopération, centrées sur les mécanismes.
C’est ce type d’approche que nous avons adopté, étant donné les objectifs qui étaient
les nôtres. Nous serons donc amené à développer plus particulièrement ce point de
vue dans ce qui va suivre. Néanmoins, nous pensons que les deux types d’approche
sont absolument nécessaires. La structure coopérative contraint l’activité
coopérative : si les agents sont dans l’incapacité de communiquer aisément, leur
coopération sera plus difficile. C’est ainsi par exemple que les stratégies de
résolution de conflits, dans la navigation aérienne, sont fort différentes des stratégies
d’anticollision en mer [CHA 00]. Les navires sont très rarement en contact-radio et
leurs manœuvres doivent toujours être sélectionnées avec le double but d’éviter la
collision et de faire comprendre son intention à l’autre agent. C’est évidemment
aussi le cas dans la conduite automobile.
Comme c’est à chaque fois le cas lorsqu’on est amené à décrire un certain type
d’activité cognitive — et la coopération cognitive ne fait pas exception — il
convient d’adopter successivement deux points de vue duaux (Parties V et VI) :
celui de ce qui est traité (description des connaissances et représentations traitées) et
celui de la façon dont c’est traité (description des traitements des connaissances et
des représentations).
5.5. Architecture des connaissances et des représentations
L’une des propriétés essentielles d’un système cognitif est de disposer de
modèles internes de son environnement pour s’y adapter. Nous reprendrons ici la
distinction courante entre connaissances et représentations, mais nous ne nous
étendrons pas sur la distinction entre connaissances (avérées) et croyances (à
prouver), bien que cette distinction puisse être utile. Les connaissances sont des
éléments de ces modèles, présentant un certain degré de généralité et stockés
durablement, ce qui ne veut pas dire que leur accès soit aisé. Les représentations
sont des structures temporaires, construites à la fois à l’aide des connaissances
Coopération humaine et systèmes coopératifs 155
acquises et à l’aide des données de la situation spécifique à laquelle est confronté le
système cognitif. On peut les considérer comme des connaissances particularisées à
la situation [RIC 90].
5.5.1. Référentiel commun (REFCOM)
Dans la coopération, divers auteurs ont souligné l’importance du partage d’une
structure de connaissances et de représentations partagées par l’ensemble des agents
[GRI 75] [MAR 75], que nous conviendrons d’appeler référentiel commun
(REFCOM). De Terssac et Chabaud [TER 90] y voient : « La mise en commun des
compétences pour préparer et réaliser une action ; cette mise en commun des
compétences, en même temps qu’elle complète la représentation que chacun se fait
de la tâche à réaliser, constitue un référentiel commun permettant d’ajuster les
décisions de chacun en fonction des connaissances des autres ». (p. 128-129). Il
s’agit donc à la fois de connaissances et de représentations partagées pour pouvoir
tenir compte des autres agents dans ses décisions.
Piaget, dans son essai sur la coopération de 1965, ne donne pas particulièrement
de nom à cette structure qu’il définit pourtant, d’un point de vue logique, comme
une échelle commune de valeurs intellectuelles : un langage, un système de notions,
des propositions fondamentales auxquelles se référer en cas de discussion. Ceci
permet aux agents de s’accorder sur des valeurs dans l’évaluation et de conserver les
propositions reconnues antérieurement, pour pouvoir y revenir à tout moment. Vu
sous cet angle, le REFCOM se construit et se maintient au cours du déroulement de
la coopération. Il joue notamment un rôle crucial dans la compréhension des
communications et dans les explications vues comme des ajustements du REFCOM
pour intégrer une information nouvelle à une information ancienne [KAR 96] [KAR
00].
C’est au même type de notion qu’aboutit H.H. Clark [CLA 96] en étudiant la
coopération dans la communication avec son concept de « commond ground », qui
intègre la notion de connaissance commune en philosophie, de connaissance
mutuelle en linguistique, de connaissance conjointe en intelligence artificielle et,
bien entendu de représentation partagée en psychologie. Il complète la définition
proposée par Piaget [PIA 65] en intégrant à la notion de proposition commune
l’ensemble des justifications de cette proposition (logiques ou empiriques). Il décrit
la fonction du REFCOM dans la coopération comme le faisaient De Terssac et
Chabaud. Toutefois, il va peut-être un peu loin en exigeant que les membres du
collectif aient la connaissance du partage du REFCOM. Par ailleurs, on peut
évidemment coopérer sans tout partager [GAS 91], sinon la charge de travail et le
degré d'autonomie des agents en pâtirait.
156 L'ingénierie Cognitive : IHM et Cognition
Dans l’expérience d’évaluation de la répartition des tâches entre humain et
machine dans le contrôle aérien [HOC 98b], nous avons d’ailleurs noté une
amélioration du maintien du REFCOM avec les aides qui fournissaient un espace
d’informations partagées. Cette amélioration se traduisait notamment par de
meilleures compréhensions entre les contrôleurs : à partir de communications très
laconiques, les contrôleurs parvenaient plus facilement à identifier de quoi il était
question dans le message. Dans une expérience plus récente impliquant la
coopération entre deux contrôleurs radar pour gérer un même secteur [HOC 02],
l’essentiel des communications portaient sur le maintien d’un référentiel commun
entre les contrôleurs. Ce résultat a été retrouvé dans la coopération entre pilote et
navigateur dans l’aviation de combat [LOI 99], mais dans une moindre mesure car
de nombreuses communications portaient sur le court terme dans cette tâche où
l’anticipation est plus difficile.
Plusieurs travaux ont été consacrés à la conception d’ « espaces de travail
commun » (référentiels communs externes) pour soutenir le REFCOM et il s’agit là
d’interventions déterminantes pour améliorer la coopération [CAN 93], [JON 95]
dans la supervision de satellites et [JON 97]. En analysant la coopération dans un
poste de commandement de services d’urgence, Garbis et Wæern [GAR 99] ont
montré l’importance de ce qu’ils appellent des « artéfacts publics » dans le maintien
du référentiel commun. Concrètement, dans cette situation, il s’agit de tableaux
d’informations que renseignent régulièrement les différents membres de l’équipe et
autour desquels ils communiquent. L’idée d’une coopération homme-machine
pourrait bien être compromise si la machine ne pouvait avoir accès à ce genre
d’artéfact.
Le REFCOM est au centre de la coopération, mais il s’agit d’une structure qui
présente une grande complexité. C’est pourquoi nous allons progressivement
introduire l’ensemble de ses composantes. Il joue le même rôle au niveau du
collectif que le cadre de référence au niveau individuel, tel que Hoc et Amalberti
[HOC 95b] l’ont introduit au cœur d'une architecture cognitive individuelle de
gestion de situation dynamique, dans leur tentative d’extension du modèle dit de
l’échelle double de Rasmussen [RAS 86]. C’est ainsi qu’il y a une parfaite
cohérence entre nos approches cognitives de la coopération et de l’activité
individuelle. Salas et al. [SAL 95], appartenant au courant d’étude de la « situation
awareness », adoptent ce point de vue en recherchant, au niveau collectif, une
« team situation awareness » qui aurait les mêmes propriétés que la situation
awareness étudiée au niveau individuel.
Toutefois, tant au niveau individuel qu’au niveau collectif il convient d’élargir la
notion de représentation pour ne pas s’enfermer dans une conception trop
symbolique. Depuis longtemps, les modèles connexionnistes ont été considérés pour
rendre compte d’activités dont la régulation subsymbolique échappe au contrôle
Coopération humaine et systèmes coopératifs 157
attentionnel symbolique [RUM 86]. Mais c’est plutôt vers des modèles
connexionnistes symboliques qu’il s’avère utile de s’orienter [RAU 98].
La plupart de ces modèles sont compatibles avec l’idée qu’un cadre de référence
— la partie activée de la base de connaissances par une situation spécifique et
certains déterminants endogènes — évolue au cours du déroulement de l’activité.
Certaines parties du réseau dépassent un certain seuil d’activation, ce qui leur
permet d’atteindre l’attention et la représentation symbolique. D’autres restent en
deçà de ce seuil, mais sont actives et peuvent jouer un rôle important dans l’activité,
en formant ce qu’on peut appeler par extension la représentation subsymbolique. Par
ailleurs, il est raisonnable de concevoir une double détermination : de la
représentation subsymbolique vers la représentation subsymbolique (puisque c’est
par l’activation, de nature subsymbolique que la représentation symbolique peut se
construire : émergence) et de la représentation symbolique vers la représentation
subsymbolique (par des activations en retour qui peuvent être délibérées :
supervision).
Vu du point de vue d’un agent particulier, le référentiel commun comporte un
ensemble de représentations (symboliques ou non) nécessaires à la coopération
(Figure 5.1). Cet ensemble est évidemment intégré aux représentations dont dispose
cet agent et qui comportent aussi des représentations privées. Trois types de
représentations vont jouer un rôle pour cet agent dans la coopération :
– Des représentations communes avérées (elles sont effectivement communes)
et conscientes (l’agent sait qu’elles le sont).
–
Des représentations conscientes supposées communes (l’agent croit qu’elles
le sont).
–
Des représentations communes avérées et non conscientes : elles sont
effectivement communes, mais l’agent n’en a pas conscience.
Les représentations portent, soit sur l’environnement, soit sur l’activité de
l’équipe. Des représentations communes peuvent être identiques. Elles peuvent aussi
être différentes, mais compatibles, c’est-à-dire équivalentes à un certain niveau
d’abstraction.
5.5.2. Représentation symbolique
C’est de représentation symbolique dont il est question dans les travaux de
psychologie sur la représentation partagée. Ce concept est assimilable à celui de
team situation awareness [SAL 95] si l’on admet une conception plus large de la
situation que celle qui est décrite dans ce type de travaux. Endsley [END 95a], qui a
mené des travaux conséquents sur cette question jusqu’à proposer une méthodologie
158 L'ingénierie Cognitive : IHM et Cognition
précise et validée d’accès à la situation awareness, la décrit comme une structure à
trois niveaux : (i) la perception des informations brutes de l’environnement ; (ii) la
compréhension de ces informations (diagnostic au sens strict) ; (iii) sa projection
dans le futur (pronostic). C’est considérer la situation uniquement comme un objet
externe. Or les opérateurs s’intègrent souvent eux-mêmes dans la situation,
notamment dans les situations dynamiques [AMA 92b] [HOC 95b]. Ils y intègrent
leurs plans, la représentation qu’ils ont des risques qu’ils encourent personnellement
(charge, risques de perte de maîtrise de la situation, etc.). La situation doit donc être
envisagée, non pas au sens restreint de l’état et de l’évolution de l’environnement
externe aux opérateurs, mais au sens plus large de l’état et de l’évolution d’un
système opérateur-tâche [HOC 88]. La représentation symbolique comporte souvent
plusieurs niveaux d’abstraction. Pour simplifier, nous en distinguerons trois : le
niveau de l’action, le niveau du plan et un niveau méta. Par ailleurs, à chacun des
niveaux, les opérateurs peuvent se représenter (et traiter) des propriétés procédurales
de divers objets [POI 95], par exemple, leurs propres plans, mais aussi les plans des
autres agents (y compris artificiels). La représentation symbolique, qualifiée de
représentation occurrente par Hoc et Amalberti [HOC 95b], est mise à jour en
permanence.
Une structure de connaissances et de
représentations
pour la coopération
Représentations
identiques
Représentations
communes
avérées non
conscientes
Représentations
communes
avérées
conscientes
Représentations
conscientes
supposées
communes
Représentations
compatibles
Représentations
privées
• sur l'environnement
• sur l'activité
Référentiel commun
individuel
Représentation occurrente
individuelle
Figure 5.1. Référentiel commun intégré aux représentations d’un agent particulier.
Coopération humaine et systèmes coopératifs 159
5.5.2.1. Le niveau ACTION
La représentation symbolique comporte des spécifications des actions, en
particulier dans des situations nouvelles ou problématiques où le recours au contrôle
subsymbolique (automatismes) n’est pas satisfaisant. Toutefois, une grande partie de
ces spécifications n’est pas gérée au niveau attentionnel. La coopération peut
éventuellement produire des activations attentionnelles de ces spécifications, au
travers des interférences et des communications. L’étude citée sur la répartition des
tâches entre humain et machine dans le contrôle aérien en montre de nombreux
exemples [HOC 98]. En particulier, les aides fournies se sont traduites par une
concentration de la coopération sur les spécifications de l’action, grâce à un
accroissement de l’espace de travail commun (référentiel commun externe) qui a
sans doute permis de réduire les nécessités d’ajustement des représentations sur des
espaces plus abstraits. Il en est allé de même dans l’étude sur le pilotage d’avion de
combat où, grâce à un plan commun initial et du fait des fortes contraintes de temps,
la coopération s’est aussi déroulée au niveau des spécifications de l’action [LOI 99].
Toutefois, la coopération entre contrôleurs radar sur le même secteur [HOC 02] a
montré qu’un maintien régulier du référentiel commun pouvait réduire les nécessités
de communication à ce niveau, si ce n’est en ce qui concerne le suivi de plans (la
vérification de la mise en œuvre des actions prévues). Il faut noter que cette
expérience s’est déroulée sans assistances.
C'est enfin à partir des spécifications de l'action que la coopération peut amener à
traiter des raisons de l'action, notamment des diagnostics. Dans une étude sur la
conduite de haut fourneau, Samurçay et Delsart [SAM 94] ont montré que les duos
de conducteurs ne coopèrent pas spontanément sur le diagnostic. Ils y parviennent
quand ils constatent leur désaccord sur les actions à entreprendre. Ce phénomène a
également été souligné dans la prise de poste sur un moulin à papier [GRU 95].
5.5.2.2. Le niveau PLAN
Ce niveau représente en fait plusieurs niveaux d’abstraction par rapport à celui
qui est impliqué lors de la mise en œuvre de l’action. Dans la coopération, il est
exploité pour la compréhension et la planification (au sens de l’élaboration de
représentations schématiques et hiérarchisées susceptibles de guider l’activité : cf.
Hoc, 1988). Pour gérer des situations dynamiques, la notion de plan d’action doit
être étendue dans la mesure où des déterminants externes à l’action des opérateurs
doivent être considérés pour donner du sens à cette action [HOC 95a]. Enfin,
puisqu’il s’agit ici d’activité collective, il faut y intégrer les objectifs communs, les
plans communs et la répartition des fonctions. Là encore, il n’est pas nécessaire de
supposer que les plans privés soient parfaitement compatibles avec ces éléments qui
peuvent du reste être absents. C’est la dynamique de la coopération qui les articulera
et les construira. À ce niveau d’abstraction se situent aussi des représentations de
160 L'ingénierie Cognitive : IHM et Cognition
haut niveau qui structurent l’environnement. Par exemple, dans le contrôle aérien, il
peut s’agir d’une décomposition commune du trafic instantané en un ensemble de
conflits entre avions, c’est-à-dire en un espace problème commun [HOC 00].
Après Amalberti [AMA 96], on a coutume d’intégrer à la représentation
symbolique des représentations des risques, des ressources et des coûts externes à
l’activité. Une partie de ces représentations peut être partagée. Dans le contrôle
aérien, par exemple, les risques externes sont bien illustrés par ces conflits entre
avions qui n’en sont pas objectivement, mais que les contrôleurs continuent à
surveiller grâce à des heuristiques prenant en compte l’incertitude du processus à
contrôler [BIS 81]. Les coûts externes peuvent être illustrés par la règle bien connue
selon laquelle il vaut mieux dévier un avion le plus tôt possible pour éviter de le
faire trop tourner et de lui allonger sa route, ce qui se traduit par des coûts de
carburant et par l’inconfort des passagers. Dans l’aviation de combat, des ressources
externes à gérer sont, notamment, le carburant et l’armement qui restent disponibles
pour la poursuite de la mission. Les méthodes d’évaluation de la situation awareness
ont largement mis l’accent sur l’identification de ces entités dans le champ de
l’attention [END 95a]. Des extensions de cette méthode à l’activité collective
permettent d’accéder à la représentation partagée de ces entités [SAL 95].
5.5.2.3. Le niveau MÉTA
Plus les opérateurs sont impliqués dans le contrôle rapproché du processus à
gérer, plus ils sont amenés à prendre en compte leurs propres caractéristiques de
fonctionnement. C’est alors que des connaissances sur leur propre activité peuvent
être évoquées et jouer un rôle majeur dans la planification [AMA 92b]. Cette fois, ce
sont des risques, des ressources et des coûts internes qui sont gérés. Parmi les
risques majeurs, il faut relever celui de ne pas maîtriser la situation qui a souvent été
cité dans les difficultés qu’ont les opérateurs avec l’automation. Les ressources
cognitives incluent évidemment la charge de travail dont l’évaluation subjective peut
conduire à des changements notables de stratégie [SPE 77]. À ce propos, dans
l’expérience sur la coopération homme-machine dans le contrôle aérien, une
homéostasie de la charge a été relevée [HOC 98b]. À mesure que s’accroissaient les
aides, les stratégies devenaient de moins en moins réactives et de plus en plus
anticipatives, mais les évaluations subjectives de charge restaient constantes. Ainsi,
le gain en ressources internes était mis à profit pour aboutir à une stratégie, aussi
chargeante, mais plus fiable. Enfin, les coûts dont il est ici question sont des coûts
cognitifs que des opérateurs expérimentés sont tout à fait capables d’évaluer. De
telles évaluations en temps réel peuvent conduire à des modifications dans la
répartition des rôles sur la base de la charge, de la facilité d’accès aux données
nécessaires, de l’expérience de la sous-tâche concernée, etc. Le partage de ces
représentations de sa propre activité et de celles des partenaires peut jouer un rôle
central dans le bon déroulement de la coopération et de l’exécution de la tâche.
Coopération humaine et systèmes coopératifs 161
5.5.3. Connaissances passives
L’alimentation de la représentation symbolique provient de plusieurs sources :
(a) des données de la situation, (b) du dépassement d’un certain seuil d’activation
des processus subsymboliques et (c) des connaissances stockées en mémoire à long
terme (ou/et dans des documents jouant le rôle de mémoire externe). Nous mettrons
ici l’accent sur les connaissances. Dans l’énorme base de connaissances expertes
dont disposent les opérateurs, il faut en distinguer deux catégories. En premier lieu,
certaines connaissances resteront non pertinentes à la situation, du point de vue des
opérateurs, même si elles restent pertinentes pour un observateur extérieur. Ces
connaissances n’ont aucune chance d’être évoquées au cours de l’exécution de la
tâche et nous les écarterons. Restent les connaissances passives qui sont accessibles
à l’activation mais qui peuvent rester non évoquées. Selon la terminologie courante,
elles sont dites « encapsulées » dans les automatismes. Il en va ainsi des
connaissances biomédicales qui ne sont pas évoquées au cours du diagnostic mais
qui fondent ce diagnostic et qui sont prêtes à être redéployées en cas de problème
[BOS 92]. La coopération peut favoriser de tels redéploiements.
5.5.4. Représentations contextuelles
Qu’il s’agisse de la psycholinguistique ou de l’intelligence artificielle de la
résolution de problème, la notion de contexte est souvent considérée comme une
notion utile, mais sa définition reste assez floue [CLA 96] [TUR 98]. En
psycholinguistique, le contexte (à distinguer du cotexte, mais qui joue de ce point de
vue un rôle similaire) réduit l’ensemble des interprétations possibles du texte. C’est
dire implicitement que le texte est schématique puisqu’il est compatible avec
plusieurs interprétations. Le contexte intervient alors au moment de la spécification
de l’interprétation et il intègre aussi des éléments non linguistiques, parmi lesquels
les connaissances du lecteur.
Dans sa théorie Context Mediated Behavior, Turner [TUR 98] propose une
définition du contexte dans la résolution de problème, en l’illustrant par des
exemples empruntés à des travaux de robotique : « un contexte est une configuration
identifiable de caractéristiques de l’environnement, de la mission et des agents qui
permet de prédire le comportement » (p. 312). Il faut reconnaître qu’une telle
définition est compatible avec une large variété d’éléments. Mais les exemples que
l’auteur donne (mise en sécurité d’un sous-marin par une remontée à la surface dans
un contexte de haute mer et par une descente au fond dans un contexte de port)
montrent que la définition du contexte nécessite le recours à deux espaces
d’abstraction. Dans le premier espace est défini un plan qui ne sera pas remis en
question (mise en sécurité). Dans l’espace opérationnel où il faut spécifier ce plan,
les éléments contextuels amènent à le particulariser différemment. C’est aussi le cas
162 L'ingénierie Cognitive : IHM et Cognition
de Brézillon, Pomerol, et Saker [BRE 98] qui définissent les connaissances
contextuelles comme celles qui contraignent indirectement une solution (ex. : la
prise en compte des contre-indications d’un médicament dans le choix d’un
traitement).
Le contexte, en particulier le contexte partagé, joue évidemment un rôle très
important dans la coopération, notamment dans les communications formelles ou
informelles. L’étude sur la coopération homme-machine dans le contrôle aérien a
également montré que plus les aides étaient développées (accroissement de l’espace
d’informations partagées), plus les communications à propos du contexte étaient
limitées [HOC 98b]. De même, Falzon [FAL 89] avait montré que les
communications sur le contexte n’étaient requises que dans le cas où les deux agents
ne partageaient pas le même schéma (communications entre contrôleurs aériens et
pilotes, ou entre secrétaire et patient dans la prise de rendez-vous médical au
téléphone).
Dans le cadre de l’étude de la coopération cognitive, nous proposons de qualifier
de contexte l’ensemble des éléments pris en compte pour adapter la particularisation
d’un plan à une situation spécifique. Cette définition est tout à fait compatible avec
celle qui est couramment admise dans la communication linguistique et semble bien
correspondre à une réalité dans la résolution de problème. Les représentations
contextuelles varient au cours du déroulement d’une tâche et comportent à la fois
des composantes symboliques et subsymboliques.
5.5.5. Représentation subsymbolique
Les approches connexionnistes symboliques [RAU 98] qui sont de plus en plus
couramment admises nécessitent d’étendre nos conceptions d’une représentation
trop exclusivement enfermée dans le niveau symbolique et attentionnel. L’expertise
produit une automatisation de l’activité [CEL 97] [RAS 86] et il n’est pas
raisonnable de considérer l’activité d’un opérateur expérimenté comme
exclusivement contrôlée à un niveau symbolique. Certes, les techniques d’accès aux
processus subsymboliques, en particulier dans les situations complexes dont il est
question ici, ne sont pas très aisées (cf. par exemple [END 95b], pour la mesure de
la situation awareness ). En tout cas, elles sont souvent invasives et peuvent
modifier l’activité étudiée (en particulier les méthodes de jugement en temps réel qui
amènent forcément à l’attention ce qui est supposé contrôlé à un niveau inférieur).
Toutefois, les difficultés d’accès ne sauraient amener à se désintéresser de ces
phénomènes. Pour accorder l’attention nécessaire à la navigation, il va de soi que le
conducteur d’une voiture doit avoir automatisé une grande partie de son activité.
Pour aboutir au bon diagnostic, le médecin s’appuie sur des inférences immédiates
Coopération humaine et systèmes coopératifs 163
qui produisent le sous-ensemble des hypothèses entre lesquelles va s’opérer son
choix [ELS 78] [RAU 98].
La terminologie utilisée par Shiffrin et Schneider [SHI 77] qui oppose processus
contrôlés à processus automatiques pourrait laisser penser qu’il n’y a de contrôle
qu’attentionnel. C’est évidemment inexact quand on considère, par exemple, la
richesse des travaux sur les programmes moteurs qui soulignent leur adaptabilité
[CAM 96]. C’est ainsi que le concept de représentation doit être étendu à la
représentation subsymbolique. Dans les travaux sur les modèles connexionnistes
symboliques, on admet de nos jours que des processus d’activation (et d’inhibition)
modifient continuellement la représentation. Certains nœuds du réseau sont activés
en dessous d’un certain seuil et constituent la représentation subsymbolique.
D’autres ont un niveau d’activation supérieur au seuil et forment la représentation
symbolique. Nous n’entrerons pas dans les détails de ces théories, mais nous en
retiendrons seulement la double détermination entre le niveau symbolique et le
niveau subsymbolique. Les nœuds activés dans la représentation symbolique sont en
mesure de diffuser de l’activation au niveau inférieur, y compris d’accroître le seuil
d’activation de certains nœuds pour les faire parvenir éventuellement à l’attention.
Bien entendu, la représentation subsymbolique est active, en particulier en
produisant des effets contextuels qui affectent les traitements symboliques.
Il nous semble que les travaux actuels sur la coopération sous-estiment le rôle de
la représentation subsymbolique. Ils n’admettent dans la représentation partagée que
ce que les agents ont conscience de partager, de ce fait ils excluent totalement les
représentations subsymboliques partagées. Il convient d’inclure ces dernières,
notamment dans des situations à fortes contraintes temporelles, mais pas
exclusivement, pour rendre compte de certaines difficultés, mais aussi de certaines
réussites de la coopération quand une partie, certes implicite, mais cruciale du
REFCOM est partagée.
Après avoir tenté de définir la richesse des constituants du REFCOM
(Figure 5.2) dont la mise à jour permanente doit être pistée pour comprendre le
déroulement de la coopération cognitive, nous sommes maintenant en mesure
d’aborder les activités coopératives qui ont la double fonction de mettre à jour le
REFCOM et de contribuer à la réalisation collective des tâches.
164 L'ingénierie Cognitive : IHM et Cognition
CONNAISSANCES PASSIVES
REPRÉSENTATION
SYMBOLIQUE:
Niveau MÉTA
CONNAISSANCES
CONTEXTUELLES
Niveau PLAN
Niveau ACTION
Émergence
Supervision
REPRÉSENTATION
SUBSYMBOLIQUE
Figure 5.2. Les constituants du référentiel commun.
5.6. Architecture des traitements
5.6.1. La coopération comme méta-activité
Dans notre approche cognitive de la coopération, nous privilégions le point de
vue fonctionnel, comme nous l’avons indiqué, mais surtout le point de vue de la
psychologie cognitive. Ceci nous a amené à partir de la définition de la coopération
proposée par Jean Piaget [PIA 65]. Il convient de la resituer dans le débat de
l’époque qui opposait son approche intrinsèque du développement cognitif aux
tenants du rôle majeur des interactions sociales (en particulier [VYG 78]). C’est
alors qu’il a proposé une vision interactionniste des phénomènes internes (l’accès au
stade des opérations formelles) et des phénomènes externes (la construction d’un
savoir-coopérer). Pour Piaget, le développement cognitif nécessite la coopération et
la coopération nécessite le développement cognitif. Ceux qui travaillent sur la
formation à la coopération dans le cockpit [ORA 93] [ROG 96] ne sont pas loin de
partager le même point de vue en montrant que le développement du savoir-coopérer
va de pair avec le développement de l’expertise dans le domaine.
Coopération humaine et systèmes coopératifs 165
Pour Piaget donc (op. cit. ) : « Coopérer dans l’action c’est opérer en commun,
c’est-à-dire ajuster au moyen de nouvelles opérations […] les opérations exécutées
par chacun des partenaires […] C’est coordonner les opérations de chaque partenaire
en un seul système opératoire dont les actes mêmes de collaboration constituent les
opérations intégrantes. » (p. 91). On ne peut pas être plus clair : les activités que
nous conviendrons d’appeler coopératives se superposent aux activités « privées » et
supposent le recours à un niveau d’abstraction supérieur (métaopérations),
impliquant en particulier une décentration par rapport à son activité propre. C’est
bien pourquoi Piaget fait le parallèle avec le développement de la pensée qui
s’appuie sur l’abstraction réfléchissante. Néanmoins, nous distinguerons plusieurs
niveaux d’abstraction dans la définition des activités coopératives. C’est cette
conception de la coopération comme abstraction (et réciprocité) qui rend les travaux
de psychologie cognitive et d’intelligence artificielle tout à fait pertinents pour
modéliser la coopération cognitive.
Plus précisément, nous adopterons la définition suivante pour la coopération (elle
se généralise aisément à plus de deux agents) et nous en détaillerons les différents
aspects dans les paragraphes qui vont suivre :
Nous considérerons que deux agents sont en situation de coopération aux deux
conditions minimales suivantes
– Ils poursuivent chacun des buts qui peuvent entrer en interférence, au
niveau des buts, des ressources, des procédures, etc.
–
Ils font en sorte de traiter ces interférences pour faciliter les activités
individuelles ou(et) la tâche commune quand elle existe.
Il s’agit là d’une définition minimale de la coopération qui souligne deux types
de fonctionnalités : la gestion d’interférence et la facilitation de l’activité. Nous
allons maintenant détailler ces deux aspects. Nous verrons ensuite que plusieurs
niveaux d’activités coopératives peuvent être impliqués dans le déroulement de la
coopération. En particulier, cette définition ne suppose pas le partage d’un objectif
commun qui peut toutefois être élaboré.
L’évitement pur est simple des interférences pour permettre de travailler
individuellement ou, au contraire, leur introduction délibérée pour gêner un
adversaire sortent du cadre de la coopération, bien qu’il y ait communauté de
mécanismes. Ces cas se rencontrent dans la relation entre humains ou entre humains
et machines. L’humain peut en effet adopter une stratégie telle que les risques
d’interférences avec la machine soient minimaux. Dans l’utilisation d’une aide
automatique au maintien de distance de séparation entre voitures (ACC5), le
conducteur peut occuper plus longuement la file de gauche sur autoroute pour éviter
5
Adaptive Cruise Control
166 L'ingénierie Cognitive : IHM et Cognition
d’être ralenti par les véhicules lents de la file de droite [SAA 99]. Dans le contrôle
aérien, nous avons aussi remarqué que certains contrôleurs adoptaient des
résolutions qui n’exploitaient pas les niveaux de vol où la machine était en train de
résoudre des conflits [HOC 98b]. Ces contournements de la coopération peuvent
révéler des surcharges de travail ou des incapacités à la mettre en œuvre qui peuvent
rigidifier le système homme-machine quant à ses capacités adaptatives. Quand le
partenaire est pris comme un adversaire, il s’agit non plus de coopération mais de
compétition. Cette attitude des opérateurs vis-à-vis de la machine avait été
rencontrée dans de précédentes expériences où la répartition des tâches était hors du
contrôle de l’opérateur [DEB 92].
5.6.2. Les notions d’interférence et de facilitation
La notion d’interférence est empruntée à la littérature sur la planification [HOC
88] et s’oppose à la notion d’indépendance entre buts ou procédures. Elle est
dépouillée de sa connotation négative, comme elle l’est du reste en physique d’où
elle est importée de façon métaphorique : des signaux interférents peuvent en effet
se renforcer s’ils sont en phase ou se gêner s’ils ne le sont pas. Nous rejoignons en
cela Castelfranchi [CAS 98] qui définit l'interférence entre buts et procédures dans la
coopération par le fait que « les effets des actions d’un agent sont pertinents pour les
buts d’un autre agent, c’est-à-dire qu’ils peuvent, soit favoriser la poursuite de
certains buts des autres agents (interférence positive), soit mettre en péril certains
d’entre eux (interférence négative) » (p. 162).
Plus précisément, plusieurs types d’interférence entre activités peuvent être
définis (cette liste n’est pas exhaustive et couvre ce qu’on a coutume d’observer, en
particulier dans les études citées auxquelles nous emprunterons des illustrations).
Les deux premiers peuvent se trouver dans les activités privées et être résolus au
niveau individuel. Quand les activités sont réparties entre plusieurs agents, leur
traitement relève de la coopération. Les deux derniers sont propres aux situations de
coopération.
– Interférence de précondition. L’une des activités est une précondition au
développement de l’autre ou peut être transformée pour satisfaire cette
propriété. Dans le contrôle aérien, le CO baisse le niveau de sortie d’un
avion pour permettre au CR de résoudre un conflit proche de la sortie de
secteur par baisse du niveau de vol (la sortie au niveau prévu aurait été
impossible et ce type de résolution n’aurait pas été envisageable). Parmi les
interférences de précondition, Castelfranchi (op. cit. ) distingue le cas
particulier de la dépendance quand un agent ne peut pas poursuivre son but
sans l'autre agent. Une interférence de précondition peut en effet n'être
qu'optionnelle quand la précondition peut être réalisée par un seul agent
(évidemment au risque d'élever sa charge).
Coopération humaine et systèmes coopératifs 167
–
Interférence d’interaction. Les deux activités peuvent mutuellement mettre
en péril leurs buts respectifs et doivent être conçues pour l’éviter. Dans le
pilotage d’avion de combat, le navigateur cherche à optimiser le plan de vol
en modifiant le prochain point de passage (but de destination). Pour ce faire,
il va devoir modifier les affichages du pilote (ressources) et donc les
conditions de son activité actuelle. Le pilote devra modifier son activité
actuelle en conséquence. Castelfranchi (op. cit. ) distingue deux types
d'interférences d'interaction : la dépendance mutuelle quand les agents
dépendent l'un de l'autre pour réaliser un but commun et la dépendance
réciproque lorsqu'ils dépendent l'un de l'autre pour réaliser des buts
individuels (et non pas un but commun).
–
Interférence de contrôle mutuel. Pour des raisons de sécurité, l’aviation
encourage dans tous les domaines le contrôle mutuel. Par exemple, le pilote
qui n’est pas aux commandes est encouragé à vérifier le bien-fondé des
actions du pilote aux commandes. Dans le contrôle aérien, le CO est
encouragé à vérifier le travail du CR. Dans ces conditions, la tâche qui est
exécutée effectivement par l’un des agents, parce qu’elle relève de sa
responsabilité, est réalisée aussi, en quelque sorte « mentalement », par un
autre. Lorsqu’il y a désaccord (interférence), il y a aussi recherche de
consensus sur les actions à mener. Les protocoles cités en exemple en
fournissent de nombreuses illustrations. Au sens de Schmidt [SCH 91], il
s’agit d’une coopération « confrontative » qui tire profit de points de vue
différents sur une même tâche.
–
Interférence de redondance. Il arrive que l’affectation d’une tâche
particulière à un agent bien défini ne soit pas prévue à l’avance. C’est
l’agent le mieux placé au moment de la survenue de cette tâche qui la
réalisera. Dans le pilotage d’avion de combat, la recherche de l’objectif est
réalisée par les deux opérateurs avec des moyens différents. Le premier à
l’identifier procédera à l’acquisition. Dans les termes de Schmidt (op. cit.),
la redondance permet la coopération « augmentative ».
Ces différents types d’interférence montrent que le caractère négatif ou positif
d’une interférence ne relève pas de sa définition, mais d’une évaluation dont il faut
définir les critères. Dans chacun des cas, on peut considérer que l’interférence a été
négative quand on aurait pu l’éviter, mais on peut considérer aussi qu’elle a été
positive si sa survenue a permis d’améliorer la performance ou l’activité de l’équipe.
5.6.3. La gestion subsymbolique des interférences
Dans la gestion de processus rapides, en ayant recours à des opérateurs
expérimentés, bien des interférences sont gérées par des activités subsymboliques,
c'est-à-dire par des réponses déjà acquises qui ne nécessitent pas le recours à
168 L'ingénierie Cognitive : IHM et Cognition
l’attention. Peu de travaux portent sur cette question en situation de coopération et il
est difficile, dans l’état actuel des connaissances et des méthodologies, de proposer
un cadre théorique satisfaisant pour l’aborder. Toutefois, si l’on s’en tient à l’analyse
des temps de réponse, au caractère laconique des communications, au nombre de
tâches en cours requérant l’attention dans nos études, l’existence d’une gestion
subsymbolique des interférences ne peut être ignorée. Nous partageons l'idée de
Castelfranchi [CAS 98], selon laquelle la coopération ne peut être étudiée
complètement sans la notion d'émergence.
5.6.4. La gestion symbolique des interférences
5.6.4.1. La coopération dans l’action
Le niveau de la coopération dans l’action regroupe des activités coopératives
opérationnelles directement liées à la gestion des buts et des procédures au cours de
l’exécution, en temps réel et à court terme. Elles gèrent effectivement les
interférences, même si elles doivent être préparées par des activités coopératives à
des niveaux d’abstraction plus élevés, telles que nous les décrirons par la suite. Elles
sont aussi susceptibles d’alimenter et de mettre à jour en permanence le REFCOM.
À ce niveau, nous pouvons distinguer quatre types d’activités.
– Création locale d’interférence. Il s’agit ici évidemment de la création
délibérée d’interférence en vue de se faciliter la tâche, de faciliter celle de
l’autre ou de faciliter la tâche commune. Le cas typique est le désaccord
produit au cours d’un contrôle mutuel. Mais l’introduction d’une
interférence peut contribuer à faciliter une tâche commune, voire même la
tâche du partenaire. Dans la résolution de problème de gestion, Dalal et
Kasper [DAL 94] ont étudié les bénéfices qui pouvaient être tirées d’une
coopération homme-machine où les deux agents adoptent des styles
cognitifs différents (stratégie analytique par opposition à une stratégie
globale). Après avoir constaté les effets indésirables des systèmes experts,
au moins chez des professionnels, un courant de recherche (bien documenté
par Roth et al. [ROT 97] notamment dans le domaine médical, mais
relativement ancien [JAC 84] ; voir aussi Guerlain et al. [GUE 99]) s’est
attaché à montrer les intérêts des systèmes critiques. Ces systèmes ne
produisent pas d’emblée une solution, mais « regardent par-dessus
l’épaule » de leurs utilisateurs pour intervenir quand leur démarche s’écarte
de ce qui est attendu. Des résultats très positifs ont été obtenus, en
comparant notamment le mode critique au mode classique de la production
de la solution par le système. Cette approche permet notamment d’éviter les
inconvénients de l’attitude de contentement dans les situations où le système
est fragile. Dans une étude sur la conduite de haut fourneau, Denecker et
Hoc [DEN 97] ont montré que les utilisateurs réguliers d’un système
Coopération humaine et systèmes coopératifs 169
d’assistance à l’anticipation avaient notamment développé des habiletés à
l’utiliser pour critiquer leur analyse, ce à quoi n’étaient pas parvenus des
utilisateurs plus irréguliers. Ce résultat rejoint celui que Smith et Crabtree
[SMI 75] avaient observé dans l’utilisation d’une aide à l’ordonnancement
dans la gestion de production.
–
Détection locale d’interférence. Pour gérer une interférence, il faut
évidemment être en mesure de la détecter. Il en va ainsi par exemple d’une
interférence de redondance : si un agent prend en charge une tâche, il faut
que les autres agents en soient avertis d’une façon ou d’une autre (par une
communication verbale ou par une information sur une interface).
–
Résolution locale d’interférence. Il s’agit ici de la résolution effective de
l’interférence dans l’action. L’un des problèmes cruciaux qu’il faut résoudre
dans la coopération, c’est la détermination du bon niveau d’abstraction à
adopter pour trouver la solution à une interférence. Quelquefois, il suffit
d’intervenir localement au niveau de l’action concrète. Quelquefois, il vaut
mieux remettre en question le plan pour trouver une solution durable.
Quelquefois, deux agents doivent être considérés. Quelquefois, il faudra
considérer un ensemble d’agents plus large.
–
Identification de buts et de sous-buts. À ce niveau d’abstraction, l’inférence
du but ou des sous-buts d’un autre agent s’appuie uniquement sur les
connaissances du domaine. Dans le contrôle aérien, il n’est pas nécessaire au
CO de disposer d’un modèle sophistiqué de son partenaire pour anticiper
que la résolution la plus probable d’un conflit particulier entre avions
consiste à en descendre un, étant donné le contexte. S’il y a interférence
potentielle entre cette solution et la définition du niveau de sortie, le CO
peut anticiper l’interférence et agir immédiatement pour faciliter la tâche de
son partenaire. Cette activité coopérative est très importante puisqu’elle
permet à l’équipe de détecter les interférences et de les résoudre par
anticipation [CAS 98]. Souvent, du reste, l’interférence ne porte pas sur les
buts, mais sur les sous-buts par lesquels il faut passer pour atteindre les buts.
L’expertise dans le domaine joue un rôle considérable dans l’identification
des sous-buts. C’est peut-être pour cette raison que le développement du
savoir-faire est une condition à celui du savoir-coopérer. Les systèmes
critiques dont il a été question plus haut doivent évidemment bénéficier de
ce type d’habileté. C’est du reste sur l’identification des buts qu’ont
commencé les travaux [GIB 88] [JAC 84].
5.6.4.2. La coopération dans la planification
Les activités coopératives dont il est ici question se développent à un niveau
d’abstraction supérieur à celui de l’exécution. Elles peuvent évidemment faciliter la
coopération dans l’action. Dans la plupart des cas, elles se déroulent sur un moyen
170 L'ingénierie Cognitive : IHM et Cognition
terme par rapport au court terme de l’action. Dans certains cas, elles peuvent
toutefois se produire très rapidement et ne sont pas à exclure a priori du court terme
quant à leur exécution, mais leurs effets se traduisent à moyen et long terme.
Ces activités de coopération dans la planification peuvent aller du simple
maintien du référentiel commun à des élaborations plus ou moins difficiles. Dans le
premier cas, elles se repèrent par des communications unitaires suivies d’un simple
accusé de réception d’accord. L’information nouvelle est compatible avec
représentation du partenaire et ce dernier l’intègre immédiatement. Dans le second
cas, une suite plus ou moins importante de tours de parole, marquée par des
désaccords ou des surprises précède un accord final qui termine l’élaboration. Dans
les expériences citées sur le contrôle aérien [HOC 98b] [HOC 02] et sur l’aviation
de combat [LOI 99], les activités de maintien du référentiel commun sont apparues
prépondérantes. Rappelons qu’il s’agit de situation de contrôle de processus
relativement rapides, avec un partage important d’expertise entre les agents.
Le maintien ou l’élaboration du REFCOM peuvent porter sur deux types
d’entités : le processus contrôlé (la situation externe à l’équipe) ou l’activité de
contrôle elle-même (la situation interne à l’équipe). Bien entendu, les
communications portant sur le processus contrôlé ne sont pas sans lien avec sa
gestion. Mais la distinction doit être faite car les premières peuvent témoigner, soit
d’informations sur le processus contrôlé qui ne sont pas nécessairement déjà bien
intégrées au plan, soit de la nécessité de regrouper des informations qui ne sont pas
accessibles à tous les agents.
Quand les activités de coopération au niveau de la planification portent sur la
situation externe, il s’agit évidemment de produire des représentations contextuelles
partagées qui améliorent les communications et les choix de mise en œuvre des
plans. Karsenty [KAR 00], dans plusieurs études sur la coopération synchrone (entre
ingénieurs et dessinateurs) ou asynchrone (dans la réutilisation en conception
— entre concepteurs — ou dans l’application des procédures en aviation — entre
pilotes et concepteurs) a relié ces activités à l’explication. Dans une étude en cours
(contrôle aérien) sur la conception d’une assistance capable de calculer des
déviations optimales à partir de plans schématiques (ex. : « tourner à droite tel
avion »), une grande attention est accordée au partage entre le contrôleur et la
machine d’une même décomposition de l’espace problème en sous problèmes quasi
indépendants. En calculant une trajectoire, la machine sera en mesure d’identifier
des avions contextuels qui rendent le plan irréalisable et de suggérer au contrôleur
de modifier sa représentation du problème.
Trois grandes catégories d’activités coopératives au niveau de la planification
peuvent être distinguées quand elles portent sur l’activité de contrôle :
Coopération humaine et systèmes coopératifs 171
–
Maintien et élaboration d’un objectif ou d’un but communs. Il s’agit là des
critères de conception et d’évaluation de l’activité collective pendant une
période plus ou moins longue. Ces entités ne se définissent pas encore en
termes de moyens pour les satisfaire. Elles dirigent l’activité de l’ensemble
de l’équipe. Par exemple, dans le pilotage d’avion de combat, les opérateurs
peuvent avoir à s’entendre sur la modification d’un but de destination
(nécessairement commun puisqu’ils sont dans le même avion) pour faciliter
la mission.
–
Maintien et élaboration d’un plan commun. Cette fois, ce sont des moyens
dont il s’agit. Un plan commun est nécessairement élaboré quand plusieurs
agents sont impliqués dans sa réalisation. Il permet notamment de résoudre à
l’avance les questions de coordination. Il intègre la répartition des
ressources externes. Par exemple, à la suite d’un accident de chemin de fer
dans la banlieue de Londres, Dowell [DOW 95] a pu montrer le rôle crucial
qu’a pu jouer l’absence de plan commun entre les différents intervenants
dans la mise en œuvre des secours. L’auteur a développé un simulateur et
une méthode de formation pour favoriser le développement de cet aspect de
l’activité collective.
–
Maintien ou élaboration d’une répartition des fonctions. Nous n’entrerons
pas ici dans la distinction entre rôle, tâche et fonction. Dans la littérature, la
notion de rôle implique une responsabilité (proprement humaine). Quant à la
notion de tâche, elle renvoie à une macro-unité intentionnelle dans l’activité
humaine, qui rend son usage inapproprié pour des opérations plutôt
considérées comme des moyens que des fins. Nous prendrons la notion de
fonction de façon générique pour recouvrir toutes ces entités, comme c’est
du reste bien souvent le cas dans la littérature. Bien que la répartition des
fonctions puisse paraître liée à l’élaboration d’un plan commun, elle peut
changer sans que le plan ne soit remis en question. Par exemple, dans
l’aviation de combat, le navigateur évalue la charge du pilote et propose de
réaliser une fonction d’illumination de l’objectif qui était affectée au
premier. Le plan n’a pas changé, mais seulement la répartition des fonctions
qui permet de mieux adapter l’équipe à la situation rencontrée. Parmi les
activités de répartition des fonctions, Castelfranchi [CAS 98] accorde une
place importante à la délégation, dont la pertinence est évidente dans la
coopération homme-machine. La délégation, selon cet auteur, peut être plus
ou moins explicite vis-à-vis du partenaire : en tirant parti de l'action
spontanée du partenaire, en induisant cette action (sans que le partenaire en
soit conscient) ou en négociant cette action. Cette dernière forme (forte) de
délégation s'inscrit dans le cadre de la répartition des fonctions. La fonction
déléguée peut être purement exécutive ou plus productive (en laissant des
marges de manœuvre) ; elle peut concerner une tâche du domaine ou une
activité purement cognitive (de planification ou de contrôle). La répartition
172 L'ingénierie Cognitive : IHM et Cognition
dynamique des fonctions entre humains est d’observation courante dans la
coopération (voir par exemple une étude de Navarro, Terrier et Courteix,
1981, sur cette question entre CO et CR dans le contrôle aérien [NAV 81]).
La répartition dynamique des fonctions entre humain et machine a donné
lieu à de nombreux travaux sur lesquels nous ne reviendrons pas ici [DEA
00] [DEB 92] [MCC 00] [MIL 95] [PAR 96] [RIE 82] [OLD 97] [SHE 88]
[WRI 00]. Ces travaux amènent à souligner les limites d'une répartition a
priori en matière de capacités adaptatives du système homme-machine.
Toutefois, l’attribution d’une fonction tactique à un opérateur qui a déjà un
rôle stratégique peut conduire à des résultats contestables. Jentsch, Barnett,
Bowers et Salas [JEN 99] ont interprété en ce sens le fait que le
commandant de bord puisse prendre les commandes dans l’aviation civile,
en remarquant qu’une majorité d’incidents graves (notamment en termes de
perte de situation awareness) survenaient dans ces conditions.
5.6.4.3. La métacoopération
Le préfixe « méta » doit être pris ici dans un sens plus faible que celui qui
s’applique aux métaconnaissances. Il ne s’agit pas de coopération sur la coopération,
mais d’activités coopératives d’un niveau d’abstraction plus élevé produisant des
données générales qui sont utiles aux activités coopératives des deux niveaux
précédents : des codes de communication, des systèmes de représentation
compatibles et des modèles, de soi-même et des partenaires. Ce niveau d’activité
entretient avec les activités coopératives de plus bas niveau le même type de relation
que ce que Falzon [FAL 94] a appelé les activités « métafonctionnelles » par rapport
aux activités fonctionnelles. Les premières se présentent comme des activités
réflexives sur les secondes qui permettent de mettre en place des outils susceptibles
de faciliter ces dernières à l’avenir. Les premières sont souvent produites hors de
l’action.
– Élaboration d’un code de communication commun. Assez trivialement, dans
des domaines techniques, notamment quand les contraintes de temps sont
sévères, les membres d’une équipe font usages de ce que P. Falzon [FAL
89] a appelé des langages « opératifs ». Il s’agit de restrictions de la langue
susceptibles d’économiser les communications pour transmettre des valeurs
de variables de schémas connus. Ces codes sont souvent formels ou au
moins acquis par avance, par exemple les codes de communication dans les
salles d’opération chirurgicale, entre pilotes et contrôleurs, etc. Quelquefois,
ils se construisent pour une tâche particulière quand les codes préexistants
sont insuffisants. Dans l’exemple du contrôle aérien, les contrôleurs
disposaient de strips électroniques (affichés et manipulables sur écran). En
réalité, il s’agit de petites bandes de papier, chacune étant imprimée à
l’approche d’un avion dans le secteur contrôlé et comportant l’essentiel des
informations concernant cet avion. Toutefois, pour ne pas introduire une
Coopération humaine et systèmes coopératifs 173
trop grande distance entre les strips en papier, partagés par les contrôleurs et
sur lesquels ils avaient l’habitude d’écrire des informations
complémentaires, un répertoire d’icônes de différentes couleurs était
disponible pour marquer les strips électroniques. Ces marquages
permettaient notamment de repérer des avions en conflit, des avions qui
atterrissaient sur le même aéroport, etc. En début de session, les contrôleurs
s’entendaient entre eux sur la signification qu’ils donneraient aux icônes et
aux couleurs.
–
Élaboration de représentations compatibles. On pense d’abord à des
situations de coopération intégrative, au sens de K. Schmidt [SCH 91], où
les partenaires ont des expertises différentes. Une équipe de suivi de projet
en architecture est de cette nature. Elle peut intégrer des expertises aussi
diverses que la résistance des matériaux, les charpentes métalliques, la
fabrication s’il s’agit de construire une usine, l’ergonomie, etc. Dans une
certaine mesure l’exemple du pilotage d’avion de combat bi-place intègre
deux expertises : pilote et navigateur correspondent à deux professions
différentes, chacun n’exerçant que la sienne. Toutefois, le recouvrement
entre ces deux domaines d’expertise est important et une certaine répartition
des rôles reste possible, comme nous l’avons vu plus haut. Dans le cas des
deux contrôleurs aériens, CR et CO ne correspondent pas à des professions.
Un contrôleur a l’habitude de travailler alternativement sur les deux
positions d’un quart à l’autre. Cependant, qu’il y ait des expertises
différentes ou identiques, dès lors que les rôles globaux des opérateurs sont
différents (ou les styles cognitifs comme le montre une étude de la
coopération homme-machine [DAL 94]), le type de représentation de la
situation utilisé par chacun diffère de celui de l’autre. Le conducteur d’une
voiture n’en a pas la même représentation que son garagiste. Si ces
personnes doivent coopérer, la chose est d’autant plus aisée que l’un et
l’autre disposent de capacités de traduction d’un système de représentation
dans l’autre. Dans l’exemple du contrôle aérien, il était courant que CO
transmette une information à CR sous une forme compatible avec l’activité
de CO et que CR reformule cette information tout à fait autrement
(notamment dans les termes des actions à entreprendre) pour lui répondre.
Un observateur ne disposant pas des connaissances nécessaires dans le
domaine aurait d’ailleurs pu considérer que les deux tours de parole
n’avaient aucune relation. Quand les expertises sont proches, il s’agit
d’habiletés à procéder à des changements de point de vue, quand elles sont
très éloignées, ces capacités de traduction relèvent de ce qu’on appelle
l’explication, largement étudiée en informatique [KAR 95a&b]. Expliquer
revient à produire à l’autre les indices nécessaires pour que cette personne
puisse intégrer une information nouvelle à un réseau préexistant
174 L'ingénierie Cognitive : IHM et Cognition
d’informations connues [KAR 96] et cela va plus loin qu’un simple
changement de points de vue.
–
6
Élaboration d’un modèle de soi-même et du partenaire. Les connaissances
dans le domaine peuvent permettre à chaque agent d’inférer les buts et les
sous-buts poursuivis par chacun à partir d’indices comportementaux, comme
nous l’avons vu plus haut. Il arrive cependant que la connaissance de
particularités psychologiques liées à chaque agent soit nécessaire pour
produire ces inférences qui jouent un rôle majeur dans une gestion anticipée
des interférences conduisant à des solutions plus optimales. Castelfranchi
[CAS 98] parle de « mind reading ». Pour ce faire, l’agent doit avoir, non
seulement un modèle de son partenaire, mais aussi un modèle de lui-même,
car c’est la confrontation de ces modèles qui permettra de gérer les
interférences. Cette question est très proche de la problématique de la
confiance, telle qu’elle a été introduite dans le domaine de la coopération
homme-machine par Muir [MUI 94] et reprise par Lee et Moray [LEE 94].
Muir a distingué trois étapes dans le développement de la confiance de
l’humain dans la machine : (a) la prédictibilité (quand, en s’appuyant sur
quelque expérience, l’humain peut prédire le comportement de la machine
dans certaines situations connues), (b) « dependability 6»
(quand la
prédictibilité peut être étendue à un large ensemble de situations) et (c) la foi
(quand on estime que l’agent va continuer à se comporter de la même
manière dans le futur). Un certain nombre de difficultés des opérateurs
humains avec des machines peuvent être éclairées par cette approche, en
particulier les contournements d’une automation en laquelle on n’a pas
confiance. Cependant, dans leurs travaux empiriques, Lee et Moray (op.
cit. ) ont bien montré que la confiance dans la machine seule ne peut pas
rendre compte à elle seule des passages entre le mode manuel et le mode
automatique. C’est bien l’évolution du rapport entre la confiance en soi et la
confiance dans la machine qui règle ces passages. De façon ultime, ce
rapport est réglé par le degré d’élaboration d’un modèle de soi-même
(opérateur humain) et d’un modèle du partenaire (machine). Ces
élaborations se développent sur de longues périodes de temps et nous
n’avons pas été en mesure de les observer dans nos travaux. Même avec
l'expérience du glass cockpit, il y a encore des pilotes surpris par ce que font
les machines [FUN 99] [SAR 92]. Le niveau d’abstraction de ces
élaborations est bien mis en avant par J. Piaget [PIA 65] quand il le met en
parallèle avec le niveau d’abstraction nécessaire au développement des
opérations formelles chez un même individu. C’est ce qui le conduit à
penser que le développement intellectuel va de pair avec le développement
du savoir-coopérer.
La perception d’un certain « sérieux » chez le partenaire.
Coopération humaine et systèmes coopératifs 175
La Figure 5.3 résume l'ensemble des activités coopératives qui viennent d'être
définies.
Figure 5.3. Les trois niveaux d'abstraction des activités coopératives.
5.7. Perspectives
Dans le cadre limité de ce texte, il ne nous est pas possible de dériver toutes les
conséquences méthodologiques et pratiques de notre approche théorique. Ces
conséquences sont de trois ordres. En premier lieu, ce cadre théorique est de nature à
orienter des réflexions sur l’évaluation de la coopération. Nous avons déjà abordé ce
thème par ailleurs [HOC 98a]. Il est crucial pour guider la conception, la formation
et le soutien de la coopération, ainsi que pour donner des critères de choix entre des
alternatives. En second lieu, ce cadre permet d’éclairer des recherches dans le
domaine du CSCW pour suggérer des soutiens à la coopération. Nos travaux sur ce
point ne font que commencer, à la fois dans le contrôle aérien et le pilotage d’avion
de combat biplace. En troisième lieu et en allant beaucoup plus loin, ce cadre
conduit à redéfinir le concept de « machine coopérative » et à tracer des perspectives
de recherche en informatique et en automatique dans ce domaine. Sur cette question,
Millot et Lemoine [MIL 98] ont déjà fait quelques avancées.
176 L'ingénierie Cognitive : IHM et Cognition
5.7.1. Évaluation de la coopération
Comme toute autre activité cognitive, la coopération peut être évaluée de deux
façons [BRA 97]. En premier lieu, on peut s’intéresser aux effets que produit la
coopération sur la réalisation d’une tâche. On évalue alors la coopération en termes
de performance externe (performance au sens strict) et les critères d’évaluation sont
empruntés au domaine, par rapport à une performance optimale. Par exemple, dans
le contrôle aérien, on sera sensible à la façon dont le trafic s’écoule dans le secteur, à
la consommation en carburant des avions, à l’économie dans le détournement des
routes, aux near-misses, etc. Nous qualifierons cette évaluation d’extrinsèque. En
second lieu, on peut examiner le déroulement de la coopération par rapport à ce qui
pourrait être un déroulement optimal. La coopération est alors évaluée en termes de
performance interne et les critères d’évaluation sont d’ordre psychologique. Par
exemple, on pourra s’intéresser à la charge mentale que cette activité représente.
Nous parlerons alors d’évaluation intrinsèque.
5.7.1.1. Évaluation extrinsèque
Depuis longtemps les chercheurs se sont intéressés à l’évaluation extrinsèque de
la coopération, soit en comparant la performance obtenue à des tâches par des
individus isolés à la performance d’équipes (en particulier, des comparaisons entre
solos et duos), soit en comparant les performances d’équipes. Les résultats de ces
travaux sont assez contrastés. Nous n’en ferons pas ici une revue exhaustive, mais
nous en citerons seulement quelques exemples illustratifs pour souligner quelques
questions qu’ils soulèvent.
Des comparaisons entre solos et duos, dans des situations de résolution de
problème, conduisent en général à la conclusion d’une supériorité des duos sur les
solos dans la conduite de haut fourneau [DEL 95], l'aviation de ligne [KRE 95] ou la
situation expérimentale de découverte [OKA 97]. Toutefois, ces travaux ne vont pas
jusqu’à se donner un cadre de description des activités coopératives pour le mettre
précisément en relation avec les activités de résolution de problème. Le travail de
Okada et Simon [OKA 97], au moins pour le type de situation étudiée, a le mérite de
cerner les raisons de la supériorité des duos. Du point de vue de la performance, les
duos produisent davantage d’expériences cruciales. Du point de vue (intrinsèque)
des activités de résolution de problème, ils considèrent davantage d’hypothèses, ce
qui produit davantage d’explications et de confrontations d’idées alternatives. Ils
produisent aussi davantage de justifications. Ce type d’approche, qui tente de
construire un modèle explicatif des gains en performance, d’abord par le rôle de la
coopération sur la résolution de problème, puis de la résolution de problème sur la
performance nous paraît bien être la direction vers laquelle devraient s’orienter
résolument les recherches. Le cadre que nous proposons a été conçu dans cette
perspective.
Coopération humaine et systèmes coopératifs 177
D’autres travaux ont tenté de mettre en relation la qualité de la coopération avec
la qualité de la performance [ORA 93] [ROG 96] [SAM 94] [SAM 93]. La
conclusion majeure de ces travaux est qu’il est extrêmement difficile de séparer les
effets de la coopération et les effets de l’expertise dans le domaine. Par exemple,
Rogalski [ROG 96], en étudiant une formation à la coopération dans le cockpit,
montre que l’acquisition d’expertise dans le domaine précède l’acquisition du
savoir-coopérer. Toutefois, une étude dans le domaine de l’aviation [STO 94] a mis
en évidence une corrélation positive entre habileté à coopérer et performance dans la
tâche, à niveau de savoir-faire constant.
5.7.1.2. Évaluation intrinsèque
L’architecture cognitive que nous avons proposée pour décrire les activités
coopératives fait apparaître de nombreuses relations entre elles. Toutes ces activités
sont susceptibles de se soutenir mutuellement. Le principal critère d’évaluation
intrinsèque de la coopération est donc la complétude des activités développées. Au
niveau d’abstraction le plus modeste, celui de la coopération dans l’action, on
conçoit que l’incapacité à inférer les buts et les sous-buts des autres agents conduise
à enfermer la coopération dans des stratégies réactives, du fait de l’impossibilité de
gérer les interférences par anticipation. Dans les situations de gestion de situation
dynamique, les contraintes de temps peuvent alors être un empêchement majeur à
permettre à cette coopération réactive de produire ses résultats à temps. Si cette
identification des buts nécessite plus que des connaissances dans le domaine, c’està-dire la disponibilité de modèles des partenaires, c’est un manque de niveau
d’abstraction qu’il faut combler. Il en ira de même si la résolution d’une interférence
ne peut conduire à un bon résultat au niveau local. Si la construction d’un plan
commun est nécessaire et que ce niveau d’abstraction est manquant, la performance
sera médiocre ou/et la charge de travail excessive. Une grande partie des critères
d’évaluation de la coopération homme-homme, dont Militello et al. [MIL 99] ont
proposé une revue, sont cohérents avec le cadre que nous venons de proposer, mais
nous pensons que ce cadre structuré pourrait permettre de les enrichir et de mieux
identifier les sources d’inefficacité (ou d’efficacité) d’une coopération particulière.
5.7.2. Soutien à la coopération
L’architecture que nous proposons peut également être utilisée pour définir les
soutiens nécessaires à la coopération. Les membres d’une équipe peuvent
potentiellement mettre en œuvre toutes les activités coopératives dont il a été
question, mais ne pas être en mesure de le faire, faute de soutien. Plusieurs travaux
mettent en avant l’importance du soutien au maintien du REFCOM [JON 97] [LEM
96]. Cette entité joue en effet un rôle crucial dans la gestion anticipée des
interférences et il est naturel qu’on y accorde le plus d’attention. Toutefois, dans des
178 L'ingénierie Cognitive : IHM et Cognition
situations où la gestion locale des interférences est acceptable, il ne faut pas négliger
la conception d’aides locales, comme dans le cas de la coopération homme-machine
où le savoir-coopérer de la machine ne peut être que limité. Par ailleurs, il faut
également soutenir la négociation et la construction dynamique des significations
[SCH 92].
Si l’on ne peut envisager de développer une machine qui dispose d’un minimum
de savoir-coopérer, il n’est pas pour autant judicieux d’abandonner le cadre de la
coopération pour analyser la relation homme-machine. En effet, même si la machine
n’est pas en mesure d’exécuter une quelconque activité coopérative, elle peut être
conçue pour soutenir son utilisateur qui, lui, dispose d’un savoir-coopérer dans
l’exécution des activités de coopération homme-machine. En ce qui concerne la
gestion des interférences, de nombreuses solutions existent en concevant des
machines susceptibles de délivrer les rétroactions appropriées, y compris des
rétroactions anticipées. Informer l’utilisateur sur ce qu’est en train de faire la
machine et sur ce qu’elle va faire dans un proche avenir est un soutien considérable
à la détection et à l’anticipation des interférences.
5.7.3. Machine coopérative
Le cadre que nous proposons peut fournir une base pour la définition de ce que
l’on peut considérer comme une « machine coopérative », au-delà d’un simple label
publicitaire. On admettra aisément qu’il n’est pas raisonnable d’accepter qu’une
machine soit qualifiée de coopérative si elle n’est capable de mettre en œuvre
aucune des activités coopératives décrites dans le cadre que nous proposons. Par
ailleurs, la structure des connaissances, des représentations et des activités qui est
décrite dans notre architecture peut également fournir une base à la gradation du
savoir-coopérer d’une machine. Il va de soi que cette base peut également
s’appliquer à une équipe d’agents humains.
5.8. Conclusions
Sans négliger l'intérêt des approches sociales de la coopération, le cadre
théorique que nous proposons pour étudier la coopération cognitive nous semble
nécessaire pour orienter l'évaluation de la coopération, son soutien et la conception
de machines coopératives. Malgré ses restrictions, ce cadre permet d'étendre les
modèles cognitifs individuels à l'étude du travail d'équipe, au moins dans les
situations où la dimension cognitive du travail est majeure, en tout cas dans celle où
les contraintes temporelles et les risques sont importants.
Coopération humaine et systèmes coopératifs 179
Ce cadre a été conçu pour être productif à moyen terme dans la conception d'une
relation homme-machine qui se rapproche de la coopération homme-homme. Dans
cette perspective, le modèle humain joue évidemment un rôle privilégié, puisque
l'une des composantes du système coopératif est un humain. Toutefois, il ne nous
paraît pas raisonnable de vouloir à tout prix transférer toute la complexité de la
coopération homme-homme sur la coopération homme-machine. Le couple hommemachine est évidemment une chimère et les limites actuelles de la machine ne
permettent pas un tel transfert. Nous pensons néanmoins qu'il est possible de
concevoir des machines coopératives, sur la base de l'état de l'art actuel, sans
attendre le développement de recherches hors de portée. Il serait dommage d'en
rester à un constat d'inaccessibilité de la complexité de la coopération pour des
machines et de se contenter, de ce fait, de relations homme-machine médiocres,
alors que l'on peut les améliorer. Par ailleurs, il est relativement aisé de concevoir
des machines susceptibles de soutenir les humains dans leurs activités de
coopération avec elles.
Toutefois, le nécessaire développement des recherches sur cette question de la
coopération homme-machine ne saurait fournir que des données exploratoires par
rapport aux questions difficiles de leur mise en pratique dans des situations réelles.
Tout accroissement de l’intelligence de la machine, même en termes de savoircoopérer, est susceptible de créer des effets de bord, non anticipés. Cependant, ce
n’est qu’en développant des machines susceptibles de coopérer que l’on pourra
espérer observer de tels effets et étudier les parades à mettre en œuvre.
C'est bien entendu la poursuite d'une pluridisciplinarité entre les sciences de
l'homme et les sciences de l'ingénieur qui permettra de calibrer convenablement les
recherches à entreprendre. S'agissant de la psychologie, sans négliger la complexité
du fonctionnement humain, il convient que cette discipline sache fournir des points
de repère productifs pour les concepteurs. S'agissant de l'informatique, sans négliger
les contraintes de faisabilité auxquelles elle est soumise, il convient que cette
discipline sache aussi sortir du cadre strict de l'interaction ou de la communication
homme-machine.
5.9. Bibliographie
[AMA 92a] Amalberti, R. « Safety in risky process control. » Reliability Engineering and
System Safety, 38, p. 99-108, 1992.
[AMA 96] Amalberti, R. La conduite de systèmes à risques. Paris: Presses Universitaires de
France, 1996.
[AMA 92b] Amalberti, R., & Deblon, F. « Cognitive modelling of fighter aircraft's process
control: a step towards an intelligent onboard assistance system. » International Journal
of Man-Machine Studies, 36, p. 639-671, 1992.
180 L'ingénierie Cognitive : IHM et Cognition
[AUS 62] Austin, J.L. How to do things with words. Oxford: Oxford University Press, 1962.
[BAG 94] Bagnara, S., Rizzo, A., & Failla, A. « Organizational structures and distributed
decision-making. » Le Travail Humain, 57, p. 387-400, 1994.
[BAI 87] Bainbridge, L. « Ironies of automation. » In J. Rasmussen, K.D. Duncan, & J.
Leplat (Eds.), New technology and human error. Chichester, UK: Wiley, p. 271-284,
1987.
[BIL 91] Billings, C.E. Human-centered aircraft automation: a concept and guidelines
(Technical Memorandum). Moffett field, CA: NASA, Ames Research Center, 1991.
[BIS 81] Bisseret, A. « Application of signal detection theory to decision making in
supervisory control: the effect of the operator's experience. » Ergonomics, 24, p. 81-94,
1981.
[BLA 93] Blanford, A.E. « An agent-theoretic approach to computer participation in dialogue.
» International Journal of Man-Machine Studies, 39, p. 965-998, 1993.
[BOS 92] Boshuizen, H.P.A., & Schmidt, H.G. « On the role of biomedical knowledge in
clinical reasoning by experts, intermediates and novices. » Cognitive Science, 16, p. 153184, 1992.
[BOY 95] Boy, G. « "Human-like" system certification and evaluation. » In J.M. Hoc, P.C.
Cacciabue, & E. Hollnagel (Eds.), Expertise and technology: cognition and humancomputer cooperation. Hillsdale, NJ: Lawrence Erlbaum Associates, p. 243-254, 1995.
[BOW 95] Bowers, C., Deaton, J., Oser, R., Prince, C., & Kolb, M. « Impact of automation
on aircrew communication and decision-making performance. » International Journal of
Aviation Psychology, 5, p. 145-167, 1995.
[BRA 97] Brannick, M.T., Salas, E., & Prince, C. Team performance assessment and
measurement: theory, methods, and applications. Mahwah, NJ: Lawrence Erlbaum
Associates, 1997.
[BRE 98] Brézillon, P., Pomerol, J.C., & Saker, I. « Contextual and contextualized
knowledge: an application in subway control. » International Journal of HumanComputer Studies, 48, p. 357-373, 1998.
[CAM 96] Camus, J.F. (1996). La psychologie cognitive de l’attention. Paris: Armand Colin,
1996.
[CAN 93] Cannon-Bowers, J.A., Salas, E., Converse, S.A. (1993). « Shared mental model in
expert decision making teams. » In N.J. Castellan, Jr. (Ed.), Current issues in individual
and group decision making, Hillsdale, NJ: Lawrence Erlbaum Associates, p. 221-246,
1993.
[CAR 83] Card, S.K., Moran, T.P., & Newell, A. The psychology of human-computer
interaction. Hillsdale, NJ: Lawrence Erlbaum Associates, 1983.
[CAS 98] Castelfranchi, C. « Modelling social action for agents. » Artificial Intelligence, 103,
p. 157-182, 1998.
[CEL 97] Cellier, J.M., Eyrolle, H., & Mariné, C. « Expertise in dynamic environments. »
Ergonomics, 40, p. 28-50, 1997.
Coopération humaine et systèmes coopératifs 181
[CHA 00] Chauvin, C. « Des marques linguistiques aux processus cognitifs: application à
l’analyse de l’activité d’anticollision à bord des navires de commerce. » Le Travail
Humain, 63, p. 31-58, 2000.
[CLA 93] Clark, A.A., & Smyth, G.G. « A co-operative computer based on the principles of
human co-operation. » International Journal of Man-Machine Studies, 38, p. 3-22, 1993.
[CLA 96] Clark, H.H. Using language. Cambridge, UK: Cambridge University Press, 1996.
[CUN 67] Cuny, X. « La circulation de l'information dans un système élémentaire d'un
service de transport. » Bulletin du CERP, XVI, p. 1-19, 1967.
[DAL 94] Dalal, N.P., & Kasper, G.M. « The design of joint cognitive systems: the effect of
cognitive coupling on performance. » International Journal of Human-Computer Studies,
40, p. 677-702, 1994.
[DEA 00] Dearden, A., Harrison, M., & Wright, P. « Allocation of function: scenarios,
context and the economics of effort. » International Journal of Human-Machine Studies,
52, p. 289-318, 2000.
[DEB 92] Debernard, S., Vanderhaegen, F., & Millot, P. « An experimental investigation of
dynamic allocation of tasks between air traffic controller and A.I. system. » Paper
presented at the 5th IFAC/IFIP/IFORS/IEA MMS, Amsterdam, 1992.
[DEL 95] Delsart, F. Diagnostic collectif dans la conduite de processus industriel:
coopération et ergonomie des systèmes homme-homme et homme-machine. Thèse,
Université de Paris 8, Saint-Denis, 1995.
[DEN 97] Denecker, P., & Hoc, J.M. « Analysis of the effects of a support to anticipation in
the supervision of a long time-lag process: the blast furnace. » In S. Bagnara, E.
Hollnagel, M. Mariani, & L. Norros (Eds.), Time and space in process control - 6th
European Conference on Cognitive Science Approach to Process Control (pp. 165-170).
Roma: CNR, Istituto di Psicologia, 1997.
[DIJ 99] Dijkstra, J. « User agreement with incorrect expert system advice. » Behaviour &
Information Technology, 18, p. 399-411, 1999.
[DOW 95] Dowell, J. « Coordination in emergency operations and the tabletop training
exercise.» Le Travail Humain, 58, p. 85-102, 1995.
[ELS 78] Elstein, A.S., Shulman, L.S., & Sprafka, S. Medical problem-solving. Harvard
University Press, Cambridge, MA, 1978.
[END 95a] Endsley, M. « Toward a theory of situation awareness in dynamic systems. »
Human Factors, 37, p. 32-64, 1995.
[END 95b] Endsley, M. « Measurement of situation awareness in dynamic systems. » Human
Factors, 37, p. 65-84, 1995.
[END 99] Endsley, M., & Kaber, D.B. « Level of automation effects on performance,
situation awareness and workload in a dynamic control task. » Ergonomics, 42, p. 462492, 1999.
182 L'ingénierie Cognitive : IHM et Cognition
[EPH 81] Ephrath, A.R., & Young, L.R. « Monitoring versus man-in-the-loop detection of
aircraft control failures. » In J. Rasmussen & W.B. Rouse (Eds.), Human detection and
diagnosis of system failures, Plenum, New York, p. 143-154, 1981.
[FAL 89] Falzon, P. L'ergonomie cognitive du dialogue. Presses Universitaires de Grenoble,
1989.
[FAL 94] Falzon, P. « Les activités méta-fonctionnelles et leur assistance. » Le Travail
Humain, 57, p. 1-23, 1994.
[FER 97] Ferber, J. « Les systèmes multi-agents: un aperçu général. » Techniques et Science
Informatiques, 16, p. 979-1012, 1997.
[FOU 84] Foushee, H.C. « Dyads and triads at 35,000 feet. Factors affecting group process
and aircrew performance. » American Psychologist, 39, p. 885-893, 1984.
[FUN 99] Funk, K., Lyall, B., Wilson, J., Vint, R., Niemczyk, M., Suroteguh, C., & Owen, G.
« Flight deck automation issues. » International Journal of Aviation Psychology, 9, p.
109-123, 1999.
[GAR 99] Garbis, C., & Wærn, Y. « Team coordination and communication in a rescue
command staff: The role of public representations. » Le Travail Humain, 62, p. 273-291,
1999.
[GAS 91] Gasser, L. « Social conceptions of knowledge and action: Distributed artificial
intelligence foundations and open systems semantics. » Artificial Intelligence, 47, p. 107138, 1991.
[GIB 88] Giboin, A. The process of intention communication in advisory interaction. Paper
presented at the IFAC Third Man-Machine System Conference. Oulu, Finland, 1988.
[GUE 99] Guerlain, S.A., Smith, P.J., Rudmann, S., Strohm, P., Smith, J.W., Svirbely, J., &
Sachs, L. « Interactive critiquing as a form of decision support: An empirical evaluation. »
Human Factors, 41, p. 72-89, 1999.
[GLO 97] Glover, S.M., Prawitt, D.F., & Spilker, B.C. « The influence of decision aids on
user behavior: implications for knowledge acquisition and inappropriate reliance. »
Organizational Behavior and Human Decision Processes, 72, p. 232-255, 1997.
[GRE 91] Green, T.R.G., & Hoc, J.M. « What is Cognitive Ergonomics? » Le Travail
Humain, 54, p. 291-304, 1991.
[GRI 75] Grice, H.P. « Logic and conversation. » In P. Cole & J. Morgan (Eds.), Syntax and
semantics 3: Speech acts. Academic Press, London, p. 41-58, 1975.
[GRU 95] Grusenmeyer, C. « Shared functional representation in cooperative tasks: the
example of shift changeover. » International Journal of Human Factors in
Manufacturing, 5, p. 163-176, 1995.
[HEL 97] Helander, M.G., Landauer, T.K., & Prabhu, P.V. (Eds.). Handbook of humancomputer interaction. North-Holland, Amsterdam, 1997.
[HEL 94] Helmreich, R.L., & Schaefer, H.G. « Team performance in the operating room. » In
M.S. Bogner (Ed.). Human error in medecine. Lawrence Erlbaum Associates, Hillsdale,
NJ, p. 225-253, 1994.
Coopération humaine et systèmes coopératifs 183
[HOC 88] Hoc, J.M. Cognitive psychology of planning. Academic Press, London, 1988.
[HOC 93] Hoc, J.M. « Some dimensions of a cognitive typology of process control situations.
» Ergonomics, 36, p. 1445-1455, 1993.
[HOC 95a] Hoc, J.M. « Planning in diagnosing a slow process: some implications on the
design of human operator computer support. » Zeitschrift für Psychologie, 203, p. 101115, 1995.
[HOC 96] Hoc, J.M. Supervision et contrôle de processus: la cognition en situation
dynamique. Presses Universitaires de Grenoble, France, 1996.
[HOC 98a] Hoc, J.M. « How can we evaluate the quality of human-machine cooperation? »
In F. Darses & P. Zaraté (Eds.), COOP'98. Third International Conference on the Design
of Cooperative systems. INRIA, Le Chesnay, France, p. 121-130, 1998.
[HOC 95b] Hoc, J.M., & Amalberti, R. « Diagnosis: some theoretical questions raised by
applied research. » Current Psychology of Cognition, 14, p. 73-100, 1995.
[HOC 98b] Hoc, J.M., & Lemoine, M.P. « Cognitive evaluation of human-human and humanmachine cooperation modes in air traffic control. » International Journal of Aviation
Psychology, 8, p. 1-32, 1998.
[HOC 00] Hoc, J.M., Morineau, T., Denecker, P. Gestion de l’espace problème et
organisation temporelle de l’activité de contrôleurs aériens professionnels sur simulateur
(Rapport de Recherche). CENA, Projet AMANDA, Athis-Mons, France, 2000.
[HOC 02] Hoc, J.M., & Carlier, X. (2002). « Role of a common frame of reference in
cognitive cooperation: sharing tasks between agents in air traffic control. » Cognition,
Work, & Technology, 4, p. 37-47, 2002.
[HOL 83] Hollnagel, E., & Woods, D.D. « Cognitive systems engineering: new wine in new
bottles. » International Journal of Man-Machine Studies, 18, p. 583-600, 1983.
[HUT 95] Hutchins, E. « How a cockpit remembers its speed. » Cognitive Science, 19, p. 265288, 1995.
[JAC 84] Jackson, P., & Lefrere, P. « On the application of rule-based techniques to the
design of advice-giving systems. » International Journal of Man-Machine Systems, 20, p.
63-86, 1984.
[JAN 72] Janis, I.L. Victims of groupthink. Houghton Mifflin, Boston, 1972.
[JEN 99] Jentsch, F., Barnett, J., Bowers, C., & Salas, E. « Who is flying this plane anyway?
What mishaps tell us about crew member role assignment and air crew situation
awareness. » Human Factors, 41, p. 1-14, 1999.
[JON 95] Jones, P. « Cooperative work in mission operations: Analysis and implications for
computer support. » Computer Supported Cooperative Work, 3, p. 103-145, 1995.
[JON 97] Jones, P.M., & Jasek, C.A. « Intelligent support for activity management (ISAM):
an architecture to support distributed supervisory control. » IEEE Transactions on
Systems, Man, and Cybernetics - Part A: Systems and Humans, 27, p. 274-288, 1997.
184 L'ingénierie Cognitive : IHM et Cognition
[JON 94] Jones, P.M., & Mitchell, C.M. « Model-based communicative acts: humancomputer collaboration in supervisory control. » International Journal of HumanComputer Studies, 41, p. 527-551, 1994.
[KAR 96] Karsenty, L. « Une définition psychologique de l'explication. » Intellectica, 96, p.
327-345, 1996.
[KAR 00] Karsenty, L. « Cooperative work: the role of explanation in creating a shared
problem representation. » Le Travail Humain,63, p. 289-309, 2000.
[KAR 95a] Karsenty, L., & Brézillon, P. « Cooperative problem solving and explanation. »
International Journal of Expert Systems with Applications, 8, p. 445-462, 1995.
[KAR 95b] Karsenty, L., & Brézillon, P. « Coopération homme-machine et explication. » Le
Travail Humain, 58, p. 289-310, 1995.
[KOO 91] Koopman, P., & Pool, J. « Organizational decision-making: models, contingencies
and strategies. » In J. Rasmussen, B. Brehmer, & J. Leplat (Eds.), Distributed decisionmaking: cognitive models for cooperative work. Wiley, Chichester, UK, p. 19-46, 1991.
[KRA 90] Kræmer, K.L., & Pinsonneault, A. « Technology and groups: assessment of the
empirical research. » In J. Galegher, R.E. Kraut, & C. Egido (Eds.), Intellectual
teamwork, Lawrence Erlbaum Associates, Hillsdale, NJ, p. 375-405, 1990.
[KRE 95] Krems, M.H., & Severin, K. Collaborative problem-solving in the cockpit: crew
communication and strategic decision-making. Paper presented at the 8th Symposium on
Aviation Psychology. Columbus, OH, 1995.
[LAY 94] Layton, C., Smith, P.J., & McCoy, E. « Design of a cooperative problem-solving
system for en-route flight planning: an empirical evaluation. » Human Factors, 36, p. 94119, 1994.
[LEE 94] Lee, J., & Moray, N. « Trust, self-confidence, and operators' adaptation to
automation.» International Journal of Human-Computer Studies, 40, p. 153-184, 1994.
[LEM 96] Lemoine, M.P., Debernard, S., Crevits, I., & Millot, P. « Cooperation between
humans and machines: first results of an experiment with a multi-level cooperative
organisation in air traffic control. » Computer Supported Cooperative Work, 5, p. 299321, 1996.
[LEP 83] Leplat, J., & Hoc, J.M. « Tâche et activité dans l'analyse psychologique des
situations.» Cahiers de Psychologie Cognitive, 3, p. 49-63, 1983.
[LOI 99] Loiselet, A., & Hoc, J.M. Assessment of a method to study cognitive cooperation in
fighter aircraft piloting. Paper presented at CSAPC'99. Villeneuve d'Ascq, France,
Septembre, 1999.
[MAN 96] Mantovani, G. « Social context in HCI: a new framework for mental models,
cooperation, and communication. » Cognitive Science, 20, p. 237-269, 1996.
[MAS 96] Masson, M. Réflexions sur les systèmes adaptatifs d'assistance aux opérateurs. » Le
Travail Humain, 59, p. 277-298, 1996.
[MAR 73] Martin, J. Design of man-computer interaction. Prentice Hall, Englewoods Cliffs,
NJ, 1973.
Coopération humaine et systèmes coopératifs 185
[MAR 75] Marwell, G., & Schmitt, D. Co-operation — an experimental analysis. Academic
Press, London, 1975.
[MCC 00] McCarthy, J.C., Fallon, E., & Bannon, L. Dialogues on function allocation [Special
Issue]. International Journal of Human-Computer Studies, 52, 2000.
[MET 93] M.E.T.T. (Ministère de l'Équipement, des Transports et du Tourisme). Rapport de
la commission d'enquête sur l'accident survenu le 20 Janvier 1992 près du Mont Sainte
Odile (Bas Rhin) à l'Airbus A. 320 immatriculé F-GGED exploité par la Compagnie Air
Inter. Service de l'Information Aéronautique, Athis-Mons, France, 1993.
[MIL 99] Militello, L.G., Kyne, M.M., Klein, G., Getchell, K., & Thordsen, M. « A
synthesized model of team performance. » International Journal of Cognitive
Ergonomics, 3, p. 131-158, 1999.
[MIL 97] Millot, P., & Hoc, J.M. Human-machine cooperation: metaphor or possible reality?
Paper presented at ECCS'97. Workshop on Human-Machine Cooperation. Manchester,
UK, April, 1997.
[MIL 98] Millot, P., & Lemoine, M.P. An attempt for generic concepts toward humanmachine cooperation. Paper presented at IEEE SMC. San Diego, CA, Octobre, 1998.
[MIL 95] Millot, P., & Mandiau, R. « Man-machine cooperative organizations: formal and
pragmatic implementation methods. » In J.M. Hoc, P.C. Cacciabue, & E. Hollnagel
(Eds.), Expertise and technology: cognition & human-computer cooperation. Hillsdale,
NJ: Lawrence Erlbaum Associates, p. 213-228, 1995.
[MOS 97] Mosier, K.L. « Myths of expert decision-making and automated decision aids. » In
C.E. Zsambok & G. Klein (Eds.), Naturalistic decision-making. Mahwah, NJ: Lawrence
Erlbaum Associates, p. 319-330, 1997.
[MOS 98] Mosier, K.L., Skitka, L.J., Heers, S., & Burdick, M. « Automation bias: decisionmaking and performance in high-tech cockpits. » International Journal of Aviation
Psychology, 8, p.47-63, 1998.
[MOU 97] Mouloua, M., & Koonce, J.M. Human-automation interaction: research and
practice. Mahwah, NJ: Lawrence Erlbaum Associates, 1997.
[MUI 94] Muir, B.M. « Trust in automation: Part I. Theoretical issues in the study of trust and
human intervention in automated systems. » Ergonomics, 37, p. 1905-1922, 1994.
[NAS 96] Nass, C., Fogg, B.J., & Moon, Y. « Can computers be teammates? » International
Journal of Human-Computer Studies, 45, p. 669-678, 1996.
[NAV 81] Navarro, C., Terrier, P., & Courteix, S. « Structure organisationnelle et régulation
de l'activité de travail: le cas du contrôleur aérien. » Revue Internationale de Psychologie
Sociale, 4, p. 45-68, 1981.
[NOR 86] Norman, D.A., & Draper, S.W. (Eds.). User centered design. Hillsdale, NJ:
Lawrence Erlbaum Associates, 1986.
[OGD 88] Ogden, W.C. « Using natural language interfaces. » In M. Helander (Ed.),
Handbook of Human-Computer Interaction. Elsevier, Amsterdam, p. 281-299, 1988.
186 L'ingénierie Cognitive : IHM et Cognition
[OKA 97] Okada, T., & Simon, H.A. « Collaborative discovery in a scientific domain. »
Cognitive Science, 21, p. 109-146, 1997.
[OLD 97] Older, M.T., Waterson, P.E., & Clegg, C.W. « A critical assessment of task
allocation methods and their applicability. » Ergonomics, 40, p. 151-171, 1997.
[OLS 97] Olson, G.M., & Olson, J.S. « Research on computer supported cooperative work. »
In M. Helander, T.K. Landauer, & P. Prabhu (Eds.), Handbook of Human-Computer
Interaction. Amsterdam: North-Holland, p. 1433-1456, 1997.
[ORA 93] Orasanu, J., & Salas, E. « Team decision-making in complex environments. » In
G.A. Klein, J. Orasanu, R. Calderwood, & C.E. Zsambock (Eds.), Decision-making in
action: models and methods. Ablex, Norwood, NJ, p. 327-345, 1993.
[PAR 97] Parasuraman, R. « Humans and automation: Use, misuse, disuse, abuse. » Human
Factors, 39, p. 230-253, 1997.
[PAR 96] Parasuraman, R., Mouloua, M., & Molloy, R. « Effects od adaptive task allocation
on monitoring of automated systems. » Human Factors, 38, p. 665-679, 1996.
[PAV 94] Pavard, B. (Ed.). Systèmes coopératifs: de la modélisation à la conception. Octares,
Toulouse, 1994.
[PIA 65] Piaget, J. Études sociologiques. Droz, Genève, 1965.
[POI 95] Poitrenaud, S. « The Procope Semantic Network: an alternative to action grammars.
» International Journal of Human-Computer Studies, 42, p. 31-69, 1995.
[RAS 86] Rasmussen, J. Information processing and human-machine interaction. NorthHolland, Amsterdam, 1986.
[RAU 98] Raufaste, E., Eyrolle, H., & Mariné, C. « Pertinence generation in radiological
diagnosis: spreading activation and the nature of expertise. » Cognitive Science, 22, p.
517-546, 1998.
[REA 88] Reason, J. « Cognitive aids in process environments: prostheses or tools? » In E.
Hollnagel, G. Mancini, & D.D. Woods (Eds.), Cognitive engineering in complex dynamic
worlds. Academic Press, London, p. 7-14, 1988.
[REA 90] Reason, J. Human error. Cambridge University Press, Cambridge, 1990.
[RIC 90] Richard, J.F. Les activités mentales. Comprendre, raisonner, trouver des solutions.
Paris: Armand Colin, 1990.
[RIE 82] Rieger, C.A., & Greenstein, J.S. « The allocation of tasks between the human and
computer in automated systems. » Proceedings of the IEEE 1982 International
Conference on "Cybernetics and Society", IEEE, New York, p. 204-208, 1982.
[ROC 87] Rochlin, G.I., La Porte, T.R., & Roberts, K.H. « The self-designing high-reliability
organization: aircraft carrier flight operations at sea. » Naval War College Review, 40, p.
76-90, 1987.
[ROG 94] Rogalski, J. « Formation aux activités collectives. » Le Travail Humain, 57, p. 425443, 1994.
Coopération humaine et systèmes coopératifs 187
[ROG 96] Rogalski, J. « Cooperation processes in dynamic environment management:
evolution through training experienced pilots in flying a highly automated aircraft. » Acta
Psychologica, 91, p. 273-295, 1996.
[ROT 88] Roth, E.M., Bennett, K.B., & Woods, D.D. « Human interaction with an
"intelligent" machine. » In E. Hollnagel, G. Mancini & D.D. Woods (Eds.), Cognitive
engineering in complex dynamic worlds. London: Academic Press, p. 23-69, 1988.
[ROT 97] Roth, E.M., Malin, J.T., & Schreckenghost, D.L. « Paradigms for intelligent
interface design. » In M. Helander, T.K. Landauer, & P. Prabhu (Eds.), Handbook of
human-computer interaction. Amsterdam: North-Holland, p. 1177-1201, 1997.
[RUM 86] Rumelhart, D.E., & McClelland (Eds.). Parallel distributed processing:
explorations in the micro-structure of cognition. Vol. 1: Foundations. Cambridge, MA:
MIT Press, 1986.
[SAA 99] Saad, F., & Villame, T. « Intégration d'un nouveau système d'assistance dans
l'activité des conducteurs d'automobile. » In J.G. Ganascia (Ed.), Sécurité et cognition
(pp. 105-114). Paris: Hermès, 1999.
[SAL 95] Salas, E., Prince, C., Baker, D.P., & Shrestha, L. « Situation awareness in team
performance: implications for measurement and training. » Human Factors, 37, p. 123136, 1995.
[SAM 94] Samurçay, R., & Delsart, F. « Collective activities in dynamic environment
management: functioning and efficiency. » Le Travail Humain, 57, p. 277-296, 1994.
[SAM 93] Samurçay, R., & Rogalski, J. « Cooperative work and decision-making in
emergency management. » Le Travail Humain, 56, 53-77, 1993.
[SAR 92] Sarter, N., & Woods, D.D. « Pilot interaction with cockpit automation. I:
operational experiences with the Flight Management System. » International Journal of
Aviation Psychology, 2, p. 303-321, 1992.
[SAR 94] Sarter, N., & Woods, D.D. « Pilot interaction with cockpit automation II: an
experimental study of pilots' model and awareness of the Flight Management System
(FMS). » International Journal of Aviation Psychology, 4, p. 1-28, 1994.
[SAR 95] Sarter, N., & Woods, D.D. « "How in the world did we get into that mode?" Mode
error and awareness in supervisory control. » Human Factors, 37, p. 5-19, 1995.
[SAV 84] Savoyant, A. « Définition et voies d'analyse de l'activité collective des équipes de
travail. » Cahiers de Psychologie Cognitive, 4, p. 273-284, 1984.
[SCH 91] Schmidt, K. « Cooperative work: a conceptual framework. » In J. Rasmussen, B.
Brehmer, & J. Leplat (Eds.), Distributed decision-making: cognitive models for
cooperative work, Wiley, Chichester, UK, p. 75-110, 1991.
[SCH 94] Schmidt, K. « Cooperative work and its articulation: requirements for computer
support. » Le Travail Humain, 57, p. 345-366, 1994.
[SCH 92] Schmidt, K., & Bannon, L. « Taking CSCW seriously. » Computer Supported
Cooperative Work, 1, p. 7-40, 1992.
[SEA 69] Searle, J.R. Speech acts. Cambridge, UK: Cambridge University Press, 1969.
188 L'ingénierie Cognitive : IHM et Cognition
[SHE 88] Sheridan, T.B. « Task allocation and supervisory control. » In M. Helander (Ed.)
Handbook of human-computer interaction, Amsterdam, North-Holland, p. 159-173, 1988.
[SHE 96] Sheridan, T.B. « Speculations on the future relations between humans and
automation. » In R. Parasuraman & M. Mouloua (Eds.), Automation and human
performance. Mahwah, NJ: Lawrence Erlbaum Associates, 1996.
[SHI 77] Shiffrin, R.M., & Schneider, W. « Controlled and automatic human information
processing. II.: perceptual learning, automatic attending and a general theory. »
Psychological Review, 84, p. 127-190, 1977.
[SKI 99] Skitka, L.J., Mosier, K.L., & Burdick, M. « Does automation bias decision-making?
» International Journal of Human-Computer Studies, 51, p. 991-1006, 1999.
[SMI 75] Smith, H.T., & Crabtree, R.G. « Interactive planning: a study of computer aiding in
the execution of a simulated scheduling task. » International Journal of Man-Machine
Studies, 7, p. 213-231, 1975.
[SMI 80] Smith, H.T., & Green, T.R.G. (Eds.). Human interaction with computers. London:
Academic Press, 1980.
[SMI 97] Smith, P.J., McCoy, E., & Layton, C. « Brittleness in the design of cooperative
problem-solving systems: the effects on user performance. » IEEE Transactions on
Systems, Man, and Cybernetics - Part A: Systems and Humans, 27, p. 360-371, 1997.
[SPE 77] Spérandio, J.C. « La régulation des modes opératoires en fonction de la charge de
travail chez les contrôleurs de trafic aérien. » Le Travail Humain, 40, p. 249-256, 1977.
[SPE 86] Sperber, D., & Wilson, D. Relevance, communication, and cognition. Oxford: Basil
Blackwell, 1986.
[STO 94] Stout, R.J., Salas, E., & Carson, R. « Individual task proficiency and team process:
What’s important for team functioning. » Military Psychology, 6, p. 177-192, 1994.
[TER 90] Terssac De, G., & Chabaud, C. « Référentiel opératif commun et fiabilité. » In J.
Leplat & G. De Terssac (Eds.), Les facteurs humains de la fiabilité Octarès, Toulouse, p.
110-139, 1990.
[TUR 98] Turner, R.M. « Context-mediated behavior for intelligent agents. » International
Journal of Human-Computer Studies, 48, p. 307-330, 1998.
[VYG 78] Vygotski, L. Mind in society. The development of higher psychological processes.
Cambridge, MA: Harvard University Press, 1978.
[WAE 89] Wærn, Y. Cognitive aspects of computer supported tasks. Chichester, UK: Wiley,
1989.
[WIE 93] Wiener, E., Kanki, B., & Helmreich, R. (Eds.). Cockpit Resource Management.
New York: Academic Press, 1993.
[WRI 00] Wright, P., Dearden, A., & Fields, B. « Function allocation: a perspective from
studies of work practice. » International Journal of Human-Machine Studies, 52, p. 335355, 2000.

Documents pareils