Chapitre 1 La notion de système d`information 1. Approche de la

Transcription

Chapitre 1 La notion de système d`information 1. Approche de la
Chapitre 1 La notion de système d’information
1. Approche de la notion de système d’information
2. La dimension informationnelle
3. La dimension technologique
4. La dimension organisationnelle
Au terme de ce chapitre vous devez être en mesure: .
De définir la notion de système d’information . D’identifier ses trois grandes dimensions et les
ressources qui le composent . De comprendre les liens qui permettent de passer des donner à
l’information et à la connaissance
De comprendre comment le système d’information constitue une représentation collective et
comment une organisation peut décider ou non de le mettre en place De comprendre en quoi la
technologie qui le supporte suit un processus qui doit être planifié et évolue de façon émergente .
De comprendre comment les interactions entre acteurs et avec la technologie reproduisent et
transforment l’organisation
« Tout système d’information concerne un individu, pourvu d’un profil psychologique donné,
confronté à un problème décisionnel précis, dans un contexte organisationnel déterminé. Il y a
nécessité d’éléments de décision perçus au travers d’un mode de représentation propre au décideur.
» R.O. MASON, J.-L. MITROFF,
Management Science, vol. 19, no 6, 1975.
« Le système d’information de l’entreprise est la partie du réel constituée d’informations organisées,
d’évènements ayant un effet sur ces informations, et d’acteurs qui agissent sur ces informations ou à
partir de ces informations, selon des processus visant une finalité de gestion et utilisant les
technologies de l’information. » D. BERTHIER, C. MORLEY M. MAURICE-DEMOURIAUX,
Systèmes d’Information et Management, vol. 10, no 3, 2005, p. 26.
Dans le vocabulaire du management, le terme « système d’information » est très souvent utilisé
avec des acceptions diverses ; généralement, l’accent est mis sur l’aspect technologique, pour
évoquer des réalisations à base d’ordinateurs et de réseaux. En réalité, la notion de système
d’information est beaucoup plus riche que celle sous-entendue par ces usages approximatifs,
privilégiant trop souvent l’aspect spectaculaire des technologies de l’information. Sa description
sera l’objet de ce premier chapitre. Nous proposerons tout d’abord une définition des termes
système d’information (SI), puis nous montrerons que tout système d’information est un objet
multidimensionnel pouvant être caractérisé selon trois dimensions principales :
– une dimension informationnelle ; – une dimension technologique ;
– – une dimension organisationnelle.
1 Approche de la notion de système d’information.
Une proposition de définition Un système d’information est un ensemble organisé de ressources :
matériel, logiciel, personnel, données, procédures.. . permettant d’acquérir, de traiter, de stocker des
informations (sous forme de données, textes, images, sons. . .) dans et entre des organisations. Cette
définition nous permet de considérer qu’un système d’information est un ensemble finalisé,
construit à partir de différentes ressources et susceptible d’être défini à différents niveaux, même
s’il a finalement toujours un caractère sinon organisationnel, du moins social. Si toutefois on
reconnaît que le système d’information aide l’acteur à former des représentations et qu’en fait le
système ne peut le faire sans l’acteur (cf. 2 La dimension informationnelle), le système interfaceacteur est le véritable générateur de l’information. D’où la définition proposée par Reix et Rowe
(2002) et amendée récemment à la suite d’une discussion avec Jean-Louis Le Moigne : Un système
d’information est un système d’acteurs sociaux qui mémorise et transforme des représentations via
des technologies de l’information et des modes opératoires.
1 1 Un système organisé à partir de différentes ressources
Le système d’information regroupe différentes ressources : – Personnes : il n’y a pas de système
d’information sans personnes, sans acteurs : ce sont soit des utilisateurs du système, employés,
cadres qui, pour la réalisation de leurs tâches, utilisent l’information produite par le système et ses
possibilités d’automatisation ou qui alimentent le système en données nouvelles. . ., soit des
spécialistes de la construction des systèmes d’information (analystes, programmeurs. . .) dont le
travail consiste à concevoir, développer, implanter les bases technologiques du système et assurer
son fonctionnement. – Matériels : le système d’information repose, dans la plupart des cas, sur des
technologies numériques de l’information (réseaux, ordinateurs et unités périphériques, stations de
travail. . .). On notera cependant que la définition de la notion de système d’information n’implique
pas obligatoirement le recours à de telles technologies et que, conceptuellement, on peut fort bien
définir un système d’information construit avec un crayon et des feuilles de papier. Un système
d’information ne se confond pas avec un système informatique et ne se réduit pas à lui. – Logiciels
et procédures : dans le cas le plus fréquent, le système d’information repose sur l’utilisation
d’ordinateurs ; ceux-ci ne peuvent fonctionner qu’avec des logiciels, c’est-à-dire des programmes
enregistrés qui commandent le fonctionnement automatisé des machines. L’élaboration de ces
programmes est un aspect majeur de la construction des systèmes d’information aujourd’hui. Très
souvent, il y a imbrication des tâches automatisées, assurées par l’ordinateur, et des tâches
manuelles confiées aux employés ; la définition des rôles respectifs de l’homme et de la machine est
décrite par des procédures qui constituent la partie dynamique du système d’information et assurent
la coordination entre les différents acteurs dans l’organisation. – Données : sous des formes variées
(chiffres, texte, images, son. . .), ces ressources essentielles matérialisent l’information détenue par
l’organisation. Ce sont soit des données traduisant des évéments nouveaux (par exemple saisie d’un
ordre de réparation pour répondre à la demande d’un client qui vient d’arriver au garage), soit des
informations découlant de traitements antérieurs et conservées pour être réutilisées (par exemple, la
quantité en stock d’une pièce détachée, qui a été calculée par l’ordinateur à chaque mouvement de
pièces). Ces données constituent la matière première des traitements ; elles concrétisent des
connaissances de l’organisation et sont un véritable actif, indispensable à son fonctionnement
(pensez à l’importance du fichier client pour la plupart des entreprises). On notera que, à côté de
cette matière première des traitements, sont également stockées dans les mémoires des ordinateurs
d’autres données que sont les programmes, c’est-à-dire les différents logiciels utilisés pour les
différents traitements. Ces programmes conservent les connaissances opératoires de l’organisation ;
ce sont des réservoirs de modèles pour agir (par exemple si le garage dispose d’un logiciel de
gestion de stocks qui exécute un modèle de réapprovisionnement automatique pour certains types
de pièces détachées). Il est important de noter que le système d’information ne découle pas de la
simple juxtaposition de ces différentes ressources : il est le résultat d’un travail de construction qui a
pour but de répondre au mieux aux objectifs assignés au système par ses utilisateurs futurs. (Ce
point important sera repris au paragraphe 1.3 ci-après.)
1 2 Un système finalisé pour répondre à des objectifs
Un système d’information est conçu, par nature, pour exécuter des fonctions élémentaires
appliquées aux informations. Il s’agit :
– de saisir des données, c’est-à-dire d’acquérir, sous une forme acceptable par les machines, les
informations à traiter (par exemple, saisir les entrées en stock avec un lecteur d’étiquettes et des
frappes au clavier) ; – de traiter des données, c’est-à-dire de transformer les données primaires en
résultats par des opérations de transformation, de calcul, de sélection, de mise en forme.. . (par
exemple à partir des éléments de l’ordre de réparation et d’un tarif, établir la facture de la réparation
pour le client) ; – de stocker des données, c’est-à-dire de les conserver sous une forme exploitable et
d’être capable de les retrouver rapidement et sans erreur (par exemple, pour chaque client du
garage, on conserve un historique des interventions sur son véhicule. . .) ; – de communiquer des
données, c’est-à-dire de les transmettre à d’autres utilisateurs (hommes ou machines) (par exemple,
le magasinier peut transmettre, par EDI ou par messagerie électronique, une commande de pièces
détachées à un fournisseur).
Les technologies modernes de l’information offrent des possibilités considérables pour réaliser ces
opérations de base dans des conditions remarquables de coût et d’efficacité. Pour l’utilisateur, les
objectifs du système sont définis par rapport aux tâches à accomplir ; l’analyse d’un exemple
comme celui d’un concessionnaire automobile, que nous appellerons ici Grands Garages du Sud,
nous permet de distinguer différents objectifs :
– automatisation de tâches de traitement de l’information : par exemple, calcul et impression de la
facture, automatiquement, à partir des données de l’ordre de réparation complété par le chef
d’atelier ; – aide à la décision par la fourniture d’informations adaptées (ces informations sont
obtenues par traitement des données de l’activité quotidienne ; par exemple, édition d’un tableau de
bord mensuel pour le patron du garage) ou par l’utilisation d’un modèle de décision (le magasinier
dispose d’un tel modèle pour le réapprovisionnement de certains types de pièces) ; –
communication à l’intérieur et à l’extérieur de l’organisation (utilisation de l’EDI pour les
commandes fournisseur, échanges de messages par messagerie électronique. . .), diffusion
d’informations à usage externe (par l’intermédiaire du site Internet par exemple). En définitive, le
but de tout système d’information est d’apporter un soutien aux processus de travail dans
l’organisation selon trois modalités principales (pouvant être combinées) : fournir de l’information,
assister le travail humain, automatiser le travail. Les systèmes de travail qu’il assiste peuvent être
individuels, mono-utilisateurs (celui du magasinier qui procède au réapprovisionnement par
exemple) ou collectifs, pluri-utilisateurs (préparation, exécution et contrôle de la réparation, par
exemple). L’usage du système d’information peut être obligatoire, recommandé ou
discrétionnaire. . . mais, dans tous les cas, les caractéristiques du système d’information sont
déterminées par ses finalités, c’est-à-dire par les objectifs de l’organisation auxquels il doit
contribuer (ses objectifs peuvent être définis sous une forme hiérarchisée : par exemple, faciliter le
travail du magasinier, accroître la sécurité de la tenue des stocks, améliorer la gestion du stock,
améliorer le service au client, augmenter la compétitivité du garage face à la concurrence.. .). C’est
pourquoi, comme nous le montrerons par la suite, la définition des objectifs et des contraintes du
système, ce qui constitue son cahier des charges, est une opération déterminante pour son succès
futur.
1 3 Un système d’information peut être défini a` plusieurs niveaux
La notion de système d’information est relative à la notion d’utilisateur et il importe toujours de
bien préciser quelle est l’entité de référence. Le tableau ci-dessous présente différentes catégories de
systèmes d’information, en fonction de l’entité de référence, donc en fait en fonction du nombre
d’utilisateurs qui partagent l’usage de l’ensemble des ressources constitutives du système.
Attention ! Cette distinction, commode sur le plan pédagogique, ne signifie pas qu’il y a séparation
étanche, en pratique, entre les niveaux. Un micro-ordinateur connecté sur un réseau peut, selon les
moments où il est utilisé, être une ressource d’un système d’information individuel (gestion de
données locales) ou collectif (traitement de dossiers partagés avec d’autres personnes), ou
interorganisationnel (échange avec des individus appartenant à d’autres organisations
(téléconférence, par exemple). Bien au contraire, l’évolution actuelle tend à renforcer
l’interconnectivité entre les systèmes de différents niveaux
. 14 Conclusion
Cette rapide analyse préalable de la définition du concept de SI montre que plusieurs perspectives
sont à prendre en compte pour comprendre ce qu’est réellement un système d’information. Tout
d’abord, vision sans doute la plus immédiate, un système d’information est quelque chose qui
manipule et produit de l’information (un tableau de bord, un ordre de réparation. . .), ensuite, c’est
quelque chose qui utilise des technologies de l’information (des ordinateurs, des réseaux, des
logiciels. . .), et enfin, c’est quelque chose qui est imbriqué dans le fonctionnement et la structure
d’une organisation (liens étroits entre les processus de travail et le système d’information). C’est
pourquoi, pour mieux cerner le contenu de la notion de système d’information, nous devons le
considérer comme un objet multidimensionnel, susceptible d’être caractérisé selon trois dimensions
principales : – une dimension INFORMATIONNELLE ; – une dimension TECHNOLOGIQUE ; –
une dimension ORGANISATIONNELLE. Ces trois dimensions feront l’objet, respectivement, des
trois sections suivantes.
2 La dimension informationnelle
La vocation première du système d’information est de fournir de l’information à ses utilisateurs.
Cette information, pour être utilisable par l’être humain, doit être matérialisée sous forme de
signaux accessibles à nos sens (la vue et l’ouïe, principalement). Cela conduit à construire des
représentations, des « images » qui vont être utilisées par les acteurs dans leur processus de travail.
Bien entendu, la qualité de ces représentations est susceptible d’influer de manière importante sur le
comportement de leur utilisateur ; c’est pourquoi, après avoir défini la notion de représentation,
nous préciserons ce qu’il faut entendre par pertinence d’une représentation.
2 1 La notion de représentation
Dans nos activités professionnelles de gestionnaire, nous devons fréquemment résoudre des
problèmes sans avoir une perception directe du monde réel sur lequel nous tentons d’agir ; nous
travaillons en utilisant de l’information qui a été recueillie par d’autres puis matérialisée sur un
support (papier, écran) qui la rend accessible à nos sens.
Exemple Le comptable enregistre les opérations effectuées à partir de pièces comptables et non à
partir d’une observation directe de ces opérations ; il prépare la paie sans avoir observé directement
le travail des ouvriers, à partir de relevés de temps établis par le chef d’atelier. . . Ces supports sur
lesquels apparaissent des signes, des signaux. . . sont des représentations du monde réel. Dans son
acception la plus simple, une représentation est une image du monde réel : cette image est
composée de signaux pouvant être perçus par nos sens. Exemples
Une photographie, un dessin ou une peinture constituent une représentation d’une personne ;
l’enregistrement sur support magnétique qui la décrit dans le fichier « personnel » de l’entreprise en
constitue une autre ; le curriculum vitae présenté sur deux pages dactylographiées est également une
représentation. Un bilan et un compte de résultat sont une représentation possible de l’entreprise ;
une photographie aérienne de ses installations est une autre représentation de cette même entreprise
; de même, les pages de son site informatif sur Internet (avec une petite séquence vidéo) constituent
une autre représentation. Ces exemples nous permettent de mettre en évidence les caractéristiques
essentielles de la notion de représentation :
– Une représentation est une « représentation de quelque chose » : ce qui est représenté est une
entité distincte de la représentation. Selon les cas, ce qui est représenté peut être une personne
(client, fournisseur. . .), un objet (une pièce en stock, un véhicule à la vente.. .), un événement (la
demande de réparation de véhicule formulée par un client. . .), un concept abstrait (par exemple, le
marché automobile représenté par une statistique des parts de marché sur plusieurs mois.. .).
Représenter signifie d’ailleurs, à l’origine, rendre présent, rendre sensible (ce qui rend la
représentation obligatoire pour toutes les abstractions que nous utilisons). Il est essentiel de bien
distinguer le monde à représenter (que l’on désigne aussi par le monde « réel ») et la représentation
qui en est fournie : la photographie n’est pas la personne, le bilan n’est pas l’entreprise, la carte
n’est pas le territoire. – Une représentation est une « représentation pour quelque chose » : les
représentations ne sont pas des « copies dormantes » du réel, elles sont créées dans une intention
d’utilisation. Plus généralement, la représentation assure différentes fonctions : – fonction de
conservation de l’information à laquelle on n’aura plus directement accès (on prend une
photographie pour se souvenir du paysage que l’on vient de voir) ; – fonction de communication qui
permet l’échange d’informations entre individus par l’échange de représentations (l’ordre de
réparation permet la communication entre chef d’atelier et mécanicien, le message de commande
EDI assure la communication entre le garage et son fournisseur de pièces détachées.. .) ; – fonction
de concrétisation en rendant accessibles des modèles, des concepts.. . non directement perçus par
nos sens (la représentation par une carte géographique rend accessible à notre vue un territoire bien
trop vaste pour être perçu directement, le bilan rend possible une perception du patrimoine de
l’entreprise. . .). On notera que, pour que cette concrétisation aboutisse à une communication
efficace, il est indispensable que les différents individus partagent des connaissances communes
quant aux modèles, aux concepts et aux procédés utilisés pour la représentation. Remarque Il ne
faut pas confondre la notion de représentation telle que nous venons de la définir avec la notion de «
représentation mentale » utilisée en psychologie : la « représentation mentale » désigne une
structure mentale construite par le sujet sur la base d’opérations cognitives appliquées à un discours
ou à une situation ; elle caractérise les connaissances d’un sujet à un moment donné. C’est l’« idée »
que l’on se fait d’une personne, d’une situation, d’un problème. Elle se traduit par des expressions
du genre : « Voici la représentation de la situation telle que je la vois ». . . Bien évidemment, cette
représentation mentale d’un contexte, d’un problème.. . est, au moins partiellement, déterminée par
les représentations (selon le sens défini ci-dessus) auxquelles le sujet a eu accès auparavant. Dans
les organisations où règne la division du travail, les activités de construction des représentations (la
création de données) et celles utilisant l’information résultante sont, dans la plupart des cas,
séparées. C’est pourquoi il est important de distinguer les problèmes relatifs à la création de
données de ceux tenant à l’utilisation des informations véhiculées par les représentations.
2 1 1 La construction des représentations
La représentation est construite par des individus au cours d’un processus de construction. Selon les
cas, ce processus est plus ou moins complexe (prendre la photographie de l’usine peut être très
simple ; élaborer, comme le montre la figure 3, la situation comptable d’une entreprise suppose la
tenue d’une comptabilité et un savoir-faire spécifique). De manière schématique, volontairement
simplifiée, le problème consiste à passer du réel à représenter (x) à la représentation (y) vue comme
un ensemble de signaux perceptibles. 1. Du réel au symbole : la création de données Dans le
fonctionnement des entreprises, la source principale d’informations est constituée par des données
(numériques ou alphabétiques) décrivant des objets ou des événements dignes d’intérêt. Ces
symboles (des chiffres, des lettres, parfois des dessins, des photographies.. .) représentent une
information potentielle. La question essentielle est ici celle de la correspondance entre ce que l’on
veut décrire (l’objet ou l’événement du monde réel) et les symboles utilisés pour le décrire (la
représentation obtenue) ; il existe en effet des risques de biais pouvant compromettre gravement
l’utilisation ultérieure de ces données. Ce passage de l’observation à la donnée peut s’opérer selon
différentes modalités. a) Dénomination : l’objet ou l’événement du monde réel se voit attribuer un
nom et des propriétés permettant de reconnaître son existence et son appartenance éventuelle à une
ou plusieurs classes. Toute erreur ou tout oubli lors de cette opération a des conséquences
difficilement repérables par la suite (l’objet n’existe pas pour l’organisation !). Exemple L’arrivée
d’un nouveau salarié dans l’entreprise entraîne l’enregistrement de son état civil, l’attribution d’un
niveau de rémunération.. . Si, dans cette opération, on « oublie » de noter que l’intéressé a droit à
une indemnité de transport (il appartient à la classe de ceux qui peuvent y prétendre) parce que l’on
a noté 0 au lieu de 1 dans l’imprimé de saisie, la représentation obtenue est imparfaite et son
utilisation conduira à des erreurs. b) Classement, mesure ordinale : cette opération permet de
comparer le rang de plusieurs objets dans un groupe sans que l’étendue de la différence soit
mesurée. Exemple
Classement d’employés selon leur compétence observée ; mesure de la satisfaction des passagers
d’une compagnie de transport par un questionnaire à questions fermées (du type très bon, bon,
moyen, médiocre, mauvais). La validité de la donnée dépend très directement de la façon dont sont
définis les échelles, les intervalles et du mode d’administration du questionnaire. 2. La dimension
informationnelle 11 c) Mesure cardinale, valeurs : c’est le cas le plus fréquent dans les systèmes de
gestion où les représentations numériques sont utilisées. Toutes les opérations arithmétiques
peuvent alors être effectuées sur les données. Même dans ce cas, a priori le plus favorable, les
risques de distorsion ne sont pas nuls (problèmes posés par le choix d’unité, les conditions de
mesure.. .). Exemples
On souhaite présenter un tableau décrivant l’évolution des ventes d’un produit dans différentes
régions pendant deux mois consécutifs. Pour la région A, la variation est de 50 unités (50 unités en
janvier, 100 unités en février) ; pour la région B, la variation est de 500 unités (5 000 unités en
janvier, 5 500 unités en février). On peut présenter le tableau des variations en utilisant une donnée
en valeur absolue (50 pour A et 500 pour B) ou en valeur relative (100 % pour A et 10% pour B).
Fournit-on la «même information » au futur lecteur du tableau ? – Sur un document comptable
concernant un client, on lit : montant de notre créance : 25 652 E; provision requise : 10 000 E. La
première donnée est relative à un constat, non contestable ; la seconde est une évaluation du risque
lié au règlement de la créance. Bien que ces nombres soient combinés ensemble, leur validité n’est
sans doute pas de même niveau.
Remarques importantes 1 – Dans la pratique quotidienne des entreprises, on utilise des
représentations codifiées pour les différents événements et objets à représenter : un client sera
représenté par un certain nombre de données qui caractérisent chaque enregistrement du fichier
client, la réparation à effectuer sur un véhicule sera traduite par un ordre de réparation indiquant la
liste des opérations à exécuter, le règlement à demander au client sera explicité en une facture. . .
Les documents, messages, fichiers, bases de données.. . sont des ensembles de représentations
prédéfinies utilisées de manière répétitive dans les procédures de l’organisation ; leur constitution
obéit à des règles strictes et stables (contenu et présentation).
2 – Toute représentation est construite par des individus
Dans la plupart des cas, le passage de l’entité représentée à la représentation implique une perte
(plus ou moins volontaire) d’information. Il est nécessaire de choisir les caractéristiques de l’entité
à représenter qui seront traduites en données (sélection) et, parfois, de définir les valeurs
correspondantes (interprétation). Ainsi le photographe, peintre, le caricaturiste interprètent-ils, à des
degrés divers, la personnalité de la personne à représenter ; de même, le comptable, dans le respect
des règles légales, peut donner une représentation plus ou moins prudente de la situation de
l’entreprise ; l’expert qui rédige un rapport sur la situation du marché peut, en choisissant les termes
utilisés et en mettant en évidence certains éléments plutôt que d’autres, aboutir à des conclusions
plus ou moins optimistes quant aux possibilités de développement des ventes de l’entreprise. Ces
différents exemples montrent que les risques de distorsion existent dans le processus de
construction.
2. Les risques de distorsion : bruit et biais
La construction des représentations suppose que soit définie une correspondance entre les éléments
à représenter (le monde réel) et les signaux constitutifs de la représentation utilisée. La notion de
fonction d’information permet de mieux comprendre certains problèmes liés au processus de
production des représentations. D’une manière schématique, la fonction d’information exprime la
relation entre les états du réel à représenter (x) et les signaux qui le représentent. Elle peut donc être
décrite sous forme d’un tableau, où un 1 à l’intersection d’une ligne et d’une colonne signifie : « Si
l’état du monde xi est réalisé, alors le signal yj est perçu. » Remarques : 1 – La matrice représentant
la fonction d’information n’est pas obligatoirement carrée ; les nombres de lignes et de colonnes
peuvent être différents. 2 – Un état du monde réel peut être ignoré ; cela se traduit par l’inexistence
de la valeur 1 sur certaines lignes : aucun signal n’est perçu (cet état n’est pas distingué des autres).
3 – Un état du monde peut être distingué par la présence simultanée de plusieurs signaux, d’où la
présence possible de plusieurs 1 sur la même ligne. Une telle représentation de la fonction
d’information correspond à une fonction déterministe, à une fonction sans bruit : la relation entre
l’état du monde à représenter et le signal est stable et non ambiguë (le signal apparaît ou n’apparaît
pas). Assez souvent, la fonction d’information peut comporter du bruit ; ce bruit traduit des
influences variées sur la production des signaux qui ne représentent plus alors seulement l’état du
monde qu’ils sont censés traduire mais également d’autres phénomènes. La représentation de la
fonction d’information peut alors être modifiée et correspondre à la forme générale suivante :
Exemple Un exemple concret de fonction d’information d’une automobile ; on suppose que le
moteur est caractérisé par deux états distincts : x1 température normale de fonctionnement, x2
température anormalement élevée. Le tableau de bord de cette automobile est équipé d’une lampe
témoin qui reste éteinte quand le moteur est à l’état x1 (lampe éteinte est le signal y1) ; cette lampe
s’allume lorsque la température moteur devient anormale (signal y2). La fonction d’information est
donc la suivante : Cette fonction est sans bruit.
On peut supposer maintenant que, en raison d’anomalies techniques (lampe défectueuse, mauvais
contacts. . .), on ne peut exclure le fait que la lampe reste éteinte alors que le moteur est
anormalement chaud ou, inversement, que la lampe s’allume alors que le moteur est dans son état
normal. Une fonction d’information aurait alors la forme suivante : Cela signifierait que, lorsque le
signal y1 est reçu (lampe éteinte), la probabilité que le moteur soit dans son état normal est de 0,95
mais qu’il existe une probabilité de 0,05 que le moteur soit anormalement chaud. De même, lorsque
la lampe s’allume (signal y2), il existe une probabilité de 0,10 que le moteur soit dans son état
normal.
L’exemple ci-dessus correspond à une représentation extrêmement simple. Il met cependant en
évidence les risques importants liés à l’introduction de bruit dans la représentation et donc l’intérêt
pratique considérable de la qualité dans la saisie des données. Ces risques sont dus soit aux erreurs
humaines (involontaires), soit aux limites d’appareils de mesure utilisés, soit à la volonté de certains
acteurs de produire des représentations biaisées, soit à des erreurs lors du traitement (sélection,
calcul, communication.. .) de représentations existantes pour établir d’autres représentations.
Exemples – Le magasinier transcrit un code pièce erroné lors de la commande au fournisseur. Lors
du montage de cette pièce pour la réparation du véhicule, on s’aperçoit que la pièce ne correspond
pas au modèle sur lequel elle doit être montée.. . d’où retard et coût supplémentaire. – Lors de la
prise d’un cliché radiographique d’un malade, l’appareil utilisé ne fournit pas des clichés d’une
définition suffisamment fine pour permettre un diagnostic précis. – Lors du contrôle du véhicule, le
mécanicien a coché sur sa fiche comme satisfaisante (à tort) la tension de la courroie de ventilateur
parce qu’il estimait ne pas avoir le temps de procéder au réglage avant l’arrivée prévue du client. . .
Le chef d’atelier a donc remis le véhicule (mal réparé) au client qui a dû revenir quelques jours plus
tard au garage ! – Lors de l’établissement de l’échéancier (nouvelle représentation), le comptable a
omis l’enregistrement d’une facture (représentation existante) adressée par un fournisseur ; cela a eu
pour conséquence la production d’un état erroné et des difficultés ultérieures avec le banquier de ce
fournisseur. Il est fondamental de bien comprendre que nous décidons, travaillons, jugeons.. . dans
la plupart des cas, sur la base de représentations établies par d’autres personnes et non sur une
perception directe, exhaustive et sans déformation du monde réel. La présence de biais ou de bruit
peut avoir des conséquences considérables lors de l’utilisation des représentations non pertinentes.
2 2 1 L’utilisation des représentations
Dans de nombreuses situations de notre vie quotidienne, nous décidons d’agir à partir de la
perception directe, par nos sens, d’un signal jugé significatif. (Par exemple, en situation de conduite
automobile, décision de s’arrêter quand le feu passe au rouge.) Dans la mesure où la perception du
signal, son interprétation, son utilisation sont réalisées quasi simultanément par le même individu,
la distinction entre « donnée », « information », « connaissance » n’a que peu d’intérêt pratique. En
revanche, dans les organisations où les activités de construction et d’utilisation des représentations
sont très souvent séparées, il est nécessaire de comprendre comment nous utilisons les
représentations pour améliorer nos connaissances, pour agir ; autrement dit, comprendre comment
nous passons des données (des symboles) aux significations, à la connaissance et quelles sont les
conséquences attachées à ces processus d’interprétation.
1. Du symbole à la connaissance : processus cognitif Passer du monde des symboles à celui du sens,
des significations, donc des données à l’information n’est pas automatique mais se réalise par
l’intermédiaire de processus spécifiques d’interprétation, de cognition. Nous considérons ici que
l’information est ce qui modifie notre vision du monde, qui réduit notre incertitude vis-à-vis d’un
phénomène. L’information « crée une différence » : c’est un renseignement au sens courant du
terme.
Exemples – L’annonce d’une baisse du taux d’intérêt directeur de la Banque centrale européenne
constitue, pour un gestionnaire de portefeuilles, une information dans la mesure où il va réviser à la
hausse la probabilité de voir monter le cours des actions à la Bourse de Paris. – L’arrivée, sur le
bureau du responsable des achats, d’un tableau des commandes à livrer aux clients dans les trois
mois à venir va le conduire à effectuer la réservation d’une certaine quantité d’un composant
essentiel auprès de son fournisseur habituel. Ces deux exemples montrent : – tout d’abord que l’idée
d’information est liée à l’action (immédiate ou différée) ; le contenu informationnel des données est
lié à l’utilisation (des données pour « faire quelque chose »). Par exemple, dans le cas (ci-dessus) du
responsable des achats, alors que le tableau des commandes à livrer peut contenir d’autres
renseignements importants, seule la quantité de composant essentiel devant être disponible à une
certaine date constitue pour lui l’« information ». On notera que l’obtention de cette information a
pu conduire l’utilisateur à sélectionner des données, à effectuer des calculs, donc des opérations de
traitement de données ; – ensuite, que le passage des données à l’information n’est possible que
grâce à un modèle interprétatif propre au récepteur. C’est l’existence d’un modèle (une
connaissance préalable) qui permet d’extraire l’information contenue dans les données, de les
interpréter. Pour les spécialistes de la psychologie cognitive, les processus cognitifs peuvent être
définis à plusieurs niveaux (Rowe et Ziti, 2002) : – 1 un niveau infrasémantique, qui correspond à
l’analyse du signal physique et à son codage sensoriel (par exemple, distinguer les caractères du
fond de la feuille) ; – 2 un niveau sémantique correspondant à l’identification des objets physiques
ou symboliques (les mots, les images.. .) ; – 3 un niveau sémantique de traitement des significations
et de l’élaboration des décisions d’actions : c’est le niveau de l’interprétation, où il y a intégration
des significations, compte tenu des savoirs ou savoir-faire du sujet.
Exemples – Si l’on considère un traité de finance en langue anglaise, l’ensemble de données que
constitue l’ouvrage peut être perçu comme un ensemble de symboles sans aucun sens pour
quelqu’un qui ignore tout de la langue anglaise ; tout au plus peut-il reconnaître l’existence de
caractères imprimés. Pour un lecteur de langue anglaise, ignorant la finance, cet ensemble de
symboles permet de reconnaître des mots auxquels il peut éventuellement attribuer un sens limité.
Un lecteur de langue anglaise possédant des connaissances en finance peut interpréter
complètement le contenu de l’ouvrage et lui attribuer les significations voulues par l’auteur. –
Comprendre le sens de l’annonce de la baisse du taux directeur de la Banque centrale européenne
suppose que le gestionnaire de portefeuilles maîtrise un modèle économique liant les variations du
taux d’intérêt et celles du cours des actions. – Un bilan se présente comme un tableau de mots et de
nombres ; il apporte de l’information à celui qui connaît les concepts essentiels de la comptabilité
(le modèle comptable). – Un cliché radiographique (image aux rayons X) est interprétable par un
médecin qui possède les connaissances de référence (modèles anatomiques, modèles de maladie.. .).
Les données (mots, nombres, images, sons, etc.) constituent donc la matière première de
l’information ; elles deviennent de l’information par un processus d’interprétation qui leur attribue
de la signification, du sens. On comprend facilement que ce qui constitue une information pour l’un
ne constitue pas obligatoirement une information pour l’autre, et que le passage des données à
l’information est lié à la connaissance maîtrisée par les individus. Nous appellerons connaissance :
une croyance, une conviction personnelle justifiée qui accroît le potentiel d’une entité pour l’action.
(L’entité est, dans la plupart des cas, un individu mais ce peut être un groupe d’individus, une
organisation.) La connaissance apparaît donc comme de l’information qui a été traitée dans le
cerveau d’individus par un processus d’interprétation, de mémorisation, d’apprentissage ; c’est un «
stock » d’informations maîtrisées par une entité. Un élément de connaissance est une information
interprétée au moyen d’un modèle cognitif. Cette connaissance est relative à des faits (les
expériences qu’a connues le sujet, son histoire. . .) et à des schémas interprétatifs. Selon Harris
(1994), la connaissance est constituée, pour l’essentiel, d’un ensemble de schémas. « Le schéma est
une structure cognitive dynamique concernant des concepts, des objets et des événements [. . .]
utilisée par l’individu pour recadrer et interpréter les données de manière efficiente. Les schémas
guident la recherche pour l’acquisition de l’information, son traitement, et orientent le
comportement en réponse à cette information ; ils fournissent un système de connaissances prêtes à
l’emploi. » Notre connaissance est composée de « programmes » ou schèmes, de séquences d’action
que l’on sait exécuter et de « principes d’utilisation », de « modèles ». . ., indiquant quand et
comment utiliser ces programmes. Il y a lieu de distinguer deux formes de connaissance : – la
connaissance formalisée ou explicite, qui peut se transmettre par le biais d’un discours, s’apprendre
« dans les livres » (par exemple, apprendre les fondements de la comptabilité, apprendre à calculer
une moyenne ou un écart-type, savoir décomposer un produit en ses composants.. .) ; – la
connaissance tacite, qui ne se communique pas par le biais du discours mais qui va s’acquérir par la
pratique (par exemple, savoir nager ou rouler à bicyclette). Bien entendu, ces deux formes de
connaissance ne sont pas mutuellement exclusives et existent simultanément dans les schémas
d’action. Nous reprendrons cet aspect important, de manière plus détaillée, dans le chapitre 5
consacré à la gestion des connaissances. La figure 6, page suivante, résume les principales relations
entre données, information et connaissances
2. Des conséquences importantes
La distinction entre données, information et connaissances et la reconnaissance de l’existence de
processus cognitifs a des conséquences importantes sur plusieurs plans. – Caractère relatif de la
notion d’information : ce qui est information pour l’un n’est pas obligatoirement information pour
l’autre ; tout dépend du stock de connaissances maîtrisées par chacun. Les différents exemples cités
ci-dessus le montrent. Il faut cependant noter que, dans beaucoup de cas, l’existence de
connaissances communes partagées par plusieurs individus permet d’attribuer à un ensemble de
données la même signification : l’information ainsi partagée a un caractère relativement général.
Ainsi, l’annonce d’une hausse du prix du baril de pétrole de 90 à 100 $ est comprise par tous les
automobilistes comme devant entraîner rapidement une hausse du prix du carburant payé à la
pompe. Inversement, en raison des différences de connaissances, les mêmes ensembles de données,
les mêmes représentations peuvent conduire à des interprétations différentes. Par exemple, les
résultats annuels publiés par une société cotée ne seront sans doute pas interprétés de la même
manière par un analyste financier bien informé et par un actionnaire peu au fait de l’activité réelle
de l’entreprise. – La manière d’utiliser les représentations varie selon les individus : selon Rowe et
Ziti (2002), on caractérise les différences de comportement des individus au cours du processus
cognitif par la notion de style cognitif. C’est une dimension qui permet de distinguer la façon dont
les individus appréhendent, organisent et traitent l’information. Par exemple, on distinguera des
managers préceptifs ou réceptifs (selon qu’ils collectent les informations selon un modèle préconçu
ou non), des « réflexifs » ou des « impulsifs » (ces derniers souvent tentés de suivre une idée en
négligeant des éléments d’information. . .), des « systématiques » ou des « intuitifs ». . . Il existe
une quarantaine de styles classés en plusieurs catégories. Une des dimensions les plus importantes
est la notion d’indépendance à l’égard du champ qui « permet de distinguer les individus selon leur
capacité à percevoir un élément séparé de son contexte et à adopter une attitude analytique dans la
résolution des problèmes » (Rowe et Ziti, p. 39). Dans beaucoup de situations de résolution de
problèmes, l’adoption d’une attitude analytique (indépendance à l’égard du champ) se révèle
avantageuse. L’existence de différents styles cognitifs montre l’intérêt que l’on peut avoir à trouver
des formes de représentation bien adaptées aux caractéristiques de l’utilisateur ; l’aide apportée par
les systèmes d’information doit correspondre au style du manager : il n’y a pas de solution optimale
universelle. – Aspect récursif de la définition des données : malgré son nom, la « donnée » n’est pas
donnée de manière automatique, spontanée.. . elle découle d’un processus de choix, de construction.
Si nous retenons, pour décrire une entité, certaines caractéristiques, c’est que nous savons qu’il
existe des utilisateurs de données capables de leur attribuer du sens, c’est-à-dire disposant de
connaissances permettant de les interpréter. Exemples – Le médecin demande la mesure d’un
certain nombre de paramètres : température, tension artérielle, taux de cholestérol. . . qu’il peut
utiliser dans son modèle de diagnostic (processus d’interprétation). – Le banquier va demander à
l’entreprise sollicitant un crédit un certain nombre de données relatives à ses résultats, son
patrimoine, l’état de ses dettes. . . pour formuler un jugement sur son aptitude à rembourser le crédit
demandé : ces données sont des variables de son modèle de définition de la solvabilité. Dans une
certaine mesure, ce sont les connaissances des futurs utilisateurs qui déterminent le choix des
données. Dans notre vie quotidienne, nous sommes soumis à de multiples stimuli :
automatiquement, pour éviter la surcharge cognitive, nous éliminons tous ceux qui ne semblent pas
utiles pour notre survie. (Ainsi pouvons-nous avoir franchi des dizaines de fois la porte d’entrée de
l’université sans avoir mémorisé la couleur de la grille qui la protège.. .) Dans les organisations, la
saisie des données est définie en fonction de leur utilisation future ; la donnée n’existe que si elle est
destinée à s’intégrer dans un traitement apportant de l’information à, au moins, un utilisateur. Par
exemple, dans un garage, il est demandé aux mécaniciens de noter l’heure de fin de la réparation ;
cette donnée sera utilisée pour calculer la durée de la réparation et permettra au chef d’atelier de
vérifier si les barèmes de temps standard appliqués sont adaptés ou non. – Le processus
d’interprétation est soumis à des risques de biais : il est assez commun d’observer des
interprétations différentes des mêmes ensembles de données. Ces différences peuvent s’expliquer,
comme nous l’avons indiqué ci-dessus, par des différences de niveau de connaissances ou des
différences de style cognitif. Elles peuvent s’expliquer également par des dysfonctionnements dans
le déroulement du processus cognitif, par l’existence de biais de différentes natures : . tendance de
l’utilisateur à retenir les informations confortant un modèle connu au détriment de celles révélant un
changement. En particulier, on observe assez souvent que le décideur se fait une première idée sur
la solution à partir de quelques données et qu’il sélectionne, de manière peu consciente, les données
qui confortent ce premier jugement en négligeant celles qui pourraient éventuellement le contester ;
. tendance à privilégier les informations quantitatives au détriment des informations qualitatives ou
les premières informations fournies par rapport aux suivantes ; . tendance à privilégier l’information
concrète issue d’un cas au détriment d’une information d’ordre statistique, calculée sur un
échantillon plus large, mais plus abstraite ; . tendance à attribuer à certains événements une
probabilité plus élevée parce qu’ils sont souhaités.
Ces quelques remarques suffisent à montrer que l’être humain a des limites dans ses capacités à
utiliser l’information pour résoudre un problème. La nature des processus de traitement, les risques
liés à une mauvaise utilisation des données doivent être pris en compte lorsqu’on est amené à juger
de la pertinence des représentations.
2 2 Des représentations pertinentes
Après avoir défini la notion de pertinence, nous en décrirons les principaux déterminants puis nous
montrerons que les notions de coût et de valeur de l’information doivent être prises en compte dans
la recherche de la pertinence des représentations
2 12 La notion de représentation pertinente
1. Approche de définition
La notion de pertinence est directement liée à l’utilisation de l’information : est pertinent ce qui «
convient », ce qui « est approprié à une action ». Une représentation sera pertinente si elle répond
aux desseins de son utilisateur, si elle le satisfait. La pertinence est donc une qualité relative à un
utilisateur et à un contexte d’utilisation. Si on applique la notion de pertinence au contexte de la
prise de décision, on peut dire : – est pertinente l’information qui permet de prendre la « bonne »
décision (cela suppose que l’on soit capable de définir ce que l’on entend par « bonne » décision,
optimale ou satisfaisante) ; – est pertinente la représentation qui permet un « bon » déroulement du
processus de décision dans ses différentes phases ; intelligence du problème, modélisation, choix et
évaluation. Ces deux remarques permettent de repérer les déterminants majeurs de la pertinence des
représentations : – leur caractère exhaustif ou non ; – l’absence de bruit ; – le degré de finesse. 2.
Exhaustivité des représentations Tout utilisateur aimerait disposer d’une information complète,
c’est-à-dire de représentations traduisant tous les événements ou tous les changements d’états
significatifs dans le domaine auquel il s’intéresse. Cela permettrait une meilleure identification des
problèmes, une modélisation plus précise et un processus de choix prenant en compte l’ensemble
des alternatives utilisables. En pratique, l’exhaustivité des représentations est rarement atteinte et
beaucoup de représentations utilisées dans les systèmes de gestion sont soumises au risque dit de «
première espèce », où certains événements importants ne sont pas retenus par la fonction
d’information. Exemples – Dans un atelier de fabrication, les appareils de contrôle utilisés ne
permettent pas de repérer, dans tous les cas, des « micro-fissures » dans les structures métalliques.
Certaines pièces, mauvaises, sont acceptées comme bonnes en raison des limites de l’appareillage
de mesure. – Dans un rapport sur les ventes du mois écoulé, le directeur commercial d’une
entreprise n’a pas signalé le fait que deux clients importants n’avaient pas renouvelé leurs
commandes. Il s’agit sans doute d’un événement significatif qui n’a pas été pris en compte ; il aurait
sans doute entraîné une vision différente de la situation par le directeur général de l’entreprise. On
notera que le caractère « exhaustif » de la représentation ne peut être défini que de manière relative
pour un utilisateur et un modèle de décision donné (qu’entend-il par « événement significatif » ?). 3.
Absence de bruit La notion de bruit a été définie dans le paragraphe précédent. Beaucoup de
représentations utilisables dans les systèmes de gestion sont soumises au risque de « deuxième
espèce » qui ferait considérer comme événements significatifs des variations aléatoires dues aux
imperfections de la fonction d’information. Exemples
– En reprenant l’exemple de l’atelier de fabrication cité ci-dessus, un mauvais fonctionnement de
l’appareil de contrôle peut entraîner le rejet, à tort, de pièces considérées comme impropres alors
qu’elles sont bonnes. – La comparaison des résultats de deux exercices d’une entreprise peut être
faussée s’il y a eu un changement de méthodes comptables dans l’intervalle. Le changement
apparent ne découle pas d’un changement de la situation réelle mais est lié à la fonction
d’information. (C’est pourquoi ces changements doivent être obligatoirement signalés.) 4.
Précision, degré de finesse La représentation utilisée peut être plus ou moins précise, plus ou moins
fine. Ce degré de finesse correspond au niveau de détail, à l’intervalle de variation. . . inclus dans la
représentation.
Exemples – Une carte géographique constitue une représentation du terrain. Une carte routière au
1/500 000e ne représentera pas les mêmes détails qu’une carte au 1/25 000e utilisée, par exemple,
pour préparer une randonnée pédestre. – Un directeur commercial présente, aux fins d’analyse, une
statistique décrivant la répartition des clients par chiffre d’affaires. Il peut hésiter entre les deux
représentations suivantes. Présentation no 1 Présentation no 2 La présentation no 2 sera dite plus
fine que la présentation no 1. Sur le plan strict de l’informativité (connaissance apportée par la
représentation), une représentation plus fine est au moins aussi informative qu’une représentation
moins fine du même phénomène. Elle ne l’est pas obligatoirement plus ; la pertinence ne s’accroît
pas obligatoirement avec le degré de finesse de la représentation (voir ci-après la remarque
concernant la valeur de l’information). Remarque Si nous reprenons le cas (ci-dessus) des
statistiques relatives au chiffre d’affaires et que le problème à résoudre soit d’attribuer une remise
annuelle aux clients selon le chiffre d’affaires réalisé, en distinguant les « petits » clients, les clients
moyens et les « gros » clients, la série no 1 peut se révéler suffisamment informative, donc aussi
pertinente que la série no 2, tout en étant moins fine. La finesse de la représentation traduit le «
pouvoir séparateur » de la fonction d’information, son aptitude à considérer comme distincts deux
événements ou deux états faiblement différents. Cette aptitude est fondamentale dans certains
domaines (sciences physiques, astronomie, médecine.. .) où les progrès de la modélisation sont
souvent dépendants du degré de précision de la mesure. En matière de gestion, cet impératif est
souvent moins strict et les problèmes découlant d’un excès de finesse sont aussi à considérer.
2 2 2 Les autres déterminants de la pertinence
Exhaustivité, absence de bruit, finesse adaptée sont des déterminants majeurs de la pertinence des
représentations. Cependant, la satisfaction de l’utilisateur est également liée à d’autres
caractéristiques des représentations, en particulier : – leur respect des contraintes de temps ; – leur
fiabilité ; – leur forme ; – leur accessibilité.
1. Respect des contraintes de temps Le processus d’utilisation de l’information est un processus
dynamique, qui s’inscrit dans des contraintes de temps ; il concerne généralement des phénomènes
évolutifs. Ces deux raisons imposent des contraintes particulières aux représentations, tant pour leur
utilisation que pour leur production.
Tout d’abord, pour être utilisée, une représentation (des données) doit être disponible dans un
intervalle de temps limité. Un instant, celui du choix dans le processus de décision,
borne cet intervalle utile ; au-delà de cet instant, l’information additionnelle n’a plus d’intérêt
puisque la décision est prise (respect de la ponctualité ).
Exemples – Une information permettant d’améliorer mon pronostic sur l’ordre d’arrivée du tiercé
est intéressante à la condition d’être disponible avant l’heure limite de dépôt des paris. Au-delà de
cette heure limite, la question de la pertinence ne se pose plus ; l’information n’est plus utilisable. –
Une entreprise doit répondre à un appel d’offres avant le 15 mai. Toute information permettant
d’améliorer sa proposition lui parvenant au-delà de cette date ne présente aucun intérêt. Ensuite (et
cette dernière question est indépendante de la précédente), lorsque les données décrivent des
situations évolutives, la qualité de la représentation obtenue est fonction de son délai d’obtention.
Le caractère d’actualité de la représentation est un facteur essentiel de sa pertinence. Exemples –
Lors du lancement d’un nouveau produit, il peut être important de prendre des décisions rapides
concernant le prix de vente, la politique de communication.. . Ces décisions utilisent des données
représentant l’évolution des ventes par points de vente. Si ces données sont connues avec plusieurs
semaines de retard, on peut avoir une image totalement faussée de l’évolution des ventes et prendre
des décisions non appropriées. – Si la situation comptable d’un client est connue avec beaucoup de
retard, il est possible que le service commercial continue à accepter ses commandes alors que la
dégradation de sa situation financière imposerait de ne plus lui faire crédit.
Cette qualité d’actualité découle directement de deux éléments : – le délai de production de la
représentation : combien de temps faut-il pour saisir des données, les mettre en forme, les
communiquer ? – la fréquence d’observation du phénomène évolutif ; l’information est-elle cueillie
et traitée à des intervalles plus ou moins rapprochés ? Exemples – Si le comptable exige dix jours
pour présenter une situation, on ne pourra pas disposer le jour j d’une représentation décrivant la «
réalité de l’entreprise » postérieurement à j – 10. – Si l’on surveille l’évolution des ventes d’un
produit, doit-on procéder à un relevé quotidien, hebdomadaire, mensuel.. ., des ventes de chaque
point de vente ? La pertinence diminue généralement avec l’âge de l’information ; d’où l’intérêt de
réduire le délai d’obtention. L’augmentation de la fréquence d’observation peut être souhaitable
pour la même raison. La fréquence d’observation est évidemment déterminée par la vitesse
d’évolution du phénomène que l’on souhaite gérer. Exemples
– Pour guider une fusée, il est indispensable de disposer des données représentant sa
trajectoire avec un très faible délai et une très grande fréquence. Sinon, compte tenu de sa
vitesse d’évolution, elle pourrait facilement échapper à toute possibilité de contrôle. – La
surveillance de l’évolution des parts de marché sur un produit peut sans doute
s’accommoder d’une observation mensuelle. Une observation quotidienne, soumise à de
nombreux aléas, donnerait peut-être d’ailleurs une image moins pertinente. Fréquence et
délai ne sont pas indépendants ; en particulier on n’accroît pas l’actualité de la
représentation en accroissant la fréquence d’observation sans tenir compte du délai de
production de l’information.
– Remarque S’il faut dix jours pour dresser une situation comptable, le fait d’en demander une
production hebdomadaire ne fera qu’accroître le décalage entre l’instant d’observation et
l’instant où la représentation sera disponible pour son utilisateur.
2. Fiabilité La mesure des risques de première et de deuxième espèces est un aspect
important de la fiabilité de la représentation, du degré de confiance que l’on peut lui
accorder. Elle traduit l’« exactitude » de l’information. La fiabilité perçue de l’information
est très souvent liée à sa source. Lorsqu’une information est communiquée par d’autres
personnes, la vraisemblance attribuée (« exactitude » supposée) dépend du jugement que
l’on porte sur l’émetteur. Ainsi, si l’on reçoit une information d’une source que l’on connaît
déjà, qui a fourni dans le passé des informations qui se sont révélées exactes par la suite, on
lui attribue un coefficient de vraisemblance plus élevé qu’à celle provenant d’une source
nouvelle ou moins réputée. (Voir, dans la presse, l’expression : « selon une source
généralement bien informée ».) L’information inexacte (découlant de bruits) peut conduire à
des décisions inappropriées ; le manque de confiance dans une information conduit
généralement à lui attribuer une pondération plus faible dans l’espace de représentation du
problème. 3. Forme de la représentation Les signaux constitutifs de la représentation
peuvent être de différentes natures : données sous forme numérique ou alphabétique, dessins
ou images fixes, sons, images animées avec ou sans son. . . La richesse de la représentation,
son aptitude à traduire tous les aspects du réel, dépend du nombre et de la variété des
signaux simultanément fournis à nos organes sensoriels. Remarque On admet qu’une
photographie est plus riche qu’une description sous forme littéraire, qu’une image vidéo
accompagnée de son est plus riche qu’une photographie. . ., qu’une perception directe est
plus riche qu’une image vidéo.. . En se limitant aux domaines classiques des systèmes de
gestion, de nombreux travaux ont tenté de mettre en évidence des relations générales entre la
forme de la représentation utilisée et la qualité du processus de décision (pertinence et
vitesse de décision en particulier). C’est ainsi que l’on a pu repérer quelques aspects
intéressants. a – L’information présentée sous forme de graphiques est plus rapidement
perçue dans sa globalité que l’information présentée sous forme de tableaux (en règle
générale, cela viendrait confirmer scientifiquement le vieil adage : « Un bon dessin vaut
mieux qu’un long discours »). b – Les risques de perception erronée sont plus grands lors de
l’utilisation de graphiques que lors du recours aux tableaux de chiffres (forte sensibilité au
choix des échelles dans les graphiques). c – Il n’est pas possible de définir, de manière
générale, la « meilleure forme » d’une représentation. La pertinence formelle dépend des
conditions d’utilisation et des caractéristiques du décideur, en particulier de son style
cognitif. Les expériences ont ainsi montré que les individus de type « systématique,
analytique » qui utilisent une approche méthodique, déductive, des problèmes préfèrent des
représentations sous forme de tableaux alors que les individus de type « intuitif, heuristique
» apprécient davantage les représentations imagées et les commentaires qualitatifs. La
pertinence de la forme reste essentiellement subjective. Ces résultats sont quelque peu
fragmentaires et observés dans des contextes expérimentaux ; ils ne peuvent être considérés
comme des lois universelles. Il est à peu près certain que la forme utilisée pour les
représentations a un impact sur le processus de résolution des problèmes mais, en l’état
–
–
–
–
–
actuel de nos connaissances, peu de conclusions sont scientifiquement validées.
4. Accessibilité de l’information
La discussion ci-avant, relative à la forme de l’information, pose en fait la question du
passage de la représentation à l’utilisation de l’information qu’elle contient : comment
trouver, dans un ensemble de représentations plus ou moins disponibles, l’information
utile ? L’information est plus ou moins accessible ; il est plus ou moins facile d’extraire
l’information utilisable des représentations fournies. La forme de l’information, son support,
le langage utilisé. . ., la rendent plus ou moins facile d’accès par des manipulations plus ou
moins complexes.
Exemples – Le recours à Internet, disponible chez l’abonné, rend en principe l’information
relative à un abonné au téléphone plus accessible que le recours à un ensemble d’annuaires
imprimés stockés au bureau de poste. – Un compte rendu oral d’un ingénieur sur un incident
de fabrication est considéré comme une information plus accessible que le recours à la
lecture de plusieurs rapports écrits sur cet incident. La notion d’accessibilité fait donc
intervenir des questions d’espace (où se trouve l’information ?), de temps (combien de
temps faut-il pour trouver l’information ?), de difficultés dans le processus de recherche
(quelles sont les opérations nécessaires pour extraire l’information recherchée ?). Un des
aspects particulièrement importants de l’accessibilité est lié au volume des représentations
fournies à l’utilisateur de l’information. Augmenter le volume des données fournies
n’accroît pas systématiquement la pertinence de l’information ; au contraire, au-delà d’un
certain seuil, nous nous heurtons à nos capacités limitées de traitement des données et les
difficultés de sélection accrues au sein d’un ensemble plus vaste diminuent l’accessibilité à
l’information véritablement utile. Il n’est pas paradoxal d’affirmer que, dans certains cas, «
plus de données, c’est moins d’information ». Toutes les études ont montré que
l’accessibilité est une qualité de l’information déterminante pour son utilisation. Une donnée
est préférée à une autre moins en raison de sa fiabilité, de son exactitude, de son actualité. . .,
qu’en raison de son accessibilité. Une des conséquences immédiates de cette observation est
que l’on doit reconsidérer en fonction de l’accessibilité les problèmes de finesse, d’actualité
et de forme de l’information. Exemples – Doit-on adresser un rapport d’étude détaillé en
cinquante pages ou un rapport résumé en deux pages si l’on veut que ses propositions soient
retenues par un directeur fortement sollicité ?
– Faut-il présenter un ensemble de tableaux montrant l’évolution des ventes par jour pour
chaque produit pour chaque point de vente ou simplement deux ou trois séries statistiques
globales ? – Doit-on fournir un état détaillé des stocks de chaque jour à un responsable de
l’approvisionnement qui ne peut s’en occuper qu’une fois par semaine ? Ce problème a pris
une importance considérable avec le développement des technologies informatiques
permettant de produire de plus en plus de données à des coûts de plus en plus faibles. De
nombreux utilisateurs souffrent désormais d’un « excès d’information », en réalité d’un
excès de données où se trouve une information sans doute plus abondante mais moins
facilement accessible.
Le plan comptable définit la comptabilité comme un système d’organisation de
l’information financière permettant :
– de saisir, classer, enregistrer les données de base chiffrées ; – de fournir, après traitement,
un ensemble d’informations conforme aux besoins de divers utilisateurs, en particulier des
documents de synthèse (bilan et compte de résultat). Dans la mesure où les utilisateurs et les
utilisations de l’information comptable ne sont pas définis avec précision, le plan comptable
n’utilise pas le terme de « représentation pertinente » mais le concept d’« image fidèle ».
Malheureusement, ce concept n’a pas fait l’objet d’une définition rigoureuse. Le plan
comptable précise simplement que « les documents de synthèse doivent, en toutes
circonstances, donner une image fidèle du patrimoine, de la situation financière, ainsi que
des résultats de l’entreprise ». Cependant, certains principes généraux sont énoncés ; leur
respect doit permettre d’améliorer le degré de fidélité de l’image comptable : – prudence
(appréciation non optimiste) ; – régularité (respect des règles) ; – sincérité (application de
bonne foi de l’esprit des règles) ; – permanence (utiliser toujours les mêmes règles
comptables ou, au minimum, signaler le changement). . . En définitive, l’application de ces
principes garantit une certaine stabilité des conventions qui sont à la base des
représentations comptables ; elles en garantissent la fiabilité (fiabilité renforcée
éventuellement par l’intervention des commissaires aux comptes). En revanche, il n’est pas
possible de qualifier, d’une manière générale, la pertinence des informations comptables ;
celle-ci dépend de l’utilisation envisagée (par exemple, pour une décision d’octroi de
crédit ? pour la signature d’un contrat de partenariat ? pour la souscription à une
augmentation de capital ? pour l’acceptation d’un plan de licenciement ?). Il est évident que,
selon les cas, les représentations comptables seront plus ou moins bien adaptées à la
résolution du problème de l’utilisateur et qu’il y aura lieu de rechercher des données
complémentaires et de « retraiter » les données fournies. La figure 7, page suivante,
récapitule les principaux déterminants de la pertinence. Ceux-ci peuvent être combinés dans
un processus de recherche et d’analyse de la pertinence, qui est un modèle coûtvaleur de
l’information.
2 3 2 Modèle économique de recherche de la pertinence
Nous avons déjà souligné qu’à l’intérieur du processus de décision proprement dit se déroulait un
processus de décision dérivé relatif à la recherche d’information : « Dois-je décider maintenant avec
l’information disponible ou dois-je rechercher des représentations plus pertinentes ? » Il est possible
de donner des modèles descriptifs de ce processus d’amélioration de la pertinence, en termes de
coût et valeur de l’information. 1. Valeur de l’information La valeur d’une information est
déterminée par son utilisation, c’est-à-dire est fonction du résultat de la décision dans laquelle elle
est utilisée. Exemple
Une entreprise doit mettre en place, dans ses différents points de vente, des denrées périssables. À
l’heure actuelle, compte tenu de ses méthodes de prévision de la demande, elle espère un résultat de
10 000 E par jour (en moyenne). Si elle détenait l’information parfaite sur la demande du lendemain
dans chaque point de vente, son résultat serait de 30 000 E. Une (ou des) représentation(s) qui lui
fournirai(en)t cette information supplémentaire aurai(en)t donc une valeur maximale de 20 000 E,
égale au gain additionnel qu’elle(s) procure(nt). Bien entendu, cette valeur évolue dans le temps. On
peut considérer que, dans la plupart des cas, la valeur diminue au cours du temps et atteint une
valeur nulle à la date limite d’utilisa
tion. Remarque Pour des raisons pratiques de mise en place des marchandises, la connaissance de la
demande des lendemains doit intervenir avant une certaine heure ; au-delà, il ne sera plus possible
d’utiliser cette information. Si l’on reprend l’ensemble des déterminants de la pertinence (revoir
figure 7), on peut indiquer que, en règle générale :
– la valeur de l’information s’accroît avec son actualité, son exhaustivité, son exactitude, sa
fiabilité ; – la valeur de l’information peut s’accroître avec la finesse jusqu’à un certain seuil (audelà, elle peut décroître par effet de volume) ; – la valeur de l’information est liée à sa forme par
une relation subjective, contingente à l’utilisateur et au contexte.
2. Coût de l’information
L’obtention des représentations nécessite une observation, une cueillette 1 et une transmission des
signaux, éventuellement un stockage. Ces différentes opérations entraînent des coûts. Figure 1.7.
Les déterminants majeurs de la pertinence des représentations
Très généralement, le coût d’obtention est une fonction : – croissante du volume des signaux traités,
par conséquent fonction croissante du degré d’exhaustivité, de finesse des représentations, de la
fréquence d’observation ; – décroissante du délai d’obtention (la réduction du délai entraîne des
coûts additionnels) ; – de la forme (la nature du lien est variable et dépendante des technologies
utilisées) ; – croissante de la distance des sources (nécessité d’une transmission des signaux). 3.
Nature du modèle L
a figure 8 résume les termes du modèle. La décision fournit un résultat brut RB, fonction de X,
événements aléatoires du monde réel et de A, variables d’action du décideur. RB = f (X, A) Les
variables d’action sont choisies en fonction de signaux obtenus par saisie, traitement, transmission,
stockage. On peut écrire A = g(Y) où Y est les signaux utilisés et Ci = h(Y) une fonction de coût
(coût d’information). Le décideur apprécie les variations de RB selon Y ; en effet, puisque RB =
f(X, A) et A = g(Y), on peut écrire RB = f’(Y). Si l’on raisonne en termes de variations, la valeur
additionnelle des signaux supplémentaires est définie par la variation du résultat, RN ; cette
variation du résultat doit être rapprochée du coût des
La dimension informationnelle 29 signaux supplémentaires C. Une application simple du modèle
classique de recherche d’optimum montre que le décideur va essayer d’améliorer ses
représentations tant que la variation du résultat brut reste supérieure au coût d’obtention de
l’information additionnelle pour optimiser un résultat net (RN = RB – Ci).
2 3 Conclusion
Ce modèle simple a pour seul objet de mettre en évidence des caractéristiques essentielles de
l’information dans les processus de gestion individuels. En pratique, ce modèle ne peut expliquer
seul les comportements des utilisateurs d’information pour au moins deux raisons : – parce que, audelà de l’apparente simplicité du modèle, se cachent de redoutables problèmes d’évaluation ; –
parce que, comme nous le montrerons par la suite, il existe d’autres variables à prendre en compte ;
le décideur choisit rarement en fonction du seul résultat net. Ce modèle traduit directement le
concept de pertinence tel qu’il est caractérisé par les spécialistes des sciences cognitives. Ainsi D.
Wilson et D. Sperber (in Introduction aux sciences cognitives, direction D. Andler, Gallimard, Paris,
1995, p. 229) caractérisent-ils la notion comparative de pertinence à partir des notions d’effet et
d’effort de la façon suivante : a) Toutes choses
étant égales par ailleurs, plus grand est l’effet cognitif produit par le traitement d’une information
donnée, plus grande sera la pertinence de cette information pour l’individu qui l’a traitée. b) Toutes
choses étant égales par ailleurs, plus grand est l’effort requis pour le traitement d’une information
donnée, moins grande sera la pertinence de cette information pour l’individu qui l’a traitée.
3 La dimension technologique
La nature de la définition retenue permet de considérer comme « système d’information » des
réalisations purement manuelles : la tenue manuelle de fiches comptables, la rédaction et la
diffusion de circulaires administratives, la réunion de collaborateurs pour échanger des
informations. . . sont des exemples de processus organisés de collecte, traitement, communication.. .
de données effectués sans recourir aux technologies électroniques de l’information. Il n’y a donc
pas lieu (comme malheureusement on peut l’observer) d’assimiler système d’information à «
système informatique » et d’inclure obligatoirement un ordinateur dans les ressources utilisées pour
la construction du système d’information. Cependant, force est de constater qu’historiquement la
notion même de système d’information a émergé avec les premières utilisations des ordinateurs
dans les entreprises et qu’aujourd’hui la très grande majorité des réalisations reposent sur les
techniques électroniques de traitement de données.
La technologie peut être assimilée aux équipements, outils, dispositifs techniques mis en place en
vue de permettre aux individus d’accomplir leur tâche. C’est l’application d’une technique à la
conception et à la réalisation d’un produit ou d’un service ; elle se caractérise donc par le choix
d’une technique de base et la définition d’une logique d’emploi. En ce sens, la technologie
effectivement utilisée est une construction ; cela implique que des techniques identiques, des outils
similaires, soient susceptibles d’usages différents au sein d’une même organisation ou
d’organisations différentes. C’est pourquoi nous rappellerons tout d’abord les caractéristiques des
techniques de base utilisées dans les systèmes d’information pour présenter ensuite les aspects
essentiels des processus de construction de la technologie.
3 1 Les bases de la technologie : outils et techniques
Les technologies de l’information correspondent à l’usage de techniques permettant de saisir,
stocker, traiter, communiquer des données sous forme de symboles variés (chiffres, textes, images
fixes ou animées, sons). Elles sont en apparence très variées ; cependant, derrière cette diversité
apparente, se cache souvent une seule technique : celle du traitement électronique de l’information
sous sa forme numérisée. C’est cette unicité technique qui permet d’expliquer les propriétés
essentielles des technologies de l’information utilisées actuellement.
3 1 1 Les composants essentiels
La très grande majorité des réalisations actuelles repose sur le principe du codage électronique de
l’information. Pour traiter, stocker, transmettre les données, on utilise des signaux sous forme
électronique (brèves variations de tension ou changement d’état magnétique). On assiste
aujourd’hui à une généralisation du codage numérique (téléphone numérique, télévision
numérique.. .), qui offre des gains importants de rapidité et de sécurité tout en assurant la
compatibilité directe entre les différents équipements.
1. La base principale : ordinateur, logiciel Les premières réalisations utilisant les techniques
électroniques de traitement de données ont été construites autour d’ordinateurs fonctionnant sous la
conduite de programmes enregistrés (logiciels). a – Matériel : ordinateur Un ordinateur est une
machine automatique permettant de traiter, stocker, transmettre de l’information codée sous forme
numérique.
La structure générale de l’ordinateur comporte : – les dispositifs d’entrée capables d’acquérir des
données : ces dispositifs permettent d’entrer dans la machine les données sous une forme adaptée au
traitement ; citons (liste non exhaustive) les claviers, les lecteurs d’étiquettes codes-barres ou radiofréquence (RFID), les scanners (capables de « lire » des documents), les lecteurs de badges et de
cartes à puces magnétiques (lecteurs de cartes de crédit, par exemple). Les développements
techniques majeurs attendus correspondent à des dispositifs de reconnaissance vocale, permettant de
communiquer oralement avec la machine (cette innovation technique, actuellement en phase de
mise au point, devrait entraîner des bouleversements considérables dans notre façon d’utiliser les
machines) ; – les dispositifs de sortie permettant d’extraire de la machine des données sous une
forme communicable à l’homme ; citons (liste non exhaustive) les écrans (cathodiques, à diodes, à
plasma), les imprimantes (mécaniques, « jet d’encre », « laser », traceurs. . .), les dispositifs de
réponse vocale (utilisés, par exemple, dans des automates de distribution d’essence) ; – les
dispositifs de stockage susceptibles de conserver, sous une forme accessible à la machine, de
grandes quantités de données. Les dispositifs les plus utilisés sont les bandes magnétiques, les
disques magnétiques (disquettes, disques « durs » de différents formats...), les disques optiques
(disques optiques numériques, vidéodisques. . .). Ces dispositifs sont souvent appelés unités de
mémoire auxiliaires ; – une unité centrale qui constitue le composant essentiel ; elle comprend : .
une unité arithmétique et logique constituée de circuits électroniques capables d’exécuter des
opérations arithmétiques (addition, soustraction. . .) et logiques (comparaison, addition logique. . .)
(appelée également processeur) ; . une unité de commande capable de lire les instructions d’un
programme (voir ci-après) et de donner des ordres aux autres organes qui fonctionnent uniquement
sous son contrôle ; . une unité de mémoire principale dont la fonction essentielle est de stocker les
instructions des programmes et les données en cours de traitement. L’unité centrale peut être
rattachée, à distance, via des lignes de communication, à différents organes périphériques d’entréesortie ou à d’autres unités centrales.
Assez souvent on désigne par le terme processeur l’ensemble des organes de traitement de l’unité
centrale. Les micro-ordinateurs sont équipés d’unités centrales intégrées sur une seule puce
électronique appelée microprocesseur.
b – Programme enregistré : logiciel
Une des caractéristiques les plus importantes des techniques électroniques de traitement des
données est leur haut niveau d’automatisation obtenu par l’utilisation de programmes enregistrés.
Le programme est un ensemble d’instructions, traduisant les tâches à effectuer par la machine,
stocké, comme des données, en mémoire principale et que les circuits de l’organe de commande
sont capables de comprendre. L’ensemble des programmes qu’un ordinateur peut utiliser constitue
son logiciel : sans logiciel, une machine électronique de traitement de l’information est inutilisable.
En pratique, comme le montre la figure 9, il y a lieu de distinguer différents niveaux de logiciels
– les logiciels de base, destinés à faciliter l’usage de la machine : communication homme-machine,
gestion de l’exploitation, aide à la construction et à la mise au point des programmes, gestion des
communications avec d’autres machines via des lignes de communication.. . – les logiciels
d’application, utilisés par un utilisateur particulier, qui comportent, soit des logiciels outils (produits
standards d’usage général tels que le traitement de texte ou le tableur), soit des logiciels spécifiques
conçus en vue d’une application particulière (logiciel de gestion de commandes, logiciel de
facturation ou de paie. . .). Malgré leur aspect peu visible aux yeux de l’utilisateur néophyte, les
logiciels constituent un élément primordial de la construction technologique. Contrairement à
d’autres automates, un ordinateur est une machine dont l’objectif n’est pas défini de manière précise
lors de sa construction. C’est par l’intermédiaire du développement des logiciels que se réalise
l’adaptation du traitement automatique aux besoins particuliers de chaque utilisateur. Cette très
grande souplesse d’utilisation des ordinateurs permise par la technique du programme enregistré a
malheureusement une contrepartie : le travail d’écriture et de test des programmes est
consommateur de main-d’oeuvre qualifiée et est donc coûteux. Très souvent, le coût des logiciels
(malgré les progrès de la standardisation) dépasse le coût des matériels ; en outre, la qualité des
services rendus par le système d’information est directement dépendante de la qualité de la
réalisation des logiciels utilisés. 2. L’évolution technologique : la diversification des ressources Il
est difficile de caractériser une évolution technologique, extrêmement rapide et continue depuis plus
de quarante ans. Nous nous limiterons à l’énoncé de quelques tendances lourdes caractéristiques de
cette évolution. a – Tendance à prendre en compte l’information sous ses différentes formes de base
Au départ, le terme informatique correspondait essentiellement au traitement de données
numériques ; la technologie était une technologie du calcul. Vers les années 1970, le néologisme
bureautique révélait la prise en compte des données sous forme de textes et l’utilisation des mêmes
matériels pour le travail de bureau. Est apparu, depuis, le traitement des images (fixes et animées) et
des sons. La technique de numérisation du signal permet de coder ces différents types d’information
sous une forme unique (des signaux numériques binaires) favorisant ainsi l’évolution vers des
matériels multimédias (capables de traiter de manière combinée des données numériques ou
textuelles, des images fixes ou animées, des sons). b – Alliance des techniques informatiques et des
techniques de télétransmission L’émergence de la télématique puis d’Internet traduit ce «
rapprochement du téléphone et de l’ordinateur ». Il est devenu possible désormais d’utiliser des
ordinateurs à distance, de faire communiquer des ordinateurs entre eux, de faire « travailler
ensemble » des matériels hétérogènes tels que la télécopie et l’ordinateur, d’utiliser des ordinateurs
pour gérer les télécommunications.. . c – Différenciation des matériels À l’origine peu variée, la
technique de base a évolué vers la production de matériels différenciés tant dans leur finalité
d’usage (ordinateur à vocation de calcul, ordinateur à vocation de gestion, ordinateur de « conduite
de processus ». . .) que dans leur niveau de performances (micro-ordinateurs, « grands »
ordinateurs. . .). Il en découle aujourd’hui une très grande variété des matériels et par suite des
logiciels.
Aussi, plutôt que de dresser une liste de matériels (jamais exhaustive et immédiatement périmée),
nous rappellerons simplement les composants clés des technologies de l’information d’aujourd’hui.
Comme le montre la figure 10, on trouve quatre composants essentiels. . 1) Les stations de travail :
elles constituent souvent l’aspect le plus visible des technologies de l’information dans les
organisations ; ce sont soit de simples terminaux clavier-écran reliés à une unité centrale, soit, de
plus en plus, des micro-ordinateurs dotés de capacité autonome de traitement et de stockage et
éventuellement reliés à d’autres unités. . 2) Des bases de données partagées : le développement
continu des capacités de stockage et la baisse continue des coûts relatifs permettent de conserver de
grandes quantités d’information. L’amélioration des logiciels de gestion des données permet
d’organiser dans de bonnes conditions de sécurité l’accès de différents utilisateurs à ces bases de
données, à travers des réseaux de communication. Ces bases de données peuvent être gérées par des
ordinateurs spécialisés (serveurs de stockage) ou réparties sur les différents ordinateurs
communiquant par l’intermédiaire d’un réseau. . 3) Des réseaux de communication : la diffusion des
données, la communication entre stations de travail et processus se font par l’intermédiaire de
réseaux. On trouve ainsi des réseaux : – locaux : utilisés à l’intérieur d’un site, reliant différents
matériels proches les uns des autres (quelques centaines de mètres) ; – privés ou à usage privatif :
utilisés par une entreprise pour relier différents établissements éventuellement très éloignés. Ces
réseaux transportent la voix (téléphone) et les données ; ils sont à usage exclusif de l’entreprise ;
– publics, nationaux et internationaux : le téléphone est un exemple classique de ce type de réseau.
Ces réseaux, gérés par un opérateur, public ou privé, sont accessibles moyennant redevance. De très
nombreux réseaux publics (télex, transpac. . .) offrent des services variés : la période récente a vu le
développement explosif de la téléphonie mobile. Pouvant être utilisé à n’importe quel moment et
dans n’importe quel lieu, capable de mémoriser des données, des images et des sons, permettant
l’accès à certains services d’Internet et l’envoi de messages courts (SMS), cet outil apparaît
désormais comme un composant indispensable de nombreux postes de travail. Grâce à l’utilisation
de protocoles de communication normalisés, les différents types de réseaux peuvent être
interconnectés et offrir des possibilités de communication très étendues. Les années 1990 ont ainsi
vu l’émergence rapide d’Internet (le réseau des réseaux), qui apporte des possibilités d’accès rapide
à de multiples sources d’information réparties dans le monde entier (voir chapitre 4 ciaprès). . 4)
Des processeurs spécialisés : lorsque les besoins de calcul, de gestion de communications, de
gestion de données sont très importants, comme dans la plupart des grandes organisations, il est
fréquent d’utiliser des unités spécialisées jouant souvent un rôle central dans l’ensemble et assurant
la coordination des différents éléments. Toutefois, la tendance actuelle est à la diminution du rôle de
ces composants centraux et à l’évolution vers des ressources réparties et partageables par chaque
station de travail.
Remarque La figure 10 fait apparaître également des « terminaux ou automates spécialisés ». Ce
sont des matériels à vocation mixte, dont la tâche n’est pas seulement de traiter de l’information
mais aussi de produire un bien ou un service. Citons des automates industriels, des distributeurs de
billets. . . Ces composants sont de plus en plus répandus dans les entreprises aujourd’hui. En
définitive, comme le montre le tableau page suivante, les technologies de l’information doivent
assurer cinq fonctions de base relatives aux données : saisir, transmettre, stocker, traiter, restituer. d
– Une évolution des conditions d’accès Deux éléments essentiels sont ici à considérer : – la facilité
d’utilisation ; – le coût et les formes d’accès à la technologie, avec notamment le Cloud Computing.
La facilité d’utilisation s’est continuellement améliorée. Le progrès technique a permis la réalisation
de mémoires principales et de processeurs de plus en plus performants ; cette évolution du matériel
a accompagné des progrès considérables dans les logiciels de communication homme-machine
(interfaces graphiques, par exemple). Ces progrès devraient se poursuivre avec le développement de
la reconnaissance de la parole. Compte tenu de l’évolution des langages de programmation et des
logiciels outils, l’usage autonome de la technologie est devenu possible. Un autre aspect de la
facilité d’utilisation est lié au progrès de la normalisation, en particulier pour les systèmes
d’exploitation et les réseaux : la compatibilité entre les matériels hétérogènes s’améliore et simplifie
les procédures de connexion. Le domaine des technologies de l’information est sans doute celui qui
a connu, dans le monde industriel, la chute des coûts la plus spectaculaire. Plusieurs composants
essentiels des matériels utilisés (mémoires électroniques, transistors, microprocesseurs. . .) ont
connu des taux de progression du rapport performance/coût voisins de 30 % par an. Même si le coût
d’accès à la technologie n’a pas subi une baisse aussi forte en raison du maintien (voire de la
hausse) des coûts du logiciel, les effets n’en demeurent pas moins considérables. Les formes
d’accès à la technologie et aux représentations qu’elle supporte évoluent fortement. Un concept en
plein développement décrit la tendance actuelle : le Cloud Computing. S’il est présenté comme la
prochaine mutation technologique majeure, il n’est pas une technologie émergente, mais un
nouveau mode de fourniture et de financement des ressources informatiques de l’entreprise. C’est
une façon nouvelle d’externaliser ces ressources (matériel et/ou logiciels) auprès d’un tiers. Les
entreprises ont la possibilité par exemple de recourir à un logiciel en ligne facturé à l’usage réel
plutôt qu’à l’usage potentiel. On distingue trois types de Cloud Computing : le logiciel comme
service (SaaS : Software as a Service), la plate-forme comme service (PaaS : Platform as a Service)
et l’infrastructure comme service (IaaS : Infrastructure as a Service). Le système est variable et
flexible, puisqu’il adapte les ressources à l’utilisation recherchée. Ce type de service permet donc à
la fois de se décharger de tâches de planification coûteuses et incertaines et, sur le plan gestionnaire,
de ne pas investir en immobilisant des ressources importantes mais de consommer en fonction de
ses besoins. Les prévisions de cabinet d’études effectuées en 2010 suggèrent que les entreprises
vont dépenser plus de 100 milliards de dollars dans les cinq années à venir. En parallèle, le cabinet
IDC a prévu un déclin de 7 milliards de dollars du marché mondial du logiciel traditionnel (source :
01 informatique, no 2060, 11 nov. 2010, p. 60). Positionné entre les solutions propriétaires et les
outils Open Source, le Cloud offre de nombreux avantages. Ne serait-ce que d’un point de vue
financier, puisque les dépenses en investissement IT se transforment en coûts opérationnels. Pour
proposer des tarifs intéressants aux entreprises, le modèle Cloud s’appuie fréquemment sur des
socles d’exécution OS, source d’économies très substantielles. Fonction de base Exemples de
dispositifs technologiques Modèle avantageux notamment pour les PME qui profitent d’une barrière
d’entrée en termes de compétences moins élevée avec la possibilité d’accéder à une qualité de
service jusqu’alors réservée aux grandes entreprises. Vitesse de mise en production et de
déploiement constitue un autre atout du Cloud. Si séduisant qu’il soit sur le plan marketing, le
recours à ce type d’offres doit être bien réfléchi. L’évaporation des données dans un nuage de
serveurs, à travers l’utilisation de sites de stockage multiples, soulève des interrogations en matière
de disponibilité, de sécurité, de confidentialité et de réversibilité. Si ces points bloquants n’étaient
pas résolus, les perspectives de développement seraient minimes.
La plupart des experts prévoient que cette tendance doit se poursuivre encore pendant dix à quinze
ans au moins. La conséquence est une banalisation de la technologie et le renforcement d’une
tendance à la substitution du capital au travail dans des domaines où jusqu’à maintenant
l’automatisation des tâches restait faible.
3 2 1 Les propriétés spécifiques
L’apport immédiat des techniques du traitement électronique de l’information peut être caractérisé
par cinq points spécifiques : – compression du temps ;
– compression de l’espace ; – expansion de l’information stockée ;
– flexibilité de l’usage ; – connectivité.
1. Premier apport : la compression du temps Traiter des données consiste à les transformer par des
opérations variées (tri, calcul, sélection, transmission. . .) pour produire des représentations
pertinentes ; les outils électroniques automatisent ces opérations avec des performances de vitesse
sans aucune commune mesure avec celles d’un opérateur humain. Les vitesses de calcul sont de
l’ordre du million d’opérations par seconde pour les ordinateurs les plus modestes. Cela permet
d’effectuer des calculs extrêmement lourds dans des intervalles de temps très brefs (par exemple
calculer en temps réel la trajectoire d’une fusée pour permettre de corriger les écarts éventuels), de
manipuler des fichiers très importants (plusieurs millions d’enregistrements) en quelques minutes,
de transmettre des messages de manière quasi instantanée entre des ordinateurs distants. . . Deux
conséquences importantes de ces gains de temps considérables méritent d’être rappelées : – recours
systématique à l’automatisation des calculs (techniques ou financiers) ; – possibilité de recourir à
certaines méthodes de résolution connues mais inexécutables manuellement parce que trop longues
(opérations de l’algèbre linéaire au-delà d’une certaine dimension par exemple). 2. Deuxième
apport : la compression de l’espace Les réseaux de communication classiques (téléphone,
télégraphe) avaient permis, depuis un siècle, des gains de temps considérables dans la
communication à distance. À l’heure actuelle, il est possible de transmettre de très grands volumes
de données (correspondant par exemple à la transmission d’images vidéo) entre deux points
quelconques du globe. Le réseau Internet permet d’échanger des messages, de communiquer
immédiatement entre ordinateurs, quel que soit leur emplacement sur le globe. Le progrès, à l’heure
actuelle, vise à l’augmentation des débits des réseaux utilisés pour mieux utiliser la vitesse de
traitement des ordinateurs, encore trop souvent limitée par le débit trop faible des réseaux de
transmission de données. Ces possibilités nouvelles permettent le développement de relations à
distance entre individus et entre organisations ; l’émergence du télétravail, le phénomène de la
globalisation des marchés.. . sont des conséquences directes de ce phénomène d’élimination de la
distance par le recours aux techniques électroniques de la communication. 3. Troisième apport :
l’expansion de l’information stockée Les outils de stockage de type magnétique (bandes, disques
durs. . .) ou optique (CD-Rom, vidéodisque. . .) permettent dans des conditions d’encombrement
très faible le stockage de volumes considérables de données. Il s’agit d’un progrès important par
rapport aux formes traditionnelles du stockage d’archives imprimées. En pratique, le gain
d’encombrement n’est qu’un aspect de cet apport ; un progrès aussi important est celui apporté par
les logiciels de gestion de bases de données qui permettent, par l’intermédiaire de langages simples
d’interrogation, de retrouver très vite les données recherchées au sein d’une base de stockage de très
grande dimension. (Par exemple, une société de vente par correspondance, disposant d’un fichier
client de 2 millions d’individus, peut retrouver en quelques secondes les clients qui ont commandé
tel produit l’année précédente et qui n’ont pas renouvelé leur commande.) Bien entendu, cette
possibilité se combine avec la précédente pour permettre l’accès à des données distantes ; ainsi un
chercheur, assis à son bureau, peut-il consulter un article scientifique d’une revue stocké, sous
forme numérique, dans une base de données gérée par un serveur implanté aux États-Unis. Ce
progrès continu, dans les supports de stockage comme dans les logiciels de gestion de données et de
gestion de documents électroniques, permet aujourd’hui à l’utilisateur potentiel d’accéder sans
difficultés à une quantité de connaissances stockées pratiquement illimitée. 4. Quatrième apport : la
flexibilité d’usage L’un des intérêts majeurs des outils électroniques de traitement de données est
leur très large éventail d’utilisations potentielles. La majorité des automates industriels sont conçus
pour exécuter un ensemble de tâches déterminées. De la même manière, un ordinateur est construit
pour exécuter un certain nombre d’opérations élémentaires sur les symboles représentatifs de
l’information. Cependant, il est possible de lui faire exécuter beaucoup de tâches différentes en
raison de la flexibilité apportée par la technique du programme enregistré ; les opérations que
l’ordinateur peut exécuter sont définies à un niveau très élémentaire ; chaque programme
correspond à une certaine combinaison de ces opérations élémentaires. La même machine peut donc
exécuter des travaux différents dès lors qu’elle dispose du logiciel correspondant (ainsi, le même
micro-ordinateur peut être utilisé pour du traitement de texte, pour des calculs statistiques, pour de
la retouche de photographies numériques, pour l’enregistrement de séquences musicales à partir
d’un site Internet. . .).
On notera cependant que, si l’ordinateur dispose d’une flexibilité initiale très grande (il peut
accepter un très grand nombre de logiciels différents. . .), la flexibilité ultérieure liée à la possibilité
de modifier un logiciel existant pour l’adapter à des conditions nouvelles d’exécution de la tâche est
plus réduite. La modification de programmes est, en effet, une tâche lourde et délicate, qui
comporte des risques d’erreur. C’est pourquoi on entend assez souvent employer l’expression « la
rigidité de l’informatique » pour évoquer les difficultés bien réelles de l’adaptation des logiciels à
l’évolution des problèmes.
5. Cinquième apport : la connectivité Les techniques de traitement de données sont aujourd’hui
multiples. Désormais, dans la plupart des organisations, coexistent plusieurs types d’outils. L’une
des propriétés intéressantes de chacun de ces outils est la possibilité qu’il a d’être relié aux autres :
sa connectivité. Cette propriété se caractérise à la fois par le nombre de postes de travail pouvant
être joints à partir d’un poste donné et par la richesse des échanges autorisés. La connectivité est
évidemment fonction de la compatibilité des matériels et des logiciels utilisés. Le développement
généralisé du codage numérique (pour la télévision, pour le téléphone.. .) est un facteur favorable à
la connectivité d’outils autrefois totalement indépendants. (Ainsi est-il possible désormais d’avoir
accès à la messagerie électronique et à Internet à partir de certains téléphones mobiles.) La présence
de plusieurs outils éventuellement compatibles accroît les possibilités d’action de chaque utilisateur
qui peut ainsi jouer la complémentarité (par exemple, transférer des fichiers d’adresses d’un
organiseur à un ordinateur et vice versa. . .) ou la substitution (communication par messagerie
électronique, par courrier classique ou par téléphone) entre les différentes techniques.
L’observation du fonctionnement des organisations montre une diversité croissante dans les
solutions que chaque utilisateur invente en combinant, de manière spécifique, les différents outils
qui sont à sa disposition.
3 31 Conclusion
En résumé, pour caractériser les technologies de l’information, il est possible, comme le propose
Bakos, de les décrire selon deux dimensions : – fonctionnalités de base (stockage, traitement,
communication) ; – performance des composants de base, en termes de capacité, de qualité et de
coût unitaire. Il est ainsi possible de définir un ensemble de mesures, dont la grille présentée ciaprès fournit quelques exemples. (Bien entendu, pour chaque réalisation technique étudiée, des
mesures spécifiques doivent être choisies.) L’intérêt d’une telle grille est de permettre de comparer
des solutions technologiques différentes face à des projets d’utilisation ; il s’agit donc d’une
évaluation relative et contingente.
3 2 La construction de la technologie
À partir des bases techniques communes offertes sur le marché, chaque organisation va construire
ses solutions, développant ainsi ses technologies spécifiques. Ce que l’on observe, la technologie «
en usage », celle qui est effectivement mise en oeuvre dans les procédures de travail, est, dans la
plupart des cas, le résultat d’un double processus de construction : tout d’abord, une construction
délibérée, organisée lors de la mise en place des outils, puis une construction émergente, fonction de
l’autonomie des acteurs à l’intérieur des modes opératoires.
La construction délibérée
Un système d’information n’est pas un phénomène spontané ; il est le résultat d’un travail de
conception aboutissant à une implantation, synonyme de changement dans l’organisation. 1. La
conception des solutions La conception d’un système d’information peut être caractérisée à la fois
par ses objectifs et par sa démarche.
a – Premier point : les objectifs
Le système d’information doit répondre aux besoins de ses futurs utilisateurs. Le travail
préliminaire consiste donc à définir un cahier des charges qui exprime, de façon structurée, les
besoins que doit satisfaire le futur système.
Exemple Ainsi, pour les Grands Garages du Sud, le système à construire avait pour objectif
principal de fournir un support commode aux processus d’accueil du client, de suivi des réparations,
de facturation et d’encaissement. Il devait également traiter les opérations courantes de comptabilité
générale et de paie des salariés, assurer la gestion des pièces en stock. Ce que souhaitent les maîtres
d’ouvrage, leurs spécifications, va devoir ensuite être interprété et traduit par des spécialistes,
analystes, concepteurs en un schéma de système à réaliser. Cela implique l’intégration en un schéma
cohérent de trois séries de choix, correspondant aux trois dimensions de tout système
d’information : – les choix informationnels, c’est-à-dire les choix relatifs aux représentations
souhaitées ; il s’agit ici de définir quelles seront les représentation à produire pour chaque
utilisation, ce qui conduira à définir des modèles de données et les règles de transformation de ces
données par des modèles
Exemple Dans le cas des Grands Garages du Sud, on a été amené ainsi à définir ce que devaient
contenir un ordre de réparation, une facture, une commande de pièces. . ., et à expliciter comment
était appliqué le tarif pour passer de l’ordre de réparation à la facture à régler par le client (calcul de
durée des opérations, tarification des opérations. . .). L’ensemble de ces modèles de données et de
traitement correspond à une description fonctionnelle (mais abstraite) du futur système
d’information ; – les choix organisationnels, c’est-à-dire les choix relatifs aux acteurs et aux
procédures ; comme nous le montrerons plus en détail ci-après, il est nécessaire de répondre à la
question : « Qui fait quoi ? » en précisant le rôle de chacun dans les futures procédures ; Exemple
Ainsi, dans le cas des Grands Garages du Sud, il a été précisé que l’ordre de réparation serait établi
par le chef d’atelier, assurant l’accueil du client, et que la facturation ne serait lancée qu’à son
initiative, lorsqu’il aurait contrôlé la réparation effectuée. – les choix techniques, c’est-à-dire les
choix relatifs aux matériels et logiciels susceptibles d’être utilisés et la façon dont ils seront utilisés.
Exemple Toujours dans le même exemple, il a été décidé d’utiliser un logiciel standard (Intégrauto)
sur un réseau de plusieurs micro-ordinateurs et d’équiper certains des postes de travail d’une suite
bureautique ; pour la gestion des pièces détachées, la technique de la lecture d’étiquettes par codebarres a été retenue. Bien entendu, ces choix doivent être cohérents. Il est impératif de respecter un
certain nombre de contraintes relatives à l’articulation de ces différents choix. Ces contraintes sont
résumées dans le schéma suivant :
– contrainte de pertinence : les représentations fournies par le système et les traitements qu’il
effectue doivent correspondre aux besoins des utilisateurs ; – contrainte de praticabilité : les
représentations utilisées et les traitements demandés doivent être manipulables par les outils
techniques utilisés ; – contrainte d’adéquation : les techniques retenues doivent être compatibles
avec les moyens économiques de l’organisation et utilisables dans le contexte de travail. Ce n’est
que dans la mesure où ces contraintes sont simultanément satisfaites que le projet de système
d’information peut être considéré comme viable. À l’intérieur de ces contraintes, il existe des
possibilités de choix conduisant à des solutions plus ou moins satisfaisantes. b – Second point : la
démarche Pour des systèmes d’information de dimension très limitée, la construction peut rester
pour une large part intuitive, par essais, erreurs, tâtonnements, modifications. Au-delà d’une
certaine dimension, très limitée en pratique, cette approche empirique n’est pas possible et il est
indispensable d’organiser le processus de construction de manière méthodique. Ce processus passe
par différentes étapes, résumées dans la figure 12. Comme nous le montrerons en détail dans le
chapitre 7 de cet ouvrage, la construction des systèmes d’information constitue un projet, confié à
une équipe de projet (dans laquelle collaborent généralement des utilisateurs futurs et des
spécialistes de la construction), pouvant mobiliser des ressources considérables. (Un grand projet de
système d’information peut correspondre à plusieurs centaines d’années-homme, un système de
dimension moyenne exige plusieurs mois de construction. . .) Une des difficultés essentielles est
celle de la mise au point des logiciels, qui doivent répondre à des exigences rigoureuses de
praticabilité et de sécurité (le recours à des logiciels standards n’est pas toujours possible et il y a
souvent des adaptations à mettre au point). La démarche de construction aboutit à l’implantation
d’un nouveau système dans l’organisation. C’est à ce stade que se traduisent les principales
conséquences de cette construction volontaire de la technologie. 2. Les conséquences immédiates de
l’implantation Cette phase correspond au passage du système d’information de l’état de projet à
l’état de réalisation. Très concrètement, il y a modification des tâches, des rôles, de l’affectation des
personnes, des processus de communication, donc introduction du changement dans l’organisation.
En effet, la construction du système d’information amène, en règle générale, une modification des
procédures, c’est-à-dire un changement des modes opératoires des différents acteurs et de la nature
des tâches qu’ils ont à accomplir. Exemple Dans le cas des Grands Garages du Sud, le recours au
logiciel Intégrauto a fortement modifié les procédures d’accueil et de facturation : le chef d’atelier
doit désormais travailler avec le terminal clavier-écran pour établir l’ordre de réparation ; les
réparateurs reçoivent dorénavant un ordre complet avec les opérations indiquées en clair et n’ont
pas à établir de bons de sortie de pièces qui sont automatiquement édités avec l’ordre de réparation.
La facturation a été totalement automatisée et la personne qui en était chargée se consacre
entièrement aux travaux administratifs et comptables. De même, les magasiniers ne consacrent
qu’un temps très faible à la saisie des mouvements de pièces (lecture automatique des étiquettes), à
présent effectuée en temps réel pour les entrées comme pour les sorties. Par conséquent, à
l’intérieur de l’organisation, beaucoup d’utilisateurs vont devoir modifier leur mode opératoire et
s’adapter à des rôles différents. Le mode opératoire correspond aux procédures qui ont été définies
lors de la conception du système d’information : il précise les différentes tâches que doit effectuer
chaque opérateur, chaque acteur, pour remplir son rôle dans le déroulement du processus de travail.
Ce mode opératoire est généralement assisté par des logiciels utilisés en mode interactif qui
imposent, de manière plus ou moins contraignante, un enchaînement des opérations prédéfini.
Exemple Après l’adoption du logiciel Intégrauto, une nouvelle procédure d’accueil du client a été
définie. L’acteur concerné est le chef d’atelier, qui va opérer une saisie des informations nécessaires
à l’établissement de l’ordre de réparation. Les messages affichés à l’écran vont lui demander
d’entrer successivement les coordonnées du client puis les éléments d’identification du véhicule, à
partir de la carte grise, puis la description des réparations à effectuer. Ces réparations sont codifiées
selon des codes opérations et la frappe du code déclenche l’affichage de l’intitulé complet de
chaque opération. En fin de dialogue, le chef d’atelier déclenche l’impression de l’ordre de
réparation qu’il doit faire signer par le
L’analyse du processus de travail montre que la technologie incorporée dans le système
d’information se traduit par un double apport.
– Elle est génératrice de RÈGLES, de CONTRAINTES : les logiciels utilisés en mode
interactif par l’opérateur imposent le respect de certaines règles qui ont été jugées
indispensables lors de la définition des procédures de travail.
Exemple Ainsi, le chef d’atelier ne peut pas commencer à saisir des réparations s’il n’a pas
procédé auparavant à la saisie de l’identification du client et de l’identification du véhicule.
Il doit impérativement définir les opérations à effectuer par un code opération à six chiffres
et l’entrée d’un code incomplet ou erroné bloque automatiquement le déroulement du
dialogue. Ces règles limitent la marge d’initiative de l’opérateur ; elles sont généralement
justifiées par des contraintes de sécurité pour l’organisation ou par des contraintes de
fonctionnement de la technologie.
– Remarque Le caractère obligatoire de l’identification du véhicule et du client correspond au
souci du garage de ne pas procéder à des réparations sur des véhicules signalés volés et de
s’assurer, dans une certaine mesure, des garanties de paiement de la réparation. En revanche,
l’exigence de la frappe d’un code à six chiffres pour désigner l’opération est imposée par le
système de gestion de données incorporé dans le logiciel Intégrauto. – Elle offre des
RESSOURCES supplémentaires : les logiciels et les matériels apportent à l’opérateur des
moyens supplémentaires pour réaliser les tâches correspondant à son rôle : automatisation de
certaines opérations, apport de représentations pertinentes pour assister le processus de
travail. . . Exemple Ainsi, le chef d’atelier bénéficie de l’apport de la machine pour imprimer
automatiquement l’ordre de réparation ; de même, le logiciel peut calculer de manière
prévisionnelle quel sera le coût de la réparation envisagée ; il peut afficher, à la demande, le
prix de certaines pièces détachées en offrant plusieurs options au client (remplacement d’une
seule pièce ou remplacement d’un sous-ensemble par exemple) ; ces options seront
visualisées par une manoeuvre très simple au clavier-écran. Ensuite, tous les éléments qui
ont été saisis pour établir l’ordre de réparation seront réutilisés automatiquement pour
calculer et imprimer la facture après le contrôle de la réparation.
– On constate donc, à partir de ce simple exemple, que les apports de la technologie sont
pluriels : fourniture de représentations à la demande, automatisation de tâches exécutées
auparavant de manière manuelle, assistance dans la conduite d’un processus par la structure
d’un dialogue homme-machine.
– C’est dans le cadre ainsi défini, pour chaque acteur, interprétant son rôle au sein de
l’organisation, par les ressources et les contraintes des outils de traitement de l’information,
que va, éventuellement, se dérouler un second processus de construction de la technologie,
de nature émergente.
–
–
–
La construction émergente
La construction délibérée de la technologie aboutit à l’implantation d’un nouveau système
d’information mettant à la disposition des acteurs des outils (porteurs de possibilités
nouvelles d’action) dans le cadre plus ou moins contraignant d’un mode opératoire
prédéfini. Ce processus de construction délibérée (répondant à des objectifs clairement
définis) est, dans la plupart des cas, suivi par un processus individuel de construction
émergente (dont les objectifs ne sont pas énoncés à l’avance) dépendant du comportement
des acteurs dans leur nouveau cadre d’action. 1. Le cadre de la construction :
caractéristiques techniques, esprit de la technologie et vision organisante Les outils
techniques présentent des caractéristiques proprement contraignantes, c’est-à-dire qui ne
sont pas modifiées par leur usage une fois qu’elles sont mises à disposition de l’utilisateur.
Certes, ces caractéristiques techniques sont construites socialement, sont choisies, sont
parfois imposées, mais une fois l’utilisateur équipé, elles ne sont pas globalement
négociables. L’espace disque, la bande passante, la forme d’un bouton sur une interface sont
en général fixes, même si l’usage des fonctions qu’elles proposent dépend dans une large
mesure des choix de son utilisateur (allocation de l’espace disque, type d’information
transmise, positionnement du bouton par exemple). Nous dirons que certaines
caractéristiques techniques sont déterminées, du moins pendant la durée d’équipement des
utilisateurs en question, mais que les fonctionnalités ne le sont pas. Plus profondément, les
choix que vont faire les utilisateurs, les professionnels avec les possibilités de la technique
sont influencés par leurs interactions et ne dépendent pas que de leurs appropriations
individuelles. Plus symboliquement encore, ils le sont par l’avis des institutions, des
associations exerçant un pouvoir normatif, par les experts communiquant dans les salons
professionnels et les conférences scientifiques, par les médias, en bref par les processus et
les institutions qui dessinent et précisent « l’esprit de la technologie » (De Sanctis et Poole,
1994), c’est-à-dire ce qu’elle est bonne à faire. Ils constituent finalement une vision
organisante (Swanson et Ramiller, 1997 ; Carton et al., 2003). La vision organisante peut,
dans certaines situations, être fonctionnellement déterministe. Ainsi, au début de leur
diffusion, le choix des ERP ne laissait pas beaucoup de marges de manoeuvre aux
entreprises, lorsque les premiers consultants sont venus leur proposer l’idée. La perception
de la puissance de la technologie, conforté par tout le système d’offre, allait dans le sens des
directions générales des grandes entreprises pour lesquelles le besoin de contrôle des
résultats des métiers de l’entreprise d’une part, et du pouvoir des informaticiens d’autre part,
allait enfin être servi par une technologie docile (Besson, Rowe, 2001). Mais la vision
organisante peut aussi aller dans le sens de la démocratie, comme avec les technologies de
l’Internet (Monod, Rowe, 1999). 2. Le contenu de la construction : l’appropriation de la
technologie Face à des outils dont l’usage reste facultatif, l’utilisateur peut adopter des
comportements variés : – abstention : l’utilisateur ne souhaite pas changer ses méthodes de
travail et n’utilise pas les outils proposés ; la technologie n’est pas adoptée ; – utilisation
minimale : l’utilisateur se limite à des usages courants, généralement ceux pour lesquels il a
reçu une formation initiale, et ne cherche pas à tirer un meilleur parti des ressources
apportées par l’outil ;
– utilisation intensive et innovante des ressources offertes : l’utilisateur cherche, en
permanence, à améliorer par l’apprentissage sa maîtrise de l’outil et à développer des modes
opératoires plus performants ; il peut même inventer des solutions qui n’avaient pas été
prévues à l’origine par les concepteurs.
On caractérise par le terme infusion cette intensité de l’utilisation : le degré d’infusion
augmente lorsqu’on utilise davantage de fonctionnalités de l’outil, lorsqu’on l’utilise dans
des applications innovatrices, lorsqu’on accroît l’étendue et la fréquence des utilisations. Le
processus par lequel l’utilisateur acquiert cette plus ou moins grande maîtrise de l’outil, par
–
–
–
–
–
apprentissage en situation, est désigné par le terme appropriation : l’utilisateur intègre, à des
degrés divers, le recours à l’outil dans son mode opératoire et peut, éventuellement, faire
évoluer, seul, ce mode opératoire en fonction des propriétés de l’outil qu’il découvre puis
maîtrise à travers des usages répétés. L’appropriation effective de la technologie suppose la
réunion de trois conditions : – une maîtrise cognitive et instrumentale minimale de l’outil ; –
une intégration de l’usage de l’outil dans les pratiques quotidiennes ; – la possibilité de
l’émergence d’un usage innovant de l’outil.
Exemple Dans une entreprise, la responsable administrative et comptable dispose d’une
suite bureautique comportant, en particulier, un tableur. Celui-ci lui permettait de présenter,
tous les mois, un tableau des principales activités avec les postes de dépenses
correspondantes. Audelà de cette utilisation minimale, cette responsable a développé, grâce
à sa maîtrise progressive du tableur, toute une série de tableaux d’analyse enchaînés
permettant un suivi, à différents niveaux de synthèse, de la gestion de l’entreprise. Ce
processus d’appropriation correspond à une assimilation de la technologie ; son étendue, son
intensité dépendent de très nombreux facteurs :
– facteurs relatifs aux caractéristiques de l’outil, tel qu’il est perçu par son utilisateur
potentiel : utilité perçue, facilité d’utilisation perçue, compatibilité avec les autres outils
disponibles, possibilité d’essais, visibilité des résultats obtenus lors de l’utilisation,
adéquation apparente à la tâche. . . – facteurs relatifs au contexte de diffusion de la
technologie : promotion de la technologie par les dirigeants et cadres, actions de formation
et d’assistance à l’utilisation, présence de champions efficaces (un « champion » est un
utilisateur compétent et motivé, qui innove dans l’utilisation des outils et qui a un effet
d’entraînement pour les autres utilisateurs), existence ou non d’un système de récompenses
pour les utilisations novatrices ; – facteurs relatifs aux individus : âge, expérience
professionnelle, niveau de connaissances générales et technologiques, attitude à l’égard de la
technologie, attitude à l’égard du changement, sensibilité à la pression sociale. L’existence
de ces nombreux facteurs a une conséquence fondamentale pour ce qui concerne le résultat
de l’introduction de nouveaux outils de traitement de l’information ayant une certaine
flexibilité interprétative.
Le résultat est INDÉTERMINÉ : compte tenu des influences multiples qui déterminent la
nature et l’étendue du phénomène d’appropriation, il est extrêmement difficile de prévoir
quel sera le résultat effectif de l’adoption d’une technique : la technologie qui détermine la
performance dans le processus de travail est la technologie effectivement utilisée (c’est celle
qu’a construite l’utilisateur par son comportement d’appropriation) ; cette technologie n’est
pas rigoureusement identique à la technologie adoptée (celle qui a été retenue à l’origine par
les responsables qui en anticipaient certains effets). L’observation des entreprises révèle des
écarts sensibles entre les deux.
Exemple Ainsi, une étude portant sur l’appropriation des technologies Internet dans les
entreprises (de Vaujany, 1999) montre que l’on peut observer différents types
d’appropriation : – une appropriation centrée sur la tâche à accomplir, de manière assez
conforme à l’esprit dans lequel cette technologie avait été adoptée ; – une appropriation
centrée sur l’influence, où l’acteur utilise la technologie pour renforcer son influence au sein
de l’entreprise ; – une appropriation de type symbolique, où la technologie est vue comme
un moyen de valorisation de l’individu (symbole de modernité) ; – une appropriation de
caractère ludique, où l’utilisation est vue comme une détente, une « évasion » de manière
peu conforme à l’esprit ; – une appropriation de type « partage », où l’outil est vu comme un
instrument d’échange avec l’autre.
Par conséquent, la technologie est « équivoque » : à un choix initial donné peuvent
correspondre des résultats finaux sensiblement différents selon la réalité du processus de
construction de chaque acteur. Ce processus peut être influencé par des actions de gestion
(choix d’urbanisme, actions de formation, pratiques de contrôle et de motivation). Par-delà
les effets institutionnels de la vision organisante qui le cadre, il l’est aussi par les
interactions entre acteurs et les effets d’externalité positive ou négative, de production ou de
consommation, qui modifient l’utilité de la technologie. Ainsi l’émergence dépend d’effets
de réseaux.
–
–
–
–
3 3 Conclusion
Nous nous limiterons à rappeler les points essentiels relatifs à la dimension technologique
des systèmes d’information
– la technologie est une ressource et une contrainte pour l’exécution des tâches par les
acteurs (utilisateurs) ; – la technologie en usage est le résultat d’un double processus de
construction réalisé par les acteurs décideurs, concepteurs et utilisateurs : un processus
planifié et un processus émergent ; ce résultat est partiellement indéterminé ; – les
caractéristiques de l’outil, ainsi que les conditions de sa mise en place dans le contexte, ont
un effet sur le processus d’appropriation. La mise en évidence du rôle des acteurs et de
l’influence du contexte suggère que la dimension technologique n’est pas indépendante de la
dimension organisationnelle qui va être abordée maintenant. 4 La dimension
organisationnelle Certains systèmes d’information ne concernent qu’un individu isolé (par
exemple, une personne seule utilisant un logiciel pour tenir son agenda, suivre son budget,
gérer son répertoire d’adresses. . .). Cependant, la très grande majorité des systèmes
auxquels s’intéressent les sciences de gestion fonctionnent à l’intérieur d’organisations : il
s’agit soit de systèmes individuels (mais utilisés pour les besoins de l’organisation), de
systèmes à vocation collective, multi-utilisateurs (la très grande majorité des réalisations),
soit de systèmes imbriqués dans le fonctionnement de plusieurs organisations, systèmes
interorganisationnels ou ouverts à des intervenants extérieurs à l’organisation (site Internet
par exemple). Tous ces différents types de systèmes ont une dimension organisationnelle qui
peut être analysée, de manière classique, selon une double perspective : – celle du
fonctionnement, c’est-à-dire du déroulement des processus de travail, à l’intérieur et aux
frontières de l’organisation ;
– celle de la structure qui concerne les caractéristiques relativement stables de toute
organisation. Dans cette double perspective, le système d’information apparaît à la fois
comme un élément déterminant du fonctionnement de l’organisation et comme un important
élément constitutif de sa structure
4. Le système d’information, élément déterminant du fonctionnement de
l’organisation
–
L’organisation est la base de l’action collective. Dès qu’une activité dépasse la capacité d’un
seul individu, l’organisation constitue la réponse appropriée. Elle se caractérise donc par : –
un ensemble d’individus : participants, acteurs ; – un accord, implicite ou explicite, sur un
ou plusieurs objectifs partagés par les différents participants ; – une division du travail,
définissant le rôle de chaque participant ; – une coordination, plus ou moins formalisée, qui
assure la cohérence des comportements et donc le respect des objectifs communs en dépit de
la division du travail. Pour mieux comprendre l’articulation entre le rôle du SI et le
fonctionnement de l’organisation, nous procéderons en deux étapes : – tout d’abord, à partir
d’une vision de l’organisation limitée à ses seuls aspects fonctionnels, nous mettrons en
évidence le rôle d’information du système ; – ensuite, à partir d’une description plus
complète du système de travail, nous mettrons en évidence le rôle structurant et intégrateur
du SI.
–
41 1 L’information des processus fonctionnels
–
–
–
Cette vision quelque peu abstraite de l’organisation consiste à la décrire comme un
ensemble de PROCESSUS, de manière indépendante de la répartition des tâches entre
acteurs, des moyens utilisés et de l’implantation spatiale des activités. Cette vision
simplifiée permet de mieux appréhender à quels besoins fondamentaux doit répondre tout
système d’information dans l’organisation. Ces besoins fondamentaux sont : d’une part ceux
découlant du déroulement de chaque processus fonctionnel (besoins spécifiques internes),
d’autre part, ceux découlant des besoins de communication entre processus. 1. L’information
dans le processus Un processus correspond à un ensemble d’activités ou opérations,
fonctionnellement liées par la production d’un résultat identifiable. C’est une unité
conceptuelle de représentation, dont les limites sont fixées arbitrairement par l’analyste (en
fonction de ses impératifs propres), qui a pour objectif principal de décrire la dynamique
(l’enchaînement dans le temps) et le contenu des activités de l’organisation, de manière
indépendante des moyens susceptibles d’être utilisés. Tout processus peut être décrit à l’aide
de trois concepts élémentaires : événement, opération, résultat. – L’événement est un fait,
jugé significatif, dont l’apparition va déclencher une réponse de l’organisation sous forme
de déroulement d’activités, de tâches, d’opérations. Cet événement peut être d’origine
externe (l’arrivée d’un client ou la livraison d’un fournisseur) ou interne (une panne de
machine ou la fin de la réparation du véhicule) ou lié au déroulement du temps (fin de la
journée de travail. . .). L’événement doit être considéré comme significatif par ceux qui
analysent le fonctionnement de l’organisation, c’est-à-dire qu’il est lié au déclenchement
d’une opération que l’on souhaite décrire.
– L’opération (activité) est une action, ou un ensemble d’actions, déclenchée par un ou
plusieurs événements. Cette opération décrit des transformations de flux informationnels
et/ou physiques et produit au moins un résultat observable.
Le contrôle des marchandises livrées par le fournisseur est un exemple d’opération
(déclenchée par l’événement livraison) ; elle aboutit à vérifier et peut-être à rectifier les
quantités livrées pour chaque produit annoncé. Cette opération a une certaine durée. – Le
résultat est ce qui est produit par le déroulement normal de l’opération. L’opération de
contrôle des livraisons produit comme résultat des livraisons contrôlées, c’est-à-dire des
produits prêts à être rangés en stock. L’opération de facturation produit un résultat
directement observable : la facture. Une opération peut produire plusieurs résultats
simultanément (par exemple, un visiteur commercial effectuant l’opération visite d’un client
peut produire une commande et un rapport de visite. . .).
Exemple Dans le cas des Grands Garages du Sud, l’arrivée d’un client avec son véhicule à
réparer constitue un exemple d’événement ; cet événement va déclencher une opération
d’accueil qui comprend différentes actions : identification du client et du véhicule, examen
et diagnostic du véhicule.. . Cette opération transforme la demande du client
(éventuellement peu précise) en une décision de réparation clairement spécifiée. Elle va
produire un résultat identifiable : un ordre de réparation. Cet ensemble événementopération-résultat peut être considéré comme un processus fonctionnel : l’accueil client (ou,
exprimé de manière plus active par un verbe : accueillir client). Si l’on considère les besoins
en information engendrés par le déroulement du processus, on peut remarquer : – qu’il faut
d’abord saisir l’événement pour qu’il puisse être repéré dans l’organisation : on enregistre
des faits (quel client ? pour quel véhicule ? quel problème rencontré ?) ; cette saisie
correspond à un message d’entrée qui concrétise l’événement et lui confère une existence
repérable pour l’organisation ; – qu’il faut, ensuite, effectuer les différentes actions
demandées : quelle réparation ? à quel tarif ? quelles pièces changer ?. . . Cela exige de
disposer d’informations détaillant les opérations de réparation à effectuer (nature, durée,
coût), d’informations sur la disponibilité des pièces détachées à fournir au cours d’un
dialogue entre le chef d’atelier et le client ; – qu’il faut matérialiser le résultat du processus
par un message ; dans cet exemple, l’ordre de réparation concrétise un accord entre le client
et le chef d’atelier pour effectuer une certaine intervention sur le véhicule ; il permet de
–
–
–
–
–
–
–
mémoriser ce résultat. Ce rapide examen d’un exemple simple de processus aboutit à deux
conclusions importantes : 1 – le déroulement du processus consomme de l’information :
pour identifier l’événement, pour permettre le déroulement de l’opération, pour mémoriser
le résultat ; 2 – le déroulement du processus produit de l’information : en cours de
processus, l’examen du véhicule et le dialogue avec le client ont abouti à un diagnostic qui
justifie l’intervention ; la décision de réparer, avec la spécification des réparations à
effectuer, se traduit par l’apparition de nouvelles informations incorporées dans l’ordre de
réparation. La conséquence immédiate de cette dernière remarque est de montrer l’existence
de liens entre les différents processus représentatifs du fonctionnement de l’organisation. La
production d’un résultat par un processus peut constituer un événement pour déclencher un
autre processus ; un résultat est, éventuellement, aussi un événement. Exemple Le résultat
du processus « accueillir client » est un ordre de réparation : l’arrivée de cet ordre de
réparation constitue un événement déclenchant pour un autre processus que l’on peut
appeler « réparer véhicule ».
Cela nous conduit directement à examiner les besoins en information découlant de la
nécessaire communication entre processus fonctionnels.
L’information entre processus
Un processus, dont les frontières sont librement fixées par celui qui analyse le
fonctionnement de l’organisation, décrit un domaine d’activité ; l’organisation dans son
ensemble sera donc représentée par un ensemble de processus interdépendants. Ces
processus sont de différentes natures : – processus opérationnels correspondant aux activités
directement liées à la mission de l’organisation (par exemple, pour le garage, réparer les
véhicules, vendre des véhicules neufs, vendre des pièces détachées.. .) ;
– processus managériaux de nature identique dans différentes organisations correspondant
aux activités de gestion des processus opérationnels et des ressources qui y sont liées (par
exemple, embaucher, contrôler les coûts, planifier les investissements.. .). Ces processus
sont interdépendants: leurs déroulements sont liés par des contraintes d’ordre (par exemple,
« réparer véhicule » ne peut se dérouler qu’après « accueillir client » et facturer ne peut se
dérouler qu’après « réparer véhicule ») pour des processus séquentiels ; certains processus
peuvent se dérouler de manière parallèle mais synchronisée (par exemple, pour un
transporteur aérien, le processus « embarquer les passagers » et le processus « préparer
l’avion » doivent être synchronisés) ; de manière plus générale, les processus doivent
échanger de l’information. Ils peuvent partager des données communes (produites par l’un
et utilisées par un ou plusieurs autres). Ils doivent être coordonnés pour que les objectifs de
l’organisation soient atteints : cette coordination induit des besoins de partage de
représentations, donc de communication, que doit assurer le système d’information. Selon
cette approche, dans une vision purement fonctionnelle, l’organisation est vue comme un
ensemble de processus coordonnés qui doivent se dérouler pour que les objectifs soient
atteints. On peut visualiser cette interdépendance des processus par une matrice :
l’architecture d’information, présentant en ligne les différents processus et, en colonne, les
classes de données, c’est-à-dire les ensembles de données produits par chaque processus.
Dans ce tableau, la lettre C indique que le processus crée la classe de données, la lettre U
indique que le processus utilise la classe de données (une classe de données peut être utilisée
par différents processus). La figure 13 fournit un extrait de l’architecture d’information
correspondant aux Grands Garages du Sud. Cette représentation montre bien
l’interdépendance des processus de gestion qui doivent échanger des informations pour que
l’organisation fonctionne de manière cohérente. Cet impératif de cohérence justifie le
recours au système d’information pour assurer cette fonction de partage de représentations et
de communication indispensable.
La structuration et l’intégration des systèmes de travail
–
–
–
–
–
–
–
–
Si l’on souhaite mieux comprendre les mécanismes du fonctionnement de l’organisation, il
est nécessaire de compléter l’analyse en termes de processus par une étude des conditions
concrètes de réalisation des activités au sein de l’organisation donc, en particulier, de la
mobilisation des ressources au sein d’un système de travail.
Après avoir décrit en quoi consiste un système de travail, nous préciserons la nature des
relations entre système d’information et système de travail en faisant émerger les différents
rôles du système d’information.
1. L’exécution des processus : système de travail La notion de processus traduit un aspect
purement fonctionnel : « Quoi faire ? », « Quelles activités exécuter ? ». Cela permet de
caractériser certains apports du système d’information : la fourniture de représentations.
Mais l’exécution du processus nécessite le recours à des ressources, mobilisées dans un
certain contexte, c’est-à-dire à un système de travail combinant les différents éléments
nécessaires ; ces différents éléments sont :
– un (ou plusieurs) acteur(s) : participant doté d’une certaine autonomie dans l’action. Cet
acteur, capable d’interpréter des représentations, est chargé d’un rôle organisationnel (le rôle
correspond à l’ensemble des opérations, des activités qui lui sont attribuées pour exécution
par l’organisation). Il dispose de connaissances relatives à ce rôle : connaissances générales
(correspondant à ses compétences) et connaissances spécifiques. Ces dernières sont traduites
dans un mode opératoire, c’est-àdire dans des procédures indiquant, de manière plus ou
moins stricte, les règles à appliquer, les contraintes à respecter pour l’exécution des
différentes opérations qui lui sont confiées. Ce mode opératoire, qui prescrit une manière de
travailler, peut être exprimé sous forme orale, sous forme de consignes écrites ou incorporé
dans un logiciel.
Exemple Dans le cas des Garages du Sud, l’organisation confie au chef d’atelier le rôle
d’accueillir le client, de diagnostiquer les réparations et affecter le véhicule à réparer à un
mécanicien. Le mode opératoire lui impose certaines obligations : demander la carte grise
pour identifier le véhicule et son propriétaire, demander les coordonnées du client, procéder
lui-même à l’inspection du véhicule, établir, en accord avec le client, l’ordre de réparation
conformément à un modèle imposé.
On notera que certains systèmes de travail exigent la collaboration de plusieurs acteurs ;
dans ce cas, le mode opératoire peut préciser, de manière détaillée, le rôle de chacun ou, au
contraire, laisser au groupe le soin de régler le problème de la répartition des tâches ; – des
ressources technologiques : pour l’exécution des opérations demandées, l’organisation met à
la disposition des acteurs des ressources variées : outils, technologies de traitement de
l’information, données. . . utilisables dans un certain contexte (spatial et temporel). Ces
ressources peuvent être mobilisées conformément au mode opératoire ; elles sont propres à
l’acteur ou partagées avec d’autres acteurs.
Exemple Toujours dans le même exemple, le chef d’atelier dispose, à son poste de travail,
d’un logiciel qui lui permet de saisir les données véhicule, les données client, de chiffrer le
coût prévisionnel des réparations, d’imprimer l’ordre de réparation. . . Les mécaniciens
partagent l’usage de différents postes de travail dotés d’équipements variés (ponts, appareils
de diagnostic, air comprimé.. .).
On notera : 1 – que les modes opératoires sont plus ou moins stricts et que les acteurs ont
des possibilités plus ou moins largement ouvertes d’interpréter, voire d’utiliser les
représentations qui leur sont fournies ; c’est l’utilisateur-acteur qui détermine l’intérêt des
représentations qui sont à sa disposition ; 2 – que la définition plus ou moins stricte des rôles
et des modes opératoires peut laisser la place pour une certaine flexibilité interprétative de la
technologie de l’information utilisable.
Exemple Dans le cas du chef d’atelier, la procédure d’établissement de l’ordre de réparation
est définie de manière stricte ; en revanche, la pratique de l’examen du véhicule comme la
décision d’affectation du véhicule à un mécanicien déterminé sont laissées, sans consignes
–
–
–
–
–
–
–
–
–
–
–
–
–
–
particulières, à son initiative.
Par conséquent, on peut donc observer des écarts entre ce qui est prescrit par le rôle officiel
et les modes opératoires affichés d’une part et ce qui est effectivement pratiqué d’autre part.
L’acteur s’adapte, en fonction de ses objectifs propres et des contraintes qu’il supporte, en
modifiant éventuellement le mode opératoire et l’usage correspondant du système
d’information.
2. Les différents rôles du système d’information
L’articulation entre système de travail et système d’information peut correspondre à
différentes modalités : 1 – Le système d’information est une source externe d’informations
pour le système de travail à qui il fournit des représentations.
Exemple Le système d’information comptable envoie au service commercial une liste de
clients à relancer.
2 – Le système d’information est un outil interactif, mobilisable à la demande des acteurs
pour leur système de travail : l’acteur gère à son gré la production des représentations.
Exemple Le représentant dispose d’un accès, à partir de son ordinateur portable, à une base
de données de clients et de prospects de son secteur ; la consultation de cette base a un
caractère strictement facultatif.
3 – Le système d’information est intégré dans le système de travail : son utilisation est
obligatoire.
Exemple Le chef d’atelier des Grands Garages du Sud doit, impérativement, utiliser le
logiciel Intégrauto pour établir l’ordre de réparation : ce logiciel est le support obligatoire du
dialogue avec le client.
4 – Le système d’information ne peut pas être distingué du système de travail : il en
constitue l’essence même.
Exemple Pour la facturation de la réparation au client, le module correspondant du logiciel
Intégrauto exécute la totalité du travail sans intervention d’un acteur et sans mobilisation
d’autres ressources. L’examen de ces différents types de relations entre système de travail et
système d’information permet de mettre en évidence les différents rôles du système
d’information : 1 – Dans tous les cas, le système d’information fournit des représentations
aux acteurs : il informe le processus de travail.
2 – Dans le cas no 3, intégré dans le système de travail, le système d’information structure le
processus de travail : il impose un mode opératoire à l’acteur et assure le respect d’une
certaine formalisation (le logiciel impose, en pratique, de poser certaines questions au client
dans un certain ordre ; le dialogue est directement structuré par l’enchaînement des
questions tel que prévu par le logiciel). Dans le cas où plusieurs acteurs interviennent dans le
processus, le système d’information va coordonner l’action de ces différents acteurs : par
exemple, le chef d’atelier affecte la réparation à effectuer à un mécanicien en mettant à jour
un planning des réparations ; ce planning, consulté puis mis à jour par chaque mécanicien,
au début et à la fin de la réparation, assure la coordination entre le chef d’atelier et les
différents mécaniciens. 3 – Dans le cas no 4, le système d’information automatise le
processus de travail : il limite le rôle de l’acteur au déclenchement des opérations. Dans la
réalité, les différentes fonctions du système d’information sont imbriquées et il n’est pas
toujours facile de les distinguer.
Conclusion
Le système d’information a un impact sur le fonctionnement de l’organisation par la
fourniture, dans des conditions déterminées, des représentations nécessaires aux différents
acteurs du processus de travail. Mais, au-delà de ce rôle général d’information, très souvent,
les formes évoluées de l’usage des technologies de l’information confèrent au système
d’information des rôles de structuration, d’intégration, de coordination et d’automatisation
susceptibles de modifier fortement les conditions de fonctionnement de l’organisation.
L’existence de ces rôles justifie dans une certaine mesure le recours aux technologies de
l’information comme instrument du changement organisationnel selon une perspective
ingénierique (figure 14). Selon cette perspective, les choix organisationnels concernant
différents paramètres (processus, coordination, contrôle. . .) peuvent être satisfaits par des
choix technologiques relatifs aux technologies de l’information et à la conception des
systèmes d’information ; les technologies de l’information (TI) sont un instrument
maîtrisable au service d’un changement planifié de l’organisation. Cette approche, utilisée
en particulier dans la réingénierie de processus, est cependant contestée ; les éléments de la
discussion seront exposés ci-après dans le paragraphe consacré aux relations entre système
d’information et structure de l’organisation.
–
–
–
–
–
–
–
–
42 Le système d’information, élément constitutif
de la structure de l’organisation
L’analyse du fonctionnement de l’organisation a montré l’existence de liens étroits entre
système de travail et système d’information. Ces relations étroites entre technologies de
l’information et organisation se confirment dans une analyse structurelle qui met en
évidence les propriétés relativement stables de toute organisation. Le système d’information
apparaît comme un élément constitutif important de la structure organisationnelle pour deux
raisons complémentaires : – tout d’abord parce que la construction de tout système
d’information implique des choix déterminants quant à la conception de l’organisation ; –
ensuite parce que la dynamique de l’évolution de l’organisation n’est indépendante ni des
propriétés initiales des systèmes d’information qu’elle abrite, ni des conditions de leur
utilisation.
412 Construction du système d’information et conception de l’organisation
La résolution des problèmes liés à la construction d’un système d’information appelle de
nombreuses décisions ayant un impact direct sur les propriétés structurelles de
l’organisation. L’analyse des difficultés rencontrées montre bien l’interdépendance des choix
techniques et des choix organisationnels.
1. Les choix liés à la construction du système d’information Le processus de construction
délibérée déjà évoqué dans le paragraphe 3.2.1 ci-avant (et repris en détail dans le chapitre 7
du présent ouvrage) implique plusieurs choix importants : – choix relatifs au partage de
l’information entre les acteurs : construire le système d’information démarre par une
définition des besoins à satisfaire ; quelles représentations doit fournir le système à
construire ? Pour qui ? Déterminer quelles représentations seront accessibles à chaque acteur
aboutit à définir une structure d’information de l’organisation, c’est-à-dire les règles de
partage de l’information en réponse à la question : « Qui doit savoir quoi ? » Bien entendu,
cette répartition n’est pas indépendante d’une autre série de décisions concernant les rôles
que chaque acteur doit remplir et les pouvoirs de décision qui lui sont conférés : structure
d’information (qui doit savoir quoi ?) et structure de décision (qui doit décider de quoi ?)
sont, pour des raisons évidentes de pertinence, étroitement liées. La construction du système
d’information suppose donc que l’on résolve, explicitement ou implicitement, le problème
de la répartition du pouvoir dans l’organisation, donc celui des relations de domination entre
les différents participants ; – choix relatifs au degré d’intégration du système d’information :
décider de quelles représentations un acteur a besoin, c’est faire des hypothèses sur le rôle
qu’il doit remplir dans le processus de travail. Selon les solutions que l’on envisage pour le
système d’information (séparé ou intégré dans le système de travail), la nature de la
définition du rôle sera plus ou moins affectée. Comme nous l’avons montré, le choix d’un
–
–
–
–
système d’information séparé du système de travail laisse la plus grande latitude à l’acteur
dans la conduite du processus ; à l’inverse, le choix d’un système d’information intégré au
système de travail a pour conséquence une forte structuration du processus de travail par
l’instauration de normes d’exécution incorporées dans le logiciel. Le degré de formalisation
du rôle comme le degré d’autonomie de l’acteur sont donc dépendants de la nature du
système d’information retenu ; le cas extrême est celui de la formalisation complète du
processus sous forme d’un algorithme aboutissant à l’automatisation du rôle. Les choix
techniques se révèlent en définitive être également des choix de degré de formalisation, de
niveau de standardisation des processus ; – choix relatifs aux technologies de
communication : la très grande majorité des systèmes d’information est constituée de
systèmes collectifs où plusieurs acteurs vont communiquer pour coordonner leurs actions.
La très grande variété des outils de communication utilisables (téléphone, imprimé,
messagerie électronique, vidéoconférence. . .) impose des choix techniques qui ont des
conséquences immédiates sur les procédés de coordination effectivement utilisables
(ajustement mutuel, standardisation. . .). De la même manière, la communication effective
entre les participants (comme nous le montrerons dans le chapitre 4) est dépendante de
l’existence de représentations partagées, c’est-à-dire de représentations auxquelles les
différents utilisateurs attachent la même signification (le même sens). Par conséquent, à la
fois par la définition du contenu des représentations et par le choix des médias à utiliser, la
conception du système d’information exerce une influence déterminante sur les pratiques de
coordination à l’intérieur de l’organisation. Conclusion : même sans prétendre traiter la
totalité du sujet, les exemples rappelés ci-avant montrent bien que les choix relatifs à la
construction des systèmes d’information sont, au-delà de leur aspect technique immédiat, de
véritables choix organisationnels, affectant directement les caractéristiques majeures de la
structure : division du travail (degré de spécialisation), répartition du pouvoir (centralisationdécentralisation), standardisation et formalisation (procédés de définition des règles et des
normes), procédés de coordination. . .
2. Les difficultés pratiques et leurs conséquences L’analyse ci-avant a montré
l’interdépendance profonde existant entre des choix, en apparence techniques, liés à la
construction du système d’information et des choix organisationnels déterminant des
caractéristiques importantes de l’organisation. Cette interdépendance se traduit par une
exigence de cohérence organisationnelle qui s’ajoute à la contrainte de pertinence déjà
évoquée. Mais cette exigence de cohérence se révèle, dans la pratique, fort difficile à
satisfaire pour différentes raisons : – le système d’information à construire est souvent
spécifié de manière locale, pour répondre à des besoins définis, de manière limitée, pour un
certain domaine alors que la recherche de réponses cohérentes exigerait un périmètre de
définition plus étendu ; Exemple
Dans une entreprise, on veut construire un système d’information pour tenter de résoudre
certains problèmes de contrôle de stocks au magasin de pièces détachées. La solution de
certaines questions liées aux procédures d’approvisionnement nécessiterait une réflexion
plus approfondie sur la définition du rôle des acheteurs et la mise en place de nouveaux
types de relations avec les fournisseurs. Ces questions n’ont pas été incluses dans le
périmètre de construction envisagé pour le niveau système d’information, limité au magasin.
les exigences de la construction en matière de délais comme la limitation des ressources
affectées au projet de construction (en particulier les compétences disponibles dans le
groupe de projet) font que l’on essaie de limiter l’ampleur et la complexité des changements
à effectuer. Exemple
Dans le cas cité ci-dessus, le groupe de projet ne comprend que des spécialistes des
technologies de l’information et un responsable du magasin. Ce dernier, même s’il est en
partie conscient des problèmes liés à la définition du rôle des acheteurs et des relations
fournisseurs, préfère résoudre les questions urgentes à son niveau et ne pas retarder la
solution en élargissant la réflexion au-delà de son domaine de responsabilité. Les
–
–
–
–
–
–
conséquences de cette non-cohérence sont importantes, comme l’illustre le cas classique de
l’articulation structure d’information-structure de décision développé ci-dessous. La
structure de décision décrit, à un instant donné, la façon dont le pouvoir de décision est
réparti dans l’organisation. À cette structure de décision correspond une structure
d’information décrivant le partage de l’information. En application du principe de
pertinence, il serait légitime d’affirmer que le partage de l’information est imposé par le
partage préalable des activités de décision. En pratique, cette cohérence entre les deux
structures est rarement parfaite pour des raisons variées : – complexité très grande du
problème tenant à la multiplicité des centres de décision et des événements à prendre en
considération ; – incertitude sur le contenu des modèles de gestion utilisables, donc sur la
pertinence des fonctions d’information ;
– évolutivité des besoins conduisant à remettre en cause à la fois les modèles de gestion et le
partage des « espaces de décision ». Dans ces conditions, il est assez fréquent de constater
des divergences entre la structure de décision et la structure d’information. Les symptômes
les plus classiques sont des plaintes relatives à l’« absence de communication » et les
conséquences les plus immédiates sont : – des décisions inappropriées : on « décide mal »
(par exemple, émission d’une commande par le magasin pour un composant que le bureau
des études techniques a décidé de ne plus utiliser) ; – des absences de décision : on « ne
décide pas » (le décideur ne reçoit pas l’information déclenchant son processus de décision).
Cette pathologie chronique de l’organisation se corrige : . soit de manière réfléchie : une
analyse des conditions d’information et de décision conduit à réétudier les procédures et à
partager, de manière éventuellement différente, décision et information ou à introduire de
nouveaux mécanismes de coordination ; . soit de manière spontanée par des processus
d’ajustement laissés à l’initiative des acteurs et découlant de leur stratégie personnelle.
Ainsi, assez souvent, le pouvoir de décision effectif se déplace de son « titulaire officiel »
vers l’individu détenteur d’informations importantes. (Ainsi entend-on fréquemment des
phrases du type : « Pour cette affaire, M. X. est normalement compétent mais allez donc voir
M. Y., il est très au courant du problème. ») Dans cette hypothèse, la structure de décision
s’adapte à la structure d’information ; les acteurs peuvent développer des stratégies de
rétention d’information pour acquérir ainsi un pouvoir de décision qui ne leur était pas
formellement reconnu à l’origine. Dans d’autres cas, le détenteur du pouvoir formel
déclenche un processus de recherche d’informations et met en place des procédures plus ou
moins formalisées pour obtenir un niveau de pertinence acceptable pour les représentations
qu’il souhaite utiliser.
Ces observations révèlent les difficultés que l’on rencontre pour assurer à la fois la
pertinence au niveau de chaque acteur et la cohérence au niveau collectif. Elles montrent
qu’il est sans doute illusoire de vouloir rechercher des solutions définitives de cohérence
dans des domaines en évolution continue. Cela nous conduit directement à élargir la
discussion des aspects statiques de la construction du système d’information aux aspects
dynamiques de l’évolution de l’organisation en liaison avec l’utilisation des différentes
technologies de l’information implantées en son sein.
42 2 Usage du système d’information et évolution de l’organisation
Une fois conçus puis implantés, les systèmes d’information sont utilisés ; cette utilisation,
comme nous l’avons montré ci-avant, se traduit par un phénomène d’appropriation par les
utilisateurs. À court terme, les caractéristiques de la structure organisationnelles sont
considérées comme stables ; mais, en fait, les structures organisationnelles évoluent en
permanence et, en longue période, on ne peut plus considérer qu’elles constituent un cadre
immuable pour le fonctionnement quotidien. On doit donc s’interroger sur les effets de long
terme de l’introduction de nouvelles technologies de l’information dans l’organisation
aboutissant à l’usage de nouveaux systèmes d’information, donc sur la dynamique du
changement organisationnel qui lui est associée. La perspective ingénierique que nous avons
évoquée précédemment considère que les technologies de l’information sont un instrument
parfaitement maîtrisable au service d’objectifs de changement planifié mais l’observation
des entreprises suggère que cette vision (optimiste) ne traduit pas la complexité du
phénomène : la non-réalisation de certains objectifs comme l’apparition d’effets non voulus
révèlent les imperfections de la théorie. Pour essayer de mieux expliquer la dynamique du
changement organisationnel liée à l’introduction des technologies de l’information, deux
autres visions ont été proposées : – celle du déterminisme technologique conférant à la
technologie un rôle moteur, une capacité structurante ; – celle, plus récente, définie en
termes d’interaction, qui adopte une position de déterminisme aménagé en reconnaissant à la
fois les capacités structurantes des technologies et le rôle du contexte social dans un
processus de coévolution.
–
–
1. La vision du déterminisme technologique Cette vision a été adoptée, à l’origine, par
certains théoriciens des organisations, partisans d’une théorie contingente des organisations.
Dans cette perspective, on essaie de mettre en évidence des facteurs généraux susceptibles
d’expliquer la nature et l’étendue des changements observés dans les organisations. La
technologie utilisée constitue un de ces facteurs généraux : c’est une variable motrice
expliquant les changements observés dans l’organisation. L’application de cette théorie au
cas particulier des technologies de l’information a fait l’objet de nombreux travaux
empiriques : par exemple, on a tenté de vérifier que l’introduction des technologies de
l’information dans les organisations conduisait à la réduction du nombre de niveaux
hiérarchiques et à l’aplatissement de la structure ; que l’usage accru des technologies de
l’information augmentait le degré de centralisation ou, à l’inverse, le degré de
décentralisation ; que l’usage des technologies de l’information accroissait le degré de
formalisation et de standardisation des processus, qu’il conduisait à une diminution de la
taille des organisations ou qu’il engendrait l’apparition de formes de coopération en réseaux
d’entreprises 1. . . Malgré la très grande diversité des travaux publiés, la perspective du
déterminisme technologique n’a produit que peu de résultats incontestés et encore moins de
modèles explicatifs pertinents. Cependant, elle a eu le mérite de montrer que la perspective
ingénierique ne pouvait être adoptée sans précaution et qu’il existait un risque certain
d’effets non voulus lors du recours à un usage accru des technologies de l’information.
Même si peu de résultats concluants peuvent être évoqués, on s’accorde aujourd’hui sur
l’existence de transformations organisationnelles impulsées par l’usage des technologies de
l’information (les résultats les plus nets sont ceux concernant les degrés de formalisation et
de standardisation) ; les technologies de l’information ne sont pas structurellement neutres et
peuvent exercer des effets sur certaines caractéristiques de l’organisation. Mais ces effets ne
sont pas aussi systématiques que le prétend la théorie du déterminisme technologique. Cette
remarque conduit à retenir une vision plus élaborée du changement organisationnel en
relation avec l’usage des systèmes d’information : la perspective interactionniste. 2. La
vision interactionniste Cette vision interactionniste d’un processus d’évolution
organisationnelle s’appuie sur la théorie de la structuration d’A. Giddens. Dans cette
perspective, le modèle situe les acteurs au centre d’un modèle dynamique d’évolution (voir
figure 16) ; la théorie reconnaît à la fois la liberté des acteurs et l’influence de la structure
sociale. De manière plus précise, elle suppose l’existence d’une relation récursive entre les
actions des acteurs et la structure : les actions des acteurs sont permises par la structure
sociale ; cette structure sociale est actualisée et éventuellement modifiée par les actions
récurrentes des acteurs. La structure affirme sa dualité : elle contraint et facilite l’action des
acteurs ; elle est également le résultat de ces actions. Pour Giddens, la structure sociale n’a
qu’une existence virtuelle : elle est évoquée et actualisée lors des interactions entre acteurs.
Toute action peut être analysée selon trois dimensions, en pratique imbriquées : sa
signification (elle est porteuse de sens), le pouvoir qu’elle représente (structure de
domination), sa légitimité (respect des normes, des règles morales). Ce sont ces trois
dimensions qui, pour Giddens, caractérisent les propriétés structurelles de l’organisation.
Selon ce modèle, l’introduction de la technologie peut influer sur la constitution de sens
(dimension 1), sur l’allocation de ressources, donc la distribution du pouvoir (dimension 2)
et sur les normes 1. Pour les travaux empiriques portant sur des entreprises françaises, cf. M.
Kalika, Structures d’entreprises, Economica, 1988. de fonctionnement (dimension 3). Cette
évolution se réalise par l’intermédiaire du processus d’appropriation (évoqué plus haut) :
l’usage des nouveaux systèmes d’information modifie les pratiques quotidiennes (les
routines), il entraîne le renforcement de certaines, la disparition d’autres désormais
inutilisées, l’apparition de formes nouvelles d’action : il fait émerger des règles (conventions
d’utilisation, modes opératoires) et des ressources (fonctionnalités) qui, à leur tour,
structureront les futures interactions.
–
–
–
–
–
–
–
Le modèle de base, résumé par la figure 16, fait apparaître quatre types de relations,
intégrées dans une dynamique récursive :
– relation 1 : les technologies de l’information facilitent et contraignent l’action des
individus (le système d’information offre des ressources mais impose des règles et des
modes opératoires) ; – relation 2 : les actions des acteurs construisent la technologie (les
problèmes de la construction, délibérée et émergente, ont été présentés ci-dessus) ; – relation
3 : les structures sociales, les propriétés institutionnelles affectent les utilisateurs dans leur
interaction avec les technologies de l’information (rôle des dirigeants, politiques relatives à
la diffusion de la technologie.. .) ;
– relation 4 : les interactions entre acteurs et entre acteurs et technologies reproduisent ou
transforment les structures sociales (la modification des routines, l’apparition ou la
disparition de certaines d’entre elles font évoluer les structures de signification, de
domination et de légitimation). Ce modèle de base reconnaît donc une certaine influence des
technologies de l’information (on évoque le terme de déterminisme aménagé) sur les
caractéristiques structurelles mais le caractère non automatique de ces effets (en raison des
incertitudes sur le comportement des acteurs) ; il ne nie pas la possibilité d’une action sur les
processus d’appropriation (puisqu’il reconnaît l’influence des structures sociales sur l’action
des acteurs) tout en montrant le caractère partiellement aléatoire de ces interventions. Il
dépasse, en les intégrant, les visions du modèle ingénierique et celles du modèle du
déterminisme technologique.
4 3 Conclusion
La diffusion rapide des technologies de l’information via le développement de systèmes
d’information constitue un fait majeur de la vie des entreprises. Ces technologies (de calcul,
de mémorisation, de communication.. .) sont avant tout des technologies d’organisation qui
affectent les conditions du déroulement des processus et les paramètres structurels. Cette
influence va au-delà des frontières strictes (juridiques) de l’organisation : l’existence de
systèmes d’information interorganisationnels entre entreprises partenaires, ou de systèmes
ouverts sur l’extérieur (sites Internet par exemple) modifie également les conditions des
relations entre l’entreprise et son environnement et remet en cause la notion même de
frontières de l’organisation. Sur les différents points que nous avons évoqués dans ce
paragraphe, il paraît pertinent de dépasser les frontières juridiques de l’organisation et de
considérer comme domaine d’étude l’entreprise étendue à son réseau de partenaires
habituels (clients, fournisseurs, sous-traitants ou cotraitants. . .). On retrouve, dans ce cadre
élargi, des problématiques sensiblement identiques à celles qui ont été évoquées ici. Pour
résumer La notion de système d’information dans sa triple dimension, informationnelle,
technologique et organisationnelle, révèle sa complexité. Pour bien comprendre les
problèmes rencontrés par les entreprises dans ce domaine, il est indispensable de prendre en
compte simultanément ces trois aspects qui n’ont été présentés de manière séparée que pour
des raisons pédagogiques. Les problèmes rencontrés par les entreprises sont de deux ordres :
– Il est nécessaire de bien appréhender à quels usages peuvent être destinés les systèmes
d’information à construire ; cette problématique, qui considère le système d’information
comme un INSTRUMENT DE GESTION pour la conduite de l’organisation, sera l’objet de
la première partie de l’ouvrage (chapitres 2 à 5) ; y seront présentés les principaux types
d’utilisation des systèmes d’information de gestion. – Le système d’information est une
construction durable insérée dans l’organisation. Il constitue donc une entité qu’il faut gérer
à différents niveaux et sur différents horizons temporels. En ce sens, c’est un OBJET À
GÉRER qui doit être finalisé, organisé, animé et contrôlé. Ces différentes problématiques de
la gestion des systèmes d’information seront l’objet de la seconde partie de l’ouvrage
(chapitres 6 à 8).
–
Première partie :
Les usages des systèmes d’information
Le principe du programme enregistré apporte aux technologies électroniques de traitement
de l’information une très grande flexibilité potentielle d’utilisation. La réalité des systèmes
d’information est, par conséquent, aujourd’hui fort diverse. Les quelques exemples
présentés ci-après ne constituent qu’un échantillon, fort restreint, de la variété considérable
des réalisations. 1. Tous les cadres de l’entreprise Lambda disposent d’un micro-ordinateur
équipé du logiciel MSOffice (traitement de texte, tableur, gestionnaire de données) et d’un
logiciel de messagerie électronique ; ils peuvent ainsi créer des documents, manipuler des
tableaux, effectuer des calculs, exploiter des fichiers et communiquer avec leurs
correspondants par courrier électronique. Ils disposent également d’un accès à Internet et
d’un accès à l’Intranet de l’entreprise pour des besoins de communication interne. 2. La
société Air Alpha vient de mettre en place un système de vidéoconférence entre ses
établissements répartis dans le monde entier. Ce système est utilisé pour les réunions et la
formation à distance. Depuis plusieurs années, Air Alpha impose à ses fournisseurs et à ses
sous-traitants l’utilisation de l’EDI (échange de données informatisées) pour toutes les
transactions (commande, livraison. . .). 3. La société de grande distribution Carchan a
installé dans tous ses points de vente des terminaux spécialisés à la place de ses caisses
enregistreuses traditionnelles : un lecteur de codes-barres permet de reconnaître les produits
achetés ; grâce à la consultation de la base de données « produits », le prix effectif est
reconnu, la facture est calculée, les stocks sont mis à jour ; le paiement est également
enregistré. À chaque instant, il est possible de connaître les recettes réalisées, les ventes par
catégories de produits, l’état des stocks de chaque produit. . . 4. Dans la société Carchan
(voir ci-dessus), tous les soirs, les responsables de produits reçoivent sur leur poste de travail
un tableau montrant le chiffre d’affaires réalisé par produit dans la journée et le
rapprochement de ces réalisations avec les objectifs de vente. 5. Le directeur de l’entreprise
de bâtiment et travaux publics Satep dispose d’un système d’information lui permettant de
suivre, à la demande, l’état et les conditions d’avancement des principaux chantiers ; il peut,
à l’aide de quelques requêtes simples, visualiser le planning et les écarts de délais, le budget
et les écarts de coûts. . ., et obtenir, par questions successives, plus d’informations détaillées
sur le déroulement effectif de chaque chantier. 6. Dans la société Technix (fabrication
d’automates industriels), le directeur de l’usine dispose d’un logiciel de simulation de
charge qui lui permet d’évaluer à l’avance les conséquences du lancement en fabrication
d’une commande (délais, goulets d’étranglement dans les ateliers, insuffisances ou excès de
capacité. . .). Il utilise régulièrement ce logiciel pour décider des délais de livraison à
garantir aux clients, pour passer des ordres aux sous-traitants. . . 7. Le cabinet d’architecture
Artec utilise des micro-ordinateurs, des tables traçantes et un logiciel de conception assistée
par ordinateur pour établir les plans demandés par les clients. 8. À la banque Crédit
moderne, on dispose d’un logiciel spécialisé pour l’instruction des dossiers de demandes de
crédit présentées par les entreprises. Ce dossier, préparé sous forme électronique par le
chargé d’affaires, peut être consulté par le directeur d’agence, le directeur de groupe, la
direction des risques. . . ; chaque intervenant peut compléter le dossier et il est possible de
connaître, à tout moment, le degré d’avancement de l’affaire. Cette banque vient également
d’équiper son siège social d’une salle spécialement conçue pour les réunions assistées par
ordinateur. 9. La société Novacom est une jeune entreprise qui se consacre au commerce
électronique. Elle propose sur Internet son catalogue de produits (son, images, vidéo) ; les
commandes sont enregistrées et réglées sur le site Web; elles sont transmises aux différents
fournisseurs qui assurent directement la livraison. Cette variété importante des réalisations
répond à différents besoins : certains systèmes supportent directement des opérations ou des
transactions (cas 3, 7, 9 ci-dessus), d’autres fournissent des informations indispensables aux
managers dans leurs activités de planification et de contrôle (cas 4, 5, 6, et également 1 ci-
dessus), d’autres assurent des fonctions de communication interne et externe (cas 1, 2, 8 cidessus). . . Beaucoup de systèmes d’information combinent, en une application unique, des
fonctionnalités multiples (comme le suggèrent certains exemples ci-dessus). Par conséquent,
toute tentative de classification reste quelque peu arbitraire. Nous avons choisi de
caractériser les problèmes d’utilisation des systèmes d’information en les regroupant autour
de quatre thèmes :
– les applications fonctionnelles correspondant aux grands domaines de la gestion (gestion
commerciale, gestion de production et de l’innovation produit, gestion comptable et
financière, gestion du personnel). Ces applications, initialement conçues de manière
indépendante, sont généralement traitées aujourd’hui dans une perspective d’intégration.
Elles seront l’objet du chapitre 2 ;
–
les applications de type « aide à la décision » décrivent les solutions construites sous forme
de systèmes interactifs, de systèmes experts, d’entrepôt de données. . . ayant pour objet
d’assister les décideurs, aux différents niveaux, dans leur processus de prise de décision.
Elles seront l’objet du chapitre 3 ;
–
– les applications de type « aide à la communication » ont connu un développement
considérable depuis les années 1980. Elles répondent aux besoins de la communication
interne (coordination) et externe (information et transaction), et supportent, via Internet,
l’essor du commerce électronique. Elles seront l’objet du chapitre 4 ;
–
– les applications d’aide à la gestion de connaissances : ce domaine, plus récent, regroupe
des utilisations visant à améliorer l’acquisition, la conservation et la diffusion des savoirs et
savoir-faire dans les organisations. Elles seront l’objet du chapitre 5.
Chapitre 2 Les applications fonctionnelles
1. Les caractéristiques générales
2. L’évolution vers l’intégration
–
Au terme de ce chapitre vous devez être en mesure
De définir les notions d’application et de progiciel de gestion intégré . De décrire différents
types d’applications fonctionnelles dans les domaines commerciaux, comptables et
financiers, de l’innovation et de la gestion de production, et de la gestion des resources
humaines . De comprendre la problématique de l’intégration des systèmes d’information et
de leur urbanisation qui en constitue l’un des éléments de réponse . De distinguer les
systèmes intégrés et les systèmes fédérés . De comprendre les approches et les difficultés de
la gestion de l’entreprise étendue et de la chaîne logistique.
Dans toutes les organisations la construction des représentations collectives communes
concerne en premier lieu les opérations de gestion routinières. Elles se basent sur des
applications fonctionnelles qui sont de plus en plus fréquemment bâties sur des progiciels,
c’est-à-dire des solutions fournies et commercialisées par des spécialistes de l’industrie du
logiciel. L’organisation acquéreuse doit bien évaluer cette offre avant de choisir des
paramètres parmi ceux offerts par l’application. Elle doit aussi s’assurer de son
interopérabilité avec ses autres applications au regard de sa politique d’urbanisation.
Historiquement, dans la très grande majorité des entreprises (de l’ordre de 80% d’entre elles), les
ordinateurs ont d’abord été utilisés dans trois types de travaux : la tenue de la comptabilité générale,
la facturation, la paie des personnels. Ces trois domaines présentent en effet des caractéristiques
spécifiques favorisant le recours à l’automatisation :
– un volume important d’opérations de même type, à caractère répétitif ; – un caractère facilement
formalisable des tâches. Par la suite, les applications des technologies de l’information se sont
multipliées. Nous appellerons « application » (au sens particulier d’« application informatique ») un
ensemble de programmes (logiciels) articulés entre eux, utilisés pour automatiser ou assister des
tâches de traitement de l’information dans un domaine particulier. Une application est donc
caractérisée par : – un champ d’application défini soit structurellement (un poste de travail, un
service ou un département), soit fonctionnellement (une fonction telle que la gestion des
commandes clients ou le calcul des coûts de production). Les frontières de l’application sont fixées,
dans chaque cas, en fonction des besoins exprimés et des contraintes de réalisation (une application
est une unité de conception et de mise en oeuvre qui ne doit pas, pour des raisons de praticabilité,
être trop volumineuse) ;
– des fonctionnalités, c’est-à-dire un ensemble de tâches à exécuter (manuellement,
automatiquement, en mode mixte) à l’intérieur de ce domaine. (Ainsi la gestion des commandes
peut inclure ou non la tenue d’un portefeuille de commandes ou l’envoi d’accusés de réception de
commandes.) Selon les organisations et le découpage des tâches retenu, l’ensemble des
fonctionnalités à assurer sera différent.
Les applications « fonctionnelles » désignent des réalisations informatiques conçues pour assister la
conduite des « fonctions » essentielles de toute entreprise : gestion commerciale, gestion de
production, gestion comptable et financière, gestion des ressources humaines. Malgré le
développement continuel et la diversification des usages des technologies de l’information, ces
applications fonctionnelles constituent encore la partie la plus importante des systèmes
d’information des entreprises (au moins par le volume et la fréquence d’utilisation des logiciels).
Développées progressivement depuis plus de quarante ans, modifiées très souvent pour s’adapter à
l’évolution des besoins d’une part, et aux progrès de la technologie d’autre part, ces applications
sont très hétérogènes au niveau technique. Il ne saurait être question de décrire des solutions types
finalement peu représentatives de la grande variété des réalisations observables. C’est pourquoi
nous nous limiterons, dans la première partie de ce chapitre, à une description volontairement
simplifiée de leurs caractéristiques générales (domaine couvert, évolution et facteurs clés de
succès). Le découpage en « applications » des systèmes d’information pose, depuis toujours, des
problèmes de cohérence ; aucune application ne peut être parfaitement isolée des autres et la
communication entre applications doit être assurée, souvent avec difficulté. Aussi, à partir des
années 1990, ont proposées des solutions « intégrées » visant à combiner dans des ensembles
cohérents les différentes applications fonctionnelles. Cette approche plus récente de l’intégration,
appliquée à l’ensemble de la gestion des ressources principales et étendue éventuellement aux
relations partenariales de l’entreprise, sera l’objet de la seconde partie de ce chapitre.
1 Les caractéristiques générales
Les systèmes d’information fonctionnels sont caractérisés par deux objectifs généraux : l’assistance
pour le traitement des transactions d’une part, l’information des gestionnaires à différents niveaux
d’autre part. Ils sont aussi caractérisables par des fonctionnalités et des facteurs clés de succès
spécifiques à chaque domaine couvert.
1 1 Deux objectifs généraux
Les systèmes d’information fonctionnels répondent à une double préoccupation : – ils supportent le
traitement des transactions et des opérations ; – ils assurent la fourniture d’informations utiles pour
la gestion. Ces deux types de besoin sont, en pratique, pris en compte selon des modalités très
variables ; c’est pourquoi notre présentation sera limitée aux définitions essentielles.
1 1 1 Le traitement des transactions et des opérations
L’analyse du fonctionnement des entreprises permet de mieux comprendre en quoi consiste la
notion de transaction et d’en déduire les implications quant aux tâches à réaliser. 1. Événements,
transactions, opérations Les organisations en général, les entreprises en particulier ne sont pas des
systèmes fermés. Au contraire, leur survie implique des échanges avec leur environnement : ces
échanges, ces transactions, commerciales et financières sont même la raison d’être des entreprises.
Exemple La vente de marchandises à un client est l’exemple type de la transaction : il y a échange
d’un bien (les marchandises vendues) contre un paiement en monnaie. Cette transaction se traduit
donc par un double flux : flux de biens, flux de monnaie. Vue de l’intérieur de l’organisation, la
transaction se traduit au départ par la réalisation d’un événement significatif, annonçant son
démarrage. Exemple L’arrivée d’une commande au courrier constitue un événement significatif
signalant qu’une transaction commerciale est souhaitée par un client, partenaire de la transaction.
Le terme « significatif » associé à « événement » veut dire que cet événement est susceptible d’être
reconnu comme tel, qu’il a un sens pour l’organisation et que celle-ci va apporter une réponse à cet
événement. Cette réponse va se traduire par le déclenchement d’activités, d’opérations qui vont
constituer le traitement de la transaction.
Exemple L’arrivée de la commande client (événement significatif du début de la transaction) va
déclencher des opérations telles que le contrôle du crédit à accorder à ce client, l’examen des stocks
pour vérifier si l’on peut servir la commande, le déclenchement de la préparation de l’expédition, la
facturation, la livraison. . . Par conséquent, le traitement de la transaction apparaît comme un
processus, c’est-à-dire un ensemble d’opérations logiquement liées et chronologiquement
enchaînées, déclenchées par un événement significatif et produisant des résultats. Exemple Les
opérations déclenchées par l’arrivée de la commande vont produire comme résultats principaux
l’expédition de colis au client et l’envoi de la facture. Le traitement complet de la transaction peut
correspondre à plusieurs processus, déclenchés chacun par un événement significatif. Exemple
Comme le montre la figure 2 (ci-dessous), dans le cas classique de la transaction correspondant à
une vente à crédit, un premier processus (appelé traitement des commandes) est déclenché par
l’arrivée de la commande et se termine par l’envoi de la facture et des marchandises. Un second
processus (appelé traitement des règlements) est déclenché par l’arrivée du règlement du client et
aboutit à une écriture comptable et à un encaissement. Ici, chaque processus correspond à un flux
(réel ou monétaire) mais on peut trouver des formes quelconques (un seul processus ou plusieurs
processus pour tout ou partie de la transaction). Cette représentation du traitement de la transaction
correspond à une modélisation relativement grossière où l’on n’a retenu que deux événements
significatifs d’origine externe (l’arrivée de la commande et l’arrivée du règlement). Il peut être utile
de construire un modèle plus fin prenant en compte des événements internes (fin de la préparation,
fin de l’enregistrement comptable). Ces problèmes spécifiques de modélisation seront repris dans la
seconde partie de cet ouvrage
. Les tâches du traitement des transactions Si l’on examine le déroulement des transactions, on
constate que le processus déclenché par la réalisation de l’événement significatif comporte
différents types de tâches, informationnelles ou autres, parfois combinées. On trouve
principalement : – des tâches d’identification de l’événement : quelle est la nature de l’événement,
quelle est son origine, à quel instant s’est-il produit ? Cette tâche d’identification va entraîner des
recherches d’information, des comparaisons, des contrôles ;
Exemple Reconnaître la commande (différente d’une demande de devis), l’identifier par son origine
(client connu ou inconnu) et sa date. . . Tout cela implique une activité informationnelle (lecture,
comparaison, recherche dans un fichier client. . .). – les tâches spécifiques de réponse : ce sont soit
des tâches informationnelles et décisionnelles, soit des tâches matérielles. Exemples Contrôler le
crédit du client veut dire rechercher dans un fichier client ou dans des archives que ce client existe,
qu’il a réglé ou non ses précédentes factures, demander à une banque des informations.. . Cette
phase d’information sera suivie d’une décision : accepter ou non la commande. – De même, dans
l’hypothèse où la commande est acceptée, il faut soit prélever les marchandises sur le stock, soit les
lancer en fabrication puis les emballer et les expédier, tâches matérielles qui seront exécutées grâce
à un support informationnel. Par conséquent, les opérations sur l’information seront indispensables
pour deux raisons : – la réponse à l’événement déclenchant la transaction implique directement des
activités informationnelles pour préparer les décisions nécessaires dans le déroulement du
processus ; – les opérations matérielles ne peuvent se dérouler qu’avec le concours d’un support
informationnel qui précise « quoi faire, qui le fera, quand on le fera, où on le fera, comment on le
fera ». Exemple
La tâche de préparation des commandes sera réalisée grâce à un bordereau de préparation qui
indiquera à l’employé quels sont les articles à prélever, en quelle quantité, avec quel type
d’emballage.. . Comme, dans la plupart des organisations, il y a division du travail, l’organisation de
la réponse à l’événement engendre des tâches supplémentaires de communication liées aux besoins
de coordination ; Exemple
Il est nécessaire de prévenir le magasin pour la préparation, le service « comptable » pour la
facturation et assurer, en fin de préparation, une communication entre les deux pour le contrôle de la
facture. – des tâches de « traçabilité » : les contraintes juridiques (légales, comptables, fiscales. . .)
imposent souvent la « matérialisation » des transactions par des documents obligatoires (sous forme
d’imprimés et, dans certains cas, sous forme de documents électroniques comme dans l’échange de
données informatisées). Cette obligation de conserver une trace des transactions engendre des
tâches supplémentaires de traitement d’information (édition, impression, communication).
1 2 1 L’information des gestionnaires
Parallèlement aux activités de support ou traitement des transactions proprement dit, les systèmes
d’information fonctionnels ont également comme objectif de fournir aux gestionnaires les
informations nécessaires à la conduite des opérations. L’analyse des différents besoins en la matière
permet de mieux comprendre la nature des solutions utilisées. 1. Les différents besoins Il est
nécessaire de gérer à tous les niveaux, de celui de l’exécution quotidienne des opérations à celui de
la définition des orientations stratégiques. Par conséquent, les besoins d’information des
gestionnaires s’expriment d’abord dans un cadre local pour s’inscrire ensuite dans une perspective
globale caractérisée essentiellement par une hiérarchisation des niveaux de gestion. . Premier point :
la satisfaction des besoins locaux Le gestionnaire d’opérations doit, à son niveau de compétences,
prévoir et contrôler. Il doit donc disposer des éléments d’information correspondant à la mise en
oeuvre de solutions adaptées aux problèmes locaux de finalisation, d’organisation et d’animation.
Remarque Le responsable du traitement des commandes doit être en mesure de prévoir le nombre
moyen de commandes à traiter, de répartir la préparation des commandes entre différentes
personnes, de vérifier si les délais de préparation et les critères de qualité exigés ont été respectés.
Pour ce faire, il doit disposer de modèles de gestion et de représentations adaptées : – modèles
prédictifs (par exemple, évolution des tonnages à expédier en fonction de la saison) dont il faut
surveiller la validité en permanence (les prévisions fournies par le modèle ont pu être correctes puis
devenir insensiblement moins robustes) ; – comptes rendus d’exécution permettant de suivre, en
permanence, avec un très faible décalage temporel, comment se sont déroulées les opérations et
quelles sont les corrections à apporter (par exemple, réagir à des retards dans la préparation des
commandes par une modification dans l’affectation des employés). Cette régulation par rétroaction
est généralement indispensable parce qu’on ne dispose pas de modèles prédictifs parfaitement
satisfaisants. Pour le fonctionnement de ces modèles locaux, les contraintes dominantes de
pertinence sont relatives à la précision (forte) et au délai (court). En revanche, ces modèles locaux
de gestion sont relativement simples (nombre limité de variables). . Second point : l’intégration
dans un modèle global de conduite Les besoins en information sont différents selon les niveaux de
management. Le schéma simplifié traditionnel illustre ce découpage en trois couches : 1)
stratégique avec l’identification des choix fondamentaux ; 2) tactique, où est contrôlée l’affectation
des moyens permettant d’atteindre les objectifs définis au niveau stratégique ; 3) opérationnel, où
est suivie l’exécution effective des opérations. L’articulation entre ces trois niveaux assure la
cohérence de la conduite de l’organisation. Bien que les constructions varient beaucoup selon les
organisations, cette hiérarchisation respecte quelques principes généraux de fonctionnement : –
complexification croissante des modèles de gestion au fur et à mesure que l’on remonte vers le
sommet ;
– allongement de la dynamique : les temps de réponse sont plus courts à la base qu’au sommet ; –
réduction du volume des informations communiquées dans la phase de communication ascendante
(synthèse). Ces principes de fonctionnement (illustrés dans la figure 3) se traduisent par des
conséquences pratiques importantes.
1) À partir d’un certain niveau hiérarchique (variable selon les organisations), le champ de
définition du système d’information s’élargit. (Le système d’information pour la gestion de
production s’élargit à la gestion commerciale.) Les informations définies dans le cadre d’un système
fonctionnel donné vont devoir être combinées à d’autres informations issues de systèmes différents.
2) Des systèmes de filtres opèrent une sélection des informations remontantes. De la nature de ces
filtres dépend la plus ou moins grande pertinence des représentations utilisées au niveau supérieur.
3) La durée de vie des informations utiles peut varier selon le niveau d’utilisation ; elle est
généralement plus courte au niveau inférieur qu’au niveau supérieur (où les modèles de gestion ont
des horizons plus longs). Cela peut introduire des contraintes spécifiques de stockage. Pour
respecter ces besoins de cohérence, spatiale et temporelle, les applications fonctionnelles doivent
donc dépasser le cadre immédiat des opérations gérées et les modèles locaux de gestion pour
intégrer les besoins en information des niveaux supérieurs. 2. L’organisation des solutions La
majorité des systèmes d’information de type fonctionnel sont organisés selon deux principes
dominants pour répondre à ces bes
Information d'origine externe surtout ; résumée, à champ large, peu répétitive ; orientée vers le
passé, le présent et le futur.
– l’exploitation de bases de données alimentées par les transactions. . Premier point : ensemble
hiérarchisé de rapports À côté de l’assistance à la conduite des transactions, il est prévu, pour les
gestionnaires, la production de rapports (reporting system) comportant les informations jugées
essentielles. La forme traditionnelle est celle de rapports prédéfinis périodiques ; par exemple «
tableaux d’analyses des ventes par produits, par régions ». . ., chaque semaine ou « tableau des
écarts sur budget chaque mois ». Cette forme traditionnelle, encore très utilisée, fournit des tableaux
à des degrés de synthèse différents selon les utilisateurs.
Une forme plus évoluée, les rapports par exception, tend à diminuer le volume des informations
transmises en ne produisant les rapports que pour les cas jugés dignes d’intérêt. Par exemple, le
rapport sur les stocks est limité aux produits dont le niveau anormal de stock justifie une analyse
particulière (décision d’approvisionner ou décision de liquidation). Alors que, dans les deux cas
précédents, les rapports sont fournis systématiquement à des périodes fixées, certains systèmes
fonctionnels prévoient la fourniture d’informations uniquement à la demande des utilisateurs.
Ces derniers n’ont donc pas à attendre la future « parution » du rapport pour être informés et
peuvent ainsi disposer, lorsqu’ils le veulent, des informations les plus récentes. La solution la moins
évoluée consiste à fournir le rapport à l’utilisateur, selon un format prédéfini, en réponse à une
demande formulée sur sa station de travail. Cette formule de rapport prédéfini à la demande tend à
être remplacée par une formule plus évoluée : le manager utilisateur dispose, sur sa station de
travail, d’un langage d’interrogation qui lui permet de formuler des questions sous une forme plus
libre. Par exemple « liste des clients ayant réalisé plus de 10 000 E de chiffre d’affaires avec le
produit A au mois de mars 2011 ». Il échappe ainsi au caractère rigide du format prédéfini.
Parallèlement à cette évolution vers une adaptabilité plus grande, on note également une
diversification des modes de présentation. Aux listings et tableaux rébarbatifs s’ajoutent désormais
(ou se substituent) des présentations graphiques, utilisant la couleur, et des présentations
mélangeant textes et images.
. Second point : base de données Le fonctionnement du système de rapports (ou celui du système
d’interrogation qui le remplace) repose sur des ensembles de données descriptives du domaine géré.
Ces données sont issues du traitement des transactions ; elles sont stockées sous une forme
organisée et leur exploitation permet de fournir les informations plus ou moins synthétisées
demandées par les gestionnaires. Ces bases de données constituent donc le pivot des solutions,
puisqu’elles sont la « matière première » des traitements. Exemple
Dans un système de gestion commerciale, le traitement des livraisons permet de connaître la
quantité de chaque produit qui est livrée et facturée à chaque client. L’accumulation de ces données
permet, à chaque instant, de connaître les quantités livrées d’un produit quelconque, ventilées par
régions, par périodes, par types de clientèle. . . De nombreux systèmes d’aide à la décision (voir
chapitre suivant) utilisent ces bases de données, alimentées par l’enregistrement des transactions
effectuées (en particulier les applications recourant à la notion d’entrepôt de données ou data
warehouse). L’existence de ces données autorise la poursuite simultanée des deux objectifs :
traitement des transactions et aide à la décision.
12 Des fonctionnalités spécifiques
Sur ce schéma général, les systèmes fonctionnels majeurs ont été construits avec des
caractéristiques très variées (pour s’adapter aux dimensions de l’entreprise, à ses moyens techniques
et financiers, aux particularités de ses activités et de son organisation. . .). En raison de cette très
grande variété des réalisations, nous limiterons notre description à l’énoncé des fonctionnalités
couvertes et à une caractérisation sommaire des facteurs clés du succès. Seront présentés
succinctement quatre systèmes fonctionnels majeurs :
1. la gestion commerciale et le marketing ; 2. la gestion de production (entreprise industrielle) ; 3. la
gestion comptable et financière ; 4. la gestion des ressources humaines.
1 1 2 systèmes d’information pour la gestion commerciale
et le marketing Activité vitale pour toute entreprise, la gestion commerciale peut tirer des avantages
considérables du recours aux technologies de l’information. Les réalisations concrètes sont très
variées ; elles dépendent en effet de nombreux facteurs : taille de l’entreprise, volume des
transactions, nature des produits vendus, organisation spatiale des activités, nature de la clientèle,
conditions de concurrence. . . Le développement d’Internet a modifié considérablement les
possibilités de gestion de la relation client et a entraîné l’apparition du commerce électronique (ecommerce). Ce point spécifique sera repris dans le chapitre 4 (l’aide à la communication). 1. Les
fonctionnalités La figure 4 fournit une représentation, par niveaux, des principales fonctions
susceptibles d’être assistées (ou totalement automatisées) par des technologies de l’information. (Le
découpage par niveaux, bien que souvent utilisé, reste quelque peu arbitraire.) Cette présentation
appelle les remarques suivantes : – Au niveau du traitement des transactions, certaines entreprises
distribuant directement au client final n’ont à gérer ni les commandes, ni la préparation des
livraisons. La facturation peut être très simplifiée (fiche de caisse) et le suivi client inexistant (pas
de comptes client, règlement comptant.. .). – Au niveau du contrôle, le suivi budgétaire de la
fonction (rapprochement des prévisions et des réalisations) est presque toujours organisé dans un
cadre général de gestion budgétaire (systèmes de rapports). – Au niveau planification, études
marketing, le système d’information est du type « aide à la décision » ; les modèles utilisés peuvent
être très complexes (modèles de prévision de ventes, modèles d’aides au choix de supports
publicitaires. . .) ou inexistants. Les caractéristiques spécifiques de ces systèmes d’aide à la décision
seront décrites dans le chapitre suivant. – Au niveau stratégique, les choix majeurs concernent les
produits (quels produits vendre ?) et les marchés (sur quels marchés l’entreprise entend-elle se
positionner ?). Ces décisions, généralement fort complexes, ne reposent pas toujours sur des
modèles explicites et font intervenir de nombreuses données extérieures au domaine de la gestion
commerciale. Par conséquent, ce domaine peut utiliser de nombreuses applications, très variées,
allant du traitement automatisé d’informations transactionnelles de fort volume (la facturation par
exemple) à la production systématique de rapports pour le contrôle (tableaux d’analyse de ventes
par produit, clientèle, canal. . .), à l’aide à la décision (modèles de choix supportés par l’ordinateur
ou production de données améliorant l’« intelligence » du décideur). Le fonctionnement des
différentes applications évoquées ci-avant repose sur l’exploitation de deux bases de données
essentielles : – BASE DE DONNÉES « PRODUITS » décrivant les caractéristiques permanentes
des produits vendus (identification, caractéristiques techniques et commerciales.. .) et les
informations évolutives correspondant à l’état de stock et aux ventes réalisées ; – BASE DE
DONNÉES « CLIENTS » comportant les éléments d’identification indispensables (raison sociale,
adresse...), les éléments comptables (solde), les caractéristiques commerciales (volume d’affaires
réalisé, fidélité). Dans la plupart des entreprises, un très grand effort d’enrichissement de ces bases
de données clientèle a permis une amélioration considérable de la gestion de la relationclient et le
développement d’un véritable marketing relationnel.
Remarque Cet ensemble de fonctionnalités est souvent désigné aujourd’hui par le terme « gestion
de la relation client » ou CRM (Customer Relationship Management). 2. L’évolution vers la gestion
de la relation client (CRM) L’amélioration des possibilités de stockage de données (voir chapitre 3,
les systèmes data warehouse) et la multiplication des moyens de communication (téléphone,
messagerie électronique, internet) ont apporté aux entreprises les moyens de développer des
relations plus ou moins personnalisées avec leurs clients. La gestion de la relation client (Customer
Relationship Management ou CRM) regroupe l’ensemble des processus consistant à acquérir,
conserver, élargir une clientèle rentable. Du point de vue des technologies de l’information, le CRM
implique l’intégration totale des processus liés à la vente, au marketing et au service client dans la
perspective d’une amélioration de la gestion de la relation. L’architecture technologique du CRM
permet donc de regrouper : – des applications opérationnelles classiques : gestion des commandes,
logistique, facturation, gestion des comptes clients, fidélisation. . . ; – des applications
collaboratives supportant l’interaction avec le client par le biais des différents canaux : courrier
électronique, Internet, centres d’appels téléphoniques. Ce dernier canal utilise luimême différents
logiciels tels que l’ACD (Automated Call Distribution) pour la distribution automatique des appels
et le traitement statistique de la productivité, le CTI (Couplage Téléphonie-Informatique)
permettant de reconnaître le numéro de l’appelant et d’afficher les informations relatives à ce client
lors du décrochage, le SVI ou Serveur Vocal Interactif guidant l’appelant vers l’interlocuteur
compétent ;
– des outils assistant la force de vente (ordinateurs portables, téléphones mobiles) et les
–
–
logiciels correspondants ; – les applications analytiques d’études commerciales alimentées
par les données issues de l’activité quotidienne (data warehouse) permettant de suivre
chaque client, de développer des typologies de comportement, de concevoir des produits et
des stratégies marketing adaptées (politiques de fidélisation par exemple). Ces différentes
applications de front office et de back office sont regroupées en un ensemble cohérent pour
le partage de données communes, le défi consistant à fournir une réponse cohérente et
personnalisée à chaque client quel que soit le média d’accès qu’il utilise tout en accroissant
la valeur ajoutée des échanges.
3. Les facteurs clés de succès
Compte tenu des multiples facteurs de contingence intervenant dans la définition du système
d’information pour la gestion commerciale (dimension de l’entreprise, nature de l’activité et
des produits, nombre de clients, modes de distribution, structure des marchés.. .), il n’est pas
possible de définir des critères universels pour évaluer la qualité des réalisations. Cependant,
au-delà d’une forte hétérogénéité, on peut repérer au moins deux caractéristiques de portée
générale conditionnant le succès d’un système d’information pour la gestion commerciale :
1) Au niveau transactionnel, la prise en compte indispensable des exigences des relations
avec la clientèle. Ces exigences sont de deux ordres : – commodité pour le client ; la
demande d’information, la prise de commande doivent être améliorées par l’automatisation
(et non l’inverse comme on peut parfois l’observer) ; le contrôle de la facturation et le
règlement doivent être facilités (combien de factures « informatisées » se révèlent peu
lisibles. . .) ; le progrès technique doit apporter un « plus » au client dans sa relation avec
l’entreprise ;
– respect des contraintes de temps : le cycle des transactions (commande, livraison,
facturation, règlement) introduit une succession de délais ; la réduction de ces délais, en
particulier ceux liés au traitement de la commande, peut avoir des impacts commerciaux
importants. Le développement de la fonction de communication dans ce type de système
d’information est souvent utile (par exemple, recours à l’EDI, utilisation de terminaux
portables par la force de vente. . .) ; l’automatisation permet des gains notables sur ce point.
2) Aux niveaux tactique et stratégique, une très grande ouverture sur l’environnement. Par
nature, la gestion commerciale est une gestion de l’échange avec l’extérieur ; il est donc
naturel qu’elle fasse appel à de nombreuses informations externes. Sur ce plan,
l’automatisation peut avoir un effet pervers : le traitement automatisé ou assisté des
transactions produit de nombreuses informations (l’« historique des ventes ») faciles à
exploiter ensuite. Il est donc possible de mettre à la disposition des responsables de
nombreuses données, structurées à la demande. Cela peut avoir pour effet de négliger
relativement les autres sources d’information, formelles ou informelles, moins commodes
d’accès. Or les difficultés nées d’une concurrence accrue imposent des analyses plus
complexes et des représentations plus riches pour les décisions essentielles. Il y a donc lieu
d’organiser soigneusement des systèmes d’observation, de veille. . ., de multiplier les
sources et d’assurer la communication d’informations d’origine et de nature très variées. Sur
ce point, les technologies de l’information apportent quelques réponses (aide à la
documentation, consultation de bases de données.. .) mais la solution est d’abord
organisationnelle (qui observe quoi ? qui communique à qui ?). Le problème majeur est bien
celui de la collecte de données pertinentes issues de sources disparates (données de panels,
études de marché, données socio-économiques, rapport de représentants, surveillance des
concurrents, analyse des incidents d’après-vente. . .). Le traitement de ces données peut
éventuellement faire appel à des modèles d’aide à la décision assistés par ordinateur (voir
chapitre suivant). Conclusion : de la grande distribution avec ses terminaux points de vente
aux sociétés de vente par correspondance axées sur le suivi de la relation-client, en passant
par les agences de voyages basées sur Internet, des exemples variés d’usage intensif des
technologies de l’information pour la gestion commerciale abondent. Désormais, les progrès
majeurs sont à attendre dans le domaine de l’aide à la décision (voir chapitre 3) et dans celui
de l’aide à la communication (voir, ci-après, la notion d’entreprise étendue et le chapitre 4).
–
–
–
–
–
–
–
–
1 22 systèmes d’information pour la production et la gestion du cycle de vie du produit
La préparation puis la réalisation de la production exigent de la part des entreprises
industrielles le traitement de grandes quantités d’information. Les premiers systèmes
d’information automatisés ont été pour l’essentiel consacrés à la conduite de la production
(gestion de production assistée par ordinateur, GPAO) ; le développement considérable des
machines automatiques programmables pour la fabrication, l’utilisation des ordinateurs pour
le dessin et la conception des produits (dessin assisté par ordinateur, DAO; conception
assistée par ordinateur, CAO) ont eu pour conséquence d’imbriquer à l’intérieur d’un même
système d’information le traitement de données pour la préparation, le contrôle et la
réalisation de la production. Cela peut conduire, dans un certain nombre de cas, à des
systèmes d’architecture fort complexe.
Selon la nature des produits fabriqués et les processus de production utilisés (unitaires, petite
série, production de masse.. .), l’organisation de la production est très variable. Les
caractéristiques générales que nous présentons ci-dessous peuvent être fortement modifiées
selon les cas.
1. Les fonctionnalités
La figure 5 fournit une représentation simplifiée de l’architecture générale d’un système
d’information pour la production. Les principales fonctions susceptibles d’être assistées ou
automatisées pour les activités de traitement de l’information sont présentées par niveau.
(Ce niveau correspond au cas d’une entreprise industrielle.) L’examen de cet ensemble de
fonctionnalités révèle : – d’une part, une grande variété des tâches de traitement de
l’information ; certaines sont à caractère technique très prononcé (conduite des automates
industriels, conception de produits), d’autres à caractère comptable (coûts et budget. . .) ou
administratif (documents de fabrication, d’achat, de transports. . .). Leur domaine d’exercice
est également variable : l’entreprise, l’usine, l’atelier, le poste de travail, l’équipement
(machine) d’autre part, de nombreux échanges d’information entre les différents niveaux de
gestion ; cela correspond à des besoins importants de coordination et traduit l’unité
fonctionnelle profonde du domaine de la gestion de production au-delà de sa diversité
apparente (voir ci-après le problème des niveaux d’intégration). Le fonctionnement des
différentes applications repose sur deux sources principales de données : – les BASES DE
DONNÉES TECHNIQUES comprenant les NOMENCLATURES (décomposition du
produit en composants), les GAMMES de fabrication (description des opérations à
effectuer) et les POSTES de travail (pouvant exécuter des opérations). La mise en place
d’un système de gestion des bases de données techniques est un préalable à l’informatisation
de la gestion de la production ; – les DONNÉES ISSUES DU SUIVI DE PRODUCTION :
si les données techniques permettent de préparer les opérations de production (données
prévisionnelles), il est néanmoins indispensable de collecter en permanence les données
relatives au déroulement réel des opérations pour la conduite en temps réel, pour le contrôle
et l’amélioration de la gestion. 2. L’évolution de la conception vers la gestion du cycle de
vie du produit Cette planification des productions ne peut être réalisée tant que la mise au
point des méthodes de fabrication des produits n’est pas terminée. La définition des modes
opératoires et des composants est arrêtée lors de la conception détaillée du produit. Cette
activité de conception et de dessin peut être assistée par des logiciels spécialisés (logiciels de
CAO, Conception Assistée par Ordinateur) ; certains logiciels de CAO fournissent d’ailleurs
directement les programmes de commande des automates (robots) de fabrication.
Des solutions PLM (Product Lifecycle Management) permettent de suivre la conception des
différentes versions du produit jusqu’à son lancement en production. Elles permettent par
des workflows de définir les circuits de validation des composants de ses versions et
donnent accès à tous les acteurs habilités dans les différents services (qualité, production,
méthodes, bureau d’étude, logistique, contrôle de gestion, service après-vente, marketing), à
la visualisation des objets développés et à la mise à jour des connaissances associées
concernant l’ensemble de leurs caractéristiques techniques et logistiques (Merminod, 2007).
PLM sert donc au stockage, au partage et à la coordination des connaissances explicites et
au partage de celles plus tacites qui peuvent être transmises par visualisation. Elle sert aussi
au pilotage des projets et à la réutilisation des composants développés et des connaissances.
Les résultats obtenus avec cette technologie par le groupe SEB montrent que l’on peut ainsi
gagner en fiabilité du processus de développement produit et en productivité et permettre à
un chef de projet de gérer plusieurs projets en parallèle, même avec des partenaires aussi
lointains que les entreprises chinoises (Merminod et al., 2009). Toutefois les entreprises de
haute technologie dont les produits sont très complexes et sortis à l’unité ou en très petites
séries éprouvent des difficultés à trouver des outils PLM adaptés. 3. Les facteurs clés de
succès Le domaine de la gestion de production est sans doute celui où les échecs de
construction de systèmes d’information automatisés ont été les plus nombreux. Les
professionnels considèrent ce type de projet comme lourd et risqué, pour des raisons très
variées (complexité de la gestion des données, insuffisances des logiciels disponibles,
hétérogénéité des matériels. . .). En restant sur un plan plus général, l’analyse des causes des
échecs met en évidence trois impératifs à respecter : 1) la prise en compte des particularités
de la production ; 2) la prise en compte des impératifs de temps ; 3) le maintien d’une
certaine souplesse d’évolution. . Premier point : prendre en compte les particularités de la
production Nous avons montré la très forte imbrication des données entre la production
proprement dite et la gestion de la production. Malgré leur diversification et leur
spécialisation, les logiciels offerts sur le marché ne répondent que rarement aux exigences
précises de l’organisation de la production dans une entreprise donnée. Très souvent, faute
de pouvoir modifier les logiciels existants et renonçant à développer des logiciels
spécifiques (trop coûteux), les entreprises sont conduites à modifier l’organisation de leur
production. Les points sensibles concernent : – la communication des données vers la
production : en mode automatique, ce sont des problèmes de compatibilité de matériels et de
logiciels qui constituent l’obstacle principal (les automates industriels utilisent des langages
différents de ceux des ordinateurs de gestion) ; en mode manuel, la qualité des documents et
des messages doit être adaptée aux conditions de travail des opérateurs ; – la saisie des
données (de la production vers la gestion de production) : en mode automatique, on retrouve
le problème cité ci-dessus ; en mode manuel, il ne faut pas que les exigences de la saisie
perturbent la tâche principale des opérateurs, sinon les risques de saisies erronées sont
grands (dans des ateliers bruyants, avec fumées, manipulations nombreuses d’objets lourds,
sales, encombrants.. ., il est difficile d’exiger des opérateurs qu’ils remplissent des
documents ou frappent sur un clavier sans erreurs !). La saisie des données doit être
organisée dans de bonnes conditions de robustesse et si possible de manière automatique. De
nombreux systèmes de suivi de production ont échoué sur cet écueil des erreurs de saisie car
le nombre des données à saisir est élevé et les occasions d’erreurs multiples. . Deuxième
point : dynamique du contrôle de production Dans beaucoup de cas, la dynamique
d’évolution de la production impose des contraintes de temps sévères ; cela conduit
pratiquement toujours à automatiser la conduite des processus avec des ordinateurs
spécialisés (raffineries, production d’électricité. . .). Dans les cas de productions
discontinues, si, en apparence, les contraintes de temps sont moins sévères, elles n’en sont
pas moins réelles. Le premier problème est celui des délais de mise à disposition des
informations pour les utilisateurs : les documents de fabrication doivent être diffusés en
fonction du rythme d’avancement de la production sinon il y a risque de blocage. On arrive
à satisfaire correctement cette contrainte en situation normale ; il est beaucoup plus difficile
d’y parvenir en cas d’incidents ou de modifications (changement de priorité dans l’ordre des
livraisons par exemple). Le système d’information devrait conserver une certaine « réserve
de puissance » pour faire face à ces incidents fréquents. Le second problème est celui du
–
–
–
mode de gestion de la production. Les systèmes « traditionnels » (bien que parfois très
récents) sont de type MRP (material requirements planning) ; cela signifie une planification
détaillée à partir des prévisions de demande (plan de fabrication ? plan de charge ? plan
d’approvisionnement ? ordonnancement.. .). Ce système fonctionne bien si la qualité des
prévisions est correcte et s’il y a peu d’aléas (la présence de stocks intermédiaires permet de
faire face aux aléas « normaux »). Compte tenu de l’évolution des marchés et de la
concurrence, la demande devient plus difficile à prévoir et le système MRP montre ses
limites. Aussi de nombreuses entreprises ont-elles adopté un principe de gestion différent :
principe des flux tirés et du juste-àtemps (JAT). Dans ce système, la prévision joue un rôle
réduit ; l’entreprise travaille à la commande, sans stocks, organise et synchronise les flux en
fonction de la demande finale : chaque élément arrive au moment où il doit être utilisé. Les
avantages sont évidents sur deux points au moins : pas d’erreurs de prévision, suppression
des stocks. La contrepartie, pour le système d’information, est aussi évidente : – exigences
de rapidité accrue pour traiter des transactions plus nombreuses (les livraisons des
fournisseurs et sous-traitants sont très fréquentes) ;
– développement considérable de la fonction de communication avec les partenaires : la
plupart des entreprises travaillant en JAT imposent l’utilisation de l’EDI à leurs fournisseurs
et sous-traitants ; – réduction importante des traitements de données pour la gestion des
stocks et la planification à court terme.
Remarque Le passage d’un mode de gestion à l’autre impose de nombreux changements
(organisation, logistique, système d’information. . .). Sur le marché des logiciels de gestion,
il existe désormais des familles distinctes de logiciels : MRP, JAT ou mixtes. . Troisième
point : souplesse d’évolution Les conditions de la concurrence imposent aux entreprises des
changements continus dans la nature de la demande des clients ; dans ces conditions, il est
extrêmement difficile de construire un système d’information répondant de manière
définitive aux exigences de la production. L’évolution reste indispensable ; or les systèmes
d’information pour la production sont lourds et complexes et leur modification délicate. Il
est donc essentiel de leur réserver une certaine souplesse d’évolution : – en veillant à ne pas
être aux limites de la technologie : les capacités de traitement, de stockage, de
communication doivent pouvoir absorber l’accroissement du nombre de produits (pour
répondre à la demande de produits différenciés) et du nombre de mouvements (séries plus
courtes, livraisons plus fréquentes. . .). Le système doit, au départ, disposer de capacités
excédentaires ; – en limitant l’intégration au niveau technique ; les technologies doivent être
compatibles mais non obligatoirement uniformes. En particulier, certains équipements de
production doivent évoluer sans remettre en cause l’architecture générale du système
d’information ; – en ménageant des espaces d’intervention manuelle dans la conduite des
opérations : assistance à la décision plutôt qu’automatisation de la décision dans certains cas
(par exemple, ne pas utiliser un modèle d’ordonnancement automatique non modifiable mais
au contraire utiliser un modèle interactif où le responsable peut modifier certains
paramètres). Conclusion : les grandes entreprises industrielles ont développé des systèmes
d’aide à la gestion de production par des investissements massifs. Ces systèmes sont
complexes à construire et difficiles à maintenir ; le compromis entre les bénéfices de
l’intégration et la souplesse d’évolution est délicat. Les progrès dans les outils de
communication favorisant en particulier l’échange de données techniques ont conduit au
développement des pratiques d’externalisation (sous-traitance, cotraitance. . .) et de
partenariats de production. La plupart des logiciels actuels assurent cette fonction de
communication nécessaire au fonctionnement de l’entreprise étendue (voir ci-après et
chapitre 4).
1 3 2 systèmes d’information comptables et financiers
La comptabilité générale constitue l’exemple le plus ancien et le plus répandu d’un système
d’information formalisé et organisé. À partir de la saisie de certaines transactions
(évaluables en monnaie), la comptabilité générale fournit des représentations sous forme de
comptes, de bilans, de comptes de résultat. Dès l’apparition des ordinateurs dans les
entreprises, la comptabilité générale a été l’objet d’une automatisation : il s’agit en effet
d’un domaine où les événements significatifs sont bien définis, les règles de traitement
claires, les résultats à obtenir rigoureusement établis, les transactions nombreuses et
répétitives, ce qui correspond à autant de facteurs favorables à une solution automatisée.
Autour de ce noyau se sont développées plusieurs réalisations, en particulier pour la gestion
financière ; aussi sous l’appellation « systèmes d’information comptables et financiers »
trouvet- on des réalisations fort variées.
1. Les fonctionnalités
La figure 6 représente l’articulation possible d’un système comptable (d’une entreprise non
financière) et met en évidence trois composantes :
– la comptabilité générale (traitement des transactions comptables) ; – le sous-système de gestion
financière ; – le sous-système de gestion budgétaire.
a – Traitement des transactions comptables
L’enregistrement des transactions comptables obéit à des règles précises indiquant quelles sont les
transactions à enregistrer et comment ces transactions doivent être enregistrées (application du plan
comptable pour la définition des écritures comptables). Ces transactions sont enregistrées dans des
journaux, reportées dans des comptes. Périodiquement, l’exploitation des comptes et des traitements
complémentaires (écriture d’inventaire) permet d’établir le bilan et le compte de résultat. Des règles
précises (droit comptable, principes fondamentaux, directives. . .) ont pour objet de garantir aux
tiers (apporteurs de capitaux, clients, fournisseurs. . .) une certaine pertinence des représentations
comptables. b – Gestion financière
La figure 7 montre, selon le schéma hiérarchisé classique, les différents éléments d’un système
d’information pour la gestion financière.
Ce schéma montre
: 1) Le rôle de la base de données des transactions comptables (à caractère financier) pour
alimenter les différents niveaux de gestion ; en particulier, le suivi des mouvements de fonds de la
trésorerie s’appuie directement sur l’exploitation des données comptables concernant les achats et
les ventes (éléments essentiels de la trésorerie). Le fait de disposer des informations utiles à la
naissance des créances et des dettes (achat, vente) permet d’anticiper les mouvements de trésorerie
qui auront lieu à l’expiration des délais de paiement et d’encaissement. De même, le suivi des coûts
(par activités, projets, chantiers. . .) permet, dans une certaine mesure, de prévenir certaines
conséquences sur la trésorerie future.
2) La nécessité d’une planification financière anticipant les mouvements de fonds ; plan de
trésorerie et plans de financement (comment combler les besoins de financement, comment utiliser
fonds disponibles) sont établis sur des prévisions d’activité de la période de référence (souvent
l’année). Des systèmes d’aide à la décision (voir chapitre suivant) peuvent être utilisés à ces
niveaux. 3) Le rôle des informations externes : au niveau du contrôle des opérations, les sources
d’information sont internes à l’organisation. Aux niveaux tactique et stratégique, ces sources
d’information sont complétées par des données d’origine externe, provenant, en particulier, des
marchés financiers : suivi permanent du coût des financements (emprunts, émissions d’actions. . .)
et des possibilités de placements (à court terme et à long terme). L’importance de ces sources
externes conduit au développement de l’usage, par les financiers d’entreprise, d’outils de
communication et de recherche évolués (suivi des marchés financiers en temps réel, recherche et
veille sur Internet. . .). Le facteur temps est ici très important : l’entreprise doit être capable de
réagir vite aux variations, fréquentes et peu prévisibles, des conditions financières découlant du
fonctionnement des marchés. c – Contrôle budgétaire
La majorité des entreprises utilisent des systèmes de gestion basés sur la prévision et le
rapprochement avec les faits observés. L’enregistrement puis l’analyse des écarts entre prévisions et
réalisations constituent la base informationnelle du contrôle budgétaire (voir figure 8). Système
d’information pour le contrôle budgétaire et système de comptabilité générale utilisent une part
importante de données communes.
La comptabilité est un domaine où la formalisation est forte : les données comme les traitements
sont définis, de manière rigoureuse, par les procédures comptables ; l’automatisation est donc
relativement facile. De très nombreux progiciels comptables sont disponibles sur le marché, dans
une gamme de prix très large.
Les variantes dans les réalisations concernent principalement : – les modes de saisie des écritures
(existence de contrôles plus ou moins poussés, mise à jour immédiate des comptes ou non.. .) ; – les
possibilités d’interrogation : accès à l’écran au solde du compte, possibilité d’affichage des écritures
selon un code nature, un code pièce, une date. . ., utilisation possible d’un langage d’interrogation ;
– les possibilités d’édition : édition limitée à des états standards ou possibilité de créer des rapports
variés en utilisant un générateur d’états, possibilité d’utiliser un tableur pour construire des
simulations. . . 2. Les facteurs clés de succès
Domaine bien connu, automatisé dès le début de l’apparition des ordinateurs, la gestion comptable
et financière connaît peu d’échecs d’informatisation : les solutions éprouvées existent sur le marché.
Deux questions se révèlent sensibles : a – celle de la qualité de la communication des logiciels
comptables avec les autres logiciels traitant les transactions et assurant l’alimentation en données.
La comptabilité est liée à la majorité des systèmes fonctionnels, par des échanges particulièrement
intenses dans les domaines de la gestion commerciale (facturation), gestion de la production et
approvisionnement (achats aux fournisseurs), gestion du personnel (paie). En raison du volume
élevé des données à échanger, il est impératif d’éviter toute saisie nouvelle des transactions et
d’assurer une communication automatique du logiciel fonctionnel vers le logiciel comptable. La
plupart des logiciels de comptabilité générale prévoient l’« importation » des données issues de la
facturation, de la paie ou des achats. Ils prévoient également une intégration vers l’aval sous forme
de : – facilités d’extraction des données comptables vers des tableurs ou des logiciels d’analyse ; –
communication complète vers des logiciels assurant le traitement des tableaux budgétaires et les
analyses d’écarts ;
b – celle de la sécurité : la comptabilité enregistre toutes les transactions à caractère monétaire ; elle
constitue un moyen de preuve en cas de conflit juridique ; elle doit fournir en permanence une
image fidèle, sincère, du fonctionnement et du patrimoine de l’entreprise. Les enjeux sont
importants et les risques réels puisqu’il y a manipulation de valeurs. Il faut donc assurer le
maximum de sécurité pour éviter les erreurs et les fraudes ; cela passe à la fois par le
développement de mesures de contrôle interne (qui a accès aux données ? qui peut mettre à jour ?
qui est autorisé à rectifier une écriture ?. . .) et par la mise en place de protections à l’intérieur des
logiciels (verrouillage des bases de données, contrôle par mots de passe, impossibilité de modifier
une écriture validée. . .). Les différents aspects des problèmes de sécurité seront repris de manière
plus détaillée dans la seconde partie de cet ouvrage ; il importe cependant de retenir que, concernant
le domaine comptable, cette exigence est
fondamentale pour que la comptabilité conserve sa valeur probante, qu’elle soit régulière et sincère,
qu’elle soit vérifiable
3. Conclusion En ce qui concerne le traitement des transactions, les systèmes d’information
comptables et financiers ont atteint leur maturité. Les réalisations actuelles apportent des solutions
commodes et sûres. En ce qui concerne la partie contrôle de gestion, le succès est davantage lié à la
cohérence entre les types d’informations produites et la structure des domaines contrôlés (donner
l’information pertinente au bon utilisateur) ; en ce qui concerne la gestion financière, les deux
questions clés sont, d’une part, de trouver des modèles satisfaisants pour l’aide à la décision, d’autre
part, d’assurer des communications rapides et sûres pour recueillir les données utiles (internes et
externes) au minimum de coûts et de délais.
1 4 2 Systèmes d’information pour la gestion des ressources humaines
La ressource humaine que représente l’individu a, par rapport aux autres ressources, des
caractéristiques très particulières. Elle n’appartient pas à l’entreprise et n’est pas considérée (au
moins du point de vue comptable) comme un élément de son patrimoine ; elle lui est liée par
contrat. Cette spécificité impose des contraintes aux systèmes de gestion de ces ressources :
nécessité d’assurer le recrutement, l’embauche puis la gestion des salariés (jusqu’à ce qu’ils quittent
l’entreprise), donc de suivre un flux de ressources évolutives par nature et partiellement
contrôlables. Ces spécificités se retrouvent dans les systèmes d’information pour la gestion du
personnel où l’utilisation des ordinateurs a commencé très tôt avec l’automatisation des opérations
de paie. 1. Les fonctionnalités
La figure 9 représente l’articulation par niveaux d’un système d’information pour la gestion des
ressources humaines (GRH) ; ce système inclut : – la gestion de l’emploi (définition des besoins,
recrutement, embauche, séparation. . .) ; – la gestion de la rémunération (politique de rémunération,
budgets de personnel, contrôle des charges du personnel, administration de la rémunération.. .) ; – la
gestion de la valorisation des individus (politique de promotion, gestion des carrières, évaluation,
formation. . .) ; avec des préoccupations de répondre aux besoins de l’entreprise et des individus par
le souci :
– de fournir la ressource correspondant aux besoins exprimés, – d’assurer le développement du
potentiel des individus, – de contrôler le coût, l’efficience et l’efficacité de la ressource. La figure 9
appelle quelques commentaires : – Au niveau du traitement des transactions, les volumes
d’information à traiter sont importants : traitements périodiques obligatoires comme la paie,
existence de nombreuses obligations entraînant la production de documents multiples (déclarations
URSSAF, caisses de retraite, caisse « chômage », déclarations fiscales. . .) vers de nombreux
partenaires. Ce caractère répétitif de travaux de fort volume explique le recours précoce à
l’ordinateur. – Au niveau du contrôle, on retrouve les formes habituelles du contrôle budgétaire.
Cependant, le développement des systèmes d’information à ce niveau peut se heurter à des
difficultés fondamentales telles que la définition d’indicateurs pertinents de performances (par
exemple, comment mesurer la performance d’un chargé de clientèle dans une banque, d’un médecin
dans un hôpital, d’un professeur dans une université. . .) : les bases informationnelles du contrôle
sont délicates à constituer. Dans les PME, les niveaux de planification tactique et stratégique sont
peu développés et peu formalisés ; les politiques d’emploi restent à l’état embryonnaire et il n’y a
pas de véritable programmation des recrutements, des promotions, des formations. La gestion se
fait, au cas par cas, avec une recherche limitée d’informations spécifiques. La gestion des
ressources humaines repose sur une base de données essentielle : la base de données « personnel »
décrivant les caractéristiques de chaque salarié. La figure 10 présente les éléments principaux
relatifs au contenu et au fonctionnement de cette base. Selon les cas, cette base est partiellement
automatisée (coexistence d’enregistrements numériques et d’un dossier « personnel » papier) ou
totalement automatisée (numérisation totale du dossier). En plus de cette base de données
principale, la gestion des ressources humaines utilise d’autres informations, en particulier : – les
données descriptives des connaissances et des compétences maîtrisées dans l’organisation ou
demandées par l’organisation. Ce problème complexe sera abordé dans le chapitre 5 consacré à la
gestion des connaissances une très grande quantité d’informations à caractère juridique, social ou
fiscal. La législation est très abondante et en perpétuelle évolution. Les problèmes de gestion
documentaire sont importants (voir chapitre 5).
2. Les facteurs clés de succès Les premiers systèmes informatisés ont, très tôt, automatisé le
traitement de la paie et la production d’états obligatoires (déclarations fiscales et sociales). Les
logiciels de paie offrent en outre : – la possibilité de consultation du fichier personnel par
interrogation à l’écran (limitée souvent aux informations administratives) ; – la communication de
données issues de la paie vers la comptabilité générale et la gestion de trésorerie. Beaucoup
d’entreprises sont restées à ce degré d’automatisation. Cependant, le développement récent des
possibilités de communication interne, via un réseau de type Intranet (voir chapitre 4), a mis
l’accent sur l’intérêt d’un recours accru aux TIC. L’Intranet est utilisé à différentes fins : – la
diffusion d’informations concernant les procédures RH dans l’entreprise, les éléments juridiques,
les comptes rendus du comité d’entreprise, le projet d’entreprise ; – information « mobilité,
carrières » correspondant aux offres d’emploi, aux descriptions de poste, aux procédures à suivre
pour candidature ; – information sur la politique de formation, le catalogue des formations, les
formulaires d’inscription ; développement d’une GESTION ADMINISTRATIVE AUTOMATISÉE
(partiellement en libre-service) EN LIGNE, pour la gestion des congés, la gestion des notes de frais,
la mise à jour du fichier personnel.. . Ce développement de la communication interne via ces
Intranet apporte des gains de productivité et une amélioration des relations entre salariés et
responsables de la GRH. Cette évolution de la GRH vers l’« e-GRH » 1 est particulièrement
importante pour le difficile problème de la gestion des connaissances (ce point sera traité dans le
chapitre 5). Facilement automatisable dans sa partie purement administrative, le système
d’information GRH rencontre cependant quelques difficultés classiques tant au niveau gestion des
transactions qu’à celui de l’aide à la décision.
Au niveau gestion des transactions, le problème spécifique dominant est celui de l’impact
relationnel de l’utilisation des technologies de l’information : le domaine
est celui de la gestion des personnes et implique donc la gestion de relations avec des individus et
avec des groupes (syndicats par exemple) ; ces relations sont parfois difficiles et ne doivent donc
pas être perturbées par une mauvaise utilisation des technologies de l’information. Sont donc
particulièrement importants : – le respect des délais (des salariés peuvent se mettre en grève parce
qu’il y a un retard dans l’établissement de la paie) ;
– le respect des textes législatifs, réglementaires et contractuels, ce qui suppose une documentation
à jour en permanence sur des ensembles de documents complexes ; – le respect de la confidentialité
sur toutes les informations concernant la vie privée des individus : cela impose des limites très
strictes aux possibilités de communication et d’interrogation de bases de données. La loi
informatique et liberté précise les principes essentiels de cette obligation ; – le maintien de formes
directes de communication pour les décisions importantes (affectation, promotion.. .) qui doivent
être « expliquées » aux intéressés. Il y a là une limite évidente à l’automatisation totale du système
d’information. Au niveau de l’aide à la décision, les difficultés sont essentiellement d’ordre
conceptuel, en particulier
: – des difficultés réelles à définir des indicateurs pertinents de la performance des individus dans
une organisation, donc de construire des bases informationnelles pour le contrôle des opérations
(difficulté des mesures de productivité et d’efficacité) ; – des problèmes de définition des
compétences pour les niveaux autres que ceux de l’exécutant de tâches élémentaires ; cette
difficulté complique la définition des besoins, donc les prévisions en matière de recrutement,
formation et affectation ; – l’incertitude concernant l’évolution des individus tant dans leur
motivation que dans leur compétence (peut-on prévoir quelle sera la compétence effective d’un
individu après une formation ou quel sera son comportement dans une nouvelle affectation ?). 1 3
Conclusion
Les systèmes d’information pour la gestion des ressources humaines sont très dépendants de la
perspective selon laquelle on aborde le problème de la ressource humaine dans l’organisation. Leur
succès dépend avant tout de la façon de combiner une partie automatisée efficiente dans les travaux
de routine et une partie manuelle capable d’assurer la qualité, la souplesse et la richesse dans la
gestion des relations entre individus. Il faut noter que la tendance à l’externalisation des
applications concerne aussi la fonction RH.
2 L’évolution vers l’intégration
La présentation, dans la première partie de ce chapitre, des différentes applications fonctionnelles
correspondant à la définition habituelle des différents domaines de la gestion répond à un souci de
clarté pédagogique. Elle ne saurait cependant masquer une réalité importante : dans la vie
quotidienne des entreprises, les problèmes concrets ne sont pas facilement décomposables en
sousproblèmes susceptibles d’être traités, de manière indépendante, par les spécialistes d’une
fonction (achat, production, conception, vente. . .). Cette non-séparabilité parfaite des problèmes qui
justifie l’existence de processus transversaux (concernant plusieurs fonctions) crée une réelle
difficulté pour la conception et le fonctionnement des systèmes d’information. Conçus à l’origine
sur une base fonctionnelle à l’intérieur de l’entreprise, les systèmes d’information de gestion
doivent pouvoir répondre aux besoins variés d’acteurs divers travaillant en collaboration pour la
poursuite d’objectifs communs. Cet impératif de coordination suppose un certain degré de
COHÉRENCE entre les différentes applications et pose le problème de l’INTÉGRATION des
différentes réalisations fonctionnelles, d’abord à l’intérieur de l’entreprise, ensuite à l’intérieur des
réseaux de partenariats de l’entreprise étendue.
Après avoir caractérisé le problème de l’intégration et ses différentes solutions, nous présenterons
deux exemples représentatifs : – celui de la réponse aux besoins de cohérence interne par le recours
aux progiciels de gestion intégrés ;
celui des systèmes d’information interorganisationnels développés dans des réseaux de partenariat.
–
– 2 1 La problématique de l’intégration
Après avoir précisé la nature du problème à résoudre (pourquoi intégrer ?), nous décrirons
sommairement les principales directions de solutions (comment intégrer ?). 2 1 1Pourquoi intégrer ?
La nécessité de l’urbanisation des SI Le besoin d’intégration des applications informatiques
s’explique à la fois par des contraintes organisationnelles et des contraintes technologiques. Il peut
s’exprimer, par analogie avec les problèmes d’urbanisme, au travers de la notion
d’URBANISATION des systèmes d’information. 1. Partager des données La notion d’application «
fonctionnelle » fait référence à un découpage classique de l’entreprise en fonctions (vente,
production, personnel.. .). Ce découpage de l’entreprise en sous-ensembles (fonctions,
départements, services. . .) est justifié pour bénéficier de la spécialisation des participants. Mais,
dans la pratique, aucun découpage ne permet de constituer des sous-ensembles totalement
indépendants et il y a nécessité d’organiser la coordination entre ces sous-ensembles, par des
échanges d’informations, par le partage de données communes. (Voir chapitre 4, première partie,
une présentation de la notion de coordination.) Exemple :
La figure 11 représente l’enregistrement d’une transaction commerciale dans une entreprise. Les
données qu’il contient ont été définies pour les besoins d’une application de facturation. Mais cette
ligne de facture décrit un événement (vente d’une certaine quantité de produit) qui ne concerne pas
seulement les responsables de la facturation mais aussi ceux chargés de la tenue du stock (c’est une
sortie de stock. . .) ou ceux chargés des études de marketing (analyse des ventes. . .). À partir de ces
données de base communes, on peut concevoir une logique d’intégration (suggérée figure 12)
étendant le domaine de l’application bien au-delà de son champ d’origine : la facturation. Cet
exemple, volontairement simplifié, montre bien l’intérêt du partage des données communes en
termes d’efficience (la même donnée, saisie une seule fois, et réutilisée par les différentes
applications) et de cohérence (l’unicité de la donnée garantit que « tout le monde parle de la même
chose »). Cet exemple montre aussi que, « lorsque l’on découpe, il faut aussi raccorder » et que,
quel que soit le découpage prévu, il sera nécessaire de prévoir des échanges de données, des «
messages », entre applications, pour traduire leur interdépendance.
2. Gérer des processus
Les données sont ainsi partagées au long des processus de gestion liés à des acteurs et à des métiers.
On parle de processus métiers dans la mesure où ces processus sont associés à des métiers. Un
processus métier est constitué d’un ensemble d’activités attribuées à des acteurs et décomposables
en tâches. Poursuivons l’exemple précédent en examinant comment est gérée la commande côté
client de façon idéale (cf. figure 13), c’est-à-dire avec des modules d’un même progiciel, par
exemple SAP. Ainsi le processus d’achat fait intervenir le service achat, le service réception et le
service comptable. Au départ, la demande d’achat est déclenchée par le service demandeur luimême équipé d’un module « Achat » (MM chez SAP). Elle doit faire l’objet d’une validation par un
ceratin nombre d’acteurs. Cette validation suit une séquence prédéfinie d’autorisation en fonction
de l’importance de l’achat. Un module de workflow (WF chez SAP) déclenche le passage à l’étape
suivante dans le circuit de validation à chaque fois qu’un décideur donne son aval. Puis elle aboutit
au service achat de l’entreprise qui émet la commande vers le fournisseur et l’adresse au service
réception pour le prévenir. À réception de la commande celui-ci déclenche la saisie de la facture par
le service comptable qui pourra émettre le règlement dans le module de comptabilité (FI chez SAP).
La saisie de la facture modifiera alors automatiquement les calculs de coûts dans la comptabilité
analytique et la gestion budgétaire (CO chez SAP). Dans cet exemple un processus achat est donc
géré par plusieurs acteurs appartenant à des services différents qui utilisent en partie les mêmes
données. Le partage d’une même base de données par un ensemble de modules d’un même
progiciel permet une gestion plus efficiente qu’une gestion par des logiciels distincts qui
modèleraient ce processus et obligeraient à des ressaisies. Un progiciel de gestion intégré offre cet
avantage.
3. Réduire l’hétérogénéité technologique
À ces raisons inhérentes au fonctionnement de toute organisation se superposent des raisons
d’origine technologique. Historiquement, pour des raisons de praticabilité, les différentes
applications fonctionnelles ont été réalisées successivement, à des époques différentes. En raison
du progrès technologique rapide, les différentes applications ont été réalisées sur des matériels
différents, avec des logiciels de base différents, des logiciels d’application programmés dans des
langages différents, utilisant des systèmes de gestion de données variés et des protocoles de
communication distincts. Après cinquante années d’informatisation, on observe, dans la plupart des
entreprise, la coexistence d’applications anciennes utilisant des systèmes d’exploitation «
propriétaires », des applications de type « client-serveur », des applications issues de la microinformatique et des applications centrées sur les technologies Internet. Cette coexistence s’explique
par la difficulté réelle et le coût de la mise à niveau d’une application lors de chaque changement
technologique et révèle toute l’importance de la maîtrise de l’évolution des SI. Aux conséquences
des choix organisationnels s’ajoute donc l’effet de l’hétérogénéité technologique pour conférer au
problème de l’intégration une importance majeure et accroître les difficultés de sa résolution.
4. Le concept d’urbanisation des systèmes d’information
La très grande majorité des villes se sont développées, au fil du temps, souvent sans plan préétabli.
Le développement anarchique de certaines d’entre elles se traduit par des phénomènes bien connus
(encombrement, pollution, coûts de maintenance très élevés. . .). « La métaphore de la ville a été
largement utilisée dans le domaine des systèmes d’information en raison de la similitude de la
problématique de départ : – Comment refaire, moderniser ? – Comment profiter des avancées
technologiques, sans faire table rase du passé, dans des limites de coûts maîtrisés tout en maintenant
la vie de la cité pendant les travaux ? » (C. Longépé, in Balantzian, 2002, p. 291).
L’urbanisation des systèmes d’information propose de passer d’un existant à une solution nouvelle,
la cible, par évolutions successives. Il s’agit d’assurer l’évolution du système pour répondre à
l’évolution des besoins tout en améliorant sa cohérence et son efficience. Le principe consiste
d’abord à décrire l’architecture des applications actuelles, en montrant les différents niveaux : – la
ZONE APPLICATIVE (grand ensemble fonctionnel) ; – le QUARTIER APPLICATIF (ensemble
d’îlots) ; – l’ÎLOT APPLICATIF (un programme, un module) ; puis à guider une évolution vers une
situation où chacun des blocs ainsi définis (selon le degré de précision, la zone, le quartier ou l’îlot)
correspond à un ensemble à l’intérieur duquel les données et les traitements sont fortement reliés et
ayant un couplage faible (donc une liaison faible) avec les autres blocs.
Le PLAN D’OCCUPATION DES SOLS (POS) d’un système d’information a pour objectif
d’organiser le SI en précisant
: – la mission de chaque application, de chaque bloc ;
– le regroupement des blocs en ensembles cohérents ; – le périmètre réservé aux futures
applications à construire ; – les règles que doivent respecter les concepteurs pour la
réalisation des futures applications. Ce POS joue le rôle d’un schéma directeur qui s’impose
aux « architectes » des futures applications. Celles-ci ne sont autorisées que si elles
respectent les contraintes du POS et leur conformité est vérifiée avant la mise en service.
– L’urbanisation des systèmes d’information apparaît donc comme une préoccupation
permanente visant à limiter les effets de la « prolifération technologique », à améliorer la
cohérence des découpages en applications et par conséquent à accroître l’efficience et
l’efficacité des SI. Si l’on considère que l’intégration est « l’opération qui consiste à
assembler les différentes parties d’un système et à assurer leur compatibilité ainsi que le bon
fonctionnement du système complet » (Petit Larousse, 1989), intégration et urbanisation
poursuivent le même objectif et apparaissent comme deux instants différents du même
processus de mise en cohérence et de pilotage de l’évolution du SI. 2
–
– 2 1Comment intégrer ?systèmes intégrés ou systèmes fédérés ?
–
– Le concept d’intégration peut s’appliquer à différents niveaux ou objets : unités
organisationnelles, processus, applications informatiques, logiciels de base et matériels.
Nous nous placerons ici, pour l’essentiel, au niveau des applications informatiques. À ce
niveau, on peut distinguer deux approches possibles du problème : – celle de l’intégration a
priori qui correspond aux systèmes pensés au départ pour former un tout cohérent ; – celle
de l’intégration a posteriori qui consiste à aménager les relations entre des systèmes conçus
de manière indépendante, pour constituer ainsi un système « fédéré » ou MÉTA-SYSTÈME.
Nous caractériserons rapidement ces deux approches. 1. L’intégration a priori : systèmes
intégrés L’analyse des besoins en information d’une organisation fait apparaître cette
dernière comme un ensemble de PROCESSUS INTERDÉPENDANTS.
–
– Le concept d’ARCHITECTURE D’INFORMATION, défini dans le chapitre 1, décrit très
clairement ces liens informationnels entre processus, utilisateurs et fournisseurs de données ;
il montre également les difficultés de tout découpage en sous-ensembles faiblement couplés.
C’est pourquoi, dès le début de l’utilisation des ordinateurs pour la construction de systèmes
d’information de gestion, s’est imposée l’idée d’un SYSTÈME INTÉGRÉ DE GESTION
UNIQUE, recouvrant l’ensemble des domaines fonctionnels et des différents niveaux de
pilotage. Ce véritable mythe du système intégré unique (désigné souvent par le vocable
anglo-saxon MANAGEMENT INFORMATION SYSTEM, MIS) s’est révélé être plutôt un
mirage en raison de la très grande complexité de sa réalisation. (En termes d’urbanisation,
cette solution correspondrait à la construction, en un temps très court, d’une ville entière,
définie complètement dès le départ. Cette solution a été parfois appliquée dans quelques cas
particuliers, par exemple La Grande Motte sur le littoral languedocien ; elle est praticable
pour une dimension limitée et se révèle discutable en termes d’évolution). Cependant, vers
le début des années 1990, des éditeurs de logiciels ont proposé, sous le nom d’ERP
(enterprise resource planning) ou de PGI (programmes de gestion intégrés), des solutions
s’inspirant de ce principe. Ce système intégré est composé de modules, conçus de manière
cohérente et partageant une base de données communes. Ces systèmes, standardisés mais
adaptables, connaissent un succès certain. Ils correspondent à une logique d’urbanisation
brutale, du type « big-bang » consistant à remplacer des « îlots disparates et mal construits »
(les anciennes applications) par des ensembles harmonisés, soigneusement reliés entre eux
(les modules du PGI). L’harmonisation porte non seulement sur la définition des données,
mais aussi, de manière plus profonde, sur une nouvelle conception des processus de gestion.
Cette solution sera décrite plus en détail dans le point 2 ci-après.
–
–
–
2. L’intégration a posteriori : systèmes fédérés
Séduisante dans son principe, l’intégration par PGI n’est cependant pas exempte de
critiques ; d’une part, l’ampleur des changements peut se révéler difficile à maîtriser, d’autre
part, le recours à un ensemble unique ne permet pas de s’équiper des logiciels les mieux
adaptés aux besoins de chaque fonction. C’est pourquoi des solutions « plus douces »
d’urbanisation, par intégration, a posteriori, ont été développées. Dès le début de
l’informatisation, les besoins d’échange entre applications ont été satisfaits par des
INTERFACES, des passerelles point à point, assurant le transfert des données entre les
logiciels d’application. Cela aboutit, dans le cas de n applications, à prévoir n (n – 1)
passerelles pour une intégration complète. La résultante de cette prolifération des liens est
un système d’information de type « spaghetti » (selon Abou-Mar B. et Rivard, p. 114), très
difficile à maintenir et à faire évoluer. Les solutions récentes, désignées par le terme EAI
(enterprise application integration), consistent à remplacer les liens multiples entre
applications par une PLATE-FORME D’ÉCHANGE CENTRALISÉE, assurant la
communication et les échanges entre applications par diffusion de MESSAGES. La figure
15 représente la logique de cette solution. La plate-forme d’intégration correspond
généralement à un ordinateur serveur spécialisé, équipé de logiciels de type MOM
(middelware oriented messages), permettant d’assurer des fonctions d’extraction de données
(de l’application source), de transformation (rendre les données compatibles avec les besoins
de l’application destinataire), de routage et d’acheminement.
Le processus d’intégration comporte une double transformation du flux de données : du format de
l’application d’origine à un format « pivot » puis du format « pivot » au format local de
l’application destinataire. Ce passage par le format pivot standardisé simplifie le traitement des
échanges et facilite l’évolution des liaisons entre applications (la connexion de nouvelles
applications destinataires n’entraîne aucune modification de l’application d’origine). Cette solution
a l’avantage de permettre une urbanisation progressive du système d’information ; elle laisse
subsister les applications existantes, si nécessaire, avec leur spécificité ; elle permet d’utiliser les
solutions les mieux adaptées aux contraintes locales. Plus que d’intégration, il y a fédération des
applications qui partagent les données en fonction de leurs besoins. On peut ainsi assurer
l’interopérabilité de solutions fondées sur des technologies et des logiciels de base différents. (Cela
est particulièrement utile dans le cas de systèmes d’information interorganisationnels reliant des
entreprises partenaires ; voir ci-après, paragraphe 2.3.) Remarque 1 : Les systèmes d’entrepôt de
données (data warehouse), gérant des données issues de différentes applications et assurant leur
mise en forme selon des formats communs, peuvent être considérés comme des outils d’intégration
a posteriori. Ces systèmes, utilisés surtout dans le domaine de l’aide à la décision, seront présentés
dans le chapitre suivant. Remarque 2 : Notre présentation a opposé les deux pratiques d’intégration
en insistant sur leurs traits distinctifs. Dans la réalité de la gestion des systèmes d’information, les
différentes approches peuvent être combinées. De nombreuses entreprises ont recours aux PGI, dont
elles implantent plusieurs modules (souvent dans les domaines fortement liés). Ces modules PGI ne
couvrent pas l’intégralité des besoins et laissent subsister des îlots spécifiques ; l’intégration de ces
îlots spécifiques et des modules ERP, dans un méta-système de type fédéré, est alors réalisée via le
recours à une plate-forme d’intégration. Assez fréquemment, un système d’entrepôt de données est
utilisé en parallèle pour les applications de type aide à la décision. On notera cependant que le degré
d’intégration est différent selon la méthode retenue. Par l’utilisation des PGI, l’entreprise améliore
son intégration par l’échange des données et, généralement, par une réingénierie de ses processus de
gestion (modification organisationnelle) ; le recours à la plate-forme d’intégration n’entraîne pas de
reconception des processus et limite l’intégration au partage des données.
2 2 Progiciels de gestion intégrés (PGI, ERP)
Les progiciels de gestion intégrés (PGI), désignés souvent par le terme anglais ERP (enterprise
resource planning), connaissent un développement accéléré depuis le début des années 1990. Visant
à réaliser le vieux rêve d’un système d’information unifié et cohérent, ils ont été développés, à
l’origine, par extension des systèmes de gestion de production de type MRP et sont conçus comme
une application informatique composée de modules permettant de gérer les différents domaines de
l’entreprise. Ces produits ont été développés par des éditeurs spécialisés (Oracle) et ont connu une
croissance importante dès le début des années 1990. Malgré le ralentissement de l’activité
économique, la croissance du marché reste positive. En 2006, seulement 17 % des entreprises en
France étaient équipées d’un ERP (source COI-TIC). L’implantation des ERP a entraîné un
développement considérable des activités de services et de conseils (indispensables pour
l’implantation). Limité au départ aux grandes organisations soucieuses d’assurer un minimum de
cohérence à l’ensemble de leurs applications principales, le marché des ERP s’est étendu
progressivement aux entreprises moyennes. Après avoir précisé la notion de PGI, nous discuterons
sommairement des problèmes spécifiques posés par ce type d’outil. 2 Notion de PGI
Après avoir défini les caractéristiques générales de tout PGI, nous illustrerons la notion par la
description sommaire d’un exemple très répandu : le progiciel R/3 de la société SAP. 1.
Caractéristiques générales Proposition de définition : un PGI est une application informatique
paramétrable, modulaire et intégrée, qui vise à intégrer et à optimiser les processus de gestion de
l’entreprise en proposant un référentiel unique et en s’appuyant sur des règles de gestion standards. .
Un PGI est un progiciel : c’est un ensemble de programmes conçus par un éditeur pour
correspondre aux besoins de plusieurs entreprises et commercialisé avec des prestations annexes
(assistance à la mise en place, formation, maintenance.. .). Les éditeurs les plus connus ont une
clientèle internationale ; le secteur est fortement concentré : les deux premiers fournisseurs (SAP,
Oracle) représentent plus de 70 % du marché. . Un PGI est paramétrable : produit standardisé, le
PGI est conçu à l’origine pour satisfaire les besoins d’entreprises diverses. Il existe généralement
des versions différentes par secteurs d’activité (automobile, banque.. .) et par langues d’utilisation.
En outre, l’adaptation du produit aux besoins d’une entreprise donnée se fait par paramétrage (choix
de règles de gestion, choix d’options de traitement, choix de format de données.. .). Le paramétrage
peut être assorti d’un recours à des compléments de programmes spécifiques articulés avec les
programmes standards (le volume de ces programmes spécifiques doit être limité pour que la
solution PGI reste justifiée). . Un PGI est modulaire : ce n’est pas une construction monolithique
mais un ensemble de programmes ou modules séparables correspondant chacun à un processus de
gestion : leur installation et leur fonctionnement peuvent être réalisés de manière autonome. Le
découpage en modules permet de composer une solution spécifique par assemblage et d’étendre la
mise en oeuvre de manière progressive à différents domaines de gestion.
. Un PGI est intégré : les divers modules ne sont pas conçus de manière indépendante ; ils peuvent
échanger des informations selon des schémas prévus (des interfaces standardisées). Ainsi, une
commande passée par un client est enregistrée dans le module gestion des commandes,
communiquée au module gestion des magasins, au module gestion des ordres de production. . .
Cette communication entre processus permet d’améliorer la cohérence interne et évite la
redondance des traitements.
. Un PGI s’appuie sur un référentiel unique : toutes les données ou les objets utilisés par les
différents modules sont définis d’une manière standardisée unique (format identique) et gérés par
un seul type de logiciel (très souvent, un système de gestion de bases de données relationnelles). De
la même manière, les interfaces homme-machine (communication des commandes par souris, écran,
langage de commande. . .) sont définies de façon identique quels que soient les modules. Cette
normalisation forte des données et des langages simplifie la communication et réduit les difficultés
d’apprentissage des utilisateurs. . Un PGI vise à optimiser les processus de gestion : à la
construction du PGI, le concepteur s’appuie sur des modèles de processus issus des « meilleures
pratiques » du secteur (on capitalise ainsi le savoir-faire des meilleures entreprises d’un domaine
d’activité donné). De l’analyse des meilleures pratiques, l’éditeur de progiciels obtient un ensemble
de règles de gestion qui constituent un standard de fait pour un secteur déterminé. La solution PGI
présente donc des avantages certains : – mise en oeuvre progressive puisqu’on implante le progiciel
module par module ; – cohérence entre applications différentes de la même entreprise : les données,
organisées selon les mêmes formats, peuvent être facilement échangées entre modules ; –
adaptabilité des solutions : les outils de développement fournis avec le PGI permettent de réaliser
des programmes spécifiques pour compléter ou remplacer des programmes standards. 2. Un
exemple de PGI : SAP R/3
SAP, entreprise allemande, est l’éditeur de PGI le plus important du monde. Son produit principal,
le progiciel intégré R/3, est composé d’un ensemble de modules adaptés aux besoins de différentes
industries (aéronautique, chimie, électronique, mécanique.. .) ou services (assurances, banques,
santé. . .). L’ensemble de ces modules est disponible dans plus de 20 langues ; il est conçu pour
fonctionner sur des systèmes d’exploitation de type client-serveur. Le progiciel R/3 est articulé en
trois domaines principaux : – finances : applications de nature comptable et financière ; –
logistique : gestion des flux ; – ressources humaines : tout ce qui concerne la gestion du personnel.
Comme le montre la figure 16, chacun de ces domaines se décompose en sous-ensembles et
modules et englobe l’essentiel des processus de toute entreprise. Dans chacun de ces modules sont
intégrés les traitements des informations pour les différents processus de gestion concernés. (Pour
SAP R/3, un processus est un ensemble d’activités utilisant et produisant des données.) Remarque
À côté de cet ensemble très complet de modules, R/3 propose également d’autres outils logiciels
(outils de workflow, d’entrepôt de données, de commerce électronique. . .). Avec ces modules
d’application, R/3 apporte également une infrastructure technologique (business framework) qui
comprend : – les logiciels de gestion de données permettant de gérer le référentiel unique (business
object repository) organisé selon la technologie « objet » (voir seconde partie, gestion de projet) ; –
des outils de modélisation, des langages de programmation ; – les interfaces utilisateurs (SAPGUI)
offrant une uniformisation des dialogues hommes-machines. Les dernières versions de SAP R/3
intègrent l’utilisation d’Internet.
2 2 2 Problématiques spécifiques
Le développement accéléré du marché des PGI démontre l’intérêt de ce type de produit pour les
entreprises. Cependant, l’introduction du PGI dans l’entreprise pose un certain nombre de
problèmes qui seront rapidement évoqués ici. 1. Les problèmes de mise en oeuvre Le projet
d’implantation d’un PGI est à la fois complexe et incertain car : – les besoins exprimés liés aux
processus de gestion sont mal connus et parfois mal formulés ; – il faut cumuler une connaissance
très détaillée (au niveau du processus) et une vision globale du fonctionnement de l’entreprise ; – le
PGI propose une vision standardisée du métier qui n’est que rarement transposable telle quelle à
une organisation particulière ;
– les adaptations doivent être négociées car les sources de conflits sont nombreuses (selon P.
Besson) : conflit sur le mode opératoire à retenir, conflit à propos des compétences nécessaires,
conflit lié aux modifications du pouvoir des acteurs ; – les ressources à investir sont importantes :
plusieurs millions d’euros pour les seules licences au départ dans des entreprises de grande taille, de
15 à 20 % de l’investissement initial les années suivantes.
Par conséquent, un tel projet d’implantation cumule des facteurs de risques liés à tout projet
informatique (voir chapitre 7, 2.2.2) : taille importante, difficultés techniques, importance du
changement organisationnel, étendue du domaine concerné, pluralité des intervenants (éditeurs,
sociétés de conseil, développeurs, équipe interne d’utilisateurs et d’informaticiens). Les utilisateurs
potentiels doivent être des maîtres d’ouvrage à la fois compétents dans leurs métiers et capables
d’un certain recul par rapport à leurs pratiques ; les consultants doivent à la fois maîtriser les
connaissances relatives aux métiers de leurs clients et celles relatives au produit PGI qu’ils doivent
implanter.
2. L’incertitude des impacts organisationnels
L’objectif essentiel des PGI est d’homogénéiser les systèmes d’information de l’entreprise par le
recours à une solution industrielle externe. L’introduction du PGI va donc tendre à renforcer
l’intégration en essayant de « forcer le consensus sur l’information de gestion ». L’impact sur
l’organisation est multiple : – modification des modes opératoires dans certains processus et
modification des compétences nécessaires ; d’où la nécessité d’actions de formation importantes
liées à la réingénierie des processus ; – augmentation du degré d’intégration entre départements et
services avec une certaine uniformisation des sous-cultures. Cette uniformisation favorise dans un
premier temps la cohérence dans l’organisation mais peut, dans un second temps, réduire la capacité
d’innovation de l’organisation en limitant la variété ; – assez souvent hausse du degré de
formalisation par l’automatisation de certains processus. Cette standardisation peut améliorer
l’efficience à court terme mais aussi limiter, voire interdire les expérimentations locales favorables à
l’apprentissage ;
– modification des rapports de pouvoir dans l’organisation. Un PGI peut avoir à la fois des effets
centralisateurs en améliorant les conditions du contrôle de gestion (uniformisation de la production
des rapports par exemple) et des effets décentralisateurs en permettant à tous les managers un accès
plus commode à l’information ; – modification de la distribution des connaissances au sein de
l’organisation liée à l’évolution des processus et à la modification des schémas de communication.
Or l’expérience comme les théories des organisations conduisent à rejeter l’hypothèse d’un
déterminisme technologique strict. Les évolutions réelles d’une organisation découlent d’une
conjonction particulière des différents effets rappelés ci-avant, effets modérés ou renforcés par le
processus de mise en oeuvre, les conflits entre acteurs, la latitude plus ou moins grande laissée par
l’outil. . . En définitive, l’impact de l’introduction d’un PGI sur le fonctionnement de l’organisation
est peu prévisible ; comme le dit P. Besson (1999) : « Un projet ERP peut être assimilé à un
laboratoire où se reconstruit de la cohérence organisationnelle. » Les résultats de cette
reconstruction sont incertains : il s’agit d’un processus émergent et non d’une action
rigoureusement plani
3. Les incertitudes stratégiques
Nous évoquerons ici deux aspects : celui du développement des systèmes d’information à usage
concurrentiel, celui de la flexibilité. En adoptant un PGI, produit standard, l’entreprise se lie pour
longtemps à un fournisseur et limite donc ses possibilités de création de systèmes d’information lui
procurant un avantage concurrentiel. Comme le souligne F. Rowe, « l’avantage ne peut plus venir
que du caractère novateur de l’objet de l’application et non de la façon dont l’application et
l’infrastructure sont elles-mêmes structurées et plus ou moins adaptées à l’organisation ». L’une des
rares possibilités d’améliorer la compétitivité reste alors de réussir la mise en place du PGI plus
rapidement que ses concurrents et/ou d’atteindre un meilleur taux d’utilisation. Par nature, la
véritable utilisation de systèmes d’information à avantage concurrentiel repose sur des réalisations
spécifiques et non sur des logiciels standardisés. La question de la flexibilité stratégique ne semble
pas non plus complètement résolue. L’entreprise confie à son partenaire (éditeur ou consultant) le
soin de faire évoluer les logiciels ; les coûts de maintenance sont élevés (20 à 25% du budget initial
chaque année) ; les coûts de sortie (renoncer au progiciel et changer de fournisseur) sont, selon
certaines estimations, de deux à six fois plus élevés que l’investissement initial. Enfin, l’expérience
montre qu’il est toujours plus difficile de modifier des systèmes intégrés que des logiciels séparés
(l’existence de liens multiples alourdit les modifications).
2 3 2 Conclusion sur la notion de PGI
Malgré un indéniable succès commercial, les PGI connaissent aussi des échecs. Le succès véritable
découle d’un équilibre subtil entre une adaptation trop coûteuse du progiciel aux caractéristiques de
l’organisation (qui réduit les avantages de la standardisation) et le changement trop brutal imposé à
l’organisation (qui peut entraîner des conflits et le rejet).
3 Le dépassement du cadre organisationnel : vers l’entreprise étendue
Le développement accéléré des technologies de communication (voir chapitre 4, 2) a apporté des
possibilités nouvelles dans la gestion des activités principales de la chaîne de valeur : logistique
amont, production, logistique aval, et entraîné des modifications dans la façon de concevoir les
systèmes d’information pour la gestion commerciale, la gestion de la production et celle des
approvisionnements dans les entreprises manufacturières. Conçus à l’origine dans le cadre strict de
l’organisation, ces systèmes d’information sont aujourd’hui développés dans un cadre
interorganisationnel représentatif du fonctionnement des entreprises organisées en réseaux. Ils
constituent le support essentiel de la gestion des flux physiques entre les différents membres du
réseau.
2 1 3 L’optimisation de la gestion des flux physiques
L’évolution des modes de production vers des formes de juste-à-temps a mis en évidence
l’importance de la logistique, c’est-à-dire « la technologie de la maîtrise des flux de matières qu’une
entreprise expédie vers ses clients (produits finis, pièces détachées), transfère entre des unités ou en
leur sein (demi-produits, en cours) et reçoit des fournisseurs et sous-traitants (matières premières,
fournitures) » (Paché, 1994). Selon la conception de l’optimisation retenue, les systèmes
d’information supports de cette gestion des flux diffèrent. La tendance dominante aujourd’hui est
celle d’une gestion intégrée de la chaîne logistique complète.
1. Les différentes logiques d’optimisation
La figure 17 présente les différents types de systèmes d’information correspondant aux différentes
logiques d’optimisation dans la gestion des flux et aux différents types d’intégration. L’approche 1,
la plus ancienne, correspond à une logique d’optimisation locale : des SI disjoints supportent les
processus d’achat, de production, de distribution, et la meilleure solution est recherchée, de manière
indépendante, au niveau de chaque fonction.
L’approche 2 correspond à une logique d’optimisation globale interne. Par le recours à un PGI (voir
ci-avant), on s’assure d’une bonne cohérence interne dans la gestion des différentes fonctions.
L’intégration est limitée à l’intérieur de l’entreprise.
L’approche 3 correspond à une logique d’optimisation conjointe dans le cadre d’une entreprise
étendue. Les SI fonctionnels sont définis par les partenaires de l’échange : fournisseurs pour la
logistique amont, clients pour la logistique aval ; ce sont des SI interorganisationnels avec un
aménagement des interfaces chez chaque partenaire de l’échange. L’intégration est étendue à
l’extérieur de l’entreprise. L’approche 4, la plus récente, correspond à une logique d’optimisation
par externalisation et flexibilisation. L’entreprise a recours à des marchés électroniques (plate-forme
d’achat, place de marché) qui assurent les fonctions essentielles d’intermédiation vers l’amont et
vers l’aval, avec sélection des partenaires. Les SI sont définis en commun avec les gestionnaires des
marchés électroniques. On peut parler dans ce cas d’entreprise virtuelle étendue, avec une
reconfiguration fréquente du réseau fournisseur-entreprise-client.
2. La gestion intégrée de la chaîne logistique
Qu’elle s’accompagne ou non de l’externalisation plus ou moins complète des fonctions logistiques,
la tendance dominante actuelle est la reconnaissance de l’intérêt d’une gestion intégrée de la chaîne
logistique reliant les différents partenaires. Cette notion de chaîne logistique reliant les différents
partenaires du réseau (figure 18) montre que le problème essentiel est d’assurer la continuité et la
fluidité des flux physiques, des flux financiers entre différents partenaires (client, transporteur,
fournisseur. . .) par une exploitation optimisée globalement des flux informationnels propre à
assurer la coordination des activités de chacun. On aboutit ainsi au concept de supply chain
management (SCM), c’est-à-dire à une gestion intégrée, par plusieurs partenaires, de la chaîne
logistique reliant les fournisseurs et les clients. Il y a optimisation conjointe d’une série de chaînes
de valeur reliant les différents partenaires avec une minimisation des coûts pour l’ensemble des
intervenants de la chaîne, généralement associés dans une relation forte et durable. Cette nouvelle
conception des relations client-fournisseur a des conséquences importantes pour la construction des
SI fonctionnels dans les entreprises.
2 2 3 Les conséquences pour les systèmes d’information
La recherche d’une optimisation conjointe dans la gestion des flux implique une collaboration entre
partenaires pour définir en commun des systèmes d’information interorganisationnels (ou au
minimum des interfaces compatibles) correspondant aux processus partagés. Cette mise en commun
propre à assurer une bonne coordination dans les échanges a deux conséquences principales pour les
systèmes fonctionnels de ce type : – elle introduit des difficultés supplémentaires ; – elle impose des
critères d’évaluation différents. 1. Des difficultés supplémentaires Même si l’on suppose que les
différents partenaires se font suffisamment confiance pour collaborer efficacement, l’extension des
SI au-delà des frontières de l’entreprise pose de réels problèmes : – d’interopérabilité, capacité des
matériels et des logiciels à fonctionner ensemble via des réseaux de communication
d’interfonctionnement, accès réciproque aux données et aux ressources nécessaires lors des «
passages de relais » entre multiples systèmes souvent hétérogènes (Fabbe-Costes, p. 179). La
difficulté principale de la mise en place d’une chaîne logistique intégrée réside dans l’existence de
systèmes informatiques hétérogènes qui doivent être adaptés par une mise en oeuvre coûteuse.
L’existence de normes et de protocoles standardisés pour l’échange de données informatisées (EDI,
Internet) ne résout pas toutes les difficultés. Cela explique le développement encore limité de ce
type de solution. Le recours aux plates-formes d’intégration apporte des améliorations certaines
dans la gestion de ces échanges.
2. Des critères d’évaluation différents
La mise en place des systèmes de ce type obéit à des logiques d’optimisation conjointe de
l’ensemble de la gestion des flux. Pour répondre correctement à ces objectifs, ils doivent concilier
deux impératifs : – celui de la rapidité de réponse (quick response) à la demande du client,
répercutée tout au long de la chaîne. Cette notion de quick response a été élargie à la notion
d’efficient consumer response (ECR), où, grâce au traitement rapide des informations, on réduit les
coûts de la chaîne d’approvisionnement tout en diminuant le délai de réaction ; – celui de la sécurité
de fonctionnement : parce qu’ils supportent les processus essentiels de l’entreprise, ces systèmes
d’information doivent pouvoir fonctionner en permanence, sans erreurs, en résistant aux tentatives
d’utilisation frauduleuse (en particulier en matière de paiement). L’expérience montre que ces deux
impératifs ne sont pas toujours faciles à concilier. Pour résumer L’étude des systèmes d’information
fonctionnels, spécifiques ou standardisés montre que : 1. L’évaluation des apports d’un système
d’information dans un domaine ne doit pas se limiter au domaine qu’il couvre mais être appréciée
au niveau de l’ensemble de l’organisation. 2. La cohérence organisationnelle (entre domaines et
entre niveaux de gestion) se réalise par le partage de représentations communes. Le recours à des
référentiels uniques (bases de données, répertoire d’objets) est un puissant facteur d’intégration. 3.
La définition des caractéristiques d’un système à construire, donc l’exercice d’une maîtrise
d’ouvrage efficace, exige une connaissance précise du domaine d’application. Cette connaissance
spécifique doit être détenue par les utilisateurs (spécialistes du métier) et non par les informaticiens
(spécialistes de l’outil).
Chapitre 3 L’aide à la décision
1. Les trois visions théoriques de la décision
2. Les outils d’aide à la décision individuelle
Au terme de ce chapitre, vous devez être en mesure
. de présenter les différents aspects du concept de décision dans l’entreprise . de décrire les
différentes rationalités sousjacentes dans une prise de décision . de connaître les différents outils
d’aide à la décision individuelle . de connaître les principes de base de l’intelligence artificielle en
termes de savoir-faire : .
d’expliquer, dans une étude de cas, à quel modèle théorique se rattachent une pratique ou un outil de
décision dans l’entreprise.
Une des justifications fondamentales du développement des systèmes d’information est d’assurer le
lien entre informations et décisions.
Mais pourtant ce lien n’est ni simple ni linéaire, c’est pourquoi il convient d’abord d’avoir une
vision théorique du concept de décision, qui en accepte sa complexité sinon son ambiguité. C’est en
gardant à l’esprit les différentes facettes de la « rationalité » que l’on peut ensuite comprendre le
rôle et l’importance des outils d’aide à la décision : tableaux de bord, entrepôts de données,
intelligence artificielle. . . L’observation du fonctionnement d’une organisation montre que la
conduite de son activité repose sur la prise de décisions variées à la fois dans leur niveau
(opérationnelles ou stratégiques) et dans leur fréquence (répétitives ou exceptionnelles).
Un premier exemple : la décision d’adopter un ERP. L’émergence des ERP est un des principaux
facteurs de changement organisationnel dans les entreprises au cours de ces dernières années. La
décision d’adopter un ERP est un exemple de trois rationalités possibles (et peut-être
complémentaires) : la rationalité calculatoire, la rationalité procédurale et la rationalité mimétique.
On pourrait d’abord, assez classiquement, considérer la décision d’adopter un ERP comme un
CALCUL, suivant l’idée qu’un ERP est un investissement qu’il faut réaliser s’il crée de la richesse
et que cette richesse peut être estimée à partir de différents critères proposés par la théorie
financière. Pourtant, une étude portant sur 58 entreprises (dont 37 qui ont adopté un ERP) montre
que seule la moitié de ces entreprises avaient calculé un taux de rentabilité et à peine un tiers
avaient calculé une valeur actuelle nette du projet (Pupion et Leroux, 2006). Le calcul apparaît donc
plutôt comme un élément pour une justification éventuelle.
On pourrait ensuite considérer la décision d’adopter un ERP comme un contrat, comme une
PROCÉDURE politique de négociation, car la portée de l’application des systèmes ERP, leur
complexité et leur niveau élevé d’intégration représentent des défis importants et de nombreux
facteurs de risque : taille du projet, difficulté technique, périmètre du projet. . . L’étude portant sur
58 entreprises montre en effet que ce sont les caractéristiques perçues de l’ERP qui déterminent en
fait le comportement d’adoption des décideurs (notamment pour les entreprises qui ont adopté).
Tous les attributs ont été notés au-delà de 4 sur 6 sur une échelle d’importance perçue :
compatibilité avec la stratégie du secteur, avantages en termes de gestion d’information et prise de
décision, avantages stratégiques, avantages organisationnels, complexité et risques techniques,
complexité et risques organisationnels. La décision d’adopter un ERP peut enfin être considérée
comme une « vision organisante », comme une construction de sens par MIMÉTISME.
Reconnaissant l’impossibilité d’une information parfaite, le comportement rationnel repose alors
sur l’information et la communication du comportement des autres (le respect du code de la route
est un exemple d’une convention permettant de décider sans calculer). Il y a mimétisme rationnel
dès lors que l’adoption d’un comportement par une unité de décision accroît pour les autres la
probabilité d’en faire autant : l’étude portant sur 58 entreprises a montré que 54 % déclarent avoir
été influencées fortement par le choix effectué par d’autres sociétés reconnues comme
performantes, 43% par le choix fait par les sociétés jugées innovantes, 40 % par le choix réalisé par
des sociétés reconnues comme leaders dans le secteur.
Un deuxième exemple : la décision d’approvisionnement Dans une organisation, un individu (que
nous appellerons décideur) exerce son activité de la manière suivante :
– il doit poursuivre un objectif propre (qui est, en principe, lié aux objectifs de l’organisation) ; – il
est doté de variables de décision (ou variables de commande, ou variables d’action) qui représentent
sa capacité d’action, définie par son rôle dans l’organisation. Ces variables de décision
correspondent à sa latitude décisionnelle, son pouvoir, lui permettant d’effectuer des choix ; – il
applique, pour effectuer ses choix, un modèle de gestion, c’est-à-dire un ensemble de règles. Une
représentation des plus simples d’un modèle de gestion peut être constituée d’une matrice, appelée
souvent « fonction de décision ».
Cette matrice présente, d’une part, les variables d’action, d’autre part les « états du monde », c’estàdire les conditions dans lesquelles la variable d’action doit être choisie. Les valeurs contenues à
l’intérieur de la matrice sont celles d’un critère exprimant la valeur espérée de l’objectif. Ainsi, rij
correspond à la valeur de l’objectif susceptible d’être atteinte lorsque le gestionnaire choisit ai et
que l’« état du monde » est xj. Exemple
Le tableau ci-dessous résume le modèle de gestion d’un vendeur de journaux qui décide du nombre
de journaux qu’il achètera (a, variable d’action) pour revendre, en fonction de la demande supposée
(x, état du monde). Son objectif est de maximiser son gain (fonction du nombre de journaux vendus
mais aussi du nombre de journaux achetés et non vendus). Le problème général auquel est confronté
le gestionnaire peut s’exprimer sous la forme suivante : si xj. . . alors choisir. . . ai pour optimiser
une fonction de rij. Remarque
Dans le cas ci-dessus, si la demande exprimée (x) est égale à 20, alors le gestionnaire décide
d’acheter 20 journaux (a), ce qui lui assure le gain le plus élevé : 20. Ces exemples, de dimension
limitée, montrent cependant l’importance de l’activité de décision pour la gestion. Il n’est donc pas
surprenant que, compte tenu des liens apparents entre information et décision, on ait cherché à
utiliser les technologies de l’information pour assister la prise de décision. Le domaine de l’AIDE À
LA DÉCISION constitue donc une partie importante et relativement ancienne du champ des
systèmes d’information. Cependant, pour bien situer à la fois l’intérêt et les limites de l’aide à la
décision, il est nécessaire de bien comprendre en quoi consiste le PROCESSUS DE PRISE DE
DÉCISION. C’est pourquoi nous présenterons tout d’abord différentes visions de ce processus de
décision pour ensuite présenter les principaux outils d’aide à la décision individuelle (les problèmes
de la décision collective seront abordés dans le chapitre suivant).
1 Les trois visions théoriques de la décision
Dans la réalité quotidienne de la résolution des problèmes, l’activité du gestionnaire ne se réduit pas
à explorer les lignes et les colonnes d’un tableau bien construit, comme le suggère la théorie
standard de l’optimisation qui fera l’objet du point 1.1. Le décideur s’engage en fait dans un
processus complexe aboutissant à la prise d’une décision après utilisation des seules informations
disponibles, dans un certain contexte (espace et temps). Pour bien situer la notion d’aide à la
décision, il est donc important de décrire comment se déroule le processus de résolution des
problèmes (en particulier quelles sont les modalités d’utilisation de l’information). La théorie
standard étendue du processus de prise de décision fournit des éléments fort utiles pour comprendre
l’apport potentiel des technologies de l’information : elle sera l’objet du point 1.2. Mais on peut
également montrer que cette vision standard étendue a des limites, qu’elle n’intègre pas toute la
complexité du processus de résolution de problème et que, par conséquent, il est nécessaire
d’inclure une autre conception de l’aide à la décision ; cette discussion sera l’objet du point 1.3 sur
les visions critiques de la décision
1 1 1 La vision économique de la décision
La théorie économique normative décrit le comportement d’un décideur dans une logique de «
conséquence », c’est le modèle théorique de « l’Homo Economicus » : – Les individus sont
rationnels : ils optimisent leur fonction d’utilité (systèmes de préférences, aversion au risque. . .) ou
leur fonction de production (capital et travail, productivité marginale décroissante. . .). – La
concurrence pure et parfaite sur les marchés (transparence, atomicité, homogénéité, libre entrée)
conduit à une utilisation optimale des ressources (« optimum de Pareto »). Cet équilibre
concurrentiel n’est plus efficient, dès lors qu’existent des monopoles, des biens collectifs, des effets
externes ou des coûts de transaction. Pour l’analyse dite néo-classique, la décision se borne donc à
un calcul : « si on possède toute l’information nécessaire, si on raisonne à partir d’un ensemble
donné de préférences et si on connaît l’ensemble des moyens techniques disponibles, ce qu’il reste à
résoudre n’est qu’un problème de pure logique » (F. von Hayek, 1945) : a) Quelles sont les actions
possibles ? b) Quelles sont les conséquences à attendre de chacune de ces actions ? Probabilité ?
Risque ? c) Quelle est la valeur pour le décideur (on parle ici de « l’utilité ») de chaque
conséquence ? d) Enfin, quelles règles de décision : comment choisir parmi les alternatives pour
maximiser la valeur moyenne de la « fonction d’utilité » ? (Cette fonction d’utilité est un système
de préférences, c’est-à-dire un classement des conséquences, en fonction de critères comme le
profit.) Le dilemme des prisonniers, typique de la « théorie des jeux » en économie, élargit cette
problématique du calcul à la collaboration.
Il y a quatre peines possibles pour deux complices prisonniers, avec D05D15D25D3 : – si aucun
des deux n’avoue (ils collaborent entre eux) : une peine courte D1 pour chacun ; – si les deux
avouent : une peine longue D2 pour chacun ; – si l ’un des deux avoue et pas l’autre : celui qui
avoue (il rompt la collaboration entre eux) a une peine très courte D0, mais celui qui n’a pas avoué
a une peine très longue D3. Avec le critère « minimax », il faut minimiser la perte maximale, il faut
donc qu’ils avouent tous les deux. Mais avec la coopération, il ne faut pas avouer au premier
interrogatoire, puis reproduire la réponse précédente de l’autre, en maintenant un équilibre à long
terme dans lequel personne n’avoue malgré l’incitation évidente (l’intérêt commun des malfaiteurs
est de ne pas avouer, bien que chacun puisse personnellement avoir intérêt à avouer). On appelle
équilibre de Nash toute combinaison de stratégies (une par joueur) où chacun anticipe correctement
ce que les autres vont faire, et aucun joueur ne regrette son choix après avoir constaté celui des
autres. Les développements mathématiques deviennent extrêmement sophistiqués, mais dans de
nombreuses situations, des équilibres multiples apparaissent, et les hypothèses de la théorie des jeux
sont insuffisantes pour déterminer les choix stratégiques à partir de considérations uniquement
rationnelles. Il n’y a pas de « solution » au sens mathématique. On représente en général les
différents déroulements possibles par un arbre. Suivant les issues possibles, et leurs probabilités, il
existe des algorithmes pour déterminer le « meilleur choix ». On peut simuler l’incertitude en
introduisant un joueur non stratégique, la « Nature », qui peut prendre aléatoirement certaines
décisions à telle ou telle étape du jeu, orientant alors la suite du jeu vers un certain sous-arbre de
l’arbre du jeu. Le dilemme du marché des voitures d’occasion est typique de la « théorie des
contrats » et de l’asymétrie d’information : il y a asymétrie d’information car avant le contrat seul le
vendeur connaît l’histoire et l’état véritable de la voiture (situation dite d’information cachée, ou de
sélection adverse). L’autre situation d’asymétrie est celle où l’une des parties ne peut contrôler le
comportement de l’autre partie après le contrat (ce sont des situations dites d’action cachée, ou de
hasard moral, que l’on retrouve beaucoup dans le domaine du contrat d’assurance ou du contrat de
travail). On définit une « relation d’agence » comme un contrat par lequel une personne (le
principal) engage une autre personne (l’agent) pour exécuter en son nom une tâche qui implique une
délégation du pouvoir de décision (confier la vente de sa maison à un agent immobilier). L’agent est
donc tenté de se comporter dans son propre intérêt et d’annoncer au principal mal informé que les
mauvais résultats sont le fait d’événements indépendants de sa volonté. La théorie suppose des
comportements de maximisation très sophistiqués qui conduisent à des contrats complexes, mais
n’ont pas toujours d’implications pratiques. C’est toutefois la théorie de l’agence qui est à la base de
la rémunération des managers par des « stock options » : le contrat impose ainsi au manager de
travailler pour faire monter le cours de l’action et profiter ainsi de sa rémunération par plus-value, le
tout au profit de l’actionnaire.
1 2 1 La recherche opérationnelle
On date habituellement la naissance de la recherche opérationnelle (RO) au moment de la
Deuxième Guerre mondiale, quand l’armée fit appel à des équipes de mathématiciens et de
physiciens pour analyser des problèmes militaires (organisation des convois maritimes, des réseaux
de radars. . .). Cette approche mathématique des problèmes de décision a été transposée au monde
économique et industriel où elle a connu de nombreux succès. L’objectif de la recherche
opérationnelle est l’aide à la décision par une modélisation mathématique des problèmes courants :
le but n’est pas de « prendre la décision » mais de clarifier le contexte dans lequel la décision sera
prise, on cherche à garantir non pas la valeur du résultat mais l’optimalité de la décision. La théorie
des graphes est la branche des mathématiques qui est le support théorique principal (algorithmes
pour les problèmes d’ordonnancement, de réseaux de transport, de chemin optimal), mais on utilise
également la programmation linéaire pour les problèmes d’affectation (résolution de systèmes
d’équations et d’inéquations linéaires, méthode du simplexe) et le calcul des probabilités (espérance
mathématique, théorie des files d’attente, simulation d’échantillon, méthodes de choix
multicritères). Pour un mathématicien, un choix réel ne peut se faire qu’en connaissance de
cause. . . mais comme on ne peut pas attendre de tout connaître avant d’avancer, l’utilisateur
applique en fait des modèles mathématiques « toutes choses égales par ailleurs », et en admettant
que « toutes les hypothèses sont vérifiées ». On trouve alors une solution « optimale », mais en
général les contraintes sur le terrain font que l’on doit se contenter d’une solution « pas trop loin de
l’optimum » (de quoi faire pleurer le mathématicien).
Les applications sont pourtant impressionnantes. On estime le gain annuel apporté par CPOS à 50
millions de dollars : ce logiciel, Crew Pairing Optimization System développé par IBM et SABRE,
permet de planifier l’affectation des équipages d’avion pour les différents vols. Toujours dans le
transport aérien, les compagnies affirment que les tactiques développées et gérées grâce aux
méthodes de RO leur font gagner plus d’un milliard de dollars par an sur le problème de gestion des
stocks complexes, comme les places d’avions : vaut-il mieux vendre des sièges maintenant, au prix
que les clients sont prêts à payer aujourd’hui, ou conserver ces sièges pour les vendre demain ou en
dernière minute à un prix plus élevé ? Dans les logiciels ERP, les modules de gestion des stocks, de
planification de production, d’ordonnancement de projets. . . reposent sur l’utilisation des modèles
classiques de RO. Et dans le monde financier des modèles extrêmement complexes, faisant appel à
l’optimisation stochastique et à la simulation numérique, sous-tendent de nombreuses décisions
prises par les gestionnaires de fonds d’investissement et fonds de pension.
12 La théorie standard étendue de la décision : la rationalité procédurale
Le modèle classique issu des travaux de H. Simon (modèle IMC) apporte une représentation
dynamique du processus de résolution de problème. Le découpage en phases qu’il propose permet
de bien caractériser les formes d’aide à la décision. Comme le décideur a une rationalité « limitée»
par ses capacités et ses connaissances, son comportement sera « satisfaisant » et non pas «
optimisant », sa conduite sera orientée par son environnement psychologique, lui-même influencé
par l’organisation. Ici ce n’est pas le résultat qui est rationnel, mais c’est la procédure suivie, il
s’agit d’une « rationalité procédurale ». Et on peut expliciter et améliorer les heuristiques et les
règles empiriques sur lesquelles un décideur fonde son comportement (que ce soit un gestionnaire
ou un joueur d’échecs) : itérations et rétroactions nombreuses, appel à l’expérience, intuition et
jugement, simulation de l’impact des heuristiques
1 1 2 Le modèle « intelligence-modélisation-choix » (IMC)
1. La structure du modèle L’analyse du processus de décision proposé par H. Simon permet de
mieux comprendre le déroulement des différentes phases de résolution ; Simon distingue quatre
phases. La première phase correspond à l’identification du problème (« De quoi s’agit-il ? »). On
notera ici que le mot « intelligence » correspond au sens «militaire » du terme, celui de la recherche
du renseignement. La deuxième phase est celle de la conception et de la formulation des voies de
solution possibles ; on définit des scénarios de réponse à travers des modèles d’action. La troisième
phase est celle du choix d’une action possible parmi les différentes voies explorées dans la phase
précédente. Il est possible, par exemple, d’utiliser un modèle de gestion selon le principe décrit dans
le paragraphe précédent. La quatrième phase correspond à l’évaluation de ce choix provisoirement
reconnu ; il peut être validé ou remis en cause avant sa mise en oeuvre (ou éventuellement après un
début de mise en oeuvre). La remise en cause entraîne un retour vers une ou plusieurs des phases
précédentes. Ce modèle du processus de prise de décision proposé par Simon met en évidence deux
points fondamentaux :
– la nécessité d’une définition du problème ;
– la rationalité limitée dans la recherche des solutions. . Premier point : l’importance de la phase de
définition « Problem finding » Notre environnement nous fournit plus de stimuli que nous ne
pouvons en traiter. Par conséquent, nous prévenons la surcharge d’information par un processus de
filtrage de l’information. Nous avons tendance à créer un espace de résolution de problèmes, un «
lieu de travail » conceptuel pour structurer et limiter l’entrée de l’information et des méthodes de
traitement. Dans le domaine de la gestion, les problèmes ne sont pas toujours définis a priori. Une
situation devient problématique lorsque la réalité observée (les signaux reçus) ne correspond pas à
ce qui était attendu ; c’est l’existence de ces différences qui révèle un problème. Un exemple
classique est de la gestion budgétaire où les écarts (réel-budget) constituent des signaux révélateurs
d’une situation éventuellement problématique. La situation sera reconnue comme posant un
problème si : – la différence est perçue comme telle, donc significative, par le gestionnaire ; – le
gestionnaire souhaite modifier cette situation et peut le faire. Dans la majorité des cas, le problème
ne peut être défini objectivement mais subjectivement en fonction de la perception du gestionnaire.
Il est donc possible, à partir des mêmes différences observées, de construire différents modèles de
problèmes, donc, concrètement, d’identifier des problèmes différents. Exemples – À partir des
mêmes signes cliniques (aspect du patient, température, tension artérielle), il est possible que des
médecins établissent des diagnostics différents. – Une baisse des ventes d’un produit dans une
région par rapport aux prévisions peut être identifiée comme un problème de représentant (vendeur
peu performant) ou comme un problème de compétitivité du produit par rapport à un concurrent. La
phase d’« intelligence » du problème apparaît ainsi comme capitale pour la recherche d’une solution
et l’art du gestionnaire consiste d’abord à définir le vrai problème avant de trouver la bonne
solution. Il importe, donc, de bien distinguer la phase d’identification du problème de la phase de sa
résolution. Cependant, cela ne doit pas conduire à la conclusion que le processus est
automatiquement séquentiel. Comme le montrent les flèches de la figure 1, le processus est itératif ;
on peut être amené, lors des phases ultérieures, à remettre en cause l’identification première du
problème. . Second point : la rationalité limitée dans la phase « Problem solving » La phase de
modélisation : nous utilisons des modèles de référence, ou modèles intuitifs d’acquisition et de
traitement de l’information : à mesure que nous acquérons de l’expertise dans certains domaines,
nous élaborons et utilisons des modèles de référence de façon plus ingénieuse pour mieux contrôler
les stimuli qui nous entourent. Les êtres humains créent naturellement des concepts comme modèles
de pensée.
La phase de choix : les êtres humains font enfin appel à l’ancrage, c’est-à-dire qu’ils utilisent
l’information déjà emmagasinée pour juger des stimuli du même type. Ils utilisent alors les
analogies et les métaphores pour faire des associations entre les phénomènes naturels de leur
environnement. Ils font des inférences en se fondant sur leur savoir et sur des règles de conduite
(heuristiques).
Dans le modèle IMC, on ne recherche plus « la » solution optimale, mais une solution jugée
satisfaisante. La rationalité n’est plus substantive (obtention de l’optimum défini par la fonction
d’utilité) mais procédurale (respect d’une certaine procédure de choix). On parle alors de rationalité
limitée dans le processus de décision, limitée, en particulier, parce que l’on ne recherche
généralement pas toutes les alternatives possibles.
Remarque Mintzberg et al. ont proposé une décomposition du modèle IMC en sept procédures
principales, mettant notamment l’accent sur la phase finale d’implantation de la solution. 2. Les
conséquences du modèle IMC sur le plan de l’information Par rapport au modèle statique des
théories de la décision, le modèle du processus de prise de décision constitue une représentation
plus réaliste du comportement du décideur dans une organisation. Si l’on adopte ce modèle
descriptif, compte tenu des remarques précédentes, il apparaît trois implications importantes sur le
plan de l’information : a – L’existence de contraintes de temps
La prise de décision se déroule dans un intervalle de temps borné ; par conséquent les activités de
recherche d’information, de modélisation, de choix sont soumises à des contraintes parfois sévères
(situation d’urgence par exemple). Ces contraintes de temps sont une des causes de limitation de la
rationalité calculatoire (on n’a pas le temps de rechercher de l’information ou d’explorer une
hypothèse supplémentaire). b – L’existence de contraintes de coût Dans la plupart des cas, en
particulier dans la phase d’identification du problème, les informations utiles ne sont pas toujours
présentes. Il faut donc déclencher une recherche d’informations. En pratique, le gestionnaire doit
continuellement choisir entre « décider de décider maintenant avec l’information disponible » et «
décider de chercher de l’information complémentaire avant de décider ». Ce choix correspond à un
modèle de gestion de l’information, à l’intérieur du processus de prise de décision, où interviennent,
entre autres, des variables telles que le coût d’obtention ou le délai d’obtention de l’information
supplémentaire. c – Les formes variables de traitement de l’information : algorithmiques
heuristiques Dans la réalité des organisations, les différents problèmes se prêtent, plus ou moins
facilement, à une modélisation commode à manipuler. Cela conduit à distinguer les décisions selon
leur degré de structuration. Par nature, les problèmes de décision sont plus ou moins structurables,
mais leur degré de structuration effectif dépend de la capacité du décideur à analyser le monde réel,
à le conceptualiser ; donc de sa capacité d’abstraction et de modélisation.
Ce degré de structuration aura une conséquence très nette sur le déroulement du processus de
décision où apparaissent de nombreux retours en arrière, des tâtonnements, des recherches de
solutions existantes, des jugements de valeur remplaçant des calculs d’évaluation, des phases de
négociation, dès l’instant où le problème est mal structuré. Si le problème pouvait être totalement
exprimé par un modèle calculable, le processus de prise de décision se réduirait à l’exécution d’un
calcul ; on parle alors de pseudo-décision, de type algorithmique. Un algorithme est un procédé de
calcul qui permet, après un certain nombre d’étapes, d’aboutir au résultat recherché. Dans de
nombreux cas, le modèle du problème n’aboutit pas à une formulation de type algorithmique ; mais
l’expérience passée permet de repérer des solutions considérées comme satisfaisantes et de définir
certaines règles permettant, en général, de les atteindre. De telles règles sont appelées heuristiques ;
à la différence d’un algorithme, elles ne produisent pas dans tous les cas le résultat visé. En
pratique, il n’existe pas de dichotomie entre problèmes structurés et problèmes non structurés mais
un continuum du degré de structuration allant de décisions de type algorithmique (très fortement
structurées) à des décisions de type
« politique » (très faiblement structurées). Cette variation du degré de structuration entraîne des
variations dans le déroulement du processus de prise de décision (tant dans sa phase de
modélisation que dans la phase de choix) et des variations dans la façon de traiter les informations.
3. Décision programmable et décision non programmable H. Simon propose de distinguer les
décisions programmables des décisions non programmables. – Les décisions programmables sont
fortement structurées ; si elles sont susceptibles d’un traitement algorithmique, elles peuvent
effectivement être traduites par un programme d’ordinateur qui exécutera l’algorithme ; elles sont
alors « programmées » au sens informatique du terme. Si leur degré de structuration ne permet pas
cette solution, il autorise, dans certains cas, la mise au point d’une procédure de traitement,
partiellement automatisée ou non mais rigoureusement définie ; ces décisions deviennent «
programmées » au sens organisationnel du terme. La caractéristique commune est donc l’existence
d’un modèle stable accompagné d’une règle de choix invariante qui fait réserver ce terme à des
décisions à caractère répétitif (approvisionnement, affectation, traitement comptable.. .). – Les
décisions non programmables sont des décisions faiblement structurées pour lesquelles on ne
dispose pas de modèle stabilisé et de règle de choix invariante. Il s’agit de décisions ayant un
caractère peu répétitif (absorption d’une autre entreprise par exemple). On notera que le caractère
programmable d’une décision est simplement relatif et contingent à l’organisation dans laquelle on
se place. (Par exemple, la décision d’embaucher un cadre supérieur peut être jugée non
programmable dans une PME et programmable dans une grande entreprise.)
1 22 Les formes d’aide à la décision selon les étapes du modèle IMC
À partir de la vision étendue du processus de prise de décision, il est possible de caractériser les
formes d’aide à la décision : d’une part, par rapport aux grandes étapes du processus, d’autre part,
selon le degré d’assistance fourni.
1. L’assistance aux différentes étapes du processus Les technologies de l’information peuvent être
utilisées aux différentes étapes du processus de décision. La figure 2 présente les principales
fonctions à remplir par d’éventuels outils d’aide. 1) Pendant la phase d’intelligence, l’assistance
consiste d’abord à fournir de l’information externe et interne indiquant l’existence d’un problème à
résoudre et facilitant son identification à partir de signaux variés.
Exemple La surveillance des ventes d’un produit et l’analyse de l’évolution des préférences des
consommateurs peuvent alerter le directeur commercial sur la nécessité de modifier la politique de
vente de ce produit (prix, publicité, promotion.. .). Il s’agit donc d’une aide au diagnostic, qui pose
des problèmes difficiles comme nous le montrerons ci-après (§ 2).
2) Pendant la phase de modélisation, l’assistance doit faciliter la recherche d’une solution, donc la
conception d’un modèle reliant des variables d’action et des résultats, à partir des représentations
issues de la phase d’intelligence. Si la décision est bien structurée, ce modèle peut être décrit sous
une forme algorithmique calculable (par exemple, un modèle de réapprovisionnement classique) ;
dans les autres cas, le modèle est incomplet, les variables ne sont pas toutes mesurables, les
relations entre variables sont floues et les résultats non exactement calculables : la décision est
incomplètement structurée. Exemple Le directeur commercial pense que l’amélioration des ventes
du produit est susceptible d’être obtenue par deux moyens complémentaires : une légère baisse de
prix (il se réfère à un modèle implicite d’élasticité au prix) et une augmentation du taux de
commission des représentants (il se réfère à un modèle implicite de motivation des représentants
liant le comportement au niveau de rémunération). 3) Pendant la phase de choix, l’assistance aide le
décideur à sélectionner une alternative parmi celles développées au cours de la phase précédente.
On peut ainsi procéder à des simulations : « Que se passe-t-il si je fixe telle valeur au prix de
vente ? », à des analyses de sensibilité : « Quelle sera la hausse des quantités vendues si j’augmente
la commission de 10% ? » Les capacités de calcul offertes par les technologies de l’information
permettent ainsi le test rapide de nombreuses alternatives en faisant varier les valeurs des variables
d’action et/ou des critères. 4) Pendant la phase d’implantation et d’évaluation, l’assistance possible
consiste d’abord dans l’aide à la communication : diffusion et explication de la décision nouvelle à
ceux chargés de la mettre en oeuvre. Bien évidemment, le système d’information doit permettre de
surveiller la mise en application, de suivre pas à pas les effets de l’application.
Exemple Le directeur commercial a informé les représentants de deux secteurs expérimentaux de la
nouvelle politique de prix. Il suit très régulièrement, tous les jours, les prises de commande du
produit pour voir si elles sont conformes à ses prévisions. Remarque
Cette présentation selon les différentes étapes a un intérêt essentiellement pédagogique. Sur le plan
pratique, de nombreux systèmes d’aide à la décision intègrent les différentes fonctionnalités dans un
outil unique.
2.Le degré d’assistance fourni
L’analyse ci-dessus de l’aide potentielle susceptible d’être apportée aux différents stades du
processus de prise de décision montre des « degrés d’aide » très variés. Selon la nature des
problèmes, l’apport des technologies de l’information sera très vite limité ou pratiquement complet
(automatisation des processus de décision).
Par conséquent, la notion de « système d’aide à la décision » peut recouvrir des réalités fort
variables allant de la simple fourniture d’informations à l’automatisation intégrale du processus de
prise de décisions.
Le tableau ci-après regroupe les principaux types de solutions utilisées pour la prise de décision.
Le domaine de l’aide à la décision, au sens strict du terme, correspond, pour l’essentiel, aux
systèmes interactifs d’aide à la décision, aux applications de l’intelligence artificielle et aux
systèmes d’aide à la décision de groupe. Les deux premiers types seront présentés dans ce chapitre ;
le troisième, en raison de l’importance des problèmes de communication, sera présenté dans le
chapitre suivant.
1 3 2 Conclusion
Le recours à la vision étendue du processus de prise de décision permet de caractériser des aspects
importants de l’aide à la décision. Toutefois, la persistance de nombreuses difficultés malgré le
recours à des technologies sophistiquées a conduit à remettre en cause ce modèle comme base
unique de définition de la notion d’aide à la décision.
1 3 Les théories critiques de la décision : la rationalité sociale
Le modèle IMC s’est révélé fort utile pour la compréhension des processus de prise de décision.
Toutefois, il a été l’objet de nombreuses critiques, tant dans ses hypothèses fondamentales que sur
le point précis de la relation information-décision.
Pour des auteurs comme Mintzberg et al. (2001), Languey (1995), le modèle IMC souffre de trois
limites importantes. 1 – Réification : le modèle suppose que la décision existe en tant qu’objet et
peut être facilement identifiée (en particulier au moment du choix). Cela reste une hypothèse, une
construction théorique. Quand décidons-nous ? Quelle est la manifestation tangible de ce
phénomène ? La décision n’est pas facilement repérable, même par introspection. 2 –
Déshumanisation : le modèle présente une vision désincarnée du processus ; il ignore l’individu
décideur et ne tient pas compte des différences individuelles, des rôles de l’émotion et de
l’imagination. Or le décideur est un acteur, un créateur, un porteur de projet. . . qui a une histoire,
qui a acquis de l’expérience.
3 – Isolation : le modèle isole un processus de décision des autres et l’isole également de la réalité
collective de l’organisation. Or il existe de nombreux liens entre décisions : des liens séquentiels
(une décision prise en t0 implique une autre prise de décision en t1. . .), les liens latéraux (une
décision peut partager des ressources avec d’autres. . .) ; des suites de « petites décisions » peuvent
s’enchaîner dans un effet « boule de neige » pour constituer, par répétition du processus, une
décision importante. Le modèle IMC est donc essentiellement un modèle COGNITIF de la prise de
décision (le décideur pense avant d’agir). Dans de nombreux cas, la prise de décision n’est pas une
activité scientifique mais un art, dicté par l’émotion, l’inspiration, l’imagination ou une activité
artisanale, faite d’essais, d’erreurs, d’improvisation. . . (on agit avant de décider !). Compte tenu des
critiques précédentes, on comprend mieux pourquoi les liens, postulés par le modèle, entre
information et décision ont pu être remis en cause. Ainsi, pour J. March (1991) : « Quelles que
soient les informations collectées, on réclame toujours un complément d’informations ; les
informations demandées ne sont pas prises en compte dans la décision ; les informations servent à
justifier une décision déjà prise. . . la relation information-décision est donc instable et ambiguë.. . »
Le processus d’utilisation de l’information est, par ailleurs, soumis à de nombreux biais. Hammond
(1998) en a proposé un recensement : – biais de l’ancrage : prêter une attention exagérée à la
première information reçue ; – biais du statu quo : faire comme on a déjà fait, sans chercher
d’alternatives ; – biais du coût du changement : ne pas se déjuger, le temps arrange les choses ; –
biais de la confirmation : choisir une source d’information qui confirme son jugement, idée
préconçue, flatteurs. . . ; – biais du cadre : choisir un point de référence sans poser le problème de
façon neutre (par rapport aux pertes et aux gains) ;
– biais de la prévision : faire des prévisions sans contrôler les faits. On peut constater aussi que les
différences entre les individus créent des différences dans le processus de décision. Chaque
personne utilise une même information ou affronte un même problème de manière différente car les
styles cognitifs sont différents : style réceptif/perceptif, style analytique/intuitif, propension au
risque, personnalité extravertie/introvertie, tolérance à l’ambiguïté, habilité verbale, expérience,
capacité de mémorisation, habilité de perception et de discrimination. . . Ces critiques récurrentes
du modèle IMC peuvent expliquer en partie le constat d’un échec relatif que beaucoup d’auteurs ont
formulé : ainsi H. Simon lui-même rappelle-t-il en 1987 : « Les systèmes d’information ont eu un
faible impact sur la prise de décision au travers de la recherche opérationnelle et des sciences de
gestion et au travers des systèmes experts développés en intelligence artificielle » (p. 5). Comme le
rappellent P. Vidal et F. Lacroux (2000, p. 57) : « Nous pensons que les difficultés rencontrées en
matière d’aide à la décision sont moins dues à des considérations techniques qu’à une vision
partielle et réductrice du processus de prise de décision. » C’est pourquoi, en nous situant dans cette
perspective critique nous soulignerons tout d’abord l’intérêt de mieux comprendre la nature des
difficultés auxquelles se heurtent les managers dans leur phase de construction de sens pour en
déduire ensuite les conséquences quant à la nature d’une véritable aide à la décision pour la
résolution des problèmes complexes.
L’importance de la construction de sens
Le processus de prise de décision recouvre deux activités : la formulation du problème puis la
résolution (formulation d’une solution). L’observation des managers montre que, pour les
problèmes complexes, l’essentiel des difficultés se situe dans la partie avant du processus : celle qui
va de l’apparition du problème à sa formulation. Comme le souligne M. Landry (1998) : « Le
cheminement qui va des problèmes aux décisions et aux actions est souvent tortueux, semé
d’embûches, plein de surprises et sujet à des interruptions et à des arrêts. » Le problème essentiel
est d’abord de pouvoir DONNER DU SENS À DES OBSERVATIONS, À DES ÉVÉNEMENTS ;
cela conduit alors à bien distinguer le cas des problèmes structurés de celui, plus délicat, des
problèmes non structurés. 1. La phase clé de la construction de l’attention Dans la réalité du
fonctionnement des organisations, les problèmes n’apparaissent pas sous la forme évidente et claire
d’un texte. Le manager est confronté à des observations nombreuses et disparates, auxquelles il
accorde une attention variable et qu’il doit interpréter pour donner un sens. J.-L. Le Moigne (1996)
parle d’intelligence organisationnelle, au lieu de parler de décision : l’organisation se construit,
décide, agit et construit du sens (figure 3). « L’intelligence organisationnelle c’est la capacité de
s’informer sur son environnement et sur son propre état, de mémoriser ses propres connaissances
grâce à une mémoire collective, de définir ses objectifs et de les modifier, d’élaborer et d’adapter
ses stratégies, d’appliquer ou d’interrompre des plans d’action. » Le groupe, vu comme un
organisme finalisé, vise à réduire en permanence, de façon adaptative, la dissonance résultant de
l’écart entre le réel voulu et le réel perçu. Ce comportement est dit « complexe », dans la mesure où
toute action rétroagit sur l’environnement, qui lui-même rétroagit sur l’organisme : les finalités
modifient le réel voulu et ont un impact sur la sélection des solutions conçues à partir de
l’intelligence de la situation dissonante. Ce cheminement des observations à la formulation du
problème est relativement complexe. Les trois schémas (pages suivantes) (empruntés à M. Landry,
p. 14-16) résument l’approche d’un gestionnaire. Quatre conditions apparaissent donc nécessaires
pour ce passage de l’observation au problème (comme le rappelle M. Landry, p. 17). 1 – La
présence d’un événement jugé intéressant et dérangeant par le gestionnaire. 2 – Un jugement de sa
part sur sa capacité d’intervention. 3 – L’expression d’un intérêt et d’une volonté d’intervenir. 4 –
La présence d’une incertitude de départ quant à la solution (problème structuré), quant au mode
d’intervention (problème non structuré). La figure 6 suivante met en évidence une distinction
fondamentale entre un problème bien structuré où le décideur « comprend ce qui se passe », c’est-à-
dire est capable de donner du sens aux observations (souvent parce qu’il a reconnu un problème
auquel il a déjà été confronté), et un problème non structuré pour lequel il doit entreprendre un
travail de constitution de sens.
Le modèle du « sens making » dans la décision collective (K. Weick, 1995)
K. Weick (1995) ne parle plus de choix, ni même de décision, mais d’interaction, au sein de petits
groupes des organisations « hautement fiables » : une équipe de pompiers, une équipe de
contrôleurs aériens : comment les acteurs parviennent-ils à réduire, dans l’interaction, l’équivoque
des situations ? Pour Weick ces organisations favorisent l’émergence d’une « conscience collective
», qui conduit les individus à développer des capacités de discrimination, facilitant la recherche et la
correction des erreurs avant que des incidents ne se transforment en catastrophes (capacité à
accepter des informations ou des événements qui ne cadrent pas avec la technologie que l’on
exploite). La fiabilité repose sur la vigilance (capacité à envisager l’impossible, à partir de laquelle
l’acuité aux signaux d’alerte s’accroît), et cette vigilance est un produit collectif, non une propriété
attachée aux individus : c’est le groupe qui est vigilant, attentif, prudent, consciencieux et obstiné,
grâce à la conscience collective qui dépend de cinq variables :
– Une propension à s’occuper des erreurs : l’erreur est à la fois perçue comme une erreur à
combattre mais aussi comme une fenêtre sur la santé et la régulation du système. – Une réticence à
simplifier les interprétations : la variété requise garantit des divergences suffisantes de répertoires
analytiques et comportementaux à propos de l’organisation et de la technologie, pour nourrir de
larges répertoires de détection et de réponse aux erreurs. – Une sensibilité accrue au contexte
opérationnel : maintien d’un état permanent de sagesse et d’hyper vigilance systématique sur les
opérations en cours. – Un engagement pour la résilience : capacité à ne pas considérer les chocs
comme traumatisants et à passer rapidement du rôle qui est normalement assigné à d’autres rôles. –
La sous-spécification des structures : les liens hiérarchiques doivent pouvoir se détendre pour
faciliter le flot et la rencontre des erreurs, des problèmes, des solutions, des expertises. Cette
conscience collective s’appuie sur les processus cognitifs de la « construction du sens ». S’il y a
dissonance, il y a construction de sens : les individus nourrissent de façon consciente ou
inconsciente un certain nombre d’anticipations et de présupposés sur le monde qui les entoure.
Chaque fois que des événements en décalage avec ces attentes se produisent, les individus vont
chercher à leur assigner un sens. La construction du sens est donc une façon d’appréhender les
interruptions et de les justifier. Le problème principal des décideurs est d’attribuer à des résultats un
historique légitime (par construction rétrospective), La construction du sens est un processus de
pensée qui utilise le récit rétrospectif pour expliquer les surprises.
Le processus se rapproche de ce qu’il se produit par exemple en théâtre d’improvisation : le jeu
commence dès lors que les deux acteurs se sont mis tacitement d’accord sur la « piste » à
développer pour l’improvisation à exécuter. La piste est l’élément inattendu produit par l’un des
acteurs, que l’un et l’autre garderont pour créer la situation dans laquelle ils vont jouer. Tout le jeu
de la situation se crée à partir de la sélection et la rétention de cet indice surprenant. À la SNCF par
exemple, les mécaniciens reçoivent chaque jour de nouvelles procédures de conduite qu’ils doivent
rapidement assimiler et intégrer dans les manuels de conduite et de circulation. Il en est de même
pour les opérateurs de salles de commandes dans les centrales nucléaires d’EDF. Les dispositifs de
retour d’expérience qui permettent d’organiser et de structurer l’analyse des incidents significatifs
dans ces deux organisations portent sur un échantillon d’événements très importants (environ 82
000 événements à la SNCF). La surcharge d’informations va pousser les individus à prendre
plusieurs raccourcis pour gérer la quantité : l’omission, la tolérance à l’erreur, le filtrage,
l’abstraction sont autant de stratégies activées par les acteurs pour réduire cette charge. Ces
stratégies sont des façons de ponctuer l’expérience et de la découper en segments (c’est
l’enactment) avec comme résultat de ne retenir qu’une fraction infime pour construire du sens (par
sélection puis rétention). Weick montre que derrière l’aspect bureaucratique et froid des
organisations hautement fiables, se cachent une multitude de situations exceptionnelles,
accidentelles, surprenantes, non anticipées et fluctuantes. Les occasions de construction du sens
sont multiples. La prise de décision implique donc une construction préalable de sens par
l’évaluation et l’interprétation de différents événements (surprenants, contrôlables. . .) révélés par
des observations parcellaires qu’il faut rapprocher, contrôler. .La conséquence majeure est que
l’aide à la décision doit d’abord ÊTRE UNE AIDE À LA CONSTRUCTION DE SENS AVANT
D’ÊTRE UNE AIDE AU CHOIX.
12 3 Les conséquences de la construction de sens sur la nature de l’aide à la décision
La complexité croissante des problèmes qu’ont à résoudre les décideurs implique que l’aide à la
décision se doit d’être, en priorité, une aide à l’intelligence du problème. Cette aide à la
construction de sens ne se réduit pas, dans la plupart des cas, à la fourniture d’informations ou à
l’assistance à la mémorisation et au calcul. De même, la modélisation formelle des problèmes doit
être d’abord vue comme une activité de construction de sens et non comme un résultat définitif.
L’intérêt majeur du modèle est d’abord de faciliter la réflexion sur les actions possibles et, ensuite,
éventuellement, d’assister la phase de choix.
Enfin, même lorsqu’il s’agit d’une décision individuelle (c’est-à-dire de la responsabilité d’un seul
individu dans l’organisation), on doit constater que, souvent, la CONSTITUTION DU SENS PEUT
ÊTRE UNE ACTIVITÉ COLLECTIVE, FONDÉE SUR LE DIALOGUE, CONDUISANT À LA
CONFRONTATION ET À L’ENRICHISSEMENT DES REPRÉSENTATIONS INDIVIDUELLES.
Cela conduit à des formes d’aide à la décision de nature différente, comme le montrent les
exemples suivants :
1 – L’analyse de données textuelles (ADT) regroupe les méthodes qui visent à découvrir
l’information « essentielle » contenue dans un texte, et le foisonnement d’outils auquel on peut
assister est à la conjonction de deux problèmes différents.
Un premier problème est de « donner du sens » aux très grandes quantités de textes que l’on peut
collecter sur Internet (articles, brevets, dépêches, rapports, études. . . mais aussi e-mails, messages
de forums, enquêtes clients, fiches de centres d’appel, descriptifs de produits. . .). Il s’agit ici
d’organiser automatiquement les contenus, d’extraire de l’information à partir d’un magma
hétérogène de textes peu structurés (pour la veille stratégique bien sûr, mais aussi pour l’indexation
automatique de documents ou la capitalisation des connaissances). Une première famille d’outils
complète le noyau dur des outils statistiques en ajoutant des environnements spécifiques : des
lexiques et des ontologies de domaine, des serveurs d’annotations, le tout associé à des fonctions de
robots aspirateurs et des outils de cartographie. On parle alors de fouille de données textuelles
Textmining ou de la cartographie Web Positioning System (Wordmapper de GrimmerSoft, Zoom de
Acetic, LexiQuest de SPSS, TextMiner de SAS. . .). Une autre famille d’outils viendra des
recherches en cours sur la formulation des requêtes « intelligentes » sur un corpus de données
textuelles, que ce soit avec le Web sémantique (avec la spécification formelle des ontologies de
domaines) ou avec le TAL (la spécification formelle des grammaires en traitement automatique des
langues). Un deuxième problème est d’assister la lecture d’un document (texte, entretiens,
discours. . .) avec des outils quantitatifs : SpadT, Sphinx-Lexica, Alceste, Tropes, NVivo. . . sont
parmi les plus cités en France. De quoi parle-t-on dans un texte ? C’est le domaine de l’analyse
lexicale, intéressante pour repérer différentes classes de discours dans un texte long (l’analyse du
texte se fonde ici sur les proximités entre les mots employés et les méthodes de l’analyse de
données multidimensionnelles qui mettent en évidence les classes, les catégories ou les
oppositions). Comment parle-t-on dans un texte ? Il s’agit alors d’analyse linguistique, intéressante
pour repérer les contextes d’énonciation (analyser un texte devient ici identifier les intentions, et les
traces de l’intention se voient lors de l’articulation de deux propositions : des verbes, des adverbes,
des conjonctions, des connecteurs.. qui servent à traduire la relation du locuteur à la situation, son
point de vue et ses jugements). Enfin, comment interpréter un contenu ? L’analyse thématique de
documents peut ici être assistée pour coder des masses importantes de documents hétérogènes, en
permettant de coder des fragments (des mots, des idées, des paragraphes, des documents, des
images, des propositions. . .) selon des catégories qui peuvent être construites, améliorées au cours
de la lecture puis traitées par recherches et croisements multiples.
2 – La cartographie cognitive peut faciliter par la confrontation et l’enrichissement des
représentations du décideur. La cartographie cognitive est une technique qui permet de représenter
un discours sous la forme d’un schéma constitué par un réseau d’énoncés liés selon des séquences
logiques (moyens vers objectifs, prémisses vers conclusions, liens chronologiques. . .). Cette
représentation, dont un exemple est fourni figure 8 (Pearson et al., p. 74), permet de construire une
image concrète des représentations mentales du décideur ; cette modélisation de la pensée conduit
souvent à en améliorer le degré de structuration. À ce premier intérêt pour l’assistance à la phase
d’intelligence du problème s’en ajoute un second : les constructions individuelles relatives à un
problème peuvent être échangées, confrontées.. . au cours de la phase d’intelligence. Cela permet
d’enrichir la représentation du problème par l’union des cartes des différents acteurs (carte
COMBINÉE), de mettre en évidence les convergences dans l’analyse du problème par une carte
dite du CONSENSUS MINIMUM (reprenant uniquement les idées présentes dans toutes les cartes
individuelles), de faire émerger les points de vue divergents (carte des divergences).. . La
cartographie cognitive est alors un instrument support de dialogue dans un processus collectif de
construction de sens où des idées multiples doivent être confrontées pour une analyse de problème.
Exemples – Pearson et al. (1998) ont utilisé cette démarche pour l’identification des problèmes
d’entretien des systèmes informatiques (figure 8).
– F. Rodhain a utilisé une démarche voisine pour la définition des besoins dans l’élaboration d’un
portefeuille de projets en systèmes d’information (voir figure 9). Les exemples ci-dessus illustrent
bien le processus de création de sens indispensable à la résolution des problèmes complexes. Dans
une certaine mesure, cet examen de la nature véritable de la Le texte qui suit a été schématisé sous
la forme d’une carte cognitive. « Nécessité de la tâche d’entretien, premièrement, parce qu’il est peu
probable, compte tenu de l’environnement dynamique dans lequel les organisations évoluent, qu’un
système n’exige jamais de modifications et qu’il est par ailleurs tout aussi peu probable, compte
tenu des investissements déjà faits et de la centralité des SI dans l’activité organisationnelle, que les
gestionnaires acceptent de s’en passer ou de les utiliser quand ils sont désuets. Deuxièmement,
parce que l’évolution rapide des moyens informatiques crée parfois de nouvelles exigences ; ainsi,
on révisera les systèmes pour qu’ils soient aussi performants que ceux des concurrents, pour
faciliter leur manipulation, etc. Troisièmement, parce que nombre de systèmes développés
s’avèrent, dès leur mise en exploitation, incomplets et qu’il faut, dès lors, les amender. » 1.
L’entretien de systèmes est une nécessité
Précisions quant aux symboles introduits dans cette figure : · Les lettres entre parenthèses et les
chiffres symbolisent les noms des acteurs ayant énoncé l’idée ainsi que le numéro de l’idée dans la
carte cognitive individuelle. Par exemple, dans l’idée 5, on lit : « Posséder de plus grands locaux
(24T+26M+1L) », ce qui signifie que cette idée se retrouve dans la carte de Thomas (T) et porte
dans cette carte le numéro 24 ; qu’elle a été identifiée également par Mathieu (M) et Léonard (L).
Cette procédure permet de conserver une trace de la manière dont a été construite la carte du
consensus minimum et permet aux acteurs de vérifier sa construction et de comparer cette carte
avec leur propre carte. · Des lettres apparaissent parfois à côté des flèches, cela afin de désigner les
acteurs ayant identifié le lien de causalité en question. Lorsqu’aucune lettre n’apparaît, cela signifie
que le lien de causalité a été identifié par l’ensemble des trois acteurs.
La phase d’intelligence dans les décisions non structurées pose la question de l’intérêt des outils «
classiques » de l’aide à la décision. C’est en ayant bien conscience de leurs limites pour certaines
situations de décision que nous présenterons ces outils dans la section suivante. Il ne faut cependant
pas oublier que, pour le plus grand nombre de décisions (souvent de nature répétitive), les systèmes
d’aide à la décision présentés ci-après ont un intérêt difficilement contestable.
2 Les outils d’aide à la décision individuelle
Le domaine de l’aide à la décision aujourd’hui correspond, pour l’essentiel, aux SYSTÈMES
INTERACTIFS D’AIDE À LA DÉCISION (SIAD), sous différentes formes. Ceux-ci seront
présentés dans un premier temps. Nous décrirons ensuite rapidement les principales applications de
l’intelligence artificielle qui, soit sous forme de composants des SIAD, soit sous forme autonome,
ont apporté des améliorations intéressantes dans certains domaines de l’aide à la décision. (Les
outils d’aide au travail collaboratif seront présentés dans le chapitre 4 sur l’aide à la
communication.) 2 1 systèmes interactifs d’aideà la décision (SIAD) Le terme SIAD recouvre des
réalités variables : selon la technologie utilisée, selon le type d’« aide à la décision » apportée, selon
le degré d’« interactivité », selon le type d’utilisation et la nature des utilisateurs. Ce dernier critère
a conduit, en particulier, à distinguer à l’intérieur des SIAD (ou decision support systems, DSS en
anglais) le cas particulier des systèmes pour dirigeants (ou executive information systems, EIS en
anglais). Bien que cette distinction ne soit pas toujours justifiée en pratique, nous la retiendrons
pour son intérêt pédagogique en présentant d’abord les caractéristiques majeures des systèmes
interactifs conversationnels (2.1.1) pour aborder ensuite les caractéristiques particulières des
systèmes d’information pour dirigeants (2.1.2), puis enfin caractériser l’évolution vers les entrepôts
de données (2.1.3).
2 1 1 Les systèmes interactifs conversationnels
De nombreux problèmes classiques de gestion (choix d’un mode de financement, sélection de
médias, planification d’une tournée de livraisons. . .) conduisent à des processus de décision non
parfaitement structurés. Pour la résolution de ce type de problèmes, la conduite du processus de
résolution reste à l’initiative du décideur ; les technologies de l’information lui apportent une aide
dans les différentes étapes, tout en lui laissant le contrôle du déroulement des opérations de
résolution. Ce type de relation homme-machine est caractéristique des SIAD. Après avoir donné
une définition plus précise, nous présenterons les différents éléments de l’architecture d’un SIAD
pour conclure sur leur intérêt (impact et facteurs clés de succès).
1. La notion de SIAD
Nous aborderons le problème de la définition des SIAD à partir d’un exemple mettant en évidence
les caractéristiques essentielles de ce type de systèmes.
Exemple L’entreprise M.. . a pour activité principale la fourniture d’équipements (échafaudages,
échelles, outils. . .) à des entreprises du bâtiment. Ses choix stratégiques l’ont conduite à choisir la
vente directe, à partir de commandes, avec livraison sur les lieux d’utilisation. Ces livraisons se font
soit à partir de stocks (produits standards), soit à partir de fabrications spécifiques. Compte tenu de
la très grande diversité des entreprises clientes, les commandes sont extrêmement variables en
volume et en valeur. Les livraisons sont effectuées par camions, réservés auprès d’un transporteur.
Un technicien est responsable de ces réservations. Chaque jour, il doit donc décider du nombre de
camions à réserver (en principe pour le lendemain) et du chargement de ces camions (Quelle(s)
commande(s) ou partie(s) de commande(s) sera (seront) livrée(s) par ce véhicule ?). Cette décision
se révèle compliquée à prendre pour différentes raisons : 1) Existence de critères différents : doit-on
minimiser le coût du transport ou répondre systématiquement aux demandes « urgentes » des
représentants et des clients (il y a, certains jours, 80 % de commandes classées « urgentes » à
livrer !) ? Comment arbitrer entre des commandes urgentes ? 2) Incertitude sur certains éléments du
problème : poids de la commande à livrer, distance de livraison à parcourir à partir de différents
points, disponibilité de tout ou partie de la commande à livrer. 3) Nature combinatoire des solutions
(composition de la tournée variable en fonction des lieux de livraison. . .). Il n’est donc pas
surprenant, dans ces conditions, de constater des phénomènes inquiétants : hausse des coûts de
transport par rapport au chiffre d’affaires, mécontentement des clients en raison des retards de
livraison, désorganisation de la production (on fait fabriquer en urgence des éléments d’une
commande pour compléter un camion qui va partir. . .). Pour aider le technicien à organiser les
livraisons, un système d’aide à la décision a été réalisé. Désormais, à partir de son terminal, le
responsable des livraisons a accès à un certain nombre de données : – liste des livraisons prévues
chaque semaine, jour par jour ; – contenu prévu de chaque livraison (liste des éléments, poids,
valeur) ; – état du stock actuel (et prévisionnel à deux jours pour les articles lancés en fabrication)
pour tous les articles ; – visualisation sous forme de carte routière des itinéraires possibles de
livraison (carte couvrant une partie, variable à la demande, du territoire) ; – visualisation du contenu
du camion (icône présentant une « caisse » plus ou moins remplie par des commandes avec
indication du poids déjà chargé et du poids susceptible d’être chargé. . .). Il peut également
s’appuyer sur certains modèles : – modèle de calcul de distance parcourue selon les points de
livraison retenus ; le modèle fournit également le coût du transport correspondant (coût total, coût
par rapport à la valeur de la livraison. . .) ; – modèle de tenue d’un planning de livraison visualisable
indiquant la succession des commandes dans le temps (selon les délais annoncés) ;
– modèle de recherche de commandes livrables soit par tonnage, soit par zone de livraison (le
territoire a été découpé en zones géographiques). À partir de ces données et de ces modèles, le
responsable utilise une démarche de type heuristique ; il part d’une situation initiale (un camion
allant vers une zone donnée) et il va essayer de progresser vers une solution meilleure, pas à pas,
soit en ajoutant une livraison, soit en modifiant l’itinéraire. À chaque essai, il peut calculer les
incidences de ses choix (sur le coût du transport, sur les livraisons non effectuées.. .). Il peut décider
de continuer, d’arrêter la simulation (en conservant une trace de la situation), de revenir en
arrière. . . Le passage d’un état à un autre se traduit à l’écran par une tentative du genre : « Que va-til se passer si. . . ? » (système « What if ? » pour les Anglo-Saxons) ; chaque état peut être évalué
selon les différents critères mais, si le système calcule cette évaluation, c’est le décideur qui choisit
de rechercher ou non un autre état : le passage d’une étape à l’autre est contrôlé par le décideur sur
la base de ses propres évaluations. On notera que le système permet plusieurs approches du
problème : soit camion par camion, en épuisant les commandes livrables du jour, avec des
rectifications d’itinéraires limitées et des permutations de chargement éventuelles pour ajustement
final, soit par détermination préalable du nombre de camions à partir de commandes livrables le
jour j (ou le jour j + 1, j + 2. . . si le client accepte un retard limité). b – Les caractéristiques du
SIAD Dans l’expression « système interactif d’aide à la décision », « aide à la décision » s’oppose à
« prise de décision automatique ». Dans l’exemple ci-avant, la décision serait automatisée si l’on
disposait d’une fonction d’évaluation calculable (intégrant par exemple le coût d’un retard de
livraison) et d’un modèle algorithmique d’affectation déterminant une solution optimale. Il y a «
aide à la décision » dans un processus de recherche heuristique conduisant à une solution considérée
comme simplement satisfaisante (rationalité limitée). Le système est interactif car le déroulement
du processus de décision est lié à l’exécution d’un dialogue homme-machine ; à chaque étape du
processus, l’ordinateur affiche un état ; à partir de cet état, le décideur choisit le contenu de l’étape
suivante et donne les ordres en conséquence. Ainsi, on peut considérer un SIAD comme : – un
système d’information assisté par ordinateur ; – fournissant une assistance aux décideurs
essentiellement pour des problèmes non totalement structurés ; – combinant le jugement humain et
le traitement automatisé de l’information ; – un système où le contrôle du déroulement du processus
de décision incombe au décideur dans le cadre d’une recherche de type heuristique ; – améliorant
plutôt l’efficacité du processus de décision (qualité de la décision prise) que son efficience (coût du
processus). Ces exigences font que tout SIAD doit être capable de : 1) fournir des représentations
pertinentes pour le décideur (par exemple, dans le cas ci-avant, visualisation d’un itinéraire sur une
carte) ; 2) réaliser des opérations de traitement de l’information (exécuter des calculs, retrouver des
données) ; 3) mémoriser des représentations (conserver des résultats intermédiaires, des données,
des modèles.. .) ; 4) comprendre des commandes (interpréter des ordres fournis par le décideur).
Cela conduit à une structure générale type, représentée figure 10, où un décideur utilise des
ressources matérielles (station de travail autonome ou connectée) et logicielles (programmes
représentant la partie automatisable du SIAD).
2. Les composants du SIAD
Un SIAD est donc composé de trois éléments principaux : – une base de données avec un système
de gestion de base de données ; – une base de modèles avec un système de gestion de base de
modèles ; – une fonction de gestion du dialogue homme-machine. a – Gestion des données Ce sousensemble, consacré à la gestion des données, assure la fonction de mémorisation du système, c’està-dire la conservation et la mise à disposition des données utilisables pour la résolution du
problème.
Les différentes données, d’origine interne ou externe, sont stockées dans des bases de données, sous
forme d’ensembles structurés d’informations. Il est nécessaire de stocker les données de base (par
exemple, dans le cas de la planification des livraisons, les commandes à livrer ou les itinéraires) et
également les résultats intermédiaires qui pourront être utilisés plus tard dans le processus (par
exemple, le contenu d’un camion incomplètement chargé à réexaminer plus tard). Ces bases de
données peuvent être spécifiques au SIAD ou utilisables par d’autres applications. Dans tous les
cas, les données ne seront utilisables que par l’intermédiaire d’un logiciel spécialisé : le système de
gestion de la base de données (SGBD) qui permet : – de créer de nouvelles tables de données ; –
d’assurer la mise à jour des tables existantes : addition de données nouvelles, suppression de
données anciennes.. ., tout en assurant la sécurité des données enregistrées (protection contre des
consultations non autorisées ou des modifications frauduleuses) ; – d’interroger des bases par le
recours à un langage d’interrogation comme SQL : il s’agit de permettre à l’utilisateur de retrouver
des données dans les différentes bases d’une manière rapide et simple ; Exemple SELECT numero
date tonnage
FROM commandes WHERE date = 21 AND tonnage 5 5
est une interrogation d’une table « commandes » où l’on souhaite retrouver les commandes à livrer
le 21 et d’un poids inférieur à 5 tonnes. – d’extraire des données appartenant à d’autres bases que
celles gérées par le SIAD et leur mise à disposition dans une base spécifique au SIAD (par exemple
des requêtes sur le Web). Bien entendu, toutes les opérations relatives à la gestion des données
doivent être articulées avec la gestion des modèles qui les utilisent et la gestion du dialogue avec
son utilisateur. b – Gestion des modèles
Le modèle est l’outil qui permet de traiter l’information. Selon Minsky, « pour un opérateur O, un
objet M est un modèle d’un objet A dans la mesure où O peut utiliser M pour répondre aux
questions qu’il se pose sur A ». Il existe différentes catégories de modèles : – les modèles iconiques
possédant les mêmes caractéristiques physiques que l’objet étudié, mais à une échelle différente :
par exemple, maquette au 1/20 d’un avion pour étude en soufflerie ; – les modèles analogiques
utilisant un phénomène différent mais possédant certaines propriétés identiques : par exemple,
visualisation de la circulation de trains sur des voies avec l’aide d’un tableau lumineux ;
visualisation de l’état d’un camion par une caisse plus ou moins remplie. . . ; – les modèles
symboliques
où le phénomène est représenté par des symboles et les lois qui régissent le phénomène par des
règles de manipulation de symboles ; la plupart des modèles que nous utilisons pour décrire les
phénomènes physiques ou économiques sont de ce type (distance = vitesse 6 temps, marge = prix de
vente – coût de revient. . .). La plupart des SIAD utilisent des modèles symboliques pour le
traitement des données et, parfois, des modèles analogiques pour la visualisation des résultats. Très
souvent, dans un SIAD, coexistent plusieurs modèles :
– des modèles généraux, correspondant à des manipulations très fréquentes dans différentes
applications : tri de données, calcul d’une moyenne, ajustement linéaire, programmation linéaire,
valeur nette d’un investissement.. . ; – des modèles spécifiques exprimant des manipulations liées
au type de problème étudié.
Exemple Calcul du coût d’un transport à partir du type de véhicule et de l’itinéraire parcouru, calcul
d’un résultat à partir de différents produits et charges.. . Les modèles assurent ainsi l’automatisation
de certaines tâches importantes dans le processus de décision : 1) analyse de données nombreuses
par des techniques variées (modèles de régression, d’analyse factorielle. . .) ; 2) prévision à partir de
modèles d’extrapolation ; 3) simulation à partir d’un modèle décrivant les lois du phénomène étudié
(cela suppose donc un modèle spécifique du problème). Ces différents modèles sont stockés sous
forme de modules de programmes. Un système de gestion de la base des modèles (SGBM) permet :
– de conserver et de retrouver facilement les modèles que l’on souhaite utiliser : chaque modèle a
un nom ; – de retrouver, pour chaque modèle, l’ensemble des variables qu’il utilise et de lui
communiquer les données correspondantes ; – de communiquer, en fin de traitement, les résultats
obtenus par l’exécution du modèle (par l’intermédiaire de la gestion du dialogue). c – Gestion du
dialogue Cette gestion du dialogue a pour but de permettre la communication homme-machine par
le traitement des questions formulées par l’utilisateur et l’affichage des réponses proposées par la
machine (dialogue sous forme de questions-réponses, de formulaires, de requêtes SQL.. .). On peut
finalement définir quatre grandes fonctions dans un SIAD conversationnel : – une fonction de
Mémoire/Sélection : accès aux bases de données, données personnelles, requêtes sur Internet, FAQ,
annotations, annuaires. . . ; – une fonction de Représentations/Opérations ou manipulation logique
et analytique de données : base de modèles logico-mathématiques (simulation, optimisation,
décisions multicritères, règles, déductions.. .) et toutes opérations sur des bases de données
centrales, extérieures ou personnelles (M.A.J, requêtes.. .). Les tableurs se sont progressivement
entourés de modules complémentaires : langages de programmation, fonctions statistiques, liens
avec d’autres logiciels (Crystal Ball, par exemple, fonctionne comme une macro complémentaire
qui permet de réaliser des simulations par échantillon aléatoire) ; – une fonction de Résultats ou
conceptualisation de l’information utilisée pour la prise de décision (graphiques, tableaux, listes,
texte, image, carte, son, animation, vidéo. . .) Les SIG, systèmes d’information géographiques, qui
transforment une liste fastidieuse en carte éloquente, ne furent longtemps disponibles que sur les
grands systèmes, mais les tableurs intègrent maintenant un module géographique ; – enfin une
fonction Contrôle : dialogue ou conversation via des menus, un langage, un graphique, un
assistant. . . assez flexible pour s’adapter au style cognitif de chaque décideur.
3. Évaluation de l’utilisation des SIAD
Les SIAD sont désormais utilisés pour des décisions très variées dans leur nature, dans leur niveau,
dans leur degré de structuration. Peu d’évaluations des résultats obtenus par leur utilisation sont
publiées ; les informations disponibles montrent généralement des impacts positifs quant à la qualité
des décisions prises ; elles montrent également plusieurs phénomènes importants : 1) Il est difficile
de réaliser du « premier coup » un bon SIAD. Dans la plupart des cas, une solution satisfaisante a
été trouvée après le développement de plusieurs versions successives, continuellement améliorées.
2) Même face à des problèmes identiques, dans la même organisation, des décideurs différents
n’utilisent pas obligatoirement la même démarche de résolution des problèmes. Par conséquent, le
SIAD devrait pouvoir être adapté à ses différents utilisateurs ou, à la limite, il faudrait construire «
sur mesure » un SIAD pour chaque décideur.
3) L’utilisation correcte d’un SIAD passe par un apprentissage de la part du décideur ; cet
apprentissage peut d’ailleurs entraîner des modifications du SIAD (en particulier, diminution de
l’assistance de la machine dans le dialogue lorsque l’« apprenti » devient un « expert » familier du
SIAD). Cela explique que l’une des qualités principales que l’on assigne à un SIAD soit son
évolutivité, c’est-à-dire sa capacité à être facilement modifié. Remarque sur les tableurs À un
certain niveau de complexité, la construction d’un SIAD incombe à un spécialiste travaillant en
étroite collaboration avec les utilisateurs. Dans certains cas plus simples, l’utilisateur peut, à partir
de certains outils de base considérés comme des générateurs de SIAD, construire lui-même son
SIAD. Le cas est assez fréquent désormais avec la construction, à partir de tableurs, de SIAD
simples pour l’élaboration et le contrôle de budgets. Dans ce cas, la présentation des données est
tabulaire et le modèle est exprimé par des relations entre cellules ; le dialogue est celui autorisé par
le langage de commande du logiciel ; des modèles annexes sont fournis par les fonctions de calcul
(moyenne, somme.. .).
2 2 1 Les systèmes d’information pour dirigeants
Les technologies de l’information ont d’abord été utilisées aux niveaux transactionnel et
opérationnel. Ce n’est que récemment qu’a été envisagée la possibilité d’assister le travail des
cadres dirigeants : le développement des SIAD est un premier type de réponse générale ; une
seconde réponse a été recherchée sous forme d’executive information systems (EIS) ou d’executive
systems (ESS), conçus pour satisfaire les besoins spécifiques des cadres supérieurs. Plus
récemment, le développement de solutions du genre data warehouse tente d’apporter une réponse
améliorée aux besoins d’informations de contrôle et d’intelligence. Comprendre l’intérêt de ce type
de systèmes implique d’avoir, au préalable, analysé les besoins en information des dirigeants pour
mettre en évidence leur caractère spécifique.
1. Les besoins en information des dirigeants
Comme tout manager, le cadre dirigeant a des fonctions de finalisation, d’organisation et
d’animation. Les tâches d’organisation sont généralement discontinues et reposent sur des analyses
très faiblement structurées (connaissance des personnes en particulier) ; leur assistance par des
systèmes d’information présente, dans le cas général, un intérêt limité. En revanche, les tâches de
finalisation (formulation des objectifs, de la stratégie. . .) et celles d’animation-contrôle (motivation
des individus, suivi de performance.. .) reposent sur des traitements informationnels lourds,
susceptibles d’être, au moins partiellement, assistés. La distinction qui est faite entre systèmes
classiques de « reporting » et tableaux de bord n’est finalement fondée ni sur les fonctionnalités ni
sur les usages, mais sur le type d’informations manipulées (qui sont plus ou moins stratégiques).
Nous examinerons donc, successivement, la nature des besoins en information exigés par la
planification stratégique puis par le contrôle de l’organisation.
a – Les besoins de la planification stratégique Il est assez fréquent de rencontrer le terme « système
d’information stratégique ». Ce terme est ambigu, comme le signalent H. Tardieu et B. Guthmann
dans leur ouvrage Le triangle stratégique (op. cit., p. 69). Il importe de bien distinguer : – d’une
part, le (ou les) système(s) d’information stratégique, qui est un système d’information pouvant
oeuvrer aux niveaux transactionnel ou opérationnel mais dont le bon fonctionnement est une
condition essentielle de la réussite de la stratégie retenue : citons comme exemples le système de
réservation de places d’une compagnie aérienne, le système d’aide à la composition pour un journal,
le système de traitement des commandes d’une société de vente par correspondance.. . Dans cette
acception, le terme « stratégique » signifie « très important », « vital » pour la pérennité de
l’entreprise eu égard aux choix stratégiques retenus ;
– d’autre part, le système d’information stratégique, qui est un système d’information particulier,
ayant pour objectif essentiel l’aide au traitement de l’information utilisée pour définir et construire
la stratégie de l’entreprise ; c’est un système qui supporte un processus de décision particulier
aboutissant au choix d’options stratégiques.
Lorsque l’on s’intéresse aux systèmes d’information pour dirigeants, c’est la seconde définition qui
est à retenir puisque la définition de la stratégie leur incombe. Si l’on analyse la façon dont les
stratégies sont construites dans les entreprises, on constate une très grande diversité des pratiques
allant d’un processus totalement informel (un responsable propose les choix stratégiques) à des
activités permanentes conduites par des spécialistes (groupe de planification stratégique). Il est donc
difficile de définir, d’une manière générale, ce que devrait être un système d’information stratégique
à l’usage des dirigeants. Seules quelques remarques de portée générale peuvent être formulées : .
Un tel système devrait supporter la phase d’intelligence du processus. Cela signifie, essentiellement,
apporter aux utilisateurs des informations d’origine interne décrivant la situation de l’entreprise
(«Où en sommes-nous ? ») et des informations d’origine externe (« Quelles sont les menaces et les
opportunités que contient l’environnement ? »). . Le système peut supporter également la phase de
modélisation et de choix de la stratégie ; des SIAD existent et permettent d’explorer, à partir d’un
modèle type financier-comptable et de simulations, différentes alternatives. La nature de ce besoin
correspond à ce que l’on attend d’un SIAD tel que nous l’avons défini précédemment. Mais, compte
tenu de la complexité des problèmes à résoudre d’une part, du caractère évolutif des situations
analysées d’autre part, de tels systèmes ne doivent conduire ni à des simplifications abusives, ni à
l’usage de représentations dépassées (images du «marché », du « métier », du « domaine d’activité
». . .) qui risqueraient de rendre l’organisation « myope » et « routinière ». En conclusion, nous
serions tentés de dire que les besoins de la planification stratégique sont difficiles à satisfaire par
des systèmes d’information assistés par ordinateur pour deux raisons complémentaires : – dans la
mesure où la démarche stratégique implique innovation et créativité, le contenu informationnel est
impossible à définir de manière exhaustive et pertinente ; – dans la mesure où la difficulté
essentielle consiste d’abord à obtenir des visions partagées par les différents acteurs, le recours à
des modèles formalisés contient un risque non négligeable d’erreur de diagnostic dû à une limitation
routinière de l’exploration du problème. b – Les besoins de contrôle des niveaux supérieurs : le
reporting L’analyse des tâches des dirigeants (voir, par exemple, l’étude de H. Mintzberg citée dans
la bibliographie) montre que ceux-ci jouent différents rôles : – un rôle relationnel : représenter
l’organisation à l’extérieur, entraîner et convaincre les subordonnés ;
– un rôle décisionnel : proposer des changements significatifs pour l’organisation, réagir aux
événements non prévus, répartir les ressources ;
– un rôle informationnel : informer l’environnement (porte-parole de l’organisation), disséminer de
l’information dans l’organisation. . . Pour exécuter ces rôles, dans une perspective d’animation, les
dirigeants ont, en particulier, besoin d’informations qui leur permettent d’évaluer les performances
de leur organisation et la performance des responsables importants pour le succès de l’entreprise.
Ces informations peuvent prendre des formes variées : – compte rendu oral ou écrit décrivant des
résultats et expliquant par des commentaires, de forme libre, les causes des performances
observées ; – tableaux et graphiques de format prédéfini faisant apparaître les résultats en valeur
absolue et relative ;
– utilisation d’information condensée sous forme d’indicateurs traduisant des facteurs clés de
succès. Cette dernière méthode est présentée de manière plus détaillée ci-après. On appelle facteur
clé de succès (critical success factor) un élément jouant un rôle important pour la réalisation d’un
objectif ; la non-maîtrise d’un facteur clé de succès entraîne un risque d’échec important dans la
poursuite des objectifs visés. Ces facteurs clés de succès peuvent être définis à un niveau
quelconque : – l’industrie (par exemple, dans l’industrie automobile, on considère comme des
facteurs clés de succès la qualité du « design » des véhicules, le contrôle du réseau de
distribution. . .) ;
– l’entreprise, au niveau de sa stratégie, à un instant donné (par exemple, l’entreprise Fiat pourra
considérer la maîtrise des coûts de production comme un facteur clé de succès dans la mesure où
elle a choisi une stratégie de concurrence par les prix. . .) ; – une partie de l’organisation (par
exemple, le département des achats d’une société automobile considérera comme facteur clé de
succès sa capacité à trouver des fournisseurs respectant le niveau de qualité exigé par les
utilisateurs) ; – un individu, compte tenu de son rôle dans l’organisation (un acheteur du service des
achats peut considérer son aptitude à définir des procédures de contrôle des livraisons comme un
facteur clé de succès).
À partir de ces facteurs clés de succès (supposés vérifiés), il est possible de définir le rôle de
l’information pour les processus d’animation-contrôle ; le schéma ci-après résume la démarche. À
partir des objectifs visés, on définit des indicateurs permettant, à partir d’une quantité limitée
d’information, de vérifier dans quelle mesure ces objectifs sont atteints. Ces indicateurs doivent être
contrôlables (on peut vérifier comment a été calculée leur valeur), correspondre à une mesure (un
volume, un chiffre d’affaires, un coût, un délai. . .) et si possible être simples (la mesure d’un niveau
de qualité peut, par exemple, se révéler compliquée et utiliser des indicateurs tels que le temps
moyen entre pannes, la variance de dimension.. ., qui ne sont pas toujours immédiatement compris).
Après avoir défini ce qui doit mesurer le succès, on analyse les causes de ce succès en recherchant
les facteurs clés : facteurs explicatifs principaux du succès ou du non-succès (par exemple, le
respect des délais de livraison peut apparaître dans une société de vente par correspondance comme
un facteur clé de succès). La responsabilité de ces facteurs clés de succès est attribuée à des
individus (possibilité de décomposition à différents niveaux hiérarchiques) pour lesquels on va
définir des indicateurs clés de performance (par exemple, dans le cas ci-avant, le pourcentage de
commandes expédiées dans les délais par le service chaque mois). On organise ensuite le système
d’information proprement dit : collecte des données, traitement pour le calcul de la valeur des
indicateurs, communication des résultats aux utilisateurs. Pour que l’indicateur joue pleinement son
rôle d’inducteur de comportement, il doit être utilisé de manière visible par le cadre responsable
dans la gestion de la relation avec ses subordonnés (par exemple, commentaire des résultats
observés lors d’un entretien d’évaluation ou intéressement aux résultats définis sur la base de
l’indicateur). En définitive, l’analyse des besoins des dirigeants révèle des exigences hétérogènes et
complexes. Les solutions les plus répandues répondent davantage aux besoins de contrôle qu’à ceux
de la planification : ces solutions correspondent au concept d’executive information systems, que
l’on traduit assez souvent par l’expression « tableaux de bord électroniques ». Les solutions, plus
récentes, de type data warehouse rassemblent des données issues de sources multiples et apportent
un support aux décideurs dans les phases d’intelligence, d’interprétation et de modélisation.
2. Les tableaux de bord électroniques (executive information systems)
À leur origine, au début des années 1980, les tableaux de bord électroniques avaient été
conçus pour répondre aux besoins des états-majors des grandes entreprises ; leur appellation
d’executive information system (EIS) était donc justifiée. L’évolution récente contribue à en
faire un outil adapté aux besoins des responsables de tout niveau, et l’expression française «
tableau de bord électronique » (TBE) correspond désormais mieux au contenu de la notion.
Après avoir décrit les caractéristiques essentielles des EIS (ou TBE), nous en présenterons
rapidement les intérêts et les limites.
a – Les caractéristiques spécifiques
Traditionnellement, l’information des dirigeants repose sur des contacts personnalisés (entretiens,
réunions. . .), une documentation générale (revue de presse. . .), un système de rapports périodiques.
Pour répondre plus vite et mieux à leur demande, les tableaux de bord électroniques ont pour
vocation de présenter, directement à l’écran, des informations adaptées, à partir de sources internes
ou externes. Ces systèmes présentent les caractéristiques suivantes : 1) ils sont conçus « sur mesure
» pour s’adapter à l’utilisateur (selon ses besoins et ses méthodes de travail) ; 2) ils sont très
conviviaux ; ils peuvent être utilisés par le dirigeant seul ; les commandes sont simples, peu
nombreuses et utilisent la souris ou l’écran tactile ; 3) le temps de réponse est court ; l’affichage se
fait directement sur écran ; 4) la présentation de l’information se fait sous forme de graphiques
(avec utilisation de la couleur) et de tableaux simples, éventuellement assortis de commentaires. Les
chiffres importants sont mis en évidence ; 5) le système fournit des informations essentiellement
pour le suivi (« Quelle est la situation ? ») et le contrôle ; le système est conçu pour supporter la
phase d’intelligence d’un processus de décision (et généralement est de peu d’intérêt pour la phase
de modélisation et de choix) ; il concerne des décisions peu structurées ; 6) le système permet la
recherche d’informations à des degrés d’analyse de plus en plus fins si on le souhaite ; une fonction
de drill down (recherche par paliers) permet d’enchaîner des recherches du général au particulier
(figure 11).
Cette recherche s’applique, pour l’essentiel, aux bases de données de l’entreprise, alimentées par les
systèmes transactionnels et, plus rarement, à des bases de données externes par l’intermédiaire de
dispositifs de communication.
À ces fonctionnalités de base peuvent s’ajouter divers dispositifs destinés à faciliter le travail du
dirigeant (agenda, calendrier, messagerie électronique. . .). Pour réaliser ces fonctionnalités,
différentes solutions sont utilisées. Une des architectures les plus utilisées est représentée figure 12.
L’utilisateur dispose d’une station de travail (écran couleur, clavier, souris) et d’un logiciel EIS (par
exemple Command Center, Commander, Executive Decision, Express EIS). Ce logiciel lui permet
de définir des présentations d’informations (comme un tableur ou un logiciel graphique) et de
déclencher des recherches dans différentes bases de données, par l’intermédiaire d’un réseau de
communication. Le logiciel EIS est en fait un générateur qui, à partir d’environnements variés,
permet de construire, sur mesure, des tableaux de bord électroniques. Les tableaux de bord
électroniques apparaissent ainsi comme des substituts éventuels à un système de rapports de
gestion, fournissant de manière continue et sous forme adaptée, à des degrés variables d’analyse,
des informations utiles pour le suivi de la gestion et l’évaluation des performances. b – Évaluation
de l’utilisation des TBE Par leur facilité d’utilisation et grâce au caractère attractif et modulable de
la présentation des informations, les tableaux de bord électroniques répondent, en partie, aux
besoins d’information des dirigeants ; ils ont permis d’éliminer les éditions papier de rapports de
gestion produits avec un décalage de temps important et de réduire le recours aux secrétaires et
assistants de direction pour la production de tableaux et de rapports ad hoc. Ces TBE font
maintenant partie de l’offre des ERP. Leur introduction a également eu des effets indirects non
négligeables : – contraindre les dirigeants à réfléchir à l’amélioration des systèmes de contrôle, à la
définition d’indicateurs significatifs et à leur intégration à une logique de motivation ; – sensibiliser
les dirigeants à l’intérêt d’une standardisation des outils logiciels utilisés dans les systèmes
transactionnels et la gestion des données. En effet, dans beaucoup d’entreprises, coexistent des
applications utilisant des logiciels de gestion de données différents. Cela impose des difficultés
supplémentaires au développement des EIS, qui peuvent être amenés à rechercher et à regrouper des
données d’origines différentes. L’existence d’un EIS utilisé par le sommet de la hiérarchie contraint
à étudier la meilleure façon de « naviguer » parmi les données et aboutit généralement à la
recherche d’une standardisation accrue, au moins pour les données internes à l’entreprise. Les TBE,
en apportant plus d’informations dans des conditions de pertinence accrue, ont démontré leur intérêt
mais ils ont aussi montré leurs limites. 1) Les limites des TBE sont d’abord celles des systèmes
fonctionnels qui les alimentent en données ; si ces systèmes sont rudimentaires, le recours à un TBE
ne créera pas d’information supplémentaire. Dans ce cas, il est important d’examiner si on doit
d’abord améliorer les différents systèmes fonctionnels avant de développer les TBE. C’est un
argument mis avant dans les ERP. 2) Compte tenu de leur complexité, les TBE se révèlent assez
lourds à modifier. Beaucoup d’utilisateurs limitent leur demande à des affichages standards, en
nombre limité, qu’ils modifient peu. 3) Le recours à des TBE conduit à accorder plus d’attention
aux aspects mesurables de la gestion. C’est souvent un progrès mais, en particulier aux niveaux
supérieurs, l’information qualitative doit conserver son importance. Un TBE doit être vu plus
comme un complément que comme un substitut aux autres sources d’information. 4) Le recours au
TBE conduit à accorder plus d’attention aux aspects internes qu’aux aspects externes parce que en
pratique la connexion aux sources externes est, encore actuellement, plus compliquée. Cela est un
inconvénient sensible au niveau stratégique. 5) Parce qu’il fournit l’information avec un temps de
réponse court, le TBE peut conduire à accorder trop d’attention aux faits présents ou d’un passé trop
proche ; le risque d’une réaction prématurée n’est pas à exclure. 6) Parce qu’il permet au
management de niveau élevé d’obtenir, s’il le souhaite, des informations détaillées, le TBE peut
conduire à négliger la réflexion globale en focalisant l’attention sur des problèmes secondaires. En
outre, les cadres de niveau inférieur peuvent, dans une certaine mesure, se sentir dessaisis de leur
pouvoir informationnel, sinon décisionnel. 3. Conclusion Le recours à des logiciels EIS a permis
des progrès considérables dans l’information de l’encadrement : au niveau du contenu, au niveau de
l’ergonomie de l’utilisation. À partir du moment où les systèmes d’information fonctionnels sont
mis en place (et notamment les ERP) et où la navigation dans les bases de données peut être réalisée
dans des conditions acceptables de temps et de coût, les TBE peuvent devenir un outil à la
disposition de tout l’encadrement (et non un outil réservé aux seuls dirigeants). C’est ce que
confirme l’observation des entreprises utilisatrices : avec le temps, le nombre des utilisateurs de
tableaux augmente. Le développement de ces représentations homogènes peut contribuer fortement
à l’amélioration de la cohérence dans l’organisation, c’est un argument de vente des fournisseurs
d’ERP.
Une étude empirique aux États-Unis (Leidner et Carlsson) portant sur 91 utilisateurs a montré que
l’utilisation des systèmes d’information pour dirigeants améliorait les conditions d’accès à
l’information, conduisait à un accroissement de la compréhension de l’entreprise par les cadres
supérieurs et du degré d’analyse des problèmes, réduisait la durée d’identification des problèmes et
de prise de décision.
1 Les systèmes data warehouse : « entrepôts de données »
Le progrès technologique dans le stockage des données sous forme électronique est important et
continuel : il entraîne des baisses de coût considérables et des améliorations notables dans la
manipulation des données stockées. Ce progrès a permis l’émergence d’un nouveau concept en
matière d’aide à la décision : le data warehouse ou « entrepôt de données ». Un data warehouse
(DW) est une forme de système d’information conçu pour des applications décisionnelles : pilotage,
contrôle et aussi intelligence. Le datawarehousing (« entreposage de données ») est l’ensemble des
outils, techniques et méthodes permettant de rassembler en un ensemble cohérent des données
issues de sources multiples et de leur « donner du sens » (interpréter l’information qu’elles
contiennent). Le data warehouse (« entrepôt », « magasin », « silo ». . .), c’est la base de données
détaillées qui stocke ces informations. Cette base a pour vocation unique l’aide à la décision (elle
n’est pas utilisée pour les applications transactionnelles). 1. Organisation d’un système de data
warehouse En pratique, un système de data warehousing est constitué de plusieurs produits
matériels et logiciels articulés selon trois grandes fonctions classiques du domaine des bases de
données : l’acquisition, le stockage, l’exploitation. 1) Acquisition et transformation Les données à
entreposer proviennent de trois sources : – les systèmes opérationnels (applications
transactionnelles du type de celles décrites dans le chapitre précédent), qui constituent la source
principale ; – les bases de données utilisateurs : ce sont des fichiers locaux tenus à jour par des
utilisateurs individuels pour leurs activités spécifiques ; – les bases externes, sources documentaires
variées, accessibles via des réseaux type Internet ou dupliquées. Ces sources alimentent la base par
l’intermédiaire d’outils logiciels d’extraction, de sélection et filtrage, de « nettoyage » ; ces outils
assurent l’homogénéité dans la présentation de données pouvant être, à l’origine, de formats très
différents. Entre la base de l’entrepôt et les bases de données de production, il faut organiser la
sélection, la transformation et le transport des informations utiles au nouveau système. Pour décrire
de telles conversions une nouvelle génération d’outils de développement a fait son apparition, celle
des extracteurs de données ETL (Extract, Transform and Load), avec des interfaces permettant de
modéliser graphiquement les échanges et de faire correspondre des schémas de données non
compatibles (en fonction des métadonnées ou descriptions de champs fournies par les applications).
Les processus de décision se raccourcissent dans le temps, et certains outils ETL sont désormais
capables de gérer des flux de données en temps réel : une série de composants veille en attendant
l’arrivée des requêtes pour les traiter (voir figure 13).
2)Stockage des données historisées
Les données sont stockées sur un support de très grande capacité et administrées grâce à un logiciel
de gestion de données de type relationnel ou multidimensionnel. Toutes les entités concernées ont
un format unique. À côté des données détaillées proprement dites, sont également stockées des
méta-données, c’est-à-dire des données de plus haut niveau décrivant les caractéristiques des
données stockées. Ces métadonnées constituent une sorte de référentiel, de dictionnaire indiquant,
par exemple, la source de la donnée, sa fréquence de production, ses utilisateurs exclusifs. Les
données sont organisées en « sujets », « thèmes » (par exemple, le sujet « client », le sujet « produit
»). Ces différents « sujets » constituent les entités fondamentales du modèle de données de la base.
Un SGBD relationnel sait fournir une liste de valeurs issues de plusieurs tables, mais la règle de
base de la normalisation des tables consiste à supprimer toute redondance et toute agrégation de
données. Et calculer des informations agrégées (par exemple, le chiffre affaires total réalisé sur une
famille de produits) implique alors de nombreuses « jointures » entre plusieurs tables, ainsi que des
opérations d’addition coûteuses en performance. D’où l’idée d’un modèle de représentation des
données particulier et plus adapté à l’analyse : le modèle multidimensionnel. Les principaux
éditeurs de bases de données relationnelles s’intéressent donc à l’approche multidimensionnelle des
bases de données, qui peuvent aujourd’hui adopter une structure des tables « en étoile » ou « en
flocon » : les indicateurs (ventes, marges.. .) sont regroupés dans une table et les données par axes
(clients, années, mois.. ..) sont rangées dans des tables différentes, reliées à la première par des clés.
Les données peuvent ainsi être agrégées et redondantes, et comme elles sont préparées, les temps de
réponse sont stables et équivalents quels que soient les axes choisis. Les requêtes peuvent exploiter
toutes les combinaisons et permutations d’axes. Il est ainsi possible de créer des niveaux
hiérarchiques et de prévoir des axes pré-calculés (par exemple la somme de frais par régions, par
produits, par mois.. .). Les données sont chronologiques : la dimension « temps » est explicite. Pour
chaque sujet, les données historiques sont accumulées ; il n’y a donc pas de mise à jour par
modification ou remplacement, mais ajout continuel des données plus récentes (on enregistre, par
exemple, les ventes hebdomadaires d’un produit). Cette nécessité d’accumuler ainsi des faits sur des
périodes allant de cinq à dix ans implique de très fortes capacités de stockage (exprimées souvent en
téraoctets : téra = 1012).
Le data warehouse joue ainsi le rôle d’une véritable mémoire des données de l’organisation où une
part importante des informations relatives aux événements significatifs est conservée sous une
forme structurée. 3) Exploitation statistique Le système d’entrepôt de données est composé d’un
ensemble d’outils permettant aux utilisateurs d’extraire des informations signifiantes pour leurs
besoins spécifiques : en particulier, ces outils permettent de créer des connaissances tirées de
l’expérience (les résultats passés), de mettre en valeur des corrélations cachées entre des groupes de
données, donc d’assister le processus d’interprétation, de création de sens.
Ces outils sont très variés, citons les principaux : – outils OLAP (on line analytical processing) pour
l’exploitation de bases de données multidimensionnelles. Une base de données
multidimensionnelles peut être visualisée comme un ensemble de cubes de données contenant euxmêmes d’autres cubes ; chaque arête du cube représente une dimension, éventuellement
hiérarchisée (par exemple, quantités vendues par produit, famille, département, région, canal de
distribution, période.. .). Ces outils permettent de manipuler de grands volumes de données,
d’agréger les données selon différentes dimensions, de les présenter selon différentes perspectives,
de réaliser des tableaux croisés, des calculs de corrélation. . . ; – outils de type EIS (voir ci-dessus)
permettant, en particulier, selon le principe du drill down de visualiser les données au niveau du
détail choisi par l’utilisateur – outils de datamining : ces outils permettent l’exploitation et l’analyse
de grandes quantités de données afin de découvrir des formes et des règles ; le datamining permet la
classification, l’estimation, la prédiction, l’analyse de séries chronologiques. . ., donc l’analyse
statistique de gros volumes de données. Utilisant comme matière de base les données historiques, ils
permettent de mieux comprendre les résultats obtenus, d’élaborer des modèles explicatifs ou
prédictifs ; ils facilitent donc la création de sens ;
– systèmes d’information géographiques : ce sont des outils d’analyse et de présentation de données
permettant l’affichage de données sur des cartes géographiques et visualisant ainsi des répartitions
spatiales sous une forme plus agréable, plus parlante que des tableaux (par exemple, répartition de
volumes vendus par régions) ; – outils de reporting : outils permettant de construire et d’éditer des
supports. Remarque
Souvent, le système de data warehouse utilise des datamarts (magasins de données) qui sont des
bases de données particulières consacrées à une activité, une zone géographique, un département.
Ces bases limitées permettent de simplifier et d’accélérer les accès aux données pour certains
utilisateurs. 2. Évaluation de l’utilisation d’un système de data warehousing L’analyse de quelques
exemples permet de mettre en évidence les caractéristiques essentielles de ces outils. Quelques
exemples
Les exemples les plus significatifs proviennent de la grande distribution ; la mise en place de
terminaux de points de vente à lecture et enregistrement automatiques (codes-barres, étiquettes
RFID) permet de recueillir les données relatives aux ventes au niveau de détail le plus fin. Ces
données, éventuellement résumées pour chaque site (supermarché, hypermarché.. .), alimentent un
data warehouse. Les utilisations potentielles sont nombreuses : – savoir, lorsqu’un produit ne se
vend pas bien, s’il s’agit d’un problème local ou général (analyse par région, type de magasin.. .) ; –
étudier les ventes réalisées pour savoir quels sont les produits achetés simultanément par les
consommateurs (pour modifier éventuellement la disposition des produits sur les linéaires. . .) ; –
permettre aux acheteurs de suivre en permanence les ventes des produits dont ils ont la charge,
d’ajuster au mieux les stocks et les commandes aux fournisseurs. . . ; – mieux comprendre le
comportement des consommateurs (habitudes d’achat selon les heures, les jours, les saisons. . .).
Dans de grands établissements de crédit, l’analyse des mouvements des comptes permet de dresser
des typologies de clients et de relier ces typologies à l’évolution des risques encourus lors des
opérations de prêt. Le recours à des typologies de clients de l’entreprise directement tirées de
l’observation des faits se révèle également d’un grand intérêt dans des activités comme l’assurance
(gestion du risque) ou le marketing direct (mieux gérer les envois publicitaires en définissant des
cibles plus précises).
Un système de dataware housing répond à un besoin de création de sens : les données historiques,
issues du fonctionnement quotidien de l’entreprise, constituent les bases d’un suivi permanent, donc
le support d’un contrôle de gestion. Combinées éventuellement à des données externes, elles sont
une base d’observations utilisables pour une véritable recherche où l’on essaie de trouver des
réponses à des questions importantes (quels produits vendre ? À quels clients ?. . .). Cette recherche,
appuyée sur les outils du DW, implique la formulation d’hypothèses, l’élaboration de modèles
(modèle de comportement du client par exemple) : c’est un processus d’interprétation, d’attribution
de sens reposant sur des bases empiriques robustes, caractéristique des phases d’intelligence et de
modélisation du processus de prise de décision. Grâce à la technologie du DW, l’entreprise peut
mieux utiliser sa mémoire organisationnelle et améliorer ses processus d’apprentissage. L’ouverture
sur l’extérieur par l’intermédiaire d’Internet accroît sa capacité de veille ; celle-ci est renforcée par
le recours à des agents intelligents chargés de détecter les informations signifiantes émises par un
ensemble de sources externes (concurrents, fournisseurs, clients, administrations. . .). L’intégration
des différents outils (data warehouse, Internet, agents intelligents. . .) permet désormais un
traitement systématique de gros volumes de données internes et externes et assure un support plus
robuste aux activités managériales traditionnellement fondées sur l’intuition (sélective et risquée).
2 2 Applications de l’intelligence artificielle
L’intelligence artificielle peut être considérée comme une discipline scientifique au carrefour de
l’informatique, de la biologie, de la psychologie, de la linguistique. Son objectif principal est de
développer des logiciels permettant aux machines d’assurer des fonctions normalement attribuées à
l’intelligence humaine : – raisonner pour résoudre des problèmes ;
– comprendre et apprendre à partir de l’expérience ; – reconnaître des « formes » dans des situations
variées ; – réagir avec succès devant des situations nouvelles ;
– manipuler de l’information incomplète et ambiguë. Les principaux développements peuvent être
regroupés en quatre catégories. 1) Applications fondées sur les sciences cognitives : systèmes
experts, systèmes à base de connaissances, systèmes à apprentissage. . . Ce sont des logiciels qui
tendent à imiter les processus du raisonnement humain (voir ci-après, paragraphe 1). 2)
Applications de type « informatique » tendant à développer des ordinateurs et des logiciels mieux
adaptés aux principes de l’intelligence artificielle : ordinateurs à traitements parallèles, traitements
symboliques (manipulation de symboles plutôt que de nombres), réseaux de neurones (voir ciaprès,
§ 2). 3) Robotique : développement de robots, machines capables d’un certain comportement
adaptatif grâce à des capacités de perception (vision artificielle, toucher artificiel), de déplacement
(possibilité de reconnaître son chemin.. .). De très nombreux robots sont utilisés dans l’industrie
pour les tâches pénibles, répétitives (robots de soudage, robots de peinture. . .). 4) Interfaces «
naturelles » : il s’agit surtout d’améliorer la communication homme-machine : utilisation du
langage naturel pour commander un ordinateur, reconnaissance de la parole. . . Un développement
récent est celui de la réalité virtuelle où l’on développe des interfaces multiples (faisant appel à la
vue, à l’ouïe, au toucher) entre l’ordinateur et l’homme pour simuler une réalité : promenade dans
un paysage simulé, visite d’un monument disparu, vision d’un objet artificiel. . . (voir ci-après, § 2)
2 Les systèmes experts
On peut considérer un système expert comme un logiciel informatique simulant le raisonnement
d’un expert dans un domaine de connaissance spécifique. Si la tâche de résolution d’un problème
est bien structurée (par exemple, résoudre un problème de production grâce à un programme
linéaire), la solution informatique consistera à programmer un algorithme, progressant vers le
résultat par des étapes rigoureusement définies. Si la procédure de résolution ne peut être décrite
parfaitement, cela signifie que le problème est incomplètement structuré. Pourtant, dans la pratique,
de tels problèmes sont résolus par des spécialistes, des experts, qui appliquent des heuristiques alors
qu’un non-spécialiste est incapable de trouver une solution satisfaisante. Par exemple, un spécialiste
va trouver rapidement la source de la panne d’une machine, un autre spécialiste sera capable de
décider si l’on doit accorder ou non tel type de crédit à une entreprise. . . L’idée à la base de la
construction des systèmes experts est de « récupérer » la connaissance spécifique de l’expert dans
son domaine, de l’incorporer dans un logiciel qui sera ensuite utilisé par des non-experts (ou des «
experts » moins qualifiés) soit pour résoudre le même type de problème, soit pour apprendre à le
résoudre. Selon les cas, un système expert peut donc être vu comme : – un système de décision : on
retient les choix proposés par le système expert ; – un système d’aide à la décision : le décideur
s’appuie sur les recommandations formulées par le système mais peut s’en écarter s’il s’estime
compétent pour le faire ; – un système d’aide à l’apprentissage : le système expert est un outil
pédagogique permettant la transmission de connaissances de l’expert au non-expert. Les premiers
systèmes experts ont été mis au point vers 1975 (Mycin, système expert en diagnostic médical,
Prospector, système d’aide pour la recherche de minerais datent de cette époque). Depuis cette
période, de nombreux systèmes experts ont été expérimentés dans différents domaines de la gestion
(diagnostic financier, contrôle de gestion, planification stratégique. . .). 1. Structure et principes de
fonctionnement d’un système expert L’architecture type d’un système expert est représentée figure
14. Cette architecture met bien en évidence la particularité des systèmes experts par rapport aux
programmes informatiques de type algorithmique : la séparation des connaissances relatives au
problème (décrites dans une « base de connaissances ») du mécanisme d’exploration et
d’exploitation de ces connaissances (réalisé par un « moteur d’inférence »).
a – Base de connaissances
Les connaissances relatives à un domaine sont de différentes natures ; la structure de la base de
connaissances traduit cette diversité : 1) Base de faits
Les faits sont des connaissances brutes, élémentaires, relatives au domaine couvert. Ce sont des
affirmations, des assertions, décrivant par des éléments de connaissance ce que l’on sait de la
situation avant le début du raisonnement.
Exemple Si l’on s’intéresse à un problème de diagnostic d’entreprise, les informations suivantes
constituent des éléments de la base de faits :
– statut juridique = société anonyme ;
– capital social = totalement souscrit ;
– chiffre d’affaires annuel = 100 ME;
– réseau commercial = bon.
On remarquera que ces faits peuvent correspondre à des valeurs observables ou à des opinions,
considérées comme vérifiées.
2) Base de règles
La connaissance de l’expert, relative au problème, peut s’exprimer sous forme de règles de
production du type suivant : si. . . condition. . . alors. . . action. . . En partant des faits, les experts
construisent des raisonnements dont on admet qu’ils puissent se mettre sous forme d’enchaînement
de règles de production, où la partie gauche définit des conditions qui doivent être satisfaites pour
que la partie droite, la conclusion, puisse être considérée comme acceptable. Les règles simulent un
raisonnement ou une façon d’agir. Exemples
1 – Si le ratio fonds propres/dettes LT est inférieur à 1, alors calculer la valeur de liquidation des
actifs. (Règle utilisée dans un système de diagnostic financier ; cette règle permet de progresser
dans le processus de résolution en déclenchant une activité de calcul.)
2 – Si outil de production = récent et sous-traitant = qualifié, alors risque industriel = faible. Cette
règle, également utilisée dans un système de diagnostic, permet d’inférer, de la valeur de deux faits
initiaux, la valeur d’un autre fait. Elle exprime la connaissance de l’expert capable de relier les faits
les uns aux autres. Les connaissances correspondant aux règles sont donc des connaissances
opératoires, qui indiquent comment utiliser les faits.
Parmi les règles, on peut distinguer, d’une part, les règles de production « ordinaires » telles que
celles décrites ci-dessus, et, d’autre part, des métarègles qui sont des règles permettant au système
expert d’appliquer une stratégie de résolution (« dans quelle direction partir pour rechercher la
solution, peut-on arrêter maintenant ?). Ces métarègles vont permettre au système de choisir
éventuellement entre différentes classes de règles applicables.
Exemple Si dettes à CT 4 0,8 capital et dettes LT nulles, alors je propose « consolidation dettes CT.
» Cette règle indique une solution proposée par le système expert et marque l’arrêt du raisonnement
même si d’autres règles étaient éventuellement vérifiées ; elle définit en fait une hiérarchie dans les
règles.
b - Moteur d’inférence : fonctionnement C’est la composante essentielle du système expert : c’est la
partie du logiciel qui exécute le raisonnement. Il est capable d’interpréter les règles et de les
appliquer aux faits observés pour résoudre le problème. C’est un mécanisme qui, à partir du contenu
de la base de connaissances, va décider quelles sont les règles à appliquer. Il applique
essentiellement le principe de l’inférence logique (« modus ponens ») permettant à partir de
l’affirmation initiale « A est vrai » et de la règle « si. . . A. . . alors. . . B » de déduire que « B est
vrai ». Le schéma de principe du fonctionnement du moteur d’inférence est celui de la figure 15. –
À partir de la base des connaissances (examen des faits et des règles), le moteur va rechercher
quelles sont les règles potentiellement applicables. – Si plusieurs règles sont applicables, un
processus de sélection (appuyé éventuellement sur les métarègles) permet d’arbitrer et de définir la
règle à appliquer d’abord. – L’application de la règle permet, par inférence, de déduire de nouveaux
faits et de nouvelles règles applicables, jusqu’à l’obtention d’une règle finale d’arrêt. c Conséquences pratiques L’architecture et le fonctionnement particulier des systèmes experts
entraînent deux conséquences importantes.
1) Modularité : les connaissances du domaine sont explicitées dans une base de connaissances
séparée des autres connaissances nécessaires à leur exploitation ; le fonctionnement du moteur
d’inférence est indépendant du problème à résoudre. Cela permet d’abord de définir la connaissance
du domaine (règles et faits) en vrac, dans n’importe quel ordre, d’une manière incomplète au départ
puis de l’enrichir par ajout de règles. Dans un programme classique, la modification est beaucoup
plus difficile puisqu’on touche également à l’algorithme de résolution. On peut considérer un
algorithme comme une suite de règles imbriquées et fixées par le programme, alors qu’un système
expert reconstruit à chaque fois une suite différente de règles créée par le moteur d’inférence. 2)
Lisibilité, traçabilité : la formalisation sous forme de règles est indépendante du langage de
programmation ; la base de connaissances est lisible par un non-spécialiste. Ensuite, par
construction, le système peut expliquer, en affichant les règles qu’il active, son cheminement
logique : on dispose de la trace de son chemin dans l’espace de résolution du problème. Cela
confère aux solutions de type système expert un intérêt pédagogique évident. 2. Conclusion
L’intérêt essentiel d’un système expert est de conserver et de diffuser la connaissance de spécialistes
dans une organisation. Cela peut conduire à une meilleure qualité de décision, à une plus grande
cohérence des décisions prises par des individus différents. Cependant, malgré ces bénéfices
potentiels, les systèmes experts n’ont pas connu le développement intensif que l’on en attendait
dans le domaine de la gestion. Deux raisons peuvent, en partie, l’expliquer : tout d’abord le coût de
développement important de tels systèmes et les difficultés de leur maintenance (ces systèmes sont
incapables d’auto-apprentissage), ensuite le fait qu’ils couvrent un domaine limité (alors que le
niveau décisionnel auquel ils s’adressent traite des problèmes complexes). Une des voies les plus
prometteuses consiste à combiner SIAD et système expert en intégrant, à l’intérieur d’un SIAD
couvrant un champ large, des modules experts apportant une connaissance précise sur une question
particulière. Cette combinaison utilise au mieux les capacités respectives de l’homme et de la
machine dans des systèmes d’aide à la décision « intelligents ». En tout état de cause, l’avènement
des systèmes experts traduit le progrès dans l’utilisation des ordinateurs où l’on dépasse désormais
le traitement algorithmique des problèmes totalement structurés pour aborder une démarche
heuristique face à des tâches incomplètement structurées.
2 2 2 Autres applications de l’intelligence artificielle
Les principes de base de l’intelligence artificielle ont été transposés dans de nombreuses
réalisations ; à titre d’illustration, nous présenterons ici, de manière sommaire, trois exemples : – les
agents intelligents ; – les réseaux de neurones ; – les systèmes virtuels.
1. Agents intelligents
De nombreuses applications, avec le développement d’Internet en particulier, utilisent désormais
des « agents intelligents ». Après avoir défini la notion, nous montrerons quelques utilisations
caractéristiques de ce type d’outils.
a – Notion d’agent intelligent
Un agent intelligent est une entité logicielle (programme ou ensemble de programmes liés) capable
d’exécuter certaines tâches pour le compte d’un utilisateur, doté d’une intelligence suffisante pour
exécuter ses tâches de façon autonome et interagir de manière significative avec son environnement.
Un agent intelligent peut donc être consacré à une mission, définie selon des buts spécifiques à un
utilisateur (par exemple, « chercher la compagnie aérienne offrant le vol Paris-New York le moins
cher entre le 29 mai et le 2 juin »).
L’agent est temporellement persistant ; il est présent en permanence et peut travailler sans arrêt
même s’il ne communique qu’épisodiquement avec son utilisateur. Cet agent peut être simplement
résident ou mobile. La mobilité caractérise la capacité de l’agent à se déplacer dans un réseau
reliant différents ordinateurs ; il peut effectuer certaines tâches sur l’ordinateur visité puis revenir à
son ordinateur hôte une fois la tâche accomplie.
L’agent est doté, par construction, d’une certaine autonomie d’action, très souvent à base de
connaissances fournies par une sorte de système expert ; il peut atteindre ses propres conclusions,
en travaillant de manière indépendante, à partir des informations reçues de son environnement. Il est
capable d’interagir avec son environnement (par exemple, dans le cas ci-dessus, l’agent peut
consulter les tarifs des compagnies aériennes) ; cela signifie qu’il peut communiquer, échanger des
informations. . ., avec d’autres machines ou programmes. Il est capable de s’adapter et d’apprendre :
il peut s’adapter au comportement de son utilisateur, changer ses décisions à partir de l’exemple des
résultats obtenus dans le passé, intégrer des connaissances acquises auprès d’autres agents dans sa
base de connaissances. L’agent doit donc percevoir les changements dans l’environnement et
utiliser des modèles de raisonnement permettant d’interpréter les perceptions. Actuellement, les
réalisations logicielles ne possèdent pas pratiquement l’intégralité des capacités attribuées
théoriquement à des agents véritablement intelligents ; elles mettent l’accent, selon les utilisations
envisagées, sur une ou plusieurs des propriétés décrites ci-avant.
b – Principaux types d’utilisation
Selon Schubert et al. (1998), on peut distinguer trois grandes fonctions selon la nature des tâches
effectuées : information, coopération, transaction. . Fonction d’information En raison de la
multiplication des sources d’information disponibles, l’utilisateur se trouve exposé à la surcharge
d’informations dans la phase de collecte. Aussi, un agent intelligent, en fonction de la demande de
son utilisateur, va identifier les sources, extraire l’information pertinente (donc filtrer les données
jugées peu utiles) et présenter les éléments pertinents d’une manière adaptée à son utilisateur. À
cette utilisation classique, correspondent de très nombreux exemples : – agent de recherche
documentaire, permettant de surveiller des sources documentaires (revues, actes de colloques.. .) à
partir de mots clés, de concepts, de synonymes, par interrogation en langage naturel ; – agent «
filtrant », permettant de trier les messages électroniques selon les thèmes jugés importants,
prioritaires. . ., pour éviter la surcharge du destinataire ; – agent « contrôleur », capable de détecter
des anomalies dans des rapports de gestion et de les signaler à son utilisateur. . Fonction de
coopération
Ils sont utilisés pour des situations de travail coopératif (voir chapitre suivant) où l’exécution d’une
tâche requiert la coopération de plusieurs unités dispersées. Par exemple : – agents gérant les
réunions d’un groupe de travail (analyse des agendas individuels, choix de plages horaires. . .),
assurant le routage des messages électroniques. . . ; – agents participant à la gestion de réseaux de
télécommunication (détection d’erreurs, choix des circuits de routage. . .).
. Fonction de transaction Leur apparition est liée au développement du commerce électronique (voir
chapitre suivant). En principe, de tels agents peuvent réaliser l’intégralité d’une transaction
(prospection, sélection, achat ou vente)
; ils peuvent effectuer des négociations (sur un certains nombre d’attributs, prix, délai, quantité,
selon les indications de l’utilisateur), émettre les commandes, assurer le règlement dans certains cas.
On peut ainsi envisager des marchés où tous les participants (acheteurs, vendeurs, banquiers. . .)
seraient représentés par des agents intelligents : par exemple, le prototype Kasbah développé par le
MIT (voir le site kasbah.media.mit.edu).
– Conclusion Les agents intelligents sont des logiciels qui jouent le rôle d’assistant plus ou moins
spécialisé ; ils sont susceptibles d’effectuer des missions variées via Internet. À l’heure actuelle, les
domaines privilégiés par leur développement sont : la veille ciblée, la recherche et la sélection des
fournisseurs, la recherche documentaire, la publicité sélective et le marketing industriel. Le
développement du commerce électronique et du travail en réseau devrait leur offrir des espaces
d’utilisation importants.
Un système multi-agent (SMA) est un ensemble d’agents, dotés de leurs modèles de comportement,
situés dans un environnement précis et interagissant selon des relations de communication et de
coopération. On peut alors paramétrer les différents agents composant une « communauté », ce qui
a des applications aussi bien dans les systèmes écologiques qu’en simulation des problèmes de
décision complexes. On parle alors d’intelligence artificielle distribuée.
2. Réseaux de neurones
Avec les développements liés à l’intelligence artificielle, la manière d’utiliser les ordinateurs a
évolué de façon sensible :
– Dans un premier temps, on utilisait une démarche algorithmique qui impliquait une modélisation
complète du problème et de son processus de résolution : on définissait les différentes étapes d’un
calcul à exécuter dans un ordre prédéfini pour arriver, dans tous les cas, aux résultats souhaités. –
Dans un second temps, le principe des systèmes experts, en séparant la description de la
connaissance utilisable (règles et faits) de la manière de l’utiliser (mécanismes d’inférence), a
simplifié la construction des logiciels et rendu leur évolution plus facile (ajout ou suppression de
règles sans avoir à modifier la structure d’un algorithme figé). Cependant, dans les deux cas
indiqués ci-avant, la construction du logiciel suppose que, pour le problème à résoudre, on dispose
d’un minimum de connaissances préalables : – des concepts décrivant les variables du problème, les
objectifs visés par la solution ; – des « lois » ou « relations » permettant de passer, par des
enchaînements logiques, des données à la solution (ou à une solution) ; ces lois peuvent être
scientifiquement établies (théorie admise par une communauté de « savants ») ou simplement
traduire la conviction personnelle du décideur (règle empirique). Or, dans un certain nombre de cas,
cette connaissance initiale n’existe pas ; en particulier, il est assez fréquent de ne pas pouvoir
fournir de « lois », de relations. . . permettant d’exploiter logiquement les connaissances initiales.
Pourtant, un être humain peut, dans de telles situations, souvent réussir à trouver une réponse
satisfaisante.
Remarque Devant un ensemble de photographies variées, prises sous différents angles, un être
humain réussit, en général, à identifier la même personne parmi d’autres sans être vraiment capable
d’expliquer par quel mécanisme il le fait. Dans de telles situations, la seule source dont on dispose,
si le problème est de nature répétitive, est un ensemble de connaissances factuelles composées, à
partir d’une collection d’expériences, de données initiales (éventuellement incomplètes) et de
résultats obtenus à partir de ces données. Le mécanisme, la théorie à la base du traitement de ces
données sont inconnus. Dans ce cas, les réseaux de neurones artificiels, modèles de logiciels en
analogie avec l’activité élémentaire du cerveau humain, peuvent apporter une solution. Exemple
Considérons le problème classique d’une banque qui doit accorder ou refuser des crédits à des
emprunteurs ; cette banque souhaite utiliser un ordinateur pour assister (ou remplacer) les décideurs
chargés de traiter les dossiers de prêts. Trois types de solutions sont théoriquement possibles :
Première solution : algorithmique classique ; on s’estime capable de décrire le problème et la
solution par calcul ; la formulation sera du genre : 1 – déterminer le revenu mensuel de
l’emprunteur, 2 – si crédit demandé 0,10 6 revenu mensuel passer à l’étape 3, sinon stop, 3 –
évaluer le patrimoine offert en garantie, . . .
N – montant du prêt = . . . Fin.
Deuxième solution : système expert : à partir de l’analyse du traitement effectué par des spécialistes
des prêts, on construit un système expert avec des règles du genre : si le demandeur a plus de 60 ans
faire souscrire assurance-vie, si demandeur locataire demander montant loyer mensuel.. . .
Troisième solution : réseaux de neurones : la seule connaissance dont on dispose (sans doute parce
que la théorie financière ne semble pas assez robuste ou que les experts consultés n’ont pu exprimer
un ensemble de règles cohérentes) est l’accumulation de 3 000 dossiers de prêts déjà traités. Pour
ces dossiers, on dispose de données initiales : les caractéristiques des emprunteurs (âge, emploi,
salaire mensuel, patrimoine immobilier. . .) décrites par un nombre limité de variables et les
décisions prises (accord ou refus du prêt). [On peut même supposer que l’on a conservé une trace
des résultats observés en cas d’accord de prêt (incidents de remboursement ou non) pour qualifier
les décisions de « bonnes » ou d’« inopportunes ».] Le principe de la solution est alors le suivant : 1
– construction d’un réseau de neurones dont les « entrées » seront les variables décrivant
l’emprunteur et les « sorties » une recommandation d’accord ou un conseil de refus (logiciel dont
les caractéristiques sont décrites ci-après) ; 2 – par un mécanisme d’apprentissage, à partir des cas
observés, on modifie les caractéristiques du réseau jusqu’à ce qu’il « imite » le comportement
observé : à savoir l’émission de la même sortie à partir des mêmes entrées. Sans aucune théorie
sous-jacente, le réseau reproduit le comportement des décideurs ;
3 – le réseau étant « éduqué », on lui soumet des cas nouveaux à traiter : caractéristiques des
emprunteurs, et il propose une décision : refuser ou accorder le prêt. Les réseaux de neurones
apparaissent donc comme des logiciels capables de reproduire des comportements subcognitifs de
résolution de problèmes pour lesquels on dispose de connaissances uniquement factuelles (données,
résultats). a - Structure d’un réseau de neurones (ou réseau neuromimétique) 1 Un réseau de
neurones artificiels peut être comparé au fonctionnement élémentaire du cerveau humain par une
modélisation de son élément de base, le neurone, et de sa structure : une interconnexion de ces
neurones.
Le neurone artificiel
Un neurone artificiel (mathématiquement il s’agit de vecteurs et de matrices) est un modèle
comportant les éléments suivants : 1. Les développements qui suivent sont extraits de J.-P.
MAGNIER, articles cités.
– des entrées (parfois appelées synapses) lui permettant de recevoir des influences externes
(stimuli) ; on désigne par Xi la valeur numérique du stimulus reçu par l’entrée i. Chaque entrée est
caractérisée par un coefficient spécifique de pondération, appelé poids synaptique. On désigne par
Cik le poids synaptique de l’entrée i pour le neurone k ; – un noyau cellulaire dont l’état ou
potentiel est déterminé par la valeur des stimuli reçus en entrée pondérée par les poids synaptiques
correspondants. Par exemple, si on appelle Ek le potentiel du neurone k, on peut avoir une valeur du
potentiel liée aux entrées par la relation « somme », c’est-àdire Ek ¼ Pi Cik # Xi ; – une sortie
(parfois appelée axone) traduisant l’influence du neurone sur l’extérieur. La valeur de cette sortie
dépend de l’état du noyau cellulaire ; elle lui est liée par une fonction (appelée filtre), généralement
non linéaire. Par exemple, la sortie Sk du neurone k peut être définie comme une fonction « signe »
de Ek. Sk = signe (Ek) avec Sk = + 1 si Ek 4 0
et Sk = – 1 si Ek40.
Les réseaux de neurones
Les neurones, tels qu’ils viennent d’être décrits, peuvent être connectés entre eux pour constituer un
réseau ; cela signifie que la sortie d’un neurone peut être connectée aux entrées de différents
neurones. En revanche, l’entrée d’un neurone donné ne peut être connectée qu’à une seule sortie
d’un autre neurone.
Selon la nature des connexions, on trouve différentes structures de réseaux : – réseau totalement
connecté : chaque neurone est connecté à tous les autres neurones ; – réseau interconnecté par
groupes : les neurones d’un même groupe sont totalement connectés et peuvent être connectés à
ceux d’un autre groupe ; – réseau multicouche : les neurones d’un groupe ont pour entrées les
sorties du groupe précédent. Dans ce cas, on appelle entrée du réseau les entrées des neurones
correspondant à des stimuli externes : ce sont donc des valeurs fournies par l’utilisateur. On appelle
sortie du réseau les sorties de neurones non connectées et fournissant une valeur intéressant
l’utilisateur du modèle. Le terme « synapse » désigne alors une entrée correspondant à la sortie d’un
autre neurone, donc une connexion.
Exemple Sur la figure 17, X11, X12,. . ., X22,. . ., X31,. . . sont des entrées du réseau. S5 et S6 sont
des sorties du réseau. La sortie du neurone 1, S1, est reprise en entrée du neurone 3 (X32) : il y a
connexion. Les relations entre les neurones à l’intérieur du réseau peuvent être décrites par une
matrice, appelée matrice des poids synaptiques, indiquant les entrées des neurones auxquels est
connectée la sortie de chaque neurone (en précisant le poids synaptique de l’entrée). Le coefficient
Cij (sortie du neurone i vers l’entrée du neurone j) est nul si le neurone i n’est pas connecté au
neurone j. Dans l’extrait de matrice présenté page suivante, le neurone 1 est connecté par sa sortie
au neurone 4 (poids synaptique de l’entrée : 0,7) et au neurone 5 (poids synaptique de l’entrée :
0,9). b – Fonctionnement du réseau (notions élémentaires) Principes de fonctionnement :
apprentissage L’application d’un stimulus aux entrées du réseau va entraîner une modification du
potentiel des neurones concernés ; cette modification du potentiel des neurones entraîne une
modification de la valeur de sortie. En raison des connexions, la modification corrélative se
transmet aux neurones connectés qui réagissent à leur tour. Le phénomène se transmet jusqu’aux
sorties du réseau. Les valeurs modifiées de ces sorties traduisent la réponse du réseau au stimulus
déclenchant (la réponse est décrite par le vecteur SM des sorties du réseau). Cette réponse varie en
fonction du stimulus ; elle est déterminée par la structure du réseau (représentée par la matrice des
poids synaptiques). Remarque En raison de l’existence de boucles dans le réseau, la réponse peut ne
pas être stable. Compte tenu de la logique d’utilisation décrite en introduction, on cherche à ce que
le réseau fournisse une « bonne réponse » lorsqu’on lui applique un certain stimulus. Pour
reproduire cette réponse, donc pour que le réseau ait un comportement adapté à la résolution du
problème, on va lui faire subir un apprentissage. Cet apprentissage consiste à modifier la matrice
des poids synaptiques jusqu’à ce que le réseau reproduise les réponses souhaitées. Selon la méthode
utilisée pour l’apprentissage, on distingue différents types de réseaux (réseaux à matrice
précalculée, réseaux à apprentissage non supervisé ou réseaux à auto-organisation, réseaux à
apprentissage supervisé. . .). Dans le cas des réseaux à apprentissage supervisé, on présente une
situation au réseau, on la lui fait apprendre et mémoriser puis on lui fait apprendre une deuxième
situation (en espérant que l’apprentissage de la seconde ne lui fera pas oublier la première). Un des
mécanismes d’apprentissage les plus utilisés est fondé sur l’« exploitation de l’erreur » : après une
expérimentation, on calcule l’écart entre la réponse désirée et le vecteur de sortie observé («
gradient d’erreur »). Cet écart est repris par un algorithme d’apprentissage qui en déduit les
corrections à apporter à la matrice des poids synaptiques ; cette correction se fait progressivement,
par « pas » successifs. Une des difficultés pratiques consiste d’ailleurs à définir la valeur du pas de
correction : – s’il est trop faible, le temps d’apprentissage sera très long ; – s’il est trop fort, le
comportement du réseau peut devenir erratique. En définitive, le comportement du réseau, ses
capacités d’apprentissage et donc son aptitude à résoudre un certain type de problèmes sont
déterminés par : – les fonctions de potentiel et de sortie de chacun de ses neurones ; – la structure
d’interconnexion des neurones ; – le mécanisme d’apprentissage utilisable. Problèmes d’utilisation
Compte tenu de leurs caractéristiques, les réseaux de neurones offrent des avantages certains pour la
résolution de problèmes pour lesquels on ne dispose pas de modèles pertinents car : – ils peuvent
trouver des solutions à partir d’exemples ; – ils tolèrent l’absence de certaines données (le réseau
peut assimiler une situation décrite de manière incomplète à un type de situation qu’il connaît) ; –
ils sont adaptatifs car ils peuvent poursuivre leur apprentissage pendant leur utilisation.
Entrées 1 2 3 4 5 6
Sorties 1 0 0 0 0,7 0,9 0 2 0 0 0 0 1,5 3
En outre, leur principe de modélisation permet souvent des traitements parallèles autorisant une
grande rapidité de calcul lorsque l’on dispose d’un ordinateur multiprocesseur. Leur domaine
d’application privilégié reste celui de la reconnaissance des formes : reconnaissance de l’écriture
manuscrite, reconnaissance de la parole, reconnaissance d’images (photos, électrocardiogrammes).
Dans le domaine de la gestion, des applications à des problèmes d’optimisation (problème du
voyageur de commerce par exemple), des modèles prédictifs, voire de décision, des outils
d’évaluation d’entreprises (projet Sacre de la Banque de France) ont été réalisés. Outre l’exemple
de l’aide à la décision d’octroi de crédit (voir introduction du paragraphe), citons l’exemple
commenté par J.-P. Magnier (1991), dans le domaine de la recherche commerciale : il s’agit, pour
une entreprise commerciale, de prédire le comportement d’achat d’un client (achèterat- il ou non
l’année suivante ?) en fonction d’un certain nombre de caractéristiques initiales (âge, sexe. . .) et de
certaines actions commerciales (publicité, rabais. . .). Le principe consiste à fournir au logiciel,
construit sous forme de réseaux de neurones, un ensemble de données historiques décrivant les
caractéristiques du client, les actions commerciales menées et les résultats observés, pour lui
apprendre à prédire le fait que le client achètera ou non l’année suivante. Plusieurs solutions ont été
testées (réseau monocouche, réseau à nombre de neurones évolutif, réseau multicouche) et ont
permis d’obtenir des résultats très satisfaisants à partir d’un échantillon de 2 000 clients. Les
expériences d’utilisation révèlent également les principales difficultés d’utilisation : 1) Quel type de
réseau choisir ? Selon les caractéristiques du problème à résoudre, tel ou tel type de réseau peut se
révéler mieux adapté ; mais, en dehors de quelques contre-indications bien connues (faire de la
classification linéaire avec un réseau monocouche), on ne dispose pas d’une théorie robuste pour ce
premier choix. 2) Quelle structure donner au réseau ? Choisir le nombre de neurones, leur mode de
connexion ; fixer des valeurs aux paramètres (poids synaptiques). . . nécessitent des séries d’essais
préalables (et beaucoup d’intuition !).
3) Quand arrêter l’apprentissage ? À l’issue d’une certaine période d’expérimentation, il est très
difficile d’affirmer que l’on a obtenu la meilleure configuration et que l’on peut s’arrêter (il ne faut
pas oublier que le résultat de l’apprentissage dépend également de la qualité des données historiques
utilisées). Il faut donc déterminer des critères de validation (taux de réponses correctes par exemple)
permettant de considérer que le réseau résout bien le problème. c – Conclusion Les réseaux de
neurones ont, pour l’instant, connu des développements limités dans les domaines de la gestion.
Malgré des difficultés certaines de mise en oeuvre, leur robustesse, leur capacité d’apprentissage,
l’approche totalement empirique qu’ils permettent doivent leur assurer une place importante
complémentaire des autres outils d’aide à la décision, notamment dans les applications de fouille de
données, de prévisions commerciales, de gestion des risques. . . 3. Systèmes virtuels On assiste
actuellement au développement de systèmes d’information particuliers appelés systèmes virtuels.
En informatique, un système virtuel est un système qui permet d’engendrer des « environnements
virtuels ». Un environnement virtuel est une base de données interactives, explorable et visualisable
en temps réel sous forme d’images de synthèse, tridimensionnelles, de façon à donner le sentiment
d’immersion dans l’image. Dans ses formes les plus évoluées, l’environnement virtuel est un
véritable espace de synthèse, constitué d’une conjonction d’images mais aussi de sons, de
sensations tactiles. . ., dans lequel on peut avoir le sentiment de se déplacer physiquement grâce à
plusieurs systèmes électroniques. Dans un environnement virtuel, l’espace est purement subjectif,
c’est une abstraction qui autorise toutefois : – la perception des dimensions de l’espace (trois) ; – la
simulation des objets qui peuplent cet espace ; – la simulation du mouvement.
Cette simulation de l’espace peut se réaliser par différents dispositifs : – écrans larges et son haute
définition ; – casques de vision équipés d’écrans à cristaux liquides ; – « gant » de données muni de
capteurs de position de la main et des doigts ; – « combinaison de
données » : vêtement équipé de capteurs permettant de numériser les mouvements et la position du
corps ; – systèmes haptiques permettant de recréer certaines perceptions telles que le toucher et
l’effort musculaire (par exemple, des « bras » articulés). Le principe de fonctionnement d’un
système virtuel est le suivant : Utilisateur Capteurs d'entrée Moteur de réalité
Capteurs de sortie Le «moteur de réalité » est le modèle informatique qui engendre l’environnement
virtuel en recalculant tous les paramètres variables à partir des données reçues par les capteurs
d’entrée. Ce sont des programmes très complexes qui requièrent des puissances de traitement très
élevées. Les systèmes virtuels (on utilise aussi l’expression systèmes de « réalité virtuelle ») sont
essentiellement utilisés pour la simulation, c’est-à-dire la modélisation et la représentation de
phénomènes réels ou imaginaires.
Les applications les plus immédiates sont : – les jeux (systèmes ludiques) ;
– la formation et l’entraînement de professionnels. Citons, par exemple, la formation de chirurgiens
à la microchirurgie (le chirurgien guide des micro-instruments dans le corps du « patient »),
l’entraînement des pilotes d’avion sur des simulateurs. . .
Des applications proches de l’aide à la décision se développent progressivement : – par exemple,
possibilité pour un architecte de visualiser l’immeuble qu’il conçoit, de le faire « visiter » par son
client, de modifier immédiatement certaines caractéristiques (dimension des fenêtres, revêtements
de sols ou de murs.. .) et de recommencer la « visite ». Le client est ainsi assisté dans sa décision de
choix ; – aide à la recherche en marketing avec la simulation d’un supermarché où le client « réalise
des achats » ; l’expérimentation est à la fois plus rapide et moins coûteuse que dans un supermarché
réel car le supermarché virtuel peut être modifié de manière très simple ; – visualisation de données
financières en temps réel sous des formes géométriques en trois dimensions pour des courtiers en
Bourse de valeurs – construction d’univers virtuels, conçus comme des environnements en trois
dimensions reliant une communauté humaine au travers d’avatars (utilisés notamment pour les jeux
de simulation dans les formations en ligne). Ces applications ont encore un caractère expérimental ;
cependant, certains principes de la « réalité virtuelle » sont déjà intégrés dans la conception des
dialogues homme-machine : commande vocale des machines, utilisation d’icônes pour la
représentation des opérations. . . La spécificité des systèmes de « réalité virtuelle » repose sur deux
principes majeurs :
– la transformation de concepts en objets sensibles, grâce à un environnement virtuel ; – une
intervention naturelle et intuitive par l’immersion dans cet environnement. Ces deux principes
majeurs doivent déboucher sur la conception de systèmes d’aide à la décision beaucoup plus
simples à utiliser que les systèmes actuels. Pour résumer
Le domaine de l’aide à la décision par le recours aux technologies de l’information a connu des
évolutions nombreuses, avec des progrès notables dans la gestion des données, la représentation des
connaissances et la communication homme-machine. Pour les raisons que nous avons indiquées
dans la première section de ce chapitre, l’apport des SAD reste encore faible pour les décisions non
structurées. En revanche, pour les décisions structurées, cet apport semble plus net. Beaucoup de
travaux de recherche ont tenté de mettre en évidence cet apport en caractérisant une relation directe
entre les capacités du SAD et la performance décisionnelle (décision plus pertinente, plus efficace,
plus rapide.. .). Les résultats ont été, en général, peu convaincants. Comme le suggèrent P. Todd et I.
Benbasat (2000), plusieurs facteurs sont à prendre en considération pour expliquer la performance
décisionnelle. Le schéma cidessous permet de mieux comprendre pourquoi il n’est pas aisé
d’évaluer l’apport d’un SAD : en particulier, l’utilisateur peut toujours arbitrer entre l’« effort
cognitif » qu’il souhaite produire et le niveau de « qualité » visé pour la décision qu’il a à prendre.
Le recours au SAD peut ne produire aucun effet observable même si son apport est bien réel pour le
décideur. Ce difficile problème de l’évaluation sera repris, d’une manière plus générale, dans le
dernier chapitre de cet ouvrage.
Chapitre 4 L’aide à la communication
1. La problématique de la communication : pourquoi et comment
communiquer ?
2. Les réseaux et Internet
. Pour résumer
Le développement considérable des réseaux internes et externes a transformé les technologies
d’information (TI) en technologies d’information et de communication (TIC.). Il convient donc de
comprendre d’abord pourquoi et comment communiquer : à la fois pour transmettre, pour échanger
et pour construire du sens. C’est en s’appuyant sur ces trois différentes visions que l’on peut
comprendre le développement des outils de communication : Internet, travail collaboratif,
commerce électronique..
Au terme de ce chapitre, vous devez être en mesure :
de décrire les différents principes de la coordination dans l’entreprise et entre organisations . de
présenter les différents aspects du concept de communication dans les organisations . de connaître
les différents outils informatiques d’aide à la communication . de connaître les principes de base
d’Internet . de discuter des différents problèmes liés à l’utilisation d’Internet dans les organisations
en termes de savoir-faire : d’expliquer, dans une étude de cas, à quel(s) modèle(s) théorique(s) se
rattachent une pratique ou un outil de communication dans l’entreprise.
Comme le rappelle H. Simon (1983) : « La communication au sein des organisations est un
processus à double sens : elle englobe à la fois la transmission d’ordres, d’informations et de
conseils à un centre de décision et la transmission des décisions prises à partir de ce centre aux
autres parties de l’organisation. »
À ce problème fondamental de la communication interne s’ajoute celui de la communication
externe. Toute organisation, à des degrés divers, doit, pour assurer sa survie, effectuer des échanges
de biens et de services avec son environnement (d’autres organisations, d’autres individus que ceux
qui la composent). Ces échanges impliquent nécessairement des actions de communication. Des
études convergentes montrent que 75% du temps de travail des employés et plus de 80 % du temps
de travail des cadres sont consacrés à ces activités de communication interne et externe. Il n’est
donc pas plus surprenant que l’on ait songé à utiliser des technologies de l’information pour tenter
d’améliorer l’efficience et l’efficacité de ces activités. Axées à l’origine sur les activités de calcul et
de traitement, les technologies de l’information ont été orientées dès les années 1980 vers l’aide à la
communication. Cette phase de développement accéléré s’est d’ailleurs traduite, de façon
significative, dans le vocabulaire par la substitution de l’appellation « technologies de l’information
et de la communication (TIC) » à l’appellation ancienne « technologies de l’information (TI) ». Plus
récemment, le développement des réseaux à l’échelle mondiale avec l’apparition puis l’extension
considérable d’Internet a rendu encore plus indispensable une réflexion sur l’intérêt véritable des
systèmes d’aide à la communication. Mais comprendre ce que peuvent apporter les TIC à
l’amélioration des diverses formes de communication exige, au préalable, que soient explicitées
d’abord les raisons pour lesquelles on doit communiquer puis ensuite que soit clairement défini ce
qu’il faut entendre par processus de communication. Ces préalables étant rappelés, on peut alors
mieux caractériser les différentes formes que peut revêtir la notion d’aide à la communication. C’est
pourquoi, dans la première section de ce chapitre, nous présentons la problématique majeure de la
communication (pourquoi et comment communiquer) pour décrire, dans la seconde section, les axes
principaux des développements actuels des TIC autour des réseaux et d’Internet.
1 La problématique
communiquer ?
de
la
communication
:
pourquoi
et
comment
Les motifs pour lesquels se déclenche une action de communication sont variés. Comme nous le
montrerons dans un premier point, l’analyse de ces besoins de communication est utile pour mieux
comprendre dans quelles conditions peut intervenir l’aide potentielle d’un outil de communication.
Cependant, l’estimation fine des potentialités de l’outil ne peut se construire qu’à partir d’une vision
théorique du processus de communication ; c’est ce que nous montrerons dans un second point.
1 1 Communication et coordination
Nous nous intéresserons, ici, aux aspects instrumentaux de la communication qui ressortissent du
problème majeur de la COORDINATION INTRA et INTERORGANISATIONNELLE. Ce
problème correspond, en pratique, à la plus grande partie des communications échangées, celle pour
laquelle, en raison du volume des échanges et de leur caractère répétitif, le recours aux TIC semble,
a priori, le plus pertinent.
1 La coordination dans une organisation
La constitution de toute organisation obéit à un principe simple : se regrouper pour réaliser à
plusieurs ce qu’un individu isolé ne peut accomplir. L’organisation repose donc sur le principe
général de la DIVISION DU TRAVAIL, ce qui entraîne automatiquement la question
fondamentale : comment faire en sorte que l’objectif général de l’organisation soit respecté malgré
la répartition des tâches entre les participants ? La réponse à cette question est la
COORDINATION. L’analyse de la coordination peut être conduite selon deux dimensions : –
VERTICALE avec l’application du principe de hiérarchie ; – HORIZONTALE avec l’application
du principe de séparabilité. 1. Hiérarchie et communication verticale Dans toute organisation
(même dans celles qui semblent « peu organisées »), il existe un partage des tâches, en particulier
des tâches de décision, selon le principe de hiérarchie. Le modèle de la commande hiérarchisée
(figure 1) permet de représenter les caractéristiques structurelles et fonctionnelles de la hiérarchie :
Il existe plusieurs organes de décision (individus ou groupes) appelés « centres de commande » se
partageant la tâche de conduire un processus ; on admet que ce processus commandé, objet de la
décision, puisse être décrit au minimum par un indicateur de performance (efficience, efficacité. . .).
Exemple Dans une grande banque, les conditions générales d’octroi d’un crédit à une entreprise
sont définies par la direction commerciale (niveau 3) ; les directeurs d’agence principale (niveau 2)
peuvent, en respectant ces conditions générales, accorder des crédits aux entreprises clientes de
l’agence. Ils peuvent également confier à des directeurs d’agence secondaire (niveau 1) la décision
d’accorder des crédits d’un certain type, pour un montant limité. b – Caractéristiques fonctionnelles
Le fonctionnement d’une hiérarchie est caractérisé par : – l’interdépendance des décisions pour la
poursuite des objectifs : la performance observée au niveau du processus commandé découle de
l’ensemble des décisions prises aux différents niveaux et pas seulement de celles prises à un seul
niveau. (Par exemple, le profit réalisé dans les opérations de crédit aux entreprises dans le cas cidessus découle à la fois des choix politiques effectués par la direction commerciale et des décisions
d’accord de crédit prises aux niveaux 2 et 3.) ; – la communication incomplète entre les niveaux
hiérarchiques. Les échanges verticaux d’information entre les différents niveaux ne sont pas des
transmissions pures et simples. Exemple
Dans le cas de la banque, les directives de la direction générale peuvent se limiter à fixer des «
fourchettes de taux », des règles de prudence et des priorités selon les secteurs d’activité. Un
directeur d’agence principale complétera ces directives générales par des consignes plus précises
sur les critères à respecter (structure financière de l’entreprise par exemple) avant d’accorder le
crédit. L’application du principe de hiérarchie se traduit donc par des besoins en communication
verticale dans les deux sens.
2. Interdépendance et coordination
Le principe de hiérarchie définit une logique « verticale » dans la division du travail ; cette logique
verticale se combine avec une logique « horizontale » du découpage des activités dans
l’organisation. Ce découpage en unités est un des paramètres fondamentaux de toute organisation et
peut être opéré selon des critères variés. Citons les plus fréquents dans les entreprises 1 : –
fonctionnels (par spécialisation) : ventes, production, achats, comptabilité ; – géographiques :
ventes France, ventes Europe, ventes USA-Canada ; – par marchés ou par produits : division
composants, division produits grand public. Ce choix a une influence déterminante sur les
conditions de communication dans l’organisation. a – Interdépendance des activités Pour assurer le
respect de l’objectif global de l’organisation malgré le découpage nécessaire en unités, il est
nécessaire de bien comprendre la nature des relations susceptibles d’exister entre les différents
domaines à l’intérieur de l’organisation. 1. Cf. J.-P. Helfer, M. Kalika, J. Orsoni, Management,
stratégie et organisation, Vuibert, 2010.
Il existe des interdépendances entre les domaines d’activité : – interdépendance indirecte : les
activités n’échangent pas directement des informations ou des biens mais elles utilisent des
ressources partagées. (Par exemple, les deux divisions de l’entreprise utilisent les services communs
de l’informatique, du personnel et de la comptabilité.) ; – interdépendance séquentielle : le résultat
d’une activité est utilisé en entrée (input) d’une autre activité. (Par exemple, les composants
produits par l’usine A sont utilisés par l’usine B chargée du montage.) Il y a donc échange direct de
biens et d’informations ; – interdépendance réciproque : alternativement, en permanence, chaque
domaine échange avec les autres des biens et de l’information. (Par exemple, deux ateliers
travaillent en parallèle sur des sousensembles à intégrer dans un produit final ; ils doivent
s’informer mutuellement de l’état d’avancement, des modifications à envisager. . .) Quelle que soit
la nature des interdépendances, la conséquence est identique ; il y a interaction. . La performance
obtenue au niveau d’un domaine dépend également des décisions prises dans un autre domaine. (Par
exemple, les quantités produites par l’usine B dépendent de la qualité des composants fournis par
l’usine A.) . L’optimum global n’est plus la somme des optima locaux. (Par exemple, si, en
cherchant à produire au maximum, l’usine A consomme davantage d’une matière première
commune rare, l’usine B peut être pénalisée fortement et le résultat globalement diminué.) La
coordination s’impose pour éviter des dysfonctionnements graves tels que : – décisions locales
inadaptées ; – conflits entre unités ;
– absence de décision. « Coordonner des tâches, c’est gérer les interdépendances entre activités
pour atteindre un but » (Malone et Crowston, 1984).
b – Mécanismes de coordination La coordination apparaît comme une activité supplémentaire de
traitement et de communication d’information qui doit être exécutée lorsque des acteurs multiples
interviennent à la place d’un acteur unique poursuivant les mêmes buts.
Comme le montre H. Mintzberg, cette activité peut être réalisée grâce à différents mécanismes de
coordination à l’intérieur de l’organisation : ajustement mutuel, supervision directe, standardisation.
1) Ajustement mutuel Les unités qui doivent se coordonner échangent directement, sous une forme
quelconque (définie ou libre), des informations relatives à leur état actuel, à leurs intentions. . . Cet
échange d’informations peut être accompagné de négociation lorsque des conflits apparaissent. Ce
procédé, naturel, simple dans son principe, est utilisé dans les organisations sous différentes
formes : conversation spontanée, entretiens ou réunions planifiées. . .
Exemple Dans une entreprise industrielle de taille moyenne, travaillant à la commande, le directeur
de la production et le directeur commercial décident en commun du programme de production de la
semaine à venir. Cette coordination est indispensable car les conflits potentiels sont nombreux : le
directeur commercial cherche à satisfaire les commandes qu’il juge urgentes, le directeur de
production cherche à minimiser le coût de production. Les risques de sous-optimisation en
l’absence de coordination sont réels. Ce procédé se heurte à des limites évidentes lorsque le nombre
des personnes concernées augmente : la multiplicité des relations, les grands volumes
d’informations à échanger conduisent à des pertes de temps considérables. Il est donc indispensable
de recourir à d’autres mécanismes pour assurer la cohérence. 2) Supervision directe par hiérarchie
Le principe de hiérarchie, déjà analysé, se caractérise par des relations de pouvoir asymétriques. Le
principe de supervision directe consiste à confier à un acteur
de niveau supérieur la charge d’assurer la cohérence des comportements des niveaux inférieurs en
donnant des ordres, des consignes tenant compte des informations dont lui seul dispose. Le nombre
de centres de commande ainsi coordonnés par un supérieur correspond à son étendue de contrôle
(span of control). La généralisation de ce procédé conduit ainsi à la notion de pyramide hiérarchique
combinant le découpage vertical et le découpage horizontal des tâches de décision. Les
conséquences de son application sont les suivantes :
. Une hiérarchisation des modèles de gestion selon la complexité : le coordinateur (niveau
supérieur) doit assurer la cohérence des décisions de niveau inférieur ; pour ce faire, il doit disposer
d’un modèle de gestion prenant en compte l’ensemble des variables « gérées » par ses subordonnés,
voire des variables supplémentaires.
. Une fréquence de décision plus faible au fur et à mesure que l’on monte dans la hiérarchie, pour
un problème donné. En effet, lors du découpage des domaines d’activité, on essaie de tenir compte
au mieux des interdépendances ; le choix des « frontières » des espaces de décision permet de
limiter les interactions, à l’avance. Ce n’est que lorsque des conflits se révèlent que le niveau
supérieur intervient. . L’horizon temporel de la décision s’allonge au fur et à mesure que l’on monte
dans la hiérarchie. Dans la mesure où la fréquence de décision est plus faible et le nombre de
variables prises en compte plus élevé, le « terme » de la décision tend à augmenter lorsque l’on
s’élève dans la hiérarchie. Exemple
Si l’on considère l’organisation des achats de l’entreprise X. . . au bas de la pyramide, on trouve des
acheteurs qui passent des commandes en fonction des besoins observés ; leur variable de décision
est la date de commande. En revanche, ils doivent s’adresser à des fournisseurs choisis par la
direction des achats (qui tient compte d’un certain nombre de paramètres qu’ils ne connaissent pas
systématiquement : niveau de qualité, prix. . .). La direction des achats se voit elle-même imposer
des spécifications précises par la direction de la production dont elle dépend. Ces spécifications
précises répondent aux exigences des responsables de la fabrication. La modification des
spécifications a rarement lieu plus d’une fois par an ; la décision de recourir à un autre fournisseur
est un peu plus fréquente ; la décision d’approvisionnement est parfois quotidienne. La cohérence
ainsi organisée dans la hiérarchie conduit souvent à répartir, vers le bas, des décisions à temps de
réponse court, à horizon limité, à fréquence élevée, et à renvoyer vers le haut les décisions à modèle
complexe, à horizon plus éloigné et à temps de réponse plus long. 3) Coordination par
standardisation Le troisième mécanisme fondamental de coordination consiste à élaborer des
standards, des normes.. ., qui guideront les comportements des participants dans l’organisation.
Cette standardisation peut d’abord concerner les processus se déroulant dans l’organisation : on
définit ainsi des manuels de procédures, des modes opératoires précisant à chacun ce qu’il doit
faire, quelles sont les règles à respecter. Les plans et les programmes fixent ainsi des références
communes aux différents membres de l’organisation et délimitent leur domaine d’action. Ces
standards ayant prévu les interactions assurent un certain degré de coordination. Cette
standardisation peut porter sur les résultats à obtenir. Les objectifs locaux détaillés indiquent à
chaque acteur vers quoi il doit tendre ; on lui laisse le choix (au moins limité) des moyens et
méthodes. Ce principe respecte davantage la latitude décisionnelle de chaque centre de décision et
nécessite moins d’échanges d’informations.
Exemple Les budgets décrivant les objectifs acceptés par chacun et harmonisés par la direction
générale. Une troisième forme de standardisation concerne les comportements. Par le biais de la
formation, des pratiques de socialisation (projet d’entreprise, cérémonies collectives. . .), on essaie
de faire adopter à chacun des valeurs de référence, des comportements types. . ., de manière à
réduire la charge de coordination.
Exemple Dans la plupart des entreprises, l’accent mis sur le projet commun, la « culture » de
l’entreprise. . . correspond à la recherche de ce type de coordination. Au fur et à mesure que le
travail devient plus compliqué, les moyens favoris de coordination semblent passer de la forme
d’ajustement mutuel (le mécanisme a priori le plus riche dans une petite structure) à la supervision
directe (le mécanisme a priori le plus clair dans une grande structure), puis à la standardisation (par
les procédés de travail, par les résultats à obtenir ou par la culture commune) pour finalement
revenir à celle de l’ajustement mutuel (car, paradoxalement, c’est le mécanisme qui est le mieux à
même de correspondre à des formes complexes de travail). Pour Mintzberg, chacun de ces
mécanismes de coordination est caractéristique d’un type de forme structurelle : structure simple,
bureaucratie industrielle, bureaucratie professionnelle, forme divisionnalisée, adhocratie. c –
Coordination et communication
Les exigences de la coordination imposent des choix quant aux processus de communication à
retenir mais, réciproquement, à un moment donné, les caractéristiques des canaux de
communication disponibles conduisent éventuellement à privilégier certains modes de coordination
dans l’organisation. Ces rapports dialectiques entre modes de coordination et processus de
communication sont fort complexes à analyser. Aussi, nous nous limiterons aux questions les plus
immédiates. . Formalisation de la communication
En dehors des organisations de très faible dimension, la communication est définie formellement,
au moins de manière partielle, pour les échanges réguliers, de volume élevé. Des procédures
précisent le contenu, la fréquence, le délai d’acheminement, les points d’émission et de réception de
messages à échanger soit verticalement, soit latéralement. Dans les très grandes organisations, le
découpage de la décision et le partage de l’information sont concrétisés sous forme de dossiers,
transmis successivement à différents postes de travail et traités de manière séquentielle. La
communication est de forme écrite et rigoureusement définie.
Cette formalisation par lettre, note, compte rendu, dossier. . ., apporte une grande sécurité de
fonctionnement en réglant les conflits potentiels liés au partage de la décision et de l’information
pour des activités récurrentes, stabilisées et de fort volume. Mais même dans les organisations très
bureaucratiques où l’analyse de la coordination et de la communication a été conduite à un niveau
élevé de précision, on observe l’émergence de communications informelles entre individus,
n’obéissant pas à un schéma préétabli. Les discussions de « couloir », les conversations au
restaurant d’entreprise, l’appel téléphonique, les SMS.. ., sont des manifestations tangibles de ce
besoin de communication complémentaire non satisfait par la structure formelle. Une part
importante de coordination est ainsi réalisée par des ajustements mutuels non prévus dans le mode «
officiel » de fonctionnement de l’organisation.
On constate assez souvent que ces mécanismes informels jouent davantage à l’intérieur de certains
« clans », groupes d’individus entretenant des relations privilégiées et s’informant mutuellement de
manière préférentielle. Ces réseaux informels de communication peuvent renforcer ou contrarier le
rôle des réseaux organisés (réseaux de personnes appartenant à la même religion ou pratiquant le
même sport. . .). L’expérience montre que, dans tous les cas, une organisation ne peut fonctionner
efficacement en utilisant seulement les communications formelles ; l’analyse de la cohérence
organisationnelle ne peut négliger les aspects informels de la communication et de la coordination. .
Communication et fonctionnement des hiérarchies La hiérarchie et le mode de coordination par
supervision directe qui lui est associé engendrent des flux de communication verticaux : ordres et
consignes dans le sens ascendant, comptes rendus et informations de contrôle et d’intelligence vers
le haut. Ce schéma simple se heurte à quelques difficultés dont nous citerons les deux principales : –
biais et rétention dans les informations ascendantes : toutes les informations n’ont pas la même
probabilité d’être transmises vers le haut de la hiérarchie. En particulier, une information dont la
transmission risque d’entraîner des conséquences désagréables pour l’émetteur ne remontera dans la
hiérarchie que si le niveau inférieur n’a pas d’autre choix (en particulier parce qu’il est persuadé que
son supérieur en aura de toute façon connaissance et qu’il vaut donc mieux l’informer).
L’information traduisant un succès des niveaux inférieurs remonte plus facilement que celle
traduisant un échec ; – réduction de l’incertitude : lors de sa transmission (vers le haut en
particulier), l’information peut subir des altérations
successives à chaque étape de la communication et être fortement distordue lorsqu’elle arrive à
l’utilisateur ultime. Un exemple particulièrement illustratif de ce phénomène est l’absorption de
l’incertitude qui tend à faire considérer comme vérifiée une proposition hypothétique à l’origine. .
Communication et mode de coordination Les différents modes de coordination n’ont pas les mêmes
exigences pour la communication entre les unités à coordonner. La coordination par la
standardisation des comportements présente l’intérêt majeur de pouvoir fonctionner en l’absence de
communication. La standardisation par les résultats à obtenir réclame une communication
périodique mais est relativement peu exigeante en informations. La standardisation des processus
peut exiger une importante communication formelle initiale ; mais si les conditions sont stables, la
charge de communication peut être, par la suite, relativement réduite. La supervision directe, dans
une hiérarchie, exige une communication dans les deux sens ; l’intensité des échanges varie avec la
vitesse d’évolution des processus gérés : des processus stables permettent un apprentissage (voir
plus loin) des différents décideurs. Les ajustements de coordination sont ensuite limités. En
revanche, lorsque les processus gérés sont fortement évolutifs, les modèles de gestion doivent être
modifiés fréquemment et l’intervention du niveau supérieur de coordination devient plus fréquente.
L’ajustement mutuel est le mode de coordination le plus exigeant en charge de communication ; il
réclame des processus interactifs de communication avec la transmission de signaux variés. Ce sont
d’ailleurs ces besoins élevés qui expliquent le recours à d’autres modes de coordination dans les
organisations. En fait, la coordination recouvre à la fois des processus de communication et des
processus de prise de décision. Le tableau ci-après caractérise, selon ce double point de vue, les
différents mécanismes de coordination.
Cette présentation séparée des mécanismes de coordination ne doit pas suggérer que leur utilisation
est exclusive ; dans la pratique, les différents mécanismes sont combinés, dans des proportions
variables, pour assurer un degré de communication jugé satisfaisant. . Coordination, collaboration,
coopération Nous avons présenté ci-avant le concept de coordination. La littérature du management
utilise également les termes COLLABORATION et COOPÉRATION, malheureusement dans des
acceptions variées. Il semble que l’on puisse réserver :
– le terme de COLLABORATION à des situations dans lesquelles différentes unités (individus,
groupes, organisations. . .) agissent en commun (collaborent) tout en poursuivant leurs propres
objectifs pour obtenir leurs propres résultats (alors que la coordination suppose l’existence d’un
objetif commun) ; – le terme de COOPÉRATION à des situations où la coordination programmée se
révèle insuffisante, où les acteurs doivent faire preuve d’un comportement actif d’engagement,
définir un but commun pour dépasser les antagonismes, faire preuve de confiance envers les
partenaires, accepter la responsabilité des résultats (« lier indissociablement sa performance à celle
d’autrui », Rowe, 2002, p. 190). La coopération inclut la coordination mais la dépasse en cas d’aléa.
1 2 1 La coordination entre organisations
Une organisation ne constitue pas un monde isolé ; elle doit gérer des échanges avec son
environnement. Ainsi l’entreprise entretient-elle des relations avec ses clients, ses fournisseurs, ses
partenaires, les différentes autorités publiques (fisc, Sécurité sociale. . .). La communication externe
constitue donc un aspect important du problème général de la communication d’une organisation.
En ce qui concerne la coordination entre organisations marchandes, la théorie économique a
souligné depuis longtemps le rôle du marché comme instrument majeur de la coordination des
activités économiques. Des analyses plus récentes ont ainsi montré les limites de ce mode de
coordination et expliqué l’émergence de formes hybrides comme les réseaux d’entreprises, espaces
de coordination dépassant les frontières traditionnelles de l’organisation. 1. Coordination par le
marché et coûts de transaction L’activité économique est partagée entre différents acteurs : des
ménages, des entreprises, des États..). chaque agent prend ainsi des décisions de consommation, de
production, d’investissement, d’épargne, de manière plus ou moins indépendante. Les économies
capitalistes sont coordonnées par l’intermédiaire des marchés, lieux de confrontation de l’offre et de
la demande, transmettant des signaux aux différents décideurs sous forme de prix. Ces signaux vont
déclencher des décisions d’ajustements interactifs à la fois des producteurs et des consommateurs,
conduisant à une situation d’équilibre (théorique) entre offre et demande. Le marché apparaît donc
comme un procédé de coordination des activités économiques entre organisations, entre individus,
sans qu’il y ait d’échanges spécifiques d’information autres que les prix. Une question essentielle
posée par certains économistes devient donc d’expliquer pourquoi les grandes entreprises (les «
hiérarchies ») coexistent avec le marché et dans quel cas il y a supériorité d’un mode sur l’autre. Si
les entreprises existent et choisissent de coordonner dans leur organisation des activités variées
plutôt que d’abandonner ce soin au marché, c’est pour plusieurs raisons complémentaires :
– tout d’abord (Alchian et Demsetz) parce qu’il existe des inséparabilités techniques dans la
production de certains biens (par exemple entre un haut fourneau et un laminoir pour produire de
l’acier) ; – ensuite parce qu’il existe des coûts de TRANSACTION (O. Williamson) lorsque le
marché est choisi comme mode de coordination. Ces coûts (théoriques, mais non facilement
chiffrables) sont liés à la transaction. Ce sont des coûts engagés avant la transaction (coûts de
recherche des partenaires, coûts d’études, coûts de négociation, coûts liés à la rédaction des
contrats. . .) ou des coûts engagés après la transaction (coûts d’administration, de surveillance et de
contrôle engagés par les cocontractants pour veiller au respect des règles du contrat). Ils
correspondent, en particulier, au souci de se protéger du comportement opportuniste du partenaire à
l’échange (tromperie initiale sur la qualité du produit, non-respect de certaines clauses. . .). Ces
coûts de transaction apparaissent en fait comme des coûts de la COORDINATION EXTERNE (par
le marché) qui, par suite, peut se révéler plus coûteuse que la COORDINATION INTERNE (par
intégration à l’intérieur d’une hiérarchie). Par conséquent, pour la réalisation de ses finalités
économiques, l’entreprise peut choisir de faire appel au marché (elle engage alors des coûts d’achat
et des coûts de transaction) ou d’intégrer des activités au sein de son organisation (elle engage alors
des coûts de production et de coordination interne). La théorie des coûts de transaction
(Williamson) explique donc le choix des formes de coordination (interne ou externe) retenues par
les entreprises et le rôle des différents déterminants de ces choix (spécificité des actifs, risques
acceptés, degré de confiance entre entreprises). Bien entendu, ces choix ont des conséquences sur
les besoins en communication et ne sont pas indépendants (comme nous le montrerons plus loin)
des possibilités d’aide à la communication. L’organisation et le marché apparaissent donc comme
des modes alternatifs de coordination des activités. Mais ces deux modes peuvent être également
considérés dans des formes hybrides, intermédiaires entre le marché et la hiérarchie, correspondant
aux différentes variétés de réseaux d’entreprises. 2. Coordination dans les réseaux : de l’entreprise
étendue à l’entreprise virtuelle L’observation des économies contemporaines (en particulier en
Europe et au Japon) révèle le développement important de la collaboration entre entreprises au sein
des réseaux. Selon Dumoulin et al. (2000, p. 85) : « Ni quasi-firme, ni quasi-marché mais forme
transactionnelle à part entière, le réseau est un ensemble contractuel organisé et articulé, associant
au minimum deux partenaires liés par des relations d’échange à plus ou moins long terme et par une
confiance mutuelle et résultant d’une action spécifique d’organisation et de régulation fondée sur
des modes plus ou moins formalisés et élaborés de contrôle. » Les réseaux correspondent à
différentes formes, selon les objectifs poursuivis : réseau d’un donneur d’ordre et de ses soustraitants, réseau de franchise, réseau d’alliance avec ou sans création de filiales communes.. . Le
réseau peut être considéré comme une extension de l’organisation existante ; on utilise souvent le
terme d’ENTREPRISE ÉTENDUE pour désigner ce nouvel espace de coordination où sont traitées
et échangées des informations de toute nature, entre différents acteurs situés dans la firme ou à
l’extérieur de la firme, à des niveaux hiérarchiques différents ou identiques. Pour répondre aux
besoins de coordination, les ressources mobilisables sont de plusieurs types : – relations
interpersonnelles entre acteurs des différentes organisations partenaires (avec des degrés de
confiance variables), traduisant des processus d’ajustement mutuel ; – recours aux contrats qui, en
organisant l’échange des droits et en définissant des règles de conduite, apportent des garanties sur
le respect des engagements respectifs ; – standardisation des procédures d’échange par
formalisation commune (ces procédures formelles sont parfois incorporées dans les contrats), avec
recours éventuel aux technologies de l’information.
En poussant au maximum cette logique de l’externalisation, on aboutit à l’ENTREPRISE
VIRTUELLE qui se caractérise (Kraut et al., 1999) par :
– l’externalisation systématique de la majorité des activités (production, vente, maintenance. . .) ;
l’entreprise virtuelle se réduit à un noyau maîtrisant éventuellement l’activité clé et assurant la
coordination entre les différents partenaires (la composition du réseau peut évoluer en fonction des
besoins définis par le noyau coordinateur) ; le processus de production (au sens large) est donc
contrôlé par plusieurs hiérarchies ; – une dispersion géographique des différents partenaires (on
parle d’entreprise « distribuée »), reliés par des moyens électroniques de communication, avec très
peu de contacts directs entre participants au réseau.
Bien entendu, cette notion d’entreprise virtuelle reste un modèle théorique ; dans la réalité, on
observe des degrés plus ou moins intenses de VIRTUALISATION (caractérisés par la part plus ou
moins importante des activités externalisées et par le degré d’utilisation des réseaux électroniques
pour la communication).
3. Conclusion L’analyse ci-dessus révèle des analogies profondes, sur le plan des principes, entre la
coordination interne et la coordination externe. Cela explique, comme nous le montrons ci-après,
que les mêmes technologies (réseaux électroniques) puissent être utilisées dans l’aide à la
communication, support de la coordination. Il faut cependant garder à l’esprit l’existence de
différences sensibles quant aux conditions de communication :
– nature différente des relations interpersonnelles : absence de relations hiérarchique dans la
coordination interfirmes (même si des relations de pouvoir existent), niveau de confiance et
possibilités de contrôle différents. . . ;
– exigences de sécurité juridique plus grandes en communication externe qu’en communication
interne : respect nécessaire de la loi et des termes des contrats liant les partenaires. Ces différences
traduisent le fait que, dans le fonctionnement des réseaux d’entreprises, on se trouve en situation de
collaboration (chaque entreprise poursuit ses propres objectifs) au moins au démarrage de la
relation. On notera toutefois qu’une collaboration réussie peut entraîner un développement de la
confiance entre partenaires et l’apparition d’une véritable attitude coopérative (le développement de
la confiance aboutit, en règle générale, à une diminution des besoins de communication entre
partenaires). On parle alors de coopétition, alliant coopération et compétition.
L’examen des objectifs de la communication auquel nous venons de procéder révèle des situations
de communication fort diverses (nombre et position des acteurs, volume et nature de l’information,
contraintes de temps et d’espace. . .). Il semble donc nécessaire, afin de mieux comprendre le rôle
des technologies de l’information, de dégager trois grandes visions de la communication :
communiquer c’est transmettre, communiquer c’est échanger, communiquer c’est construire du
sens. Nous préciserons ensuite ce qu’il faut entendre par aide à la communication.
1 1 2 Trois visions théoriques de la communication
Les théories de la communication peuvent être en effet regroupées en perspective instrumentale
(centrée sur l’étude des techniques de TRANSMISSION, et pour laquelle l’important c’est le
canal), en perspective d’acteurs (focalisée sur l’interprétation de l’ÉCHANGE, et pour laquelle
l’important c’est la relation) et en perspective interactionniste (fondée sur la CONSTRUCTION DE
SENS, et pour laquelle l’important est l’action sociale qui organise les rôles et les règles de
comportement).
1. La conception standard : communiquer c’est « transmettre »
L’origine de cette conception se trouve dans les travaux de Shannon et Weaver (1949). La
communication correspond à la transmission d’un message d’un émetteur à un récepteur. Ce
message est un ensemble de signaux, de signes ou symboles assemblés selon un code (par exemple,
les lettres d’un alphabet). Le schéma de base du processus est représenté par la figure 6. . Émetteur :
celui qui décide de communiquer pour atteindre certains de ses objectifs. Cet émetteur a un «
système de références », c’est-à-dire un ensemble de valeurs, une certaine « vision du monde » qui
explique en partie son comportement et ses processus interprétatifs
Récepteur : celui qui reçoit le message initial ; il peut devenir l’émetteur d’un message de réaction
au message initial. Il possède alors son propre système de références. . Canal ou média : c’est le
moyen de transmission choisi par l’émetteur pour transmettre le message (envoi d’une lettre, appel
téléphonique, courrier électronique. . .). . Bruits : le processus peut être perturbé par des
phénomènes de bruits, introduisant des distorsions entre le message émis et le message reçu (les
symboles sont déformés par l’existence de parasites dans le canal de transmission. . .). L’un des
résultats fondamentaux, c’est alors l’idée de capacité limitée des canaux à transporter une certaine «
quantité d’information » mesurée par un certain « débit d’originalité » : dans quelle mesure un
message de N signaux peut-il convoyer le maximum de changements possibles à l’autre bout ? Si la
quantité d’information est inférieure à la capacité du canal, alors les pertes tendent vers zéro. On fait
donc ici le postulat que le sens est défini avant la transmission. Dans ce modèle, l’information est
vue comme une grandeur objective et mesurable, c’est une grandeur statistique : La quantité
d’information est la mesure quantitative de l’incertitude d’un message en fonction du degré de
probabilité de chaque signal composant le message. La quantité d’information est, dans une certaine
mesure, la « quantité de nouveauté » transmise au récepteur du message. (Ainsi, un message
indiquant « Il a gelé à Marseille le 14 juillet » est considéré comme plus informant que le message
indiquant « La température maximale du 14 juillet à Marseille a été de 30 oC). L’efficacité de la
communication dans ce modèle se mesure donc par la quantité d’information transmise, entendue
comme la réduction de l’incertitude (au sens statistique du terme, celle de la probabilité de
l’apparition de la réalisation d’une variable aléatoire). La théorie de Shannon a eu le double
avantage de proposer une approche quantifiée de la communication et de fournir des éléments de
solution pour aborder des problèmes techniques importants (amélioration des débits des lignes par
exemple.. .). Mais elle se limite à l’aspect formel de la communication (probabilités de l’apparition
des signaux) et ne peut pas décrire la complexité des situations de communication observables dans
les organisations. Ces limites ont conduit à retenir des conceptions plus larges de la notion de
communication.
2. La conception étendue : communiquer c’est « échanger »
Dans « la théorie cybernétique du contrôle » établie par Norbert Wiener (1950), la situation de base
correspond à un émetteur-récepteur qui reçoit des messages de feed-back d’un autre émetteurrécepteur. Utilisée au départ pour la conduite des missiles ou des automates, cette vision de la
communication ne considère plus simplement une transmission mais bien un échange. La
cybernétique est en fait la science des systèmes commandés (le mot vient du grec kubernetes, le «
gouvernail », qui a aussi donné « gouvernement », mais qui aujourd’hui donne.. . « cyber-café », ce
qui n’a pas grand-chose à voir !). Elle centre l’objet de son étude sur la conception du récepteur
pour que son comportement soit conforme aux ordres transmis. Bien adaptée à l’étude des
automates, la cybernétique ne semble
pas a priori un outil approprié, pour une entreprise où l’on ne communique pas uniquement pour
commander. Pourtant ce sont bien ces schémas, articulés autour du concept central de « feed-back »,
qui permettent une description des interrelations entre les différents sous-systèmes de l’entreprise.
On fait donc ici le postulat que le sens se définit dans l’échange. Il s’agit ici du deuxième niveau
d’analyse de la communication, le niveau de l’utilité, c’est-à-dire du résultat effectif sur le récepteur
par rapport au « projet » de l’émetteur d’information.
L’école de Palo Alto (groupement de chercheurs d’origines diverses : Bateson, Jackson, Goffman,
Watzlawick.. .) est à l’origine de la notion de « communication élargie » : la communication doit
être pensée en dehors du modèle émetteur-récepteur et « considérée comme un processus social
permanent intégrant de multiples modes de comportement : la parole, le geste, le regard, la
mimique, l’espace interindividuel. . . (Winkin, 1981). Lorsque plusieurs acteurs sont réunis, tout
comportement a valeur de communication : chaque individu vit dans un ensemble de règles (qui
correspondent à un certain code de comportement) et les utilise obligatoirement dans sa
communication. «On ne peut pas ne pas communiquer » affirment les partisans de cette théorie.
(S’abstenir de parler au cours d’une réunion ne signifie pas ne pas communiquer mais communiquer
une idée d’indifférence ou d’embarras ou une stratégie d’évitement de conflit). La communication
est un comportement : pour la comprendre, il faut l’examiner dans sa totalité et ne pas se limiter au
seul message verbal exprimé. La communication verbale et la communication non verbale forment
un tout inséré dans un contexte et l’analyse d’une des seules composantes (la parole ou le geste. . .)
ne permet pas de reconstituer la signification de l’échange entre les acteurs. L’école de Palo Alto a
distingué deux grandes catégories de signaux : – les signaux de forme digitale, définis par des
conventions arbitraires entre signifié et signifiant (ce sont toutes les conventions du langage où une
suite de caractères correspond à un signifié : jour, day, tag, dia), traduisant le contenu du message ;
– les signaux de forme analogique qui correspondent au domaine de l’expression corporelle, qui
sont motivés (le sourire de bienvenue, la mimique de dégoût.. .) et qui traduisent la relation entre les
acteurs.
C’est l’ensemble de tous les signaux émis qui caractérise l’échange et le comportement de
communication et tout décalage entre la communication digitale et la communication analogique
engendre un paradoxe sur le plan de la compréhension du message.
3. La conception sociale : communiquer c’est « construire du sens »
La troisième approche de la communication, dite interactionniste, est avant tout intégrative. Elle
repose sur trois éléments fondamentaux : des interlocuteurs en relation dans un certain contexte, une
dynamique interactionnelle, et un système de régulation pour le partage du sens. – Le contexte
détermine en partie le rapport de place, et donc la position que chacun désire assumer (relations
étudiant/professeur, client/vendeur, malade/médecin.. . ou bien protecteur/ protégé,
victime/sauveur.. .). – La dynamique interactionnelle de la communication est fondée sur des
enjeux, qu’ils soient symboliques (faire bonne figure. . .) ou opératoires (obtenir une
information.. .) : les interlocuteurs développent une stratégie, avec des buts conscients ou
inconscients lors de l’interaction. – Enfin la construction de sens dépend d’un processus
d’inférence, qui consiste à sélectionner, parmi les implications possibles d’un énoncé explicite,
celles qui sont pertinentes par rapport au contexte. Ce qui est à la base de cette construction de sens,
c’est la réversibilité de ces schémas d’inférence, et la coconstruction du sens est donc progressive,
impliquant chacun des interlocuteurs (dans un « consensus », au sens d’Habermas). L’émetteur et le
récepteur ne sont plus différenciés, mais reconnus comme les acteurs d’un même processus (le
contexte social est envisagé comme une situation commune aux acteurs), et le message n’est plus
séparé de sa réception (on réunit les notions de message, de code et de décodage). Le message se
structure dans la relation au canal et au récepteur. « Le message, c’est le médium », dit M.
MacLuhan, en exagérant bien sûr, mais en voulant souligner ainsi deux choses : l’usage même du
médium est porteur de signification, et il modèle lui-même le message (le récepteur de télévision est
sans doute plus important que son programme, car il est le seul à avoir une influence durable).
L’information n’est pas univoque : un signe, reconnu comme tel par deux personnes, se verra
rarement attribuer le même sens, avec les mêmes connotations, par l’un et l’autre. L’usage quotidien
des langues naturelles nous fournit de nombreux exemples d’ambiguïtés et de glissements de sens.
Plus un système sémiotique est flou ou ambigu, plus il est aussi fertile, créatif et évolutif. . . On fait
donc ici le postulat que toute communication est une véritable construction sociale. La
communication est ici essentiellement une activité de construction de sens : le sens émerge d’un
contexte, caractérisé par des dimensions multiples : – contexte spatial : ce qui se dit prend un sens
par rapport à la disposition des lieux ; – contexte temporel : ce qui se dit à un instant prend un sens
par rapport à ce qui a été dit avant ; – contexte des positions relatives des acteurs : ce qui se dit
prend un sens par rapport au positionnement des acteurs entre eux (supérieur-subordonné par
exemple) ; – contexte culturel de référence aux normes partagées (règles habituelles de langage, de
respect. . .) ; – contexte de l’identité des acteurs : ce qui est dit prend un sens par rapport à ce que
l’on sait ou ce que l’on suppose des intentions de l’interlocuteur. Le processus d’interaction entre
les acteurs, dans un certain contexte, va faire émerger du sens et c’est cette émergence d’un sens qui
caractérise la véritable communication. Dans ce cas, la communication n’aboutit pas seulement
(comme dans la théorie standard de la communication) à une réduction d’incertitude mais
également à une réduction d’équivoque, d’ambiguïté. En effet, dans beaucoup de situations,
l’ignorance des acteurs ne se limite pas à la non-connaissance de la valeur d’une variable aléatoire
(situation classique d’incertitude) mais elle s’étend à la nature même des variables à considérer, au
modèle interprétatif qu’il faut retenir. Or, très souvent, l’information est ambiguë, car elle est
susceptible d’être interprétée de plusieurs façons différentes : plusieurs modèles sont compatibles
avec les faits observées. Le dialogue, l’échange communicationnel ont alors pour objet la
construction d’un sens en commun par la confrontation des représentations, des interprétations de
chaque acteur. La communication sera alors considérée comme efficace si elle aboutit à une
réduction de l’ambiguïté (et non seulement à une réduction de l’incertitude). Selon J. Habermas, qui
propose une vision sociale de la communication, centrée sur les acteurs dans l’organisation,
communiquer peut être considéré : – soit comme une action instrumentale, par laquelle on essaie de
faire faire quelque chose à quelqu’un, par un ordre ou une demande ; – soit comme une action
stratégique, par laquelle on cherche à influencer d’autres acteurs et à obtenir, éventuellement, une
modification de leur comportement. Si l’on observe le fonctionnement d’une organisation, on
retrouve cette distinction importante dans la variété des échanges entre acteurs : on communique
pour agir (ordre, demande, compte rendu.. .), on communique pour informer et s’informer (sans
conséquence immédiate apparente), pour former (apprendre et enseigner), pour convaincre
(expliquer et justifier une action envisagée, convaincre de la qualité d’un produit. . .), pour restaurer
la confiance (expliquer une action passée.. .), pour, sans doute également, le plaisir d’échanger avec
d’autres. Selon P. Y. Gomez, une convention est un ensemble de critères implicites et explicites
auxquels un individu se réfère au moment de décider, c’est un système de règles qui est connu d’un
ensemble de personnes. La convention peut définir, de manière précise, le comportement des
acteurs et, par la suite, supprimer le besoin de communication. Ainsi, le fonctionnement des feux de
circulation rend inutile la communication directe entre conducteurs ; chaque conducteur décide de
passer au feu vert car la convention prévoit que les conducteurs de l’autre voie doivent s’arrêter au
feu rouge. La manière la plus directe de se coordonner consiste ainsi à respecter un système de
valeurs commun ; ce système commun permet d’anticiper le comportement des autres même en
l’absence de communication.
Les règles partagées (comme les conventions du code de la route) sont un écran qui permet
justement de ne pas avoir besoin de toute l’information sur le comportement des autres, car c’est
définitivement impossible. Il est donc rationnel de suivre la règle (« mimétisme rationnel »). On ne
communique pas pour « décider » de prendre un taxi en cherchant le moins cher, on sait seulement
que le chauffeur suivra la convention en vigueur (c’est la convention de qualification). On ne
communique pas pour « décider » de son investissement dans le travail en fonction du salaire
horaire, mais en regardant l’implication en vigueur chez ses collègues proches (c’est la convention
d’effort).
4. Conclusion
Vue à l’origine comme la transmission de signaux dans un canal, la communication apparaît comme
un acte social engageant des acteurs dans un certain contexte, aboutissant à des échanges
d’information et à la construction d’un sens partagé. C’est par rapport à cette conception élargie de
la communication que sera définie la notion d’aide à la communication.
1 2 2 La notion d’aide à la communication
Comme le montre l’analyse précédente, les situations de communication peuvent être extrêmement
variées (selon les objectifs, le contexte temporel et spatial, le nombre et la nature des acteurs. . .).
C’est pourquoi toute réflexion sur le choix d’éventuels outils d’aide passe par l’examen préalable
des deux questions clés : avec qui ? pourquoi ? communiquer. Le schéma ci-dessous, emprunté à
Keen, montre les principales utilisations potentielles des technologies de la communication. Pour
faire face à ces besoins variés, on dispose désormais d’une très grande variété d’outils. Par
conséquent, le problème du choix pertinent des technologies à utiliser devient le problème principal.
C’est pourquoi, après avoir présenté dans un premier temps les apports potentiels de différentes
technologies de l’information, nous discuterons dans un second temps cette problématique du choix
en nous référant aux principales théories existantes.
1. Les apports potentiels des technologies
Les technologies utilisées dans les processus de communication sont extrêmement variées : cette
variété s’explique à la fois par la nature des informations transmises (données, textes, images fixes,
sons, sons et images animées assemblés en séquences vidéo) et la nature des fonctionnalités
remplies (aide à la production de messages, aide à la transmission, aide au stockage. . .). Sur ces
bases techniques, essentiellement autour de réseaux, peuvent se construire, à l’aide d’équipements
terminaux variés, des systèmes d’aide à la communication. Les développements actuels sont
caractérisés par une généralisation du codage numérique des signaux (téléphone numérique,
télévision numérique, photographie numérique.. .), l’installation de réseaux à haut débit (téléphone
à haut débit, liaisons par fibre optique, liaisons satellites permettant la diffusion d’images animées)
et la recherche systématique de la mobilité (téléphone cellulaire, protocole WI-FI. . .). Ce domaine
est le théâtre d’un progrès technologique extrêmement rapide. Des systèmes de communication
autrefois réservés aux entreprises deviennent des moyens d’usage courant dans la vie quotidienne :
la messagerie électronique, la consultation de sites Web via Internet, la communication d’images via
le téléphone mobile, l’utilisation de lignes téléphoniques à haut débit pour l’accès à Internet ou pour
la diffusion d’images télévisées. . . sont des exemples de cette véritable explosion des technologies
de la communication. Ces technologies apportent, en effet, deux bénéfices importants : – la
compression du temps : il est possible de communiquer désormais, immédiatement, d’un point à
l’autre du globe. Cela a pour effet d’accélérer les processus liés à la gestion des transactions, donc
de diminuer des temps de réponse et d’accroître ainsi la qualité du service rendu ; – la réduction des
contraintes d’éloignement : les technologies de communication à distance permettent de s’affranchir
des contraintes imposées par la dispersion spatiale des activités. Les conséquences en sont
multiples : élargissement des zones de collecte de renseignements, recours accru aux possibilités de
délocalisation des activités, accès à de nouveaux marchés, choix de nouveaux modes de distribution
des produits, travail à distance. . . Exemples Parmi les très nombreux exemples d’apport des
technologies de la communication, citons les cas suivants : – Une entreprise du secteur alimentaire a
équipé ses camions de livraison d’ordinateurs portables et connectables au site central via le réseau
GSM 3G. Il est ainsi possible d’éditer immédiatement les bons de livraison et les factures à partir de
la connaissance exacte de la livraison ; le chauffeur-livreur peut enregistrer les commandes et les
transmettre immédiatement à l’usine. Il peut consulter le stock à distance et répondre
instantanément aux demandes de renseignements des clients. Si une commande ne peut être
satisfaite par une usine, elle peut être proposée à une autre usine également connectée au réseau. –
Une entreprise de construction électrique et électronique a développé un système de
télémaintenance des appareillages installés chez ses clients. Par l’intermédiaire du réseau
téléphonique, il est possible de tester le fonctionnement à distance et de fournir un diagnostic en
réponse. (Ce diagnostic est, d’ailleurs, en partie automatisé par le recours à un système expert.)
L’évolution prévue permettra, par téléintervention, d’opérer certains dépannages à distance. – Les
sociétés de vente par correspondance ont mis en place une stratégie commerciale fondée sur
l’équipement progressif des ménages en micro-ordinateurs et le développement d’Internet, cette
stratégie a abouti à la création de sites Web marchands, où, à partir de son domicile, le client peut
consulter les catalogues et passer des commandes. – Beaucoup d’entreprises et d’institutions
publiques ont développé des centres d’appels téléphoniques pour gérer la relation avec leurs clients
ou leurs usagers. Ces centres peuvent fournir des informations, vendre des produits ou des services
à distance. Les outils utilisés sont des centraux téléphoniques et des logiciels d’aide assurant, par
exemple, la distribution automatique des appels entre opérateurs, la recherche automatique de la
fiche client à partir de la reconnaissance du numéro de l’appelant, la composition automatique des
numéros.. . L’examen rapide de ces exemples montre que l’on peut ainsi : – accroître l’efficience
par la réduction des coûts : diminution de coûts de traitement ou de communication, élimination de
coûts de déplacement des personnes, gains sous forme d’économies d’échelle (regroupement de
spécialistes de maintenance sur un seul site, par exemple), élimination d’intermédiaires
(suppression de vendeurs à domicile ou de centres de prise de commande.. .), réduction du niveau
moyen des stocks grâce à l’accélération de la transmission des commandes au fournisseur,
diminution du coût de travail (possibilité de délocalisation de certaines activités, recours au
télétravail. . .) ;
– accroître l’efficacité en offrant un meilleur service au client (réduction du délai de livraison, offre
plus large grâce à une meilleure information, service à domicile. . .), en élargissant le marché par
l’offre de nouveaux produits (réservation de voyages, documentation.. .), en fidélisant le client
(parce qu’on simplifie et améliore la relation-client. . .).
Bien entendu, les apports potentiels des technologies varient selon les outils utilisés. Ces derniers
peuvent être caractérisés par différentes propriétés, résumées dans la figure 8. a – Fonctionnalité
principale : l’outil assure-t-il la production, la transmission ou le stockage du message ? ou
plusieurs de ces fonctions ? b – Forme de l’information supportée : l’information véhiculée est-elle
sous forme orale, visuelle (données, textes, images) ou audiovisuelle (image, son) ? Cette
caractéristique, relative à la forme des signaux produits et transportés, a un impact direct sur la
richesse de la communication. c – Capacité d’interaction offerte : l’échange lié à la communication
est caractérisé par son intensité, le degré d’interaction. Ce dernier est déterminé directement par la
vitesse de transmission offerte et la possibilité de s’affranchir de la distance. Ainsi le délai de
rétroaction au message reçu peut être réduit et l’échange peut voir son rythme accéléré. Sur ce
point, les outils de type synchrone où la présence simultanée des interlocuteurs est indispensable
(par exemple le téléphone) ont une capacité d’interaction forte. En revanche, les outils de type
asynchrone, qui offrent des possibilités de stockage et donc n’exigent pas la présence simultanée
des interlocuteurs, ont une capacité d’interaction faible ; en contrepartie, ils offrent des modalités
d’utilisation plus souples (par exemple la messagerie électronique). d – Capacité-débit : cette
variable correspond à la performance, en termes de volume et de temps, susceptible d’être atteinte
par l’outil : nombre de signaux transmis par unité de temps, nombre de signes stockés par unité de
volume. Il est important de distinguer la capacité théorique (valeur maximale autorisée par la
technologie) de la capacité pratique (effectivement disponible pour l’utilisateur) : la différence est
due à la présence de signaux « de service » indispensables pour la gestion de l’outil (par exemple,
signaux de synchronisation, signaux d’identification de messages, signaux de contrôle. . .).
e – Sécurité : dans le cas de transmission, cette sécurité est mesurée par le taux moyen d’erreur ; elle
est appréciée en fonction des possibilités de détection des erreurs et de correction. Dans le cas de
stockage des données, la protection contre les risques d’effacement ou de falsification caractérise le
degré de sécurité du support. f – Facilité d’utilisation, accessibilité : cette caractéristique est en
pratique fort importante pour apprécier les possibilités d’insertion dans un système de
communication. Certains outils sont immédiatement utilisables (le téléphone dans son usage
courant), d’autres sont accessibles après un apprentissage très rapide (télécopieur, messagerie
électronique simple), d’autres enfin ne peuvent être maîtrisés qu’à l’issue d’une véritable formation
spécifique (traitement de texte). g – Coût : il mesure une caractéristique économique de base de
l’outil ; coût initial lié à l’investissement (coût des matériels, des logiciels, de la formation des
opérateurs), coûts récurrents liés à l’utilisation (coûts des supports, des communications, coûts de
main-d’oeuvre.. .). Compte tenu de la grande diversité des outils disponibles d’une part, de la
variété potentielle des besoins d’autre part, le problème du choix d’un système d’aide à la
communication se révèle souvent difficile à résoudre.
2. Le problème du choix des médias
L’adéquation du système d’aide aux besoins découlant de la situation de communication découle de
la satisfaction de deux séries de contraintes : – celles, de niveau local, liées aux caractéristiques
spécifiques de la situation de communication ; – celles, de niveau général, liées aux caractéristiques
de l’organisation et aux conditions particulières de gestion des technologies. a – Les contraintes
locales Le besoin de communication correspond à une situation de communication définie par
différents éléments :
– Objectifs de la communication : informer, s’informer, réaliser une opération coordonnée,
négocier, créer en commun.. La problématique de la communication : pourquoi et comment
communiquer ? – Acteurs de la communication : quels sont les participants au processus de
communication ? Quel est leur nombre ? Quelle est leur disposition dans l’espace ? Quelle est leur
attitude a priori ? – Paramètres temporels de la situation de communication : quelles sont la durée et
la fréquence des communications de ce type ? Y a-t-il répétitivité de cette situation ? Le caractère
fréquent, habituel, d’une situation peut justifier le recours à des outils plus coûteux que ceux qui
seraient susceptibles de répondre à une demande occasionnelle.
– Paramètres relatifs au processus de communication souhaité ; cela inclut différents aspects : 1)
volume des informations transmises dans chaque sens (les flux peuvent être très déséquilibrés en
cas de diffusion ou de collecte, plus équilibrés en cas de négociation) ; 2) degré d’interaction
requis : a-t-on besoin d’un « retour » immédiat ? Contraintes de temps admissibles : de quel délai
dispose-t-on pour assurer la communication ? ; 3) degré de formalisme requis : les messages à
transmettre doivent-ils obéir à des règles de présentation strictes (par exemple, un « ordre de
virement ») ou peuvent-ils être totalement informels ? Ce degré de formalisme est souvent
déterminé par des contraintes de sécurité imposées à l’échange d’informations ; 4) richesse
nécessaire : l’intensité de l’échange entre les acteurs est liée à la variété des signaux échangés et au
rythme de l’échange (« temps de rétroaction »). Le support utilisé peut réduire cette variété des
signaux à des données et des textes alors qu’une communication en face à face véhicule des
intonations de voix, des attitudes non verbales, donc un ensemble de signaux beaucoup plus varié et
complexe. La richesse nécessaire est directement liée aux objectifs et aux acteurs (une négociation
ponctuelle sur un sujet difficile exige souvent l’entretien en face à face ; une transaction répétitive
entre deux acteurs qui se connaissent bien peut se réaliser par un message électronique réduit à
quelques chiffres). L’ensemble de ces paramètres (volume, temps, forme, richesse, sécurité. . .)
définit une certaine « qualité minimale » de l’outil à retenir. Cependant, le choix de l’outil devra
également tenir compte des contraintes complémentaires de niveau général. b – Les contraintes
générales Ces contraintes s’expriment à travers un certain nombre de critères ; elles caractérisent
une technologie de communication (actuelle ou envisagée) par rapport aux objectifs et aux
conditions de fonctionnement de l’organisation. – Connectivité : dans quelle mesure peut-on relier
l’outil étudié à l’ensemble des moyens existants (ou envisagés) ? Les différents outils peuvent être
complémentaires ou non ; le coût de raccordement aux outils existants peut être très variable. –
Sécurité : elle correspond d’abord aux contraintes de fiabilité ; est-ce que l’outil de communication
est disponible en permanence (absence de pannes) pour un fonctionnement satisfaisant (qualité de la
transmission) ? Elle correspond également à des contraintes de confidentialité (protection de
l’information contre des tentatives de consultation non autorisée). Ces contraintes peuvent être très
fortes dans certaines transactions (paiement à distance par exemple). – Difficulté de gestion : il est
important d’évaluer dans quelle mesure la technologie envisagée nécessite des compétences
spécifiques pour assurer son fonctionnement dans l’organisation. (Par exemple, la mise en place
d’un réseau local et son administration peuvent justifier le recours permanent à un ou des
spécialiste(s).)
3. Les théories sur le choix des médias
Le problème du choix des médias a fait l’objet de nombreux débats théoriques ; nous nous
limiterons ici à la présentation de trois théories susceptibles d’être mobilisées pour expliquer les
choix : – la théorie de la richesse des médias (TRM) ;
– la théorie des genres de communication ; – l’effet millefeuille.
a – La théorie de la richesse des médias
Le concept de richesse d’information a été défini, à l’origine, par Daft et Lengel (1986) pour
traduire une certaine conception de l’efficacité de la communication : « La richesse de l’information
est définie comme la capacité de l’information à changer notre compréhension dans un certain
intervalle de temps. Les échanges communicationnels qui peuvent dépasser divers cadres de
référence ou clarifier des questions ambiguës de manière rapide sont considérés comme riches. Les
communications qui exigent une durée importante pour améliorer notre compréhension ou qui ne
peuvent dépasser des perspectives différentes sont faibles en richesse. En un certain sens, la richesse
ressortit à la capacité d’apprentissage de la communication. » À partir de cette définition
préliminaire, Daft et Lengel proposent la théorie de la RICHESSE DES MÉDIAS. Pour eux,
l’organisation doit faire face non seulement à l’incertitude mais également à l’équivoque,
l’ambiguïté. Pour ce faire, elle dispose de différents moyens de communication, plus ou moins
riches ; la richesse du média, c’est son aptitude à faciliter la compréhension mutuelle. Le modèle de
Daft et Lengel propose de classer les médias selon leur richesse ; ce classement est établi sur la base
de quatre critères :
1 – critères de feed-back : le média riche offre un retour instantané et permet un échange
véritablement interactif, de nature à faciliter la compréhension mutuelle ; 2 – existence de traits
multiples : les médias les plus riches véhiculant plus de signaux distincts que les médias pauvres ; la
variété des signaux (image, voix, texte. . .) introduit des possibilités de redondance et améliore la
fiabilité de l’échange ; 3 – variabilité du langage : un média plus riche peut supporter une plus
grande variété de langage qu’un média pauvre, cette plus grande variété permet d’améliorer
l’expression, de nuancer.. . 4 – personnalisation : les moyens de communication autorisant la
connaissance de destinataire et l’adaptation du message au récepteur renforcent l’efficacité de la
communication. En appliquant ces critères, on peut ainsi classer différents médias par ordre de
richesse croissante : imprimé standard, écrit personnalisé, téléphone, vidéoconférence, face-à-face.
Cette théorie a fait l’objet de vérifications significatives, mais les tentatives de l’appliquer à de
nouveaux médias tels que la messagerie électronique n’ont pas confirmé pleinement la théorie. Pour
beaucoup de critiques, le défaut de la théorie est de considérer la richesse de communication comme
une propriété intrinsèque du média alors qu’elle est également dépendante des acteurs concernés et
du contexte d’utilisation.
C’est pourquoi certains auteurs (Carlson et Zmud, 1984) ont proposé une théorie élargie de la
richesse du média, ou théorie de l’expansion du canal. Dans ce nouveau modèle, la richesse est
moins vue comme une caractéristique intrinsèque du média et plus comme la perception d’un
utilisateur, fondée à la fois sur son expérience et sa familiarité avec le média, sur ses connaissances
relatives au sujet abordé et sur son expérience de communication avec ses coparticipants. Les
utilisateurs peuvent atteindre une richesse de communication supérieure à celle autorisée par la
richesse nominale du média grâce à leur apprentissage, leurs expériences dans les trois domaines :
de l’utilisation du média d’abord, de la communication répétée avec les mêmes participants ensuite,
des sujets abordés dans l’échange enfin. Cette théorie, plus riche que la théorie originelle, a fait
l’objet de vérifications partielles (Marciniak et Rowe, 1999).
b – La théorie des genres de communication
Pour certains auteurs, l’approche du problème de l’aide à la communication par le choix du média
seul traduit mal la réalité du fonctionnement des organisations. En pratique, il y a une association de
l’objectif de communication et de la forme de communication pour définir ce que Yates et
Orlikowski appellent un genre de communication. Le terme « genre » est utilisé depuis l’Antiquité
pour classifier les discours rhétoriques et les oeuvres en littérature. Ainsi, en littérature c’est un
moyen de classification fondé sur la forme et le sujet, permettant de définir soit une comédie, soit
une nouvelle, soit un roman.. . Un genre de communication est une action de communication,
invoquée en réponse à une situation récurrente, possédant un caractère d’exigence sociale : dans une
organisation la « Réunion » est un genre de communication, le « Curriculum vitae », l’« Histoire »,
le « Mémo ». . . sont d’autres genres de communication qui, ensemble, forment le répertoire des
genres mobilisables. . . La présentation de la notion de genre en systèmes d’information est due à
Yates et Orlikowski (1992). Leur analyse permet de montrer que le courrier électronique n’est
finalement qu’une évolution du genre «mémo d’entreprise ». Le SMS et le Twitt correspondent à un
autre genre de communication totalement numérique et court. Le courrier d’affaire est typique
d’une situation impliquant une interaction avec une entité externe. Le genre qui en résulte est luimême caractérisé par une substance et une forme.
– La substance (l’intention) se réfère aux mobiles sociaux et aux thèmes exprimés dans la
communication. Il ne s’agit pas du motif individuel et privé amenant à cette communication, mais
du mobile socialement admis du genre. – La forme se réfère aux caractéristiques observables de la
communication, qu’elles soient physiques ou linguistiques. Elle regroupe trois types de
caractéristiques : – la structure, concernant soit directement le message, comme le formatage du
texte, soit des dispositifs qui structurent les interactions du groupe, tels qu’un agenda ou un
président pour une réunion ;
– le type de médium utilisé, tels le téléphone ou le face-à-face ; – le langage ou système de
symboles, tels que le formalisme ou le vocabulaire particulier utilisé (juridique, technique,
scientifique). L’approche en termes de genre ne définit pas a priori le niveau d’abstraction et la
portée. Pour une organisation donnée, le niveau de détail (abstraction) pertinent dépend de l’étude
réalisée. Pour une même organisation, on pourra ainsi définir des genres et des sous-genres, tels que
la réunion et les divers types de réunions. La portée est relative au champ d’application du genre : la
société, l’organisation, le groupe.. .
La notion de genre doit être dissociée de celle de médium. Le médium doit être défini comme le
moyen physique de communication (le téléphone, le face-à-face, le courrier électronique. . .). La
réunion, pas plus que le courrier d’affaire ne peuvent être qualifiés de médium. Ce sont, d’après la
définition, des « genres ». La technologie peut être un médium particulier, et en aucun cas un genre.
Par exemple, le courrier électronique ne constitue pas un genre particulier, il sert juste de médium à
certains genres. Évidemment, la définition de quelques genres implique généralement l’utilisation
d’un médium particulier : la lettre est le plus souvent associée au papier. En dehors de ces cas
particuliers, un genre peut souvent exister en plusieurs variantes utilisant des médiums différents.
Le curriculum vitae peut être remis sous forme papier pendant un face-à-face, être envoyé par la
poste, être envoyé par courrier électronique.
La pertinence de la notion de genre revient alors à préciser les éléments de la dynamique sociale à la
base des représentations des individus. Ainsi, la théorie des genres peut être considérée comme le
prolongement social de la notion de « scénarios de communication ». Peu à peu, par l’usage répété,
l’organisation adopte un genre ; de même, le non-usage entraîne le dépérissement du genre. Ainsi, le
répertoire des genres existant à un instant donné dans l’organisation révèle ce que ses membres
partagent comme connaissance commune sur la communication et l’usage des technologies d’aide à
la communication ; ces normes de communication sont le résultat d’un processus de structuration lié
à l’adoption de la technologie. Il n’y a pas choix de média mais définition, par une appropriation
collective, d’un genre de communication qui va devenir une pratique institutionnalisée, une norme à
l’intérieur de l’organisation. Un nouveau genre peut apparaître par la reproduction d’un genre
existant avec le nouveau média (la lettre de convocation à une réunion est remplacée par un
message électronique) ou par une modification ou une création plus ou moins planifiées (utilisation
d’un forum de discussion permis par l’usage d’un logiciel collaboratif ).
c – L’effet millefeuille
L’observation des comportements de communication des managers et des salariés conduit à la
conclusion que la multiplication des outils de communication (courriers électroniques, intranet,
réseaux sociaux, Twitter, etc.) qui se surajoutent aux médias traditionnels (face-à-face individuel,
réunion, téléphone, etc.) conduit à des situations de superposition dont les conséquences peuvent
être préjudiciables. Au cours de la décennie passée, le courrier électronique s’est imposé dans toutes
les organisations comme le média de communication le plus utilisé. Les auteurs de la théorie du
millefeuille (Kalika, Boukef, Isaac, 2007) ont, par enquêtes 1 auprès de salariés et de dirigeants,
invalidé l’hypothèse selon laquelle la généralisation de la communication électronique allait
s’accompagner d’une réduction du nombre de réunions en face à face. De fait, pour une très grande
majorité d’entreprises, la généralisation de l’usage de l’email n’a pas induit de réduction des
réunions présentielles. En effet, bien que les managers communiquent davantage par voie
électronique, ils continuent à se réunir tout autant. On n’observe donc pas de substitution entre les
moyens de communication, mais plutôt une superposition des genres de communication. C’est ce
que l’on appelle un effet millefeuille, chaque média de communication constituant une nouvelle
couche qui se surajoute aux précédentes. Plusieurs raisons expliquent cet effet millefeuille : les
rôles différents que jouent les médias de communication, les routines organisationnelles, les
résistances au changement, l’implication de la direction ; mais aussi le fait que les entreprises
n’anticipent pas les conséquences de la mise en place d’outils de communication sur les outils
existants. Cet effet millefeuille peut créer chez les managers et les salariés des effets indésirables et
paradoxaux : ainsi l’on observe des managers qui répondent à leur courrier électronique en réunions
pour éviter d’avoir plusieurs dizaines de mails en retard le soir en rentrant du travail. Quelques
usages pathologiques du courrier électronique qui développent la surcharge informationnelle sont
répertoriés dans le tableau suivant :
Observatoire Dauphine-Cegos du e-management.
Dans les enquêtes conduites auprès de salariés d’entreprises, on constate qu’ils sont de plus en plus
nombreux à déclarer « recevoir trop de mails qu’ils n’ont pas le temps de traiter », « travailler plus
souvent sur le temps personnel », etc. Cette situation conduit des entreprises à mettre en place un
plan drastique de réduction de l’usage du courrier électronique (Atos Origin, 2011). Après avoir été
considéré comme des facteurs d’amélioration du fonctionnement des entreprises, les outils de
communication et de nomadisme dont l’usage est parfois mal maîtrisé, sont de plus en plus
fréquemment montrés du doigt et associés à des effets négatifs. L’excès d’information provoque des
situations de surcharge informationnelle et/ou de stress. Lorsque le choix des médias est remplacé
par le non-choix, des phénomènes de millefeuille, de surcharge informationnelle peuvent conduire à
des comportements de déconnection ou de rejet.
3 Conclusion : efficience et efficacité de la communication
Les processus de communication sont au coeur du fonctionnement de l’organisation. Leur analyse
en révèle la complexité et montre que
la communication ne peut se réduire à la simple transmission d’un message plus ou moins codé.
L’existence de nombreux outils, de plus en plus perfectionnés, fait apparaître de nouvelles
possibilités. Cependant, cette véritable révolution technologique doit, en permanence, être évaluée
en termes d’EFFICACITÉ DE LA COMMUNICATION au sens le plus large (la construction du
sens en commun) et non seulement selon des paramètres techniques d’EFFICIENCE (temps
d’accès, débit, coût. . .). Les choix sont difficiles et importants car ils concernent directement le
fonctionnement et la structure de l’organisation. C’est à la lumière de cette conclusion qu’il faut
examiner les développements des technologies de communication présentés dans la section
suivante. Obsessionnel-compulsif Consulter ses e-mails de façon compulsive et provoquer des
interruptions de travail incessantes.
Réactif excessif Répondre à un e-mail très vite sans prendre le temps de réfléchir Arme de
destruction massive Utiliser le e-mail pour exprimer ‘publiquement’ son désaccord avec une
personne de l’entreprise Spirale guerrière Utiliser le e-mail dans le cadre d’un conflit et développer
une logique d’escalade Téméraire... à distance Être plus froid, plus agressif par e-mail qu’on ne le
serait en face à face Indicateur d’activité Diffuser des e-mails constituant des signaux de son
activité Copie parapluie Envoyer des e-mails en mettant en copie un nombre injustifié de personnes,
notamment pour se protéger Copie pernicieuse Envoyer des e-mails en mettant en copie cachée des
personnes sans que le destinataire n’en soit informé. Faites le donc à ma place Préférer demander
une information aux autres plutôt que de la chercher soi-même.
Source : Bia et Kalika (2010)
2 Les réseaux et Internet
Le domaine de l’aide à la communication est le lieu d’un développement technologique
extrêmement rapide. La généralisation de la numérisation, la concurrence entre opérateurs de
réseaux et offreurs de technologies.. . favorisent la mise sur le marché de nouveaux produits et
services rendant obsolètes les propositions « novatrices » lancées quelques mois plus tôt. Il serait
donc présomptueux (et peu utile) de vouloir présenter un catalogue exhaustif des technologies
d’aide à la communication. C’est pourquoi nous nous limiterons à une analyse générale des quatre
axes majeurs de développement que sont : – Internet : le réseaux des réseaux ; – l’aide au travail
collaboratif ; – l’échange de données informatisées ; le commerce éléctronique.
–
2 1 Internet : le réseau des réseaux
–
–
–
–
Internet n’est pas un réseau coordonné par une entité responsable de son fonctionnement ;
c’est un ensemble de réseaux qui se coordonnent sur la seule base d’un consensus
technique : l’utilisation du même protocole de communication TCP/IP (Transmission
Control Protocol/Internet Protocol). Ce protocole commun permet la connexion de
n’importe quel ordinateur avec n’importe quel autre, par tout moyen de télécommunication
(dont, en particulier, le réseau téléphonique mondial). Après avoir rapidement présenté
Internet, nous décrirons les principaux types d’utilisation de cet outil dans la gestion des
relations de l’entreprise puis nous analyserons les problèmes spécifiques soulevés par ces
utilisations.
2 1 1Le développement d’Internet
Le concept d’Internet découle de l’évolution du projet Arpanet (initialisé en 1967) visant à
relier les sites informatiques des universités et instituts de recherche travaillant pour le
ministère de la Défense des États-Unis. On cherchait alors à construire un réseau robuste,
susceptible de résister, grâce à son maillage, à des destructions partielles. Ce réseau s’est
progressivement internationalisé et a adopté, en 1973, le protocole de transmission TCP,
fondé sur la transmission par paquets. Avec le développement du protocole IP permettant
l’interconnexion de réseaux à protocoles de transmission hétérogènes, la notion d’Internet
apparaît en 1982. La mise en place d’artères à haut débit favorise l’interconnexion ; la
croissance d’Internet devient « explosive » avec le rattachement de grands réseaux existants
(par exemple, en France, le réseau RENATER reliant les instituts de recherche). Internet
apparaît ainsi comme une hiérarchie de réseaux interconnectés (un réseau « régional »
concentre des trafics locaux, se connecte à des réseaux nationaux ou transnationaux ; les
différents réseaux sont reliés par des artères à haut débit).
Parmi les principaux services offerts par Internet certains sont devenus dominants : – La
messagerie électronique (e-mail) : elle permet l’envoi de messages écrits entre usagers
pourvus d’une adresse électronique : cette adresse indique quel est le serveur (site
–
informatique) auquel est rattaché le destinataire. La possibilité d’attacher des pièces jointes
au message avec un protocole unique (MIME) a entraîné le succès de ce service. – Le
transfert de fichiers (ftp) permet d’échanger des fichiers volumineux, d’ordinateur à
ordinateur. – Le Web ou World Wide Web (W3), conçu par le Centre européen de recherche
nucléaire (CERN), permet la navigation dans le réseau par la technique de l’hypertexte : en
« cliquant » sur certains mots affichés à l’écran, on accède directement à d’autres
informations concernant ce terme, sans connaître l’adresse des sites correspondants, grâce à
des liens préétablis. (En fait, les documents présents sur le Web comportent des textes, des
images, des sons. . ., et il est alors classique d’utiliser le terme hypermédia). Le langage
utilisé entre un client Web et un serveur Web est le langage HTTP (hyper text transfert
protocol) et la création d’un document hyper-média utilise le langage HTML (hyper text
makeup language) et ses successeurs, notamment XHTML.
Le poste de l’utilisateur est équipé d’un logiciel de navigation, qui permet de lancer les
recherches et de passer d’un serveur à l’autre en cliquant sur des mots ou des icônes
(Internet Explorer, Firefox sont des exemples de logiciels de navigation). On utilise, lorsque
l’on ne connaît pas d’adresse relative à un sujet, un moteur de recherche, logiciel implanté
sur des serveurs spécialisés : ces serveurs utilisent des index, des répertoires. . ., permettant
de localiser, à partir de mots clés fournis par l’utilisateur, les serveurs susceptibles de
délivrer des informations intéressantes (Yahoo, Google sont des exemples de moteurs de
recherche). Trois voies nouvelles apparaissent dans Internet : le Web sémantique, le Web
social et le Cloud Computing.
–
1. Le Web sémantique
Le Web est aujourd’hui composé de liens simples et universels, mais qui n’ont pas de
richesse sémantique. Les moteurs de recherche deviennent certes de plus en plus
sophistiqués, mais ils restent imparfaits car ils restent basés sur des recherches de mots, et
non des recherches de sens. Avec le «Web sémantique », il s’agit de s’appuyer, plutôt que
sur le contenu textuel des documents, sur des descriptions structurées de l’information qu’ils
contiennent : des méta-données organisées. On peut définir les méta-données comme des «
données relatives à des données » (si des livres sont des données, alors les fiches
bibliographiques sont des méta-données). Les métadonnées sont donc des informations à
propos de ressources disponibles sur le Web et exploitables par des moteurs de recherche ou
des agents (qui parcourent le Web de façon automatique), elles peuvent être incluses dans les
ressources elles-mêmes, ou enregistrées dans un fichier séparé. Une première idée est
d’insérer des « méta-tags » normalisés dans une page html : l’exemple le plus connu de
méta-données est le « Dublin Core » pour décrire les données d’une ressource
bibliographique. La deuxième idée est de structurer logiquement le contenu des documents
de manière à pouvoir séparer le fond et la forme : XML peut ainsi être considéré comme un
métalangage permettant de décrire d’autres langages de balisage spécialisés pour des
activités particulières. Enfin la troisième idée est de proposer des langages de représentation
d’ontologies (par exemple OWL, Ontology Web Language). Une ontologie est la
formalisation d’une conceptualisation, elle est constituée de concepts, de relations entre
concepts (par exemple, les relations sous-classe, partie de. . .), de fonctions, d’axiomes. . .
Dans une ontologie, qui va décrire le « sens » d’un domaine particulier de connaissance, on
a donc à la fois une structuration sous forme de hiérarchie de concepts et des structures
transversales qui lient les concepts entre eux. Les ontologies permettront à terme de «
marquer » les pages Web pour les rendre utilisables par des agents automatisés.
–
2. Le Web social
Malgré les possibilités techniques de départ d’Internet (où tous les postes en réseau peuvent
être à la fois serveur et client et où les liens hypertextes ont transformé le mode de lecture),
le succès du Web s’est d’abord construit sur un mode assez traditionnel « émetteur-récepteur
» ou « client-serveur », soit dans une logique de diffusion de contenu, soit dans une logique
d’applications transactionnelles sur des bases de données. Depuis quelques années,
l’expression réseau social est répandue à propos d’Internet. Lorsque les utilisateurs parlent
de réseaux « sociaux », ils font référence aux sites baptisés «Web 2.0 » ou « Réseaux
Sociaux Numériques » (RSN), dont les plus connus sont Facebook, MySpace, Linkedin,
YouTube. . . De nombreux termes sont en fait utilisés : médias sociaux, sites de réseaux
sociaux, Web communautaire, Web 2.0, Web social. . . 1 Cette réalité ne correspond en fait
que très peu à une révolution technologique. Le terme de Web social n’a pas de frontière
clairement définie, mais plutôt un centre de gravité autour duquel circule un ensemble de
pratiques et de principes. Nous pouvons le définir suivant deux principales dimensions : –
une évolution technologique, où on parle de « services Web» : les applications sont
accessibles en tant que services interopérables et non en tant que produits. Les modèles de
programmation sont légers, les barrières pour la réutilisation des données et des applications
sont très faibles. Les applications ne sont pas limitées à une plate-forme spécifique mais
deviennent accessibles à différents types d’appareils, tels que les téléphones portables. La
technologie Ajax, utilisée entre autres par Google, est une composante clé de ces
applications. Ce type de technologie permet d’offrir de nouvelles interfaces utilisateurs, «
riches », plus intuitives et interactives ; – une dimension sociale/relationnelle. Le Web social
repose sur une architecture de participation. L’implication des utilisateurs dans le réseau est
fondamentale. Les utilisateurs ajoutent de la valeur en émettant des commentaires, en
diffusant leurs opinions, en partageant leurs expériences et leurs connaissances avec les
autres internautes. Les pratiques de navigation évoluent, on assiste ainsi à l’émergence de
communautés dont les membres créent, partagent, débattent, collaborent autour d’un même
centre d’intérêt. Les plates-formes relationnelles constituent des espaces de grande
exposition pour les personnes qui s’y engagent et qui développent ainsi leur identité
numérique. Ainsi, le Web social est un état d’esprit, il regroupe un grand nombre
d’applications différentes mais toutes centrées sur les utilisateurs et le partage d’information.
On peut finalement dire que les «médias sociaux » incluent les « réseaux sociaux
numériques », lesquels incluent les « sites de réseaux sociaux ». La figure de la page
suivante synthétise les différentes définitions et applications. Ainsi le Web apparaît-il
comme un instrument privilégié de communication et comme un outil de documentation très
puissant.
3.Le Cloud Computing
Techniquement le Cloud Computing, ou Informatique en nuage, est un principe d’architecture
logicielle et matérielle, qui consiste à déporter sur des serveurs distants interconnectés l’ensemble
indéfini des traitements et des donnés. Vieux rêve de l’interopérabilité rendu possible par le très
grand débit sur les réseaux, cette architecture peut donc est considérée comme un successeur des
modèles « serveur-terminaux », puis « client-serveur », puis « 3 Tiers » (séparation de la
présentation, de l’application et de l’accès aux données).
Avec le Cloud Computing Internet devient un réservoir partagé de tout type de ressources
informatiques, chacun des trois niveaux (applications Web Service, plates-formes d’exécution et
infrastructures de support) étant indépendant et connecté par des normalisations encore en cours
(adresses URL, pages HTML, flux RSS, Ajax, etc.) : sur le Web, une vidéo, une carte, un
commentaire (ou une composition de ces différents éléments, une application composite mash-up)
peuvent ainsi provenir d’un autre serveur que celui qui a généré la page lue.
Mais le cloud computing peut aussi être vu comme un nouveau modèle économique : – par la fusion
de multiples services Internet gratuits, le Cloud Comptuting présente un potentiel d’innovation
important. Les interfaces (API) de Google Map ou Bing Cartes proposent ainsi de nombreuses
méthodes et classes prêtes à l’emploi pour insérer une carte dans une page Web. Les API de eBay
ou Alapage permettent d’insérer un catalogue d’article, de suivre ou d’analyser des ventes ; – pour
les utilisateurs d’applications ou d’hébergement en ligne, il n’y plus d’achat de licences, le paiement
se faisant à la demande, ce qui augmente la flexibilité (pour les applications traditionnelles on
parlait d’ASP, Application Service Provider, pour les applications Web on parle de SaaS, Software
as a Service) ;
– les centres de traitement des données, data center, sont alors devenus le support d’une nouvelle
activité économique, pour assurer de hauts niveaux de sécurité, de service et de meilleure efficacité
énergétique. Amazon Web Services est ainsi une collection de services informatiques distants.
Google App Engine, Windows Azure, Blue Cloud d’IBM. . . sont des plate-formes de conception
d’hébergement d’applications Web.
Grâce à l’ensemble des services offerts, à sa simplicité d’utilisation, à son faible coût d’accès,
Internet apporte, au niveau mondial, des possibilités de communication (en multimédia)
remarquables.
Le développement des Intranets
À partir de l’expérience d’Internet, les entreprises ont tiré parti des technologies du réseau des
réseaux pour améliorer leur communication interne. Le terme Intranet désigne des réseaux privés
utilisant les technologies d’Internet (liens de type hypertexte, moteurs de recherche, logiciels de
navigation). Avec cette technologie, des textes, des images, des sons peuvent être partagés par les
membres d’un groupe quel que soit le lieu où ils se trouvent. Comme le système de communication
est fondé sur des protocoles indépendants du système d’exploitation, l’utilisateur peut accéder,
depuis n’importe quelle machine, au réseau Intranet de son entreprise en utilisant le navigateur qu’il
emploie pour travailler avec Internet. L’uniformité de l’interface utilisateur-machine permet de
résoudre les problèmes de communication posés par l’existence de matériels hétérogènes, fondés
sur des systèmes d’exploitation différents, au sein de la même entreprise. Cette technique peut être
employée chaque fois que des utilisateurs dispersés veulent partager des informations sous forme
variée. Voici quelques exemples d’utilisation : – La direction de la communication d’une grande
entreprise a mis sa base de données à la disposition des employés via un Intranet. Cette base
contient des présentations de l’entreprise, les rapports annuels, les communiqués de presse. . .
Accessible uniquement en interne, elle permet à tous les salariés d’avoir accès à des informations
validées et à jour. – Dans un groupe de cinq PME, l’Intranet est utilisé pour le travail coopératif ;
ainsi, sur des projets communs, les membres du groupe peuvent échanger des documents, des
photographies, des vidéos.
. . – Dans une grande entreprise travaillant dans la téléphonie mobile, il est impératif de modifier
constamment les produits, les prix. . ., pour s’adapter aux contraintes du marché. Les différentes
antennes commerciales sont connectées, via Intranet, à un serveur central installé au siège où est
géré l’ensemble des informations commerciales. – Dans une autre grande entreprise, un réseau
Intranet est utilisé pour la veille technologique ; toute personne ayant repéré une information
intéressante peut la communiquer aux autres : les observations sont classées par thème, sous forme
de « forums » électroniques ouverts sur le réseau. La même entreprise a d’ailleurs utilisé son
Intranet pour élaborer et diffuser des documents concernant sa certification qualité ISO 9001.
Remarque Le terme « Extranet » désigne un réseau Intranet dont l’accès est autorisé à un public
extérieur restreint (clients, fournisseurs, partenaires. . .), constituant ainsi un réseau fermé.
2 3 1 Le développement des applications Web
Les Services Web poursuivent un vieil objectif, celui de voir toutes les ressources informatiques
interopérables à travers un réseau, indépendamment de leurs plates-formes d’origine. Les Web
Services se placent donc dans une logique de petites applications distribuées, avec un langage
standardisé et ouvert. Il s’agit de pouvoir agréger des services applicatifs, de relier différents
composants logiciels internes et externes (Google Map, par exemple). Trois standards sont en
général utilisés : – SOAP (Simple Object Access Protocol) définit la structure des messages XML
utilisés par les différentes applications pour communiquer ensemble. SOAP est un protocole
d’échange de messages, dont le corps est un fichier XML, et qui définit aussi un RPC (Remote
Procedure Call). SOAP est une spécification simple à mettre en oeuvre, qui fonctionne sur toutes les
plates-formes et pour tous les langages de programmation ; – WSDL (Web Services Description
Language) qui est un langage pour établir une connexion entre émetteurs et récepteurs, décrivant la
façon pour une application d’invoquer une autre application, avec des détails comme les protocoles,
les serveurs, les ports utilisés, les opérations pouvant être effectuées, les formats des messages
d’entrée et de sortie, les exceptions. . . ; – UDDI (Universal Description Discovery and Integration)
permet de disposer d’une cartographie de ces Services Web : un annuaire mondial d’entreprises
fondé sur le Web (nom, identité des sociétés, description des produits et des services. . .). Un
Service Web doit être accessible depuis n’importe quelle plate-forme ou langage de programmation.
Via des protocoles standards, on peut donc utiliser un Service Web pour exporter des fonctionnalités
d’une application et les rendre accessibles.
2 4 1 La gouvernance d’Internet
Qui gère Internet ? Comment gouverner sans gouvernement ? Le concept de « gouvernance »
d’Internet arrive au premier plan des préoccupations internationales. Mais cette gouvernance
apparaît aujourd’hui dans une impasse : l’impossible contrôle du « pourriel », spam, est un bon
exemple (des données différentes circulent, mais le pourriel non sollicité, le plus souvent à finalité
commerciale, représenterait plus de 70 % de tous les courriels envoyés) et les difficiles débats sur la
gestion des noms de domaines ou le contrôle des contenus en sont d’autres. Pour Internet, le terme
de gouvernance a été consacré lors du SMSI (Sommet mondial de la société de l’information) en
2005, qui le définit comme « l’élaboration et l’application par les États, le secteur privé et la société
civile, chacun selon son rôle, de principes, normes, règles, procédures de décision et programmes
communs propres à modeler l’évolution et l’utilisation de l’Internet ». Certains problèmes sont
sensibles, notamment la gestion des noms de domaines, la tarification étagée, le contrôle des
contenus, l’exception culturelle et la propriété intellectuelle. 1. Le contrôle des noms de domaines
Le DNS (Domain Name System) est géré depuis 1998 par la société californienne ICANN, une
société sans actionnaires ni assemblée générale, et où le département du Commerce étasunien
dispose d’un droit de veto. Pour d’évidentes raisons techniques, l’arbre des noms de domaines avait
été organisé dès le départ de manière centralisée par Jon Postel, professeur à l’UCLA : il y a
aujourd’hui treize serveurs racines gérant la base DNS, dont le serveur de tête géré par la société
Verisign. L’ensemble des routeurs du monde (gérés eux par la société Cisco) vient copier sur ces
treize serveurs racines les arbres de nommage qui s’y trouvent. La conversion des adresses IP
numériques par pays ou par genre (dont les .com, .net, .org qui sont gérés par la société Verisign)
permettrait de rendre inopérantes les ressources d’un pays tout entier. À ce titre, les États-Unis
considèrent comme « non souhaitable » une gestion multilatérale de ces ressources. Ce problème de
la gestion des adresses va prendre bientôt toute son ampleur avec « l’Internet des objets » et les
systèmes de traçabilité. Avec le remplacement des codes-barres par des étiquettes radiofréquence
intelligentes RFID et avec le passage du protocole IP de la version 4 à la version 6, l’ensemble des
biens et marchandises sera progressivement connecté à l’Internet via la technologie ONS (Object
Naming Service). S’il devient possible de suivre les mouvements de tous les objets et personnes sur
la planète, le gouvernement qui contrôlera ce système détiendra un pouvoir dont personne n’osait
rêver. Et c’est la société Verisign, société sous contrat avec le département étasunien de la Défense,
qui vient d’être chargée par EPC Global, le consortium mondial des codes-barres, d’organiser les
règles de ce futur registre ONS. 2. La neutralité du réseau ou la tarification étagée ? L’architecture
technique du réseau « end-to-end », où aucun traitement n’est centralisé, avait jusqu’ici élevé au
rang de grand principe celui de « la neutralité d’Internet ». Certains ont pu parler ici de « premier
amendement d’Internet » : absence de discrimination dans l’accès à toutes les ressources du réseau
(les applications, les services, comme les contenus : Web 2.0, peer-to-peer, blogs. . .). Mais
aujourd’hui l’idéologie libertaire des créateurs d’Internet est bien loin du débat qui fait rage à
propos de la « tarification étagée » (tiered Internet), notamment dans la perspective de la télévision
numérique : les opérateurs télécoms réclament une tarification spécifique pour les gros utilisateurs
comme Google, Amazon ou Yahoo, afin qu’ils puissent bénéficier d’une bande passante protégée,
surpayée par les usagers de leurs services particuliers. Cette tarification du débit (à l’arrivée) serait
une révolution qui poserait des problèmes importants à certains usages sociaux d’Internet comme
les jeux vidéo, les échanges de fichiers ou même l’encyclopédie Wikipedia (laquelle utilise peu de
bande passante, mais a pourtant atteint des niveaux équivalents à ceux d’e-Bay ou d’Amazon, ce
qui l’oblige déjà à utiliser les infrastructures de Yahoo, pour le moment sans contrepartie
commerciale). Les opérateurs privés, et les usagers qui seraient aujourd’hui prêts à payer pour
bénéficier d’un accès prioritaire à certains services, remettent ainsi en cause un principe
fondamental de la « Netiquette », l’éthique sur le Net, celui qui consistait à économiser les
ressources rares comme la bande passante, et à refuser toute discrimination dans l’accès aux
services. 3. La liberté ou le contrôle des contenus ? Face aux débordements de plus en plus
fréquents du droit conventionnel, la solution avancée par les industriels et les gouvernements est
présentée comme technique : elle repose sur la notion « d’hébergement abusif » en rendant
responsables les FAI (fournisseurs d’accès à Internet) et les intermédiaires techniques des
infractions commises par leurs abonnés, et notamment le « piratage ». Au nom du principe de
liberté, ce contrôle des contenus par les opérateurs avait pourtant toujours été refusé sur Internet,
même pour résoudre le grave problème du pourriel. Les votes en 2001 puis 2003 du « Patriot Act »
aux États-Unis autorisent le FBI à mettre sur écoute et surveiller les FAI sans contrôle judiciaire
(avec le logiciel « Carnivore ». . . il fallait oser un tel sigle !). En Chine un nouveau pas avait été
franchi en 2007 : les hébergeurs chinois, mais aussi internationaux, ont dû signer un « pacte
d’autodiscipline » à travers lequel ils s’engagent à ne pas diffuser des messages illégaux et à «
protéger les intérêts de l’État et du public chinois » en identifiant les blogueurs. En France, en 2009,
et sur un autre plan, pour satisfaire la demande pressante des industries culturelles, la loi Création et
Internet a créé la haute autorité Hadopi : avant sa censure par le Conseil constitutionnel, il s’agissait
de permettre aux FAI de couper les connexions sans passer par une autorité judiciaire. Depuis 2010
un accord commercial de lutte contre la contre-façon se négocie secrètement autour de l’Union
européenne et de l’ALENA (et en dehors de toute instance officielle telle que l’OMPI,
l’Organisation mondiale de la propriété intellectuelle) : l’ACTA, Anti-Counterfeing Trade
Agreement cherche à s’appuyer sur les FAI pour imposer une protection accrue de la propriété
intellectuelle et des brevets de toutes sortes. Quels que soient les contenus à contrôler (propagande,
terrorisme, brevets, droits d’auteur. . .), on voit que les nouvelles propositions avancées sont loin de
n’être que « techniques ». 4. La standardisation nécessaire ou l’exception culturelle ? Il s’agit d’un
dossier où le rôle de la France et du Canada a été important dans la formulation d’une doctrine de
l’« exception » et dans l’obtention d’un sursis. « Les biens et services culturels, des marchandises
pas comme les autres », tel est le titre de l’article 8 de la Déclaration internationale sur la diversité
culturelle) face au principe général des « offres de libéralisation » de l’OMC (pour qui, à l’inverse,
« La promotion de contenus locaux ne doit pas engendrer des barrières irraisonnables au commerce
»). Les questions urgentes concernent notamment le multilinguisme sur Internet et l’enseignement
sur Internet. 5. La propriété intellectuelle ou l’accès au savoir ? Il s’agit d’un dossier complexe, car
les ressources informationnelles sur Internet ne peuvent faire l’objet ni d’une définition précise des
droits de propriété (cela va des théorèmes mathématiques.. . jusqu’aux informations personnelles
sur les individus), ni de règles précises sur les droits d’usage de ces informations (droit
d’exclusivité, usage privé ou droit de revendre, copie privée, droit de combiner des
informations. . .). Les deux questions urgentes concernent notamment celle des brevets sur la
connaissance (propriété industrielle et/ou logiciels libres : licence GNU GPL) et celle des
redevances sur les créations (propriété littéraire et artistique : licence Creative Commons, DRM
Digital Right Management Systems, droit des diffuseurs. . .). La pression des États
et des entreprises a réussi à renvoyer ces questions à l’OMPI, organisation mondiale de la propriété
intellectuelle, mais surtout à l’OMC dans le cadre de l’ADPIC (Aspects des droits de propriété
intellectuelle qui touchent au commerce) et de l’AGCS (Accord général sur le commerce et les
services).
2 2 L’aide au travail collaboratif
Traditionnellement, dans les organisations, certaines activités ne sont pas directement confiées à des
individus mais à des groupes de travail (comité, commission, groupe d’étude, équipe de projet. . .),
généralement temporaires. Ces activités sont variées : information réciproque, production d’un plan,
créativité, décision collective avec négociation. . . Ce travail collectif suppose des interactions
variées entre les membres pour atteindre l’objectif commun. Selon Favier et al. (1998), ces
interactions sont de trois types :
– communication : diffusion d’une information aux membres du groupe, relative à l’objet du
travail ; – coordination : échange pour définir le partage des tâches, la synchronisation (agenda,
échéances.. .) ; – collaboration : travail commun avec un document partagé entre plusieurs membres
(objet, modèle, dessins. . .).
Comme ce travail collectif s’inscrit dans la durée, il est nécessaire de conserver les traces du travail
et de son évolution. La fonction de mémorisation répond à ce besoin. Sous le terme générique de
COLLECTICIELS (groupware en anglais), de nombreuses solutions ont été élaborées ; elles seront
présentées, sous une forme générale dans le premier point. Des exemples – réunion assistée,
workflow. . . –, seront présentés dans le second point. En conclusion, nous présenterons les
principales problématiques associées à la notion de « groupe VIRTUEL »
2 1 2 Le travail de groupe : un domaine varié
De nombreux outils informatiques et de communication sont proposés pour assister le travail des
groupes ; un nouveau domaine des systèmes d’information, le CSCW (Computer Support for
Cooperative Work) se développe rapidement ; l’AFCET le définit ainsi sous la traduction de «
collectique », mais on utilise souvent le terme « Travail collaboratif » « La collectique (ou CSCW)
regroupe l’ensemble des techniques et des méthodes qui contribuent à la réalisation d’un objectif
commun à plusieurs acteurs, séparés ou réunis par le temps et par l’espace, à l’aide de tout dispositif
interactif faisant appel à l’informatique, aux télécommunications et aux méthodes de conduite de
groupes. » « Les collecticiels (groupware) sont les logiciels sur lesquels s’appuie la mise en oeuvre
de la collectique. »
Des outils autres que les collecticiels peuvent également être utilisés ; en pratique, la nature des
outils à retenir dépend d’abord des paramètres fondamentaux de la situation de travail. La diversité
des situations de travail On peut caractériser la situation de travail en groupe par quatre paramètres
déterminants : – la tâche ;
– les participants ; – les contraintes de temps ;
– les contraintes d’espace.
a – Nature de la tâche
Quels sont l’objet et l’objectif immédiat du travail en groupe ? S’agit-il de négocier, d’examiner en
commun une décision à prendre, de rechercher des idées, d’exécuter une transaction, de s’informer,
de former ? La réponse à cette question permet de repérer des caractéristiques de la
communication : le sens dominant de la transmission d’information (du formateur vers les formés
par exemple), le caractère plus ou moins formel de l’échange (une réunion de négociation peut avoir
un haut niveau de formalisation, une réunion de créativité un très faible niveau).
b – Nature et nombre des participants Combien de personnes sont appelées à travailler ensemble ?
Les spécialistes distinguent assez souvent les petits groupes de 5 à 20 participants, les groupes
moyens de 20 à 100 environ, les grands groupes au-delà. Le groupe peut être plus ou moins
homogène à différents points de vue : niveau hiérarchique des participants, niveau de compétence
relative, domaine de compétence.. . (les obstacles à la communication sont plus faibles à l’intérieur
des groupes de spécialistes). Le degré de maturité du groupe peut être variable également : dans un
groupe à maturité élevée, les participants se connaissent déjà et ont l’habitude de travailler
ensemble ; dans un groupe à maturité faible, la plupart des participants ne se connaissent pas.
c – Contraintes de temps Les différentes situations sont à distinguer selon deux dimensions : –
périodicité : collaboration périodique et planifiée dans le temps (par exemple, une suite de réunions
pour formation organisées dans le cadre d’un programme) ou collaboration ponctuelle (une seule
réunion décidée à l’avance ou « organisée » de manière impromptue) ; – interactivité : selon quelle
séquence dans le temps se réalise l’interaction au sein du groupe. Si le degré d’interaction requis est
très élevé, la réalisation de la tâche implique une participation simultanée des participants (cas
classique d’une réunion). Si le degré d’interaction est faible, on peut travailler avec des
interventions successives des participants (par exemple, différentes personnes vont travailler
successivement sur le même dossier et ne se coordonneront qu’à intervalles éloignés) ; le travail de
chaque membre du groupe est conditionné par celui des autres personnes qui exercent des tâches en
amont de la chaîne.
d – Contraintes d’espace
Quelle est la position relative des membres du groupe dans l’espace ? Sont-ils physiquement
présents dans un lieu unique (cas de la réunion dans une pièce) ? Sont-ils à l’intérieur d’un même
établissement (dans des bureaux différents susceptibles d’être reliés, si besoin est, par un réseau
local) ? Sont-ils géographiquement dispersés (dans le même pays, dans des pays différents) ? Cette
contrainte d’espace conditionne fortement la nature des outils utilisables. Par la combinaison de ces
quatre groupes de paramètres, on constate une très grande diversité de ces situations potentielles de
travail en groupe ; par exemple, la présentation d’un nouveau produit aux équipes de vente d’une
multinationale, dispersées dans 45 pays (tâche d’information, grand nombre de participants, «
présence » simultanée avec dispersion géographique forte) n’a que peu d’exigences communes avec
le travail de préparation d’un dossier commercial dans une grande compagnie d’assurances
(traitements successifs, par quelques spécialistes, d’un dossier qui circule dans les bureaux d’un
même bâtiment) ; ces deux situations sont elles-mêmes fort différentes de celle d’une réunion de
créativité cherchant à créer un nouveau concept en marketing (résolution d’un problème peu
formulé par un groupe hétérogène de dix participants enfermés dans une pièce). Si dans tous les cas
il y a partage d’informations et communication, les exigences en matière d’aide au fonctionnement
du groupe sont fortement différentes. Cela explique la très grande diversité dans les solutions
apportées par les technologies de l’information. 2. La diversité des solutions Sous le nom d’aide au
travail de groupe, on trouve des technologies informatiques, de communication. . ., permettant,
selon les cas :
1) de fournir des aides à la communication : permettre aux membres du groupe de se mettre en
contact pour communiquer, échanger et mémoriser plus facilement des informations (systèmes de
communication) ; 2) d’assister le groupe dans son processus de résolution de problèmes : recherche
d’idées, aide à la modélisation, traitement de modèles par simulation. . . Dans ce cas, on peut parler
de système d’aide à la décision de groupe (group decision support system). On distingue donc des
systèmes d’aide de niveau 1 (aide centrée sur la seule communication) et des systèmes d’aide de
niveau 2 (aide combinant un support à la décision et un support à la communication). À cette
distinction fondée sur la nature de l’aide apportée se superpose la distinction majeure imposée par le
contexte spatio-temporel du travail du groupe. La figure 12 présente cette matrice espace-temps
permettant de situer les différents outils dans quatre quadrants différents. .
Quadrant 1. – Même lieu, même moment : il correspond au contexte de la réunion classique. Des
logiciels spécialisés utilisés dans le cadre de « salles de décision » permettent d’assister le processus
collectif d’échange et de prise de décision. Compte tenu de leur importance, ces systèmes d’aide à
la décision de groupe appelés parfois « meetings assistés » ou « réunions assistées par ordinateur »
feront l’objet du point 2.2.2 ci-après.
Quadrant 2. – Lieux différents, même moment : ce contexte est celui de la réunion à distance. Il
exige impérativement des outils de télécommunication synchrones. Selon les cas, on peut travailler
en : – réunion téléphone : la communication est possible uniquement sous forme verbale et limitée à
20 postes téléphoniques. Interactive mais réclamant une grande discipline des participants, elle est
d’un coût faible ; – audioconférence : la communication repose sur le son et la transmission
d’images fixes (documents par télécopie et télécriture). Elle permet une interactivité plus forte avec
des investissements limités. Elle est bien adaptée au travail de groupes (distants) de spécialistes, à
maturité élevée ; – visioconférence : elle offre la possibilité d’effectuer des réunions à distance, en
mode interactif, entre plusieurs groupes de participants géographiquement éloignés avec la
transmission, dans les deux sens, de l’image animée et du son. La visualisation des participants
facilite le dialogue et permet des échanges riches ; cependant l’interaction ne peut être aussi riche
que dans une réunion classique (position d’un interlocuteur devant une caméra ; absence de
possibilité de « balayage » simultané des différents participants). Elle semble bien adaptée à
certaines situations classiques des grandes organisations : formation ou information « descendante »
interne à l’usage de groupes de destinataires dispersés ; réunions d’échanges réciproques et
d’analyse sur un problème connu entre collaborateurs appartenant à la même organisation qui se
connaissent déjà (degré de maturité élevé). Elle semble peu adaptée aux réunions de négociation
avec des participants peu connus. Malgré un coût relativement élevé sur des réseaux spécialisés, elle
peut être économiquement intéressante par les gains de temps et les économies de coûts de transport
qu’elle apporte. .
Quadrant 3. – Même lieu, moments différents : ce contexte est celui du travail coopératif : plusieurs
personnes collaborant à un projet, doivent échanger des informations, se coordonner
périodiquement sans obligatoirement se rencontrer physiquement. Les solutions proposées sont très
variables et les collecticiels utilisés peuvent avoir des fonctionnalités différentes : – courrier
électronique : le collecticiel permet l’échange de messages en mode asynchrone ; – outils de «
connexion » : souvent associés aux logiciels de messagerie, ils facilitent la planification des
réunions par la tenue de calendriers, d’agendas ;
– gestion de formulaires : on représente de façon standard des documents très utilisés (notes,
avis. . .) ; – gestion de documents : les documents, pouvant mélanger du texte, des données, des
images, etc., peuvent être archivés puis consultés par les différents participants au groupe de travail
(la réglementation de la consultation est possible) ;
– gestion des flux (« workflow ») : on automatise la circulation du document ; lorsque le document
a subi le traitement au niveau d’un individu, il est, sous forme électronique, communiqué à un (ou
plusieurs) destinataire(s) selon les instructions d’une procédure préenregistrée. Il est ainsi possible,
à tout moment, de connaître l’endroit où se trouve le document et le degré d’avancement du travail.
En définitive, ces différents outils du travail coopératif doivent permettre le partage d’informations
de toute sorte (fichiers utilisés au départ, documents et formulaires créés en cours de travail. . .),
l’échange rapide de messages sur le projet (on parle alors de conférence assistée par ordinateur), le
recours à des outils de traitement identiques (par exemple, utilisation d’un tableur sur les mêmes
données et visualisation sur différents écrans). Ils sont une extension des outils classiques
permettant dans des conditions de sécurité satisfaisantes (nécessité de protéger les données)
d’accélérer les échanges, de simplifier la communication écrite. La généralisation de leur usage peut
entraîner des changements importants du travail administratif en particulier. Exemples – Dans une
revue scientifique, chaque article doit être vu par plusieurs experts avant d’être publié ; le rédacteur
en chef peut adresser électroniquement une copie de l’article aux différents experts ; chacun fera
part de ses observations ; les commentaires seront échangés ; une conférence assistée par ordinateur
permettra, par messages successifs, d’aboutir à une décision (rejet ou publication). – À partir de
l’examen du résultat des ventes d’un produit, plusieurs personnes peuvent, par différents
traitements, expliquer leur interprétation des chiffres et proposer des solutions ; il n’y a pas de
réunion physique ni d’échanges de documents sur papier. Le groupe est un espace de travail virtuel
qui partage un ensemble de données.
. Quadrant 4. – Lieux différents, moments différents : toutes les solutions décrites dans le quadrant 3
peuvent s’appliquer si la connexion entre les postes de travail est réalisée par l’intermédiaire de
réseaux étendus au lieu d’un réseau local. Cependant, dans le cas précédent, même si le travail
coopératif correspond à des situations où le degré de formalisation est élevé, des réunions
informelles ou des contacts bilatéraux directs permettent de régler certaines difficultés. Dans le cas
où les distances sont grandes, la solution ne peut être améliorée que par le recours à des méthodes
de télécommunication fortement interactives telles que le téléphone, l’audio ou la visioconférence.
La coordination par ajustement mutuel peut alors intervenir.
2 2 2 Deux exemples : outils de groupware, outils de workflow
À titre d’illustration seront présentées deux réalisations d’usage courant dans les organisations : –
l’une correspondant à des situations de travail en coprésence : les réunions assistées par ordinateur ;
– l’autre correspondant à des formes de travail avec un partage des tâches asynchrone : le workflow.
1. Les réunions assistées par ordinateur
Les réunions sont une forme fréquente de travail collectif. (Différentes études ont montré que les
cadres passent fréquemment plus de 50% de leur temps de travail en réunions, programmées ou
impromptues). Les objectifs de ces réunions sont variés : – créativité : explorer des idées,
brainstorming ; – présentation d’un projet, d’un produit. . . ; – résolution collective d’un problème
avec décision. . . ; – négociation, recherche de consensus.. . ; – motivation ; – formation.
Compte tenu à la fois du poids important des réunions dans le fonctionnement des organisations et
des limites méthodologiques des solutions classiques, il a semblé judicieux de rechercher
l’amélioration de ces processus collectifs par un recours accru aux technologies de l’information.
Sont donc apparus, dès le début des années 1980 (au-delà du stade expérimental), des salles de
décision et des collecticiels (logiciels d’aide au travail en groupe) dont l’objectif annoncé était
d’améliorer l’efficience des réunions. Après avoir présenté les caractéristiques essentielles des outils
proposés, nous indiquerons les aspects majeurs de leur utilisation (impact prévisible et conditions de
succès). a – Les outils : salles de décision et collecticiels Une salle de décision est un local
spécialement conçu pour faciliter le travail d’un groupe souhaitant travailler en réunion en face à
face, c’est-à-dire avec la présence « physique » des participants. Toutes les salles ont comme
objectif d’offrir des conditions de travail agréables (sièges, mobilier, éclairage, isolation phonique,
climatisation. . .). Elles sont dotées d’un équipement spécifique (variable selon les réalisations)
comportant au moins :
– une station de travail connectée par participant ;
– une station de travail centrale commandant un affichage sur grand écran ; – un tableau blanc
interactif, avec stylet et écran tactile. Certaines salles sont raccordées à des réseaux publics et
permettent la recherche, si besoin est, de données externes accessibles par interrogation directe. La
topologie des salles peut varier : forme « amphithéâtre », forme en « U », salles circulaires, salles
rectangulaires. La disposition relative des participants a une incidence directe sur les possibilités de
communication (position identique pour chaque participant ou existence de places « privilégiées »).
La préparation de la réunion comprend la définition des objectifs, la mise au point d’un « agenda »
(ordre du jour détaillé). Un logiciel spécialisé permet de les rédiger, de les afficher à la demande ; il
permet aussi de rappeler, si besoin est, le compte rendu des réunions antérieures, de déclencher
l’impression de certains documents.. . Pendant le déroulement de la réunion, différents outils
peuvent être utilisés : – « brainstorming » ou aide à la génération d’idées : chaque avis émis peut
être stocké, affiché ou communiqué à certains membres, de manière anonyme ou ouverte. Il est
possible d’indexer les avis par des mots clés ;
– « classement » pour ranger les idées émises selon différents critères ; chaque participant peut
avoir son propre « rangement » ; – « traitement de texte multi-utilisateurs » permettant à plusieurs
personnes d’écrire « simultanément » sur un même document (très utile pour la rédaction d’un
compte rendu de réunion) ; – « vote » permettant l’expression d’une volonté collective avec des
modalités variées (oui-non, choix multiples, notation sur une échelle, etc.) ;
– évaluation d’alternatives sur des échelles quantitatives ou qualitatives ; – questionnaire : proposé
par l’animateur et affiché sur la station de travail de chaque participant ; dépouillement assisté par
un logiciel statistique ; – matrice de consensus permettant de comparer les perceptions de chacun
sur deux ensembles d’items. L’outil visualise graphiquement les zones d’accord et de désaccord
(possibilités de différentes formes de graphiques) ;
– lecteur de fichiers permettant à chacun de relire n’importe quelle donnée déjà stockée à n’importe
quel moment ; – dictionnaire permettant au groupe de définir formellement des termes ou des
phrases. À la demande, en fonction des questions traitées, le groupe peut également utiliser des
outils classiques d’aide à la décision (tableur, modèle particulier. . .). En définitive, l’outil « salle de
décision » combine des outils de communication (d’écran à écran, sur un écran mural. . .) et des
outils de support du processus de décision. Bien entendu, l’organisation de la salle autorise le
déroulement de la réunion soit en mode traditionnel, soit en mode assisté. b – L’utilisation : impact
et conditions de succès
Les salles de décision sont supposées améliorer le processus de travail du groupe par leurs quatre
fonctions principales : La communication parallèle : par l’intermédiaire de sa station de travail,
chacun peut émettre suggestions et commentaires lorsqu’il le désire. Le temps d’intervention est
identique pour tous, non partagé ; on peut ainsi éliminer les phénomènes de domination et accroître
le volume des informations échangées.
La mémorisation : les commentaires écrits sont enregistrés et demeurent accessibles à tout moment ;
cela diminue la contrainte d’écoute et facilite le commentaire ultérieur. L’anonymat réduit la
pression du groupe et peut permettre une meilleure expression des individus moins expérimentés,
plus timides ou de niveau hiérarchique faible. L’utilisation de l’écrit modifie le comportement.
Communiquer une information via le clavier est plus lent que de l’exprimer oralement ; cela peut
réduire à la fois le volume et la richesse des signaux échangés. En revanche, les échanges sont
souvent plus concis, plus précis, mieux centrés sur le problème. De très nombreuses études
expérimentales ont été conduites pour mieux cerner l’impact de la technologie « salle de décision »
sur le fonctionnement des groupes. Des résultats contradictoires ont été observés. Nous
n’indiquerons ici que les principales conclusions tirées de l’expérience d’utilisation à grande échelle
(par exemple, celle de la société IBM qui utilise des dizaines de salles de décision pour ses besoins
propres).
Tout d’abord on constate une économie importante du temps consacré aux réunions (réduction du
nombre de réunions et de la durée de chaque réunion) : de l’ordre de 50 % environ. Cette économie
est d’autant plus forte que la taille du groupe est importante ; cela a permis, en particulier,
d’accroître le nombre moyen des participants aux réunions sans perte d’efficience. Le niveau de
participation s’accroît ; la concentration sur la tâche s’améliore et l’on converge plus vite vers un
résultat. Dans la phase initiale de résolution d’un problème (exploration) ou dans les réunions de
créativité, l’anonymat se révèle avoir des effets positifs : le nombre de suggestions, le nombre
d’alternatives examinées ou de commentaires sur des propositions s’accroissent. Manifestement,
l’anonymat réduit les inhibitions et la communication parallèle améliore l’échange. En revanche, les
effets sur le consensus obtenu (et donc le degré d’adhésion ultérieur à l’application des décisions)
sont moins nets ; certaines expériences (IBM en particulier) révèlent un meilleur consensus a
posteriori, d’autres ne montrent aucun effet positif. En ce qui concerne la satisfaction des
participants aux réunions, il ne semble pas possible de tirer une conclusion générale des expériences
analysées. Les réunions sont vécues comme plus efficaces mais aussi comme plus « pénibles », plus
« formelles », moins « conviviales », mais « riches ». On constate, ce qui est assez normal, des
diversités d’opinion fortes parmi les participants à une même réunion. En ce qui concerne les
facteurs de succès de l’utilisation, il se dégage un certain nombre d’opinions convergentes : –
nécessité de préparer soigneusement la réunion : définition claire des objectifs, rédaction d’un
agenda détaillé (programme précis), choix des participants, vérification des supports techniques ; –
importance des interfaces de communication homme-machine : logiciel souple d’utilisation pour
l’entrée des données, recours aux graphiques, qualités ergonomiques des écrans (individuel et
général). L’apprentissage de l’outil doit être limité à quelques minutes pour des non-spécialistes ; –
rôle important du facilitateur. Plusieurs expériences ont été conduites avec des modèles différents :
réunions sans aucune assistance technique, réunions avec « chauffeur », c’est-à-dire avec un
assistant technique qui ne prend aucune initiative relative à la direction du groupe et se limite à
l’exécution d’opérations matérielles, réunions avec « facilitateur », c’est-à-dire un directeur de
réunion qui pilote le processus collectif de discussion, qui indique quels sont les outils susceptibles
d’être utilisés à chaque instant. Les résultats des observations montrent le rôle essentiel des
facilitateurs pour les réunions complexes et, dans tous les cas, l’exigence d’une très bonne
formation des facilitateurs tant en ce qui concerne les méthodes de conduite des réunions que la
manipulation des outils matériels et logiciels ;
– utilisation importante des possibilités de mémorisation pour la mise au point des comptes rendus
et la gestion de réunions enchaînées sur le même problème (mémorisation interréunions).
2. Outils de workflow et modélisation des processus métiers
L’objectif des outils de workflow (désignés parfois par l’expression GEP, gestion électronique des
processus) est d’améliorer la productivité de l’organisation en optimisant l’organisation des circuits
d’information et le suivi des procédures de circulation. Un des aspects importants du
fonctionnement des organisations est le déroulement de processus répétitifs mobilisant
l’intervention successive de plusieurs participants (postes de travail distincts dans l’organisation).
La simplification et l’automatisation de ces processus répétitifs sont des moyens importants pour
obtenir des gains de productivité et de qualité dans le fonctionnement de l’organisation. Défini en
tant que champ d’application, « le workflow est une forme de travail impliquant un nombre limité
de personnes devant accomplir, en un temps limité, des tâches articulées autour d’une procédure
définie et ayant un objectif global » (N. Naffah, in Nurcan, op. cit.). Dans cette situation de travail,
plusieurs personnes sont impliquées dans la réalisation d’une tâche collective mais interviennent à
des étapes différentes du déroulement de la tâche et individuellement à partir du moment où elles
exécutent leur part de travail. Exemples – Dans une grande administration, les promotions des
employés (changement d’échelon, de grade.. .) font l’objet d’une procédure complexe impliquant
l’employé spécialisé du service du personnel, puis le chef de service de l’intéressé, puis le
responsable d’une commission paritaire, puis le responsable d’unité, puis le responsable du service
du personnel, puis le contrôleur financier avec un retour final à l’employé spécialisé du service du
personnel. – Dans une entreprise du bâtiment, la réponse aux appels d’offres de clients potentiels
passe successivement par le service commercial, le service études, le service chiffrage-devis, le
service planning-chantier avant de revenir au service commercial. Dans ces situations de travail, un
« dossier » (c’est-à-dire un ou plusieurs « documents ») circule entre différents postes de travail ; à
chacun de ces postes, il est consulté, modifié, enrichi. . . Le traitement manuel de ces procédures
entraîne souvent l’apparition de problèmes variés : – constitution de files d’attente devant certains
bureaux (« le dossier est bloqué ») et de retards cumulatifs ; – difficultés de localisation des dossiers
en cours de traitement et, d’une manière générale, difficultés du suivi d’avancement ; – temps de
communication et de manipulation importants (appels, recherches, copies de documents.. .). Ces
problèmes peuvent être réduits ou supprimés si on automatise la procédure en utilisant des logiciels
de workflow, capables de gérer les procédures de travail, de coordonner les charges et les
ressources, de superviser le déroulement des tâches. Dans les applications de type workflow, il sera
donc nécessaire d’intégrer différents éléments : – la définition de la procédure (c’est-à-dire
l’enchaînement des tâches qui la composent, en précisant quels sont les événements qui déclenchent
la tâche et les résultats auxquels elle doit aboutir) ; – la gestion des données
utilisées dans la procédure (le contenu des dossiers traités. . .) ; – l’assistance et la coordination des
différents acteurs concernés (quel poste pour accomplir quelle tâche de la procédure.. .). Par rapport
à ces exigences, les possibilités des outils de workflow sont principalement de trois ordres : 1) Aide
à la gestion de la procédure : le logiciel impose un guidage rigoureux de l’enchaînement des tâches ;
il peut signaler au responsable de la procédure un retard anormal sur un poste. 2) Contrôle du flux
de travail : l’avancement du dossier est suivi étape par étape ; il est alors possible de détecter les
goulets d’étranglement (allongement de la file d’attente à l’entrée d’un poste) et d’y remédier
rapidement. 3) Automatisation dans la gestion des données : les documents papier peuvent être
remplacés par des formulaires électroniques, partageables par les différents acteurs, à partir de leur
poste de travail respectif. Les pertes de temps de recherche, copie. . . sont fortement réduites. La
coordination est ainsi assurée directement par le système, sur le document. (Dans certains cas, on
obtient, de ce fait, la possibilité de travailler en parallèle au lieu de travailler en séquence sur le
dossier ; l’acteur chargé de la tâche T commence à travailler sur le dossier avant que celui chargé de
la tâche T – 1 ait terminé.) La circulation de l’information est automatique. En pratique, les
solutions logicielles sont extrêmement variées, à différents niveaux d’automatisation et rapidement
évolutives. (Elles comportent généralement des outils de messagerie électronique, de transferts de
fichiers, de gestion de données partagées, de planification et de gestion des tâches. . .). 2 3 2
Conclusion : notion de groupe virtuel Le groupe de travail apparaît ainsi comme un instrument
d’organisation du travail productif où l’on assure la coordination des participants individuels et où
l’on favorise l’apprentissage par le partage des connaissances. La coordination peut prendre
plusieurs formes : – réunion des membres : situation de coprésence ; – communication à distance
par téléphone, courrier électronique. . . Généralement, le groupe de travail n’existe que de façon
discontinue (pendant que la coprésence des membres est réalisée) ; cependant, grâce aux
technologies de la communication, des individus peuvent, en dehors des réunions, avoir des
conversations à distance, échanger des images fixes ou animées, partager des documents de
travail. . . On appelle « groupe médiaté » un groupe de travail utilisant des technologies de
communication en plus des classiques réunions en face à face. Si la coordination des membres se
réalise exclusivement par l’intermédiaire des médias, on parle alors de « groupe virtuel ». Un
groupe virtuel est un ensemble de personnes qui s’engagent dans de fréquentes interactions
exclusivement à l’aide de technologies de l’information (donc à l’exclusion de toute rencontre en
face à face) et qui, comme tout groupe social, possèdent une ou plusieurs des caractéristiques
suivantes : – partage de normes communes sur des sujets d’intérêt commun ; – participation à un
système de rôles interdépendants ; – sentiment d’appartenance au groupe. On observe ainsi des
groupes virtuels travaillant avec la messagerie électronique, la vidéoconférence, les outils de
workflow. . . Une des directions de recherche visant à améliorer le fonctionnement des groupes de
travail ainsi constitués consiste à recourir à une « simulation virtuelle de la coprésence ». Les
techniques de simulation virtuelle repoussent, en effet, les limites à la communication imposées par
d’autres technologies en supportant des échanges très riches en mode interactif ; on essaie ainsi de
rendre la simulation aussi proche que possible d’une interaction en face à face en utilisant des outils
multimédias de plus en plus perfectionnés (vidéo grand écran, son directionnel. . .). Le
développement des réseaux de télécommunications à très haut débit permet ainsi de simuler, à
distance, la coprésence dans des « salles de réunion virtuelles » en donnant des images fidèles des
intervenants et une communication orale améliorée. Plus modestement, l’équipement des
microordinateurs avec des dispositifs de vidéoconférence permet déjà des interactions riches autour
de documents de travail. La constitution et le fonctionnement de ces groupes virtuels posent parfois
un certain nombre de problèmes spécifiques : – À quel objet doit-on réserver l’affectation de
groupes virtuels ? (Il semble que les tâches de créativité ou de négociation complexe soient plus
difficiles à réaliser avec des groupes virtuels.) L’ensemble des individus doit avoir une vision claire
et partagée de la mission du groupe. – Quelle doit être la composition du groupe virtuel ? Doit-on
sélectionner les membres sur des aptitudes différentes de celles que l’on exigerait pour la
constitution d’un groupe traditionnel ? Comment se développe le leardership dans le groupe
virtuel ? Quelle doit être la taille du groupe ? – Quels sont les moyens de communication à mettre à
la disposition du groupe ? Comment ces moyens vont-ils supporter les différents types d’interaction
entre les membres du groupe ? Comment ces moyens peuvent-ils influencer le partage des tâches
entre les différents membres du groupe ? – Tout travail de groupe implique un minimum de
confiance entre les participants ; les interactions ne peuvent se dérouler qu’à partir d’un minimum
de confiance initiale et leur déroulement modifie le degré de confiance initiale (confiance à l’égard
de la fiabilité et de la sécurité des outils de communication, confiance envers les autres membres).
Cette question de la confiance est particulièrement cruciale dans les équipes virtuelles, car
l’éloignement des participants et la nonconnaissance initiale des membres sont des facteurs peu
favorables à la construction d’un haut niveau de confiance. Qui plus est, la probabilité pour que les
membres retravaillent ensemble après la réalisation de la tâche qui les réunit est très faible, limitant
un des facteurs favorisant la confiance, l’anticipation de futures associations, base de la confiance
dite relationnelle. Pour certains groupes, le niveau de confiance semble d’emblée très élevé, et reste
stable. A l’inverse, des groupes caractérisés par un faible niveau de confiance au départ, semblent
avoir tendance à garder ce niveau faible. Ces deux observations conduisent à relativiser la
dynamique cumulative de la confiance pour les équipes virtuelles globales (Jarvenpaa,1998). La
forme de confiance observée serait la confiance rapide (« Swift Trust »), déjà analysée par exemple
dans le cadre des équipes de tournage d’un film. Au départ, la confiance importante entre les
membres peut s’expliquer par une catégorisation des membres, qui ne sont plus alors jugés en tant
que personne, mais en tant que membre de cette catégorie. Chacun sait que l’autre respecte le
convention de qualification et respectera la convention d’effort. L’application aux équipes virtuelles
globales montre que ce sont les premiers messages, et notamment la présentation respective de
chacun des membres, qui définissent en grande partie un niveau de confiance qui n’évoluera plus
par la suite.
2 3 L’échange de données informatisées :
EDI Les transactions entre organisations reposaient, traditionnellement, sur l’échange de documents
spécifiques (bon de commande, facture, avis de règlement), transmis par voie postale. Cette solution
classique présente des inconvénients évidents : – perte de temps due aux délais de transmission par
courrier postal ; – incertitude liée aux aléas de la voie postale ; – coûts supplémentaires liés à des
saisies de données multiples ; – fiabilité incertaine due aux erreurs de saisie par les différents
opérateurs. De ce constat a découlé l’idée simple de remplacer l’échange de documents papier par
un échange de messages électroniques, directement d’ordinateur à ordinateur, des partenaires de la
transaction. Cette idée est à la base de l’échange de données informatisées : l’EDI (en anglais
Electronic Data Interchange). L’EDI est donc un exemple particulier de système d’information
interorganisationnel destiné au support des transactions courantes entre organisations. La
Commission des Communautés européennes définit l’échange de données informatisées (EDI)
comme le transfert de données structurées sur des bases de messages normalisés approuvés, entre
systèmes informatisés par voie électronique. Cette technique de dématérialisation qui consacre l’«
entreprise sans papier » sera rapidement décrite dans un premier point ; nous aborderons ensuite les
principaux problèmes liés à son utilisation. 2 1 3 Principes de base Les domaines couverts par l’EDI
sont ceux correspondant à des transactions usuelles, bien définies par des textes ou par des usages.
Citons quelques exemples : – commandes ; – avis de réception de commandes ; – factures ; – avis
de réception ; – avis d’expédition ; – ordres de paiement ; – appels d’offres ; – ordres d’enlèvement
(transport) ; – comptes rendus d’exécution (transport) ; – documents douaniers ; – déclarations
fiscales ; – déclarations à caractère social. . . Il existe ainsi, à l’heure actuelle, plus de 200
documents répertoriés et susceptibles d’être transformés en documents électroniques. Derrière cette
diversité apparente, le processus de l’EDI est toujours
celui illustré par la figure 13. 1) Dans le cadre d’une application informatique d’un partenaire (par
exemple, la gestion des stocks chez le partenaire 1), un message est émis sous forme d’un fichier
spécifique (c’est-à-dire organisé selon les modalités imposées par le logiciel d’application). Ce
message est transformé par un logiciel de traduction en un fichier organisé selon les normes EDI
puis communiqué automatiquement, via un réseau de communication, à un ordinateur du partenaire
2) Le réseau utilisé offre généralement des possibilités d’employer des « boîtes aux lettres
électroniques » où peuvent être stockés les messages. (Ce type de service justifie l’appellation de «
réseau à valeur ajoutée ».) 3) Chez le partenaire 2, le processus inverse se déroule. Le message EDI
est reconnu puis « traduit » afin d’être adapté à son traitement par le logiciel d’application (par
exemple, le bon de commande émis par le partenaire 1 est adapté, après réception et traduction, à
l’application de traitement des commandes chez le partenaire 2). La présentation de ce processus
EDI met en évidence deux caractéristiques importantes : – la possibilité de lier la transmission des
documents aux applications qui les produisent ou qui les utilisent. Le logiciel de traduction permet
d’assurer la liaison entre l’activité de communication et l’activité de traitement. – l’existence
indispensable d’une normalisation des documents électroniques qui seule peut garantir la fiabilité de
la communication : le document doit être reconnu avec certitude car il a des conséquences
juridiques immédiates sur l’existence même de la transaction. 2 2 3 Principaux problèmes C’est
pourquoi le problème de normalisation est fondamental. Ce qui différencie l’EDI de la simple
communication électronique est le fait que les données soient présentées selon une norme reconnue
aux niveaux sectoriel, national ou international. Cette norme va définir les termes commerciaux à
utiliser, la façon dont le document est organisé en segments, l’ordre de ces segments, quels sont les
contrôles à opérer pour vérifier, à la réception, que le message est correctement reçu. . . La norme
définit un langage commun avec une syntaxe et une sémantique très précises. De très nombreuses
normes ont été définies dans différents cadres ; citons par exemple : – au niveau national (France) :
Galia (constructeurs automobiles), Gencod (distribution), Cefic (chimie), Innovert (transport) ; – au
niveau européen : GTF (transport terrestre), Odette (construction automobile), Édifice (construction
électronique), Ediconstruct (travaux publics), EAN (distribution) ; – au niveau international : IATA
(transport aérien). Mais la multiplicité de ces normes se révèle très vite gênante pour faire face aux
besoins du commerce international (cas d’une entreprise européenne travaillant avec l’Asie. . .) et
des échanges intersectoriels (par exemple, une entreprise fabriquant des composants électroniques
pour l’automobile devrait travailler avec les normes Odette et Édifice, uniquement en Europe).
C’est pour cette raison qu’est développé, sous la tutelle des Nations unies, un langage commun :
EDIFACT (échange de données informatisées pour l’administration, le commerce et les transports).
Exemple de message utilisant les balises EDIFACT, norme 816
ST^816^1001~
BHT^0059^00^NATCON^20010101^^ML~
N1^MTMLP^HC
MAUFACTURER^21^08KUG8732~
N1^BG^HC
BUYING
GROUP^21^097YT593J~
PER^CD^MARY
AUDETTE^TE^312-575-5957^FX^312-5755958^EM^[email protected]~
HL^01^^24^1~
N1^FFS^HC
BUYING
GROUP^21^097YT593J~
Le paysage de la standardisation EDI est portant encore en mouvement, car le langage XML est
devenu aujourd’hui la base des échanges de documents en structurant les données de manière
standardisée. Mais le problème vient en l’occurrence de la souplesse fournie par XML qui permet à
chacun de définir un standard.. . sur mesure. Cette possibilité a déjà été largement utilisée,
notamment par les différentes branches d’activités et types d’applications qui ont défini leurs
propres standards, et l’on estime leur nombre à plus de 500 ! On assiste maintenant à la naissance
d’initiatives destinées à recenser ces standards XML et à définir des moyens de les fédérer. Le
monde des standards pour l’interopérabilité ne se simplifie pas, mais évolue très vite : – D’un côté,
Oasis (avec Sun) avec le soutien des organismes de normalisation (Cefact-ONU Edifact). OASIS se
positionne en concurrent des réflexions du W3C sur le Web sémantique, et continue la mise au point
de ebXML. Les pays comme les États-Unis où Edifact est peu implanté, privilégient ce « bond en
avant » direct vers XML que représenterait ebXML. Mais si cette standardisation « officielle » ne
débouche pas vite, la stabilité attendue par les entreprises pour passer à XML viendrait alors des
standards de facto. . . – Car de l’autre côté, la WS-I (Web Services Interoperability Organisation)
qui regroupe offreurs et grands utilisateurs industriels de produits basés sur XML (avec Microsoft,
IBM, SAP, Oracle, Dassault Systèmes.. .) se veut un outil de la « customer business process
integration » avec notamment les standards UDDI pour les registres et SOAP pour les procédures à
distance. Tous proposent déjà des spécifications construites autour de XML : Ariba avec le cXML,
CommerceOne avec le XCBL, IBM avec le SpML, Microsoft avec Biztalk. . . – Absent de ces deux
consortiums, le W3C, qui est occupé à coordonner entre eux les nombreux standards de la galaxie
XML (XML Schema, XSLT, Xquery, Xpointer, « namespaces ». . .), se situe à michemin entre les
membres de Oasis et la WS-I. XML nécessite une boîte à outils cohérente et simple à utiliser, où
chaque outil complète les autres, et il y a donc encore du travail à faire au W3C. – Absent aussi des
deux consortiums, les utilisateurs d’EDIFACT, organisés en 10 secteurs d’utilisation et aussi dans
l’EWG (Edifact Working Group). Ils coordonnent le développement d’Edifact depuis l’origine et ils
veulent plutôt traduire « telle quelle » la sémantique Edifact en XML (EDI-Light) limitant ainsi le
coût de la migration, alors qu’ebXML voudrait privilégier l’amélioration qualitative et radicale.
2 4 Le commerce électronique
À l’heure actuelle, la croissance « explosive » d’Internet est due, pour l’essentiel, au développement
de l’Internet marchand, c’est-à-dire d’applications à caractère commercial souvent regroupées sous
l’expression commerce électronique. Désormais, la plupart des entreprises sont confrontées à la
concurrence d’entrepreneurs utilisant certaines potentialités d’Internet pour développer des métiers
nouveaux ou aborder des métiers anciens de manière différente. Les réalisations sont désormais très
nombreuses et très variées ; cependant, les positionnements stratégiques adaptés se réduisent à trois
types principaux, selon le rôle que l’on confie à Internet : outil de contact, outil transactionnel, outil
d’intégration. 1. Premier positionnement : Internet, outil de contact La conception la plus simple
consiste à considérer Internet comme un outil de diffusion (communication unilatérale
d’informations) apte à informer sur l’entreprise, ses produits, ses performances.. . La plupart des
organisations importantes (institutions publiques, associations privées, entreprises) ont désormais
un site Web informatif, qui joue le rôle de vitrine. Ce positionnement informationnel confère à
Internet le rôle classique d’un média en marketing. Ainsi, selon Monod et Rowe : « Internet est une
télévision dont le contenu est permanent et consultable au moment où on le désire, bref, un journal.
Mais un journal dont le contenu change à la vitesse de la radio, dont chacune des pages peut
certifier qu’elle a été vue par un lecteur. » Internet est donc d’abord un espace pour faire de la
publicité et de la promotion des ventes ; pour ce type de positionnement, le critère déterminant est la
qualité de l’accès, c’est-à-dire le degré de couverture de la cible (le site est-il consulté par la grande
majorité des clients potentiels ?). En revanche, ce type de positionnement n’exige aucune
modification importante de l’organisation de l’entreprise. 2. Deuxième positionnement : Internet,
outil transactionnel Dans la mesure où Internet permet l’interactivité, il semble naturel de l’utiliser
comme support des transactions commerciales. Cela conduit directement à la notion de « commerce
électronique » : sont concernés par ce terme tous les échanges et toutes les transactions qu’une
entreprise peut être amenée à faire au travers d’un média électronique ou d’un réseau (selon la
définition de l’Association française du commerce et des échanges électroniques). On distingue
deux grandes formes de commerce électronique : 1) d’entreprise à entreprise (Business to Business,
en agrégé B2B) ; 2) d’entreprise à consommateur final (Business to Consumer, B2C). La valeur des
transactions effectuées par commerce électronique croît à un taux élevé mais le B2C
ne représente qu’une très faible partie du commerce électronique. Le positionnement stratégique est
fondé sur la réduction des coûts de transaction et sur la réduction de la dépendance vis-à-vis des
canaux usuels. Comme le précisent M. Amami et J. Thévenot, le choix d’Internet comme support de
transactions marchandes peut obéir à trois logiques différentes. 1) Marché contrôlé par le vendeur :
les exemples les plus représentatifs sont des vendeurs de produits de haute technologie : Cisco,
leader mondial de routeurs de télécommunications ou Dell, leader en micro-informatique. On offre
au client l’interaction avec des experts techniques pour mieux préciser la demande, vérifier et suivre
l’état de la commande. Si le produit ou le service vendu est 1. Sur cette question, cf. l’ouvrage très
complet de H. Isaac, P. Volle, E-commerce, Pearson, 2011. réductible à de l’information
numérisable, la livraison au client par l’intermédiaire du réseau peut s’effectuer dans d’excellentes
conditions de délais et de coûts ; dans ce cas, le B2C présente un intérêt évident : les exemples les
plus classiques sont la vente d’informations et de conseils, la vente de livres électroniques sous
forme de fichiers textes, la vente de musique sous forme de fichiers numériques compressés à la
norme MP3.. . 2. Marché contrôlé par l’acheteur : c’est un domaine en pleine expansion dans le
B2B. Les premières applications ont été la création de plates-formes d’achat dans les grandes
entreprises, au début pour l’acquisition de fournitures de bureau ou de billets d’avion pour
l’ensemble des unités. On étend désormais l’activité de ces plates-formes d’achat (uni ou
multientreprises) à l’achat de composants entrant dans les processus de fabrication des produits,
pour une mise en concurrence systématique des fournisseurs. 3. Marché contrôlé par
l’intermédiaire : certaines entreprises se sont développées dans une fonction d’intermédiation ; elles
pensent pouvoir bénéficier du phénomène d’agrégation d’une demande dispersée et de la mise en
concurrence des fournisseurs (éventuellement par des systèmes d’enchère comme sur eBay) pour
dégager des marges intéressantes. Le positionnement transactionnel a, de toute évidence, des
conséquences plus lourdes pour l’entreprise que le simple positionnement de contact. Il est
indispensable de maîtriser les problèmes logistiques et les problèmes liés au paiement et à la
sécurité ; l’impact sur l’organisation peut être important (changement pour les services
commerciaux, les services de livraison, d’après-vente. . .) ; les risques de cannibalisation des canaux
existants sont sérieux ; la confiance des consommateurs n’est pas facile à construire. 3. Troisième
positionnement : Internet, outil d’intégration Ce positionnement consiste à développer un réseau
reconfigurable de partenaires dotés de compétences variées pour pouvoir intégrer, personnaliser et
développer de nouveaux produits afin d’offrir au client le meilleur service. Un tel schéma
ambitionne de mettre fin à la standardisation des produits : le client exprime, via Internet, ses
besoins. Ce choix va déclencher une série de commandes en chaîne (de l’intermédiaire vers des
fournisseurs de premier puis de second niveau, vers les assembleurs, les transporteurs et
éventuellement les institutions financières). L’avantage est une personnalisation du produit ou du
service lié à la disposition de stocks intermédiaires ; la contrepartie est un partage d’informations
entre les partenaires. On matérialise ainsi le concept d’entreprise étendue et l’on s’achemine vers la
création de communautés virtuelles associant différents fournisseurs situés le long de la chaîne de
valeur et leurs clients. Ce type de positionnement entraîne des modifications considérables dans le
mode de fonctionnement de l’entreprise : concentration sur les compétences clés, segmentation très
forte des marchés, nécessité de développer un capital de confiance solide, établissement d’une forte
image de marque, maîtrise technique des relations entre partenaires. . . Il semble promu à un grand
avenir car tous les acteurs peuvent y trouver un intérêt : les entreprises qui offrent un service adapté,
le logisticien qui procède à une livraison unique, le client qui réduit le temps consacré à l’achat. . . 2
1 4 Le commerce électronique avec les consommateurs (B to C) Le recours à la technologie Internet
pour améliorer sa position concurrentielle, créer de la valeur, attaquer de nouveaux marchés.. .
semble s’imposer de plus en plus. Cependant, l’utilisation d’Internet ne va pas sans poser un certain
nombre de problèmes spécifiques dont la solution conditionne le succès d’une « stratégie Internet ».
1. Premier problème : faire connaître son site Web Quel que soit son positionnement stratégique,
une entreprise ne peut tirer des avantages de sa présence sur Internet que si son site est visité par de
nombreux internautes dont les caractéristiques correspondent aux objectifs commerciaux visés. Un
site Web doit être connu pour être visité. Or la multiplication des sites conduit chaque entreprise à
se démarquer de ses concurrents et à atteindre une visibilité supérieure à la leur ; pour cela, elle doit
recourir au webmarketing dont les éléments principaux sont, selon T. Isckia, le référencement, le
netlinking, le mailing électronique et la publicité. 1. Le référencement consiste à inscrire le site dans
un moteur de recherche ou un annuaire ; la plupart des internautes commencent en effet leur
recherche par la consultation d’un moteur de recherche ou d’un annuaire ; ces derniers affichent en
réponse des listes de sites correspondant à la question posée ; sachant que peu d’internautes vont audelà de 20 sites, l’enjeu pour l’entreprise est d’apparaître en bonne place dans la liste affichée. Le
travail de référencement est en pratique complexe et, souvent, doit être confié à des sociétés
spécialisées. 2. Le netlinking (échanges de liens) consiste à identifier des sites prescripteurs, à les
contacter pour leur faire part de l’existence du site de l’entreprise et leur proposer d’établir un lien
unilatéral ou réciproque vers les pages de l’entreprise à l’aide d’une navigation hypertexte. 3. La
publicité : tous les supports classiques (presse, affiche, radio, télévision) peuvent être utilisés pour
faire connaître l’existence d’un site Web. Mais l’entreprise a souvent intérêt à employer Internet
comme support. Pour cela, elle peut proposer l’insertion de « bannières » publicitaires (fixes,
animées, sonores) sur des sites adaptés (portails, sites d’associés) permettant par un simple « clic »
d’arriver sur le site annoncé. La notoriété du site est une condition du succès ; il semble souhaitable
que cette condition soit prise en compte lors de l’élaboration d’une stratégie Internet et que des
ressources spécifiques soient affectées à cette question. 2. Deuxième problème : assurer la qualité
de la relation Via Internet, l’entreprise établit des relations avec ses clients et ses partenaires. La
qualité de cette relation est primordiale pour la construction de la confiance ; elle dépend, dans le
cas général, de la qualité du site Web mais aussi de la façon dont elle est gérée lorsque s’effectue
une transaction effective portant, en particulier, sur des biens tangibles. a – La qualité du site Selon
O. Perez, un site Web peut être évalué selon neuf critères : – ergonomie : navigue-t-on facilement
sur le site ? – technologie : le site est-il techniquement fiable (par exemple, bon fonctionnement des
liens hypertexte) ? – graphisme : l’esthétique du site est-elle satisfaisante ? – actualité : le site est-il
mis à jour régulièrement ? – richesse de l’information : l’information est-elle à valeur ajoutée ou
simplement de type carte de visite ? – accès à l’information : trouve-t-on facilement une
information sur le site ? – écoute du client : le site favorise-t-il le dialogue avec l’entreprise ? –
convivialité : le site est-il convivial ? (page d’accueil, rubriques distrayantes) – service : le site
offre-t-il des services interactifs en ligne ? Un « bon site » doit séduire l’utilisateur, répondre à ses
attentes et bien se servir des ressources de la technologie. b – La qualité dans la gestion de la
relation Dans le cas des sites transactionnels, l’échange commercial aboutit à la livraison de
produits et à l’encaissement du paiement. Il est possible d’obtenir une bonne qualité dans la
communication avec le client (avant et après l’achat) grâce à une utilisation appropriée d’Internet,
mais l’expérience montre que la relation est particulièrement sensible à la façon dont sont gérés des
incidents classiques : erreurs de livraison, erreurs de facturation, retards de livraison, incidents de
paiement, retours clients. . . La sophistication de la technologie ne dispense pas de la rigueur dans
les opérations logistiques d’une part, ni de la très grande attention à apporter aux réclamations des
clients (en particulier dans le B2C) d’autre part. 3. Troisième problème : assurer la sécurité des
paiements Dans les relations sur Internet, l’émetteur et le récepteur sont physiquement distants et ne
possèdent aucune preuve de l’identité de chacun. L’acte de paiement repose sur la confiance entre
les cocontractants (et ce problème est particulièrement important en B2C). Le paiement en ligne, à
distance, doit pouvoir répondre à plusieurs exigences (D. Bounie)
: – « authentification » du donneur d’ordre : l’utilisateur est-il réellement celui qu’il prétend être ? –
intégrité des données transmises : le message peut-il être modifié ? – confidentialité de la
transaction : un tiers non autorisé peut-il lire le message ? – anonymat de la transaction : un tiers
connaît-il les achats de l’utilisateur ? – autorisation : l’utilisateur est-il autorisé à faire cette
transaction ? Une première famille de solutions consiste à sécuriser les protocoles de
communication dans les réseaux ouverts. Par exemple, le protocole SSL (Secure Socket Layer)
repose sur une cryptographie qui permet de sécuriser la transmission du numéro de carte de crédit
en ligne. D’autres systèmes, conduisant à des échanges plus complexes, font intervenir un « tiers de
confiance » chargé d’effectuer le paiement après vérification de la véracité de la transaction.
Remarque Le problème de la sécurisation des paiements est très important pour le B2C où les
transactions sont souvent ponctuelles entre partenaires qui ne se connaissent pas. En B2B, les
pratiques habituelles du crédit interentreprises et de relations fondées sur la confiance rendent la
question moins prégnante. 4. Quatrième problème : disposer d’un cadre juridique clair Comme le
soulignent S. Dusollier et L. Robin Jacquemins, « le marché électronique a un besoin crucial de
connaître les règles du jeu. . . Pour cela, le cadre juridique doit être clair, stable et prévisible à la fois
pour permettre à de nouveaux commerçants électroniques de faire face à tous les défis soulevés par
le développement de nouveaux produits et services et assurer la confiance des consommateurs dans
le nouveau marché électronique ». Sont concernés, en particulier : – l’identification obligatoire des
fournisseurs de produits ou services (qui se cache derrière le site Web?) ; – la réglementation de la
communication commerciale (interdiction de la publicité pour certains produits, réglementation des
jeux et concours, des offres promotionnelles.. .) ; – la protection du consommateur dans la
définition du contrat à distance (nature des informations préalables, confirmation écrite de
l’information, droit de rétractation. . .) ; – le statut de la signature électronique (validité et valeur
probante de la signature, rôle des intermédiaires de certification) ; – le paiement électronique (voir
ci-avant) et les conditions d’utilisation de la monnaie électronique ; – le régime de la TVA des
ventes en ligne (taux applicable selon le lieu de la transaction ?) ; – la protection des droits d’auteur
(problème particulièrement aigu avec la numérisation de la musique et des livres. . .), donc la
protection des droits de reproduction, de communication au public, de distribution et la protection
des bases de données. 2 2 4 Le commerce électronique entre entreprises (B2B) Le commerce
électronique entre entreprises (B2B) représente l’essentiel du commerce en ligne. À l’origine, il
reposait essentiellement sur des liaisons bilatérales de type EDI ; puis le développement d’Internet
et d’XML, plus souple d’utilisation et moins coûteux, a favorisé la communication avec le client à
l’aide de catalogues en ligne. L’évolution actuelle consacre l’émergence des marchés électroniques
ou marchés en ligne. Ce sont des systèmes d’information interorganisationnels, des espaces virtuels
de communication où, grâce à des infrastructures technologiques accessibles par Internet, des
acheteurs et des vendeurs peuvent échanger des informations et effectuer des transactions. Ces
marchés en ligne peuvent apporter des réductions de coûts, une rapidité accrue des échanges, une
ouverture mondiale, et améliorer la gestion des relations de l’entreprise avec ses partenaires.
PLATE-FORME D'ACHAT PLACE DE MARCHÉ PORTAIL SPÉCIALISÉ Clients concentrés,
peu nombreux et initiateurs du projet Fournisseurs nombreux Priorité à l'efficacité de la chaîne
d'approvisionnement et à la mise en concurrence Objectif clé : baisse des prix et des coûts d'achat
Clients nombreux, mais initiateurs neutres Fournisseurs nombreux Priorité à la transparence sur les
prix et les coûts de transaction Objectif clé : mise en relation et baisse des coûts de transaction
Nombreux clients segmentés Fournisseurs peu nombreux et initiateurs du portail Priorité aux
besoins des clients et à leur fidélisation Partenaires complémentaires sélectionnés Objectif clé :
chiffre d'affaires / fidélisation ACHAT ACHAT / VENTE VENTE / MARKETING / SERVICE
Figure 4.14. Les trois types de marchés en ligne (Pick et al., p. 85)
Selon Pick et al. 1 (à qui nous empruntons l’essentiel de ce développement), il existe trois grands
types de marchés en ligne (figure 14) : – les plates-formes d’achat et d’approvisionnement ; – les
places de marché ; – les portails spécialisés. 1. Les plates-formes d’achat et d’approvisionnement :
le e-achat Ce sont des systèmes de transaction informatisés multilatéraux, dont l’accès est réservé
aux adhérents, développés à l’initiative des acheteurs. a – Objectifs Les objectifs visés par le
recours à ces plates-formes sont : – la réduction du coût du processus d’achat et de
réapprovisionnement par l’automatisation des opérations de routine (documents.. .) ; – la réduction
des coûts de stockage (la diminution des stocks découle de la réduction des délais de livraison) ; – la
réduction du prix des biens achetés par une mise en concurrence élargie à un panel de fournisseurs
plus important et la pratique d’enchères inversées ; – une amélioration de la qualité des produits
achetés (meilleure sélection). b – Fonctionnalités principales Les applications constituant la plateforme d’achat offrent les possibilités suivantes : – catalogues complets des produits et des
fournisseurs accessibles ; – possibilité de vérification en ligne de la disponibilité des produits ; –
documents accompagnant la négociation ; – possibilité de lancer des appels d’offres et de gérer les
enchères émises auprès des fournisseurs (enchères inversées) ; – passation et suivi des commandes ;
– contrôle de qualité ; – analyses statistiques sur les achats. . . L’accès à ces fonctionnalités suppose
une harmonisation des bases de données produits entre clients et fournisseurs potentiels et une
modification du traitement informatisé des achats chez les clients pour qu’ils soient compatibles
avec les applications offertes par la plate-forme d’achat. Exemples de plates-formes d’achat –
Covisint créé dans le secteur automobile pour les achats de Ford, General Motors, DaimlerChrysler, Renault-Nissan. – Agentrics dans le secteur de la grande distribution (Carrefour, Auchan,
Leclerc. . .). – Answork créé par les banques françaises (BNP-Paribas, Crédit Agricole, Société
Générale.. .) pour leurs achats de fonctionnement. 1. PICK J. D., SCHNEIDER D.,
SCHNETKAMP G., e-Markets, les nouveaux modèles du B2B, First éditions, Paris, 2001.
2. Les places de marché
Ce sont des sites, développés par des intermédiaires spécialisés, qui offrent un lieu de
rencontre neutre pour de nombreux vendeurs et acheteurs. Mais le succès attendu n’est pas
(encore ?) au rendez-vous. a – Objectifs Les places de marché électroniques remplissent les
fonctions économiques classiques du marché, essentiellement la mise en relation d’acheteurs
et de vendeurs. Elles doivent offrir un bénéfice économique à leurs utilisateurs :
augmentation des ventes, diminution des coûts d’achat et des coûts de distribution,
amélioration de la qualité. . . Cet objectif est d’autant mieux atteint que la taille de la place
de marché est importante : le nombre de transactions potentielles s’accroît très vite avec
l’augmentation du nombre de partenaires (effet de réseau). Pour les opérateurs,
intermédiaires animateurs de la base, les revenus proviennent de droits d’adhésion, de
commissions sur les transactions, de revenus publicitaires payés par les vendeurs, de ventes
d’informations statistiques ou de ventes de services spécifiques (vérification de la solvabilité
des clients, organisation logistique des livraisons, assistance pour la sécurisation des
règlements.. .). 3. Les portails spécialisés : le modèle « direct » « Ce sont des plates-formes
intégrées de marketing, de vente, de prestations de services, qui couvrent la totalité des
besoins d’une cible donnée, en matière à la fois d’information et de transactions » (Pick et
al., p. 87). Ils sont mis en place à l’initiative des vendeurs. a – Objectifs Les portails
spécialisés permettent de toucher individuellement des clients dispersés (marché
fragmenté) ; il est possible par Internet d’accéder à de petits clients, de façon personnalisée
et peu coûteuse. Organisés à l’origine pour une certaine catégorie de produits (ceux fournis
par l’initiateur du portail), ils évoluent souvent vers la couverture de l’ensemble des besoins
du client. Ils offrent aux clients la possibilité d’une réponse immédiate à leurs questions et le
support automatisé pour le traitement complet de la transaction (livraison et règlement).
L’objectif majeur est de développer une relation stable avec le client par un marketing ciblé,
un service personnalisé, une assistance forte à l’acte d’achat, un support au service aprèsvente : on peut ainsi identifier et fidéliser les meilleurs clients. Le portail joue le rôle d’un
canal de distribution qui remplace ou, plus souvent, qui complète les canaux existants en
contribuant à l’accroissement des volumes vendus. b – Fonctionnalités Le portail spécialisé
tend à couvrir la totalité des besoins d’achats de ses clients. Il doit donc proposer un large
éventail de produits et de services ; cela implique de regrouper autour de l’offreur initial les
offres d’autres fournisseurs partenaires (offres complémentaires). Il doit permettre ensuite au
client de définir ses besoins précis (personnalisation). Il doit assurer un traitement complet
de la transaction par voie électronique : contrôle de la disponibilité du produit,
enregistrement de la commande, déclenchement de la livraison, facturation et règlement,
assistance à l’utilisation et service après-vente. Toutes les données concernant les
interactions avec le client (demandes d’information, transactions. . .) sont conservées pour
être réutilisées dans la gestion de la relation.
Exemples – Dell Computer, spécialiste de micro-informatique, leader mondial, utilise le
canal de la vente directe et la fabrication sur mesure. (Les en-cours sont extrêmement
réduits.) À partir d’un catalogue très détaillé, le client, assisté par un logiciel, définit la
configuration de son ordinateur et passe sa commande. Il peut, à tout moment, suivre l’état
de cette commande. Il dispose d’un accès aux données techniques, de logiciels de diagnostic
en ligne, de serveurs avec moteurs de recherche pour l’assistance technique après la vente.
L’offre d’origine, les micro-ordinateurs, a été élargie à des matériels périphériques, à des
logiciels puis à des mobiliers et fournitures de bureau proposés par des fournisseurs
partenaires. – Restaupro, portail lancé par le groupe ACCOR, propose aux restaurateurs
toute une gamme de produits et services nécessaires à leur activité. Même si leur avènement
a donné lieu à des prévisions sans doute exagérées par les tenants de la « nouvelle économie
», les marchés en ligne sont aujourd’hui une réalité que les entreprises ne sauraient ignorer.
Pour résumer L’évolution très rapide des technologies de la communication entraîne des
modifications considérables dans la gestion des organisations. La compression du temps,
l’abolition de l’espace, la possibilité de transmettre sous des formes variées de très grandes
quantités d’information à des coûts très faibles conduisent à des bouleversements continuels
dans les processus de travail, dans les modes de coordination interne, dans la façon de
concevoir la collaboration entre les organisations. La forme même des organisations, le
fonctionnement des marchés sont et seront affectés par ce phénomène. Nous sommes au
coeur d’une évolution de grande ampleur, comparable à la révolution industrielle du XIXe
siècle. Tous les gestionnaires sont concernés car, de proche en proche, les modifications se
transmettent ; certains d’entre eux auront à faire face à des mouvements de grande amplitude
impliquant la disparition d’activités actuelles et la création d’activités nouvelles. La gestion
de ces modifications constitue un défi redoutable.