Chapitre 1 La notion de système d`information 1. Approche de la
Transcription
Chapitre 1 La notion de système d`information 1. Approche de la
Chapitre 1 La notion de système d’information 1. Approche de la notion de système d’information 2. La dimension informationnelle 3. La dimension technologique 4. La dimension organisationnelle Au terme de ce chapitre vous devez être en mesure: . De définir la notion de système d’information . D’identifier ses trois grandes dimensions et les ressources qui le composent . De comprendre les liens qui permettent de passer des donner à l’information et à la connaissance De comprendre comment le système d’information constitue une représentation collective et comment une organisation peut décider ou non de le mettre en place De comprendre en quoi la technologie qui le supporte suit un processus qui doit être planifié et évolue de façon émergente . De comprendre comment les interactions entre acteurs et avec la technologie reproduisent et transforment l’organisation « Tout système d’information concerne un individu, pourvu d’un profil psychologique donné, confronté à un problème décisionnel précis, dans un contexte organisationnel déterminé. Il y a nécessité d’éléments de décision perçus au travers d’un mode de représentation propre au décideur. » R.O. MASON, J.-L. MITROFF, Management Science, vol. 19, no 6, 1975. « Le système d’information de l’entreprise est la partie du réel constituée d’informations organisées, d’évènements ayant un effet sur ces informations, et d’acteurs qui agissent sur ces informations ou à partir de ces informations, selon des processus visant une finalité de gestion et utilisant les technologies de l’information. » D. BERTHIER, C. MORLEY M. MAURICE-DEMOURIAUX, Systèmes d’Information et Management, vol. 10, no 3, 2005, p. 26. Dans le vocabulaire du management, le terme « système d’information » est très souvent utilisé avec des acceptions diverses ; généralement, l’accent est mis sur l’aspect technologique, pour évoquer des réalisations à base d’ordinateurs et de réseaux. En réalité, la notion de système d’information est beaucoup plus riche que celle sous-entendue par ces usages approximatifs, privilégiant trop souvent l’aspect spectaculaire des technologies de l’information. Sa description sera l’objet de ce premier chapitre. Nous proposerons tout d’abord une définition des termes système d’information (SI), puis nous montrerons que tout système d’information est un objet multidimensionnel pouvant être caractérisé selon trois dimensions principales : – une dimension informationnelle ; – une dimension technologique ; – – une dimension organisationnelle. 1 Approche de la notion de système d’information. Une proposition de définition Un système d’information est un ensemble organisé de ressources : matériel, logiciel, personnel, données, procédures.. . permettant d’acquérir, de traiter, de stocker des informations (sous forme de données, textes, images, sons. . .) dans et entre des organisations. Cette définition nous permet de considérer qu’un système d’information est un ensemble finalisé, construit à partir de différentes ressources et susceptible d’être défini à différents niveaux, même s’il a finalement toujours un caractère sinon organisationnel, du moins social. Si toutefois on reconnaît que le système d’information aide l’acteur à former des représentations et qu’en fait le système ne peut le faire sans l’acteur (cf. 2 La dimension informationnelle), le système interfaceacteur est le véritable générateur de l’information. D’où la définition proposée par Reix et Rowe (2002) et amendée récemment à la suite d’une discussion avec Jean-Louis Le Moigne : Un système d’information est un système d’acteurs sociaux qui mémorise et transforme des représentations via des technologies de l’information et des modes opératoires. 1 1 Un système organisé à partir de différentes ressources Le système d’information regroupe différentes ressources : – Personnes : il n’y a pas de système d’information sans personnes, sans acteurs : ce sont soit des utilisateurs du système, employés, cadres qui, pour la réalisation de leurs tâches, utilisent l’information produite par le système et ses possibilités d’automatisation ou qui alimentent le système en données nouvelles. . ., soit des spécialistes de la construction des systèmes d’information (analystes, programmeurs. . .) dont le travail consiste à concevoir, développer, implanter les bases technologiques du système et assurer son fonctionnement. – Matériels : le système d’information repose, dans la plupart des cas, sur des technologies numériques de l’information (réseaux, ordinateurs et unités périphériques, stations de travail. . .). On notera cependant que la définition de la notion de système d’information n’implique pas obligatoirement le recours à de telles technologies et que, conceptuellement, on peut fort bien définir un système d’information construit avec un crayon et des feuilles de papier. Un système d’information ne se confond pas avec un système informatique et ne se réduit pas à lui. – Logiciels et procédures : dans le cas le plus fréquent, le système d’information repose sur l’utilisation d’ordinateurs ; ceux-ci ne peuvent fonctionner qu’avec des logiciels, c’est-à-dire des programmes enregistrés qui commandent le fonctionnement automatisé des machines. L’élaboration de ces programmes est un aspect majeur de la construction des systèmes d’information aujourd’hui. Très souvent, il y a imbrication des tâches automatisées, assurées par l’ordinateur, et des tâches manuelles confiées aux employés ; la définition des rôles respectifs de l’homme et de la machine est décrite par des procédures qui constituent la partie dynamique du système d’information et assurent la coordination entre les différents acteurs dans l’organisation. – Données : sous des formes variées (chiffres, texte, images, son. . .), ces ressources essentielles matérialisent l’information détenue par l’organisation. Ce sont soit des données traduisant des évéments nouveaux (par exemple saisie d’un ordre de réparation pour répondre à la demande d’un client qui vient d’arriver au garage), soit des informations découlant de traitements antérieurs et conservées pour être réutilisées (par exemple, la quantité en stock d’une pièce détachée, qui a été calculée par l’ordinateur à chaque mouvement de pièces). Ces données constituent la matière première des traitements ; elles concrétisent des connaissances de l’organisation et sont un véritable actif, indispensable à son fonctionnement (pensez à l’importance du fichier client pour la plupart des entreprises). On notera que, à côté de cette matière première des traitements, sont également stockées dans les mémoires des ordinateurs d’autres données que sont les programmes, c’est-à-dire les différents logiciels utilisés pour les différents traitements. Ces programmes conservent les connaissances opératoires de l’organisation ; ce sont des réservoirs de modèles pour agir (par exemple si le garage dispose d’un logiciel de gestion de stocks qui exécute un modèle de réapprovisionnement automatique pour certains types de pièces détachées). Il est important de noter que le système d’information ne découle pas de la simple juxtaposition de ces différentes ressources : il est le résultat d’un travail de construction qui a pour but de répondre au mieux aux objectifs assignés au système par ses utilisateurs futurs. (Ce point important sera repris au paragraphe 1.3 ci-après.) 1 2 Un système finalisé pour répondre à des objectifs Un système d’information est conçu, par nature, pour exécuter des fonctions élémentaires appliquées aux informations. Il s’agit : – de saisir des données, c’est-à-dire d’acquérir, sous une forme acceptable par les machines, les informations à traiter (par exemple, saisir les entrées en stock avec un lecteur d’étiquettes et des frappes au clavier) ; – de traiter des données, c’est-à-dire de transformer les données primaires en résultats par des opérations de transformation, de calcul, de sélection, de mise en forme.. . (par exemple à partir des éléments de l’ordre de réparation et d’un tarif, établir la facture de la réparation pour le client) ; – de stocker des données, c’est-à-dire de les conserver sous une forme exploitable et d’être capable de les retrouver rapidement et sans erreur (par exemple, pour chaque client du garage, on conserve un historique des interventions sur son véhicule. . .) ; – de communiquer des données, c’est-à-dire de les transmettre à d’autres utilisateurs (hommes ou machines) (par exemple, le magasinier peut transmettre, par EDI ou par messagerie électronique, une commande de pièces détachées à un fournisseur). Les technologies modernes de l’information offrent des possibilités considérables pour réaliser ces opérations de base dans des conditions remarquables de coût et d’efficacité. Pour l’utilisateur, les objectifs du système sont définis par rapport aux tâches à accomplir ; l’analyse d’un exemple comme celui d’un concessionnaire automobile, que nous appellerons ici Grands Garages du Sud, nous permet de distinguer différents objectifs : – automatisation de tâches de traitement de l’information : par exemple, calcul et impression de la facture, automatiquement, à partir des données de l’ordre de réparation complété par le chef d’atelier ; – aide à la décision par la fourniture d’informations adaptées (ces informations sont obtenues par traitement des données de l’activité quotidienne ; par exemple, édition d’un tableau de bord mensuel pour le patron du garage) ou par l’utilisation d’un modèle de décision (le magasinier dispose d’un tel modèle pour le réapprovisionnement de certains types de pièces) ; – communication à l’intérieur et à l’extérieur de l’organisation (utilisation de l’EDI pour les commandes fournisseur, échanges de messages par messagerie électronique. . .), diffusion d’informations à usage externe (par l’intermédiaire du site Internet par exemple). En définitive, le but de tout système d’information est d’apporter un soutien aux processus de travail dans l’organisation selon trois modalités principales (pouvant être combinées) : fournir de l’information, assister le travail humain, automatiser le travail. Les systèmes de travail qu’il assiste peuvent être individuels, mono-utilisateurs (celui du magasinier qui procède au réapprovisionnement par exemple) ou collectifs, pluri-utilisateurs (préparation, exécution et contrôle de la réparation, par exemple). L’usage du système d’information peut être obligatoire, recommandé ou discrétionnaire. . . mais, dans tous les cas, les caractéristiques du système d’information sont déterminées par ses finalités, c’est-à-dire par les objectifs de l’organisation auxquels il doit contribuer (ses objectifs peuvent être définis sous une forme hiérarchisée : par exemple, faciliter le travail du magasinier, accroître la sécurité de la tenue des stocks, améliorer la gestion du stock, améliorer le service au client, augmenter la compétitivité du garage face à la concurrence.. .). C’est pourquoi, comme nous le montrerons par la suite, la définition des objectifs et des contraintes du système, ce qui constitue son cahier des charges, est une opération déterminante pour son succès futur. 1 3 Un système d’information peut être défini a` plusieurs niveaux La notion de système d’information est relative à la notion d’utilisateur et il importe toujours de bien préciser quelle est l’entité de référence. Le tableau ci-dessous présente différentes catégories de systèmes d’information, en fonction de l’entité de référence, donc en fait en fonction du nombre d’utilisateurs qui partagent l’usage de l’ensemble des ressources constitutives du système. Attention ! Cette distinction, commode sur le plan pédagogique, ne signifie pas qu’il y a séparation étanche, en pratique, entre les niveaux. Un micro-ordinateur connecté sur un réseau peut, selon les moments où il est utilisé, être une ressource d’un système d’information individuel (gestion de données locales) ou collectif (traitement de dossiers partagés avec d’autres personnes), ou interorganisationnel (échange avec des individus appartenant à d’autres organisations (téléconférence, par exemple). Bien au contraire, l’évolution actuelle tend à renforcer l’interconnectivité entre les systèmes de différents niveaux . 14 Conclusion Cette rapide analyse préalable de la définition du concept de SI montre que plusieurs perspectives sont à prendre en compte pour comprendre ce qu’est réellement un système d’information. Tout d’abord, vision sans doute la plus immédiate, un système d’information est quelque chose qui manipule et produit de l’information (un tableau de bord, un ordre de réparation. . .), ensuite, c’est quelque chose qui utilise des technologies de l’information (des ordinateurs, des réseaux, des logiciels. . .), et enfin, c’est quelque chose qui est imbriqué dans le fonctionnement et la structure d’une organisation (liens étroits entre les processus de travail et le système d’information). C’est pourquoi, pour mieux cerner le contenu de la notion de système d’information, nous devons le considérer comme un objet multidimensionnel, susceptible d’être caractérisé selon trois dimensions principales : – une dimension INFORMATIONNELLE ; – une dimension TECHNOLOGIQUE ; – une dimension ORGANISATIONNELLE. Ces trois dimensions feront l’objet, respectivement, des trois sections suivantes. 2 La dimension informationnelle La vocation première du système d’information est de fournir de l’information à ses utilisateurs. Cette information, pour être utilisable par l’être humain, doit être matérialisée sous forme de signaux accessibles à nos sens (la vue et l’ouïe, principalement). Cela conduit à construire des représentations, des « images » qui vont être utilisées par les acteurs dans leur processus de travail. Bien entendu, la qualité de ces représentations est susceptible d’influer de manière importante sur le comportement de leur utilisateur ; c’est pourquoi, après avoir défini la notion de représentation, nous préciserons ce qu’il faut entendre par pertinence d’une représentation. 2 1 La notion de représentation Dans nos activités professionnelles de gestionnaire, nous devons fréquemment résoudre des problèmes sans avoir une perception directe du monde réel sur lequel nous tentons d’agir ; nous travaillons en utilisant de l’information qui a été recueillie par d’autres puis matérialisée sur un support (papier, écran) qui la rend accessible à nos sens. Exemple Le comptable enregistre les opérations effectuées à partir de pièces comptables et non à partir d’une observation directe de ces opérations ; il prépare la paie sans avoir observé directement le travail des ouvriers, à partir de relevés de temps établis par le chef d’atelier. . . Ces supports sur lesquels apparaissent des signes, des signaux. . . sont des représentations du monde réel. Dans son acception la plus simple, une représentation est une image du monde réel : cette image est composée de signaux pouvant être perçus par nos sens. Exemples Une photographie, un dessin ou une peinture constituent une représentation d’une personne ; l’enregistrement sur support magnétique qui la décrit dans le fichier « personnel » de l’entreprise en constitue une autre ; le curriculum vitae présenté sur deux pages dactylographiées est également une représentation. Un bilan et un compte de résultat sont une représentation possible de l’entreprise ; une photographie aérienne de ses installations est une autre représentation de cette même entreprise ; de même, les pages de son site informatif sur Internet (avec une petite séquence vidéo) constituent une autre représentation. Ces exemples nous permettent de mettre en évidence les caractéristiques essentielles de la notion de représentation : – Une représentation est une « représentation de quelque chose » : ce qui est représenté est une entité distincte de la représentation. Selon les cas, ce qui est représenté peut être une personne (client, fournisseur. . .), un objet (une pièce en stock, un véhicule à la vente.. .), un événement (la demande de réparation de véhicule formulée par un client. . .), un concept abstrait (par exemple, le marché automobile représenté par une statistique des parts de marché sur plusieurs mois.. .). Représenter signifie d’ailleurs, à l’origine, rendre présent, rendre sensible (ce qui rend la représentation obligatoire pour toutes les abstractions que nous utilisons). Il est essentiel de bien distinguer le monde à représenter (que l’on désigne aussi par le monde « réel ») et la représentation qui en est fournie : la photographie n’est pas la personne, le bilan n’est pas l’entreprise, la carte n’est pas le territoire. – Une représentation est une « représentation pour quelque chose » : les représentations ne sont pas des « copies dormantes » du réel, elles sont créées dans une intention d’utilisation. Plus généralement, la représentation assure différentes fonctions : – fonction de conservation de l’information à laquelle on n’aura plus directement accès (on prend une photographie pour se souvenir du paysage que l’on vient de voir) ; – fonction de communication qui permet l’échange d’informations entre individus par l’échange de représentations (l’ordre de réparation permet la communication entre chef d’atelier et mécanicien, le message de commande EDI assure la communication entre le garage et son fournisseur de pièces détachées.. .) ; – fonction de concrétisation en rendant accessibles des modèles, des concepts.. . non directement perçus par nos sens (la représentation par une carte géographique rend accessible à notre vue un territoire bien trop vaste pour être perçu directement, le bilan rend possible une perception du patrimoine de l’entreprise. . .). On notera que, pour que cette concrétisation aboutisse à une communication efficace, il est indispensable que les différents individus partagent des connaissances communes quant aux modèles, aux concepts et aux procédés utilisés pour la représentation. Remarque Il ne faut pas confondre la notion de représentation telle que nous venons de la définir avec la notion de « représentation mentale » utilisée en psychologie : la « représentation mentale » désigne une structure mentale construite par le sujet sur la base d’opérations cognitives appliquées à un discours ou à une situation ; elle caractérise les connaissances d’un sujet à un moment donné. C’est l’« idée » que l’on se fait d’une personne, d’une situation, d’un problème. Elle se traduit par des expressions du genre : « Voici la représentation de la situation telle que je la vois ». . . Bien évidemment, cette représentation mentale d’un contexte, d’un problème.. . est, au moins partiellement, déterminée par les représentations (selon le sens défini ci-dessus) auxquelles le sujet a eu accès auparavant. Dans les organisations où règne la division du travail, les activités de construction des représentations (la création de données) et celles utilisant l’information résultante sont, dans la plupart des cas, séparées. C’est pourquoi il est important de distinguer les problèmes relatifs à la création de données de ceux tenant à l’utilisation des informations véhiculées par les représentations. 2 1 1 La construction des représentations La représentation est construite par des individus au cours d’un processus de construction. Selon les cas, ce processus est plus ou moins complexe (prendre la photographie de l’usine peut être très simple ; élaborer, comme le montre la figure 3, la situation comptable d’une entreprise suppose la tenue d’une comptabilité et un savoir-faire spécifique). De manière schématique, volontairement simplifiée, le problème consiste à passer du réel à représenter (x) à la représentation (y) vue comme un ensemble de signaux perceptibles. 1. Du réel au symbole : la création de données Dans le fonctionnement des entreprises, la source principale d’informations est constituée par des données (numériques ou alphabétiques) décrivant des objets ou des événements dignes d’intérêt. Ces symboles (des chiffres, des lettres, parfois des dessins, des photographies.. .) représentent une information potentielle. La question essentielle est ici celle de la correspondance entre ce que l’on veut décrire (l’objet ou l’événement du monde réel) et les symboles utilisés pour le décrire (la représentation obtenue) ; il existe en effet des risques de biais pouvant compromettre gravement l’utilisation ultérieure de ces données. Ce passage de l’observation à la donnée peut s’opérer selon différentes modalités. a) Dénomination : l’objet ou l’événement du monde réel se voit attribuer un nom et des propriétés permettant de reconnaître son existence et son appartenance éventuelle à une ou plusieurs classes. Toute erreur ou tout oubli lors de cette opération a des conséquences difficilement repérables par la suite (l’objet n’existe pas pour l’organisation !). Exemple L’arrivée d’un nouveau salarié dans l’entreprise entraîne l’enregistrement de son état civil, l’attribution d’un niveau de rémunération.. . Si, dans cette opération, on « oublie » de noter que l’intéressé a droit à une indemnité de transport (il appartient à la classe de ceux qui peuvent y prétendre) parce que l’on a noté 0 au lieu de 1 dans l’imprimé de saisie, la représentation obtenue est imparfaite et son utilisation conduira à des erreurs. b) Classement, mesure ordinale : cette opération permet de comparer le rang de plusieurs objets dans un groupe sans que l’étendue de la différence soit mesurée. Exemple Classement d’employés selon leur compétence observée ; mesure de la satisfaction des passagers d’une compagnie de transport par un questionnaire à questions fermées (du type très bon, bon, moyen, médiocre, mauvais). La validité de la donnée dépend très directement de la façon dont sont définis les échelles, les intervalles et du mode d’administration du questionnaire. 2. La dimension informationnelle 11 c) Mesure cardinale, valeurs : c’est le cas le plus fréquent dans les systèmes de gestion où les représentations numériques sont utilisées. Toutes les opérations arithmétiques peuvent alors être effectuées sur les données. Même dans ce cas, a priori le plus favorable, les risques de distorsion ne sont pas nuls (problèmes posés par le choix d’unité, les conditions de mesure.. .). Exemples On souhaite présenter un tableau décrivant l’évolution des ventes d’un produit dans différentes régions pendant deux mois consécutifs. Pour la région A, la variation est de 50 unités (50 unités en janvier, 100 unités en février) ; pour la région B, la variation est de 500 unités (5 000 unités en janvier, 5 500 unités en février). On peut présenter le tableau des variations en utilisant une donnée en valeur absolue (50 pour A et 500 pour B) ou en valeur relative (100 % pour A et 10% pour B). Fournit-on la «même information » au futur lecteur du tableau ? – Sur un document comptable concernant un client, on lit : montant de notre créance : 25 652 E; provision requise : 10 000 E. La première donnée est relative à un constat, non contestable ; la seconde est une évaluation du risque lié au règlement de la créance. Bien que ces nombres soient combinés ensemble, leur validité n’est sans doute pas de même niveau. Remarques importantes 1 – Dans la pratique quotidienne des entreprises, on utilise des représentations codifiées pour les différents événements et objets à représenter : un client sera représenté par un certain nombre de données qui caractérisent chaque enregistrement du fichier client, la réparation à effectuer sur un véhicule sera traduite par un ordre de réparation indiquant la liste des opérations à exécuter, le règlement à demander au client sera explicité en une facture. . . Les documents, messages, fichiers, bases de données.. . sont des ensembles de représentations prédéfinies utilisées de manière répétitive dans les procédures de l’organisation ; leur constitution obéit à des règles strictes et stables (contenu et présentation). 2 – Toute représentation est construite par des individus Dans la plupart des cas, le passage de l’entité représentée à la représentation implique une perte (plus ou moins volontaire) d’information. Il est nécessaire de choisir les caractéristiques de l’entité à représenter qui seront traduites en données (sélection) et, parfois, de définir les valeurs correspondantes (interprétation). Ainsi le photographe, peintre, le caricaturiste interprètent-ils, à des degrés divers, la personnalité de la personne à représenter ; de même, le comptable, dans le respect des règles légales, peut donner une représentation plus ou moins prudente de la situation de l’entreprise ; l’expert qui rédige un rapport sur la situation du marché peut, en choisissant les termes utilisés et en mettant en évidence certains éléments plutôt que d’autres, aboutir à des conclusions plus ou moins optimistes quant aux possibilités de développement des ventes de l’entreprise. Ces différents exemples montrent que les risques de distorsion existent dans le processus de construction. 2. Les risques de distorsion : bruit et biais La construction des représentations suppose que soit définie une correspondance entre les éléments à représenter (le monde réel) et les signaux constitutifs de la représentation utilisée. La notion de fonction d’information permet de mieux comprendre certains problèmes liés au processus de production des représentations. D’une manière schématique, la fonction d’information exprime la relation entre les états du réel à représenter (x) et les signaux qui le représentent. Elle peut donc être décrite sous forme d’un tableau, où un 1 à l’intersection d’une ligne et d’une colonne signifie : « Si l’état du monde xi est réalisé, alors le signal yj est perçu. » Remarques : 1 – La matrice représentant la fonction d’information n’est pas obligatoirement carrée ; les nombres de lignes et de colonnes peuvent être différents. 2 – Un état du monde réel peut être ignoré ; cela se traduit par l’inexistence de la valeur 1 sur certaines lignes : aucun signal n’est perçu (cet état n’est pas distingué des autres). 3 – Un état du monde peut être distingué par la présence simultanée de plusieurs signaux, d’où la présence possible de plusieurs 1 sur la même ligne. Une telle représentation de la fonction d’information correspond à une fonction déterministe, à une fonction sans bruit : la relation entre l’état du monde à représenter et le signal est stable et non ambiguë (le signal apparaît ou n’apparaît pas). Assez souvent, la fonction d’information peut comporter du bruit ; ce bruit traduit des influences variées sur la production des signaux qui ne représentent plus alors seulement l’état du monde qu’ils sont censés traduire mais également d’autres phénomènes. La représentation de la fonction d’information peut alors être modifiée et correspondre à la forme générale suivante : Exemple Un exemple concret de fonction d’information d’une automobile ; on suppose que le moteur est caractérisé par deux états distincts : x1 température normale de fonctionnement, x2 température anormalement élevée. Le tableau de bord de cette automobile est équipé d’une lampe témoin qui reste éteinte quand le moteur est à l’état x1 (lampe éteinte est le signal y1) ; cette lampe s’allume lorsque la température moteur devient anormale (signal y2). La fonction d’information est donc la suivante : Cette fonction est sans bruit. On peut supposer maintenant que, en raison d’anomalies techniques (lampe défectueuse, mauvais contacts. . .), on ne peut exclure le fait que la lampe reste éteinte alors que le moteur est anormalement chaud ou, inversement, que la lampe s’allume alors que le moteur est dans son état normal. Une fonction d’information aurait alors la forme suivante : Cela signifierait que, lorsque le signal y1 est reçu (lampe éteinte), la probabilité que le moteur soit dans son état normal est de 0,95 mais qu’il existe une probabilité de 0,05 que le moteur soit anormalement chaud. De même, lorsque la lampe s’allume (signal y2), il existe une probabilité de 0,10 que le moteur soit dans son état normal. L’exemple ci-dessus correspond à une représentation extrêmement simple. Il met cependant en évidence les risques importants liés à l’introduction de bruit dans la représentation et donc l’intérêt pratique considérable de la qualité dans la saisie des données. Ces risques sont dus soit aux erreurs humaines (involontaires), soit aux limites d’appareils de mesure utilisés, soit à la volonté de certains acteurs de produire des représentations biaisées, soit à des erreurs lors du traitement (sélection, calcul, communication.. .) de représentations existantes pour établir d’autres représentations. Exemples – Le magasinier transcrit un code pièce erroné lors de la commande au fournisseur. Lors du montage de cette pièce pour la réparation du véhicule, on s’aperçoit que la pièce ne correspond pas au modèle sur lequel elle doit être montée.. . d’où retard et coût supplémentaire. – Lors de la prise d’un cliché radiographique d’un malade, l’appareil utilisé ne fournit pas des clichés d’une définition suffisamment fine pour permettre un diagnostic précis. – Lors du contrôle du véhicule, le mécanicien a coché sur sa fiche comme satisfaisante (à tort) la tension de la courroie de ventilateur parce qu’il estimait ne pas avoir le temps de procéder au réglage avant l’arrivée prévue du client. . . Le chef d’atelier a donc remis le véhicule (mal réparé) au client qui a dû revenir quelques jours plus tard au garage ! – Lors de l’établissement de l’échéancier (nouvelle représentation), le comptable a omis l’enregistrement d’une facture (représentation existante) adressée par un fournisseur ; cela a eu pour conséquence la production d’un état erroné et des difficultés ultérieures avec le banquier de ce fournisseur. Il est fondamental de bien comprendre que nous décidons, travaillons, jugeons.. . dans la plupart des cas, sur la base de représentations établies par d’autres personnes et non sur une perception directe, exhaustive et sans déformation du monde réel. La présence de biais ou de bruit peut avoir des conséquences considérables lors de l’utilisation des représentations non pertinentes. 2 2 1 L’utilisation des représentations Dans de nombreuses situations de notre vie quotidienne, nous décidons d’agir à partir de la perception directe, par nos sens, d’un signal jugé significatif. (Par exemple, en situation de conduite automobile, décision de s’arrêter quand le feu passe au rouge.) Dans la mesure où la perception du signal, son interprétation, son utilisation sont réalisées quasi simultanément par le même individu, la distinction entre « donnée », « information », « connaissance » n’a que peu d’intérêt pratique. En revanche, dans les organisations où les activités de construction et d’utilisation des représentations sont très souvent séparées, il est nécessaire de comprendre comment nous utilisons les représentations pour améliorer nos connaissances, pour agir ; autrement dit, comprendre comment nous passons des données (des symboles) aux significations, à la connaissance et quelles sont les conséquences attachées à ces processus d’interprétation. 1. Du symbole à la connaissance : processus cognitif Passer du monde des symboles à celui du sens, des significations, donc des données à l’information n’est pas automatique mais se réalise par l’intermédiaire de processus spécifiques d’interprétation, de cognition. Nous considérons ici que l’information est ce qui modifie notre vision du monde, qui réduit notre incertitude vis-à-vis d’un phénomène. L’information « crée une différence » : c’est un renseignement au sens courant du terme. Exemples – L’annonce d’une baisse du taux d’intérêt directeur de la Banque centrale européenne constitue, pour un gestionnaire de portefeuilles, une information dans la mesure où il va réviser à la hausse la probabilité de voir monter le cours des actions à la Bourse de Paris. – L’arrivée, sur le bureau du responsable des achats, d’un tableau des commandes à livrer aux clients dans les trois mois à venir va le conduire à effectuer la réservation d’une certaine quantité d’un composant essentiel auprès de son fournisseur habituel. Ces deux exemples montrent : – tout d’abord que l’idée d’information est liée à l’action (immédiate ou différée) ; le contenu informationnel des données est lié à l’utilisation (des données pour « faire quelque chose »). Par exemple, dans le cas (ci-dessus) du responsable des achats, alors que le tableau des commandes à livrer peut contenir d’autres renseignements importants, seule la quantité de composant essentiel devant être disponible à une certaine date constitue pour lui l’« information ». On notera que l’obtention de cette information a pu conduire l’utilisateur à sélectionner des données, à effectuer des calculs, donc des opérations de traitement de données ; – ensuite, que le passage des données à l’information n’est possible que grâce à un modèle interprétatif propre au récepteur. C’est l’existence d’un modèle (une connaissance préalable) qui permet d’extraire l’information contenue dans les données, de les interpréter. Pour les spécialistes de la psychologie cognitive, les processus cognitifs peuvent être définis à plusieurs niveaux (Rowe et Ziti, 2002) : – 1 un niveau infrasémantique, qui correspond à l’analyse du signal physique et à son codage sensoriel (par exemple, distinguer les caractères du fond de la feuille) ; – 2 un niveau sémantique correspondant à l’identification des objets physiques ou symboliques (les mots, les images.. .) ; – 3 un niveau sémantique de traitement des significations et de l’élaboration des décisions d’actions : c’est le niveau de l’interprétation, où il y a intégration des significations, compte tenu des savoirs ou savoir-faire du sujet. Exemples – Si l’on considère un traité de finance en langue anglaise, l’ensemble de données que constitue l’ouvrage peut être perçu comme un ensemble de symboles sans aucun sens pour quelqu’un qui ignore tout de la langue anglaise ; tout au plus peut-il reconnaître l’existence de caractères imprimés. Pour un lecteur de langue anglaise, ignorant la finance, cet ensemble de symboles permet de reconnaître des mots auxquels il peut éventuellement attribuer un sens limité. Un lecteur de langue anglaise possédant des connaissances en finance peut interpréter complètement le contenu de l’ouvrage et lui attribuer les significations voulues par l’auteur. – Comprendre le sens de l’annonce de la baisse du taux directeur de la Banque centrale européenne suppose que le gestionnaire de portefeuilles maîtrise un modèle économique liant les variations du taux d’intérêt et celles du cours des actions. – Un bilan se présente comme un tableau de mots et de nombres ; il apporte de l’information à celui qui connaît les concepts essentiels de la comptabilité (le modèle comptable). – Un cliché radiographique (image aux rayons X) est interprétable par un médecin qui possède les connaissances de référence (modèles anatomiques, modèles de maladie.. .). Les données (mots, nombres, images, sons, etc.) constituent donc la matière première de l’information ; elles deviennent de l’information par un processus d’interprétation qui leur attribue de la signification, du sens. On comprend facilement que ce qui constitue une information pour l’un ne constitue pas obligatoirement une information pour l’autre, et que le passage des données à l’information est lié à la connaissance maîtrisée par les individus. Nous appellerons connaissance : une croyance, une conviction personnelle justifiée qui accroît le potentiel d’une entité pour l’action. (L’entité est, dans la plupart des cas, un individu mais ce peut être un groupe d’individus, une organisation.) La connaissance apparaît donc comme de l’information qui a été traitée dans le cerveau d’individus par un processus d’interprétation, de mémorisation, d’apprentissage ; c’est un « stock » d’informations maîtrisées par une entité. Un élément de connaissance est une information interprétée au moyen d’un modèle cognitif. Cette connaissance est relative à des faits (les expériences qu’a connues le sujet, son histoire. . .) et à des schémas interprétatifs. Selon Harris (1994), la connaissance est constituée, pour l’essentiel, d’un ensemble de schémas. « Le schéma est une structure cognitive dynamique concernant des concepts, des objets et des événements [. . .] utilisée par l’individu pour recadrer et interpréter les données de manière efficiente. Les schémas guident la recherche pour l’acquisition de l’information, son traitement, et orientent le comportement en réponse à cette information ; ils fournissent un système de connaissances prêtes à l’emploi. » Notre connaissance est composée de « programmes » ou schèmes, de séquences d’action que l’on sait exécuter et de « principes d’utilisation », de « modèles ». . ., indiquant quand et comment utiliser ces programmes. Il y a lieu de distinguer deux formes de connaissance : – la connaissance formalisée ou explicite, qui peut se transmettre par le biais d’un discours, s’apprendre « dans les livres » (par exemple, apprendre les fondements de la comptabilité, apprendre à calculer une moyenne ou un écart-type, savoir décomposer un produit en ses composants.. .) ; – la connaissance tacite, qui ne se communique pas par le biais du discours mais qui va s’acquérir par la pratique (par exemple, savoir nager ou rouler à bicyclette). Bien entendu, ces deux formes de connaissance ne sont pas mutuellement exclusives et existent simultanément dans les schémas d’action. Nous reprendrons cet aspect important, de manière plus détaillée, dans le chapitre 5 consacré à la gestion des connaissances. La figure 6, page suivante, résume les principales relations entre données, information et connaissances 2. Des conséquences importantes La distinction entre données, information et connaissances et la reconnaissance de l’existence de processus cognitifs a des conséquences importantes sur plusieurs plans. – Caractère relatif de la notion d’information : ce qui est information pour l’un n’est pas obligatoirement information pour l’autre ; tout dépend du stock de connaissances maîtrisées par chacun. Les différents exemples cités ci-dessus le montrent. Il faut cependant noter que, dans beaucoup de cas, l’existence de connaissances communes partagées par plusieurs individus permet d’attribuer à un ensemble de données la même signification : l’information ainsi partagée a un caractère relativement général. Ainsi, l’annonce d’une hausse du prix du baril de pétrole de 90 à 100 $ est comprise par tous les automobilistes comme devant entraîner rapidement une hausse du prix du carburant payé à la pompe. Inversement, en raison des différences de connaissances, les mêmes ensembles de données, les mêmes représentations peuvent conduire à des interprétations différentes. Par exemple, les résultats annuels publiés par une société cotée ne seront sans doute pas interprétés de la même manière par un analyste financier bien informé et par un actionnaire peu au fait de l’activité réelle de l’entreprise. – La manière d’utiliser les représentations varie selon les individus : selon Rowe et Ziti (2002), on caractérise les différences de comportement des individus au cours du processus cognitif par la notion de style cognitif. C’est une dimension qui permet de distinguer la façon dont les individus appréhendent, organisent et traitent l’information. Par exemple, on distinguera des managers préceptifs ou réceptifs (selon qu’ils collectent les informations selon un modèle préconçu ou non), des « réflexifs » ou des « impulsifs » (ces derniers souvent tentés de suivre une idée en négligeant des éléments d’information. . .), des « systématiques » ou des « intuitifs ». . . Il existe une quarantaine de styles classés en plusieurs catégories. Une des dimensions les plus importantes est la notion d’indépendance à l’égard du champ qui « permet de distinguer les individus selon leur capacité à percevoir un élément séparé de son contexte et à adopter une attitude analytique dans la résolution des problèmes » (Rowe et Ziti, p. 39). Dans beaucoup de situations de résolution de problèmes, l’adoption d’une attitude analytique (indépendance à l’égard du champ) se révèle avantageuse. L’existence de différents styles cognitifs montre l’intérêt que l’on peut avoir à trouver des formes de représentation bien adaptées aux caractéristiques de l’utilisateur ; l’aide apportée par les systèmes d’information doit correspondre au style du manager : il n’y a pas de solution optimale universelle. – Aspect récursif de la définition des données : malgré son nom, la « donnée » n’est pas donnée de manière automatique, spontanée.. . elle découle d’un processus de choix, de construction. Si nous retenons, pour décrire une entité, certaines caractéristiques, c’est que nous savons qu’il existe des utilisateurs de données capables de leur attribuer du sens, c’est-à-dire disposant de connaissances permettant de les interpréter. Exemples – Le médecin demande la mesure d’un certain nombre de paramètres : température, tension artérielle, taux de cholestérol. . . qu’il peut utiliser dans son modèle de diagnostic (processus d’interprétation). – Le banquier va demander à l’entreprise sollicitant un crédit un certain nombre de données relatives à ses résultats, son patrimoine, l’état de ses dettes. . . pour formuler un jugement sur son aptitude à rembourser le crédit demandé : ces données sont des variables de son modèle de définition de la solvabilité. Dans une certaine mesure, ce sont les connaissances des futurs utilisateurs qui déterminent le choix des données. Dans notre vie quotidienne, nous sommes soumis à de multiples stimuli : automatiquement, pour éviter la surcharge cognitive, nous éliminons tous ceux qui ne semblent pas utiles pour notre survie. (Ainsi pouvons-nous avoir franchi des dizaines de fois la porte d’entrée de l’université sans avoir mémorisé la couleur de la grille qui la protège.. .) Dans les organisations, la saisie des données est définie en fonction de leur utilisation future ; la donnée n’existe que si elle est destinée à s’intégrer dans un traitement apportant de l’information à, au moins, un utilisateur. Par exemple, dans un garage, il est demandé aux mécaniciens de noter l’heure de fin de la réparation ; cette donnée sera utilisée pour calculer la durée de la réparation et permettra au chef d’atelier de vérifier si les barèmes de temps standard appliqués sont adaptés ou non. – Le processus d’interprétation est soumis à des risques de biais : il est assez commun d’observer des interprétations différentes des mêmes ensembles de données. Ces différences peuvent s’expliquer, comme nous l’avons indiqué ci-dessus, par des différences de niveau de connaissances ou des différences de style cognitif. Elles peuvent s’expliquer également par des dysfonctionnements dans le déroulement du processus cognitif, par l’existence de biais de différentes natures : . tendance de l’utilisateur à retenir les informations confortant un modèle connu au détriment de celles révélant un changement. En particulier, on observe assez souvent que le décideur se fait une première idée sur la solution à partir de quelques données et qu’il sélectionne, de manière peu consciente, les données qui confortent ce premier jugement en négligeant celles qui pourraient éventuellement le contester ; . tendance à privilégier les informations quantitatives au détriment des informations qualitatives ou les premières informations fournies par rapport aux suivantes ; . tendance à privilégier l’information concrète issue d’un cas au détriment d’une information d’ordre statistique, calculée sur un échantillon plus large, mais plus abstraite ; . tendance à attribuer à certains événements une probabilité plus élevée parce qu’ils sont souhaités. Ces quelques remarques suffisent à montrer que l’être humain a des limites dans ses capacités à utiliser l’information pour résoudre un problème. La nature des processus de traitement, les risques liés à une mauvaise utilisation des données doivent être pris en compte lorsqu’on est amené à juger de la pertinence des représentations. 2 2 Des représentations pertinentes Après avoir défini la notion de pertinence, nous en décrirons les principaux déterminants puis nous montrerons que les notions de coût et de valeur de l’information doivent être prises en compte dans la recherche de la pertinence des représentations 2 12 La notion de représentation pertinente 1. Approche de définition La notion de pertinence est directement liée à l’utilisation de l’information : est pertinent ce qui « convient », ce qui « est approprié à une action ». Une représentation sera pertinente si elle répond aux desseins de son utilisateur, si elle le satisfait. La pertinence est donc une qualité relative à un utilisateur et à un contexte d’utilisation. Si on applique la notion de pertinence au contexte de la prise de décision, on peut dire : – est pertinente l’information qui permet de prendre la « bonne » décision (cela suppose que l’on soit capable de définir ce que l’on entend par « bonne » décision, optimale ou satisfaisante) ; – est pertinente la représentation qui permet un « bon » déroulement du processus de décision dans ses différentes phases ; intelligence du problème, modélisation, choix et évaluation. Ces deux remarques permettent de repérer les déterminants majeurs de la pertinence des représentations : – leur caractère exhaustif ou non ; – l’absence de bruit ; – le degré de finesse. 2. Exhaustivité des représentations Tout utilisateur aimerait disposer d’une information complète, c’est-à-dire de représentations traduisant tous les événements ou tous les changements d’états significatifs dans le domaine auquel il s’intéresse. Cela permettrait une meilleure identification des problèmes, une modélisation plus précise et un processus de choix prenant en compte l’ensemble des alternatives utilisables. En pratique, l’exhaustivité des représentations est rarement atteinte et beaucoup de représentations utilisées dans les systèmes de gestion sont soumises au risque dit de « première espèce », où certains événements importants ne sont pas retenus par la fonction d’information. Exemples – Dans un atelier de fabrication, les appareils de contrôle utilisés ne permettent pas de repérer, dans tous les cas, des « micro-fissures » dans les structures métalliques. Certaines pièces, mauvaises, sont acceptées comme bonnes en raison des limites de l’appareillage de mesure. – Dans un rapport sur les ventes du mois écoulé, le directeur commercial d’une entreprise n’a pas signalé le fait que deux clients importants n’avaient pas renouvelé leurs commandes. Il s’agit sans doute d’un événement significatif qui n’a pas été pris en compte ; il aurait sans doute entraîné une vision différente de la situation par le directeur général de l’entreprise. On notera que le caractère « exhaustif » de la représentation ne peut être défini que de manière relative pour un utilisateur et un modèle de décision donné (qu’entend-il par « événement significatif » ?). 3. Absence de bruit La notion de bruit a été définie dans le paragraphe précédent. Beaucoup de représentations utilisables dans les systèmes de gestion sont soumises au risque de « deuxième espèce » qui ferait considérer comme événements significatifs des variations aléatoires dues aux imperfections de la fonction d’information. Exemples – En reprenant l’exemple de l’atelier de fabrication cité ci-dessus, un mauvais fonctionnement de l’appareil de contrôle peut entraîner le rejet, à tort, de pièces considérées comme impropres alors qu’elles sont bonnes. – La comparaison des résultats de deux exercices d’une entreprise peut être faussée s’il y a eu un changement de méthodes comptables dans l’intervalle. Le changement apparent ne découle pas d’un changement de la situation réelle mais est lié à la fonction d’information. (C’est pourquoi ces changements doivent être obligatoirement signalés.) 4. Précision, degré de finesse La représentation utilisée peut être plus ou moins précise, plus ou moins fine. Ce degré de finesse correspond au niveau de détail, à l’intervalle de variation. . . inclus dans la représentation. Exemples – Une carte géographique constitue une représentation du terrain. Une carte routière au 1/500 000e ne représentera pas les mêmes détails qu’une carte au 1/25 000e utilisée, par exemple, pour préparer une randonnée pédestre. – Un directeur commercial présente, aux fins d’analyse, une statistique décrivant la répartition des clients par chiffre d’affaires. Il peut hésiter entre les deux représentations suivantes. Présentation no 1 Présentation no 2 La présentation no 2 sera dite plus fine que la présentation no 1. Sur le plan strict de l’informativité (connaissance apportée par la représentation), une représentation plus fine est au moins aussi informative qu’une représentation moins fine du même phénomène. Elle ne l’est pas obligatoirement plus ; la pertinence ne s’accroît pas obligatoirement avec le degré de finesse de la représentation (voir ci-après la remarque concernant la valeur de l’information). Remarque Si nous reprenons le cas (ci-dessus) des statistiques relatives au chiffre d’affaires et que le problème à résoudre soit d’attribuer une remise annuelle aux clients selon le chiffre d’affaires réalisé, en distinguant les « petits » clients, les clients moyens et les « gros » clients, la série no 1 peut se révéler suffisamment informative, donc aussi pertinente que la série no 2, tout en étant moins fine. La finesse de la représentation traduit le « pouvoir séparateur » de la fonction d’information, son aptitude à considérer comme distincts deux événements ou deux états faiblement différents. Cette aptitude est fondamentale dans certains domaines (sciences physiques, astronomie, médecine.. .) où les progrès de la modélisation sont souvent dépendants du degré de précision de la mesure. En matière de gestion, cet impératif est souvent moins strict et les problèmes découlant d’un excès de finesse sont aussi à considérer. 2 2 2 Les autres déterminants de la pertinence Exhaustivité, absence de bruit, finesse adaptée sont des déterminants majeurs de la pertinence des représentations. Cependant, la satisfaction de l’utilisateur est également liée à d’autres caractéristiques des représentations, en particulier : – leur respect des contraintes de temps ; – leur fiabilité ; – leur forme ; – leur accessibilité. 1. Respect des contraintes de temps Le processus d’utilisation de l’information est un processus dynamique, qui s’inscrit dans des contraintes de temps ; il concerne généralement des phénomènes évolutifs. Ces deux raisons imposent des contraintes particulières aux représentations, tant pour leur utilisation que pour leur production. Tout d’abord, pour être utilisée, une représentation (des données) doit être disponible dans un intervalle de temps limité. Un instant, celui du choix dans le processus de décision, borne cet intervalle utile ; au-delà de cet instant, l’information additionnelle n’a plus d’intérêt puisque la décision est prise (respect de la ponctualité ). Exemples – Une information permettant d’améliorer mon pronostic sur l’ordre d’arrivée du tiercé est intéressante à la condition d’être disponible avant l’heure limite de dépôt des paris. Au-delà de cette heure limite, la question de la pertinence ne se pose plus ; l’information n’est plus utilisable. – Une entreprise doit répondre à un appel d’offres avant le 15 mai. Toute information permettant d’améliorer sa proposition lui parvenant au-delà de cette date ne présente aucun intérêt. Ensuite (et cette dernière question est indépendante de la précédente), lorsque les données décrivent des situations évolutives, la qualité de la représentation obtenue est fonction de son délai d’obtention. Le caractère d’actualité de la représentation est un facteur essentiel de sa pertinence. Exemples – Lors du lancement d’un nouveau produit, il peut être important de prendre des décisions rapides concernant le prix de vente, la politique de communication.. . Ces décisions utilisent des données représentant l’évolution des ventes par points de vente. Si ces données sont connues avec plusieurs semaines de retard, on peut avoir une image totalement faussée de l’évolution des ventes et prendre des décisions non appropriées. – Si la situation comptable d’un client est connue avec beaucoup de retard, il est possible que le service commercial continue à accepter ses commandes alors que la dégradation de sa situation financière imposerait de ne plus lui faire crédit. Cette qualité d’actualité découle directement de deux éléments : – le délai de production de la représentation : combien de temps faut-il pour saisir des données, les mettre en forme, les communiquer ? – la fréquence d’observation du phénomène évolutif ; l’information est-elle cueillie et traitée à des intervalles plus ou moins rapprochés ? Exemples – Si le comptable exige dix jours pour présenter une situation, on ne pourra pas disposer le jour j d’une représentation décrivant la « réalité de l’entreprise » postérieurement à j – 10. – Si l’on surveille l’évolution des ventes d’un produit, doit-on procéder à un relevé quotidien, hebdomadaire, mensuel.. ., des ventes de chaque point de vente ? La pertinence diminue généralement avec l’âge de l’information ; d’où l’intérêt de réduire le délai d’obtention. L’augmentation de la fréquence d’observation peut être souhaitable pour la même raison. La fréquence d’observation est évidemment déterminée par la vitesse d’évolution du phénomène que l’on souhaite gérer. Exemples – Pour guider une fusée, il est indispensable de disposer des données représentant sa trajectoire avec un très faible délai et une très grande fréquence. Sinon, compte tenu de sa vitesse d’évolution, elle pourrait facilement échapper à toute possibilité de contrôle. – La surveillance de l’évolution des parts de marché sur un produit peut sans doute s’accommoder d’une observation mensuelle. Une observation quotidienne, soumise à de nombreux aléas, donnerait peut-être d’ailleurs une image moins pertinente. Fréquence et délai ne sont pas indépendants ; en particulier on n’accroît pas l’actualité de la représentation en accroissant la fréquence d’observation sans tenir compte du délai de production de l’information. – Remarque S’il faut dix jours pour dresser une situation comptable, le fait d’en demander une production hebdomadaire ne fera qu’accroître le décalage entre l’instant d’observation et l’instant où la représentation sera disponible pour son utilisateur. 2. Fiabilité La mesure des risques de première et de deuxième espèces est un aspect important de la fiabilité de la représentation, du degré de confiance que l’on peut lui accorder. Elle traduit l’« exactitude » de l’information. La fiabilité perçue de l’information est très souvent liée à sa source. Lorsqu’une information est communiquée par d’autres personnes, la vraisemblance attribuée (« exactitude » supposée) dépend du jugement que l’on porte sur l’émetteur. Ainsi, si l’on reçoit une information d’une source que l’on connaît déjà, qui a fourni dans le passé des informations qui se sont révélées exactes par la suite, on lui attribue un coefficient de vraisemblance plus élevé qu’à celle provenant d’une source nouvelle ou moins réputée. (Voir, dans la presse, l’expression : « selon une source généralement bien informée ».) L’information inexacte (découlant de bruits) peut conduire à des décisions inappropriées ; le manque de confiance dans une information conduit généralement à lui attribuer une pondération plus faible dans l’espace de représentation du problème. 3. Forme de la représentation Les signaux constitutifs de la représentation peuvent être de différentes natures : données sous forme numérique ou alphabétique, dessins ou images fixes, sons, images animées avec ou sans son. . . La richesse de la représentation, son aptitude à traduire tous les aspects du réel, dépend du nombre et de la variété des signaux simultanément fournis à nos organes sensoriels. Remarque On admet qu’une photographie est plus riche qu’une description sous forme littéraire, qu’une image vidéo accompagnée de son est plus riche qu’une photographie. . ., qu’une perception directe est plus riche qu’une image vidéo.. . En se limitant aux domaines classiques des systèmes de gestion, de nombreux travaux ont tenté de mettre en évidence des relations générales entre la forme de la représentation utilisée et la qualité du processus de décision (pertinence et vitesse de décision en particulier). C’est ainsi que l’on a pu repérer quelques aspects intéressants. a – L’information présentée sous forme de graphiques est plus rapidement perçue dans sa globalité que l’information présentée sous forme de tableaux (en règle générale, cela viendrait confirmer scientifiquement le vieil adage : « Un bon dessin vaut mieux qu’un long discours »). b – Les risques de perception erronée sont plus grands lors de l’utilisation de graphiques que lors du recours aux tableaux de chiffres (forte sensibilité au choix des échelles dans les graphiques). c – Il n’est pas possible de définir, de manière générale, la « meilleure forme » d’une représentation. La pertinence formelle dépend des conditions d’utilisation et des caractéristiques du décideur, en particulier de son style cognitif. Les expériences ont ainsi montré que les individus de type « systématique, analytique » qui utilisent une approche méthodique, déductive, des problèmes préfèrent des représentations sous forme de tableaux alors que les individus de type « intuitif, heuristique » apprécient davantage les représentations imagées et les commentaires qualitatifs. La pertinence de la forme reste essentiellement subjective. Ces résultats sont quelque peu fragmentaires et observés dans des contextes expérimentaux ; ils ne peuvent être considérés comme des lois universelles. Il est à peu près certain que la forme utilisée pour les représentations a un impact sur le processus de résolution des problèmes mais, en l’état – – – – – actuel de nos connaissances, peu de conclusions sont scientifiquement validées. 4. Accessibilité de l’information La discussion ci-avant, relative à la forme de l’information, pose en fait la question du passage de la représentation à l’utilisation de l’information qu’elle contient : comment trouver, dans un ensemble de représentations plus ou moins disponibles, l’information utile ? L’information est plus ou moins accessible ; il est plus ou moins facile d’extraire l’information utilisable des représentations fournies. La forme de l’information, son support, le langage utilisé. . ., la rendent plus ou moins facile d’accès par des manipulations plus ou moins complexes. Exemples – Le recours à Internet, disponible chez l’abonné, rend en principe l’information relative à un abonné au téléphone plus accessible que le recours à un ensemble d’annuaires imprimés stockés au bureau de poste. – Un compte rendu oral d’un ingénieur sur un incident de fabrication est considéré comme une information plus accessible que le recours à la lecture de plusieurs rapports écrits sur cet incident. La notion d’accessibilité fait donc intervenir des questions d’espace (où se trouve l’information ?), de temps (combien de temps faut-il pour trouver l’information ?), de difficultés dans le processus de recherche (quelles sont les opérations nécessaires pour extraire l’information recherchée ?). Un des aspects particulièrement importants de l’accessibilité est lié au volume des représentations fournies à l’utilisateur de l’information. Augmenter le volume des données fournies n’accroît pas systématiquement la pertinence de l’information ; au contraire, au-delà d’un certain seuil, nous nous heurtons à nos capacités limitées de traitement des données et les difficultés de sélection accrues au sein d’un ensemble plus vaste diminuent l’accessibilité à l’information véritablement utile. Il n’est pas paradoxal d’affirmer que, dans certains cas, « plus de données, c’est moins d’information ». Toutes les études ont montré que l’accessibilité est une qualité de l’information déterminante pour son utilisation. Une donnée est préférée à une autre moins en raison de sa fiabilité, de son exactitude, de son actualité. . ., qu’en raison de son accessibilité. Une des conséquences immédiates de cette observation est que l’on doit reconsidérer en fonction de l’accessibilité les problèmes de finesse, d’actualité et de forme de l’information. Exemples – Doit-on adresser un rapport d’étude détaillé en cinquante pages ou un rapport résumé en deux pages si l’on veut que ses propositions soient retenues par un directeur fortement sollicité ? – Faut-il présenter un ensemble de tableaux montrant l’évolution des ventes par jour pour chaque produit pour chaque point de vente ou simplement deux ou trois séries statistiques globales ? – Doit-on fournir un état détaillé des stocks de chaque jour à un responsable de l’approvisionnement qui ne peut s’en occuper qu’une fois par semaine ? Ce problème a pris une importance considérable avec le développement des technologies informatiques permettant de produire de plus en plus de données à des coûts de plus en plus faibles. De nombreux utilisateurs souffrent désormais d’un « excès d’information », en réalité d’un excès de données où se trouve une information sans doute plus abondante mais moins facilement accessible. Le plan comptable définit la comptabilité comme un système d’organisation de l’information financière permettant : – de saisir, classer, enregistrer les données de base chiffrées ; – de fournir, après traitement, un ensemble d’informations conforme aux besoins de divers utilisateurs, en particulier des documents de synthèse (bilan et compte de résultat). Dans la mesure où les utilisateurs et les utilisations de l’information comptable ne sont pas définis avec précision, le plan comptable n’utilise pas le terme de « représentation pertinente » mais le concept d’« image fidèle ». Malheureusement, ce concept n’a pas fait l’objet d’une définition rigoureuse. Le plan comptable précise simplement que « les documents de synthèse doivent, en toutes circonstances, donner une image fidèle du patrimoine, de la situation financière, ainsi que des résultats de l’entreprise ». Cependant, certains principes généraux sont énoncés ; leur respect doit permettre d’améliorer le degré de fidélité de l’image comptable : – prudence (appréciation non optimiste) ; – régularité (respect des règles) ; – sincérité (application de bonne foi de l’esprit des règles) ; – permanence (utiliser toujours les mêmes règles comptables ou, au minimum, signaler le changement). . . En définitive, l’application de ces principes garantit une certaine stabilité des conventions qui sont à la base des représentations comptables ; elles en garantissent la fiabilité (fiabilité renforcée éventuellement par l’intervention des commissaires aux comptes). En revanche, il n’est pas possible de qualifier, d’une manière générale, la pertinence des informations comptables ; celle-ci dépend de l’utilisation envisagée (par exemple, pour une décision d’octroi de crédit ? pour la signature d’un contrat de partenariat ? pour la souscription à une augmentation de capital ? pour l’acceptation d’un plan de licenciement ?). Il est évident que, selon les cas, les représentations comptables seront plus ou moins bien adaptées à la résolution du problème de l’utilisateur et qu’il y aura lieu de rechercher des données complémentaires et de « retraiter » les données fournies. La figure 7, page suivante, récapitule les principaux déterminants de la pertinence. Ceux-ci peuvent être combinés dans un processus de recherche et d’analyse de la pertinence, qui est un modèle coûtvaleur de l’information. 2 3 2 Modèle économique de recherche de la pertinence Nous avons déjà souligné qu’à l’intérieur du processus de décision proprement dit se déroulait un processus de décision dérivé relatif à la recherche d’information : « Dois-je décider maintenant avec l’information disponible ou dois-je rechercher des représentations plus pertinentes ? » Il est possible de donner des modèles descriptifs de ce processus d’amélioration de la pertinence, en termes de coût et valeur de l’information. 1. Valeur de l’information La valeur d’une information est déterminée par son utilisation, c’est-à-dire est fonction du résultat de la décision dans laquelle elle est utilisée. Exemple Une entreprise doit mettre en place, dans ses différents points de vente, des denrées périssables. À l’heure actuelle, compte tenu de ses méthodes de prévision de la demande, elle espère un résultat de 10 000 E par jour (en moyenne). Si elle détenait l’information parfaite sur la demande du lendemain dans chaque point de vente, son résultat serait de 30 000 E. Une (ou des) représentation(s) qui lui fournirai(en)t cette information supplémentaire aurai(en)t donc une valeur maximale de 20 000 E, égale au gain additionnel qu’elle(s) procure(nt). Bien entendu, cette valeur évolue dans le temps. On peut considérer que, dans la plupart des cas, la valeur diminue au cours du temps et atteint une valeur nulle à la date limite d’utilisa tion. Remarque Pour des raisons pratiques de mise en place des marchandises, la connaissance de la demande des lendemains doit intervenir avant une certaine heure ; au-delà, il ne sera plus possible d’utiliser cette information. Si l’on reprend l’ensemble des déterminants de la pertinence (revoir figure 7), on peut indiquer que, en règle générale : – la valeur de l’information s’accroît avec son actualité, son exhaustivité, son exactitude, sa fiabilité ; – la valeur de l’information peut s’accroître avec la finesse jusqu’à un certain seuil (audelà, elle peut décroître par effet de volume) ; – la valeur de l’information est liée à sa forme par une relation subjective, contingente à l’utilisateur et au contexte. 2. Coût de l’information L’obtention des représentations nécessite une observation, une cueillette 1 et une transmission des signaux, éventuellement un stockage. Ces différentes opérations entraînent des coûts. Figure 1.7. Les déterminants majeurs de la pertinence des représentations Très généralement, le coût d’obtention est une fonction : – croissante du volume des signaux traités, par conséquent fonction croissante du degré d’exhaustivité, de finesse des représentations, de la fréquence d’observation ; – décroissante du délai d’obtention (la réduction du délai entraîne des coûts additionnels) ; – de la forme (la nature du lien est variable et dépendante des technologies utilisées) ; – croissante de la distance des sources (nécessité d’une transmission des signaux). 3. Nature du modèle L a figure 8 résume les termes du modèle. La décision fournit un résultat brut RB, fonction de X, événements aléatoires du monde réel et de A, variables d’action du décideur. RB = f (X, A) Les variables d’action sont choisies en fonction de signaux obtenus par saisie, traitement, transmission, stockage. On peut écrire A = g(Y) où Y est les signaux utilisés et Ci = h(Y) une fonction de coût (coût d’information). Le décideur apprécie les variations de RB selon Y ; en effet, puisque RB = f(X, A) et A = g(Y), on peut écrire RB = f’(Y). Si l’on raisonne en termes de variations, la valeur additionnelle des signaux supplémentaires est définie par la variation du résultat, RN ; cette variation du résultat doit être rapprochée du coût des La dimension informationnelle 29 signaux supplémentaires C. Une application simple du modèle classique de recherche d’optimum montre que le décideur va essayer d’améliorer ses représentations tant que la variation du résultat brut reste supérieure au coût d’obtention de l’information additionnelle pour optimiser un résultat net (RN = RB – Ci). 2 3 Conclusion Ce modèle simple a pour seul objet de mettre en évidence des caractéristiques essentielles de l’information dans les processus de gestion individuels. En pratique, ce modèle ne peut expliquer seul les comportements des utilisateurs d’information pour au moins deux raisons : – parce que, audelà de l’apparente simplicité du modèle, se cachent de redoutables problèmes d’évaluation ; – parce que, comme nous le montrerons par la suite, il existe d’autres variables à prendre en compte ; le décideur choisit rarement en fonction du seul résultat net. Ce modèle traduit directement le concept de pertinence tel qu’il est caractérisé par les spécialistes des sciences cognitives. Ainsi D. Wilson et D. Sperber (in Introduction aux sciences cognitives, direction D. Andler, Gallimard, Paris, 1995, p. 229) caractérisent-ils la notion comparative de pertinence à partir des notions d’effet et d’effort de la façon suivante : a) Toutes choses étant égales par ailleurs, plus grand est l’effet cognitif produit par le traitement d’une information donnée, plus grande sera la pertinence de cette information pour l’individu qui l’a traitée. b) Toutes choses étant égales par ailleurs, plus grand est l’effort requis pour le traitement d’une information donnée, moins grande sera la pertinence de cette information pour l’individu qui l’a traitée. 3 La dimension technologique La nature de la définition retenue permet de considérer comme « système d’information » des réalisations purement manuelles : la tenue manuelle de fiches comptables, la rédaction et la diffusion de circulaires administratives, la réunion de collaborateurs pour échanger des informations. . . sont des exemples de processus organisés de collecte, traitement, communication.. . de données effectués sans recourir aux technologies électroniques de l’information. Il n’y a donc pas lieu (comme malheureusement on peut l’observer) d’assimiler système d’information à « système informatique » et d’inclure obligatoirement un ordinateur dans les ressources utilisées pour la construction du système d’information. Cependant, force est de constater qu’historiquement la notion même de système d’information a émergé avec les premières utilisations des ordinateurs dans les entreprises et qu’aujourd’hui la très grande majorité des réalisations reposent sur les techniques électroniques de traitement de données. La technologie peut être assimilée aux équipements, outils, dispositifs techniques mis en place en vue de permettre aux individus d’accomplir leur tâche. C’est l’application d’une technique à la conception et à la réalisation d’un produit ou d’un service ; elle se caractérise donc par le choix d’une technique de base et la définition d’une logique d’emploi. En ce sens, la technologie effectivement utilisée est une construction ; cela implique que des techniques identiques, des outils similaires, soient susceptibles d’usages différents au sein d’une même organisation ou d’organisations différentes. C’est pourquoi nous rappellerons tout d’abord les caractéristiques des techniques de base utilisées dans les systèmes d’information pour présenter ensuite les aspects essentiels des processus de construction de la technologie. 3 1 Les bases de la technologie : outils et techniques Les technologies de l’information correspondent à l’usage de techniques permettant de saisir, stocker, traiter, communiquer des données sous forme de symboles variés (chiffres, textes, images fixes ou animées, sons). Elles sont en apparence très variées ; cependant, derrière cette diversité apparente, se cache souvent une seule technique : celle du traitement électronique de l’information sous sa forme numérisée. C’est cette unicité technique qui permet d’expliquer les propriétés essentielles des technologies de l’information utilisées actuellement. 3 1 1 Les composants essentiels La très grande majorité des réalisations actuelles repose sur le principe du codage électronique de l’information. Pour traiter, stocker, transmettre les données, on utilise des signaux sous forme électronique (brèves variations de tension ou changement d’état magnétique). On assiste aujourd’hui à une généralisation du codage numérique (téléphone numérique, télévision numérique.. .), qui offre des gains importants de rapidité et de sécurité tout en assurant la compatibilité directe entre les différents équipements. 1. La base principale : ordinateur, logiciel Les premières réalisations utilisant les techniques électroniques de traitement de données ont été construites autour d’ordinateurs fonctionnant sous la conduite de programmes enregistrés (logiciels). a – Matériel : ordinateur Un ordinateur est une machine automatique permettant de traiter, stocker, transmettre de l’information codée sous forme numérique. La structure générale de l’ordinateur comporte : – les dispositifs d’entrée capables d’acquérir des données : ces dispositifs permettent d’entrer dans la machine les données sous une forme adaptée au traitement ; citons (liste non exhaustive) les claviers, les lecteurs d’étiquettes codes-barres ou radiofréquence (RFID), les scanners (capables de « lire » des documents), les lecteurs de badges et de cartes à puces magnétiques (lecteurs de cartes de crédit, par exemple). Les développements techniques majeurs attendus correspondent à des dispositifs de reconnaissance vocale, permettant de communiquer oralement avec la machine (cette innovation technique, actuellement en phase de mise au point, devrait entraîner des bouleversements considérables dans notre façon d’utiliser les machines) ; – les dispositifs de sortie permettant d’extraire de la machine des données sous une forme communicable à l’homme ; citons (liste non exhaustive) les écrans (cathodiques, à diodes, à plasma), les imprimantes (mécaniques, « jet d’encre », « laser », traceurs. . .), les dispositifs de réponse vocale (utilisés, par exemple, dans des automates de distribution d’essence) ; – les dispositifs de stockage susceptibles de conserver, sous une forme accessible à la machine, de grandes quantités de données. Les dispositifs les plus utilisés sont les bandes magnétiques, les disques magnétiques (disquettes, disques « durs » de différents formats...), les disques optiques (disques optiques numériques, vidéodisques. . .). Ces dispositifs sont souvent appelés unités de mémoire auxiliaires ; – une unité centrale qui constitue le composant essentiel ; elle comprend : . une unité arithmétique et logique constituée de circuits électroniques capables d’exécuter des opérations arithmétiques (addition, soustraction. . .) et logiques (comparaison, addition logique. . .) (appelée également processeur) ; . une unité de commande capable de lire les instructions d’un programme (voir ci-après) et de donner des ordres aux autres organes qui fonctionnent uniquement sous son contrôle ; . une unité de mémoire principale dont la fonction essentielle est de stocker les instructions des programmes et les données en cours de traitement. L’unité centrale peut être rattachée, à distance, via des lignes de communication, à différents organes périphériques d’entréesortie ou à d’autres unités centrales. Assez souvent on désigne par le terme processeur l’ensemble des organes de traitement de l’unité centrale. Les micro-ordinateurs sont équipés d’unités centrales intégrées sur une seule puce électronique appelée microprocesseur. b – Programme enregistré : logiciel Une des caractéristiques les plus importantes des techniques électroniques de traitement des données est leur haut niveau d’automatisation obtenu par l’utilisation de programmes enregistrés. Le programme est un ensemble d’instructions, traduisant les tâches à effectuer par la machine, stocké, comme des données, en mémoire principale et que les circuits de l’organe de commande sont capables de comprendre. L’ensemble des programmes qu’un ordinateur peut utiliser constitue son logiciel : sans logiciel, une machine électronique de traitement de l’information est inutilisable. En pratique, comme le montre la figure 9, il y a lieu de distinguer différents niveaux de logiciels – les logiciels de base, destinés à faciliter l’usage de la machine : communication homme-machine, gestion de l’exploitation, aide à la construction et à la mise au point des programmes, gestion des communications avec d’autres machines via des lignes de communication.. . – les logiciels d’application, utilisés par un utilisateur particulier, qui comportent, soit des logiciels outils (produits standards d’usage général tels que le traitement de texte ou le tableur), soit des logiciels spécifiques conçus en vue d’une application particulière (logiciel de gestion de commandes, logiciel de facturation ou de paie. . .). Malgré leur aspect peu visible aux yeux de l’utilisateur néophyte, les logiciels constituent un élément primordial de la construction technologique. Contrairement à d’autres automates, un ordinateur est une machine dont l’objectif n’est pas défini de manière précise lors de sa construction. C’est par l’intermédiaire du développement des logiciels que se réalise l’adaptation du traitement automatique aux besoins particuliers de chaque utilisateur. Cette très grande souplesse d’utilisation des ordinateurs permise par la technique du programme enregistré a malheureusement une contrepartie : le travail d’écriture et de test des programmes est consommateur de main-d’oeuvre qualifiée et est donc coûteux. Très souvent, le coût des logiciels (malgré les progrès de la standardisation) dépasse le coût des matériels ; en outre, la qualité des services rendus par le système d’information est directement dépendante de la qualité de la réalisation des logiciels utilisés. 2. L’évolution technologique : la diversification des ressources Il est difficile de caractériser une évolution technologique, extrêmement rapide et continue depuis plus de quarante ans. Nous nous limiterons à l’énoncé de quelques tendances lourdes caractéristiques de cette évolution. a – Tendance à prendre en compte l’information sous ses différentes formes de base Au départ, le terme informatique correspondait essentiellement au traitement de données numériques ; la technologie était une technologie du calcul. Vers les années 1970, le néologisme bureautique révélait la prise en compte des données sous forme de textes et l’utilisation des mêmes matériels pour le travail de bureau. Est apparu, depuis, le traitement des images (fixes et animées) et des sons. La technique de numérisation du signal permet de coder ces différents types d’information sous une forme unique (des signaux numériques binaires) favorisant ainsi l’évolution vers des matériels multimédias (capables de traiter de manière combinée des données numériques ou textuelles, des images fixes ou animées, des sons). b – Alliance des techniques informatiques et des techniques de télétransmission L’émergence de la télématique puis d’Internet traduit ce « rapprochement du téléphone et de l’ordinateur ». Il est devenu possible désormais d’utiliser des ordinateurs à distance, de faire communiquer des ordinateurs entre eux, de faire « travailler ensemble » des matériels hétérogènes tels que la télécopie et l’ordinateur, d’utiliser des ordinateurs pour gérer les télécommunications.. . c – Différenciation des matériels À l’origine peu variée, la technique de base a évolué vers la production de matériels différenciés tant dans leur finalité d’usage (ordinateur à vocation de calcul, ordinateur à vocation de gestion, ordinateur de « conduite de processus ». . .) que dans leur niveau de performances (micro-ordinateurs, « grands » ordinateurs. . .). Il en découle aujourd’hui une très grande variété des matériels et par suite des logiciels. Aussi, plutôt que de dresser une liste de matériels (jamais exhaustive et immédiatement périmée), nous rappellerons simplement les composants clés des technologies de l’information d’aujourd’hui. Comme le montre la figure 10, on trouve quatre composants essentiels. . 1) Les stations de travail : elles constituent souvent l’aspect le plus visible des technologies de l’information dans les organisations ; ce sont soit de simples terminaux clavier-écran reliés à une unité centrale, soit, de plus en plus, des micro-ordinateurs dotés de capacité autonome de traitement et de stockage et éventuellement reliés à d’autres unités. . 2) Des bases de données partagées : le développement continu des capacités de stockage et la baisse continue des coûts relatifs permettent de conserver de grandes quantités d’information. L’amélioration des logiciels de gestion des données permet d’organiser dans de bonnes conditions de sécurité l’accès de différents utilisateurs à ces bases de données, à travers des réseaux de communication. Ces bases de données peuvent être gérées par des ordinateurs spécialisés (serveurs de stockage) ou réparties sur les différents ordinateurs communiquant par l’intermédiaire d’un réseau. . 3) Des réseaux de communication : la diffusion des données, la communication entre stations de travail et processus se font par l’intermédiaire de réseaux. On trouve ainsi des réseaux : – locaux : utilisés à l’intérieur d’un site, reliant différents matériels proches les uns des autres (quelques centaines de mètres) ; – privés ou à usage privatif : utilisés par une entreprise pour relier différents établissements éventuellement très éloignés. Ces réseaux transportent la voix (téléphone) et les données ; ils sont à usage exclusif de l’entreprise ; – publics, nationaux et internationaux : le téléphone est un exemple classique de ce type de réseau. Ces réseaux, gérés par un opérateur, public ou privé, sont accessibles moyennant redevance. De très nombreux réseaux publics (télex, transpac. . .) offrent des services variés : la période récente a vu le développement explosif de la téléphonie mobile. Pouvant être utilisé à n’importe quel moment et dans n’importe quel lieu, capable de mémoriser des données, des images et des sons, permettant l’accès à certains services d’Internet et l’envoi de messages courts (SMS), cet outil apparaît désormais comme un composant indispensable de nombreux postes de travail. Grâce à l’utilisation de protocoles de communication normalisés, les différents types de réseaux peuvent être interconnectés et offrir des possibilités de communication très étendues. Les années 1990 ont ainsi vu l’émergence rapide d’Internet (le réseau des réseaux), qui apporte des possibilités d’accès rapide à de multiples sources d’information réparties dans le monde entier (voir chapitre 4 ciaprès). . 4) Des processeurs spécialisés : lorsque les besoins de calcul, de gestion de communications, de gestion de données sont très importants, comme dans la plupart des grandes organisations, il est fréquent d’utiliser des unités spécialisées jouant souvent un rôle central dans l’ensemble et assurant la coordination des différents éléments. Toutefois, la tendance actuelle est à la diminution du rôle de ces composants centraux et à l’évolution vers des ressources réparties et partageables par chaque station de travail. Remarque La figure 10 fait apparaître également des « terminaux ou automates spécialisés ». Ce sont des matériels à vocation mixte, dont la tâche n’est pas seulement de traiter de l’information mais aussi de produire un bien ou un service. Citons des automates industriels, des distributeurs de billets. . . Ces composants sont de plus en plus répandus dans les entreprises aujourd’hui. En définitive, comme le montre le tableau page suivante, les technologies de l’information doivent assurer cinq fonctions de base relatives aux données : saisir, transmettre, stocker, traiter, restituer. d – Une évolution des conditions d’accès Deux éléments essentiels sont ici à considérer : – la facilité d’utilisation ; – le coût et les formes d’accès à la technologie, avec notamment le Cloud Computing. La facilité d’utilisation s’est continuellement améliorée. Le progrès technique a permis la réalisation de mémoires principales et de processeurs de plus en plus performants ; cette évolution du matériel a accompagné des progrès considérables dans les logiciels de communication homme-machine (interfaces graphiques, par exemple). Ces progrès devraient se poursuivre avec le développement de la reconnaissance de la parole. Compte tenu de l’évolution des langages de programmation et des logiciels outils, l’usage autonome de la technologie est devenu possible. Un autre aspect de la facilité d’utilisation est lié au progrès de la normalisation, en particulier pour les systèmes d’exploitation et les réseaux : la compatibilité entre les matériels hétérogènes s’améliore et simplifie les procédures de connexion. Le domaine des technologies de l’information est sans doute celui qui a connu, dans le monde industriel, la chute des coûts la plus spectaculaire. Plusieurs composants essentiels des matériels utilisés (mémoires électroniques, transistors, microprocesseurs. . .) ont connu des taux de progression du rapport performance/coût voisins de 30 % par an. Même si le coût d’accès à la technologie n’a pas subi une baisse aussi forte en raison du maintien (voire de la hausse) des coûts du logiciel, les effets n’en demeurent pas moins considérables. Les formes d’accès à la technologie et aux représentations qu’elle supporte évoluent fortement. Un concept en plein développement décrit la tendance actuelle : le Cloud Computing. S’il est présenté comme la prochaine mutation technologique majeure, il n’est pas une technologie émergente, mais un nouveau mode de fourniture et de financement des ressources informatiques de l’entreprise. C’est une façon nouvelle d’externaliser ces ressources (matériel et/ou logiciels) auprès d’un tiers. Les entreprises ont la possibilité par exemple de recourir à un logiciel en ligne facturé à l’usage réel plutôt qu’à l’usage potentiel. On distingue trois types de Cloud Computing : le logiciel comme service (SaaS : Software as a Service), la plate-forme comme service (PaaS : Platform as a Service) et l’infrastructure comme service (IaaS : Infrastructure as a Service). Le système est variable et flexible, puisqu’il adapte les ressources à l’utilisation recherchée. Ce type de service permet donc à la fois de se décharger de tâches de planification coûteuses et incertaines et, sur le plan gestionnaire, de ne pas investir en immobilisant des ressources importantes mais de consommer en fonction de ses besoins. Les prévisions de cabinet d’études effectuées en 2010 suggèrent que les entreprises vont dépenser plus de 100 milliards de dollars dans les cinq années à venir. En parallèle, le cabinet IDC a prévu un déclin de 7 milliards de dollars du marché mondial du logiciel traditionnel (source : 01 informatique, no 2060, 11 nov. 2010, p. 60). Positionné entre les solutions propriétaires et les outils Open Source, le Cloud offre de nombreux avantages. Ne serait-ce que d’un point de vue financier, puisque les dépenses en investissement IT se transforment en coûts opérationnels. Pour proposer des tarifs intéressants aux entreprises, le modèle Cloud s’appuie fréquemment sur des socles d’exécution OS, source d’économies très substantielles. Fonction de base Exemples de dispositifs technologiques Modèle avantageux notamment pour les PME qui profitent d’une barrière d’entrée en termes de compétences moins élevée avec la possibilité d’accéder à une qualité de service jusqu’alors réservée aux grandes entreprises. Vitesse de mise en production et de déploiement constitue un autre atout du Cloud. Si séduisant qu’il soit sur le plan marketing, le recours à ce type d’offres doit être bien réfléchi. L’évaporation des données dans un nuage de serveurs, à travers l’utilisation de sites de stockage multiples, soulève des interrogations en matière de disponibilité, de sécurité, de confidentialité et de réversibilité. Si ces points bloquants n’étaient pas résolus, les perspectives de développement seraient minimes. La plupart des experts prévoient que cette tendance doit se poursuivre encore pendant dix à quinze ans au moins. La conséquence est une banalisation de la technologie et le renforcement d’une tendance à la substitution du capital au travail dans des domaines où jusqu’à maintenant l’automatisation des tâches restait faible. 3 2 1 Les propriétés spécifiques L’apport immédiat des techniques du traitement électronique de l’information peut être caractérisé par cinq points spécifiques : – compression du temps ; – compression de l’espace ; – expansion de l’information stockée ; – flexibilité de l’usage ; – connectivité. 1. Premier apport : la compression du temps Traiter des données consiste à les transformer par des opérations variées (tri, calcul, sélection, transmission. . .) pour produire des représentations pertinentes ; les outils électroniques automatisent ces opérations avec des performances de vitesse sans aucune commune mesure avec celles d’un opérateur humain. Les vitesses de calcul sont de l’ordre du million d’opérations par seconde pour les ordinateurs les plus modestes. Cela permet d’effectuer des calculs extrêmement lourds dans des intervalles de temps très brefs (par exemple calculer en temps réel la trajectoire d’une fusée pour permettre de corriger les écarts éventuels), de manipuler des fichiers très importants (plusieurs millions d’enregistrements) en quelques minutes, de transmettre des messages de manière quasi instantanée entre des ordinateurs distants. . . Deux conséquences importantes de ces gains de temps considérables méritent d’être rappelées : – recours systématique à l’automatisation des calculs (techniques ou financiers) ; – possibilité de recourir à certaines méthodes de résolution connues mais inexécutables manuellement parce que trop longues (opérations de l’algèbre linéaire au-delà d’une certaine dimension par exemple). 2. Deuxième apport : la compression de l’espace Les réseaux de communication classiques (téléphone, télégraphe) avaient permis, depuis un siècle, des gains de temps considérables dans la communication à distance. À l’heure actuelle, il est possible de transmettre de très grands volumes de données (correspondant par exemple à la transmission d’images vidéo) entre deux points quelconques du globe. Le réseau Internet permet d’échanger des messages, de communiquer immédiatement entre ordinateurs, quel que soit leur emplacement sur le globe. Le progrès, à l’heure actuelle, vise à l’augmentation des débits des réseaux utilisés pour mieux utiliser la vitesse de traitement des ordinateurs, encore trop souvent limitée par le débit trop faible des réseaux de transmission de données. Ces possibilités nouvelles permettent le développement de relations à distance entre individus et entre organisations ; l’émergence du télétravail, le phénomène de la globalisation des marchés.. . sont des conséquences directes de ce phénomène d’élimination de la distance par le recours aux techniques électroniques de la communication. 3. Troisième apport : l’expansion de l’information stockée Les outils de stockage de type magnétique (bandes, disques durs. . .) ou optique (CD-Rom, vidéodisque. . .) permettent dans des conditions d’encombrement très faible le stockage de volumes considérables de données. Il s’agit d’un progrès important par rapport aux formes traditionnelles du stockage d’archives imprimées. En pratique, le gain d’encombrement n’est qu’un aspect de cet apport ; un progrès aussi important est celui apporté par les logiciels de gestion de bases de données qui permettent, par l’intermédiaire de langages simples d’interrogation, de retrouver très vite les données recherchées au sein d’une base de stockage de très grande dimension. (Par exemple, une société de vente par correspondance, disposant d’un fichier client de 2 millions d’individus, peut retrouver en quelques secondes les clients qui ont commandé tel produit l’année précédente et qui n’ont pas renouvelé leur commande.) Bien entendu, cette possibilité se combine avec la précédente pour permettre l’accès à des données distantes ; ainsi un chercheur, assis à son bureau, peut-il consulter un article scientifique d’une revue stocké, sous forme numérique, dans une base de données gérée par un serveur implanté aux États-Unis. Ce progrès continu, dans les supports de stockage comme dans les logiciels de gestion de données et de gestion de documents électroniques, permet aujourd’hui à l’utilisateur potentiel d’accéder sans difficultés à une quantité de connaissances stockées pratiquement illimitée. 4. Quatrième apport : la flexibilité d’usage L’un des intérêts majeurs des outils électroniques de traitement de données est leur très large éventail d’utilisations potentielles. La majorité des automates industriels sont conçus pour exécuter un ensemble de tâches déterminées. De la même manière, un ordinateur est construit pour exécuter un certain nombre d’opérations élémentaires sur les symboles représentatifs de l’information. Cependant, il est possible de lui faire exécuter beaucoup de tâches différentes en raison de la flexibilité apportée par la technique du programme enregistré ; les opérations que l’ordinateur peut exécuter sont définies à un niveau très élémentaire ; chaque programme correspond à une certaine combinaison de ces opérations élémentaires. La même machine peut donc exécuter des travaux différents dès lors qu’elle dispose du logiciel correspondant (ainsi, le même micro-ordinateur peut être utilisé pour du traitement de texte, pour des calculs statistiques, pour de la retouche de photographies numériques, pour l’enregistrement de séquences musicales à partir d’un site Internet. . .). On notera cependant que, si l’ordinateur dispose d’une flexibilité initiale très grande (il peut accepter un très grand nombre de logiciels différents. . .), la flexibilité ultérieure liée à la possibilité de modifier un logiciel existant pour l’adapter à des conditions nouvelles d’exécution de la tâche est plus réduite. La modification de programmes est, en effet, une tâche lourde et délicate, qui comporte des risques d’erreur. C’est pourquoi on entend assez souvent employer l’expression « la rigidité de l’informatique » pour évoquer les difficultés bien réelles de l’adaptation des logiciels à l’évolution des problèmes. 5. Cinquième apport : la connectivité Les techniques de traitement de données sont aujourd’hui multiples. Désormais, dans la plupart des organisations, coexistent plusieurs types d’outils. L’une des propriétés intéressantes de chacun de ces outils est la possibilité qu’il a d’être relié aux autres : sa connectivité. Cette propriété se caractérise à la fois par le nombre de postes de travail pouvant être joints à partir d’un poste donné et par la richesse des échanges autorisés. La connectivité est évidemment fonction de la compatibilité des matériels et des logiciels utilisés. Le développement généralisé du codage numérique (pour la télévision, pour le téléphone.. .) est un facteur favorable à la connectivité d’outils autrefois totalement indépendants. (Ainsi est-il possible désormais d’avoir accès à la messagerie électronique et à Internet à partir de certains téléphones mobiles.) La présence de plusieurs outils éventuellement compatibles accroît les possibilités d’action de chaque utilisateur qui peut ainsi jouer la complémentarité (par exemple, transférer des fichiers d’adresses d’un organiseur à un ordinateur et vice versa. . .) ou la substitution (communication par messagerie électronique, par courrier classique ou par téléphone) entre les différentes techniques. L’observation du fonctionnement des organisations montre une diversité croissante dans les solutions que chaque utilisateur invente en combinant, de manière spécifique, les différents outils qui sont à sa disposition. 3 31 Conclusion En résumé, pour caractériser les technologies de l’information, il est possible, comme le propose Bakos, de les décrire selon deux dimensions : – fonctionnalités de base (stockage, traitement, communication) ; – performance des composants de base, en termes de capacité, de qualité et de coût unitaire. Il est ainsi possible de définir un ensemble de mesures, dont la grille présentée ciaprès fournit quelques exemples. (Bien entendu, pour chaque réalisation technique étudiée, des mesures spécifiques doivent être choisies.) L’intérêt d’une telle grille est de permettre de comparer des solutions technologiques différentes face à des projets d’utilisation ; il s’agit donc d’une évaluation relative et contingente. 3 2 La construction de la technologie À partir des bases techniques communes offertes sur le marché, chaque organisation va construire ses solutions, développant ainsi ses technologies spécifiques. Ce que l’on observe, la technologie « en usage », celle qui est effectivement mise en oeuvre dans les procédures de travail, est, dans la plupart des cas, le résultat d’un double processus de construction : tout d’abord, une construction délibérée, organisée lors de la mise en place des outils, puis une construction émergente, fonction de l’autonomie des acteurs à l’intérieur des modes opératoires. La construction délibérée Un système d’information n’est pas un phénomène spontané ; il est le résultat d’un travail de conception aboutissant à une implantation, synonyme de changement dans l’organisation. 1. La conception des solutions La conception d’un système d’information peut être caractérisée à la fois par ses objectifs et par sa démarche. a – Premier point : les objectifs Le système d’information doit répondre aux besoins de ses futurs utilisateurs. Le travail préliminaire consiste donc à définir un cahier des charges qui exprime, de façon structurée, les besoins que doit satisfaire le futur système. Exemple Ainsi, pour les Grands Garages du Sud, le système à construire avait pour objectif principal de fournir un support commode aux processus d’accueil du client, de suivi des réparations, de facturation et d’encaissement. Il devait également traiter les opérations courantes de comptabilité générale et de paie des salariés, assurer la gestion des pièces en stock. Ce que souhaitent les maîtres d’ouvrage, leurs spécifications, va devoir ensuite être interprété et traduit par des spécialistes, analystes, concepteurs en un schéma de système à réaliser. Cela implique l’intégration en un schéma cohérent de trois séries de choix, correspondant aux trois dimensions de tout système d’information : – les choix informationnels, c’est-à-dire les choix relatifs aux représentations souhaitées ; il s’agit ici de définir quelles seront les représentation à produire pour chaque utilisation, ce qui conduira à définir des modèles de données et les règles de transformation de ces données par des modèles Exemple Dans le cas des Grands Garages du Sud, on a été amené ainsi à définir ce que devaient contenir un ordre de réparation, une facture, une commande de pièces. . ., et à expliciter comment était appliqué le tarif pour passer de l’ordre de réparation à la facture à régler par le client (calcul de durée des opérations, tarification des opérations. . .). L’ensemble de ces modèles de données et de traitement correspond à une description fonctionnelle (mais abstraite) du futur système d’information ; – les choix organisationnels, c’est-à-dire les choix relatifs aux acteurs et aux procédures ; comme nous le montrerons plus en détail ci-après, il est nécessaire de répondre à la question : « Qui fait quoi ? » en précisant le rôle de chacun dans les futures procédures ; Exemple Ainsi, dans le cas des Grands Garages du Sud, il a été précisé que l’ordre de réparation serait établi par le chef d’atelier, assurant l’accueil du client, et que la facturation ne serait lancée qu’à son initiative, lorsqu’il aurait contrôlé la réparation effectuée. – les choix techniques, c’est-à-dire les choix relatifs aux matériels et logiciels susceptibles d’être utilisés et la façon dont ils seront utilisés. Exemple Toujours dans le même exemple, il a été décidé d’utiliser un logiciel standard (Intégrauto) sur un réseau de plusieurs micro-ordinateurs et d’équiper certains des postes de travail d’une suite bureautique ; pour la gestion des pièces détachées, la technique de la lecture d’étiquettes par codebarres a été retenue. Bien entendu, ces choix doivent être cohérents. Il est impératif de respecter un certain nombre de contraintes relatives à l’articulation de ces différents choix. Ces contraintes sont résumées dans le schéma suivant : – contrainte de pertinence : les représentations fournies par le système et les traitements qu’il effectue doivent correspondre aux besoins des utilisateurs ; – contrainte de praticabilité : les représentations utilisées et les traitements demandés doivent être manipulables par les outils techniques utilisés ; – contrainte d’adéquation : les techniques retenues doivent être compatibles avec les moyens économiques de l’organisation et utilisables dans le contexte de travail. Ce n’est que dans la mesure où ces contraintes sont simultanément satisfaites que le projet de système d’information peut être considéré comme viable. À l’intérieur de ces contraintes, il existe des possibilités de choix conduisant à des solutions plus ou moins satisfaisantes. b – Second point : la démarche Pour des systèmes d’information de dimension très limitée, la construction peut rester pour une large part intuitive, par essais, erreurs, tâtonnements, modifications. Au-delà d’une certaine dimension, très limitée en pratique, cette approche empirique n’est pas possible et il est indispensable d’organiser le processus de construction de manière méthodique. Ce processus passe par différentes étapes, résumées dans la figure 12. Comme nous le montrerons en détail dans le chapitre 7 de cet ouvrage, la construction des systèmes d’information constitue un projet, confié à une équipe de projet (dans laquelle collaborent généralement des utilisateurs futurs et des spécialistes de la construction), pouvant mobiliser des ressources considérables. (Un grand projet de système d’information peut correspondre à plusieurs centaines d’années-homme, un système de dimension moyenne exige plusieurs mois de construction. . .) Une des difficultés essentielles est celle de la mise au point des logiciels, qui doivent répondre à des exigences rigoureuses de praticabilité et de sécurité (le recours à des logiciels standards n’est pas toujours possible et il y a souvent des adaptations à mettre au point). La démarche de construction aboutit à l’implantation d’un nouveau système dans l’organisation. C’est à ce stade que se traduisent les principales conséquences de cette construction volontaire de la technologie. 2. Les conséquences immédiates de l’implantation Cette phase correspond au passage du système d’information de l’état de projet à l’état de réalisation. Très concrètement, il y a modification des tâches, des rôles, de l’affectation des personnes, des processus de communication, donc introduction du changement dans l’organisation. En effet, la construction du système d’information amène, en règle générale, une modification des procédures, c’est-à-dire un changement des modes opératoires des différents acteurs et de la nature des tâches qu’ils ont à accomplir. Exemple Dans le cas des Grands Garages du Sud, le recours au logiciel Intégrauto a fortement modifié les procédures d’accueil et de facturation : le chef d’atelier doit désormais travailler avec le terminal clavier-écran pour établir l’ordre de réparation ; les réparateurs reçoivent dorénavant un ordre complet avec les opérations indiquées en clair et n’ont pas à établir de bons de sortie de pièces qui sont automatiquement édités avec l’ordre de réparation. La facturation a été totalement automatisée et la personne qui en était chargée se consacre entièrement aux travaux administratifs et comptables. De même, les magasiniers ne consacrent qu’un temps très faible à la saisie des mouvements de pièces (lecture automatique des étiquettes), à présent effectuée en temps réel pour les entrées comme pour les sorties. Par conséquent, à l’intérieur de l’organisation, beaucoup d’utilisateurs vont devoir modifier leur mode opératoire et s’adapter à des rôles différents. Le mode opératoire correspond aux procédures qui ont été définies lors de la conception du système d’information : il précise les différentes tâches que doit effectuer chaque opérateur, chaque acteur, pour remplir son rôle dans le déroulement du processus de travail. Ce mode opératoire est généralement assisté par des logiciels utilisés en mode interactif qui imposent, de manière plus ou moins contraignante, un enchaînement des opérations prédéfini. Exemple Après l’adoption du logiciel Intégrauto, une nouvelle procédure d’accueil du client a été définie. L’acteur concerné est le chef d’atelier, qui va opérer une saisie des informations nécessaires à l’établissement de l’ordre de réparation. Les messages affichés à l’écran vont lui demander d’entrer successivement les coordonnées du client puis les éléments d’identification du véhicule, à partir de la carte grise, puis la description des réparations à effectuer. Ces réparations sont codifiées selon des codes opérations et la frappe du code déclenche l’affichage de l’intitulé complet de chaque opération. En fin de dialogue, le chef d’atelier déclenche l’impression de l’ordre de réparation qu’il doit faire signer par le L’analyse du processus de travail montre que la technologie incorporée dans le système d’information se traduit par un double apport. – Elle est génératrice de RÈGLES, de CONTRAINTES : les logiciels utilisés en mode interactif par l’opérateur imposent le respect de certaines règles qui ont été jugées indispensables lors de la définition des procédures de travail. Exemple Ainsi, le chef d’atelier ne peut pas commencer à saisir des réparations s’il n’a pas procédé auparavant à la saisie de l’identification du client et de l’identification du véhicule. Il doit impérativement définir les opérations à effectuer par un code opération à six chiffres et l’entrée d’un code incomplet ou erroné bloque automatiquement le déroulement du dialogue. Ces règles limitent la marge d’initiative de l’opérateur ; elles sont généralement justifiées par des contraintes de sécurité pour l’organisation ou par des contraintes de fonctionnement de la technologie. – Remarque Le caractère obligatoire de l’identification du véhicule et du client correspond au souci du garage de ne pas procéder à des réparations sur des véhicules signalés volés et de s’assurer, dans une certaine mesure, des garanties de paiement de la réparation. En revanche, l’exigence de la frappe d’un code à six chiffres pour désigner l’opération est imposée par le système de gestion de données incorporé dans le logiciel Intégrauto. – Elle offre des RESSOURCES supplémentaires : les logiciels et les matériels apportent à l’opérateur des moyens supplémentaires pour réaliser les tâches correspondant à son rôle : automatisation de certaines opérations, apport de représentations pertinentes pour assister le processus de travail. . . Exemple Ainsi, le chef d’atelier bénéficie de l’apport de la machine pour imprimer automatiquement l’ordre de réparation ; de même, le logiciel peut calculer de manière prévisionnelle quel sera le coût de la réparation envisagée ; il peut afficher, à la demande, le prix de certaines pièces détachées en offrant plusieurs options au client (remplacement d’une seule pièce ou remplacement d’un sous-ensemble par exemple) ; ces options seront visualisées par une manoeuvre très simple au clavier-écran. Ensuite, tous les éléments qui ont été saisis pour établir l’ordre de réparation seront réutilisés automatiquement pour calculer et imprimer la facture après le contrôle de la réparation. – On constate donc, à partir de ce simple exemple, que les apports de la technologie sont pluriels : fourniture de représentations à la demande, automatisation de tâches exécutées auparavant de manière manuelle, assistance dans la conduite d’un processus par la structure d’un dialogue homme-machine. – C’est dans le cadre ainsi défini, pour chaque acteur, interprétant son rôle au sein de l’organisation, par les ressources et les contraintes des outils de traitement de l’information, que va, éventuellement, se dérouler un second processus de construction de la technologie, de nature émergente. – – – La construction émergente La construction délibérée de la technologie aboutit à l’implantation d’un nouveau système d’information mettant à la disposition des acteurs des outils (porteurs de possibilités nouvelles d’action) dans le cadre plus ou moins contraignant d’un mode opératoire prédéfini. Ce processus de construction délibérée (répondant à des objectifs clairement définis) est, dans la plupart des cas, suivi par un processus individuel de construction émergente (dont les objectifs ne sont pas énoncés à l’avance) dépendant du comportement des acteurs dans leur nouveau cadre d’action. 1. Le cadre de la construction : caractéristiques techniques, esprit de la technologie et vision organisante Les outils techniques présentent des caractéristiques proprement contraignantes, c’est-à-dire qui ne sont pas modifiées par leur usage une fois qu’elles sont mises à disposition de l’utilisateur. Certes, ces caractéristiques techniques sont construites socialement, sont choisies, sont parfois imposées, mais une fois l’utilisateur équipé, elles ne sont pas globalement négociables. L’espace disque, la bande passante, la forme d’un bouton sur une interface sont en général fixes, même si l’usage des fonctions qu’elles proposent dépend dans une large mesure des choix de son utilisateur (allocation de l’espace disque, type d’information transmise, positionnement du bouton par exemple). Nous dirons que certaines caractéristiques techniques sont déterminées, du moins pendant la durée d’équipement des utilisateurs en question, mais que les fonctionnalités ne le sont pas. Plus profondément, les choix que vont faire les utilisateurs, les professionnels avec les possibilités de la technique sont influencés par leurs interactions et ne dépendent pas que de leurs appropriations individuelles. Plus symboliquement encore, ils le sont par l’avis des institutions, des associations exerçant un pouvoir normatif, par les experts communiquant dans les salons professionnels et les conférences scientifiques, par les médias, en bref par les processus et les institutions qui dessinent et précisent « l’esprit de la technologie » (De Sanctis et Poole, 1994), c’est-à-dire ce qu’elle est bonne à faire. Ils constituent finalement une vision organisante (Swanson et Ramiller, 1997 ; Carton et al., 2003). La vision organisante peut, dans certaines situations, être fonctionnellement déterministe. Ainsi, au début de leur diffusion, le choix des ERP ne laissait pas beaucoup de marges de manoeuvre aux entreprises, lorsque les premiers consultants sont venus leur proposer l’idée. La perception de la puissance de la technologie, conforté par tout le système d’offre, allait dans le sens des directions générales des grandes entreprises pour lesquelles le besoin de contrôle des résultats des métiers de l’entreprise d’une part, et du pouvoir des informaticiens d’autre part, allait enfin être servi par une technologie docile (Besson, Rowe, 2001). Mais la vision organisante peut aussi aller dans le sens de la démocratie, comme avec les technologies de l’Internet (Monod, Rowe, 1999). 2. Le contenu de la construction : l’appropriation de la technologie Face à des outils dont l’usage reste facultatif, l’utilisateur peut adopter des comportements variés : – abstention : l’utilisateur ne souhaite pas changer ses méthodes de travail et n’utilise pas les outils proposés ; la technologie n’est pas adoptée ; – utilisation minimale : l’utilisateur se limite à des usages courants, généralement ceux pour lesquels il a reçu une formation initiale, et ne cherche pas à tirer un meilleur parti des ressources apportées par l’outil ; – utilisation intensive et innovante des ressources offertes : l’utilisateur cherche, en permanence, à améliorer par l’apprentissage sa maîtrise de l’outil et à développer des modes opératoires plus performants ; il peut même inventer des solutions qui n’avaient pas été prévues à l’origine par les concepteurs. On caractérise par le terme infusion cette intensité de l’utilisation : le degré d’infusion augmente lorsqu’on utilise davantage de fonctionnalités de l’outil, lorsqu’on l’utilise dans des applications innovatrices, lorsqu’on accroît l’étendue et la fréquence des utilisations. Le processus par lequel l’utilisateur acquiert cette plus ou moins grande maîtrise de l’outil, par – – – – – apprentissage en situation, est désigné par le terme appropriation : l’utilisateur intègre, à des degrés divers, le recours à l’outil dans son mode opératoire et peut, éventuellement, faire évoluer, seul, ce mode opératoire en fonction des propriétés de l’outil qu’il découvre puis maîtrise à travers des usages répétés. L’appropriation effective de la technologie suppose la réunion de trois conditions : – une maîtrise cognitive et instrumentale minimale de l’outil ; – une intégration de l’usage de l’outil dans les pratiques quotidiennes ; – la possibilité de l’émergence d’un usage innovant de l’outil. Exemple Dans une entreprise, la responsable administrative et comptable dispose d’une suite bureautique comportant, en particulier, un tableur. Celui-ci lui permettait de présenter, tous les mois, un tableau des principales activités avec les postes de dépenses correspondantes. Audelà de cette utilisation minimale, cette responsable a développé, grâce à sa maîtrise progressive du tableur, toute une série de tableaux d’analyse enchaînés permettant un suivi, à différents niveaux de synthèse, de la gestion de l’entreprise. Ce processus d’appropriation correspond à une assimilation de la technologie ; son étendue, son intensité dépendent de très nombreux facteurs : – facteurs relatifs aux caractéristiques de l’outil, tel qu’il est perçu par son utilisateur potentiel : utilité perçue, facilité d’utilisation perçue, compatibilité avec les autres outils disponibles, possibilité d’essais, visibilité des résultats obtenus lors de l’utilisation, adéquation apparente à la tâche. . . – facteurs relatifs au contexte de diffusion de la technologie : promotion de la technologie par les dirigeants et cadres, actions de formation et d’assistance à l’utilisation, présence de champions efficaces (un « champion » est un utilisateur compétent et motivé, qui innove dans l’utilisation des outils et qui a un effet d’entraînement pour les autres utilisateurs), existence ou non d’un système de récompenses pour les utilisations novatrices ; – facteurs relatifs aux individus : âge, expérience professionnelle, niveau de connaissances générales et technologiques, attitude à l’égard de la technologie, attitude à l’égard du changement, sensibilité à la pression sociale. L’existence de ces nombreux facteurs a une conséquence fondamentale pour ce qui concerne le résultat de l’introduction de nouveaux outils de traitement de l’information ayant une certaine flexibilité interprétative. Le résultat est INDÉTERMINÉ : compte tenu des influences multiples qui déterminent la nature et l’étendue du phénomène d’appropriation, il est extrêmement difficile de prévoir quel sera le résultat effectif de l’adoption d’une technique : la technologie qui détermine la performance dans le processus de travail est la technologie effectivement utilisée (c’est celle qu’a construite l’utilisateur par son comportement d’appropriation) ; cette technologie n’est pas rigoureusement identique à la technologie adoptée (celle qui a été retenue à l’origine par les responsables qui en anticipaient certains effets). L’observation des entreprises révèle des écarts sensibles entre les deux. Exemple Ainsi, une étude portant sur l’appropriation des technologies Internet dans les entreprises (de Vaujany, 1999) montre que l’on peut observer différents types d’appropriation : – une appropriation centrée sur la tâche à accomplir, de manière assez conforme à l’esprit dans lequel cette technologie avait été adoptée ; – une appropriation centrée sur l’influence, où l’acteur utilise la technologie pour renforcer son influence au sein de l’entreprise ; – une appropriation de type symbolique, où la technologie est vue comme un moyen de valorisation de l’individu (symbole de modernité) ; – une appropriation de caractère ludique, où l’utilisation est vue comme une détente, une « évasion » de manière peu conforme à l’esprit ; – une appropriation de type « partage », où l’outil est vu comme un instrument d’échange avec l’autre. Par conséquent, la technologie est « équivoque » : à un choix initial donné peuvent correspondre des résultats finaux sensiblement différents selon la réalité du processus de construction de chaque acteur. Ce processus peut être influencé par des actions de gestion (choix d’urbanisme, actions de formation, pratiques de contrôle et de motivation). Par-delà les effets institutionnels de la vision organisante qui le cadre, il l’est aussi par les interactions entre acteurs et les effets d’externalité positive ou négative, de production ou de consommation, qui modifient l’utilité de la technologie. Ainsi l’émergence dépend d’effets de réseaux. – – – – 3 3 Conclusion Nous nous limiterons à rappeler les points essentiels relatifs à la dimension technologique des systèmes d’information – la technologie est une ressource et une contrainte pour l’exécution des tâches par les acteurs (utilisateurs) ; – la technologie en usage est le résultat d’un double processus de construction réalisé par les acteurs décideurs, concepteurs et utilisateurs : un processus planifié et un processus émergent ; ce résultat est partiellement indéterminé ; – les caractéristiques de l’outil, ainsi que les conditions de sa mise en place dans le contexte, ont un effet sur le processus d’appropriation. La mise en évidence du rôle des acteurs et de l’influence du contexte suggère que la dimension technologique n’est pas indépendante de la dimension organisationnelle qui va être abordée maintenant. 4 La dimension organisationnelle Certains systèmes d’information ne concernent qu’un individu isolé (par exemple, une personne seule utilisant un logiciel pour tenir son agenda, suivre son budget, gérer son répertoire d’adresses. . .). Cependant, la très grande majorité des systèmes auxquels s’intéressent les sciences de gestion fonctionnent à l’intérieur d’organisations : il s’agit soit de systèmes individuels (mais utilisés pour les besoins de l’organisation), de systèmes à vocation collective, multi-utilisateurs (la très grande majorité des réalisations), soit de systèmes imbriqués dans le fonctionnement de plusieurs organisations, systèmes interorganisationnels ou ouverts à des intervenants extérieurs à l’organisation (site Internet par exemple). Tous ces différents types de systèmes ont une dimension organisationnelle qui peut être analysée, de manière classique, selon une double perspective : – celle du fonctionnement, c’est-à-dire du déroulement des processus de travail, à l’intérieur et aux frontières de l’organisation ; – celle de la structure qui concerne les caractéristiques relativement stables de toute organisation. Dans cette double perspective, le système d’information apparaît à la fois comme un élément déterminant du fonctionnement de l’organisation et comme un important élément constitutif de sa structure 4. Le système d’information, élément déterminant du fonctionnement de l’organisation – L’organisation est la base de l’action collective. Dès qu’une activité dépasse la capacité d’un seul individu, l’organisation constitue la réponse appropriée. Elle se caractérise donc par : – un ensemble d’individus : participants, acteurs ; – un accord, implicite ou explicite, sur un ou plusieurs objectifs partagés par les différents participants ; – une division du travail, définissant le rôle de chaque participant ; – une coordination, plus ou moins formalisée, qui assure la cohérence des comportements et donc le respect des objectifs communs en dépit de la division du travail. Pour mieux comprendre l’articulation entre le rôle du SI et le fonctionnement de l’organisation, nous procéderons en deux étapes : – tout d’abord, à partir d’une vision de l’organisation limitée à ses seuls aspects fonctionnels, nous mettrons en évidence le rôle d’information du système ; – ensuite, à partir d’une description plus complète du système de travail, nous mettrons en évidence le rôle structurant et intégrateur du SI. – 41 1 L’information des processus fonctionnels – – – Cette vision quelque peu abstraite de l’organisation consiste à la décrire comme un ensemble de PROCESSUS, de manière indépendante de la répartition des tâches entre acteurs, des moyens utilisés et de l’implantation spatiale des activités. Cette vision simplifiée permet de mieux appréhender à quels besoins fondamentaux doit répondre tout système d’information dans l’organisation. Ces besoins fondamentaux sont : d’une part ceux découlant du déroulement de chaque processus fonctionnel (besoins spécifiques internes), d’autre part, ceux découlant des besoins de communication entre processus. 1. L’information dans le processus Un processus correspond à un ensemble d’activités ou opérations, fonctionnellement liées par la production d’un résultat identifiable. C’est une unité conceptuelle de représentation, dont les limites sont fixées arbitrairement par l’analyste (en fonction de ses impératifs propres), qui a pour objectif principal de décrire la dynamique (l’enchaînement dans le temps) et le contenu des activités de l’organisation, de manière indépendante des moyens susceptibles d’être utilisés. Tout processus peut être décrit à l’aide de trois concepts élémentaires : événement, opération, résultat. – L’événement est un fait, jugé significatif, dont l’apparition va déclencher une réponse de l’organisation sous forme de déroulement d’activités, de tâches, d’opérations. Cet événement peut être d’origine externe (l’arrivée d’un client ou la livraison d’un fournisseur) ou interne (une panne de machine ou la fin de la réparation du véhicule) ou lié au déroulement du temps (fin de la journée de travail. . .). L’événement doit être considéré comme significatif par ceux qui analysent le fonctionnement de l’organisation, c’est-à-dire qu’il est lié au déclenchement d’une opération que l’on souhaite décrire. – L’opération (activité) est une action, ou un ensemble d’actions, déclenchée par un ou plusieurs événements. Cette opération décrit des transformations de flux informationnels et/ou physiques et produit au moins un résultat observable. Le contrôle des marchandises livrées par le fournisseur est un exemple d’opération (déclenchée par l’événement livraison) ; elle aboutit à vérifier et peut-être à rectifier les quantités livrées pour chaque produit annoncé. Cette opération a une certaine durée. – Le résultat est ce qui est produit par le déroulement normal de l’opération. L’opération de contrôle des livraisons produit comme résultat des livraisons contrôlées, c’est-à-dire des produits prêts à être rangés en stock. L’opération de facturation produit un résultat directement observable : la facture. Une opération peut produire plusieurs résultats simultanément (par exemple, un visiteur commercial effectuant l’opération visite d’un client peut produire une commande et un rapport de visite. . .). Exemple Dans le cas des Grands Garages du Sud, l’arrivée d’un client avec son véhicule à réparer constitue un exemple d’événement ; cet événement va déclencher une opération d’accueil qui comprend différentes actions : identification du client et du véhicule, examen et diagnostic du véhicule.. . Cette opération transforme la demande du client (éventuellement peu précise) en une décision de réparation clairement spécifiée. Elle va produire un résultat identifiable : un ordre de réparation. Cet ensemble événementopération-résultat peut être considéré comme un processus fonctionnel : l’accueil client (ou, exprimé de manière plus active par un verbe : accueillir client). Si l’on considère les besoins en information engendrés par le déroulement du processus, on peut remarquer : – qu’il faut d’abord saisir l’événement pour qu’il puisse être repéré dans l’organisation : on enregistre des faits (quel client ? pour quel véhicule ? quel problème rencontré ?) ; cette saisie correspond à un message d’entrée qui concrétise l’événement et lui confère une existence repérable pour l’organisation ; – qu’il faut, ensuite, effectuer les différentes actions demandées : quelle réparation ? à quel tarif ? quelles pièces changer ?. . . Cela exige de disposer d’informations détaillant les opérations de réparation à effectuer (nature, durée, coût), d’informations sur la disponibilité des pièces détachées à fournir au cours d’un dialogue entre le chef d’atelier et le client ; – qu’il faut matérialiser le résultat du processus par un message ; dans cet exemple, l’ordre de réparation concrétise un accord entre le client et le chef d’atelier pour effectuer une certaine intervention sur le véhicule ; il permet de – – – – – – – mémoriser ce résultat. Ce rapide examen d’un exemple simple de processus aboutit à deux conclusions importantes : 1 – le déroulement du processus consomme de l’information : pour identifier l’événement, pour permettre le déroulement de l’opération, pour mémoriser le résultat ; 2 – le déroulement du processus produit de l’information : en cours de processus, l’examen du véhicule et le dialogue avec le client ont abouti à un diagnostic qui justifie l’intervention ; la décision de réparer, avec la spécification des réparations à effectuer, se traduit par l’apparition de nouvelles informations incorporées dans l’ordre de réparation. La conséquence immédiate de cette dernière remarque est de montrer l’existence de liens entre les différents processus représentatifs du fonctionnement de l’organisation. La production d’un résultat par un processus peut constituer un événement pour déclencher un autre processus ; un résultat est, éventuellement, aussi un événement. Exemple Le résultat du processus « accueillir client » est un ordre de réparation : l’arrivée de cet ordre de réparation constitue un événement déclenchant pour un autre processus que l’on peut appeler « réparer véhicule ». Cela nous conduit directement à examiner les besoins en information découlant de la nécessaire communication entre processus fonctionnels. L’information entre processus Un processus, dont les frontières sont librement fixées par celui qui analyse le fonctionnement de l’organisation, décrit un domaine d’activité ; l’organisation dans son ensemble sera donc représentée par un ensemble de processus interdépendants. Ces processus sont de différentes natures : – processus opérationnels correspondant aux activités directement liées à la mission de l’organisation (par exemple, pour le garage, réparer les véhicules, vendre des véhicules neufs, vendre des pièces détachées.. .) ; – processus managériaux de nature identique dans différentes organisations correspondant aux activités de gestion des processus opérationnels et des ressources qui y sont liées (par exemple, embaucher, contrôler les coûts, planifier les investissements.. .). Ces processus sont interdépendants: leurs déroulements sont liés par des contraintes d’ordre (par exemple, « réparer véhicule » ne peut se dérouler qu’après « accueillir client » et facturer ne peut se dérouler qu’après « réparer véhicule ») pour des processus séquentiels ; certains processus peuvent se dérouler de manière parallèle mais synchronisée (par exemple, pour un transporteur aérien, le processus « embarquer les passagers » et le processus « préparer l’avion » doivent être synchronisés) ; de manière plus générale, les processus doivent échanger de l’information. Ils peuvent partager des données communes (produites par l’un et utilisées par un ou plusieurs autres). Ils doivent être coordonnés pour que les objectifs de l’organisation soient atteints : cette coordination induit des besoins de partage de représentations, donc de communication, que doit assurer le système d’information. Selon cette approche, dans une vision purement fonctionnelle, l’organisation est vue comme un ensemble de processus coordonnés qui doivent se dérouler pour que les objectifs soient atteints. On peut visualiser cette interdépendance des processus par une matrice : l’architecture d’information, présentant en ligne les différents processus et, en colonne, les classes de données, c’est-à-dire les ensembles de données produits par chaque processus. Dans ce tableau, la lettre C indique que le processus crée la classe de données, la lettre U indique que le processus utilise la classe de données (une classe de données peut être utilisée par différents processus). La figure 13 fournit un extrait de l’architecture d’information correspondant aux Grands Garages du Sud. Cette représentation montre bien l’interdépendance des processus de gestion qui doivent échanger des informations pour que l’organisation fonctionne de manière cohérente. Cet impératif de cohérence justifie le recours au système d’information pour assurer cette fonction de partage de représentations et de communication indispensable. La structuration et l’intégration des systèmes de travail – – – – – – – – Si l’on souhaite mieux comprendre les mécanismes du fonctionnement de l’organisation, il est nécessaire de compléter l’analyse en termes de processus par une étude des conditions concrètes de réalisation des activités au sein de l’organisation donc, en particulier, de la mobilisation des ressources au sein d’un système de travail. Après avoir décrit en quoi consiste un système de travail, nous préciserons la nature des relations entre système d’information et système de travail en faisant émerger les différents rôles du système d’information. 1. L’exécution des processus : système de travail La notion de processus traduit un aspect purement fonctionnel : « Quoi faire ? », « Quelles activités exécuter ? ». Cela permet de caractériser certains apports du système d’information : la fourniture de représentations. Mais l’exécution du processus nécessite le recours à des ressources, mobilisées dans un certain contexte, c’est-à-dire à un système de travail combinant les différents éléments nécessaires ; ces différents éléments sont : – un (ou plusieurs) acteur(s) : participant doté d’une certaine autonomie dans l’action. Cet acteur, capable d’interpréter des représentations, est chargé d’un rôle organisationnel (le rôle correspond à l’ensemble des opérations, des activités qui lui sont attribuées pour exécution par l’organisation). Il dispose de connaissances relatives à ce rôle : connaissances générales (correspondant à ses compétences) et connaissances spécifiques. Ces dernières sont traduites dans un mode opératoire, c’est-àdire dans des procédures indiquant, de manière plus ou moins stricte, les règles à appliquer, les contraintes à respecter pour l’exécution des différentes opérations qui lui sont confiées. Ce mode opératoire, qui prescrit une manière de travailler, peut être exprimé sous forme orale, sous forme de consignes écrites ou incorporé dans un logiciel. Exemple Dans le cas des Garages du Sud, l’organisation confie au chef d’atelier le rôle d’accueillir le client, de diagnostiquer les réparations et affecter le véhicule à réparer à un mécanicien. Le mode opératoire lui impose certaines obligations : demander la carte grise pour identifier le véhicule et son propriétaire, demander les coordonnées du client, procéder lui-même à l’inspection du véhicule, établir, en accord avec le client, l’ordre de réparation conformément à un modèle imposé. On notera que certains systèmes de travail exigent la collaboration de plusieurs acteurs ; dans ce cas, le mode opératoire peut préciser, de manière détaillée, le rôle de chacun ou, au contraire, laisser au groupe le soin de régler le problème de la répartition des tâches ; – des ressources technologiques : pour l’exécution des opérations demandées, l’organisation met à la disposition des acteurs des ressources variées : outils, technologies de traitement de l’information, données. . . utilisables dans un certain contexte (spatial et temporel). Ces ressources peuvent être mobilisées conformément au mode opératoire ; elles sont propres à l’acteur ou partagées avec d’autres acteurs. Exemple Toujours dans le même exemple, le chef d’atelier dispose, à son poste de travail, d’un logiciel qui lui permet de saisir les données véhicule, les données client, de chiffrer le coût prévisionnel des réparations, d’imprimer l’ordre de réparation. . . Les mécaniciens partagent l’usage de différents postes de travail dotés d’équipements variés (ponts, appareils de diagnostic, air comprimé.. .). On notera : 1 – que les modes opératoires sont plus ou moins stricts et que les acteurs ont des possibilités plus ou moins largement ouvertes d’interpréter, voire d’utiliser les représentations qui leur sont fournies ; c’est l’utilisateur-acteur qui détermine l’intérêt des représentations qui sont à sa disposition ; 2 – que la définition plus ou moins stricte des rôles et des modes opératoires peut laisser la place pour une certaine flexibilité interprétative de la technologie de l’information utilisable. Exemple Dans le cas du chef d’atelier, la procédure d’établissement de l’ordre de réparation est définie de manière stricte ; en revanche, la pratique de l’examen du véhicule comme la décision d’affectation du véhicule à un mécanicien déterminé sont laissées, sans consignes – – – – – – – – – – – – – – particulières, à son initiative. Par conséquent, on peut donc observer des écarts entre ce qui est prescrit par le rôle officiel et les modes opératoires affichés d’une part et ce qui est effectivement pratiqué d’autre part. L’acteur s’adapte, en fonction de ses objectifs propres et des contraintes qu’il supporte, en modifiant éventuellement le mode opératoire et l’usage correspondant du système d’information. 2. Les différents rôles du système d’information L’articulation entre système de travail et système d’information peut correspondre à différentes modalités : 1 – Le système d’information est une source externe d’informations pour le système de travail à qui il fournit des représentations. Exemple Le système d’information comptable envoie au service commercial une liste de clients à relancer. 2 – Le système d’information est un outil interactif, mobilisable à la demande des acteurs pour leur système de travail : l’acteur gère à son gré la production des représentations. Exemple Le représentant dispose d’un accès, à partir de son ordinateur portable, à une base de données de clients et de prospects de son secteur ; la consultation de cette base a un caractère strictement facultatif. 3 – Le système d’information est intégré dans le système de travail : son utilisation est obligatoire. Exemple Le chef d’atelier des Grands Garages du Sud doit, impérativement, utiliser le logiciel Intégrauto pour établir l’ordre de réparation : ce logiciel est le support obligatoire du dialogue avec le client. 4 – Le système d’information ne peut pas être distingué du système de travail : il en constitue l’essence même. Exemple Pour la facturation de la réparation au client, le module correspondant du logiciel Intégrauto exécute la totalité du travail sans intervention d’un acteur et sans mobilisation d’autres ressources. L’examen de ces différents types de relations entre système de travail et système d’information permet de mettre en évidence les différents rôles du système d’information : 1 – Dans tous les cas, le système d’information fournit des représentations aux acteurs : il informe le processus de travail. 2 – Dans le cas no 3, intégré dans le système de travail, le système d’information structure le processus de travail : il impose un mode opératoire à l’acteur et assure le respect d’une certaine formalisation (le logiciel impose, en pratique, de poser certaines questions au client dans un certain ordre ; le dialogue est directement structuré par l’enchaînement des questions tel que prévu par le logiciel). Dans le cas où plusieurs acteurs interviennent dans le processus, le système d’information va coordonner l’action de ces différents acteurs : par exemple, le chef d’atelier affecte la réparation à effectuer à un mécanicien en mettant à jour un planning des réparations ; ce planning, consulté puis mis à jour par chaque mécanicien, au début et à la fin de la réparation, assure la coordination entre le chef d’atelier et les différents mécaniciens. 3 – Dans le cas no 4, le système d’information automatise le processus de travail : il limite le rôle de l’acteur au déclenchement des opérations. Dans la réalité, les différentes fonctions du système d’information sont imbriquées et il n’est pas toujours facile de les distinguer. Conclusion Le système d’information a un impact sur le fonctionnement de l’organisation par la fourniture, dans des conditions déterminées, des représentations nécessaires aux différents acteurs du processus de travail. Mais, au-delà de ce rôle général d’information, très souvent, les formes évoluées de l’usage des technologies de l’information confèrent au système d’information des rôles de structuration, d’intégration, de coordination et d’automatisation susceptibles de modifier fortement les conditions de fonctionnement de l’organisation. L’existence de ces rôles justifie dans une certaine mesure le recours aux technologies de l’information comme instrument du changement organisationnel selon une perspective ingénierique (figure 14). Selon cette perspective, les choix organisationnels concernant différents paramètres (processus, coordination, contrôle. . .) peuvent être satisfaits par des choix technologiques relatifs aux technologies de l’information et à la conception des systèmes d’information ; les technologies de l’information (TI) sont un instrument maîtrisable au service d’un changement planifié de l’organisation. Cette approche, utilisée en particulier dans la réingénierie de processus, est cependant contestée ; les éléments de la discussion seront exposés ci-après dans le paragraphe consacré aux relations entre système d’information et structure de l’organisation. – – – – – – – – 42 Le système d’information, élément constitutif de la structure de l’organisation L’analyse du fonctionnement de l’organisation a montré l’existence de liens étroits entre système de travail et système d’information. Ces relations étroites entre technologies de l’information et organisation se confirment dans une analyse structurelle qui met en évidence les propriétés relativement stables de toute organisation. Le système d’information apparaît comme un élément constitutif important de la structure organisationnelle pour deux raisons complémentaires : – tout d’abord parce que la construction de tout système d’information implique des choix déterminants quant à la conception de l’organisation ; – ensuite parce que la dynamique de l’évolution de l’organisation n’est indépendante ni des propriétés initiales des systèmes d’information qu’elle abrite, ni des conditions de leur utilisation. 412 Construction du système d’information et conception de l’organisation La résolution des problèmes liés à la construction d’un système d’information appelle de nombreuses décisions ayant un impact direct sur les propriétés structurelles de l’organisation. L’analyse des difficultés rencontrées montre bien l’interdépendance des choix techniques et des choix organisationnels. 1. Les choix liés à la construction du système d’information Le processus de construction délibérée déjà évoqué dans le paragraphe 3.2.1 ci-avant (et repris en détail dans le chapitre 7 du présent ouvrage) implique plusieurs choix importants : – choix relatifs au partage de l’information entre les acteurs : construire le système d’information démarre par une définition des besoins à satisfaire ; quelles représentations doit fournir le système à construire ? Pour qui ? Déterminer quelles représentations seront accessibles à chaque acteur aboutit à définir une structure d’information de l’organisation, c’est-à-dire les règles de partage de l’information en réponse à la question : « Qui doit savoir quoi ? » Bien entendu, cette répartition n’est pas indépendante d’une autre série de décisions concernant les rôles que chaque acteur doit remplir et les pouvoirs de décision qui lui sont conférés : structure d’information (qui doit savoir quoi ?) et structure de décision (qui doit décider de quoi ?) sont, pour des raisons évidentes de pertinence, étroitement liées. La construction du système d’information suppose donc que l’on résolve, explicitement ou implicitement, le problème de la répartition du pouvoir dans l’organisation, donc celui des relations de domination entre les différents participants ; – choix relatifs au degré d’intégration du système d’information : décider de quelles représentations un acteur a besoin, c’est faire des hypothèses sur le rôle qu’il doit remplir dans le processus de travail. Selon les solutions que l’on envisage pour le système d’information (séparé ou intégré dans le système de travail), la nature de la définition du rôle sera plus ou moins affectée. Comme nous l’avons montré, le choix d’un – – – – système d’information séparé du système de travail laisse la plus grande latitude à l’acteur dans la conduite du processus ; à l’inverse, le choix d’un système d’information intégré au système de travail a pour conséquence une forte structuration du processus de travail par l’instauration de normes d’exécution incorporées dans le logiciel. Le degré de formalisation du rôle comme le degré d’autonomie de l’acteur sont donc dépendants de la nature du système d’information retenu ; le cas extrême est celui de la formalisation complète du processus sous forme d’un algorithme aboutissant à l’automatisation du rôle. Les choix techniques se révèlent en définitive être également des choix de degré de formalisation, de niveau de standardisation des processus ; – choix relatifs aux technologies de communication : la très grande majorité des systèmes d’information est constituée de systèmes collectifs où plusieurs acteurs vont communiquer pour coordonner leurs actions. La très grande variété des outils de communication utilisables (téléphone, imprimé, messagerie électronique, vidéoconférence. . .) impose des choix techniques qui ont des conséquences immédiates sur les procédés de coordination effectivement utilisables (ajustement mutuel, standardisation. . .). De la même manière, la communication effective entre les participants (comme nous le montrerons dans le chapitre 4) est dépendante de l’existence de représentations partagées, c’est-à-dire de représentations auxquelles les différents utilisateurs attachent la même signification (le même sens). Par conséquent, à la fois par la définition du contenu des représentations et par le choix des médias à utiliser, la conception du système d’information exerce une influence déterminante sur les pratiques de coordination à l’intérieur de l’organisation. Conclusion : même sans prétendre traiter la totalité du sujet, les exemples rappelés ci-avant montrent bien que les choix relatifs à la construction des systèmes d’information sont, au-delà de leur aspect technique immédiat, de véritables choix organisationnels, affectant directement les caractéristiques majeures de la structure : division du travail (degré de spécialisation), répartition du pouvoir (centralisationdécentralisation), standardisation et formalisation (procédés de définition des règles et des normes), procédés de coordination. . . 2. Les difficultés pratiques et leurs conséquences L’analyse ci-avant a montré l’interdépendance profonde existant entre des choix, en apparence techniques, liés à la construction du système d’information et des choix organisationnels déterminant des caractéristiques importantes de l’organisation. Cette interdépendance se traduit par une exigence de cohérence organisationnelle qui s’ajoute à la contrainte de pertinence déjà évoquée. Mais cette exigence de cohérence se révèle, dans la pratique, fort difficile à satisfaire pour différentes raisons : – le système d’information à construire est souvent spécifié de manière locale, pour répondre à des besoins définis, de manière limitée, pour un certain domaine alors que la recherche de réponses cohérentes exigerait un périmètre de définition plus étendu ; Exemple Dans une entreprise, on veut construire un système d’information pour tenter de résoudre certains problèmes de contrôle de stocks au magasin de pièces détachées. La solution de certaines questions liées aux procédures d’approvisionnement nécessiterait une réflexion plus approfondie sur la définition du rôle des acheteurs et la mise en place de nouveaux types de relations avec les fournisseurs. Ces questions n’ont pas été incluses dans le périmètre de construction envisagé pour le niveau système d’information, limité au magasin. les exigences de la construction en matière de délais comme la limitation des ressources affectées au projet de construction (en particulier les compétences disponibles dans le groupe de projet) font que l’on essaie de limiter l’ampleur et la complexité des changements à effectuer. Exemple Dans le cas cité ci-dessus, le groupe de projet ne comprend que des spécialistes des technologies de l’information et un responsable du magasin. Ce dernier, même s’il est en partie conscient des problèmes liés à la définition du rôle des acheteurs et des relations fournisseurs, préfère résoudre les questions urgentes à son niveau et ne pas retarder la solution en élargissant la réflexion au-delà de son domaine de responsabilité. Les – – – – – – conséquences de cette non-cohérence sont importantes, comme l’illustre le cas classique de l’articulation structure d’information-structure de décision développé ci-dessous. La structure de décision décrit, à un instant donné, la façon dont le pouvoir de décision est réparti dans l’organisation. À cette structure de décision correspond une structure d’information décrivant le partage de l’information. En application du principe de pertinence, il serait légitime d’affirmer que le partage de l’information est imposé par le partage préalable des activités de décision. En pratique, cette cohérence entre les deux structures est rarement parfaite pour des raisons variées : – complexité très grande du problème tenant à la multiplicité des centres de décision et des événements à prendre en considération ; – incertitude sur le contenu des modèles de gestion utilisables, donc sur la pertinence des fonctions d’information ; – évolutivité des besoins conduisant à remettre en cause à la fois les modèles de gestion et le partage des « espaces de décision ». Dans ces conditions, il est assez fréquent de constater des divergences entre la structure de décision et la structure d’information. Les symptômes les plus classiques sont des plaintes relatives à l’« absence de communication » et les conséquences les plus immédiates sont : – des décisions inappropriées : on « décide mal » (par exemple, émission d’une commande par le magasin pour un composant que le bureau des études techniques a décidé de ne plus utiliser) ; – des absences de décision : on « ne décide pas » (le décideur ne reçoit pas l’information déclenchant son processus de décision). Cette pathologie chronique de l’organisation se corrige : . soit de manière réfléchie : une analyse des conditions d’information et de décision conduit à réétudier les procédures et à partager, de manière éventuellement différente, décision et information ou à introduire de nouveaux mécanismes de coordination ; . soit de manière spontanée par des processus d’ajustement laissés à l’initiative des acteurs et découlant de leur stratégie personnelle. Ainsi, assez souvent, le pouvoir de décision effectif se déplace de son « titulaire officiel » vers l’individu détenteur d’informations importantes. (Ainsi entend-on fréquemment des phrases du type : « Pour cette affaire, M. X. est normalement compétent mais allez donc voir M. Y., il est très au courant du problème. ») Dans cette hypothèse, la structure de décision s’adapte à la structure d’information ; les acteurs peuvent développer des stratégies de rétention d’information pour acquérir ainsi un pouvoir de décision qui ne leur était pas formellement reconnu à l’origine. Dans d’autres cas, le détenteur du pouvoir formel déclenche un processus de recherche d’informations et met en place des procédures plus ou moins formalisées pour obtenir un niveau de pertinence acceptable pour les représentations qu’il souhaite utiliser. Ces observations révèlent les difficultés que l’on rencontre pour assurer à la fois la pertinence au niveau de chaque acteur et la cohérence au niveau collectif. Elles montrent qu’il est sans doute illusoire de vouloir rechercher des solutions définitives de cohérence dans des domaines en évolution continue. Cela nous conduit directement à élargir la discussion des aspects statiques de la construction du système d’information aux aspects dynamiques de l’évolution de l’organisation en liaison avec l’utilisation des différentes technologies de l’information implantées en son sein. 42 2 Usage du système d’information et évolution de l’organisation Une fois conçus puis implantés, les systèmes d’information sont utilisés ; cette utilisation, comme nous l’avons montré ci-avant, se traduit par un phénomène d’appropriation par les utilisateurs. À court terme, les caractéristiques de la structure organisationnelles sont considérées comme stables ; mais, en fait, les structures organisationnelles évoluent en permanence et, en longue période, on ne peut plus considérer qu’elles constituent un cadre immuable pour le fonctionnement quotidien. On doit donc s’interroger sur les effets de long terme de l’introduction de nouvelles technologies de l’information dans l’organisation aboutissant à l’usage de nouveaux systèmes d’information, donc sur la dynamique du changement organisationnel qui lui est associée. La perspective ingénierique que nous avons évoquée précédemment considère que les technologies de l’information sont un instrument parfaitement maîtrisable au service d’objectifs de changement planifié mais l’observation des entreprises suggère que cette vision (optimiste) ne traduit pas la complexité du phénomène : la non-réalisation de certains objectifs comme l’apparition d’effets non voulus révèlent les imperfections de la théorie. Pour essayer de mieux expliquer la dynamique du changement organisationnel liée à l’introduction des technologies de l’information, deux autres visions ont été proposées : – celle du déterminisme technologique conférant à la technologie un rôle moteur, une capacité structurante ; – celle, plus récente, définie en termes d’interaction, qui adopte une position de déterminisme aménagé en reconnaissant à la fois les capacités structurantes des technologies et le rôle du contexte social dans un processus de coévolution. – – 1. La vision du déterminisme technologique Cette vision a été adoptée, à l’origine, par certains théoriciens des organisations, partisans d’une théorie contingente des organisations. Dans cette perspective, on essaie de mettre en évidence des facteurs généraux susceptibles d’expliquer la nature et l’étendue des changements observés dans les organisations. La technologie utilisée constitue un de ces facteurs généraux : c’est une variable motrice expliquant les changements observés dans l’organisation. L’application de cette théorie au cas particulier des technologies de l’information a fait l’objet de nombreux travaux empiriques : par exemple, on a tenté de vérifier que l’introduction des technologies de l’information dans les organisations conduisait à la réduction du nombre de niveaux hiérarchiques et à l’aplatissement de la structure ; que l’usage accru des technologies de l’information augmentait le degré de centralisation ou, à l’inverse, le degré de décentralisation ; que l’usage des technologies de l’information accroissait le degré de formalisation et de standardisation des processus, qu’il conduisait à une diminution de la taille des organisations ou qu’il engendrait l’apparition de formes de coopération en réseaux d’entreprises 1. . . Malgré la très grande diversité des travaux publiés, la perspective du déterminisme technologique n’a produit que peu de résultats incontestés et encore moins de modèles explicatifs pertinents. Cependant, elle a eu le mérite de montrer que la perspective ingénierique ne pouvait être adoptée sans précaution et qu’il existait un risque certain d’effets non voulus lors du recours à un usage accru des technologies de l’information. Même si peu de résultats concluants peuvent être évoqués, on s’accorde aujourd’hui sur l’existence de transformations organisationnelles impulsées par l’usage des technologies de l’information (les résultats les plus nets sont ceux concernant les degrés de formalisation et de standardisation) ; les technologies de l’information ne sont pas structurellement neutres et peuvent exercer des effets sur certaines caractéristiques de l’organisation. Mais ces effets ne sont pas aussi systématiques que le prétend la théorie du déterminisme technologique. Cette remarque conduit à retenir une vision plus élaborée du changement organisationnel en relation avec l’usage des systèmes d’information : la perspective interactionniste. 2. La vision interactionniste Cette vision interactionniste d’un processus d’évolution organisationnelle s’appuie sur la théorie de la structuration d’A. Giddens. Dans cette perspective, le modèle situe les acteurs au centre d’un modèle dynamique d’évolution (voir figure 16) ; la théorie reconnaît à la fois la liberté des acteurs et l’influence de la structure sociale. De manière plus précise, elle suppose l’existence d’une relation récursive entre les actions des acteurs et la structure : les actions des acteurs sont permises par la structure sociale ; cette structure sociale est actualisée et éventuellement modifiée par les actions récurrentes des acteurs. La structure affirme sa dualité : elle contraint et facilite l’action des acteurs ; elle est également le résultat de ces actions. Pour Giddens, la structure sociale n’a qu’une existence virtuelle : elle est évoquée et actualisée lors des interactions entre acteurs. Toute action peut être analysée selon trois dimensions, en pratique imbriquées : sa signification (elle est porteuse de sens), le pouvoir qu’elle représente (structure de domination), sa légitimité (respect des normes, des règles morales). Ce sont ces trois dimensions qui, pour Giddens, caractérisent les propriétés structurelles de l’organisation. Selon ce modèle, l’introduction de la technologie peut influer sur la constitution de sens (dimension 1), sur l’allocation de ressources, donc la distribution du pouvoir (dimension 2) et sur les normes 1. Pour les travaux empiriques portant sur des entreprises françaises, cf. M. Kalika, Structures d’entreprises, Economica, 1988. de fonctionnement (dimension 3). Cette évolution se réalise par l’intermédiaire du processus d’appropriation (évoqué plus haut) : l’usage des nouveaux systèmes d’information modifie les pratiques quotidiennes (les routines), il entraîne le renforcement de certaines, la disparition d’autres désormais inutilisées, l’apparition de formes nouvelles d’action : il fait émerger des règles (conventions d’utilisation, modes opératoires) et des ressources (fonctionnalités) qui, à leur tour, structureront les futures interactions. – – – – – – – Le modèle de base, résumé par la figure 16, fait apparaître quatre types de relations, intégrées dans une dynamique récursive : – relation 1 : les technologies de l’information facilitent et contraignent l’action des individus (le système d’information offre des ressources mais impose des règles et des modes opératoires) ; – relation 2 : les actions des acteurs construisent la technologie (les problèmes de la construction, délibérée et émergente, ont été présentés ci-dessus) ; – relation 3 : les structures sociales, les propriétés institutionnelles affectent les utilisateurs dans leur interaction avec les technologies de l’information (rôle des dirigeants, politiques relatives à la diffusion de la technologie.. .) ; – relation 4 : les interactions entre acteurs et entre acteurs et technologies reproduisent ou transforment les structures sociales (la modification des routines, l’apparition ou la disparition de certaines d’entre elles font évoluer les structures de signification, de domination et de légitimation). Ce modèle de base reconnaît donc une certaine influence des technologies de l’information (on évoque le terme de déterminisme aménagé) sur les caractéristiques structurelles mais le caractère non automatique de ces effets (en raison des incertitudes sur le comportement des acteurs) ; il ne nie pas la possibilité d’une action sur les processus d’appropriation (puisqu’il reconnaît l’influence des structures sociales sur l’action des acteurs) tout en montrant le caractère partiellement aléatoire de ces interventions. Il dépasse, en les intégrant, les visions du modèle ingénierique et celles du modèle du déterminisme technologique. 4 3 Conclusion La diffusion rapide des technologies de l’information via le développement de systèmes d’information constitue un fait majeur de la vie des entreprises. Ces technologies (de calcul, de mémorisation, de communication.. .) sont avant tout des technologies d’organisation qui affectent les conditions du déroulement des processus et les paramètres structurels. Cette influence va au-delà des frontières strictes (juridiques) de l’organisation : l’existence de systèmes d’information interorganisationnels entre entreprises partenaires, ou de systèmes ouverts sur l’extérieur (sites Internet par exemple) modifie également les conditions des relations entre l’entreprise et son environnement et remet en cause la notion même de frontières de l’organisation. Sur les différents points que nous avons évoqués dans ce paragraphe, il paraît pertinent de dépasser les frontières juridiques de l’organisation et de considérer comme domaine d’étude l’entreprise étendue à son réseau de partenaires habituels (clients, fournisseurs, sous-traitants ou cotraitants. . .). On retrouve, dans ce cadre élargi, des problématiques sensiblement identiques à celles qui ont été évoquées ici. Pour résumer La notion de système d’information dans sa triple dimension, informationnelle, technologique et organisationnelle, révèle sa complexité. Pour bien comprendre les problèmes rencontrés par les entreprises dans ce domaine, il est indispensable de prendre en compte simultanément ces trois aspects qui n’ont été présentés de manière séparée que pour des raisons pédagogiques. Les problèmes rencontrés par les entreprises sont de deux ordres : – Il est nécessaire de bien appréhender à quels usages peuvent être destinés les systèmes d’information à construire ; cette problématique, qui considère le système d’information comme un INSTRUMENT DE GESTION pour la conduite de l’organisation, sera l’objet de la première partie de l’ouvrage (chapitres 2 à 5) ; y seront présentés les principaux types d’utilisation des systèmes d’information de gestion. – Le système d’information est une construction durable insérée dans l’organisation. Il constitue donc une entité qu’il faut gérer à différents niveaux et sur différents horizons temporels. En ce sens, c’est un OBJET À GÉRER qui doit être finalisé, organisé, animé et contrôlé. Ces différentes problématiques de la gestion des systèmes d’information seront l’objet de la seconde partie de l’ouvrage (chapitres 6 à 8). – Première partie : Les usages des systèmes d’information Le principe du programme enregistré apporte aux technologies électroniques de traitement de l’information une très grande flexibilité potentielle d’utilisation. La réalité des systèmes d’information est, par conséquent, aujourd’hui fort diverse. Les quelques exemples présentés ci-après ne constituent qu’un échantillon, fort restreint, de la variété considérable des réalisations. 1. Tous les cadres de l’entreprise Lambda disposent d’un micro-ordinateur équipé du logiciel MSOffice (traitement de texte, tableur, gestionnaire de données) et d’un logiciel de messagerie électronique ; ils peuvent ainsi créer des documents, manipuler des tableaux, effectuer des calculs, exploiter des fichiers et communiquer avec leurs correspondants par courrier électronique. Ils disposent également d’un accès à Internet et d’un accès à l’Intranet de l’entreprise pour des besoins de communication interne. 2. La société Air Alpha vient de mettre en place un système de vidéoconférence entre ses établissements répartis dans le monde entier. Ce système est utilisé pour les réunions et la formation à distance. Depuis plusieurs années, Air Alpha impose à ses fournisseurs et à ses sous-traitants l’utilisation de l’EDI (échange de données informatisées) pour toutes les transactions (commande, livraison. . .). 3. La société de grande distribution Carchan a installé dans tous ses points de vente des terminaux spécialisés à la place de ses caisses enregistreuses traditionnelles : un lecteur de codes-barres permet de reconnaître les produits achetés ; grâce à la consultation de la base de données « produits », le prix effectif est reconnu, la facture est calculée, les stocks sont mis à jour ; le paiement est également enregistré. À chaque instant, il est possible de connaître les recettes réalisées, les ventes par catégories de produits, l’état des stocks de chaque produit. . . 4. Dans la société Carchan (voir ci-dessus), tous les soirs, les responsables de produits reçoivent sur leur poste de travail un tableau montrant le chiffre d’affaires réalisé par produit dans la journée et le rapprochement de ces réalisations avec les objectifs de vente. 5. Le directeur de l’entreprise de bâtiment et travaux publics Satep dispose d’un système d’information lui permettant de suivre, à la demande, l’état et les conditions d’avancement des principaux chantiers ; il peut, à l’aide de quelques requêtes simples, visualiser le planning et les écarts de délais, le budget et les écarts de coûts. . ., et obtenir, par questions successives, plus d’informations détaillées sur le déroulement effectif de chaque chantier. 6. Dans la société Technix (fabrication d’automates industriels), le directeur de l’usine dispose d’un logiciel de simulation de charge qui lui permet d’évaluer à l’avance les conséquences du lancement en fabrication d’une commande (délais, goulets d’étranglement dans les ateliers, insuffisances ou excès de capacité. . .). Il utilise régulièrement ce logiciel pour décider des délais de livraison à garantir aux clients, pour passer des ordres aux sous-traitants. . . 7. Le cabinet d’architecture Artec utilise des micro-ordinateurs, des tables traçantes et un logiciel de conception assistée par ordinateur pour établir les plans demandés par les clients. 8. À la banque Crédit moderne, on dispose d’un logiciel spécialisé pour l’instruction des dossiers de demandes de crédit présentées par les entreprises. Ce dossier, préparé sous forme électronique par le chargé d’affaires, peut être consulté par le directeur d’agence, le directeur de groupe, la direction des risques. . . ; chaque intervenant peut compléter le dossier et il est possible de connaître, à tout moment, le degré d’avancement de l’affaire. Cette banque vient également d’équiper son siège social d’une salle spécialement conçue pour les réunions assistées par ordinateur. 9. La société Novacom est une jeune entreprise qui se consacre au commerce électronique. Elle propose sur Internet son catalogue de produits (son, images, vidéo) ; les commandes sont enregistrées et réglées sur le site Web; elles sont transmises aux différents fournisseurs qui assurent directement la livraison. Cette variété importante des réalisations répond à différents besoins : certains systèmes supportent directement des opérations ou des transactions (cas 3, 7, 9 ci-dessus), d’autres fournissent des informations indispensables aux managers dans leurs activités de planification et de contrôle (cas 4, 5, 6, et également 1 ci- dessus), d’autres assurent des fonctions de communication interne et externe (cas 1, 2, 8 cidessus). . . Beaucoup de systèmes d’information combinent, en une application unique, des fonctionnalités multiples (comme le suggèrent certains exemples ci-dessus). Par conséquent, toute tentative de classification reste quelque peu arbitraire. Nous avons choisi de caractériser les problèmes d’utilisation des systèmes d’information en les regroupant autour de quatre thèmes : – les applications fonctionnelles correspondant aux grands domaines de la gestion (gestion commerciale, gestion de production et de l’innovation produit, gestion comptable et financière, gestion du personnel). Ces applications, initialement conçues de manière indépendante, sont généralement traitées aujourd’hui dans une perspective d’intégration. Elles seront l’objet du chapitre 2 ; – les applications de type « aide à la décision » décrivent les solutions construites sous forme de systèmes interactifs, de systèmes experts, d’entrepôt de données. . . ayant pour objet d’assister les décideurs, aux différents niveaux, dans leur processus de prise de décision. Elles seront l’objet du chapitre 3 ; – – les applications de type « aide à la communication » ont connu un développement considérable depuis les années 1980. Elles répondent aux besoins de la communication interne (coordination) et externe (information et transaction), et supportent, via Internet, l’essor du commerce électronique. Elles seront l’objet du chapitre 4 ; – – les applications d’aide à la gestion de connaissances : ce domaine, plus récent, regroupe des utilisations visant à améliorer l’acquisition, la conservation et la diffusion des savoirs et savoir-faire dans les organisations. Elles seront l’objet du chapitre 5. Chapitre 2 Les applications fonctionnelles 1. Les caractéristiques générales 2. L’évolution vers l’intégration – Au terme de ce chapitre vous devez être en mesure De définir les notions d’application et de progiciel de gestion intégré . De décrire différents types d’applications fonctionnelles dans les domaines commerciaux, comptables et financiers, de l’innovation et de la gestion de production, et de la gestion des resources humaines . De comprendre la problématique de l’intégration des systèmes d’information et de leur urbanisation qui en constitue l’un des éléments de réponse . De distinguer les systèmes intégrés et les systèmes fédérés . De comprendre les approches et les difficultés de la gestion de l’entreprise étendue et de la chaîne logistique. Dans toutes les organisations la construction des représentations collectives communes concerne en premier lieu les opérations de gestion routinières. Elles se basent sur des applications fonctionnelles qui sont de plus en plus fréquemment bâties sur des progiciels, c’est-à-dire des solutions fournies et commercialisées par des spécialistes de l’industrie du logiciel. L’organisation acquéreuse doit bien évaluer cette offre avant de choisir des paramètres parmi ceux offerts par l’application. Elle doit aussi s’assurer de son interopérabilité avec ses autres applications au regard de sa politique d’urbanisation. Historiquement, dans la très grande majorité des entreprises (de l’ordre de 80% d’entre elles), les ordinateurs ont d’abord été utilisés dans trois types de travaux : la tenue de la comptabilité générale, la facturation, la paie des personnels. Ces trois domaines présentent en effet des caractéristiques spécifiques favorisant le recours à l’automatisation : – un volume important d’opérations de même type, à caractère répétitif ; – un caractère facilement formalisable des tâches. Par la suite, les applications des technologies de l’information se sont multipliées. Nous appellerons « application » (au sens particulier d’« application informatique ») un ensemble de programmes (logiciels) articulés entre eux, utilisés pour automatiser ou assister des tâches de traitement de l’information dans un domaine particulier. Une application est donc caractérisée par : – un champ d’application défini soit structurellement (un poste de travail, un service ou un département), soit fonctionnellement (une fonction telle que la gestion des commandes clients ou le calcul des coûts de production). Les frontières de l’application sont fixées, dans chaque cas, en fonction des besoins exprimés et des contraintes de réalisation (une application est une unité de conception et de mise en oeuvre qui ne doit pas, pour des raisons de praticabilité, être trop volumineuse) ; – des fonctionnalités, c’est-à-dire un ensemble de tâches à exécuter (manuellement, automatiquement, en mode mixte) à l’intérieur de ce domaine. (Ainsi la gestion des commandes peut inclure ou non la tenue d’un portefeuille de commandes ou l’envoi d’accusés de réception de commandes.) Selon les organisations et le découpage des tâches retenu, l’ensemble des fonctionnalités à assurer sera différent. Les applications « fonctionnelles » désignent des réalisations informatiques conçues pour assister la conduite des « fonctions » essentielles de toute entreprise : gestion commerciale, gestion de production, gestion comptable et financière, gestion des ressources humaines. Malgré le développement continuel et la diversification des usages des technologies de l’information, ces applications fonctionnelles constituent encore la partie la plus importante des systèmes d’information des entreprises (au moins par le volume et la fréquence d’utilisation des logiciels). Développées progressivement depuis plus de quarante ans, modifiées très souvent pour s’adapter à l’évolution des besoins d’une part, et aux progrès de la technologie d’autre part, ces applications sont très hétérogènes au niveau technique. Il ne saurait être question de décrire des solutions types finalement peu représentatives de la grande variété des réalisations observables. C’est pourquoi nous nous limiterons, dans la première partie de ce chapitre, à une description volontairement simplifiée de leurs caractéristiques générales (domaine couvert, évolution et facteurs clés de succès). Le découpage en « applications » des systèmes d’information pose, depuis toujours, des problèmes de cohérence ; aucune application ne peut être parfaitement isolée des autres et la communication entre applications doit être assurée, souvent avec difficulté. Aussi, à partir des années 1990, ont proposées des solutions « intégrées » visant à combiner dans des ensembles cohérents les différentes applications fonctionnelles. Cette approche plus récente de l’intégration, appliquée à l’ensemble de la gestion des ressources principales et étendue éventuellement aux relations partenariales de l’entreprise, sera l’objet de la seconde partie de ce chapitre. 1 Les caractéristiques générales Les systèmes d’information fonctionnels sont caractérisés par deux objectifs généraux : l’assistance pour le traitement des transactions d’une part, l’information des gestionnaires à différents niveaux d’autre part. Ils sont aussi caractérisables par des fonctionnalités et des facteurs clés de succès spécifiques à chaque domaine couvert. 1 1 Deux objectifs généraux Les systèmes d’information fonctionnels répondent à une double préoccupation : – ils supportent le traitement des transactions et des opérations ; – ils assurent la fourniture d’informations utiles pour la gestion. Ces deux types de besoin sont, en pratique, pris en compte selon des modalités très variables ; c’est pourquoi notre présentation sera limitée aux définitions essentielles. 1 1 1 Le traitement des transactions et des opérations L’analyse du fonctionnement des entreprises permet de mieux comprendre en quoi consiste la notion de transaction et d’en déduire les implications quant aux tâches à réaliser. 1. Événements, transactions, opérations Les organisations en général, les entreprises en particulier ne sont pas des systèmes fermés. Au contraire, leur survie implique des échanges avec leur environnement : ces échanges, ces transactions, commerciales et financières sont même la raison d’être des entreprises. Exemple La vente de marchandises à un client est l’exemple type de la transaction : il y a échange d’un bien (les marchandises vendues) contre un paiement en monnaie. Cette transaction se traduit donc par un double flux : flux de biens, flux de monnaie. Vue de l’intérieur de l’organisation, la transaction se traduit au départ par la réalisation d’un événement significatif, annonçant son démarrage. Exemple L’arrivée d’une commande au courrier constitue un événement significatif signalant qu’une transaction commerciale est souhaitée par un client, partenaire de la transaction. Le terme « significatif » associé à « événement » veut dire que cet événement est susceptible d’être reconnu comme tel, qu’il a un sens pour l’organisation et que celle-ci va apporter une réponse à cet événement. Cette réponse va se traduire par le déclenchement d’activités, d’opérations qui vont constituer le traitement de la transaction. Exemple L’arrivée de la commande client (événement significatif du début de la transaction) va déclencher des opérations telles que le contrôle du crédit à accorder à ce client, l’examen des stocks pour vérifier si l’on peut servir la commande, le déclenchement de la préparation de l’expédition, la facturation, la livraison. . . Par conséquent, le traitement de la transaction apparaît comme un processus, c’est-à-dire un ensemble d’opérations logiquement liées et chronologiquement enchaînées, déclenchées par un événement significatif et produisant des résultats. Exemple Les opérations déclenchées par l’arrivée de la commande vont produire comme résultats principaux l’expédition de colis au client et l’envoi de la facture. Le traitement complet de la transaction peut correspondre à plusieurs processus, déclenchés chacun par un événement significatif. Exemple Comme le montre la figure 2 (ci-dessous), dans le cas classique de la transaction correspondant à une vente à crédit, un premier processus (appelé traitement des commandes) est déclenché par l’arrivée de la commande et se termine par l’envoi de la facture et des marchandises. Un second processus (appelé traitement des règlements) est déclenché par l’arrivée du règlement du client et aboutit à une écriture comptable et à un encaissement. Ici, chaque processus correspond à un flux (réel ou monétaire) mais on peut trouver des formes quelconques (un seul processus ou plusieurs processus pour tout ou partie de la transaction). Cette représentation du traitement de la transaction correspond à une modélisation relativement grossière où l’on n’a retenu que deux événements significatifs d’origine externe (l’arrivée de la commande et l’arrivée du règlement). Il peut être utile de construire un modèle plus fin prenant en compte des événements internes (fin de la préparation, fin de l’enregistrement comptable). Ces problèmes spécifiques de modélisation seront repris dans la seconde partie de cet ouvrage . Les tâches du traitement des transactions Si l’on examine le déroulement des transactions, on constate que le processus déclenché par la réalisation de l’événement significatif comporte différents types de tâches, informationnelles ou autres, parfois combinées. On trouve principalement : – des tâches d’identification de l’événement : quelle est la nature de l’événement, quelle est son origine, à quel instant s’est-il produit ? Cette tâche d’identification va entraîner des recherches d’information, des comparaisons, des contrôles ; Exemple Reconnaître la commande (différente d’une demande de devis), l’identifier par son origine (client connu ou inconnu) et sa date. . . Tout cela implique une activité informationnelle (lecture, comparaison, recherche dans un fichier client. . .). – les tâches spécifiques de réponse : ce sont soit des tâches informationnelles et décisionnelles, soit des tâches matérielles. Exemples Contrôler le crédit du client veut dire rechercher dans un fichier client ou dans des archives que ce client existe, qu’il a réglé ou non ses précédentes factures, demander à une banque des informations.. . Cette phase d’information sera suivie d’une décision : accepter ou non la commande. – De même, dans l’hypothèse où la commande est acceptée, il faut soit prélever les marchandises sur le stock, soit les lancer en fabrication puis les emballer et les expédier, tâches matérielles qui seront exécutées grâce à un support informationnel. Par conséquent, les opérations sur l’information seront indispensables pour deux raisons : – la réponse à l’événement déclenchant la transaction implique directement des activités informationnelles pour préparer les décisions nécessaires dans le déroulement du processus ; – les opérations matérielles ne peuvent se dérouler qu’avec le concours d’un support informationnel qui précise « quoi faire, qui le fera, quand on le fera, où on le fera, comment on le fera ». Exemple La tâche de préparation des commandes sera réalisée grâce à un bordereau de préparation qui indiquera à l’employé quels sont les articles à prélever, en quelle quantité, avec quel type d’emballage.. . Comme, dans la plupart des organisations, il y a division du travail, l’organisation de la réponse à l’événement engendre des tâches supplémentaires de communication liées aux besoins de coordination ; Exemple Il est nécessaire de prévenir le magasin pour la préparation, le service « comptable » pour la facturation et assurer, en fin de préparation, une communication entre les deux pour le contrôle de la facture. – des tâches de « traçabilité » : les contraintes juridiques (légales, comptables, fiscales. . .) imposent souvent la « matérialisation » des transactions par des documents obligatoires (sous forme d’imprimés et, dans certains cas, sous forme de documents électroniques comme dans l’échange de données informatisées). Cette obligation de conserver une trace des transactions engendre des tâches supplémentaires de traitement d’information (édition, impression, communication). 1 2 1 L’information des gestionnaires Parallèlement aux activités de support ou traitement des transactions proprement dit, les systèmes d’information fonctionnels ont également comme objectif de fournir aux gestionnaires les informations nécessaires à la conduite des opérations. L’analyse des différents besoins en la matière permet de mieux comprendre la nature des solutions utilisées. 1. Les différents besoins Il est nécessaire de gérer à tous les niveaux, de celui de l’exécution quotidienne des opérations à celui de la définition des orientations stratégiques. Par conséquent, les besoins d’information des gestionnaires s’expriment d’abord dans un cadre local pour s’inscrire ensuite dans une perspective globale caractérisée essentiellement par une hiérarchisation des niveaux de gestion. . Premier point : la satisfaction des besoins locaux Le gestionnaire d’opérations doit, à son niveau de compétences, prévoir et contrôler. Il doit donc disposer des éléments d’information correspondant à la mise en oeuvre de solutions adaptées aux problèmes locaux de finalisation, d’organisation et d’animation. Remarque Le responsable du traitement des commandes doit être en mesure de prévoir le nombre moyen de commandes à traiter, de répartir la préparation des commandes entre différentes personnes, de vérifier si les délais de préparation et les critères de qualité exigés ont été respectés. Pour ce faire, il doit disposer de modèles de gestion et de représentations adaptées : – modèles prédictifs (par exemple, évolution des tonnages à expédier en fonction de la saison) dont il faut surveiller la validité en permanence (les prévisions fournies par le modèle ont pu être correctes puis devenir insensiblement moins robustes) ; – comptes rendus d’exécution permettant de suivre, en permanence, avec un très faible décalage temporel, comment se sont déroulées les opérations et quelles sont les corrections à apporter (par exemple, réagir à des retards dans la préparation des commandes par une modification dans l’affectation des employés). Cette régulation par rétroaction est généralement indispensable parce qu’on ne dispose pas de modèles prédictifs parfaitement satisfaisants. Pour le fonctionnement de ces modèles locaux, les contraintes dominantes de pertinence sont relatives à la précision (forte) et au délai (court). En revanche, ces modèles locaux de gestion sont relativement simples (nombre limité de variables). . Second point : l’intégration dans un modèle global de conduite Les besoins en information sont différents selon les niveaux de management. Le schéma simplifié traditionnel illustre ce découpage en trois couches : 1) stratégique avec l’identification des choix fondamentaux ; 2) tactique, où est contrôlée l’affectation des moyens permettant d’atteindre les objectifs définis au niveau stratégique ; 3) opérationnel, où est suivie l’exécution effective des opérations. L’articulation entre ces trois niveaux assure la cohérence de la conduite de l’organisation. Bien que les constructions varient beaucoup selon les organisations, cette hiérarchisation respecte quelques principes généraux de fonctionnement : – complexification croissante des modèles de gestion au fur et à mesure que l’on remonte vers le sommet ; – allongement de la dynamique : les temps de réponse sont plus courts à la base qu’au sommet ; – réduction du volume des informations communiquées dans la phase de communication ascendante (synthèse). Ces principes de fonctionnement (illustrés dans la figure 3) se traduisent par des conséquences pratiques importantes. 1) À partir d’un certain niveau hiérarchique (variable selon les organisations), le champ de définition du système d’information s’élargit. (Le système d’information pour la gestion de production s’élargit à la gestion commerciale.) Les informations définies dans le cadre d’un système fonctionnel donné vont devoir être combinées à d’autres informations issues de systèmes différents. 2) Des systèmes de filtres opèrent une sélection des informations remontantes. De la nature de ces filtres dépend la plus ou moins grande pertinence des représentations utilisées au niveau supérieur. 3) La durée de vie des informations utiles peut varier selon le niveau d’utilisation ; elle est généralement plus courte au niveau inférieur qu’au niveau supérieur (où les modèles de gestion ont des horizons plus longs). Cela peut introduire des contraintes spécifiques de stockage. Pour respecter ces besoins de cohérence, spatiale et temporelle, les applications fonctionnelles doivent donc dépasser le cadre immédiat des opérations gérées et les modèles locaux de gestion pour intégrer les besoins en information des niveaux supérieurs. 2. L’organisation des solutions La majorité des systèmes d’information de type fonctionnel sont organisés selon deux principes dominants pour répondre à ces bes Information d'origine externe surtout ; résumée, à champ large, peu répétitive ; orientée vers le passé, le présent et le futur. – l’exploitation de bases de données alimentées par les transactions. . Premier point : ensemble hiérarchisé de rapports À côté de l’assistance à la conduite des transactions, il est prévu, pour les gestionnaires, la production de rapports (reporting system) comportant les informations jugées essentielles. La forme traditionnelle est celle de rapports prédéfinis périodiques ; par exemple « tableaux d’analyses des ventes par produits, par régions ». . ., chaque semaine ou « tableau des écarts sur budget chaque mois ». Cette forme traditionnelle, encore très utilisée, fournit des tableaux à des degrés de synthèse différents selon les utilisateurs. Une forme plus évoluée, les rapports par exception, tend à diminuer le volume des informations transmises en ne produisant les rapports que pour les cas jugés dignes d’intérêt. Par exemple, le rapport sur les stocks est limité aux produits dont le niveau anormal de stock justifie une analyse particulière (décision d’approvisionner ou décision de liquidation). Alors que, dans les deux cas précédents, les rapports sont fournis systématiquement à des périodes fixées, certains systèmes fonctionnels prévoient la fourniture d’informations uniquement à la demande des utilisateurs. Ces derniers n’ont donc pas à attendre la future « parution » du rapport pour être informés et peuvent ainsi disposer, lorsqu’ils le veulent, des informations les plus récentes. La solution la moins évoluée consiste à fournir le rapport à l’utilisateur, selon un format prédéfini, en réponse à une demande formulée sur sa station de travail. Cette formule de rapport prédéfini à la demande tend à être remplacée par une formule plus évoluée : le manager utilisateur dispose, sur sa station de travail, d’un langage d’interrogation qui lui permet de formuler des questions sous une forme plus libre. Par exemple « liste des clients ayant réalisé plus de 10 000 E de chiffre d’affaires avec le produit A au mois de mars 2011 ». Il échappe ainsi au caractère rigide du format prédéfini. Parallèlement à cette évolution vers une adaptabilité plus grande, on note également une diversification des modes de présentation. Aux listings et tableaux rébarbatifs s’ajoutent désormais (ou se substituent) des présentations graphiques, utilisant la couleur, et des présentations mélangeant textes et images. . Second point : base de données Le fonctionnement du système de rapports (ou celui du système d’interrogation qui le remplace) repose sur des ensembles de données descriptives du domaine géré. Ces données sont issues du traitement des transactions ; elles sont stockées sous une forme organisée et leur exploitation permet de fournir les informations plus ou moins synthétisées demandées par les gestionnaires. Ces bases de données constituent donc le pivot des solutions, puisqu’elles sont la « matière première » des traitements. Exemple Dans un système de gestion commerciale, le traitement des livraisons permet de connaître la quantité de chaque produit qui est livrée et facturée à chaque client. L’accumulation de ces données permet, à chaque instant, de connaître les quantités livrées d’un produit quelconque, ventilées par régions, par périodes, par types de clientèle. . . De nombreux systèmes d’aide à la décision (voir chapitre suivant) utilisent ces bases de données, alimentées par l’enregistrement des transactions effectuées (en particulier les applications recourant à la notion d’entrepôt de données ou data warehouse). L’existence de ces données autorise la poursuite simultanée des deux objectifs : traitement des transactions et aide à la décision. 12 Des fonctionnalités spécifiques Sur ce schéma général, les systèmes fonctionnels majeurs ont été construits avec des caractéristiques très variées (pour s’adapter aux dimensions de l’entreprise, à ses moyens techniques et financiers, aux particularités de ses activités et de son organisation. . .). En raison de cette très grande variété des réalisations, nous limiterons notre description à l’énoncé des fonctionnalités couvertes et à une caractérisation sommaire des facteurs clés du succès. Seront présentés succinctement quatre systèmes fonctionnels majeurs : 1. la gestion commerciale et le marketing ; 2. la gestion de production (entreprise industrielle) ; 3. la gestion comptable et financière ; 4. la gestion des ressources humaines. 1 1 2 systèmes d’information pour la gestion commerciale et le marketing Activité vitale pour toute entreprise, la gestion commerciale peut tirer des avantages considérables du recours aux technologies de l’information. Les réalisations concrètes sont très variées ; elles dépendent en effet de nombreux facteurs : taille de l’entreprise, volume des transactions, nature des produits vendus, organisation spatiale des activités, nature de la clientèle, conditions de concurrence. . . Le développement d’Internet a modifié considérablement les possibilités de gestion de la relation client et a entraîné l’apparition du commerce électronique (ecommerce). Ce point spécifique sera repris dans le chapitre 4 (l’aide à la communication). 1. Les fonctionnalités La figure 4 fournit une représentation, par niveaux, des principales fonctions susceptibles d’être assistées (ou totalement automatisées) par des technologies de l’information. (Le découpage par niveaux, bien que souvent utilisé, reste quelque peu arbitraire.) Cette présentation appelle les remarques suivantes : – Au niveau du traitement des transactions, certaines entreprises distribuant directement au client final n’ont à gérer ni les commandes, ni la préparation des livraisons. La facturation peut être très simplifiée (fiche de caisse) et le suivi client inexistant (pas de comptes client, règlement comptant.. .). – Au niveau du contrôle, le suivi budgétaire de la fonction (rapprochement des prévisions et des réalisations) est presque toujours organisé dans un cadre général de gestion budgétaire (systèmes de rapports). – Au niveau planification, études marketing, le système d’information est du type « aide à la décision » ; les modèles utilisés peuvent être très complexes (modèles de prévision de ventes, modèles d’aides au choix de supports publicitaires. . .) ou inexistants. Les caractéristiques spécifiques de ces systèmes d’aide à la décision seront décrites dans le chapitre suivant. – Au niveau stratégique, les choix majeurs concernent les produits (quels produits vendre ?) et les marchés (sur quels marchés l’entreprise entend-elle se positionner ?). Ces décisions, généralement fort complexes, ne reposent pas toujours sur des modèles explicites et font intervenir de nombreuses données extérieures au domaine de la gestion commerciale. Par conséquent, ce domaine peut utiliser de nombreuses applications, très variées, allant du traitement automatisé d’informations transactionnelles de fort volume (la facturation par exemple) à la production systématique de rapports pour le contrôle (tableaux d’analyse de ventes par produit, clientèle, canal. . .), à l’aide à la décision (modèles de choix supportés par l’ordinateur ou production de données améliorant l’« intelligence » du décideur). Le fonctionnement des différentes applications évoquées ci-avant repose sur l’exploitation de deux bases de données essentielles : – BASE DE DONNÉES « PRODUITS » décrivant les caractéristiques permanentes des produits vendus (identification, caractéristiques techniques et commerciales.. .) et les informations évolutives correspondant à l’état de stock et aux ventes réalisées ; – BASE DE DONNÉES « CLIENTS » comportant les éléments d’identification indispensables (raison sociale, adresse...), les éléments comptables (solde), les caractéristiques commerciales (volume d’affaires réalisé, fidélité). Dans la plupart des entreprises, un très grand effort d’enrichissement de ces bases de données clientèle a permis une amélioration considérable de la gestion de la relationclient et le développement d’un véritable marketing relationnel. Remarque Cet ensemble de fonctionnalités est souvent désigné aujourd’hui par le terme « gestion de la relation client » ou CRM (Customer Relationship Management). 2. L’évolution vers la gestion de la relation client (CRM) L’amélioration des possibilités de stockage de données (voir chapitre 3, les systèmes data warehouse) et la multiplication des moyens de communication (téléphone, messagerie électronique, internet) ont apporté aux entreprises les moyens de développer des relations plus ou moins personnalisées avec leurs clients. La gestion de la relation client (Customer Relationship Management ou CRM) regroupe l’ensemble des processus consistant à acquérir, conserver, élargir une clientèle rentable. Du point de vue des technologies de l’information, le CRM implique l’intégration totale des processus liés à la vente, au marketing et au service client dans la perspective d’une amélioration de la gestion de la relation. L’architecture technologique du CRM permet donc de regrouper : – des applications opérationnelles classiques : gestion des commandes, logistique, facturation, gestion des comptes clients, fidélisation. . . ; – des applications collaboratives supportant l’interaction avec le client par le biais des différents canaux : courrier électronique, Internet, centres d’appels téléphoniques. Ce dernier canal utilise luimême différents logiciels tels que l’ACD (Automated Call Distribution) pour la distribution automatique des appels et le traitement statistique de la productivité, le CTI (Couplage Téléphonie-Informatique) permettant de reconnaître le numéro de l’appelant et d’afficher les informations relatives à ce client lors du décrochage, le SVI ou Serveur Vocal Interactif guidant l’appelant vers l’interlocuteur compétent ; – des outils assistant la force de vente (ordinateurs portables, téléphones mobiles) et les – – logiciels correspondants ; – les applications analytiques d’études commerciales alimentées par les données issues de l’activité quotidienne (data warehouse) permettant de suivre chaque client, de développer des typologies de comportement, de concevoir des produits et des stratégies marketing adaptées (politiques de fidélisation par exemple). Ces différentes applications de front office et de back office sont regroupées en un ensemble cohérent pour le partage de données communes, le défi consistant à fournir une réponse cohérente et personnalisée à chaque client quel que soit le média d’accès qu’il utilise tout en accroissant la valeur ajoutée des échanges. 3. Les facteurs clés de succès Compte tenu des multiples facteurs de contingence intervenant dans la définition du système d’information pour la gestion commerciale (dimension de l’entreprise, nature de l’activité et des produits, nombre de clients, modes de distribution, structure des marchés.. .), il n’est pas possible de définir des critères universels pour évaluer la qualité des réalisations. Cependant, au-delà d’une forte hétérogénéité, on peut repérer au moins deux caractéristiques de portée générale conditionnant le succès d’un système d’information pour la gestion commerciale : 1) Au niveau transactionnel, la prise en compte indispensable des exigences des relations avec la clientèle. Ces exigences sont de deux ordres : – commodité pour le client ; la demande d’information, la prise de commande doivent être améliorées par l’automatisation (et non l’inverse comme on peut parfois l’observer) ; le contrôle de la facturation et le règlement doivent être facilités (combien de factures « informatisées » se révèlent peu lisibles. . .) ; le progrès technique doit apporter un « plus » au client dans sa relation avec l’entreprise ; – respect des contraintes de temps : le cycle des transactions (commande, livraison, facturation, règlement) introduit une succession de délais ; la réduction de ces délais, en particulier ceux liés au traitement de la commande, peut avoir des impacts commerciaux importants. Le développement de la fonction de communication dans ce type de système d’information est souvent utile (par exemple, recours à l’EDI, utilisation de terminaux portables par la force de vente. . .) ; l’automatisation permet des gains notables sur ce point. 2) Aux niveaux tactique et stratégique, une très grande ouverture sur l’environnement. Par nature, la gestion commerciale est une gestion de l’échange avec l’extérieur ; il est donc naturel qu’elle fasse appel à de nombreuses informations externes. Sur ce plan, l’automatisation peut avoir un effet pervers : le traitement automatisé ou assisté des transactions produit de nombreuses informations (l’« historique des ventes ») faciles à exploiter ensuite. Il est donc possible de mettre à la disposition des responsables de nombreuses données, structurées à la demande. Cela peut avoir pour effet de négliger relativement les autres sources d’information, formelles ou informelles, moins commodes d’accès. Or les difficultés nées d’une concurrence accrue imposent des analyses plus complexes et des représentations plus riches pour les décisions essentielles. Il y a donc lieu d’organiser soigneusement des systèmes d’observation, de veille. . ., de multiplier les sources et d’assurer la communication d’informations d’origine et de nature très variées. Sur ce point, les technologies de l’information apportent quelques réponses (aide à la documentation, consultation de bases de données.. .) mais la solution est d’abord organisationnelle (qui observe quoi ? qui communique à qui ?). Le problème majeur est bien celui de la collecte de données pertinentes issues de sources disparates (données de panels, études de marché, données socio-économiques, rapport de représentants, surveillance des concurrents, analyse des incidents d’après-vente. . .). Le traitement de ces données peut éventuellement faire appel à des modèles d’aide à la décision assistés par ordinateur (voir chapitre suivant). Conclusion : de la grande distribution avec ses terminaux points de vente aux sociétés de vente par correspondance axées sur le suivi de la relation-client, en passant par les agences de voyages basées sur Internet, des exemples variés d’usage intensif des technologies de l’information pour la gestion commerciale abondent. Désormais, les progrès majeurs sont à attendre dans le domaine de l’aide à la décision (voir chapitre 3) et dans celui de l’aide à la communication (voir, ci-après, la notion d’entreprise étendue et le chapitre 4). – – – – – – – – 1 22 systèmes d’information pour la production et la gestion du cycle de vie du produit La préparation puis la réalisation de la production exigent de la part des entreprises industrielles le traitement de grandes quantités d’information. Les premiers systèmes d’information automatisés ont été pour l’essentiel consacrés à la conduite de la production (gestion de production assistée par ordinateur, GPAO) ; le développement considérable des machines automatiques programmables pour la fabrication, l’utilisation des ordinateurs pour le dessin et la conception des produits (dessin assisté par ordinateur, DAO; conception assistée par ordinateur, CAO) ont eu pour conséquence d’imbriquer à l’intérieur d’un même système d’information le traitement de données pour la préparation, le contrôle et la réalisation de la production. Cela peut conduire, dans un certain nombre de cas, à des systèmes d’architecture fort complexe. Selon la nature des produits fabriqués et les processus de production utilisés (unitaires, petite série, production de masse.. .), l’organisation de la production est très variable. Les caractéristiques générales que nous présentons ci-dessous peuvent être fortement modifiées selon les cas. 1. Les fonctionnalités La figure 5 fournit une représentation simplifiée de l’architecture générale d’un système d’information pour la production. Les principales fonctions susceptibles d’être assistées ou automatisées pour les activités de traitement de l’information sont présentées par niveau. (Ce niveau correspond au cas d’une entreprise industrielle.) L’examen de cet ensemble de fonctionnalités révèle : – d’une part, une grande variété des tâches de traitement de l’information ; certaines sont à caractère technique très prononcé (conduite des automates industriels, conception de produits), d’autres à caractère comptable (coûts et budget. . .) ou administratif (documents de fabrication, d’achat, de transports. . .). Leur domaine d’exercice est également variable : l’entreprise, l’usine, l’atelier, le poste de travail, l’équipement (machine) d’autre part, de nombreux échanges d’information entre les différents niveaux de gestion ; cela correspond à des besoins importants de coordination et traduit l’unité fonctionnelle profonde du domaine de la gestion de production au-delà de sa diversité apparente (voir ci-après le problème des niveaux d’intégration). Le fonctionnement des différentes applications repose sur deux sources principales de données : – les BASES DE DONNÉES TECHNIQUES comprenant les NOMENCLATURES (décomposition du produit en composants), les GAMMES de fabrication (description des opérations à effectuer) et les POSTES de travail (pouvant exécuter des opérations). La mise en place d’un système de gestion des bases de données techniques est un préalable à l’informatisation de la gestion de la production ; – les DONNÉES ISSUES DU SUIVI DE PRODUCTION : si les données techniques permettent de préparer les opérations de production (données prévisionnelles), il est néanmoins indispensable de collecter en permanence les données relatives au déroulement réel des opérations pour la conduite en temps réel, pour le contrôle et l’amélioration de la gestion. 2. L’évolution de la conception vers la gestion du cycle de vie du produit Cette planification des productions ne peut être réalisée tant que la mise au point des méthodes de fabrication des produits n’est pas terminée. La définition des modes opératoires et des composants est arrêtée lors de la conception détaillée du produit. Cette activité de conception et de dessin peut être assistée par des logiciels spécialisés (logiciels de CAO, Conception Assistée par Ordinateur) ; certains logiciels de CAO fournissent d’ailleurs directement les programmes de commande des automates (robots) de fabrication. Des solutions PLM (Product Lifecycle Management) permettent de suivre la conception des différentes versions du produit jusqu’à son lancement en production. Elles permettent par des workflows de définir les circuits de validation des composants de ses versions et donnent accès à tous les acteurs habilités dans les différents services (qualité, production, méthodes, bureau d’étude, logistique, contrôle de gestion, service après-vente, marketing), à la visualisation des objets développés et à la mise à jour des connaissances associées concernant l’ensemble de leurs caractéristiques techniques et logistiques (Merminod, 2007). PLM sert donc au stockage, au partage et à la coordination des connaissances explicites et au partage de celles plus tacites qui peuvent être transmises par visualisation. Elle sert aussi au pilotage des projets et à la réutilisation des composants développés et des connaissances. Les résultats obtenus avec cette technologie par le groupe SEB montrent que l’on peut ainsi gagner en fiabilité du processus de développement produit et en productivité et permettre à un chef de projet de gérer plusieurs projets en parallèle, même avec des partenaires aussi lointains que les entreprises chinoises (Merminod et al., 2009). Toutefois les entreprises de haute technologie dont les produits sont très complexes et sortis à l’unité ou en très petites séries éprouvent des difficultés à trouver des outils PLM adaptés. 3. Les facteurs clés de succès Le domaine de la gestion de production est sans doute celui où les échecs de construction de systèmes d’information automatisés ont été les plus nombreux. Les professionnels considèrent ce type de projet comme lourd et risqué, pour des raisons très variées (complexité de la gestion des données, insuffisances des logiciels disponibles, hétérogénéité des matériels. . .). En restant sur un plan plus général, l’analyse des causes des échecs met en évidence trois impératifs à respecter : 1) la prise en compte des particularités de la production ; 2) la prise en compte des impératifs de temps ; 3) le maintien d’une certaine souplesse d’évolution. . Premier point : prendre en compte les particularités de la production Nous avons montré la très forte imbrication des données entre la production proprement dite et la gestion de la production. Malgré leur diversification et leur spécialisation, les logiciels offerts sur le marché ne répondent que rarement aux exigences précises de l’organisation de la production dans une entreprise donnée. Très souvent, faute de pouvoir modifier les logiciels existants et renonçant à développer des logiciels spécifiques (trop coûteux), les entreprises sont conduites à modifier l’organisation de leur production. Les points sensibles concernent : – la communication des données vers la production : en mode automatique, ce sont des problèmes de compatibilité de matériels et de logiciels qui constituent l’obstacle principal (les automates industriels utilisent des langages différents de ceux des ordinateurs de gestion) ; en mode manuel, la qualité des documents et des messages doit être adaptée aux conditions de travail des opérateurs ; – la saisie des données (de la production vers la gestion de production) : en mode automatique, on retrouve le problème cité ci-dessus ; en mode manuel, il ne faut pas que les exigences de la saisie perturbent la tâche principale des opérateurs, sinon les risques de saisies erronées sont grands (dans des ateliers bruyants, avec fumées, manipulations nombreuses d’objets lourds, sales, encombrants.. ., il est difficile d’exiger des opérateurs qu’ils remplissent des documents ou frappent sur un clavier sans erreurs !). La saisie des données doit être organisée dans de bonnes conditions de robustesse et si possible de manière automatique. De nombreux systèmes de suivi de production ont échoué sur cet écueil des erreurs de saisie car le nombre des données à saisir est élevé et les occasions d’erreurs multiples. . Deuxième point : dynamique du contrôle de production Dans beaucoup de cas, la dynamique d’évolution de la production impose des contraintes de temps sévères ; cela conduit pratiquement toujours à automatiser la conduite des processus avec des ordinateurs spécialisés (raffineries, production d’électricité. . .). Dans les cas de productions discontinues, si, en apparence, les contraintes de temps sont moins sévères, elles n’en sont pas moins réelles. Le premier problème est celui des délais de mise à disposition des informations pour les utilisateurs : les documents de fabrication doivent être diffusés en fonction du rythme d’avancement de la production sinon il y a risque de blocage. On arrive à satisfaire correctement cette contrainte en situation normale ; il est beaucoup plus difficile d’y parvenir en cas d’incidents ou de modifications (changement de priorité dans l’ordre des livraisons par exemple). Le système d’information devrait conserver une certaine « réserve de puissance » pour faire face à ces incidents fréquents. Le second problème est celui du – – – mode de gestion de la production. Les systèmes « traditionnels » (bien que parfois très récents) sont de type MRP (material requirements planning) ; cela signifie une planification détaillée à partir des prévisions de demande (plan de fabrication ? plan de charge ? plan d’approvisionnement ? ordonnancement.. .). Ce système fonctionne bien si la qualité des prévisions est correcte et s’il y a peu d’aléas (la présence de stocks intermédiaires permet de faire face aux aléas « normaux »). Compte tenu de l’évolution des marchés et de la concurrence, la demande devient plus difficile à prévoir et le système MRP montre ses limites. Aussi de nombreuses entreprises ont-elles adopté un principe de gestion différent : principe des flux tirés et du juste-àtemps (JAT). Dans ce système, la prévision joue un rôle réduit ; l’entreprise travaille à la commande, sans stocks, organise et synchronise les flux en fonction de la demande finale : chaque élément arrive au moment où il doit être utilisé. Les avantages sont évidents sur deux points au moins : pas d’erreurs de prévision, suppression des stocks. La contrepartie, pour le système d’information, est aussi évidente : – exigences de rapidité accrue pour traiter des transactions plus nombreuses (les livraisons des fournisseurs et sous-traitants sont très fréquentes) ; – développement considérable de la fonction de communication avec les partenaires : la plupart des entreprises travaillant en JAT imposent l’utilisation de l’EDI à leurs fournisseurs et sous-traitants ; – réduction importante des traitements de données pour la gestion des stocks et la planification à court terme. Remarque Le passage d’un mode de gestion à l’autre impose de nombreux changements (organisation, logistique, système d’information. . .). Sur le marché des logiciels de gestion, il existe désormais des familles distinctes de logiciels : MRP, JAT ou mixtes. . Troisième point : souplesse d’évolution Les conditions de la concurrence imposent aux entreprises des changements continus dans la nature de la demande des clients ; dans ces conditions, il est extrêmement difficile de construire un système d’information répondant de manière définitive aux exigences de la production. L’évolution reste indispensable ; or les systèmes d’information pour la production sont lourds et complexes et leur modification délicate. Il est donc essentiel de leur réserver une certaine souplesse d’évolution : – en veillant à ne pas être aux limites de la technologie : les capacités de traitement, de stockage, de communication doivent pouvoir absorber l’accroissement du nombre de produits (pour répondre à la demande de produits différenciés) et du nombre de mouvements (séries plus courtes, livraisons plus fréquentes. . .). Le système doit, au départ, disposer de capacités excédentaires ; – en limitant l’intégration au niveau technique ; les technologies doivent être compatibles mais non obligatoirement uniformes. En particulier, certains équipements de production doivent évoluer sans remettre en cause l’architecture générale du système d’information ; – en ménageant des espaces d’intervention manuelle dans la conduite des opérations : assistance à la décision plutôt qu’automatisation de la décision dans certains cas (par exemple, ne pas utiliser un modèle d’ordonnancement automatique non modifiable mais au contraire utiliser un modèle interactif où le responsable peut modifier certains paramètres). Conclusion : les grandes entreprises industrielles ont développé des systèmes d’aide à la gestion de production par des investissements massifs. Ces systèmes sont complexes à construire et difficiles à maintenir ; le compromis entre les bénéfices de l’intégration et la souplesse d’évolution est délicat. Les progrès dans les outils de communication favorisant en particulier l’échange de données techniques ont conduit au développement des pratiques d’externalisation (sous-traitance, cotraitance. . .) et de partenariats de production. La plupart des logiciels actuels assurent cette fonction de communication nécessaire au fonctionnement de l’entreprise étendue (voir ci-après et chapitre 4). 1 3 2 systèmes d’information comptables et financiers La comptabilité générale constitue l’exemple le plus ancien et le plus répandu d’un système d’information formalisé et organisé. À partir de la saisie de certaines transactions (évaluables en monnaie), la comptabilité générale fournit des représentations sous forme de comptes, de bilans, de comptes de résultat. Dès l’apparition des ordinateurs dans les entreprises, la comptabilité générale a été l’objet d’une automatisation : il s’agit en effet d’un domaine où les événements significatifs sont bien définis, les règles de traitement claires, les résultats à obtenir rigoureusement établis, les transactions nombreuses et répétitives, ce qui correspond à autant de facteurs favorables à une solution automatisée. Autour de ce noyau se sont développées plusieurs réalisations, en particulier pour la gestion financière ; aussi sous l’appellation « systèmes d’information comptables et financiers » trouvet- on des réalisations fort variées. 1. Les fonctionnalités La figure 6 représente l’articulation possible d’un système comptable (d’une entreprise non financière) et met en évidence trois composantes : – la comptabilité générale (traitement des transactions comptables) ; – le sous-système de gestion financière ; – le sous-système de gestion budgétaire. a – Traitement des transactions comptables L’enregistrement des transactions comptables obéit à des règles précises indiquant quelles sont les transactions à enregistrer et comment ces transactions doivent être enregistrées (application du plan comptable pour la définition des écritures comptables). Ces transactions sont enregistrées dans des journaux, reportées dans des comptes. Périodiquement, l’exploitation des comptes et des traitements complémentaires (écriture d’inventaire) permet d’établir le bilan et le compte de résultat. Des règles précises (droit comptable, principes fondamentaux, directives. . .) ont pour objet de garantir aux tiers (apporteurs de capitaux, clients, fournisseurs. . .) une certaine pertinence des représentations comptables. b – Gestion financière La figure 7 montre, selon le schéma hiérarchisé classique, les différents éléments d’un système d’information pour la gestion financière. Ce schéma montre : 1) Le rôle de la base de données des transactions comptables (à caractère financier) pour alimenter les différents niveaux de gestion ; en particulier, le suivi des mouvements de fonds de la trésorerie s’appuie directement sur l’exploitation des données comptables concernant les achats et les ventes (éléments essentiels de la trésorerie). Le fait de disposer des informations utiles à la naissance des créances et des dettes (achat, vente) permet d’anticiper les mouvements de trésorerie qui auront lieu à l’expiration des délais de paiement et d’encaissement. De même, le suivi des coûts (par activités, projets, chantiers. . .) permet, dans une certaine mesure, de prévenir certaines conséquences sur la trésorerie future. 2) La nécessité d’une planification financière anticipant les mouvements de fonds ; plan de trésorerie et plans de financement (comment combler les besoins de financement, comment utiliser fonds disponibles) sont établis sur des prévisions d’activité de la période de référence (souvent l’année). Des systèmes d’aide à la décision (voir chapitre suivant) peuvent être utilisés à ces niveaux. 3) Le rôle des informations externes : au niveau du contrôle des opérations, les sources d’information sont internes à l’organisation. Aux niveaux tactique et stratégique, ces sources d’information sont complétées par des données d’origine externe, provenant, en particulier, des marchés financiers : suivi permanent du coût des financements (emprunts, émissions d’actions. . .) et des possibilités de placements (à court terme et à long terme). L’importance de ces sources externes conduit au développement de l’usage, par les financiers d’entreprise, d’outils de communication et de recherche évolués (suivi des marchés financiers en temps réel, recherche et veille sur Internet. . .). Le facteur temps est ici très important : l’entreprise doit être capable de réagir vite aux variations, fréquentes et peu prévisibles, des conditions financières découlant du fonctionnement des marchés. c – Contrôle budgétaire La majorité des entreprises utilisent des systèmes de gestion basés sur la prévision et le rapprochement avec les faits observés. L’enregistrement puis l’analyse des écarts entre prévisions et réalisations constituent la base informationnelle du contrôle budgétaire (voir figure 8). Système d’information pour le contrôle budgétaire et système de comptabilité générale utilisent une part importante de données communes. La comptabilité est un domaine où la formalisation est forte : les données comme les traitements sont définis, de manière rigoureuse, par les procédures comptables ; l’automatisation est donc relativement facile. De très nombreux progiciels comptables sont disponibles sur le marché, dans une gamme de prix très large. Les variantes dans les réalisations concernent principalement : – les modes de saisie des écritures (existence de contrôles plus ou moins poussés, mise à jour immédiate des comptes ou non.. .) ; – les possibilités d’interrogation : accès à l’écran au solde du compte, possibilité d’affichage des écritures selon un code nature, un code pièce, une date. . ., utilisation possible d’un langage d’interrogation ; – les possibilités d’édition : édition limitée à des états standards ou possibilité de créer des rapports variés en utilisant un générateur d’états, possibilité d’utiliser un tableur pour construire des simulations. . . 2. Les facteurs clés de succès Domaine bien connu, automatisé dès le début de l’apparition des ordinateurs, la gestion comptable et financière connaît peu d’échecs d’informatisation : les solutions éprouvées existent sur le marché. Deux questions se révèlent sensibles : a – celle de la qualité de la communication des logiciels comptables avec les autres logiciels traitant les transactions et assurant l’alimentation en données. La comptabilité est liée à la majorité des systèmes fonctionnels, par des échanges particulièrement intenses dans les domaines de la gestion commerciale (facturation), gestion de la production et approvisionnement (achats aux fournisseurs), gestion du personnel (paie). En raison du volume élevé des données à échanger, il est impératif d’éviter toute saisie nouvelle des transactions et d’assurer une communication automatique du logiciel fonctionnel vers le logiciel comptable. La plupart des logiciels de comptabilité générale prévoient l’« importation » des données issues de la facturation, de la paie ou des achats. Ils prévoient également une intégration vers l’aval sous forme de : – facilités d’extraction des données comptables vers des tableurs ou des logiciels d’analyse ; – communication complète vers des logiciels assurant le traitement des tableaux budgétaires et les analyses d’écarts ; b – celle de la sécurité : la comptabilité enregistre toutes les transactions à caractère monétaire ; elle constitue un moyen de preuve en cas de conflit juridique ; elle doit fournir en permanence une image fidèle, sincère, du fonctionnement et du patrimoine de l’entreprise. Les enjeux sont importants et les risques réels puisqu’il y a manipulation de valeurs. Il faut donc assurer le maximum de sécurité pour éviter les erreurs et les fraudes ; cela passe à la fois par le développement de mesures de contrôle interne (qui a accès aux données ? qui peut mettre à jour ? qui est autorisé à rectifier une écriture ?. . .) et par la mise en place de protections à l’intérieur des logiciels (verrouillage des bases de données, contrôle par mots de passe, impossibilité de modifier une écriture validée. . .). Les différents aspects des problèmes de sécurité seront repris de manière plus détaillée dans la seconde partie de cet ouvrage ; il importe cependant de retenir que, concernant le domaine comptable, cette exigence est fondamentale pour que la comptabilité conserve sa valeur probante, qu’elle soit régulière et sincère, qu’elle soit vérifiable 3. Conclusion En ce qui concerne le traitement des transactions, les systèmes d’information comptables et financiers ont atteint leur maturité. Les réalisations actuelles apportent des solutions commodes et sûres. En ce qui concerne la partie contrôle de gestion, le succès est davantage lié à la cohérence entre les types d’informations produites et la structure des domaines contrôlés (donner l’information pertinente au bon utilisateur) ; en ce qui concerne la gestion financière, les deux questions clés sont, d’une part, de trouver des modèles satisfaisants pour l’aide à la décision, d’autre part, d’assurer des communications rapides et sûres pour recueillir les données utiles (internes et externes) au minimum de coûts et de délais. 1 4 2 Systèmes d’information pour la gestion des ressources humaines La ressource humaine que représente l’individu a, par rapport aux autres ressources, des caractéristiques très particulières. Elle n’appartient pas à l’entreprise et n’est pas considérée (au moins du point de vue comptable) comme un élément de son patrimoine ; elle lui est liée par contrat. Cette spécificité impose des contraintes aux systèmes de gestion de ces ressources : nécessité d’assurer le recrutement, l’embauche puis la gestion des salariés (jusqu’à ce qu’ils quittent l’entreprise), donc de suivre un flux de ressources évolutives par nature et partiellement contrôlables. Ces spécificités se retrouvent dans les systèmes d’information pour la gestion du personnel où l’utilisation des ordinateurs a commencé très tôt avec l’automatisation des opérations de paie. 1. Les fonctionnalités La figure 9 représente l’articulation par niveaux d’un système d’information pour la gestion des ressources humaines (GRH) ; ce système inclut : – la gestion de l’emploi (définition des besoins, recrutement, embauche, séparation. . .) ; – la gestion de la rémunération (politique de rémunération, budgets de personnel, contrôle des charges du personnel, administration de la rémunération.. .) ; – la gestion de la valorisation des individus (politique de promotion, gestion des carrières, évaluation, formation. . .) ; avec des préoccupations de répondre aux besoins de l’entreprise et des individus par le souci : – de fournir la ressource correspondant aux besoins exprimés, – d’assurer le développement du potentiel des individus, – de contrôler le coût, l’efficience et l’efficacité de la ressource. La figure 9 appelle quelques commentaires : – Au niveau du traitement des transactions, les volumes d’information à traiter sont importants : traitements périodiques obligatoires comme la paie, existence de nombreuses obligations entraînant la production de documents multiples (déclarations URSSAF, caisses de retraite, caisse « chômage », déclarations fiscales. . .) vers de nombreux partenaires. Ce caractère répétitif de travaux de fort volume explique le recours précoce à l’ordinateur. – Au niveau du contrôle, on retrouve les formes habituelles du contrôle budgétaire. Cependant, le développement des systèmes d’information à ce niveau peut se heurter à des difficultés fondamentales telles que la définition d’indicateurs pertinents de performances (par exemple, comment mesurer la performance d’un chargé de clientèle dans une banque, d’un médecin dans un hôpital, d’un professeur dans une université. . .) : les bases informationnelles du contrôle sont délicates à constituer. Dans les PME, les niveaux de planification tactique et stratégique sont peu développés et peu formalisés ; les politiques d’emploi restent à l’état embryonnaire et il n’y a pas de véritable programmation des recrutements, des promotions, des formations. La gestion se fait, au cas par cas, avec une recherche limitée d’informations spécifiques. La gestion des ressources humaines repose sur une base de données essentielle : la base de données « personnel » décrivant les caractéristiques de chaque salarié. La figure 10 présente les éléments principaux relatifs au contenu et au fonctionnement de cette base. Selon les cas, cette base est partiellement automatisée (coexistence d’enregistrements numériques et d’un dossier « personnel » papier) ou totalement automatisée (numérisation totale du dossier). En plus de cette base de données principale, la gestion des ressources humaines utilise d’autres informations, en particulier : – les données descriptives des connaissances et des compétences maîtrisées dans l’organisation ou demandées par l’organisation. Ce problème complexe sera abordé dans le chapitre 5 consacré à la gestion des connaissances une très grande quantité d’informations à caractère juridique, social ou fiscal. La législation est très abondante et en perpétuelle évolution. Les problèmes de gestion documentaire sont importants (voir chapitre 5). 2. Les facteurs clés de succès Les premiers systèmes informatisés ont, très tôt, automatisé le traitement de la paie et la production d’états obligatoires (déclarations fiscales et sociales). Les logiciels de paie offrent en outre : – la possibilité de consultation du fichier personnel par interrogation à l’écran (limitée souvent aux informations administratives) ; – la communication de données issues de la paie vers la comptabilité générale et la gestion de trésorerie. Beaucoup d’entreprises sont restées à ce degré d’automatisation. Cependant, le développement récent des possibilités de communication interne, via un réseau de type Intranet (voir chapitre 4), a mis l’accent sur l’intérêt d’un recours accru aux TIC. L’Intranet est utilisé à différentes fins : – la diffusion d’informations concernant les procédures RH dans l’entreprise, les éléments juridiques, les comptes rendus du comité d’entreprise, le projet d’entreprise ; – information « mobilité, carrières » correspondant aux offres d’emploi, aux descriptions de poste, aux procédures à suivre pour candidature ; – information sur la politique de formation, le catalogue des formations, les formulaires d’inscription ; développement d’une GESTION ADMINISTRATIVE AUTOMATISÉE (partiellement en libre-service) EN LIGNE, pour la gestion des congés, la gestion des notes de frais, la mise à jour du fichier personnel.. . Ce développement de la communication interne via ces Intranet apporte des gains de productivité et une amélioration des relations entre salariés et responsables de la GRH. Cette évolution de la GRH vers l’« e-GRH » 1 est particulièrement importante pour le difficile problème de la gestion des connaissances (ce point sera traité dans le chapitre 5). Facilement automatisable dans sa partie purement administrative, le système d’information GRH rencontre cependant quelques difficultés classiques tant au niveau gestion des transactions qu’à celui de l’aide à la décision. Au niveau gestion des transactions, le problème spécifique dominant est celui de l’impact relationnel de l’utilisation des technologies de l’information : le domaine est celui de la gestion des personnes et implique donc la gestion de relations avec des individus et avec des groupes (syndicats par exemple) ; ces relations sont parfois difficiles et ne doivent donc pas être perturbées par une mauvaise utilisation des technologies de l’information. Sont donc particulièrement importants : – le respect des délais (des salariés peuvent se mettre en grève parce qu’il y a un retard dans l’établissement de la paie) ; – le respect des textes législatifs, réglementaires et contractuels, ce qui suppose une documentation à jour en permanence sur des ensembles de documents complexes ; – le respect de la confidentialité sur toutes les informations concernant la vie privée des individus : cela impose des limites très strictes aux possibilités de communication et d’interrogation de bases de données. La loi informatique et liberté précise les principes essentiels de cette obligation ; – le maintien de formes directes de communication pour les décisions importantes (affectation, promotion.. .) qui doivent être « expliquées » aux intéressés. Il y a là une limite évidente à l’automatisation totale du système d’information. Au niveau de l’aide à la décision, les difficultés sont essentiellement d’ordre conceptuel, en particulier : – des difficultés réelles à définir des indicateurs pertinents de la performance des individus dans une organisation, donc de construire des bases informationnelles pour le contrôle des opérations (difficulté des mesures de productivité et d’efficacité) ; – des problèmes de définition des compétences pour les niveaux autres que ceux de l’exécutant de tâches élémentaires ; cette difficulté complique la définition des besoins, donc les prévisions en matière de recrutement, formation et affectation ; – l’incertitude concernant l’évolution des individus tant dans leur motivation que dans leur compétence (peut-on prévoir quelle sera la compétence effective d’un individu après une formation ou quel sera son comportement dans une nouvelle affectation ?). 1 3 Conclusion Les systèmes d’information pour la gestion des ressources humaines sont très dépendants de la perspective selon laquelle on aborde le problème de la ressource humaine dans l’organisation. Leur succès dépend avant tout de la façon de combiner une partie automatisée efficiente dans les travaux de routine et une partie manuelle capable d’assurer la qualité, la souplesse et la richesse dans la gestion des relations entre individus. Il faut noter que la tendance à l’externalisation des applications concerne aussi la fonction RH. 2 L’évolution vers l’intégration La présentation, dans la première partie de ce chapitre, des différentes applications fonctionnelles correspondant à la définition habituelle des différents domaines de la gestion répond à un souci de clarté pédagogique. Elle ne saurait cependant masquer une réalité importante : dans la vie quotidienne des entreprises, les problèmes concrets ne sont pas facilement décomposables en sousproblèmes susceptibles d’être traités, de manière indépendante, par les spécialistes d’une fonction (achat, production, conception, vente. . .). Cette non-séparabilité parfaite des problèmes qui justifie l’existence de processus transversaux (concernant plusieurs fonctions) crée une réelle difficulté pour la conception et le fonctionnement des systèmes d’information. Conçus à l’origine sur une base fonctionnelle à l’intérieur de l’entreprise, les systèmes d’information de gestion doivent pouvoir répondre aux besoins variés d’acteurs divers travaillant en collaboration pour la poursuite d’objectifs communs. Cet impératif de coordination suppose un certain degré de COHÉRENCE entre les différentes applications et pose le problème de l’INTÉGRATION des différentes réalisations fonctionnelles, d’abord à l’intérieur de l’entreprise, ensuite à l’intérieur des réseaux de partenariats de l’entreprise étendue. Après avoir caractérisé le problème de l’intégration et ses différentes solutions, nous présenterons deux exemples représentatifs : – celui de la réponse aux besoins de cohérence interne par le recours aux progiciels de gestion intégrés ; celui des systèmes d’information interorganisationnels développés dans des réseaux de partenariat. – – 2 1 La problématique de l’intégration Après avoir précisé la nature du problème à résoudre (pourquoi intégrer ?), nous décrirons sommairement les principales directions de solutions (comment intégrer ?). 2 1 1Pourquoi intégrer ? La nécessité de l’urbanisation des SI Le besoin d’intégration des applications informatiques s’explique à la fois par des contraintes organisationnelles et des contraintes technologiques. Il peut s’exprimer, par analogie avec les problèmes d’urbanisme, au travers de la notion d’URBANISATION des systèmes d’information. 1. Partager des données La notion d’application « fonctionnelle » fait référence à un découpage classique de l’entreprise en fonctions (vente, production, personnel.. .). Ce découpage de l’entreprise en sous-ensembles (fonctions, départements, services. . .) est justifié pour bénéficier de la spécialisation des participants. Mais, dans la pratique, aucun découpage ne permet de constituer des sous-ensembles totalement indépendants et il y a nécessité d’organiser la coordination entre ces sous-ensembles, par des échanges d’informations, par le partage de données communes. (Voir chapitre 4, première partie, une présentation de la notion de coordination.) Exemple : La figure 11 représente l’enregistrement d’une transaction commerciale dans une entreprise. Les données qu’il contient ont été définies pour les besoins d’une application de facturation. Mais cette ligne de facture décrit un événement (vente d’une certaine quantité de produit) qui ne concerne pas seulement les responsables de la facturation mais aussi ceux chargés de la tenue du stock (c’est une sortie de stock. . .) ou ceux chargés des études de marketing (analyse des ventes. . .). À partir de ces données de base communes, on peut concevoir une logique d’intégration (suggérée figure 12) étendant le domaine de l’application bien au-delà de son champ d’origine : la facturation. Cet exemple, volontairement simplifié, montre bien l’intérêt du partage des données communes en termes d’efficience (la même donnée, saisie une seule fois, et réutilisée par les différentes applications) et de cohérence (l’unicité de la donnée garantit que « tout le monde parle de la même chose »). Cet exemple montre aussi que, « lorsque l’on découpe, il faut aussi raccorder » et que, quel que soit le découpage prévu, il sera nécessaire de prévoir des échanges de données, des « messages », entre applications, pour traduire leur interdépendance. 2. Gérer des processus Les données sont ainsi partagées au long des processus de gestion liés à des acteurs et à des métiers. On parle de processus métiers dans la mesure où ces processus sont associés à des métiers. Un processus métier est constitué d’un ensemble d’activités attribuées à des acteurs et décomposables en tâches. Poursuivons l’exemple précédent en examinant comment est gérée la commande côté client de façon idéale (cf. figure 13), c’est-à-dire avec des modules d’un même progiciel, par exemple SAP. Ainsi le processus d’achat fait intervenir le service achat, le service réception et le service comptable. Au départ, la demande d’achat est déclenchée par le service demandeur luimême équipé d’un module « Achat » (MM chez SAP). Elle doit faire l’objet d’une validation par un ceratin nombre d’acteurs. Cette validation suit une séquence prédéfinie d’autorisation en fonction de l’importance de l’achat. Un module de workflow (WF chez SAP) déclenche le passage à l’étape suivante dans le circuit de validation à chaque fois qu’un décideur donne son aval. Puis elle aboutit au service achat de l’entreprise qui émet la commande vers le fournisseur et l’adresse au service réception pour le prévenir. À réception de la commande celui-ci déclenche la saisie de la facture par le service comptable qui pourra émettre le règlement dans le module de comptabilité (FI chez SAP). La saisie de la facture modifiera alors automatiquement les calculs de coûts dans la comptabilité analytique et la gestion budgétaire (CO chez SAP). Dans cet exemple un processus achat est donc géré par plusieurs acteurs appartenant à des services différents qui utilisent en partie les mêmes données. Le partage d’une même base de données par un ensemble de modules d’un même progiciel permet une gestion plus efficiente qu’une gestion par des logiciels distincts qui modèleraient ce processus et obligeraient à des ressaisies. Un progiciel de gestion intégré offre cet avantage. 3. Réduire l’hétérogénéité technologique À ces raisons inhérentes au fonctionnement de toute organisation se superposent des raisons d’origine technologique. Historiquement, pour des raisons de praticabilité, les différentes applications fonctionnelles ont été réalisées successivement, à des époques différentes. En raison du progrès technologique rapide, les différentes applications ont été réalisées sur des matériels différents, avec des logiciels de base différents, des logiciels d’application programmés dans des langages différents, utilisant des systèmes de gestion de données variés et des protocoles de communication distincts. Après cinquante années d’informatisation, on observe, dans la plupart des entreprise, la coexistence d’applications anciennes utilisant des systèmes d’exploitation « propriétaires », des applications de type « client-serveur », des applications issues de la microinformatique et des applications centrées sur les technologies Internet. Cette coexistence s’explique par la difficulté réelle et le coût de la mise à niveau d’une application lors de chaque changement technologique et révèle toute l’importance de la maîtrise de l’évolution des SI. Aux conséquences des choix organisationnels s’ajoute donc l’effet de l’hétérogénéité technologique pour conférer au problème de l’intégration une importance majeure et accroître les difficultés de sa résolution. 4. Le concept d’urbanisation des systèmes d’information La très grande majorité des villes se sont développées, au fil du temps, souvent sans plan préétabli. Le développement anarchique de certaines d’entre elles se traduit par des phénomènes bien connus (encombrement, pollution, coûts de maintenance très élevés. . .). « La métaphore de la ville a été largement utilisée dans le domaine des systèmes d’information en raison de la similitude de la problématique de départ : – Comment refaire, moderniser ? – Comment profiter des avancées technologiques, sans faire table rase du passé, dans des limites de coûts maîtrisés tout en maintenant la vie de la cité pendant les travaux ? » (C. Longépé, in Balantzian, 2002, p. 291). L’urbanisation des systèmes d’information propose de passer d’un existant à une solution nouvelle, la cible, par évolutions successives. Il s’agit d’assurer l’évolution du système pour répondre à l’évolution des besoins tout en améliorant sa cohérence et son efficience. Le principe consiste d’abord à décrire l’architecture des applications actuelles, en montrant les différents niveaux : – la ZONE APPLICATIVE (grand ensemble fonctionnel) ; – le QUARTIER APPLICATIF (ensemble d’îlots) ; – l’ÎLOT APPLICATIF (un programme, un module) ; puis à guider une évolution vers une situation où chacun des blocs ainsi définis (selon le degré de précision, la zone, le quartier ou l’îlot) correspond à un ensemble à l’intérieur duquel les données et les traitements sont fortement reliés et ayant un couplage faible (donc une liaison faible) avec les autres blocs. Le PLAN D’OCCUPATION DES SOLS (POS) d’un système d’information a pour objectif d’organiser le SI en précisant : – la mission de chaque application, de chaque bloc ; – le regroupement des blocs en ensembles cohérents ; – le périmètre réservé aux futures applications à construire ; – les règles que doivent respecter les concepteurs pour la réalisation des futures applications. Ce POS joue le rôle d’un schéma directeur qui s’impose aux « architectes » des futures applications. Celles-ci ne sont autorisées que si elles respectent les contraintes du POS et leur conformité est vérifiée avant la mise en service. – L’urbanisation des systèmes d’information apparaît donc comme une préoccupation permanente visant à limiter les effets de la « prolifération technologique », à améliorer la cohérence des découpages en applications et par conséquent à accroître l’efficience et l’efficacité des SI. Si l’on considère que l’intégration est « l’opération qui consiste à assembler les différentes parties d’un système et à assurer leur compatibilité ainsi que le bon fonctionnement du système complet » (Petit Larousse, 1989), intégration et urbanisation poursuivent le même objectif et apparaissent comme deux instants différents du même processus de mise en cohérence et de pilotage de l’évolution du SI. 2 – – 2 1Comment intégrer ?systèmes intégrés ou systèmes fédérés ? – – Le concept d’intégration peut s’appliquer à différents niveaux ou objets : unités organisationnelles, processus, applications informatiques, logiciels de base et matériels. Nous nous placerons ici, pour l’essentiel, au niveau des applications informatiques. À ce niveau, on peut distinguer deux approches possibles du problème : – celle de l’intégration a priori qui correspond aux systèmes pensés au départ pour former un tout cohérent ; – celle de l’intégration a posteriori qui consiste à aménager les relations entre des systèmes conçus de manière indépendante, pour constituer ainsi un système « fédéré » ou MÉTA-SYSTÈME. Nous caractériserons rapidement ces deux approches. 1. L’intégration a priori : systèmes intégrés L’analyse des besoins en information d’une organisation fait apparaître cette dernière comme un ensemble de PROCESSUS INTERDÉPENDANTS. – – Le concept d’ARCHITECTURE D’INFORMATION, défini dans le chapitre 1, décrit très clairement ces liens informationnels entre processus, utilisateurs et fournisseurs de données ; il montre également les difficultés de tout découpage en sous-ensembles faiblement couplés. C’est pourquoi, dès le début de l’utilisation des ordinateurs pour la construction de systèmes d’information de gestion, s’est imposée l’idée d’un SYSTÈME INTÉGRÉ DE GESTION UNIQUE, recouvrant l’ensemble des domaines fonctionnels et des différents niveaux de pilotage. Ce véritable mythe du système intégré unique (désigné souvent par le vocable anglo-saxon MANAGEMENT INFORMATION SYSTEM, MIS) s’est révélé être plutôt un mirage en raison de la très grande complexité de sa réalisation. (En termes d’urbanisation, cette solution correspondrait à la construction, en un temps très court, d’une ville entière, définie complètement dès le départ. Cette solution a été parfois appliquée dans quelques cas particuliers, par exemple La Grande Motte sur le littoral languedocien ; elle est praticable pour une dimension limitée et se révèle discutable en termes d’évolution). Cependant, vers le début des années 1990, des éditeurs de logiciels ont proposé, sous le nom d’ERP (enterprise resource planning) ou de PGI (programmes de gestion intégrés), des solutions s’inspirant de ce principe. Ce système intégré est composé de modules, conçus de manière cohérente et partageant une base de données communes. Ces systèmes, standardisés mais adaptables, connaissent un succès certain. Ils correspondent à une logique d’urbanisation brutale, du type « big-bang » consistant à remplacer des « îlots disparates et mal construits » (les anciennes applications) par des ensembles harmonisés, soigneusement reliés entre eux (les modules du PGI). L’harmonisation porte non seulement sur la définition des données, mais aussi, de manière plus profonde, sur une nouvelle conception des processus de gestion. Cette solution sera décrite plus en détail dans le point 2 ci-après. – – – 2. L’intégration a posteriori : systèmes fédérés Séduisante dans son principe, l’intégration par PGI n’est cependant pas exempte de critiques ; d’une part, l’ampleur des changements peut se révéler difficile à maîtriser, d’autre part, le recours à un ensemble unique ne permet pas de s’équiper des logiciels les mieux adaptés aux besoins de chaque fonction. C’est pourquoi des solutions « plus douces » d’urbanisation, par intégration, a posteriori, ont été développées. Dès le début de l’informatisation, les besoins d’échange entre applications ont été satisfaits par des INTERFACES, des passerelles point à point, assurant le transfert des données entre les logiciels d’application. Cela aboutit, dans le cas de n applications, à prévoir n (n – 1) passerelles pour une intégration complète. La résultante de cette prolifération des liens est un système d’information de type « spaghetti » (selon Abou-Mar B. et Rivard, p. 114), très difficile à maintenir et à faire évoluer. Les solutions récentes, désignées par le terme EAI (enterprise application integration), consistent à remplacer les liens multiples entre applications par une PLATE-FORME D’ÉCHANGE CENTRALISÉE, assurant la communication et les échanges entre applications par diffusion de MESSAGES. La figure 15 représente la logique de cette solution. La plate-forme d’intégration correspond généralement à un ordinateur serveur spécialisé, équipé de logiciels de type MOM (middelware oriented messages), permettant d’assurer des fonctions d’extraction de données (de l’application source), de transformation (rendre les données compatibles avec les besoins de l’application destinataire), de routage et d’acheminement. Le processus d’intégration comporte une double transformation du flux de données : du format de l’application d’origine à un format « pivot » puis du format « pivot » au format local de l’application destinataire. Ce passage par le format pivot standardisé simplifie le traitement des échanges et facilite l’évolution des liaisons entre applications (la connexion de nouvelles applications destinataires n’entraîne aucune modification de l’application d’origine). Cette solution a l’avantage de permettre une urbanisation progressive du système d’information ; elle laisse subsister les applications existantes, si nécessaire, avec leur spécificité ; elle permet d’utiliser les solutions les mieux adaptées aux contraintes locales. Plus que d’intégration, il y a fédération des applications qui partagent les données en fonction de leurs besoins. On peut ainsi assurer l’interopérabilité de solutions fondées sur des technologies et des logiciels de base différents. (Cela est particulièrement utile dans le cas de systèmes d’information interorganisationnels reliant des entreprises partenaires ; voir ci-après, paragraphe 2.3.) Remarque 1 : Les systèmes d’entrepôt de données (data warehouse), gérant des données issues de différentes applications et assurant leur mise en forme selon des formats communs, peuvent être considérés comme des outils d’intégration a posteriori. Ces systèmes, utilisés surtout dans le domaine de l’aide à la décision, seront présentés dans le chapitre suivant. Remarque 2 : Notre présentation a opposé les deux pratiques d’intégration en insistant sur leurs traits distinctifs. Dans la réalité de la gestion des systèmes d’information, les différentes approches peuvent être combinées. De nombreuses entreprises ont recours aux PGI, dont elles implantent plusieurs modules (souvent dans les domaines fortement liés). Ces modules PGI ne couvrent pas l’intégralité des besoins et laissent subsister des îlots spécifiques ; l’intégration de ces îlots spécifiques et des modules ERP, dans un méta-système de type fédéré, est alors réalisée via le recours à une plate-forme d’intégration. Assez fréquemment, un système d’entrepôt de données est utilisé en parallèle pour les applications de type aide à la décision. On notera cependant que le degré d’intégration est différent selon la méthode retenue. Par l’utilisation des PGI, l’entreprise améliore son intégration par l’échange des données et, généralement, par une réingénierie de ses processus de gestion (modification organisationnelle) ; le recours à la plate-forme d’intégration n’entraîne pas de reconception des processus et limite l’intégration au partage des données. 2 2 Progiciels de gestion intégrés (PGI, ERP) Les progiciels de gestion intégrés (PGI), désignés souvent par le terme anglais ERP (enterprise resource planning), connaissent un développement accéléré depuis le début des années 1990. Visant à réaliser le vieux rêve d’un système d’information unifié et cohérent, ils ont été développés, à l’origine, par extension des systèmes de gestion de production de type MRP et sont conçus comme une application informatique composée de modules permettant de gérer les différents domaines de l’entreprise. Ces produits ont été développés par des éditeurs spécialisés (Oracle) et ont connu une croissance importante dès le début des années 1990. Malgré le ralentissement de l’activité économique, la croissance du marché reste positive. En 2006, seulement 17 % des entreprises en France étaient équipées d’un ERP (source COI-TIC). L’implantation des ERP a entraîné un développement considérable des activités de services et de conseils (indispensables pour l’implantation). Limité au départ aux grandes organisations soucieuses d’assurer un minimum de cohérence à l’ensemble de leurs applications principales, le marché des ERP s’est étendu progressivement aux entreprises moyennes. Après avoir précisé la notion de PGI, nous discuterons sommairement des problèmes spécifiques posés par ce type d’outil. 2 Notion de PGI Après avoir défini les caractéristiques générales de tout PGI, nous illustrerons la notion par la description sommaire d’un exemple très répandu : le progiciel R/3 de la société SAP. 1. Caractéristiques générales Proposition de définition : un PGI est une application informatique paramétrable, modulaire et intégrée, qui vise à intégrer et à optimiser les processus de gestion de l’entreprise en proposant un référentiel unique et en s’appuyant sur des règles de gestion standards. . Un PGI est un progiciel : c’est un ensemble de programmes conçus par un éditeur pour correspondre aux besoins de plusieurs entreprises et commercialisé avec des prestations annexes (assistance à la mise en place, formation, maintenance.. .). Les éditeurs les plus connus ont une clientèle internationale ; le secteur est fortement concentré : les deux premiers fournisseurs (SAP, Oracle) représentent plus de 70 % du marché. . Un PGI est paramétrable : produit standardisé, le PGI est conçu à l’origine pour satisfaire les besoins d’entreprises diverses. Il existe généralement des versions différentes par secteurs d’activité (automobile, banque.. .) et par langues d’utilisation. En outre, l’adaptation du produit aux besoins d’une entreprise donnée se fait par paramétrage (choix de règles de gestion, choix d’options de traitement, choix de format de données.. .). Le paramétrage peut être assorti d’un recours à des compléments de programmes spécifiques articulés avec les programmes standards (le volume de ces programmes spécifiques doit être limité pour que la solution PGI reste justifiée). . Un PGI est modulaire : ce n’est pas une construction monolithique mais un ensemble de programmes ou modules séparables correspondant chacun à un processus de gestion : leur installation et leur fonctionnement peuvent être réalisés de manière autonome. Le découpage en modules permet de composer une solution spécifique par assemblage et d’étendre la mise en oeuvre de manière progressive à différents domaines de gestion. . Un PGI est intégré : les divers modules ne sont pas conçus de manière indépendante ; ils peuvent échanger des informations selon des schémas prévus (des interfaces standardisées). Ainsi, une commande passée par un client est enregistrée dans le module gestion des commandes, communiquée au module gestion des magasins, au module gestion des ordres de production. . . Cette communication entre processus permet d’améliorer la cohérence interne et évite la redondance des traitements. . Un PGI s’appuie sur un référentiel unique : toutes les données ou les objets utilisés par les différents modules sont définis d’une manière standardisée unique (format identique) et gérés par un seul type de logiciel (très souvent, un système de gestion de bases de données relationnelles). De la même manière, les interfaces homme-machine (communication des commandes par souris, écran, langage de commande. . .) sont définies de façon identique quels que soient les modules. Cette normalisation forte des données et des langages simplifie la communication et réduit les difficultés d’apprentissage des utilisateurs. . Un PGI vise à optimiser les processus de gestion : à la construction du PGI, le concepteur s’appuie sur des modèles de processus issus des « meilleures pratiques » du secteur (on capitalise ainsi le savoir-faire des meilleures entreprises d’un domaine d’activité donné). De l’analyse des meilleures pratiques, l’éditeur de progiciels obtient un ensemble de règles de gestion qui constituent un standard de fait pour un secteur déterminé. La solution PGI présente donc des avantages certains : – mise en oeuvre progressive puisqu’on implante le progiciel module par module ; – cohérence entre applications différentes de la même entreprise : les données, organisées selon les mêmes formats, peuvent être facilement échangées entre modules ; – adaptabilité des solutions : les outils de développement fournis avec le PGI permettent de réaliser des programmes spécifiques pour compléter ou remplacer des programmes standards. 2. Un exemple de PGI : SAP R/3 SAP, entreprise allemande, est l’éditeur de PGI le plus important du monde. Son produit principal, le progiciel intégré R/3, est composé d’un ensemble de modules adaptés aux besoins de différentes industries (aéronautique, chimie, électronique, mécanique.. .) ou services (assurances, banques, santé. . .). L’ensemble de ces modules est disponible dans plus de 20 langues ; il est conçu pour fonctionner sur des systèmes d’exploitation de type client-serveur. Le progiciel R/3 est articulé en trois domaines principaux : – finances : applications de nature comptable et financière ; – logistique : gestion des flux ; – ressources humaines : tout ce qui concerne la gestion du personnel. Comme le montre la figure 16, chacun de ces domaines se décompose en sous-ensembles et modules et englobe l’essentiel des processus de toute entreprise. Dans chacun de ces modules sont intégrés les traitements des informations pour les différents processus de gestion concernés. (Pour SAP R/3, un processus est un ensemble d’activités utilisant et produisant des données.) Remarque À côté de cet ensemble très complet de modules, R/3 propose également d’autres outils logiciels (outils de workflow, d’entrepôt de données, de commerce électronique. . .). Avec ces modules d’application, R/3 apporte également une infrastructure technologique (business framework) qui comprend : – les logiciels de gestion de données permettant de gérer le référentiel unique (business object repository) organisé selon la technologie « objet » (voir seconde partie, gestion de projet) ; – des outils de modélisation, des langages de programmation ; – les interfaces utilisateurs (SAPGUI) offrant une uniformisation des dialogues hommes-machines. Les dernières versions de SAP R/3 intègrent l’utilisation d’Internet. 2 2 2 Problématiques spécifiques Le développement accéléré du marché des PGI démontre l’intérêt de ce type de produit pour les entreprises. Cependant, l’introduction du PGI dans l’entreprise pose un certain nombre de problèmes qui seront rapidement évoqués ici. 1. Les problèmes de mise en oeuvre Le projet d’implantation d’un PGI est à la fois complexe et incertain car : – les besoins exprimés liés aux processus de gestion sont mal connus et parfois mal formulés ; – il faut cumuler une connaissance très détaillée (au niveau du processus) et une vision globale du fonctionnement de l’entreprise ; – le PGI propose une vision standardisée du métier qui n’est que rarement transposable telle quelle à une organisation particulière ; – les adaptations doivent être négociées car les sources de conflits sont nombreuses (selon P. Besson) : conflit sur le mode opératoire à retenir, conflit à propos des compétences nécessaires, conflit lié aux modifications du pouvoir des acteurs ; – les ressources à investir sont importantes : plusieurs millions d’euros pour les seules licences au départ dans des entreprises de grande taille, de 15 à 20 % de l’investissement initial les années suivantes. Par conséquent, un tel projet d’implantation cumule des facteurs de risques liés à tout projet informatique (voir chapitre 7, 2.2.2) : taille importante, difficultés techniques, importance du changement organisationnel, étendue du domaine concerné, pluralité des intervenants (éditeurs, sociétés de conseil, développeurs, équipe interne d’utilisateurs et d’informaticiens). Les utilisateurs potentiels doivent être des maîtres d’ouvrage à la fois compétents dans leurs métiers et capables d’un certain recul par rapport à leurs pratiques ; les consultants doivent à la fois maîtriser les connaissances relatives aux métiers de leurs clients et celles relatives au produit PGI qu’ils doivent implanter. 2. L’incertitude des impacts organisationnels L’objectif essentiel des PGI est d’homogénéiser les systèmes d’information de l’entreprise par le recours à une solution industrielle externe. L’introduction du PGI va donc tendre à renforcer l’intégration en essayant de « forcer le consensus sur l’information de gestion ». L’impact sur l’organisation est multiple : – modification des modes opératoires dans certains processus et modification des compétences nécessaires ; d’où la nécessité d’actions de formation importantes liées à la réingénierie des processus ; – augmentation du degré d’intégration entre départements et services avec une certaine uniformisation des sous-cultures. Cette uniformisation favorise dans un premier temps la cohérence dans l’organisation mais peut, dans un second temps, réduire la capacité d’innovation de l’organisation en limitant la variété ; – assez souvent hausse du degré de formalisation par l’automatisation de certains processus. Cette standardisation peut améliorer l’efficience à court terme mais aussi limiter, voire interdire les expérimentations locales favorables à l’apprentissage ; – modification des rapports de pouvoir dans l’organisation. Un PGI peut avoir à la fois des effets centralisateurs en améliorant les conditions du contrôle de gestion (uniformisation de la production des rapports par exemple) et des effets décentralisateurs en permettant à tous les managers un accès plus commode à l’information ; – modification de la distribution des connaissances au sein de l’organisation liée à l’évolution des processus et à la modification des schémas de communication. Or l’expérience comme les théories des organisations conduisent à rejeter l’hypothèse d’un déterminisme technologique strict. Les évolutions réelles d’une organisation découlent d’une conjonction particulière des différents effets rappelés ci-avant, effets modérés ou renforcés par le processus de mise en oeuvre, les conflits entre acteurs, la latitude plus ou moins grande laissée par l’outil. . . En définitive, l’impact de l’introduction d’un PGI sur le fonctionnement de l’organisation est peu prévisible ; comme le dit P. Besson (1999) : « Un projet ERP peut être assimilé à un laboratoire où se reconstruit de la cohérence organisationnelle. » Les résultats de cette reconstruction sont incertains : il s’agit d’un processus émergent et non d’une action rigoureusement plani 3. Les incertitudes stratégiques Nous évoquerons ici deux aspects : celui du développement des systèmes d’information à usage concurrentiel, celui de la flexibilité. En adoptant un PGI, produit standard, l’entreprise se lie pour longtemps à un fournisseur et limite donc ses possibilités de création de systèmes d’information lui procurant un avantage concurrentiel. Comme le souligne F. Rowe, « l’avantage ne peut plus venir que du caractère novateur de l’objet de l’application et non de la façon dont l’application et l’infrastructure sont elles-mêmes structurées et plus ou moins adaptées à l’organisation ». L’une des rares possibilités d’améliorer la compétitivité reste alors de réussir la mise en place du PGI plus rapidement que ses concurrents et/ou d’atteindre un meilleur taux d’utilisation. Par nature, la véritable utilisation de systèmes d’information à avantage concurrentiel repose sur des réalisations spécifiques et non sur des logiciels standardisés. La question de la flexibilité stratégique ne semble pas non plus complètement résolue. L’entreprise confie à son partenaire (éditeur ou consultant) le soin de faire évoluer les logiciels ; les coûts de maintenance sont élevés (20 à 25% du budget initial chaque année) ; les coûts de sortie (renoncer au progiciel et changer de fournisseur) sont, selon certaines estimations, de deux à six fois plus élevés que l’investissement initial. Enfin, l’expérience montre qu’il est toujours plus difficile de modifier des systèmes intégrés que des logiciels séparés (l’existence de liens multiples alourdit les modifications). 2 3 2 Conclusion sur la notion de PGI Malgré un indéniable succès commercial, les PGI connaissent aussi des échecs. Le succès véritable découle d’un équilibre subtil entre une adaptation trop coûteuse du progiciel aux caractéristiques de l’organisation (qui réduit les avantages de la standardisation) et le changement trop brutal imposé à l’organisation (qui peut entraîner des conflits et le rejet). 3 Le dépassement du cadre organisationnel : vers l’entreprise étendue Le développement accéléré des technologies de communication (voir chapitre 4, 2) a apporté des possibilités nouvelles dans la gestion des activités principales de la chaîne de valeur : logistique amont, production, logistique aval, et entraîné des modifications dans la façon de concevoir les systèmes d’information pour la gestion commerciale, la gestion de la production et celle des approvisionnements dans les entreprises manufacturières. Conçus à l’origine dans le cadre strict de l’organisation, ces systèmes d’information sont aujourd’hui développés dans un cadre interorganisationnel représentatif du fonctionnement des entreprises organisées en réseaux. Ils constituent le support essentiel de la gestion des flux physiques entre les différents membres du réseau. 2 1 3 L’optimisation de la gestion des flux physiques L’évolution des modes de production vers des formes de juste-à-temps a mis en évidence l’importance de la logistique, c’est-à-dire « la technologie de la maîtrise des flux de matières qu’une entreprise expédie vers ses clients (produits finis, pièces détachées), transfère entre des unités ou en leur sein (demi-produits, en cours) et reçoit des fournisseurs et sous-traitants (matières premières, fournitures) » (Paché, 1994). Selon la conception de l’optimisation retenue, les systèmes d’information supports de cette gestion des flux diffèrent. La tendance dominante aujourd’hui est celle d’une gestion intégrée de la chaîne logistique complète. 1. Les différentes logiques d’optimisation La figure 17 présente les différents types de systèmes d’information correspondant aux différentes logiques d’optimisation dans la gestion des flux et aux différents types d’intégration. L’approche 1, la plus ancienne, correspond à une logique d’optimisation locale : des SI disjoints supportent les processus d’achat, de production, de distribution, et la meilleure solution est recherchée, de manière indépendante, au niveau de chaque fonction. L’approche 2 correspond à une logique d’optimisation globale interne. Par le recours à un PGI (voir ci-avant), on s’assure d’une bonne cohérence interne dans la gestion des différentes fonctions. L’intégration est limitée à l’intérieur de l’entreprise. L’approche 3 correspond à une logique d’optimisation conjointe dans le cadre d’une entreprise étendue. Les SI fonctionnels sont définis par les partenaires de l’échange : fournisseurs pour la logistique amont, clients pour la logistique aval ; ce sont des SI interorganisationnels avec un aménagement des interfaces chez chaque partenaire de l’échange. L’intégration est étendue à l’extérieur de l’entreprise. L’approche 4, la plus récente, correspond à une logique d’optimisation par externalisation et flexibilisation. L’entreprise a recours à des marchés électroniques (plate-forme d’achat, place de marché) qui assurent les fonctions essentielles d’intermédiation vers l’amont et vers l’aval, avec sélection des partenaires. Les SI sont définis en commun avec les gestionnaires des marchés électroniques. On peut parler dans ce cas d’entreprise virtuelle étendue, avec une reconfiguration fréquente du réseau fournisseur-entreprise-client. 2. La gestion intégrée de la chaîne logistique Qu’elle s’accompagne ou non de l’externalisation plus ou moins complète des fonctions logistiques, la tendance dominante actuelle est la reconnaissance de l’intérêt d’une gestion intégrée de la chaîne logistique reliant les différents partenaires. Cette notion de chaîne logistique reliant les différents partenaires du réseau (figure 18) montre que le problème essentiel est d’assurer la continuité et la fluidité des flux physiques, des flux financiers entre différents partenaires (client, transporteur, fournisseur. . .) par une exploitation optimisée globalement des flux informationnels propre à assurer la coordination des activités de chacun. On aboutit ainsi au concept de supply chain management (SCM), c’est-à-dire à une gestion intégrée, par plusieurs partenaires, de la chaîne logistique reliant les fournisseurs et les clients. Il y a optimisation conjointe d’une série de chaînes de valeur reliant les différents partenaires avec une minimisation des coûts pour l’ensemble des intervenants de la chaîne, généralement associés dans une relation forte et durable. Cette nouvelle conception des relations client-fournisseur a des conséquences importantes pour la construction des SI fonctionnels dans les entreprises. 2 2 3 Les conséquences pour les systèmes d’information La recherche d’une optimisation conjointe dans la gestion des flux implique une collaboration entre partenaires pour définir en commun des systèmes d’information interorganisationnels (ou au minimum des interfaces compatibles) correspondant aux processus partagés. Cette mise en commun propre à assurer une bonne coordination dans les échanges a deux conséquences principales pour les systèmes fonctionnels de ce type : – elle introduit des difficultés supplémentaires ; – elle impose des critères d’évaluation différents. 1. Des difficultés supplémentaires Même si l’on suppose que les différents partenaires se font suffisamment confiance pour collaborer efficacement, l’extension des SI au-delà des frontières de l’entreprise pose de réels problèmes : – d’interopérabilité, capacité des matériels et des logiciels à fonctionner ensemble via des réseaux de communication d’interfonctionnement, accès réciproque aux données et aux ressources nécessaires lors des « passages de relais » entre multiples systèmes souvent hétérogènes (Fabbe-Costes, p. 179). La difficulté principale de la mise en place d’une chaîne logistique intégrée réside dans l’existence de systèmes informatiques hétérogènes qui doivent être adaptés par une mise en oeuvre coûteuse. L’existence de normes et de protocoles standardisés pour l’échange de données informatisées (EDI, Internet) ne résout pas toutes les difficultés. Cela explique le développement encore limité de ce type de solution. Le recours aux plates-formes d’intégration apporte des améliorations certaines dans la gestion de ces échanges. 2. Des critères d’évaluation différents La mise en place des systèmes de ce type obéit à des logiques d’optimisation conjointe de l’ensemble de la gestion des flux. Pour répondre correctement à ces objectifs, ils doivent concilier deux impératifs : – celui de la rapidité de réponse (quick response) à la demande du client, répercutée tout au long de la chaîne. Cette notion de quick response a été élargie à la notion d’efficient consumer response (ECR), où, grâce au traitement rapide des informations, on réduit les coûts de la chaîne d’approvisionnement tout en diminuant le délai de réaction ; – celui de la sécurité de fonctionnement : parce qu’ils supportent les processus essentiels de l’entreprise, ces systèmes d’information doivent pouvoir fonctionner en permanence, sans erreurs, en résistant aux tentatives d’utilisation frauduleuse (en particulier en matière de paiement). L’expérience montre que ces deux impératifs ne sont pas toujours faciles à concilier. Pour résumer L’étude des systèmes d’information fonctionnels, spécifiques ou standardisés montre que : 1. L’évaluation des apports d’un système d’information dans un domaine ne doit pas se limiter au domaine qu’il couvre mais être appréciée au niveau de l’ensemble de l’organisation. 2. La cohérence organisationnelle (entre domaines et entre niveaux de gestion) se réalise par le partage de représentations communes. Le recours à des référentiels uniques (bases de données, répertoire d’objets) est un puissant facteur d’intégration. 3. La définition des caractéristiques d’un système à construire, donc l’exercice d’une maîtrise d’ouvrage efficace, exige une connaissance précise du domaine d’application. Cette connaissance spécifique doit être détenue par les utilisateurs (spécialistes du métier) et non par les informaticiens (spécialistes de l’outil). Chapitre 3 L’aide à la décision 1. Les trois visions théoriques de la décision 2. Les outils d’aide à la décision individuelle Au terme de ce chapitre, vous devez être en mesure . de présenter les différents aspects du concept de décision dans l’entreprise . de décrire les différentes rationalités sousjacentes dans une prise de décision . de connaître les différents outils d’aide à la décision individuelle . de connaître les principes de base de l’intelligence artificielle en termes de savoir-faire : . d’expliquer, dans une étude de cas, à quel modèle théorique se rattachent une pratique ou un outil de décision dans l’entreprise. Une des justifications fondamentales du développement des systèmes d’information est d’assurer le lien entre informations et décisions. Mais pourtant ce lien n’est ni simple ni linéaire, c’est pourquoi il convient d’abord d’avoir une vision théorique du concept de décision, qui en accepte sa complexité sinon son ambiguité. C’est en gardant à l’esprit les différentes facettes de la « rationalité » que l’on peut ensuite comprendre le rôle et l’importance des outils d’aide à la décision : tableaux de bord, entrepôts de données, intelligence artificielle. . . L’observation du fonctionnement d’une organisation montre que la conduite de son activité repose sur la prise de décisions variées à la fois dans leur niveau (opérationnelles ou stratégiques) et dans leur fréquence (répétitives ou exceptionnelles). Un premier exemple : la décision d’adopter un ERP. L’émergence des ERP est un des principaux facteurs de changement organisationnel dans les entreprises au cours de ces dernières années. La décision d’adopter un ERP est un exemple de trois rationalités possibles (et peut-être complémentaires) : la rationalité calculatoire, la rationalité procédurale et la rationalité mimétique. On pourrait d’abord, assez classiquement, considérer la décision d’adopter un ERP comme un CALCUL, suivant l’idée qu’un ERP est un investissement qu’il faut réaliser s’il crée de la richesse et que cette richesse peut être estimée à partir de différents critères proposés par la théorie financière. Pourtant, une étude portant sur 58 entreprises (dont 37 qui ont adopté un ERP) montre que seule la moitié de ces entreprises avaient calculé un taux de rentabilité et à peine un tiers avaient calculé une valeur actuelle nette du projet (Pupion et Leroux, 2006). Le calcul apparaît donc plutôt comme un élément pour une justification éventuelle. On pourrait ensuite considérer la décision d’adopter un ERP comme un contrat, comme une PROCÉDURE politique de négociation, car la portée de l’application des systèmes ERP, leur complexité et leur niveau élevé d’intégration représentent des défis importants et de nombreux facteurs de risque : taille du projet, difficulté technique, périmètre du projet. . . L’étude portant sur 58 entreprises montre en effet que ce sont les caractéristiques perçues de l’ERP qui déterminent en fait le comportement d’adoption des décideurs (notamment pour les entreprises qui ont adopté). Tous les attributs ont été notés au-delà de 4 sur 6 sur une échelle d’importance perçue : compatibilité avec la stratégie du secteur, avantages en termes de gestion d’information et prise de décision, avantages stratégiques, avantages organisationnels, complexité et risques techniques, complexité et risques organisationnels. La décision d’adopter un ERP peut enfin être considérée comme une « vision organisante », comme une construction de sens par MIMÉTISME. Reconnaissant l’impossibilité d’une information parfaite, le comportement rationnel repose alors sur l’information et la communication du comportement des autres (le respect du code de la route est un exemple d’une convention permettant de décider sans calculer). Il y a mimétisme rationnel dès lors que l’adoption d’un comportement par une unité de décision accroît pour les autres la probabilité d’en faire autant : l’étude portant sur 58 entreprises a montré que 54 % déclarent avoir été influencées fortement par le choix effectué par d’autres sociétés reconnues comme performantes, 43% par le choix fait par les sociétés jugées innovantes, 40 % par le choix réalisé par des sociétés reconnues comme leaders dans le secteur. Un deuxième exemple : la décision d’approvisionnement Dans une organisation, un individu (que nous appellerons décideur) exerce son activité de la manière suivante : – il doit poursuivre un objectif propre (qui est, en principe, lié aux objectifs de l’organisation) ; – il est doté de variables de décision (ou variables de commande, ou variables d’action) qui représentent sa capacité d’action, définie par son rôle dans l’organisation. Ces variables de décision correspondent à sa latitude décisionnelle, son pouvoir, lui permettant d’effectuer des choix ; – il applique, pour effectuer ses choix, un modèle de gestion, c’est-à-dire un ensemble de règles. Une représentation des plus simples d’un modèle de gestion peut être constituée d’une matrice, appelée souvent « fonction de décision ». Cette matrice présente, d’une part, les variables d’action, d’autre part les « états du monde », c’estàdire les conditions dans lesquelles la variable d’action doit être choisie. Les valeurs contenues à l’intérieur de la matrice sont celles d’un critère exprimant la valeur espérée de l’objectif. Ainsi, rij correspond à la valeur de l’objectif susceptible d’être atteinte lorsque le gestionnaire choisit ai et que l’« état du monde » est xj. Exemple Le tableau ci-dessous résume le modèle de gestion d’un vendeur de journaux qui décide du nombre de journaux qu’il achètera (a, variable d’action) pour revendre, en fonction de la demande supposée (x, état du monde). Son objectif est de maximiser son gain (fonction du nombre de journaux vendus mais aussi du nombre de journaux achetés et non vendus). Le problème général auquel est confronté le gestionnaire peut s’exprimer sous la forme suivante : si xj. . . alors choisir. . . ai pour optimiser une fonction de rij. Remarque Dans le cas ci-dessus, si la demande exprimée (x) est égale à 20, alors le gestionnaire décide d’acheter 20 journaux (a), ce qui lui assure le gain le plus élevé : 20. Ces exemples, de dimension limitée, montrent cependant l’importance de l’activité de décision pour la gestion. Il n’est donc pas surprenant que, compte tenu des liens apparents entre information et décision, on ait cherché à utiliser les technologies de l’information pour assister la prise de décision. Le domaine de l’AIDE À LA DÉCISION constitue donc une partie importante et relativement ancienne du champ des systèmes d’information. Cependant, pour bien situer à la fois l’intérêt et les limites de l’aide à la décision, il est nécessaire de bien comprendre en quoi consiste le PROCESSUS DE PRISE DE DÉCISION. C’est pourquoi nous présenterons tout d’abord différentes visions de ce processus de décision pour ensuite présenter les principaux outils d’aide à la décision individuelle (les problèmes de la décision collective seront abordés dans le chapitre suivant). 1 Les trois visions théoriques de la décision Dans la réalité quotidienne de la résolution des problèmes, l’activité du gestionnaire ne se réduit pas à explorer les lignes et les colonnes d’un tableau bien construit, comme le suggère la théorie standard de l’optimisation qui fera l’objet du point 1.1. Le décideur s’engage en fait dans un processus complexe aboutissant à la prise d’une décision après utilisation des seules informations disponibles, dans un certain contexte (espace et temps). Pour bien situer la notion d’aide à la décision, il est donc important de décrire comment se déroule le processus de résolution des problèmes (en particulier quelles sont les modalités d’utilisation de l’information). La théorie standard étendue du processus de prise de décision fournit des éléments fort utiles pour comprendre l’apport potentiel des technologies de l’information : elle sera l’objet du point 1.2. Mais on peut également montrer que cette vision standard étendue a des limites, qu’elle n’intègre pas toute la complexité du processus de résolution de problème et que, par conséquent, il est nécessaire d’inclure une autre conception de l’aide à la décision ; cette discussion sera l’objet du point 1.3 sur les visions critiques de la décision 1 1 1 La vision économique de la décision La théorie économique normative décrit le comportement d’un décideur dans une logique de « conséquence », c’est le modèle théorique de « l’Homo Economicus » : – Les individus sont rationnels : ils optimisent leur fonction d’utilité (systèmes de préférences, aversion au risque. . .) ou leur fonction de production (capital et travail, productivité marginale décroissante. . .). – La concurrence pure et parfaite sur les marchés (transparence, atomicité, homogénéité, libre entrée) conduit à une utilisation optimale des ressources (« optimum de Pareto »). Cet équilibre concurrentiel n’est plus efficient, dès lors qu’existent des monopoles, des biens collectifs, des effets externes ou des coûts de transaction. Pour l’analyse dite néo-classique, la décision se borne donc à un calcul : « si on possède toute l’information nécessaire, si on raisonne à partir d’un ensemble donné de préférences et si on connaît l’ensemble des moyens techniques disponibles, ce qu’il reste à résoudre n’est qu’un problème de pure logique » (F. von Hayek, 1945) : a) Quelles sont les actions possibles ? b) Quelles sont les conséquences à attendre de chacune de ces actions ? Probabilité ? Risque ? c) Quelle est la valeur pour le décideur (on parle ici de « l’utilité ») de chaque conséquence ? d) Enfin, quelles règles de décision : comment choisir parmi les alternatives pour maximiser la valeur moyenne de la « fonction d’utilité » ? (Cette fonction d’utilité est un système de préférences, c’est-à-dire un classement des conséquences, en fonction de critères comme le profit.) Le dilemme des prisonniers, typique de la « théorie des jeux » en économie, élargit cette problématique du calcul à la collaboration. Il y a quatre peines possibles pour deux complices prisonniers, avec D05D15D25D3 : – si aucun des deux n’avoue (ils collaborent entre eux) : une peine courte D1 pour chacun ; – si les deux avouent : une peine longue D2 pour chacun ; – si l ’un des deux avoue et pas l’autre : celui qui avoue (il rompt la collaboration entre eux) a une peine très courte D0, mais celui qui n’a pas avoué a une peine très longue D3. Avec le critère « minimax », il faut minimiser la perte maximale, il faut donc qu’ils avouent tous les deux. Mais avec la coopération, il ne faut pas avouer au premier interrogatoire, puis reproduire la réponse précédente de l’autre, en maintenant un équilibre à long terme dans lequel personne n’avoue malgré l’incitation évidente (l’intérêt commun des malfaiteurs est de ne pas avouer, bien que chacun puisse personnellement avoir intérêt à avouer). On appelle équilibre de Nash toute combinaison de stratégies (une par joueur) où chacun anticipe correctement ce que les autres vont faire, et aucun joueur ne regrette son choix après avoir constaté celui des autres. Les développements mathématiques deviennent extrêmement sophistiqués, mais dans de nombreuses situations, des équilibres multiples apparaissent, et les hypothèses de la théorie des jeux sont insuffisantes pour déterminer les choix stratégiques à partir de considérations uniquement rationnelles. Il n’y a pas de « solution » au sens mathématique. On représente en général les différents déroulements possibles par un arbre. Suivant les issues possibles, et leurs probabilités, il existe des algorithmes pour déterminer le « meilleur choix ». On peut simuler l’incertitude en introduisant un joueur non stratégique, la « Nature », qui peut prendre aléatoirement certaines décisions à telle ou telle étape du jeu, orientant alors la suite du jeu vers un certain sous-arbre de l’arbre du jeu. Le dilemme du marché des voitures d’occasion est typique de la « théorie des contrats » et de l’asymétrie d’information : il y a asymétrie d’information car avant le contrat seul le vendeur connaît l’histoire et l’état véritable de la voiture (situation dite d’information cachée, ou de sélection adverse). L’autre situation d’asymétrie est celle où l’une des parties ne peut contrôler le comportement de l’autre partie après le contrat (ce sont des situations dites d’action cachée, ou de hasard moral, que l’on retrouve beaucoup dans le domaine du contrat d’assurance ou du contrat de travail). On définit une « relation d’agence » comme un contrat par lequel une personne (le principal) engage une autre personne (l’agent) pour exécuter en son nom une tâche qui implique une délégation du pouvoir de décision (confier la vente de sa maison à un agent immobilier). L’agent est donc tenté de se comporter dans son propre intérêt et d’annoncer au principal mal informé que les mauvais résultats sont le fait d’événements indépendants de sa volonté. La théorie suppose des comportements de maximisation très sophistiqués qui conduisent à des contrats complexes, mais n’ont pas toujours d’implications pratiques. C’est toutefois la théorie de l’agence qui est à la base de la rémunération des managers par des « stock options » : le contrat impose ainsi au manager de travailler pour faire monter le cours de l’action et profiter ainsi de sa rémunération par plus-value, le tout au profit de l’actionnaire. 1 2 1 La recherche opérationnelle On date habituellement la naissance de la recherche opérationnelle (RO) au moment de la Deuxième Guerre mondiale, quand l’armée fit appel à des équipes de mathématiciens et de physiciens pour analyser des problèmes militaires (organisation des convois maritimes, des réseaux de radars. . .). Cette approche mathématique des problèmes de décision a été transposée au monde économique et industriel où elle a connu de nombreux succès. L’objectif de la recherche opérationnelle est l’aide à la décision par une modélisation mathématique des problèmes courants : le but n’est pas de « prendre la décision » mais de clarifier le contexte dans lequel la décision sera prise, on cherche à garantir non pas la valeur du résultat mais l’optimalité de la décision. La théorie des graphes est la branche des mathématiques qui est le support théorique principal (algorithmes pour les problèmes d’ordonnancement, de réseaux de transport, de chemin optimal), mais on utilise également la programmation linéaire pour les problèmes d’affectation (résolution de systèmes d’équations et d’inéquations linéaires, méthode du simplexe) et le calcul des probabilités (espérance mathématique, théorie des files d’attente, simulation d’échantillon, méthodes de choix multicritères). Pour un mathématicien, un choix réel ne peut se faire qu’en connaissance de cause. . . mais comme on ne peut pas attendre de tout connaître avant d’avancer, l’utilisateur applique en fait des modèles mathématiques « toutes choses égales par ailleurs », et en admettant que « toutes les hypothèses sont vérifiées ». On trouve alors une solution « optimale », mais en général les contraintes sur le terrain font que l’on doit se contenter d’une solution « pas trop loin de l’optimum » (de quoi faire pleurer le mathématicien). Les applications sont pourtant impressionnantes. On estime le gain annuel apporté par CPOS à 50 millions de dollars : ce logiciel, Crew Pairing Optimization System développé par IBM et SABRE, permet de planifier l’affectation des équipages d’avion pour les différents vols. Toujours dans le transport aérien, les compagnies affirment que les tactiques développées et gérées grâce aux méthodes de RO leur font gagner plus d’un milliard de dollars par an sur le problème de gestion des stocks complexes, comme les places d’avions : vaut-il mieux vendre des sièges maintenant, au prix que les clients sont prêts à payer aujourd’hui, ou conserver ces sièges pour les vendre demain ou en dernière minute à un prix plus élevé ? Dans les logiciels ERP, les modules de gestion des stocks, de planification de production, d’ordonnancement de projets. . . reposent sur l’utilisation des modèles classiques de RO. Et dans le monde financier des modèles extrêmement complexes, faisant appel à l’optimisation stochastique et à la simulation numérique, sous-tendent de nombreuses décisions prises par les gestionnaires de fonds d’investissement et fonds de pension. 12 La théorie standard étendue de la décision : la rationalité procédurale Le modèle classique issu des travaux de H. Simon (modèle IMC) apporte une représentation dynamique du processus de résolution de problème. Le découpage en phases qu’il propose permet de bien caractériser les formes d’aide à la décision. Comme le décideur a une rationalité « limitée» par ses capacités et ses connaissances, son comportement sera « satisfaisant » et non pas « optimisant », sa conduite sera orientée par son environnement psychologique, lui-même influencé par l’organisation. Ici ce n’est pas le résultat qui est rationnel, mais c’est la procédure suivie, il s’agit d’une « rationalité procédurale ». Et on peut expliciter et améliorer les heuristiques et les règles empiriques sur lesquelles un décideur fonde son comportement (que ce soit un gestionnaire ou un joueur d’échecs) : itérations et rétroactions nombreuses, appel à l’expérience, intuition et jugement, simulation de l’impact des heuristiques 1 1 2 Le modèle « intelligence-modélisation-choix » (IMC) 1. La structure du modèle L’analyse du processus de décision proposé par H. Simon permet de mieux comprendre le déroulement des différentes phases de résolution ; Simon distingue quatre phases. La première phase correspond à l’identification du problème (« De quoi s’agit-il ? »). On notera ici que le mot « intelligence » correspond au sens «militaire » du terme, celui de la recherche du renseignement. La deuxième phase est celle de la conception et de la formulation des voies de solution possibles ; on définit des scénarios de réponse à travers des modèles d’action. La troisième phase est celle du choix d’une action possible parmi les différentes voies explorées dans la phase précédente. Il est possible, par exemple, d’utiliser un modèle de gestion selon le principe décrit dans le paragraphe précédent. La quatrième phase correspond à l’évaluation de ce choix provisoirement reconnu ; il peut être validé ou remis en cause avant sa mise en oeuvre (ou éventuellement après un début de mise en oeuvre). La remise en cause entraîne un retour vers une ou plusieurs des phases précédentes. Ce modèle du processus de prise de décision proposé par Simon met en évidence deux points fondamentaux : – la nécessité d’une définition du problème ; – la rationalité limitée dans la recherche des solutions. . Premier point : l’importance de la phase de définition « Problem finding » Notre environnement nous fournit plus de stimuli que nous ne pouvons en traiter. Par conséquent, nous prévenons la surcharge d’information par un processus de filtrage de l’information. Nous avons tendance à créer un espace de résolution de problèmes, un « lieu de travail » conceptuel pour structurer et limiter l’entrée de l’information et des méthodes de traitement. Dans le domaine de la gestion, les problèmes ne sont pas toujours définis a priori. Une situation devient problématique lorsque la réalité observée (les signaux reçus) ne correspond pas à ce qui était attendu ; c’est l’existence de ces différences qui révèle un problème. Un exemple classique est de la gestion budgétaire où les écarts (réel-budget) constituent des signaux révélateurs d’une situation éventuellement problématique. La situation sera reconnue comme posant un problème si : – la différence est perçue comme telle, donc significative, par le gestionnaire ; – le gestionnaire souhaite modifier cette situation et peut le faire. Dans la majorité des cas, le problème ne peut être défini objectivement mais subjectivement en fonction de la perception du gestionnaire. Il est donc possible, à partir des mêmes différences observées, de construire différents modèles de problèmes, donc, concrètement, d’identifier des problèmes différents. Exemples – À partir des mêmes signes cliniques (aspect du patient, température, tension artérielle), il est possible que des médecins établissent des diagnostics différents. – Une baisse des ventes d’un produit dans une région par rapport aux prévisions peut être identifiée comme un problème de représentant (vendeur peu performant) ou comme un problème de compétitivité du produit par rapport à un concurrent. La phase d’« intelligence » du problème apparaît ainsi comme capitale pour la recherche d’une solution et l’art du gestionnaire consiste d’abord à définir le vrai problème avant de trouver la bonne solution. Il importe, donc, de bien distinguer la phase d’identification du problème de la phase de sa résolution. Cependant, cela ne doit pas conduire à la conclusion que le processus est automatiquement séquentiel. Comme le montrent les flèches de la figure 1, le processus est itératif ; on peut être amené, lors des phases ultérieures, à remettre en cause l’identification première du problème. . Second point : la rationalité limitée dans la phase « Problem solving » La phase de modélisation : nous utilisons des modèles de référence, ou modèles intuitifs d’acquisition et de traitement de l’information : à mesure que nous acquérons de l’expertise dans certains domaines, nous élaborons et utilisons des modèles de référence de façon plus ingénieuse pour mieux contrôler les stimuli qui nous entourent. Les êtres humains créent naturellement des concepts comme modèles de pensée. La phase de choix : les êtres humains font enfin appel à l’ancrage, c’est-à-dire qu’ils utilisent l’information déjà emmagasinée pour juger des stimuli du même type. Ils utilisent alors les analogies et les métaphores pour faire des associations entre les phénomènes naturels de leur environnement. Ils font des inférences en se fondant sur leur savoir et sur des règles de conduite (heuristiques). Dans le modèle IMC, on ne recherche plus « la » solution optimale, mais une solution jugée satisfaisante. La rationalité n’est plus substantive (obtention de l’optimum défini par la fonction d’utilité) mais procédurale (respect d’une certaine procédure de choix). On parle alors de rationalité limitée dans le processus de décision, limitée, en particulier, parce que l’on ne recherche généralement pas toutes les alternatives possibles. Remarque Mintzberg et al. ont proposé une décomposition du modèle IMC en sept procédures principales, mettant notamment l’accent sur la phase finale d’implantation de la solution. 2. Les conséquences du modèle IMC sur le plan de l’information Par rapport au modèle statique des théories de la décision, le modèle du processus de prise de décision constitue une représentation plus réaliste du comportement du décideur dans une organisation. Si l’on adopte ce modèle descriptif, compte tenu des remarques précédentes, il apparaît trois implications importantes sur le plan de l’information : a – L’existence de contraintes de temps La prise de décision se déroule dans un intervalle de temps borné ; par conséquent les activités de recherche d’information, de modélisation, de choix sont soumises à des contraintes parfois sévères (situation d’urgence par exemple). Ces contraintes de temps sont une des causes de limitation de la rationalité calculatoire (on n’a pas le temps de rechercher de l’information ou d’explorer une hypothèse supplémentaire). b – L’existence de contraintes de coût Dans la plupart des cas, en particulier dans la phase d’identification du problème, les informations utiles ne sont pas toujours présentes. Il faut donc déclencher une recherche d’informations. En pratique, le gestionnaire doit continuellement choisir entre « décider de décider maintenant avec l’information disponible » et « décider de chercher de l’information complémentaire avant de décider ». Ce choix correspond à un modèle de gestion de l’information, à l’intérieur du processus de prise de décision, où interviennent, entre autres, des variables telles que le coût d’obtention ou le délai d’obtention de l’information supplémentaire. c – Les formes variables de traitement de l’information : algorithmiques heuristiques Dans la réalité des organisations, les différents problèmes se prêtent, plus ou moins facilement, à une modélisation commode à manipuler. Cela conduit à distinguer les décisions selon leur degré de structuration. Par nature, les problèmes de décision sont plus ou moins structurables, mais leur degré de structuration effectif dépend de la capacité du décideur à analyser le monde réel, à le conceptualiser ; donc de sa capacité d’abstraction et de modélisation. Ce degré de structuration aura une conséquence très nette sur le déroulement du processus de décision où apparaissent de nombreux retours en arrière, des tâtonnements, des recherches de solutions existantes, des jugements de valeur remplaçant des calculs d’évaluation, des phases de négociation, dès l’instant où le problème est mal structuré. Si le problème pouvait être totalement exprimé par un modèle calculable, le processus de prise de décision se réduirait à l’exécution d’un calcul ; on parle alors de pseudo-décision, de type algorithmique. Un algorithme est un procédé de calcul qui permet, après un certain nombre d’étapes, d’aboutir au résultat recherché. Dans de nombreux cas, le modèle du problème n’aboutit pas à une formulation de type algorithmique ; mais l’expérience passée permet de repérer des solutions considérées comme satisfaisantes et de définir certaines règles permettant, en général, de les atteindre. De telles règles sont appelées heuristiques ; à la différence d’un algorithme, elles ne produisent pas dans tous les cas le résultat visé. En pratique, il n’existe pas de dichotomie entre problèmes structurés et problèmes non structurés mais un continuum du degré de structuration allant de décisions de type algorithmique (très fortement structurées) à des décisions de type « politique » (très faiblement structurées). Cette variation du degré de structuration entraîne des variations dans le déroulement du processus de prise de décision (tant dans sa phase de modélisation que dans la phase de choix) et des variations dans la façon de traiter les informations. 3. Décision programmable et décision non programmable H. Simon propose de distinguer les décisions programmables des décisions non programmables. – Les décisions programmables sont fortement structurées ; si elles sont susceptibles d’un traitement algorithmique, elles peuvent effectivement être traduites par un programme d’ordinateur qui exécutera l’algorithme ; elles sont alors « programmées » au sens informatique du terme. Si leur degré de structuration ne permet pas cette solution, il autorise, dans certains cas, la mise au point d’une procédure de traitement, partiellement automatisée ou non mais rigoureusement définie ; ces décisions deviennent « programmées » au sens organisationnel du terme. La caractéristique commune est donc l’existence d’un modèle stable accompagné d’une règle de choix invariante qui fait réserver ce terme à des décisions à caractère répétitif (approvisionnement, affectation, traitement comptable.. .). – Les décisions non programmables sont des décisions faiblement structurées pour lesquelles on ne dispose pas de modèle stabilisé et de règle de choix invariante. Il s’agit de décisions ayant un caractère peu répétitif (absorption d’une autre entreprise par exemple). On notera que le caractère programmable d’une décision est simplement relatif et contingent à l’organisation dans laquelle on se place. (Par exemple, la décision d’embaucher un cadre supérieur peut être jugée non programmable dans une PME et programmable dans une grande entreprise.) 1 22 Les formes d’aide à la décision selon les étapes du modèle IMC À partir de la vision étendue du processus de prise de décision, il est possible de caractériser les formes d’aide à la décision : d’une part, par rapport aux grandes étapes du processus, d’autre part, selon le degré d’assistance fourni. 1. L’assistance aux différentes étapes du processus Les technologies de l’information peuvent être utilisées aux différentes étapes du processus de décision. La figure 2 présente les principales fonctions à remplir par d’éventuels outils d’aide. 1) Pendant la phase d’intelligence, l’assistance consiste d’abord à fournir de l’information externe et interne indiquant l’existence d’un problème à résoudre et facilitant son identification à partir de signaux variés. Exemple La surveillance des ventes d’un produit et l’analyse de l’évolution des préférences des consommateurs peuvent alerter le directeur commercial sur la nécessité de modifier la politique de vente de ce produit (prix, publicité, promotion.. .). Il s’agit donc d’une aide au diagnostic, qui pose des problèmes difficiles comme nous le montrerons ci-après (§ 2). 2) Pendant la phase de modélisation, l’assistance doit faciliter la recherche d’une solution, donc la conception d’un modèle reliant des variables d’action et des résultats, à partir des représentations issues de la phase d’intelligence. Si la décision est bien structurée, ce modèle peut être décrit sous une forme algorithmique calculable (par exemple, un modèle de réapprovisionnement classique) ; dans les autres cas, le modèle est incomplet, les variables ne sont pas toutes mesurables, les relations entre variables sont floues et les résultats non exactement calculables : la décision est incomplètement structurée. Exemple Le directeur commercial pense que l’amélioration des ventes du produit est susceptible d’être obtenue par deux moyens complémentaires : une légère baisse de prix (il se réfère à un modèle implicite d’élasticité au prix) et une augmentation du taux de commission des représentants (il se réfère à un modèle implicite de motivation des représentants liant le comportement au niveau de rémunération). 3) Pendant la phase de choix, l’assistance aide le décideur à sélectionner une alternative parmi celles développées au cours de la phase précédente. On peut ainsi procéder à des simulations : « Que se passe-t-il si je fixe telle valeur au prix de vente ? », à des analyses de sensibilité : « Quelle sera la hausse des quantités vendues si j’augmente la commission de 10% ? » Les capacités de calcul offertes par les technologies de l’information permettent ainsi le test rapide de nombreuses alternatives en faisant varier les valeurs des variables d’action et/ou des critères. 4) Pendant la phase d’implantation et d’évaluation, l’assistance possible consiste d’abord dans l’aide à la communication : diffusion et explication de la décision nouvelle à ceux chargés de la mettre en oeuvre. Bien évidemment, le système d’information doit permettre de surveiller la mise en application, de suivre pas à pas les effets de l’application. Exemple Le directeur commercial a informé les représentants de deux secteurs expérimentaux de la nouvelle politique de prix. Il suit très régulièrement, tous les jours, les prises de commande du produit pour voir si elles sont conformes à ses prévisions. Remarque Cette présentation selon les différentes étapes a un intérêt essentiellement pédagogique. Sur le plan pratique, de nombreux systèmes d’aide à la décision intègrent les différentes fonctionnalités dans un outil unique. 2.Le degré d’assistance fourni L’analyse ci-dessus de l’aide potentielle susceptible d’être apportée aux différents stades du processus de prise de décision montre des « degrés d’aide » très variés. Selon la nature des problèmes, l’apport des technologies de l’information sera très vite limité ou pratiquement complet (automatisation des processus de décision). Par conséquent, la notion de « système d’aide à la décision » peut recouvrir des réalités fort variables allant de la simple fourniture d’informations à l’automatisation intégrale du processus de prise de décisions. Le tableau ci-après regroupe les principaux types de solutions utilisées pour la prise de décision. Le domaine de l’aide à la décision, au sens strict du terme, correspond, pour l’essentiel, aux systèmes interactifs d’aide à la décision, aux applications de l’intelligence artificielle et aux systèmes d’aide à la décision de groupe. Les deux premiers types seront présentés dans ce chapitre ; le troisième, en raison de l’importance des problèmes de communication, sera présenté dans le chapitre suivant. 1 3 2 Conclusion Le recours à la vision étendue du processus de prise de décision permet de caractériser des aspects importants de l’aide à la décision. Toutefois, la persistance de nombreuses difficultés malgré le recours à des technologies sophistiquées a conduit à remettre en cause ce modèle comme base unique de définition de la notion d’aide à la décision. 1 3 Les théories critiques de la décision : la rationalité sociale Le modèle IMC s’est révélé fort utile pour la compréhension des processus de prise de décision. Toutefois, il a été l’objet de nombreuses critiques, tant dans ses hypothèses fondamentales que sur le point précis de la relation information-décision. Pour des auteurs comme Mintzberg et al. (2001), Languey (1995), le modèle IMC souffre de trois limites importantes. 1 – Réification : le modèle suppose que la décision existe en tant qu’objet et peut être facilement identifiée (en particulier au moment du choix). Cela reste une hypothèse, une construction théorique. Quand décidons-nous ? Quelle est la manifestation tangible de ce phénomène ? La décision n’est pas facilement repérable, même par introspection. 2 – Déshumanisation : le modèle présente une vision désincarnée du processus ; il ignore l’individu décideur et ne tient pas compte des différences individuelles, des rôles de l’émotion et de l’imagination. Or le décideur est un acteur, un créateur, un porteur de projet. . . qui a une histoire, qui a acquis de l’expérience. 3 – Isolation : le modèle isole un processus de décision des autres et l’isole également de la réalité collective de l’organisation. Or il existe de nombreux liens entre décisions : des liens séquentiels (une décision prise en t0 implique une autre prise de décision en t1. . .), les liens latéraux (une décision peut partager des ressources avec d’autres. . .) ; des suites de « petites décisions » peuvent s’enchaîner dans un effet « boule de neige » pour constituer, par répétition du processus, une décision importante. Le modèle IMC est donc essentiellement un modèle COGNITIF de la prise de décision (le décideur pense avant d’agir). Dans de nombreux cas, la prise de décision n’est pas une activité scientifique mais un art, dicté par l’émotion, l’inspiration, l’imagination ou une activité artisanale, faite d’essais, d’erreurs, d’improvisation. . . (on agit avant de décider !). Compte tenu des critiques précédentes, on comprend mieux pourquoi les liens, postulés par le modèle, entre information et décision ont pu être remis en cause. Ainsi, pour J. March (1991) : « Quelles que soient les informations collectées, on réclame toujours un complément d’informations ; les informations demandées ne sont pas prises en compte dans la décision ; les informations servent à justifier une décision déjà prise. . . la relation information-décision est donc instable et ambiguë.. . » Le processus d’utilisation de l’information est, par ailleurs, soumis à de nombreux biais. Hammond (1998) en a proposé un recensement : – biais de l’ancrage : prêter une attention exagérée à la première information reçue ; – biais du statu quo : faire comme on a déjà fait, sans chercher d’alternatives ; – biais du coût du changement : ne pas se déjuger, le temps arrange les choses ; – biais de la confirmation : choisir une source d’information qui confirme son jugement, idée préconçue, flatteurs. . . ; – biais du cadre : choisir un point de référence sans poser le problème de façon neutre (par rapport aux pertes et aux gains) ; – biais de la prévision : faire des prévisions sans contrôler les faits. On peut constater aussi que les différences entre les individus créent des différences dans le processus de décision. Chaque personne utilise une même information ou affronte un même problème de manière différente car les styles cognitifs sont différents : style réceptif/perceptif, style analytique/intuitif, propension au risque, personnalité extravertie/introvertie, tolérance à l’ambiguïté, habilité verbale, expérience, capacité de mémorisation, habilité de perception et de discrimination. . . Ces critiques récurrentes du modèle IMC peuvent expliquer en partie le constat d’un échec relatif que beaucoup d’auteurs ont formulé : ainsi H. Simon lui-même rappelle-t-il en 1987 : « Les systèmes d’information ont eu un faible impact sur la prise de décision au travers de la recherche opérationnelle et des sciences de gestion et au travers des systèmes experts développés en intelligence artificielle » (p. 5). Comme le rappellent P. Vidal et F. Lacroux (2000, p. 57) : « Nous pensons que les difficultés rencontrées en matière d’aide à la décision sont moins dues à des considérations techniques qu’à une vision partielle et réductrice du processus de prise de décision. » C’est pourquoi, en nous situant dans cette perspective critique nous soulignerons tout d’abord l’intérêt de mieux comprendre la nature des difficultés auxquelles se heurtent les managers dans leur phase de construction de sens pour en déduire ensuite les conséquences quant à la nature d’une véritable aide à la décision pour la résolution des problèmes complexes. L’importance de la construction de sens Le processus de prise de décision recouvre deux activités : la formulation du problème puis la résolution (formulation d’une solution). L’observation des managers montre que, pour les problèmes complexes, l’essentiel des difficultés se situe dans la partie avant du processus : celle qui va de l’apparition du problème à sa formulation. Comme le souligne M. Landry (1998) : « Le cheminement qui va des problèmes aux décisions et aux actions est souvent tortueux, semé d’embûches, plein de surprises et sujet à des interruptions et à des arrêts. » Le problème essentiel est d’abord de pouvoir DONNER DU SENS À DES OBSERVATIONS, À DES ÉVÉNEMENTS ; cela conduit alors à bien distinguer le cas des problèmes structurés de celui, plus délicat, des problèmes non structurés. 1. La phase clé de la construction de l’attention Dans la réalité du fonctionnement des organisations, les problèmes n’apparaissent pas sous la forme évidente et claire d’un texte. Le manager est confronté à des observations nombreuses et disparates, auxquelles il accorde une attention variable et qu’il doit interpréter pour donner un sens. J.-L. Le Moigne (1996) parle d’intelligence organisationnelle, au lieu de parler de décision : l’organisation se construit, décide, agit et construit du sens (figure 3). « L’intelligence organisationnelle c’est la capacité de s’informer sur son environnement et sur son propre état, de mémoriser ses propres connaissances grâce à une mémoire collective, de définir ses objectifs et de les modifier, d’élaborer et d’adapter ses stratégies, d’appliquer ou d’interrompre des plans d’action. » Le groupe, vu comme un organisme finalisé, vise à réduire en permanence, de façon adaptative, la dissonance résultant de l’écart entre le réel voulu et le réel perçu. Ce comportement est dit « complexe », dans la mesure où toute action rétroagit sur l’environnement, qui lui-même rétroagit sur l’organisme : les finalités modifient le réel voulu et ont un impact sur la sélection des solutions conçues à partir de l’intelligence de la situation dissonante. Ce cheminement des observations à la formulation du problème est relativement complexe. Les trois schémas (pages suivantes) (empruntés à M. Landry, p. 14-16) résument l’approche d’un gestionnaire. Quatre conditions apparaissent donc nécessaires pour ce passage de l’observation au problème (comme le rappelle M. Landry, p. 17). 1 – La présence d’un événement jugé intéressant et dérangeant par le gestionnaire. 2 – Un jugement de sa part sur sa capacité d’intervention. 3 – L’expression d’un intérêt et d’une volonté d’intervenir. 4 – La présence d’une incertitude de départ quant à la solution (problème structuré), quant au mode d’intervention (problème non structuré). La figure 6 suivante met en évidence une distinction fondamentale entre un problème bien structuré où le décideur « comprend ce qui se passe », c’est-à- dire est capable de donner du sens aux observations (souvent parce qu’il a reconnu un problème auquel il a déjà été confronté), et un problème non structuré pour lequel il doit entreprendre un travail de constitution de sens. Le modèle du « sens making » dans la décision collective (K. Weick, 1995) K. Weick (1995) ne parle plus de choix, ni même de décision, mais d’interaction, au sein de petits groupes des organisations « hautement fiables » : une équipe de pompiers, une équipe de contrôleurs aériens : comment les acteurs parviennent-ils à réduire, dans l’interaction, l’équivoque des situations ? Pour Weick ces organisations favorisent l’émergence d’une « conscience collective », qui conduit les individus à développer des capacités de discrimination, facilitant la recherche et la correction des erreurs avant que des incidents ne se transforment en catastrophes (capacité à accepter des informations ou des événements qui ne cadrent pas avec la technologie que l’on exploite). La fiabilité repose sur la vigilance (capacité à envisager l’impossible, à partir de laquelle l’acuité aux signaux d’alerte s’accroît), et cette vigilance est un produit collectif, non une propriété attachée aux individus : c’est le groupe qui est vigilant, attentif, prudent, consciencieux et obstiné, grâce à la conscience collective qui dépend de cinq variables : – Une propension à s’occuper des erreurs : l’erreur est à la fois perçue comme une erreur à combattre mais aussi comme une fenêtre sur la santé et la régulation du système. – Une réticence à simplifier les interprétations : la variété requise garantit des divergences suffisantes de répertoires analytiques et comportementaux à propos de l’organisation et de la technologie, pour nourrir de larges répertoires de détection et de réponse aux erreurs. – Une sensibilité accrue au contexte opérationnel : maintien d’un état permanent de sagesse et d’hyper vigilance systématique sur les opérations en cours. – Un engagement pour la résilience : capacité à ne pas considérer les chocs comme traumatisants et à passer rapidement du rôle qui est normalement assigné à d’autres rôles. – La sous-spécification des structures : les liens hiérarchiques doivent pouvoir se détendre pour faciliter le flot et la rencontre des erreurs, des problèmes, des solutions, des expertises. Cette conscience collective s’appuie sur les processus cognitifs de la « construction du sens ». S’il y a dissonance, il y a construction de sens : les individus nourrissent de façon consciente ou inconsciente un certain nombre d’anticipations et de présupposés sur le monde qui les entoure. Chaque fois que des événements en décalage avec ces attentes se produisent, les individus vont chercher à leur assigner un sens. La construction du sens est donc une façon d’appréhender les interruptions et de les justifier. Le problème principal des décideurs est d’attribuer à des résultats un historique légitime (par construction rétrospective), La construction du sens est un processus de pensée qui utilise le récit rétrospectif pour expliquer les surprises. Le processus se rapproche de ce qu’il se produit par exemple en théâtre d’improvisation : le jeu commence dès lors que les deux acteurs se sont mis tacitement d’accord sur la « piste » à développer pour l’improvisation à exécuter. La piste est l’élément inattendu produit par l’un des acteurs, que l’un et l’autre garderont pour créer la situation dans laquelle ils vont jouer. Tout le jeu de la situation se crée à partir de la sélection et la rétention de cet indice surprenant. À la SNCF par exemple, les mécaniciens reçoivent chaque jour de nouvelles procédures de conduite qu’ils doivent rapidement assimiler et intégrer dans les manuels de conduite et de circulation. Il en est de même pour les opérateurs de salles de commandes dans les centrales nucléaires d’EDF. Les dispositifs de retour d’expérience qui permettent d’organiser et de structurer l’analyse des incidents significatifs dans ces deux organisations portent sur un échantillon d’événements très importants (environ 82 000 événements à la SNCF). La surcharge d’informations va pousser les individus à prendre plusieurs raccourcis pour gérer la quantité : l’omission, la tolérance à l’erreur, le filtrage, l’abstraction sont autant de stratégies activées par les acteurs pour réduire cette charge. Ces stratégies sont des façons de ponctuer l’expérience et de la découper en segments (c’est l’enactment) avec comme résultat de ne retenir qu’une fraction infime pour construire du sens (par sélection puis rétention). Weick montre que derrière l’aspect bureaucratique et froid des organisations hautement fiables, se cachent une multitude de situations exceptionnelles, accidentelles, surprenantes, non anticipées et fluctuantes. Les occasions de construction du sens sont multiples. La prise de décision implique donc une construction préalable de sens par l’évaluation et l’interprétation de différents événements (surprenants, contrôlables. . .) révélés par des observations parcellaires qu’il faut rapprocher, contrôler. .La conséquence majeure est que l’aide à la décision doit d’abord ÊTRE UNE AIDE À LA CONSTRUCTION DE SENS AVANT D’ÊTRE UNE AIDE AU CHOIX. 12 3 Les conséquences de la construction de sens sur la nature de l’aide à la décision La complexité croissante des problèmes qu’ont à résoudre les décideurs implique que l’aide à la décision se doit d’être, en priorité, une aide à l’intelligence du problème. Cette aide à la construction de sens ne se réduit pas, dans la plupart des cas, à la fourniture d’informations ou à l’assistance à la mémorisation et au calcul. De même, la modélisation formelle des problèmes doit être d’abord vue comme une activité de construction de sens et non comme un résultat définitif. L’intérêt majeur du modèle est d’abord de faciliter la réflexion sur les actions possibles et, ensuite, éventuellement, d’assister la phase de choix. Enfin, même lorsqu’il s’agit d’une décision individuelle (c’est-à-dire de la responsabilité d’un seul individu dans l’organisation), on doit constater que, souvent, la CONSTITUTION DU SENS PEUT ÊTRE UNE ACTIVITÉ COLLECTIVE, FONDÉE SUR LE DIALOGUE, CONDUISANT À LA CONFRONTATION ET À L’ENRICHISSEMENT DES REPRÉSENTATIONS INDIVIDUELLES. Cela conduit à des formes d’aide à la décision de nature différente, comme le montrent les exemples suivants : 1 – L’analyse de données textuelles (ADT) regroupe les méthodes qui visent à découvrir l’information « essentielle » contenue dans un texte, et le foisonnement d’outils auquel on peut assister est à la conjonction de deux problèmes différents. Un premier problème est de « donner du sens » aux très grandes quantités de textes que l’on peut collecter sur Internet (articles, brevets, dépêches, rapports, études. . . mais aussi e-mails, messages de forums, enquêtes clients, fiches de centres d’appel, descriptifs de produits. . .). Il s’agit ici d’organiser automatiquement les contenus, d’extraire de l’information à partir d’un magma hétérogène de textes peu structurés (pour la veille stratégique bien sûr, mais aussi pour l’indexation automatique de documents ou la capitalisation des connaissances). Une première famille d’outils complète le noyau dur des outils statistiques en ajoutant des environnements spécifiques : des lexiques et des ontologies de domaine, des serveurs d’annotations, le tout associé à des fonctions de robots aspirateurs et des outils de cartographie. On parle alors de fouille de données textuelles Textmining ou de la cartographie Web Positioning System (Wordmapper de GrimmerSoft, Zoom de Acetic, LexiQuest de SPSS, TextMiner de SAS. . .). Une autre famille d’outils viendra des recherches en cours sur la formulation des requêtes « intelligentes » sur un corpus de données textuelles, que ce soit avec le Web sémantique (avec la spécification formelle des ontologies de domaines) ou avec le TAL (la spécification formelle des grammaires en traitement automatique des langues). Un deuxième problème est d’assister la lecture d’un document (texte, entretiens, discours. . .) avec des outils quantitatifs : SpadT, Sphinx-Lexica, Alceste, Tropes, NVivo. . . sont parmi les plus cités en France. De quoi parle-t-on dans un texte ? C’est le domaine de l’analyse lexicale, intéressante pour repérer différentes classes de discours dans un texte long (l’analyse du texte se fonde ici sur les proximités entre les mots employés et les méthodes de l’analyse de données multidimensionnelles qui mettent en évidence les classes, les catégories ou les oppositions). Comment parle-t-on dans un texte ? Il s’agit alors d’analyse linguistique, intéressante pour repérer les contextes d’énonciation (analyser un texte devient ici identifier les intentions, et les traces de l’intention se voient lors de l’articulation de deux propositions : des verbes, des adverbes, des conjonctions, des connecteurs.. qui servent à traduire la relation du locuteur à la situation, son point de vue et ses jugements). Enfin, comment interpréter un contenu ? L’analyse thématique de documents peut ici être assistée pour coder des masses importantes de documents hétérogènes, en permettant de coder des fragments (des mots, des idées, des paragraphes, des documents, des images, des propositions. . .) selon des catégories qui peuvent être construites, améliorées au cours de la lecture puis traitées par recherches et croisements multiples. 2 – La cartographie cognitive peut faciliter par la confrontation et l’enrichissement des représentations du décideur. La cartographie cognitive est une technique qui permet de représenter un discours sous la forme d’un schéma constitué par un réseau d’énoncés liés selon des séquences logiques (moyens vers objectifs, prémisses vers conclusions, liens chronologiques. . .). Cette représentation, dont un exemple est fourni figure 8 (Pearson et al., p. 74), permet de construire une image concrète des représentations mentales du décideur ; cette modélisation de la pensée conduit souvent à en améliorer le degré de structuration. À ce premier intérêt pour l’assistance à la phase d’intelligence du problème s’en ajoute un second : les constructions individuelles relatives à un problème peuvent être échangées, confrontées.. . au cours de la phase d’intelligence. Cela permet d’enrichir la représentation du problème par l’union des cartes des différents acteurs (carte COMBINÉE), de mettre en évidence les convergences dans l’analyse du problème par une carte dite du CONSENSUS MINIMUM (reprenant uniquement les idées présentes dans toutes les cartes individuelles), de faire émerger les points de vue divergents (carte des divergences).. . La cartographie cognitive est alors un instrument support de dialogue dans un processus collectif de construction de sens où des idées multiples doivent être confrontées pour une analyse de problème. Exemples – Pearson et al. (1998) ont utilisé cette démarche pour l’identification des problèmes d’entretien des systèmes informatiques (figure 8). – F. Rodhain a utilisé une démarche voisine pour la définition des besoins dans l’élaboration d’un portefeuille de projets en systèmes d’information (voir figure 9). Les exemples ci-dessus illustrent bien le processus de création de sens indispensable à la résolution des problèmes complexes. Dans une certaine mesure, cet examen de la nature véritable de la Le texte qui suit a été schématisé sous la forme d’une carte cognitive. « Nécessité de la tâche d’entretien, premièrement, parce qu’il est peu probable, compte tenu de l’environnement dynamique dans lequel les organisations évoluent, qu’un système n’exige jamais de modifications et qu’il est par ailleurs tout aussi peu probable, compte tenu des investissements déjà faits et de la centralité des SI dans l’activité organisationnelle, que les gestionnaires acceptent de s’en passer ou de les utiliser quand ils sont désuets. Deuxièmement, parce que l’évolution rapide des moyens informatiques crée parfois de nouvelles exigences ; ainsi, on révisera les systèmes pour qu’ils soient aussi performants que ceux des concurrents, pour faciliter leur manipulation, etc. Troisièmement, parce que nombre de systèmes développés s’avèrent, dès leur mise en exploitation, incomplets et qu’il faut, dès lors, les amender. » 1. L’entretien de systèmes est une nécessité Précisions quant aux symboles introduits dans cette figure : · Les lettres entre parenthèses et les chiffres symbolisent les noms des acteurs ayant énoncé l’idée ainsi que le numéro de l’idée dans la carte cognitive individuelle. Par exemple, dans l’idée 5, on lit : « Posséder de plus grands locaux (24T+26M+1L) », ce qui signifie que cette idée se retrouve dans la carte de Thomas (T) et porte dans cette carte le numéro 24 ; qu’elle a été identifiée également par Mathieu (M) et Léonard (L). Cette procédure permet de conserver une trace de la manière dont a été construite la carte du consensus minimum et permet aux acteurs de vérifier sa construction et de comparer cette carte avec leur propre carte. · Des lettres apparaissent parfois à côté des flèches, cela afin de désigner les acteurs ayant identifié le lien de causalité en question. Lorsqu’aucune lettre n’apparaît, cela signifie que le lien de causalité a été identifié par l’ensemble des trois acteurs. La phase d’intelligence dans les décisions non structurées pose la question de l’intérêt des outils « classiques » de l’aide à la décision. C’est en ayant bien conscience de leurs limites pour certaines situations de décision que nous présenterons ces outils dans la section suivante. Il ne faut cependant pas oublier que, pour le plus grand nombre de décisions (souvent de nature répétitive), les systèmes d’aide à la décision présentés ci-après ont un intérêt difficilement contestable. 2 Les outils d’aide à la décision individuelle Le domaine de l’aide à la décision aujourd’hui correspond, pour l’essentiel, aux SYSTÈMES INTERACTIFS D’AIDE À LA DÉCISION (SIAD), sous différentes formes. Ceux-ci seront présentés dans un premier temps. Nous décrirons ensuite rapidement les principales applications de l’intelligence artificielle qui, soit sous forme de composants des SIAD, soit sous forme autonome, ont apporté des améliorations intéressantes dans certains domaines de l’aide à la décision. (Les outils d’aide au travail collaboratif seront présentés dans le chapitre 4 sur l’aide à la communication.) 2 1 systèmes interactifs d’aideà la décision (SIAD) Le terme SIAD recouvre des réalités variables : selon la technologie utilisée, selon le type d’« aide à la décision » apportée, selon le degré d’« interactivité », selon le type d’utilisation et la nature des utilisateurs. Ce dernier critère a conduit, en particulier, à distinguer à l’intérieur des SIAD (ou decision support systems, DSS en anglais) le cas particulier des systèmes pour dirigeants (ou executive information systems, EIS en anglais). Bien que cette distinction ne soit pas toujours justifiée en pratique, nous la retiendrons pour son intérêt pédagogique en présentant d’abord les caractéristiques majeures des systèmes interactifs conversationnels (2.1.1) pour aborder ensuite les caractéristiques particulières des systèmes d’information pour dirigeants (2.1.2), puis enfin caractériser l’évolution vers les entrepôts de données (2.1.3). 2 1 1 Les systèmes interactifs conversationnels De nombreux problèmes classiques de gestion (choix d’un mode de financement, sélection de médias, planification d’une tournée de livraisons. . .) conduisent à des processus de décision non parfaitement structurés. Pour la résolution de ce type de problèmes, la conduite du processus de résolution reste à l’initiative du décideur ; les technologies de l’information lui apportent une aide dans les différentes étapes, tout en lui laissant le contrôle du déroulement des opérations de résolution. Ce type de relation homme-machine est caractéristique des SIAD. Après avoir donné une définition plus précise, nous présenterons les différents éléments de l’architecture d’un SIAD pour conclure sur leur intérêt (impact et facteurs clés de succès). 1. La notion de SIAD Nous aborderons le problème de la définition des SIAD à partir d’un exemple mettant en évidence les caractéristiques essentielles de ce type de systèmes. Exemple L’entreprise M.. . a pour activité principale la fourniture d’équipements (échafaudages, échelles, outils. . .) à des entreprises du bâtiment. Ses choix stratégiques l’ont conduite à choisir la vente directe, à partir de commandes, avec livraison sur les lieux d’utilisation. Ces livraisons se font soit à partir de stocks (produits standards), soit à partir de fabrications spécifiques. Compte tenu de la très grande diversité des entreprises clientes, les commandes sont extrêmement variables en volume et en valeur. Les livraisons sont effectuées par camions, réservés auprès d’un transporteur. Un technicien est responsable de ces réservations. Chaque jour, il doit donc décider du nombre de camions à réserver (en principe pour le lendemain) et du chargement de ces camions (Quelle(s) commande(s) ou partie(s) de commande(s) sera (seront) livrée(s) par ce véhicule ?). Cette décision se révèle compliquée à prendre pour différentes raisons : 1) Existence de critères différents : doit-on minimiser le coût du transport ou répondre systématiquement aux demandes « urgentes » des représentants et des clients (il y a, certains jours, 80 % de commandes classées « urgentes » à livrer !) ? Comment arbitrer entre des commandes urgentes ? 2) Incertitude sur certains éléments du problème : poids de la commande à livrer, distance de livraison à parcourir à partir de différents points, disponibilité de tout ou partie de la commande à livrer. 3) Nature combinatoire des solutions (composition de la tournée variable en fonction des lieux de livraison. . .). Il n’est donc pas surprenant, dans ces conditions, de constater des phénomènes inquiétants : hausse des coûts de transport par rapport au chiffre d’affaires, mécontentement des clients en raison des retards de livraison, désorganisation de la production (on fait fabriquer en urgence des éléments d’une commande pour compléter un camion qui va partir. . .). Pour aider le technicien à organiser les livraisons, un système d’aide à la décision a été réalisé. Désormais, à partir de son terminal, le responsable des livraisons a accès à un certain nombre de données : – liste des livraisons prévues chaque semaine, jour par jour ; – contenu prévu de chaque livraison (liste des éléments, poids, valeur) ; – état du stock actuel (et prévisionnel à deux jours pour les articles lancés en fabrication) pour tous les articles ; – visualisation sous forme de carte routière des itinéraires possibles de livraison (carte couvrant une partie, variable à la demande, du territoire) ; – visualisation du contenu du camion (icône présentant une « caisse » plus ou moins remplie par des commandes avec indication du poids déjà chargé et du poids susceptible d’être chargé. . .). Il peut également s’appuyer sur certains modèles : – modèle de calcul de distance parcourue selon les points de livraison retenus ; le modèle fournit également le coût du transport correspondant (coût total, coût par rapport à la valeur de la livraison. . .) ; – modèle de tenue d’un planning de livraison visualisable indiquant la succession des commandes dans le temps (selon les délais annoncés) ; – modèle de recherche de commandes livrables soit par tonnage, soit par zone de livraison (le territoire a été découpé en zones géographiques). À partir de ces données et de ces modèles, le responsable utilise une démarche de type heuristique ; il part d’une situation initiale (un camion allant vers une zone donnée) et il va essayer de progresser vers une solution meilleure, pas à pas, soit en ajoutant une livraison, soit en modifiant l’itinéraire. À chaque essai, il peut calculer les incidences de ses choix (sur le coût du transport, sur les livraisons non effectuées.. .). Il peut décider de continuer, d’arrêter la simulation (en conservant une trace de la situation), de revenir en arrière. . . Le passage d’un état à un autre se traduit à l’écran par une tentative du genre : « Que va-til se passer si. . . ? » (système « What if ? » pour les Anglo-Saxons) ; chaque état peut être évalué selon les différents critères mais, si le système calcule cette évaluation, c’est le décideur qui choisit de rechercher ou non un autre état : le passage d’une étape à l’autre est contrôlé par le décideur sur la base de ses propres évaluations. On notera que le système permet plusieurs approches du problème : soit camion par camion, en épuisant les commandes livrables du jour, avec des rectifications d’itinéraires limitées et des permutations de chargement éventuelles pour ajustement final, soit par détermination préalable du nombre de camions à partir de commandes livrables le jour j (ou le jour j + 1, j + 2. . . si le client accepte un retard limité). b – Les caractéristiques du SIAD Dans l’expression « système interactif d’aide à la décision », « aide à la décision » s’oppose à « prise de décision automatique ». Dans l’exemple ci-avant, la décision serait automatisée si l’on disposait d’une fonction d’évaluation calculable (intégrant par exemple le coût d’un retard de livraison) et d’un modèle algorithmique d’affectation déterminant une solution optimale. Il y a « aide à la décision » dans un processus de recherche heuristique conduisant à une solution considérée comme simplement satisfaisante (rationalité limitée). Le système est interactif car le déroulement du processus de décision est lié à l’exécution d’un dialogue homme-machine ; à chaque étape du processus, l’ordinateur affiche un état ; à partir de cet état, le décideur choisit le contenu de l’étape suivante et donne les ordres en conséquence. Ainsi, on peut considérer un SIAD comme : – un système d’information assisté par ordinateur ; – fournissant une assistance aux décideurs essentiellement pour des problèmes non totalement structurés ; – combinant le jugement humain et le traitement automatisé de l’information ; – un système où le contrôle du déroulement du processus de décision incombe au décideur dans le cadre d’une recherche de type heuristique ; – améliorant plutôt l’efficacité du processus de décision (qualité de la décision prise) que son efficience (coût du processus). Ces exigences font que tout SIAD doit être capable de : 1) fournir des représentations pertinentes pour le décideur (par exemple, dans le cas ci-avant, visualisation d’un itinéraire sur une carte) ; 2) réaliser des opérations de traitement de l’information (exécuter des calculs, retrouver des données) ; 3) mémoriser des représentations (conserver des résultats intermédiaires, des données, des modèles.. .) ; 4) comprendre des commandes (interpréter des ordres fournis par le décideur). Cela conduit à une structure générale type, représentée figure 10, où un décideur utilise des ressources matérielles (station de travail autonome ou connectée) et logicielles (programmes représentant la partie automatisable du SIAD). 2. Les composants du SIAD Un SIAD est donc composé de trois éléments principaux : – une base de données avec un système de gestion de base de données ; – une base de modèles avec un système de gestion de base de modèles ; – une fonction de gestion du dialogue homme-machine. a – Gestion des données Ce sousensemble, consacré à la gestion des données, assure la fonction de mémorisation du système, c’està-dire la conservation et la mise à disposition des données utilisables pour la résolution du problème. Les différentes données, d’origine interne ou externe, sont stockées dans des bases de données, sous forme d’ensembles structurés d’informations. Il est nécessaire de stocker les données de base (par exemple, dans le cas de la planification des livraisons, les commandes à livrer ou les itinéraires) et également les résultats intermédiaires qui pourront être utilisés plus tard dans le processus (par exemple, le contenu d’un camion incomplètement chargé à réexaminer plus tard). Ces bases de données peuvent être spécifiques au SIAD ou utilisables par d’autres applications. Dans tous les cas, les données ne seront utilisables que par l’intermédiaire d’un logiciel spécialisé : le système de gestion de la base de données (SGBD) qui permet : – de créer de nouvelles tables de données ; – d’assurer la mise à jour des tables existantes : addition de données nouvelles, suppression de données anciennes.. ., tout en assurant la sécurité des données enregistrées (protection contre des consultations non autorisées ou des modifications frauduleuses) ; – d’interroger des bases par le recours à un langage d’interrogation comme SQL : il s’agit de permettre à l’utilisateur de retrouver des données dans les différentes bases d’une manière rapide et simple ; Exemple SELECT numero date tonnage FROM commandes WHERE date = 21 AND tonnage 5 5 est une interrogation d’une table « commandes » où l’on souhaite retrouver les commandes à livrer le 21 et d’un poids inférieur à 5 tonnes. – d’extraire des données appartenant à d’autres bases que celles gérées par le SIAD et leur mise à disposition dans une base spécifique au SIAD (par exemple des requêtes sur le Web). Bien entendu, toutes les opérations relatives à la gestion des données doivent être articulées avec la gestion des modèles qui les utilisent et la gestion du dialogue avec son utilisateur. b – Gestion des modèles Le modèle est l’outil qui permet de traiter l’information. Selon Minsky, « pour un opérateur O, un objet M est un modèle d’un objet A dans la mesure où O peut utiliser M pour répondre aux questions qu’il se pose sur A ». Il existe différentes catégories de modèles : – les modèles iconiques possédant les mêmes caractéristiques physiques que l’objet étudié, mais à une échelle différente : par exemple, maquette au 1/20 d’un avion pour étude en soufflerie ; – les modèles analogiques utilisant un phénomène différent mais possédant certaines propriétés identiques : par exemple, visualisation de la circulation de trains sur des voies avec l’aide d’un tableau lumineux ; visualisation de l’état d’un camion par une caisse plus ou moins remplie. . . ; – les modèles symboliques où le phénomène est représenté par des symboles et les lois qui régissent le phénomène par des règles de manipulation de symboles ; la plupart des modèles que nous utilisons pour décrire les phénomènes physiques ou économiques sont de ce type (distance = vitesse 6 temps, marge = prix de vente – coût de revient. . .). La plupart des SIAD utilisent des modèles symboliques pour le traitement des données et, parfois, des modèles analogiques pour la visualisation des résultats. Très souvent, dans un SIAD, coexistent plusieurs modèles : – des modèles généraux, correspondant à des manipulations très fréquentes dans différentes applications : tri de données, calcul d’une moyenne, ajustement linéaire, programmation linéaire, valeur nette d’un investissement.. . ; – des modèles spécifiques exprimant des manipulations liées au type de problème étudié. Exemple Calcul du coût d’un transport à partir du type de véhicule et de l’itinéraire parcouru, calcul d’un résultat à partir de différents produits et charges.. . Les modèles assurent ainsi l’automatisation de certaines tâches importantes dans le processus de décision : 1) analyse de données nombreuses par des techniques variées (modèles de régression, d’analyse factorielle. . .) ; 2) prévision à partir de modèles d’extrapolation ; 3) simulation à partir d’un modèle décrivant les lois du phénomène étudié (cela suppose donc un modèle spécifique du problème). Ces différents modèles sont stockés sous forme de modules de programmes. Un système de gestion de la base des modèles (SGBM) permet : – de conserver et de retrouver facilement les modèles que l’on souhaite utiliser : chaque modèle a un nom ; – de retrouver, pour chaque modèle, l’ensemble des variables qu’il utilise et de lui communiquer les données correspondantes ; – de communiquer, en fin de traitement, les résultats obtenus par l’exécution du modèle (par l’intermédiaire de la gestion du dialogue). c – Gestion du dialogue Cette gestion du dialogue a pour but de permettre la communication homme-machine par le traitement des questions formulées par l’utilisateur et l’affichage des réponses proposées par la machine (dialogue sous forme de questions-réponses, de formulaires, de requêtes SQL.. .). On peut finalement définir quatre grandes fonctions dans un SIAD conversationnel : – une fonction de Mémoire/Sélection : accès aux bases de données, données personnelles, requêtes sur Internet, FAQ, annotations, annuaires. . . ; – une fonction de Représentations/Opérations ou manipulation logique et analytique de données : base de modèles logico-mathématiques (simulation, optimisation, décisions multicritères, règles, déductions.. .) et toutes opérations sur des bases de données centrales, extérieures ou personnelles (M.A.J, requêtes.. .). Les tableurs se sont progressivement entourés de modules complémentaires : langages de programmation, fonctions statistiques, liens avec d’autres logiciels (Crystal Ball, par exemple, fonctionne comme une macro complémentaire qui permet de réaliser des simulations par échantillon aléatoire) ; – une fonction de Résultats ou conceptualisation de l’information utilisée pour la prise de décision (graphiques, tableaux, listes, texte, image, carte, son, animation, vidéo. . .) Les SIG, systèmes d’information géographiques, qui transforment une liste fastidieuse en carte éloquente, ne furent longtemps disponibles que sur les grands systèmes, mais les tableurs intègrent maintenant un module géographique ; – enfin une fonction Contrôle : dialogue ou conversation via des menus, un langage, un graphique, un assistant. . . assez flexible pour s’adapter au style cognitif de chaque décideur. 3. Évaluation de l’utilisation des SIAD Les SIAD sont désormais utilisés pour des décisions très variées dans leur nature, dans leur niveau, dans leur degré de structuration. Peu d’évaluations des résultats obtenus par leur utilisation sont publiées ; les informations disponibles montrent généralement des impacts positifs quant à la qualité des décisions prises ; elles montrent également plusieurs phénomènes importants : 1) Il est difficile de réaliser du « premier coup » un bon SIAD. Dans la plupart des cas, une solution satisfaisante a été trouvée après le développement de plusieurs versions successives, continuellement améliorées. 2) Même face à des problèmes identiques, dans la même organisation, des décideurs différents n’utilisent pas obligatoirement la même démarche de résolution des problèmes. Par conséquent, le SIAD devrait pouvoir être adapté à ses différents utilisateurs ou, à la limite, il faudrait construire « sur mesure » un SIAD pour chaque décideur. 3) L’utilisation correcte d’un SIAD passe par un apprentissage de la part du décideur ; cet apprentissage peut d’ailleurs entraîner des modifications du SIAD (en particulier, diminution de l’assistance de la machine dans le dialogue lorsque l’« apprenti » devient un « expert » familier du SIAD). Cela explique que l’une des qualités principales que l’on assigne à un SIAD soit son évolutivité, c’est-à-dire sa capacité à être facilement modifié. Remarque sur les tableurs À un certain niveau de complexité, la construction d’un SIAD incombe à un spécialiste travaillant en étroite collaboration avec les utilisateurs. Dans certains cas plus simples, l’utilisateur peut, à partir de certains outils de base considérés comme des générateurs de SIAD, construire lui-même son SIAD. Le cas est assez fréquent désormais avec la construction, à partir de tableurs, de SIAD simples pour l’élaboration et le contrôle de budgets. Dans ce cas, la présentation des données est tabulaire et le modèle est exprimé par des relations entre cellules ; le dialogue est celui autorisé par le langage de commande du logiciel ; des modèles annexes sont fournis par les fonctions de calcul (moyenne, somme.. .). 2 2 1 Les systèmes d’information pour dirigeants Les technologies de l’information ont d’abord été utilisées aux niveaux transactionnel et opérationnel. Ce n’est que récemment qu’a été envisagée la possibilité d’assister le travail des cadres dirigeants : le développement des SIAD est un premier type de réponse générale ; une seconde réponse a été recherchée sous forme d’executive information systems (EIS) ou d’executive systems (ESS), conçus pour satisfaire les besoins spécifiques des cadres supérieurs. Plus récemment, le développement de solutions du genre data warehouse tente d’apporter une réponse améliorée aux besoins d’informations de contrôle et d’intelligence. Comprendre l’intérêt de ce type de systèmes implique d’avoir, au préalable, analysé les besoins en information des dirigeants pour mettre en évidence leur caractère spécifique. 1. Les besoins en information des dirigeants Comme tout manager, le cadre dirigeant a des fonctions de finalisation, d’organisation et d’animation. Les tâches d’organisation sont généralement discontinues et reposent sur des analyses très faiblement structurées (connaissance des personnes en particulier) ; leur assistance par des systèmes d’information présente, dans le cas général, un intérêt limité. En revanche, les tâches de finalisation (formulation des objectifs, de la stratégie. . .) et celles d’animation-contrôle (motivation des individus, suivi de performance.. .) reposent sur des traitements informationnels lourds, susceptibles d’être, au moins partiellement, assistés. La distinction qui est faite entre systèmes classiques de « reporting » et tableaux de bord n’est finalement fondée ni sur les fonctionnalités ni sur les usages, mais sur le type d’informations manipulées (qui sont plus ou moins stratégiques). Nous examinerons donc, successivement, la nature des besoins en information exigés par la planification stratégique puis par le contrôle de l’organisation. a – Les besoins de la planification stratégique Il est assez fréquent de rencontrer le terme « système d’information stratégique ». Ce terme est ambigu, comme le signalent H. Tardieu et B. Guthmann dans leur ouvrage Le triangle stratégique (op. cit., p. 69). Il importe de bien distinguer : – d’une part, le (ou les) système(s) d’information stratégique, qui est un système d’information pouvant oeuvrer aux niveaux transactionnel ou opérationnel mais dont le bon fonctionnement est une condition essentielle de la réussite de la stratégie retenue : citons comme exemples le système de réservation de places d’une compagnie aérienne, le système d’aide à la composition pour un journal, le système de traitement des commandes d’une société de vente par correspondance.. . Dans cette acception, le terme « stratégique » signifie « très important », « vital » pour la pérennité de l’entreprise eu égard aux choix stratégiques retenus ; – d’autre part, le système d’information stratégique, qui est un système d’information particulier, ayant pour objectif essentiel l’aide au traitement de l’information utilisée pour définir et construire la stratégie de l’entreprise ; c’est un système qui supporte un processus de décision particulier aboutissant au choix d’options stratégiques. Lorsque l’on s’intéresse aux systèmes d’information pour dirigeants, c’est la seconde définition qui est à retenir puisque la définition de la stratégie leur incombe. Si l’on analyse la façon dont les stratégies sont construites dans les entreprises, on constate une très grande diversité des pratiques allant d’un processus totalement informel (un responsable propose les choix stratégiques) à des activités permanentes conduites par des spécialistes (groupe de planification stratégique). Il est donc difficile de définir, d’une manière générale, ce que devrait être un système d’information stratégique à l’usage des dirigeants. Seules quelques remarques de portée générale peuvent être formulées : . Un tel système devrait supporter la phase d’intelligence du processus. Cela signifie, essentiellement, apporter aux utilisateurs des informations d’origine interne décrivant la situation de l’entreprise («Où en sommes-nous ? ») et des informations d’origine externe (« Quelles sont les menaces et les opportunités que contient l’environnement ? »). . Le système peut supporter également la phase de modélisation et de choix de la stratégie ; des SIAD existent et permettent d’explorer, à partir d’un modèle type financier-comptable et de simulations, différentes alternatives. La nature de ce besoin correspond à ce que l’on attend d’un SIAD tel que nous l’avons défini précédemment. Mais, compte tenu de la complexité des problèmes à résoudre d’une part, du caractère évolutif des situations analysées d’autre part, de tels systèmes ne doivent conduire ni à des simplifications abusives, ni à l’usage de représentations dépassées (images du «marché », du « métier », du « domaine d’activité ». . .) qui risqueraient de rendre l’organisation « myope » et « routinière ». En conclusion, nous serions tentés de dire que les besoins de la planification stratégique sont difficiles à satisfaire par des systèmes d’information assistés par ordinateur pour deux raisons complémentaires : – dans la mesure où la démarche stratégique implique innovation et créativité, le contenu informationnel est impossible à définir de manière exhaustive et pertinente ; – dans la mesure où la difficulté essentielle consiste d’abord à obtenir des visions partagées par les différents acteurs, le recours à des modèles formalisés contient un risque non négligeable d’erreur de diagnostic dû à une limitation routinière de l’exploration du problème. b – Les besoins de contrôle des niveaux supérieurs : le reporting L’analyse des tâches des dirigeants (voir, par exemple, l’étude de H. Mintzberg citée dans la bibliographie) montre que ceux-ci jouent différents rôles : – un rôle relationnel : représenter l’organisation à l’extérieur, entraîner et convaincre les subordonnés ; – un rôle décisionnel : proposer des changements significatifs pour l’organisation, réagir aux événements non prévus, répartir les ressources ; – un rôle informationnel : informer l’environnement (porte-parole de l’organisation), disséminer de l’information dans l’organisation. . . Pour exécuter ces rôles, dans une perspective d’animation, les dirigeants ont, en particulier, besoin d’informations qui leur permettent d’évaluer les performances de leur organisation et la performance des responsables importants pour le succès de l’entreprise. Ces informations peuvent prendre des formes variées : – compte rendu oral ou écrit décrivant des résultats et expliquant par des commentaires, de forme libre, les causes des performances observées ; – tableaux et graphiques de format prédéfini faisant apparaître les résultats en valeur absolue et relative ; – utilisation d’information condensée sous forme d’indicateurs traduisant des facteurs clés de succès. Cette dernière méthode est présentée de manière plus détaillée ci-après. On appelle facteur clé de succès (critical success factor) un élément jouant un rôle important pour la réalisation d’un objectif ; la non-maîtrise d’un facteur clé de succès entraîne un risque d’échec important dans la poursuite des objectifs visés. Ces facteurs clés de succès peuvent être définis à un niveau quelconque : – l’industrie (par exemple, dans l’industrie automobile, on considère comme des facteurs clés de succès la qualité du « design » des véhicules, le contrôle du réseau de distribution. . .) ; – l’entreprise, au niveau de sa stratégie, à un instant donné (par exemple, l’entreprise Fiat pourra considérer la maîtrise des coûts de production comme un facteur clé de succès dans la mesure où elle a choisi une stratégie de concurrence par les prix. . .) ; – une partie de l’organisation (par exemple, le département des achats d’une société automobile considérera comme facteur clé de succès sa capacité à trouver des fournisseurs respectant le niveau de qualité exigé par les utilisateurs) ; – un individu, compte tenu de son rôle dans l’organisation (un acheteur du service des achats peut considérer son aptitude à définir des procédures de contrôle des livraisons comme un facteur clé de succès). À partir de ces facteurs clés de succès (supposés vérifiés), il est possible de définir le rôle de l’information pour les processus d’animation-contrôle ; le schéma ci-après résume la démarche. À partir des objectifs visés, on définit des indicateurs permettant, à partir d’une quantité limitée d’information, de vérifier dans quelle mesure ces objectifs sont atteints. Ces indicateurs doivent être contrôlables (on peut vérifier comment a été calculée leur valeur), correspondre à une mesure (un volume, un chiffre d’affaires, un coût, un délai. . .) et si possible être simples (la mesure d’un niveau de qualité peut, par exemple, se révéler compliquée et utiliser des indicateurs tels que le temps moyen entre pannes, la variance de dimension.. ., qui ne sont pas toujours immédiatement compris). Après avoir défini ce qui doit mesurer le succès, on analyse les causes de ce succès en recherchant les facteurs clés : facteurs explicatifs principaux du succès ou du non-succès (par exemple, le respect des délais de livraison peut apparaître dans une société de vente par correspondance comme un facteur clé de succès). La responsabilité de ces facteurs clés de succès est attribuée à des individus (possibilité de décomposition à différents niveaux hiérarchiques) pour lesquels on va définir des indicateurs clés de performance (par exemple, dans le cas ci-avant, le pourcentage de commandes expédiées dans les délais par le service chaque mois). On organise ensuite le système d’information proprement dit : collecte des données, traitement pour le calcul de la valeur des indicateurs, communication des résultats aux utilisateurs. Pour que l’indicateur joue pleinement son rôle d’inducteur de comportement, il doit être utilisé de manière visible par le cadre responsable dans la gestion de la relation avec ses subordonnés (par exemple, commentaire des résultats observés lors d’un entretien d’évaluation ou intéressement aux résultats définis sur la base de l’indicateur). En définitive, l’analyse des besoins des dirigeants révèle des exigences hétérogènes et complexes. Les solutions les plus répandues répondent davantage aux besoins de contrôle qu’à ceux de la planification : ces solutions correspondent au concept d’executive information systems, que l’on traduit assez souvent par l’expression « tableaux de bord électroniques ». Les solutions, plus récentes, de type data warehouse rassemblent des données issues de sources multiples et apportent un support aux décideurs dans les phases d’intelligence, d’interprétation et de modélisation. 2. Les tableaux de bord électroniques (executive information systems) À leur origine, au début des années 1980, les tableaux de bord électroniques avaient été conçus pour répondre aux besoins des états-majors des grandes entreprises ; leur appellation d’executive information system (EIS) était donc justifiée. L’évolution récente contribue à en faire un outil adapté aux besoins des responsables de tout niveau, et l’expression française « tableau de bord électronique » (TBE) correspond désormais mieux au contenu de la notion. Après avoir décrit les caractéristiques essentielles des EIS (ou TBE), nous en présenterons rapidement les intérêts et les limites. a – Les caractéristiques spécifiques Traditionnellement, l’information des dirigeants repose sur des contacts personnalisés (entretiens, réunions. . .), une documentation générale (revue de presse. . .), un système de rapports périodiques. Pour répondre plus vite et mieux à leur demande, les tableaux de bord électroniques ont pour vocation de présenter, directement à l’écran, des informations adaptées, à partir de sources internes ou externes. Ces systèmes présentent les caractéristiques suivantes : 1) ils sont conçus « sur mesure » pour s’adapter à l’utilisateur (selon ses besoins et ses méthodes de travail) ; 2) ils sont très conviviaux ; ils peuvent être utilisés par le dirigeant seul ; les commandes sont simples, peu nombreuses et utilisent la souris ou l’écran tactile ; 3) le temps de réponse est court ; l’affichage se fait directement sur écran ; 4) la présentation de l’information se fait sous forme de graphiques (avec utilisation de la couleur) et de tableaux simples, éventuellement assortis de commentaires. Les chiffres importants sont mis en évidence ; 5) le système fournit des informations essentiellement pour le suivi (« Quelle est la situation ? ») et le contrôle ; le système est conçu pour supporter la phase d’intelligence d’un processus de décision (et généralement est de peu d’intérêt pour la phase de modélisation et de choix) ; il concerne des décisions peu structurées ; 6) le système permet la recherche d’informations à des degrés d’analyse de plus en plus fins si on le souhaite ; une fonction de drill down (recherche par paliers) permet d’enchaîner des recherches du général au particulier (figure 11). Cette recherche s’applique, pour l’essentiel, aux bases de données de l’entreprise, alimentées par les systèmes transactionnels et, plus rarement, à des bases de données externes par l’intermédiaire de dispositifs de communication. À ces fonctionnalités de base peuvent s’ajouter divers dispositifs destinés à faciliter le travail du dirigeant (agenda, calendrier, messagerie électronique. . .). Pour réaliser ces fonctionnalités, différentes solutions sont utilisées. Une des architectures les plus utilisées est représentée figure 12. L’utilisateur dispose d’une station de travail (écran couleur, clavier, souris) et d’un logiciel EIS (par exemple Command Center, Commander, Executive Decision, Express EIS). Ce logiciel lui permet de définir des présentations d’informations (comme un tableur ou un logiciel graphique) et de déclencher des recherches dans différentes bases de données, par l’intermédiaire d’un réseau de communication. Le logiciel EIS est en fait un générateur qui, à partir d’environnements variés, permet de construire, sur mesure, des tableaux de bord électroniques. Les tableaux de bord électroniques apparaissent ainsi comme des substituts éventuels à un système de rapports de gestion, fournissant de manière continue et sous forme adaptée, à des degrés variables d’analyse, des informations utiles pour le suivi de la gestion et l’évaluation des performances. b – Évaluation de l’utilisation des TBE Par leur facilité d’utilisation et grâce au caractère attractif et modulable de la présentation des informations, les tableaux de bord électroniques répondent, en partie, aux besoins d’information des dirigeants ; ils ont permis d’éliminer les éditions papier de rapports de gestion produits avec un décalage de temps important et de réduire le recours aux secrétaires et assistants de direction pour la production de tableaux et de rapports ad hoc. Ces TBE font maintenant partie de l’offre des ERP. Leur introduction a également eu des effets indirects non négligeables : – contraindre les dirigeants à réfléchir à l’amélioration des systèmes de contrôle, à la définition d’indicateurs significatifs et à leur intégration à une logique de motivation ; – sensibiliser les dirigeants à l’intérêt d’une standardisation des outils logiciels utilisés dans les systèmes transactionnels et la gestion des données. En effet, dans beaucoup d’entreprises, coexistent des applications utilisant des logiciels de gestion de données différents. Cela impose des difficultés supplémentaires au développement des EIS, qui peuvent être amenés à rechercher et à regrouper des données d’origines différentes. L’existence d’un EIS utilisé par le sommet de la hiérarchie contraint à étudier la meilleure façon de « naviguer » parmi les données et aboutit généralement à la recherche d’une standardisation accrue, au moins pour les données internes à l’entreprise. Les TBE, en apportant plus d’informations dans des conditions de pertinence accrue, ont démontré leur intérêt mais ils ont aussi montré leurs limites. 1) Les limites des TBE sont d’abord celles des systèmes fonctionnels qui les alimentent en données ; si ces systèmes sont rudimentaires, le recours à un TBE ne créera pas d’information supplémentaire. Dans ce cas, il est important d’examiner si on doit d’abord améliorer les différents systèmes fonctionnels avant de développer les TBE. C’est un argument mis avant dans les ERP. 2) Compte tenu de leur complexité, les TBE se révèlent assez lourds à modifier. Beaucoup d’utilisateurs limitent leur demande à des affichages standards, en nombre limité, qu’ils modifient peu. 3) Le recours à des TBE conduit à accorder plus d’attention aux aspects mesurables de la gestion. C’est souvent un progrès mais, en particulier aux niveaux supérieurs, l’information qualitative doit conserver son importance. Un TBE doit être vu plus comme un complément que comme un substitut aux autres sources d’information. 4) Le recours au TBE conduit à accorder plus d’attention aux aspects internes qu’aux aspects externes parce que en pratique la connexion aux sources externes est, encore actuellement, plus compliquée. Cela est un inconvénient sensible au niveau stratégique. 5) Parce qu’il fournit l’information avec un temps de réponse court, le TBE peut conduire à accorder trop d’attention aux faits présents ou d’un passé trop proche ; le risque d’une réaction prématurée n’est pas à exclure. 6) Parce qu’il permet au management de niveau élevé d’obtenir, s’il le souhaite, des informations détaillées, le TBE peut conduire à négliger la réflexion globale en focalisant l’attention sur des problèmes secondaires. En outre, les cadres de niveau inférieur peuvent, dans une certaine mesure, se sentir dessaisis de leur pouvoir informationnel, sinon décisionnel. 3. Conclusion Le recours à des logiciels EIS a permis des progrès considérables dans l’information de l’encadrement : au niveau du contenu, au niveau de l’ergonomie de l’utilisation. À partir du moment où les systèmes d’information fonctionnels sont mis en place (et notamment les ERP) et où la navigation dans les bases de données peut être réalisée dans des conditions acceptables de temps et de coût, les TBE peuvent devenir un outil à la disposition de tout l’encadrement (et non un outil réservé aux seuls dirigeants). C’est ce que confirme l’observation des entreprises utilisatrices : avec le temps, le nombre des utilisateurs de tableaux augmente. Le développement de ces représentations homogènes peut contribuer fortement à l’amélioration de la cohérence dans l’organisation, c’est un argument de vente des fournisseurs d’ERP. Une étude empirique aux États-Unis (Leidner et Carlsson) portant sur 91 utilisateurs a montré que l’utilisation des systèmes d’information pour dirigeants améliorait les conditions d’accès à l’information, conduisait à un accroissement de la compréhension de l’entreprise par les cadres supérieurs et du degré d’analyse des problèmes, réduisait la durée d’identification des problèmes et de prise de décision. 1 Les systèmes data warehouse : « entrepôts de données » Le progrès technologique dans le stockage des données sous forme électronique est important et continuel : il entraîne des baisses de coût considérables et des améliorations notables dans la manipulation des données stockées. Ce progrès a permis l’émergence d’un nouveau concept en matière d’aide à la décision : le data warehouse ou « entrepôt de données ». Un data warehouse (DW) est une forme de système d’information conçu pour des applications décisionnelles : pilotage, contrôle et aussi intelligence. Le datawarehousing (« entreposage de données ») est l’ensemble des outils, techniques et méthodes permettant de rassembler en un ensemble cohérent des données issues de sources multiples et de leur « donner du sens » (interpréter l’information qu’elles contiennent). Le data warehouse (« entrepôt », « magasin », « silo ». . .), c’est la base de données détaillées qui stocke ces informations. Cette base a pour vocation unique l’aide à la décision (elle n’est pas utilisée pour les applications transactionnelles). 1. Organisation d’un système de data warehouse En pratique, un système de data warehousing est constitué de plusieurs produits matériels et logiciels articulés selon trois grandes fonctions classiques du domaine des bases de données : l’acquisition, le stockage, l’exploitation. 1) Acquisition et transformation Les données à entreposer proviennent de trois sources : – les systèmes opérationnels (applications transactionnelles du type de celles décrites dans le chapitre précédent), qui constituent la source principale ; – les bases de données utilisateurs : ce sont des fichiers locaux tenus à jour par des utilisateurs individuels pour leurs activités spécifiques ; – les bases externes, sources documentaires variées, accessibles via des réseaux type Internet ou dupliquées. Ces sources alimentent la base par l’intermédiaire d’outils logiciels d’extraction, de sélection et filtrage, de « nettoyage » ; ces outils assurent l’homogénéité dans la présentation de données pouvant être, à l’origine, de formats très différents. Entre la base de l’entrepôt et les bases de données de production, il faut organiser la sélection, la transformation et le transport des informations utiles au nouveau système. Pour décrire de telles conversions une nouvelle génération d’outils de développement a fait son apparition, celle des extracteurs de données ETL (Extract, Transform and Load), avec des interfaces permettant de modéliser graphiquement les échanges et de faire correspondre des schémas de données non compatibles (en fonction des métadonnées ou descriptions de champs fournies par les applications). Les processus de décision se raccourcissent dans le temps, et certains outils ETL sont désormais capables de gérer des flux de données en temps réel : une série de composants veille en attendant l’arrivée des requêtes pour les traiter (voir figure 13). 2)Stockage des données historisées Les données sont stockées sur un support de très grande capacité et administrées grâce à un logiciel de gestion de données de type relationnel ou multidimensionnel. Toutes les entités concernées ont un format unique. À côté des données détaillées proprement dites, sont également stockées des méta-données, c’est-à-dire des données de plus haut niveau décrivant les caractéristiques des données stockées. Ces métadonnées constituent une sorte de référentiel, de dictionnaire indiquant, par exemple, la source de la donnée, sa fréquence de production, ses utilisateurs exclusifs. Les données sont organisées en « sujets », « thèmes » (par exemple, le sujet « client », le sujet « produit »). Ces différents « sujets » constituent les entités fondamentales du modèle de données de la base. Un SGBD relationnel sait fournir une liste de valeurs issues de plusieurs tables, mais la règle de base de la normalisation des tables consiste à supprimer toute redondance et toute agrégation de données. Et calculer des informations agrégées (par exemple, le chiffre affaires total réalisé sur une famille de produits) implique alors de nombreuses « jointures » entre plusieurs tables, ainsi que des opérations d’addition coûteuses en performance. D’où l’idée d’un modèle de représentation des données particulier et plus adapté à l’analyse : le modèle multidimensionnel. Les principaux éditeurs de bases de données relationnelles s’intéressent donc à l’approche multidimensionnelle des bases de données, qui peuvent aujourd’hui adopter une structure des tables « en étoile » ou « en flocon » : les indicateurs (ventes, marges.. .) sont regroupés dans une table et les données par axes (clients, années, mois.. ..) sont rangées dans des tables différentes, reliées à la première par des clés. Les données peuvent ainsi être agrégées et redondantes, et comme elles sont préparées, les temps de réponse sont stables et équivalents quels que soient les axes choisis. Les requêtes peuvent exploiter toutes les combinaisons et permutations d’axes. Il est ainsi possible de créer des niveaux hiérarchiques et de prévoir des axes pré-calculés (par exemple la somme de frais par régions, par produits, par mois.. .). Les données sont chronologiques : la dimension « temps » est explicite. Pour chaque sujet, les données historiques sont accumulées ; il n’y a donc pas de mise à jour par modification ou remplacement, mais ajout continuel des données plus récentes (on enregistre, par exemple, les ventes hebdomadaires d’un produit). Cette nécessité d’accumuler ainsi des faits sur des périodes allant de cinq à dix ans implique de très fortes capacités de stockage (exprimées souvent en téraoctets : téra = 1012). Le data warehouse joue ainsi le rôle d’une véritable mémoire des données de l’organisation où une part importante des informations relatives aux événements significatifs est conservée sous une forme structurée. 3) Exploitation statistique Le système d’entrepôt de données est composé d’un ensemble d’outils permettant aux utilisateurs d’extraire des informations signifiantes pour leurs besoins spécifiques : en particulier, ces outils permettent de créer des connaissances tirées de l’expérience (les résultats passés), de mettre en valeur des corrélations cachées entre des groupes de données, donc d’assister le processus d’interprétation, de création de sens. Ces outils sont très variés, citons les principaux : – outils OLAP (on line analytical processing) pour l’exploitation de bases de données multidimensionnelles. Une base de données multidimensionnelles peut être visualisée comme un ensemble de cubes de données contenant euxmêmes d’autres cubes ; chaque arête du cube représente une dimension, éventuellement hiérarchisée (par exemple, quantités vendues par produit, famille, département, région, canal de distribution, période.. .). Ces outils permettent de manipuler de grands volumes de données, d’agréger les données selon différentes dimensions, de les présenter selon différentes perspectives, de réaliser des tableaux croisés, des calculs de corrélation. . . ; – outils de type EIS (voir ci-dessus) permettant, en particulier, selon le principe du drill down de visualiser les données au niveau du détail choisi par l’utilisateur – outils de datamining : ces outils permettent l’exploitation et l’analyse de grandes quantités de données afin de découvrir des formes et des règles ; le datamining permet la classification, l’estimation, la prédiction, l’analyse de séries chronologiques. . ., donc l’analyse statistique de gros volumes de données. Utilisant comme matière de base les données historiques, ils permettent de mieux comprendre les résultats obtenus, d’élaborer des modèles explicatifs ou prédictifs ; ils facilitent donc la création de sens ; – systèmes d’information géographiques : ce sont des outils d’analyse et de présentation de données permettant l’affichage de données sur des cartes géographiques et visualisant ainsi des répartitions spatiales sous une forme plus agréable, plus parlante que des tableaux (par exemple, répartition de volumes vendus par régions) ; – outils de reporting : outils permettant de construire et d’éditer des supports. Remarque Souvent, le système de data warehouse utilise des datamarts (magasins de données) qui sont des bases de données particulières consacrées à une activité, une zone géographique, un département. Ces bases limitées permettent de simplifier et d’accélérer les accès aux données pour certains utilisateurs. 2. Évaluation de l’utilisation d’un système de data warehousing L’analyse de quelques exemples permet de mettre en évidence les caractéristiques essentielles de ces outils. Quelques exemples Les exemples les plus significatifs proviennent de la grande distribution ; la mise en place de terminaux de points de vente à lecture et enregistrement automatiques (codes-barres, étiquettes RFID) permet de recueillir les données relatives aux ventes au niveau de détail le plus fin. Ces données, éventuellement résumées pour chaque site (supermarché, hypermarché.. .), alimentent un data warehouse. Les utilisations potentielles sont nombreuses : – savoir, lorsqu’un produit ne se vend pas bien, s’il s’agit d’un problème local ou général (analyse par région, type de magasin.. .) ; – étudier les ventes réalisées pour savoir quels sont les produits achetés simultanément par les consommateurs (pour modifier éventuellement la disposition des produits sur les linéaires. . .) ; – permettre aux acheteurs de suivre en permanence les ventes des produits dont ils ont la charge, d’ajuster au mieux les stocks et les commandes aux fournisseurs. . . ; – mieux comprendre le comportement des consommateurs (habitudes d’achat selon les heures, les jours, les saisons. . .). Dans de grands établissements de crédit, l’analyse des mouvements des comptes permet de dresser des typologies de clients et de relier ces typologies à l’évolution des risques encourus lors des opérations de prêt. Le recours à des typologies de clients de l’entreprise directement tirées de l’observation des faits se révèle également d’un grand intérêt dans des activités comme l’assurance (gestion du risque) ou le marketing direct (mieux gérer les envois publicitaires en définissant des cibles plus précises). Un système de dataware housing répond à un besoin de création de sens : les données historiques, issues du fonctionnement quotidien de l’entreprise, constituent les bases d’un suivi permanent, donc le support d’un contrôle de gestion. Combinées éventuellement à des données externes, elles sont une base d’observations utilisables pour une véritable recherche où l’on essaie de trouver des réponses à des questions importantes (quels produits vendre ? À quels clients ?. . .). Cette recherche, appuyée sur les outils du DW, implique la formulation d’hypothèses, l’élaboration de modèles (modèle de comportement du client par exemple) : c’est un processus d’interprétation, d’attribution de sens reposant sur des bases empiriques robustes, caractéristique des phases d’intelligence et de modélisation du processus de prise de décision. Grâce à la technologie du DW, l’entreprise peut mieux utiliser sa mémoire organisationnelle et améliorer ses processus d’apprentissage. L’ouverture sur l’extérieur par l’intermédiaire d’Internet accroît sa capacité de veille ; celle-ci est renforcée par le recours à des agents intelligents chargés de détecter les informations signifiantes émises par un ensemble de sources externes (concurrents, fournisseurs, clients, administrations. . .). L’intégration des différents outils (data warehouse, Internet, agents intelligents. . .) permet désormais un traitement systématique de gros volumes de données internes et externes et assure un support plus robuste aux activités managériales traditionnellement fondées sur l’intuition (sélective et risquée). 2 2 Applications de l’intelligence artificielle L’intelligence artificielle peut être considérée comme une discipline scientifique au carrefour de l’informatique, de la biologie, de la psychologie, de la linguistique. Son objectif principal est de développer des logiciels permettant aux machines d’assurer des fonctions normalement attribuées à l’intelligence humaine : – raisonner pour résoudre des problèmes ; – comprendre et apprendre à partir de l’expérience ; – reconnaître des « formes » dans des situations variées ; – réagir avec succès devant des situations nouvelles ; – manipuler de l’information incomplète et ambiguë. Les principaux développements peuvent être regroupés en quatre catégories. 1) Applications fondées sur les sciences cognitives : systèmes experts, systèmes à base de connaissances, systèmes à apprentissage. . . Ce sont des logiciels qui tendent à imiter les processus du raisonnement humain (voir ci-après, paragraphe 1). 2) Applications de type « informatique » tendant à développer des ordinateurs et des logiciels mieux adaptés aux principes de l’intelligence artificielle : ordinateurs à traitements parallèles, traitements symboliques (manipulation de symboles plutôt que de nombres), réseaux de neurones (voir ciaprès, § 2). 3) Robotique : développement de robots, machines capables d’un certain comportement adaptatif grâce à des capacités de perception (vision artificielle, toucher artificiel), de déplacement (possibilité de reconnaître son chemin.. .). De très nombreux robots sont utilisés dans l’industrie pour les tâches pénibles, répétitives (robots de soudage, robots de peinture. . .). 4) Interfaces « naturelles » : il s’agit surtout d’améliorer la communication homme-machine : utilisation du langage naturel pour commander un ordinateur, reconnaissance de la parole. . . Un développement récent est celui de la réalité virtuelle où l’on développe des interfaces multiples (faisant appel à la vue, à l’ouïe, au toucher) entre l’ordinateur et l’homme pour simuler une réalité : promenade dans un paysage simulé, visite d’un monument disparu, vision d’un objet artificiel. . . (voir ci-après, § 2) 2 Les systèmes experts On peut considérer un système expert comme un logiciel informatique simulant le raisonnement d’un expert dans un domaine de connaissance spécifique. Si la tâche de résolution d’un problème est bien structurée (par exemple, résoudre un problème de production grâce à un programme linéaire), la solution informatique consistera à programmer un algorithme, progressant vers le résultat par des étapes rigoureusement définies. Si la procédure de résolution ne peut être décrite parfaitement, cela signifie que le problème est incomplètement structuré. Pourtant, dans la pratique, de tels problèmes sont résolus par des spécialistes, des experts, qui appliquent des heuristiques alors qu’un non-spécialiste est incapable de trouver une solution satisfaisante. Par exemple, un spécialiste va trouver rapidement la source de la panne d’une machine, un autre spécialiste sera capable de décider si l’on doit accorder ou non tel type de crédit à une entreprise. . . L’idée à la base de la construction des systèmes experts est de « récupérer » la connaissance spécifique de l’expert dans son domaine, de l’incorporer dans un logiciel qui sera ensuite utilisé par des non-experts (ou des « experts » moins qualifiés) soit pour résoudre le même type de problème, soit pour apprendre à le résoudre. Selon les cas, un système expert peut donc être vu comme : – un système de décision : on retient les choix proposés par le système expert ; – un système d’aide à la décision : le décideur s’appuie sur les recommandations formulées par le système mais peut s’en écarter s’il s’estime compétent pour le faire ; – un système d’aide à l’apprentissage : le système expert est un outil pédagogique permettant la transmission de connaissances de l’expert au non-expert. Les premiers systèmes experts ont été mis au point vers 1975 (Mycin, système expert en diagnostic médical, Prospector, système d’aide pour la recherche de minerais datent de cette époque). Depuis cette période, de nombreux systèmes experts ont été expérimentés dans différents domaines de la gestion (diagnostic financier, contrôle de gestion, planification stratégique. . .). 1. Structure et principes de fonctionnement d’un système expert L’architecture type d’un système expert est représentée figure 14. Cette architecture met bien en évidence la particularité des systèmes experts par rapport aux programmes informatiques de type algorithmique : la séparation des connaissances relatives au problème (décrites dans une « base de connaissances ») du mécanisme d’exploration et d’exploitation de ces connaissances (réalisé par un « moteur d’inférence »). a – Base de connaissances Les connaissances relatives à un domaine sont de différentes natures ; la structure de la base de connaissances traduit cette diversité : 1) Base de faits Les faits sont des connaissances brutes, élémentaires, relatives au domaine couvert. Ce sont des affirmations, des assertions, décrivant par des éléments de connaissance ce que l’on sait de la situation avant le début du raisonnement. Exemple Si l’on s’intéresse à un problème de diagnostic d’entreprise, les informations suivantes constituent des éléments de la base de faits : – statut juridique = société anonyme ; – capital social = totalement souscrit ; – chiffre d’affaires annuel = 100 ME; – réseau commercial = bon. On remarquera que ces faits peuvent correspondre à des valeurs observables ou à des opinions, considérées comme vérifiées. 2) Base de règles La connaissance de l’expert, relative au problème, peut s’exprimer sous forme de règles de production du type suivant : si. . . condition. . . alors. . . action. . . En partant des faits, les experts construisent des raisonnements dont on admet qu’ils puissent se mettre sous forme d’enchaînement de règles de production, où la partie gauche définit des conditions qui doivent être satisfaites pour que la partie droite, la conclusion, puisse être considérée comme acceptable. Les règles simulent un raisonnement ou une façon d’agir. Exemples 1 – Si le ratio fonds propres/dettes LT est inférieur à 1, alors calculer la valeur de liquidation des actifs. (Règle utilisée dans un système de diagnostic financier ; cette règle permet de progresser dans le processus de résolution en déclenchant une activité de calcul.) 2 – Si outil de production = récent et sous-traitant = qualifié, alors risque industriel = faible. Cette règle, également utilisée dans un système de diagnostic, permet d’inférer, de la valeur de deux faits initiaux, la valeur d’un autre fait. Elle exprime la connaissance de l’expert capable de relier les faits les uns aux autres. Les connaissances correspondant aux règles sont donc des connaissances opératoires, qui indiquent comment utiliser les faits. Parmi les règles, on peut distinguer, d’une part, les règles de production « ordinaires » telles que celles décrites ci-dessus, et, d’autre part, des métarègles qui sont des règles permettant au système expert d’appliquer une stratégie de résolution (« dans quelle direction partir pour rechercher la solution, peut-on arrêter maintenant ?). Ces métarègles vont permettre au système de choisir éventuellement entre différentes classes de règles applicables. Exemple Si dettes à CT 4 0,8 capital et dettes LT nulles, alors je propose « consolidation dettes CT. » Cette règle indique une solution proposée par le système expert et marque l’arrêt du raisonnement même si d’autres règles étaient éventuellement vérifiées ; elle définit en fait une hiérarchie dans les règles. b - Moteur d’inférence : fonctionnement C’est la composante essentielle du système expert : c’est la partie du logiciel qui exécute le raisonnement. Il est capable d’interpréter les règles et de les appliquer aux faits observés pour résoudre le problème. C’est un mécanisme qui, à partir du contenu de la base de connaissances, va décider quelles sont les règles à appliquer. Il applique essentiellement le principe de l’inférence logique (« modus ponens ») permettant à partir de l’affirmation initiale « A est vrai » et de la règle « si. . . A. . . alors. . . B » de déduire que « B est vrai ». Le schéma de principe du fonctionnement du moteur d’inférence est celui de la figure 15. – À partir de la base des connaissances (examen des faits et des règles), le moteur va rechercher quelles sont les règles potentiellement applicables. – Si plusieurs règles sont applicables, un processus de sélection (appuyé éventuellement sur les métarègles) permet d’arbitrer et de définir la règle à appliquer d’abord. – L’application de la règle permet, par inférence, de déduire de nouveaux faits et de nouvelles règles applicables, jusqu’à l’obtention d’une règle finale d’arrêt. c Conséquences pratiques L’architecture et le fonctionnement particulier des systèmes experts entraînent deux conséquences importantes. 1) Modularité : les connaissances du domaine sont explicitées dans une base de connaissances séparée des autres connaissances nécessaires à leur exploitation ; le fonctionnement du moteur d’inférence est indépendant du problème à résoudre. Cela permet d’abord de définir la connaissance du domaine (règles et faits) en vrac, dans n’importe quel ordre, d’une manière incomplète au départ puis de l’enrichir par ajout de règles. Dans un programme classique, la modification est beaucoup plus difficile puisqu’on touche également à l’algorithme de résolution. On peut considérer un algorithme comme une suite de règles imbriquées et fixées par le programme, alors qu’un système expert reconstruit à chaque fois une suite différente de règles créée par le moteur d’inférence. 2) Lisibilité, traçabilité : la formalisation sous forme de règles est indépendante du langage de programmation ; la base de connaissances est lisible par un non-spécialiste. Ensuite, par construction, le système peut expliquer, en affichant les règles qu’il active, son cheminement logique : on dispose de la trace de son chemin dans l’espace de résolution du problème. Cela confère aux solutions de type système expert un intérêt pédagogique évident. 2. Conclusion L’intérêt essentiel d’un système expert est de conserver et de diffuser la connaissance de spécialistes dans une organisation. Cela peut conduire à une meilleure qualité de décision, à une plus grande cohérence des décisions prises par des individus différents. Cependant, malgré ces bénéfices potentiels, les systèmes experts n’ont pas connu le développement intensif que l’on en attendait dans le domaine de la gestion. Deux raisons peuvent, en partie, l’expliquer : tout d’abord le coût de développement important de tels systèmes et les difficultés de leur maintenance (ces systèmes sont incapables d’auto-apprentissage), ensuite le fait qu’ils couvrent un domaine limité (alors que le niveau décisionnel auquel ils s’adressent traite des problèmes complexes). Une des voies les plus prometteuses consiste à combiner SIAD et système expert en intégrant, à l’intérieur d’un SIAD couvrant un champ large, des modules experts apportant une connaissance précise sur une question particulière. Cette combinaison utilise au mieux les capacités respectives de l’homme et de la machine dans des systèmes d’aide à la décision « intelligents ». En tout état de cause, l’avènement des systèmes experts traduit le progrès dans l’utilisation des ordinateurs où l’on dépasse désormais le traitement algorithmique des problèmes totalement structurés pour aborder une démarche heuristique face à des tâches incomplètement structurées. 2 2 2 Autres applications de l’intelligence artificielle Les principes de base de l’intelligence artificielle ont été transposés dans de nombreuses réalisations ; à titre d’illustration, nous présenterons ici, de manière sommaire, trois exemples : – les agents intelligents ; – les réseaux de neurones ; – les systèmes virtuels. 1. Agents intelligents De nombreuses applications, avec le développement d’Internet en particulier, utilisent désormais des « agents intelligents ». Après avoir défini la notion, nous montrerons quelques utilisations caractéristiques de ce type d’outils. a – Notion d’agent intelligent Un agent intelligent est une entité logicielle (programme ou ensemble de programmes liés) capable d’exécuter certaines tâches pour le compte d’un utilisateur, doté d’une intelligence suffisante pour exécuter ses tâches de façon autonome et interagir de manière significative avec son environnement. Un agent intelligent peut donc être consacré à une mission, définie selon des buts spécifiques à un utilisateur (par exemple, « chercher la compagnie aérienne offrant le vol Paris-New York le moins cher entre le 29 mai et le 2 juin »). L’agent est temporellement persistant ; il est présent en permanence et peut travailler sans arrêt même s’il ne communique qu’épisodiquement avec son utilisateur. Cet agent peut être simplement résident ou mobile. La mobilité caractérise la capacité de l’agent à se déplacer dans un réseau reliant différents ordinateurs ; il peut effectuer certaines tâches sur l’ordinateur visité puis revenir à son ordinateur hôte une fois la tâche accomplie. L’agent est doté, par construction, d’une certaine autonomie d’action, très souvent à base de connaissances fournies par une sorte de système expert ; il peut atteindre ses propres conclusions, en travaillant de manière indépendante, à partir des informations reçues de son environnement. Il est capable d’interagir avec son environnement (par exemple, dans le cas ci-dessus, l’agent peut consulter les tarifs des compagnies aériennes) ; cela signifie qu’il peut communiquer, échanger des informations. . ., avec d’autres machines ou programmes. Il est capable de s’adapter et d’apprendre : il peut s’adapter au comportement de son utilisateur, changer ses décisions à partir de l’exemple des résultats obtenus dans le passé, intégrer des connaissances acquises auprès d’autres agents dans sa base de connaissances. L’agent doit donc percevoir les changements dans l’environnement et utiliser des modèles de raisonnement permettant d’interpréter les perceptions. Actuellement, les réalisations logicielles ne possèdent pas pratiquement l’intégralité des capacités attribuées théoriquement à des agents véritablement intelligents ; elles mettent l’accent, selon les utilisations envisagées, sur une ou plusieurs des propriétés décrites ci-avant. b – Principaux types d’utilisation Selon Schubert et al. (1998), on peut distinguer trois grandes fonctions selon la nature des tâches effectuées : information, coopération, transaction. . Fonction d’information En raison de la multiplication des sources d’information disponibles, l’utilisateur se trouve exposé à la surcharge d’informations dans la phase de collecte. Aussi, un agent intelligent, en fonction de la demande de son utilisateur, va identifier les sources, extraire l’information pertinente (donc filtrer les données jugées peu utiles) et présenter les éléments pertinents d’une manière adaptée à son utilisateur. À cette utilisation classique, correspondent de très nombreux exemples : – agent de recherche documentaire, permettant de surveiller des sources documentaires (revues, actes de colloques.. .) à partir de mots clés, de concepts, de synonymes, par interrogation en langage naturel ; – agent « filtrant », permettant de trier les messages électroniques selon les thèmes jugés importants, prioritaires. . ., pour éviter la surcharge du destinataire ; – agent « contrôleur », capable de détecter des anomalies dans des rapports de gestion et de les signaler à son utilisateur. . Fonction de coopération Ils sont utilisés pour des situations de travail coopératif (voir chapitre suivant) où l’exécution d’une tâche requiert la coopération de plusieurs unités dispersées. Par exemple : – agents gérant les réunions d’un groupe de travail (analyse des agendas individuels, choix de plages horaires. . .), assurant le routage des messages électroniques. . . ; – agents participant à la gestion de réseaux de télécommunication (détection d’erreurs, choix des circuits de routage. . .). . Fonction de transaction Leur apparition est liée au développement du commerce électronique (voir chapitre suivant). En principe, de tels agents peuvent réaliser l’intégralité d’une transaction (prospection, sélection, achat ou vente) ; ils peuvent effectuer des négociations (sur un certains nombre d’attributs, prix, délai, quantité, selon les indications de l’utilisateur), émettre les commandes, assurer le règlement dans certains cas. On peut ainsi envisager des marchés où tous les participants (acheteurs, vendeurs, banquiers. . .) seraient représentés par des agents intelligents : par exemple, le prototype Kasbah développé par le MIT (voir le site kasbah.media.mit.edu). – Conclusion Les agents intelligents sont des logiciels qui jouent le rôle d’assistant plus ou moins spécialisé ; ils sont susceptibles d’effectuer des missions variées via Internet. À l’heure actuelle, les domaines privilégiés par leur développement sont : la veille ciblée, la recherche et la sélection des fournisseurs, la recherche documentaire, la publicité sélective et le marketing industriel. Le développement du commerce électronique et du travail en réseau devrait leur offrir des espaces d’utilisation importants. Un système multi-agent (SMA) est un ensemble d’agents, dotés de leurs modèles de comportement, situés dans un environnement précis et interagissant selon des relations de communication et de coopération. On peut alors paramétrer les différents agents composant une « communauté », ce qui a des applications aussi bien dans les systèmes écologiques qu’en simulation des problèmes de décision complexes. On parle alors d’intelligence artificielle distribuée. 2. Réseaux de neurones Avec les développements liés à l’intelligence artificielle, la manière d’utiliser les ordinateurs a évolué de façon sensible : – Dans un premier temps, on utilisait une démarche algorithmique qui impliquait une modélisation complète du problème et de son processus de résolution : on définissait les différentes étapes d’un calcul à exécuter dans un ordre prédéfini pour arriver, dans tous les cas, aux résultats souhaités. – Dans un second temps, le principe des systèmes experts, en séparant la description de la connaissance utilisable (règles et faits) de la manière de l’utiliser (mécanismes d’inférence), a simplifié la construction des logiciels et rendu leur évolution plus facile (ajout ou suppression de règles sans avoir à modifier la structure d’un algorithme figé). Cependant, dans les deux cas indiqués ci-avant, la construction du logiciel suppose que, pour le problème à résoudre, on dispose d’un minimum de connaissances préalables : – des concepts décrivant les variables du problème, les objectifs visés par la solution ; – des « lois » ou « relations » permettant de passer, par des enchaînements logiques, des données à la solution (ou à une solution) ; ces lois peuvent être scientifiquement établies (théorie admise par une communauté de « savants ») ou simplement traduire la conviction personnelle du décideur (règle empirique). Or, dans un certain nombre de cas, cette connaissance initiale n’existe pas ; en particulier, il est assez fréquent de ne pas pouvoir fournir de « lois », de relations. . . permettant d’exploiter logiquement les connaissances initiales. Pourtant, un être humain peut, dans de telles situations, souvent réussir à trouver une réponse satisfaisante. Remarque Devant un ensemble de photographies variées, prises sous différents angles, un être humain réussit, en général, à identifier la même personne parmi d’autres sans être vraiment capable d’expliquer par quel mécanisme il le fait. Dans de telles situations, la seule source dont on dispose, si le problème est de nature répétitive, est un ensemble de connaissances factuelles composées, à partir d’une collection d’expériences, de données initiales (éventuellement incomplètes) et de résultats obtenus à partir de ces données. Le mécanisme, la théorie à la base du traitement de ces données sont inconnus. Dans ce cas, les réseaux de neurones artificiels, modèles de logiciels en analogie avec l’activité élémentaire du cerveau humain, peuvent apporter une solution. Exemple Considérons le problème classique d’une banque qui doit accorder ou refuser des crédits à des emprunteurs ; cette banque souhaite utiliser un ordinateur pour assister (ou remplacer) les décideurs chargés de traiter les dossiers de prêts. Trois types de solutions sont théoriquement possibles : Première solution : algorithmique classique ; on s’estime capable de décrire le problème et la solution par calcul ; la formulation sera du genre : 1 – déterminer le revenu mensuel de l’emprunteur, 2 – si crédit demandé 0,10 6 revenu mensuel passer à l’étape 3, sinon stop, 3 – évaluer le patrimoine offert en garantie, . . . N – montant du prêt = . . . Fin. Deuxième solution : système expert : à partir de l’analyse du traitement effectué par des spécialistes des prêts, on construit un système expert avec des règles du genre : si le demandeur a plus de 60 ans faire souscrire assurance-vie, si demandeur locataire demander montant loyer mensuel.. . . Troisième solution : réseaux de neurones : la seule connaissance dont on dispose (sans doute parce que la théorie financière ne semble pas assez robuste ou que les experts consultés n’ont pu exprimer un ensemble de règles cohérentes) est l’accumulation de 3 000 dossiers de prêts déjà traités. Pour ces dossiers, on dispose de données initiales : les caractéristiques des emprunteurs (âge, emploi, salaire mensuel, patrimoine immobilier. . .) décrites par un nombre limité de variables et les décisions prises (accord ou refus du prêt). [On peut même supposer que l’on a conservé une trace des résultats observés en cas d’accord de prêt (incidents de remboursement ou non) pour qualifier les décisions de « bonnes » ou d’« inopportunes ».] Le principe de la solution est alors le suivant : 1 – construction d’un réseau de neurones dont les « entrées » seront les variables décrivant l’emprunteur et les « sorties » une recommandation d’accord ou un conseil de refus (logiciel dont les caractéristiques sont décrites ci-après) ; 2 – par un mécanisme d’apprentissage, à partir des cas observés, on modifie les caractéristiques du réseau jusqu’à ce qu’il « imite » le comportement observé : à savoir l’émission de la même sortie à partir des mêmes entrées. Sans aucune théorie sous-jacente, le réseau reproduit le comportement des décideurs ; 3 – le réseau étant « éduqué », on lui soumet des cas nouveaux à traiter : caractéristiques des emprunteurs, et il propose une décision : refuser ou accorder le prêt. Les réseaux de neurones apparaissent donc comme des logiciels capables de reproduire des comportements subcognitifs de résolution de problèmes pour lesquels on dispose de connaissances uniquement factuelles (données, résultats). a - Structure d’un réseau de neurones (ou réseau neuromimétique) 1 Un réseau de neurones artificiels peut être comparé au fonctionnement élémentaire du cerveau humain par une modélisation de son élément de base, le neurone, et de sa structure : une interconnexion de ces neurones. Le neurone artificiel Un neurone artificiel (mathématiquement il s’agit de vecteurs et de matrices) est un modèle comportant les éléments suivants : 1. Les développements qui suivent sont extraits de J.-P. MAGNIER, articles cités. – des entrées (parfois appelées synapses) lui permettant de recevoir des influences externes (stimuli) ; on désigne par Xi la valeur numérique du stimulus reçu par l’entrée i. Chaque entrée est caractérisée par un coefficient spécifique de pondération, appelé poids synaptique. On désigne par Cik le poids synaptique de l’entrée i pour le neurone k ; – un noyau cellulaire dont l’état ou potentiel est déterminé par la valeur des stimuli reçus en entrée pondérée par les poids synaptiques correspondants. Par exemple, si on appelle Ek le potentiel du neurone k, on peut avoir une valeur du potentiel liée aux entrées par la relation « somme », c’est-àdire Ek ¼ Pi Cik # Xi ; – une sortie (parfois appelée axone) traduisant l’influence du neurone sur l’extérieur. La valeur de cette sortie dépend de l’état du noyau cellulaire ; elle lui est liée par une fonction (appelée filtre), généralement non linéaire. Par exemple, la sortie Sk du neurone k peut être définie comme une fonction « signe » de Ek. Sk = signe (Ek) avec Sk = + 1 si Ek 4 0 et Sk = – 1 si Ek40. Les réseaux de neurones Les neurones, tels qu’ils viennent d’être décrits, peuvent être connectés entre eux pour constituer un réseau ; cela signifie que la sortie d’un neurone peut être connectée aux entrées de différents neurones. En revanche, l’entrée d’un neurone donné ne peut être connectée qu’à une seule sortie d’un autre neurone. Selon la nature des connexions, on trouve différentes structures de réseaux : – réseau totalement connecté : chaque neurone est connecté à tous les autres neurones ; – réseau interconnecté par groupes : les neurones d’un même groupe sont totalement connectés et peuvent être connectés à ceux d’un autre groupe ; – réseau multicouche : les neurones d’un groupe ont pour entrées les sorties du groupe précédent. Dans ce cas, on appelle entrée du réseau les entrées des neurones correspondant à des stimuli externes : ce sont donc des valeurs fournies par l’utilisateur. On appelle sortie du réseau les sorties de neurones non connectées et fournissant une valeur intéressant l’utilisateur du modèle. Le terme « synapse » désigne alors une entrée correspondant à la sortie d’un autre neurone, donc une connexion. Exemple Sur la figure 17, X11, X12,. . ., X22,. . ., X31,. . . sont des entrées du réseau. S5 et S6 sont des sorties du réseau. La sortie du neurone 1, S1, est reprise en entrée du neurone 3 (X32) : il y a connexion. Les relations entre les neurones à l’intérieur du réseau peuvent être décrites par une matrice, appelée matrice des poids synaptiques, indiquant les entrées des neurones auxquels est connectée la sortie de chaque neurone (en précisant le poids synaptique de l’entrée). Le coefficient Cij (sortie du neurone i vers l’entrée du neurone j) est nul si le neurone i n’est pas connecté au neurone j. Dans l’extrait de matrice présenté page suivante, le neurone 1 est connecté par sa sortie au neurone 4 (poids synaptique de l’entrée : 0,7) et au neurone 5 (poids synaptique de l’entrée : 0,9). b – Fonctionnement du réseau (notions élémentaires) Principes de fonctionnement : apprentissage L’application d’un stimulus aux entrées du réseau va entraîner une modification du potentiel des neurones concernés ; cette modification du potentiel des neurones entraîne une modification de la valeur de sortie. En raison des connexions, la modification corrélative se transmet aux neurones connectés qui réagissent à leur tour. Le phénomène se transmet jusqu’aux sorties du réseau. Les valeurs modifiées de ces sorties traduisent la réponse du réseau au stimulus déclenchant (la réponse est décrite par le vecteur SM des sorties du réseau). Cette réponse varie en fonction du stimulus ; elle est déterminée par la structure du réseau (représentée par la matrice des poids synaptiques). Remarque En raison de l’existence de boucles dans le réseau, la réponse peut ne pas être stable. Compte tenu de la logique d’utilisation décrite en introduction, on cherche à ce que le réseau fournisse une « bonne réponse » lorsqu’on lui applique un certain stimulus. Pour reproduire cette réponse, donc pour que le réseau ait un comportement adapté à la résolution du problème, on va lui faire subir un apprentissage. Cet apprentissage consiste à modifier la matrice des poids synaptiques jusqu’à ce que le réseau reproduise les réponses souhaitées. Selon la méthode utilisée pour l’apprentissage, on distingue différents types de réseaux (réseaux à matrice précalculée, réseaux à apprentissage non supervisé ou réseaux à auto-organisation, réseaux à apprentissage supervisé. . .). Dans le cas des réseaux à apprentissage supervisé, on présente une situation au réseau, on la lui fait apprendre et mémoriser puis on lui fait apprendre une deuxième situation (en espérant que l’apprentissage de la seconde ne lui fera pas oublier la première). Un des mécanismes d’apprentissage les plus utilisés est fondé sur l’« exploitation de l’erreur » : après une expérimentation, on calcule l’écart entre la réponse désirée et le vecteur de sortie observé (« gradient d’erreur »). Cet écart est repris par un algorithme d’apprentissage qui en déduit les corrections à apporter à la matrice des poids synaptiques ; cette correction se fait progressivement, par « pas » successifs. Une des difficultés pratiques consiste d’ailleurs à définir la valeur du pas de correction : – s’il est trop faible, le temps d’apprentissage sera très long ; – s’il est trop fort, le comportement du réseau peut devenir erratique. En définitive, le comportement du réseau, ses capacités d’apprentissage et donc son aptitude à résoudre un certain type de problèmes sont déterminés par : – les fonctions de potentiel et de sortie de chacun de ses neurones ; – la structure d’interconnexion des neurones ; – le mécanisme d’apprentissage utilisable. Problèmes d’utilisation Compte tenu de leurs caractéristiques, les réseaux de neurones offrent des avantages certains pour la résolution de problèmes pour lesquels on ne dispose pas de modèles pertinents car : – ils peuvent trouver des solutions à partir d’exemples ; – ils tolèrent l’absence de certaines données (le réseau peut assimiler une situation décrite de manière incomplète à un type de situation qu’il connaît) ; – ils sont adaptatifs car ils peuvent poursuivre leur apprentissage pendant leur utilisation. Entrées 1 2 3 4 5 6 Sorties 1 0 0 0 0,7 0,9 0 2 0 0 0 0 1,5 3 En outre, leur principe de modélisation permet souvent des traitements parallèles autorisant une grande rapidité de calcul lorsque l’on dispose d’un ordinateur multiprocesseur. Leur domaine d’application privilégié reste celui de la reconnaissance des formes : reconnaissance de l’écriture manuscrite, reconnaissance de la parole, reconnaissance d’images (photos, électrocardiogrammes). Dans le domaine de la gestion, des applications à des problèmes d’optimisation (problème du voyageur de commerce par exemple), des modèles prédictifs, voire de décision, des outils d’évaluation d’entreprises (projet Sacre de la Banque de France) ont été réalisés. Outre l’exemple de l’aide à la décision d’octroi de crédit (voir introduction du paragraphe), citons l’exemple commenté par J.-P. Magnier (1991), dans le domaine de la recherche commerciale : il s’agit, pour une entreprise commerciale, de prédire le comportement d’achat d’un client (achèterat- il ou non l’année suivante ?) en fonction d’un certain nombre de caractéristiques initiales (âge, sexe. . .) et de certaines actions commerciales (publicité, rabais. . .). Le principe consiste à fournir au logiciel, construit sous forme de réseaux de neurones, un ensemble de données historiques décrivant les caractéristiques du client, les actions commerciales menées et les résultats observés, pour lui apprendre à prédire le fait que le client achètera ou non l’année suivante. Plusieurs solutions ont été testées (réseau monocouche, réseau à nombre de neurones évolutif, réseau multicouche) et ont permis d’obtenir des résultats très satisfaisants à partir d’un échantillon de 2 000 clients. Les expériences d’utilisation révèlent également les principales difficultés d’utilisation : 1) Quel type de réseau choisir ? Selon les caractéristiques du problème à résoudre, tel ou tel type de réseau peut se révéler mieux adapté ; mais, en dehors de quelques contre-indications bien connues (faire de la classification linéaire avec un réseau monocouche), on ne dispose pas d’une théorie robuste pour ce premier choix. 2) Quelle structure donner au réseau ? Choisir le nombre de neurones, leur mode de connexion ; fixer des valeurs aux paramètres (poids synaptiques). . . nécessitent des séries d’essais préalables (et beaucoup d’intuition !). 3) Quand arrêter l’apprentissage ? À l’issue d’une certaine période d’expérimentation, il est très difficile d’affirmer que l’on a obtenu la meilleure configuration et que l’on peut s’arrêter (il ne faut pas oublier que le résultat de l’apprentissage dépend également de la qualité des données historiques utilisées). Il faut donc déterminer des critères de validation (taux de réponses correctes par exemple) permettant de considérer que le réseau résout bien le problème. c – Conclusion Les réseaux de neurones ont, pour l’instant, connu des développements limités dans les domaines de la gestion. Malgré des difficultés certaines de mise en oeuvre, leur robustesse, leur capacité d’apprentissage, l’approche totalement empirique qu’ils permettent doivent leur assurer une place importante complémentaire des autres outils d’aide à la décision, notamment dans les applications de fouille de données, de prévisions commerciales, de gestion des risques. . . 3. Systèmes virtuels On assiste actuellement au développement de systèmes d’information particuliers appelés systèmes virtuels. En informatique, un système virtuel est un système qui permet d’engendrer des « environnements virtuels ». Un environnement virtuel est une base de données interactives, explorable et visualisable en temps réel sous forme d’images de synthèse, tridimensionnelles, de façon à donner le sentiment d’immersion dans l’image. Dans ses formes les plus évoluées, l’environnement virtuel est un véritable espace de synthèse, constitué d’une conjonction d’images mais aussi de sons, de sensations tactiles. . ., dans lequel on peut avoir le sentiment de se déplacer physiquement grâce à plusieurs systèmes électroniques. Dans un environnement virtuel, l’espace est purement subjectif, c’est une abstraction qui autorise toutefois : – la perception des dimensions de l’espace (trois) ; – la simulation des objets qui peuplent cet espace ; – la simulation du mouvement. Cette simulation de l’espace peut se réaliser par différents dispositifs : – écrans larges et son haute définition ; – casques de vision équipés d’écrans à cristaux liquides ; – « gant » de données muni de capteurs de position de la main et des doigts ; – « combinaison de données » : vêtement équipé de capteurs permettant de numériser les mouvements et la position du corps ; – systèmes haptiques permettant de recréer certaines perceptions telles que le toucher et l’effort musculaire (par exemple, des « bras » articulés). Le principe de fonctionnement d’un système virtuel est le suivant : Utilisateur Capteurs d'entrée Moteur de réalité Capteurs de sortie Le «moteur de réalité » est le modèle informatique qui engendre l’environnement virtuel en recalculant tous les paramètres variables à partir des données reçues par les capteurs d’entrée. Ce sont des programmes très complexes qui requièrent des puissances de traitement très élevées. Les systèmes virtuels (on utilise aussi l’expression systèmes de « réalité virtuelle ») sont essentiellement utilisés pour la simulation, c’est-à-dire la modélisation et la représentation de phénomènes réels ou imaginaires. Les applications les plus immédiates sont : – les jeux (systèmes ludiques) ; – la formation et l’entraînement de professionnels. Citons, par exemple, la formation de chirurgiens à la microchirurgie (le chirurgien guide des micro-instruments dans le corps du « patient »), l’entraînement des pilotes d’avion sur des simulateurs. . . Des applications proches de l’aide à la décision se développent progressivement : – par exemple, possibilité pour un architecte de visualiser l’immeuble qu’il conçoit, de le faire « visiter » par son client, de modifier immédiatement certaines caractéristiques (dimension des fenêtres, revêtements de sols ou de murs.. .) et de recommencer la « visite ». Le client est ainsi assisté dans sa décision de choix ; – aide à la recherche en marketing avec la simulation d’un supermarché où le client « réalise des achats » ; l’expérimentation est à la fois plus rapide et moins coûteuse que dans un supermarché réel car le supermarché virtuel peut être modifié de manière très simple ; – visualisation de données financières en temps réel sous des formes géométriques en trois dimensions pour des courtiers en Bourse de valeurs – construction d’univers virtuels, conçus comme des environnements en trois dimensions reliant une communauté humaine au travers d’avatars (utilisés notamment pour les jeux de simulation dans les formations en ligne). Ces applications ont encore un caractère expérimental ; cependant, certains principes de la « réalité virtuelle » sont déjà intégrés dans la conception des dialogues homme-machine : commande vocale des machines, utilisation d’icônes pour la représentation des opérations. . . La spécificité des systèmes de « réalité virtuelle » repose sur deux principes majeurs : – la transformation de concepts en objets sensibles, grâce à un environnement virtuel ; – une intervention naturelle et intuitive par l’immersion dans cet environnement. Ces deux principes majeurs doivent déboucher sur la conception de systèmes d’aide à la décision beaucoup plus simples à utiliser que les systèmes actuels. Pour résumer Le domaine de l’aide à la décision par le recours aux technologies de l’information a connu des évolutions nombreuses, avec des progrès notables dans la gestion des données, la représentation des connaissances et la communication homme-machine. Pour les raisons que nous avons indiquées dans la première section de ce chapitre, l’apport des SAD reste encore faible pour les décisions non structurées. En revanche, pour les décisions structurées, cet apport semble plus net. Beaucoup de travaux de recherche ont tenté de mettre en évidence cet apport en caractérisant une relation directe entre les capacités du SAD et la performance décisionnelle (décision plus pertinente, plus efficace, plus rapide.. .). Les résultats ont été, en général, peu convaincants. Comme le suggèrent P. Todd et I. Benbasat (2000), plusieurs facteurs sont à prendre en considération pour expliquer la performance décisionnelle. Le schéma cidessous permet de mieux comprendre pourquoi il n’est pas aisé d’évaluer l’apport d’un SAD : en particulier, l’utilisateur peut toujours arbitrer entre l’« effort cognitif » qu’il souhaite produire et le niveau de « qualité » visé pour la décision qu’il a à prendre. Le recours au SAD peut ne produire aucun effet observable même si son apport est bien réel pour le décideur. Ce difficile problème de l’évaluation sera repris, d’une manière plus générale, dans le dernier chapitre de cet ouvrage. Chapitre 4 L’aide à la communication 1. La problématique de la communication : pourquoi et comment communiquer ? 2. Les réseaux et Internet . Pour résumer Le développement considérable des réseaux internes et externes a transformé les technologies d’information (TI) en technologies d’information et de communication (TIC.). Il convient donc de comprendre d’abord pourquoi et comment communiquer : à la fois pour transmettre, pour échanger et pour construire du sens. C’est en s’appuyant sur ces trois différentes visions que l’on peut comprendre le développement des outils de communication : Internet, travail collaboratif, commerce électronique.. Au terme de ce chapitre, vous devez être en mesure : de décrire les différents principes de la coordination dans l’entreprise et entre organisations . de présenter les différents aspects du concept de communication dans les organisations . de connaître les différents outils informatiques d’aide à la communication . de connaître les principes de base d’Internet . de discuter des différents problèmes liés à l’utilisation d’Internet dans les organisations en termes de savoir-faire : d’expliquer, dans une étude de cas, à quel(s) modèle(s) théorique(s) se rattachent une pratique ou un outil de communication dans l’entreprise. Comme le rappelle H. Simon (1983) : « La communication au sein des organisations est un processus à double sens : elle englobe à la fois la transmission d’ordres, d’informations et de conseils à un centre de décision et la transmission des décisions prises à partir de ce centre aux autres parties de l’organisation. » À ce problème fondamental de la communication interne s’ajoute celui de la communication externe. Toute organisation, à des degrés divers, doit, pour assurer sa survie, effectuer des échanges de biens et de services avec son environnement (d’autres organisations, d’autres individus que ceux qui la composent). Ces échanges impliquent nécessairement des actions de communication. Des études convergentes montrent que 75% du temps de travail des employés et plus de 80 % du temps de travail des cadres sont consacrés à ces activités de communication interne et externe. Il n’est donc pas plus surprenant que l’on ait songé à utiliser des technologies de l’information pour tenter d’améliorer l’efficience et l’efficacité de ces activités. Axées à l’origine sur les activités de calcul et de traitement, les technologies de l’information ont été orientées dès les années 1980 vers l’aide à la communication. Cette phase de développement accéléré s’est d’ailleurs traduite, de façon significative, dans le vocabulaire par la substitution de l’appellation « technologies de l’information et de la communication (TIC) » à l’appellation ancienne « technologies de l’information (TI) ». Plus récemment, le développement des réseaux à l’échelle mondiale avec l’apparition puis l’extension considérable d’Internet a rendu encore plus indispensable une réflexion sur l’intérêt véritable des systèmes d’aide à la communication. Mais comprendre ce que peuvent apporter les TIC à l’amélioration des diverses formes de communication exige, au préalable, que soient explicitées d’abord les raisons pour lesquelles on doit communiquer puis ensuite que soit clairement défini ce qu’il faut entendre par processus de communication. Ces préalables étant rappelés, on peut alors mieux caractériser les différentes formes que peut revêtir la notion d’aide à la communication. C’est pourquoi, dans la première section de ce chapitre, nous présentons la problématique majeure de la communication (pourquoi et comment communiquer) pour décrire, dans la seconde section, les axes principaux des développements actuels des TIC autour des réseaux et d’Internet. 1 La problématique communiquer ? de la communication : pourquoi et comment Les motifs pour lesquels se déclenche une action de communication sont variés. Comme nous le montrerons dans un premier point, l’analyse de ces besoins de communication est utile pour mieux comprendre dans quelles conditions peut intervenir l’aide potentielle d’un outil de communication. Cependant, l’estimation fine des potentialités de l’outil ne peut se construire qu’à partir d’une vision théorique du processus de communication ; c’est ce que nous montrerons dans un second point. 1 1 Communication et coordination Nous nous intéresserons, ici, aux aspects instrumentaux de la communication qui ressortissent du problème majeur de la COORDINATION INTRA et INTERORGANISATIONNELLE. Ce problème correspond, en pratique, à la plus grande partie des communications échangées, celle pour laquelle, en raison du volume des échanges et de leur caractère répétitif, le recours aux TIC semble, a priori, le plus pertinent. 1 La coordination dans une organisation La constitution de toute organisation obéit à un principe simple : se regrouper pour réaliser à plusieurs ce qu’un individu isolé ne peut accomplir. L’organisation repose donc sur le principe général de la DIVISION DU TRAVAIL, ce qui entraîne automatiquement la question fondamentale : comment faire en sorte que l’objectif général de l’organisation soit respecté malgré la répartition des tâches entre les participants ? La réponse à cette question est la COORDINATION. L’analyse de la coordination peut être conduite selon deux dimensions : – VERTICALE avec l’application du principe de hiérarchie ; – HORIZONTALE avec l’application du principe de séparabilité. 1. Hiérarchie et communication verticale Dans toute organisation (même dans celles qui semblent « peu organisées »), il existe un partage des tâches, en particulier des tâches de décision, selon le principe de hiérarchie. Le modèle de la commande hiérarchisée (figure 1) permet de représenter les caractéristiques structurelles et fonctionnelles de la hiérarchie : Il existe plusieurs organes de décision (individus ou groupes) appelés « centres de commande » se partageant la tâche de conduire un processus ; on admet que ce processus commandé, objet de la décision, puisse être décrit au minimum par un indicateur de performance (efficience, efficacité. . .). Exemple Dans une grande banque, les conditions générales d’octroi d’un crédit à une entreprise sont définies par la direction commerciale (niveau 3) ; les directeurs d’agence principale (niveau 2) peuvent, en respectant ces conditions générales, accorder des crédits aux entreprises clientes de l’agence. Ils peuvent également confier à des directeurs d’agence secondaire (niveau 1) la décision d’accorder des crédits d’un certain type, pour un montant limité. b – Caractéristiques fonctionnelles Le fonctionnement d’une hiérarchie est caractérisé par : – l’interdépendance des décisions pour la poursuite des objectifs : la performance observée au niveau du processus commandé découle de l’ensemble des décisions prises aux différents niveaux et pas seulement de celles prises à un seul niveau. (Par exemple, le profit réalisé dans les opérations de crédit aux entreprises dans le cas cidessus découle à la fois des choix politiques effectués par la direction commerciale et des décisions d’accord de crédit prises aux niveaux 2 et 3.) ; – la communication incomplète entre les niveaux hiérarchiques. Les échanges verticaux d’information entre les différents niveaux ne sont pas des transmissions pures et simples. Exemple Dans le cas de la banque, les directives de la direction générale peuvent se limiter à fixer des « fourchettes de taux », des règles de prudence et des priorités selon les secteurs d’activité. Un directeur d’agence principale complétera ces directives générales par des consignes plus précises sur les critères à respecter (structure financière de l’entreprise par exemple) avant d’accorder le crédit. L’application du principe de hiérarchie se traduit donc par des besoins en communication verticale dans les deux sens. 2. Interdépendance et coordination Le principe de hiérarchie définit une logique « verticale » dans la division du travail ; cette logique verticale se combine avec une logique « horizontale » du découpage des activités dans l’organisation. Ce découpage en unités est un des paramètres fondamentaux de toute organisation et peut être opéré selon des critères variés. Citons les plus fréquents dans les entreprises 1 : – fonctionnels (par spécialisation) : ventes, production, achats, comptabilité ; – géographiques : ventes France, ventes Europe, ventes USA-Canada ; – par marchés ou par produits : division composants, division produits grand public. Ce choix a une influence déterminante sur les conditions de communication dans l’organisation. a – Interdépendance des activités Pour assurer le respect de l’objectif global de l’organisation malgré le découpage nécessaire en unités, il est nécessaire de bien comprendre la nature des relations susceptibles d’exister entre les différents domaines à l’intérieur de l’organisation. 1. Cf. J.-P. Helfer, M. Kalika, J. Orsoni, Management, stratégie et organisation, Vuibert, 2010. Il existe des interdépendances entre les domaines d’activité : – interdépendance indirecte : les activités n’échangent pas directement des informations ou des biens mais elles utilisent des ressources partagées. (Par exemple, les deux divisions de l’entreprise utilisent les services communs de l’informatique, du personnel et de la comptabilité.) ; – interdépendance séquentielle : le résultat d’une activité est utilisé en entrée (input) d’une autre activité. (Par exemple, les composants produits par l’usine A sont utilisés par l’usine B chargée du montage.) Il y a donc échange direct de biens et d’informations ; – interdépendance réciproque : alternativement, en permanence, chaque domaine échange avec les autres des biens et de l’information. (Par exemple, deux ateliers travaillent en parallèle sur des sousensembles à intégrer dans un produit final ; ils doivent s’informer mutuellement de l’état d’avancement, des modifications à envisager. . .) Quelle que soit la nature des interdépendances, la conséquence est identique ; il y a interaction. . La performance obtenue au niveau d’un domaine dépend également des décisions prises dans un autre domaine. (Par exemple, les quantités produites par l’usine B dépendent de la qualité des composants fournis par l’usine A.) . L’optimum global n’est plus la somme des optima locaux. (Par exemple, si, en cherchant à produire au maximum, l’usine A consomme davantage d’une matière première commune rare, l’usine B peut être pénalisée fortement et le résultat globalement diminué.) La coordination s’impose pour éviter des dysfonctionnements graves tels que : – décisions locales inadaptées ; – conflits entre unités ; – absence de décision. « Coordonner des tâches, c’est gérer les interdépendances entre activités pour atteindre un but » (Malone et Crowston, 1984). b – Mécanismes de coordination La coordination apparaît comme une activité supplémentaire de traitement et de communication d’information qui doit être exécutée lorsque des acteurs multiples interviennent à la place d’un acteur unique poursuivant les mêmes buts. Comme le montre H. Mintzberg, cette activité peut être réalisée grâce à différents mécanismes de coordination à l’intérieur de l’organisation : ajustement mutuel, supervision directe, standardisation. 1) Ajustement mutuel Les unités qui doivent se coordonner échangent directement, sous une forme quelconque (définie ou libre), des informations relatives à leur état actuel, à leurs intentions. . . Cet échange d’informations peut être accompagné de négociation lorsque des conflits apparaissent. Ce procédé, naturel, simple dans son principe, est utilisé dans les organisations sous différentes formes : conversation spontanée, entretiens ou réunions planifiées. . . Exemple Dans une entreprise industrielle de taille moyenne, travaillant à la commande, le directeur de la production et le directeur commercial décident en commun du programme de production de la semaine à venir. Cette coordination est indispensable car les conflits potentiels sont nombreux : le directeur commercial cherche à satisfaire les commandes qu’il juge urgentes, le directeur de production cherche à minimiser le coût de production. Les risques de sous-optimisation en l’absence de coordination sont réels. Ce procédé se heurte à des limites évidentes lorsque le nombre des personnes concernées augmente : la multiplicité des relations, les grands volumes d’informations à échanger conduisent à des pertes de temps considérables. Il est donc indispensable de recourir à d’autres mécanismes pour assurer la cohérence. 2) Supervision directe par hiérarchie Le principe de hiérarchie, déjà analysé, se caractérise par des relations de pouvoir asymétriques. Le principe de supervision directe consiste à confier à un acteur de niveau supérieur la charge d’assurer la cohérence des comportements des niveaux inférieurs en donnant des ordres, des consignes tenant compte des informations dont lui seul dispose. Le nombre de centres de commande ainsi coordonnés par un supérieur correspond à son étendue de contrôle (span of control). La généralisation de ce procédé conduit ainsi à la notion de pyramide hiérarchique combinant le découpage vertical et le découpage horizontal des tâches de décision. Les conséquences de son application sont les suivantes : . Une hiérarchisation des modèles de gestion selon la complexité : le coordinateur (niveau supérieur) doit assurer la cohérence des décisions de niveau inférieur ; pour ce faire, il doit disposer d’un modèle de gestion prenant en compte l’ensemble des variables « gérées » par ses subordonnés, voire des variables supplémentaires. . Une fréquence de décision plus faible au fur et à mesure que l’on monte dans la hiérarchie, pour un problème donné. En effet, lors du découpage des domaines d’activité, on essaie de tenir compte au mieux des interdépendances ; le choix des « frontières » des espaces de décision permet de limiter les interactions, à l’avance. Ce n’est que lorsque des conflits se révèlent que le niveau supérieur intervient. . L’horizon temporel de la décision s’allonge au fur et à mesure que l’on monte dans la hiérarchie. Dans la mesure où la fréquence de décision est plus faible et le nombre de variables prises en compte plus élevé, le « terme » de la décision tend à augmenter lorsque l’on s’élève dans la hiérarchie. Exemple Si l’on considère l’organisation des achats de l’entreprise X. . . au bas de la pyramide, on trouve des acheteurs qui passent des commandes en fonction des besoins observés ; leur variable de décision est la date de commande. En revanche, ils doivent s’adresser à des fournisseurs choisis par la direction des achats (qui tient compte d’un certain nombre de paramètres qu’ils ne connaissent pas systématiquement : niveau de qualité, prix. . .). La direction des achats se voit elle-même imposer des spécifications précises par la direction de la production dont elle dépend. Ces spécifications précises répondent aux exigences des responsables de la fabrication. La modification des spécifications a rarement lieu plus d’une fois par an ; la décision de recourir à un autre fournisseur est un peu plus fréquente ; la décision d’approvisionnement est parfois quotidienne. La cohérence ainsi organisée dans la hiérarchie conduit souvent à répartir, vers le bas, des décisions à temps de réponse court, à horizon limité, à fréquence élevée, et à renvoyer vers le haut les décisions à modèle complexe, à horizon plus éloigné et à temps de réponse plus long. 3) Coordination par standardisation Le troisième mécanisme fondamental de coordination consiste à élaborer des standards, des normes.. ., qui guideront les comportements des participants dans l’organisation. Cette standardisation peut d’abord concerner les processus se déroulant dans l’organisation : on définit ainsi des manuels de procédures, des modes opératoires précisant à chacun ce qu’il doit faire, quelles sont les règles à respecter. Les plans et les programmes fixent ainsi des références communes aux différents membres de l’organisation et délimitent leur domaine d’action. Ces standards ayant prévu les interactions assurent un certain degré de coordination. Cette standardisation peut porter sur les résultats à obtenir. Les objectifs locaux détaillés indiquent à chaque acteur vers quoi il doit tendre ; on lui laisse le choix (au moins limité) des moyens et méthodes. Ce principe respecte davantage la latitude décisionnelle de chaque centre de décision et nécessite moins d’échanges d’informations. Exemple Les budgets décrivant les objectifs acceptés par chacun et harmonisés par la direction générale. Une troisième forme de standardisation concerne les comportements. Par le biais de la formation, des pratiques de socialisation (projet d’entreprise, cérémonies collectives. . .), on essaie de faire adopter à chacun des valeurs de référence, des comportements types. . ., de manière à réduire la charge de coordination. Exemple Dans la plupart des entreprises, l’accent mis sur le projet commun, la « culture » de l’entreprise. . . correspond à la recherche de ce type de coordination. Au fur et à mesure que le travail devient plus compliqué, les moyens favoris de coordination semblent passer de la forme d’ajustement mutuel (le mécanisme a priori le plus riche dans une petite structure) à la supervision directe (le mécanisme a priori le plus clair dans une grande structure), puis à la standardisation (par les procédés de travail, par les résultats à obtenir ou par la culture commune) pour finalement revenir à celle de l’ajustement mutuel (car, paradoxalement, c’est le mécanisme qui est le mieux à même de correspondre à des formes complexes de travail). Pour Mintzberg, chacun de ces mécanismes de coordination est caractéristique d’un type de forme structurelle : structure simple, bureaucratie industrielle, bureaucratie professionnelle, forme divisionnalisée, adhocratie. c – Coordination et communication Les exigences de la coordination imposent des choix quant aux processus de communication à retenir mais, réciproquement, à un moment donné, les caractéristiques des canaux de communication disponibles conduisent éventuellement à privilégier certains modes de coordination dans l’organisation. Ces rapports dialectiques entre modes de coordination et processus de communication sont fort complexes à analyser. Aussi, nous nous limiterons aux questions les plus immédiates. . Formalisation de la communication En dehors des organisations de très faible dimension, la communication est définie formellement, au moins de manière partielle, pour les échanges réguliers, de volume élevé. Des procédures précisent le contenu, la fréquence, le délai d’acheminement, les points d’émission et de réception de messages à échanger soit verticalement, soit latéralement. Dans les très grandes organisations, le découpage de la décision et le partage de l’information sont concrétisés sous forme de dossiers, transmis successivement à différents postes de travail et traités de manière séquentielle. La communication est de forme écrite et rigoureusement définie. Cette formalisation par lettre, note, compte rendu, dossier. . ., apporte une grande sécurité de fonctionnement en réglant les conflits potentiels liés au partage de la décision et de l’information pour des activités récurrentes, stabilisées et de fort volume. Mais même dans les organisations très bureaucratiques où l’analyse de la coordination et de la communication a été conduite à un niveau élevé de précision, on observe l’émergence de communications informelles entre individus, n’obéissant pas à un schéma préétabli. Les discussions de « couloir », les conversations au restaurant d’entreprise, l’appel téléphonique, les SMS.. ., sont des manifestations tangibles de ce besoin de communication complémentaire non satisfait par la structure formelle. Une part importante de coordination est ainsi réalisée par des ajustements mutuels non prévus dans le mode « officiel » de fonctionnement de l’organisation. On constate assez souvent que ces mécanismes informels jouent davantage à l’intérieur de certains « clans », groupes d’individus entretenant des relations privilégiées et s’informant mutuellement de manière préférentielle. Ces réseaux informels de communication peuvent renforcer ou contrarier le rôle des réseaux organisés (réseaux de personnes appartenant à la même religion ou pratiquant le même sport. . .). L’expérience montre que, dans tous les cas, une organisation ne peut fonctionner efficacement en utilisant seulement les communications formelles ; l’analyse de la cohérence organisationnelle ne peut négliger les aspects informels de la communication et de la coordination. . Communication et fonctionnement des hiérarchies La hiérarchie et le mode de coordination par supervision directe qui lui est associé engendrent des flux de communication verticaux : ordres et consignes dans le sens ascendant, comptes rendus et informations de contrôle et d’intelligence vers le haut. Ce schéma simple se heurte à quelques difficultés dont nous citerons les deux principales : – biais et rétention dans les informations ascendantes : toutes les informations n’ont pas la même probabilité d’être transmises vers le haut de la hiérarchie. En particulier, une information dont la transmission risque d’entraîner des conséquences désagréables pour l’émetteur ne remontera dans la hiérarchie que si le niveau inférieur n’a pas d’autre choix (en particulier parce qu’il est persuadé que son supérieur en aura de toute façon connaissance et qu’il vaut donc mieux l’informer). L’information traduisant un succès des niveaux inférieurs remonte plus facilement que celle traduisant un échec ; – réduction de l’incertitude : lors de sa transmission (vers le haut en particulier), l’information peut subir des altérations successives à chaque étape de la communication et être fortement distordue lorsqu’elle arrive à l’utilisateur ultime. Un exemple particulièrement illustratif de ce phénomène est l’absorption de l’incertitude qui tend à faire considérer comme vérifiée une proposition hypothétique à l’origine. . Communication et mode de coordination Les différents modes de coordination n’ont pas les mêmes exigences pour la communication entre les unités à coordonner. La coordination par la standardisation des comportements présente l’intérêt majeur de pouvoir fonctionner en l’absence de communication. La standardisation par les résultats à obtenir réclame une communication périodique mais est relativement peu exigeante en informations. La standardisation des processus peut exiger une importante communication formelle initiale ; mais si les conditions sont stables, la charge de communication peut être, par la suite, relativement réduite. La supervision directe, dans une hiérarchie, exige une communication dans les deux sens ; l’intensité des échanges varie avec la vitesse d’évolution des processus gérés : des processus stables permettent un apprentissage (voir plus loin) des différents décideurs. Les ajustements de coordination sont ensuite limités. En revanche, lorsque les processus gérés sont fortement évolutifs, les modèles de gestion doivent être modifiés fréquemment et l’intervention du niveau supérieur de coordination devient plus fréquente. L’ajustement mutuel est le mode de coordination le plus exigeant en charge de communication ; il réclame des processus interactifs de communication avec la transmission de signaux variés. Ce sont d’ailleurs ces besoins élevés qui expliquent le recours à d’autres modes de coordination dans les organisations. En fait, la coordination recouvre à la fois des processus de communication et des processus de prise de décision. Le tableau ci-après caractérise, selon ce double point de vue, les différents mécanismes de coordination. Cette présentation séparée des mécanismes de coordination ne doit pas suggérer que leur utilisation est exclusive ; dans la pratique, les différents mécanismes sont combinés, dans des proportions variables, pour assurer un degré de communication jugé satisfaisant. . Coordination, collaboration, coopération Nous avons présenté ci-avant le concept de coordination. La littérature du management utilise également les termes COLLABORATION et COOPÉRATION, malheureusement dans des acceptions variées. Il semble que l’on puisse réserver : – le terme de COLLABORATION à des situations dans lesquelles différentes unités (individus, groupes, organisations. . .) agissent en commun (collaborent) tout en poursuivant leurs propres objectifs pour obtenir leurs propres résultats (alors que la coordination suppose l’existence d’un objetif commun) ; – le terme de COOPÉRATION à des situations où la coordination programmée se révèle insuffisante, où les acteurs doivent faire preuve d’un comportement actif d’engagement, définir un but commun pour dépasser les antagonismes, faire preuve de confiance envers les partenaires, accepter la responsabilité des résultats (« lier indissociablement sa performance à celle d’autrui », Rowe, 2002, p. 190). La coopération inclut la coordination mais la dépasse en cas d’aléa. 1 2 1 La coordination entre organisations Une organisation ne constitue pas un monde isolé ; elle doit gérer des échanges avec son environnement. Ainsi l’entreprise entretient-elle des relations avec ses clients, ses fournisseurs, ses partenaires, les différentes autorités publiques (fisc, Sécurité sociale. . .). La communication externe constitue donc un aspect important du problème général de la communication d’une organisation. En ce qui concerne la coordination entre organisations marchandes, la théorie économique a souligné depuis longtemps le rôle du marché comme instrument majeur de la coordination des activités économiques. Des analyses plus récentes ont ainsi montré les limites de ce mode de coordination et expliqué l’émergence de formes hybrides comme les réseaux d’entreprises, espaces de coordination dépassant les frontières traditionnelles de l’organisation. 1. Coordination par le marché et coûts de transaction L’activité économique est partagée entre différents acteurs : des ménages, des entreprises, des États..). chaque agent prend ainsi des décisions de consommation, de production, d’investissement, d’épargne, de manière plus ou moins indépendante. Les économies capitalistes sont coordonnées par l’intermédiaire des marchés, lieux de confrontation de l’offre et de la demande, transmettant des signaux aux différents décideurs sous forme de prix. Ces signaux vont déclencher des décisions d’ajustements interactifs à la fois des producteurs et des consommateurs, conduisant à une situation d’équilibre (théorique) entre offre et demande. Le marché apparaît donc comme un procédé de coordination des activités économiques entre organisations, entre individus, sans qu’il y ait d’échanges spécifiques d’information autres que les prix. Une question essentielle posée par certains économistes devient donc d’expliquer pourquoi les grandes entreprises (les « hiérarchies ») coexistent avec le marché et dans quel cas il y a supériorité d’un mode sur l’autre. Si les entreprises existent et choisissent de coordonner dans leur organisation des activités variées plutôt que d’abandonner ce soin au marché, c’est pour plusieurs raisons complémentaires : – tout d’abord (Alchian et Demsetz) parce qu’il existe des inséparabilités techniques dans la production de certains biens (par exemple entre un haut fourneau et un laminoir pour produire de l’acier) ; – ensuite parce qu’il existe des coûts de TRANSACTION (O. Williamson) lorsque le marché est choisi comme mode de coordination. Ces coûts (théoriques, mais non facilement chiffrables) sont liés à la transaction. Ce sont des coûts engagés avant la transaction (coûts de recherche des partenaires, coûts d’études, coûts de négociation, coûts liés à la rédaction des contrats. . .) ou des coûts engagés après la transaction (coûts d’administration, de surveillance et de contrôle engagés par les cocontractants pour veiller au respect des règles du contrat). Ils correspondent, en particulier, au souci de se protéger du comportement opportuniste du partenaire à l’échange (tromperie initiale sur la qualité du produit, non-respect de certaines clauses. . .). Ces coûts de transaction apparaissent en fait comme des coûts de la COORDINATION EXTERNE (par le marché) qui, par suite, peut se révéler plus coûteuse que la COORDINATION INTERNE (par intégration à l’intérieur d’une hiérarchie). Par conséquent, pour la réalisation de ses finalités économiques, l’entreprise peut choisir de faire appel au marché (elle engage alors des coûts d’achat et des coûts de transaction) ou d’intégrer des activités au sein de son organisation (elle engage alors des coûts de production et de coordination interne). La théorie des coûts de transaction (Williamson) explique donc le choix des formes de coordination (interne ou externe) retenues par les entreprises et le rôle des différents déterminants de ces choix (spécificité des actifs, risques acceptés, degré de confiance entre entreprises). Bien entendu, ces choix ont des conséquences sur les besoins en communication et ne sont pas indépendants (comme nous le montrerons plus loin) des possibilités d’aide à la communication. L’organisation et le marché apparaissent donc comme des modes alternatifs de coordination des activités. Mais ces deux modes peuvent être également considérés dans des formes hybrides, intermédiaires entre le marché et la hiérarchie, correspondant aux différentes variétés de réseaux d’entreprises. 2. Coordination dans les réseaux : de l’entreprise étendue à l’entreprise virtuelle L’observation des économies contemporaines (en particulier en Europe et au Japon) révèle le développement important de la collaboration entre entreprises au sein des réseaux. Selon Dumoulin et al. (2000, p. 85) : « Ni quasi-firme, ni quasi-marché mais forme transactionnelle à part entière, le réseau est un ensemble contractuel organisé et articulé, associant au minimum deux partenaires liés par des relations d’échange à plus ou moins long terme et par une confiance mutuelle et résultant d’une action spécifique d’organisation et de régulation fondée sur des modes plus ou moins formalisés et élaborés de contrôle. » Les réseaux correspondent à différentes formes, selon les objectifs poursuivis : réseau d’un donneur d’ordre et de ses soustraitants, réseau de franchise, réseau d’alliance avec ou sans création de filiales communes.. . Le réseau peut être considéré comme une extension de l’organisation existante ; on utilise souvent le terme d’ENTREPRISE ÉTENDUE pour désigner ce nouvel espace de coordination où sont traitées et échangées des informations de toute nature, entre différents acteurs situés dans la firme ou à l’extérieur de la firme, à des niveaux hiérarchiques différents ou identiques. Pour répondre aux besoins de coordination, les ressources mobilisables sont de plusieurs types : – relations interpersonnelles entre acteurs des différentes organisations partenaires (avec des degrés de confiance variables), traduisant des processus d’ajustement mutuel ; – recours aux contrats qui, en organisant l’échange des droits et en définissant des règles de conduite, apportent des garanties sur le respect des engagements respectifs ; – standardisation des procédures d’échange par formalisation commune (ces procédures formelles sont parfois incorporées dans les contrats), avec recours éventuel aux technologies de l’information. En poussant au maximum cette logique de l’externalisation, on aboutit à l’ENTREPRISE VIRTUELLE qui se caractérise (Kraut et al., 1999) par : – l’externalisation systématique de la majorité des activités (production, vente, maintenance. . .) ; l’entreprise virtuelle se réduit à un noyau maîtrisant éventuellement l’activité clé et assurant la coordination entre les différents partenaires (la composition du réseau peut évoluer en fonction des besoins définis par le noyau coordinateur) ; le processus de production (au sens large) est donc contrôlé par plusieurs hiérarchies ; – une dispersion géographique des différents partenaires (on parle d’entreprise « distribuée »), reliés par des moyens électroniques de communication, avec très peu de contacts directs entre participants au réseau. Bien entendu, cette notion d’entreprise virtuelle reste un modèle théorique ; dans la réalité, on observe des degrés plus ou moins intenses de VIRTUALISATION (caractérisés par la part plus ou moins importante des activités externalisées et par le degré d’utilisation des réseaux électroniques pour la communication). 3. Conclusion L’analyse ci-dessus révèle des analogies profondes, sur le plan des principes, entre la coordination interne et la coordination externe. Cela explique, comme nous le montrons ci-après, que les mêmes technologies (réseaux électroniques) puissent être utilisées dans l’aide à la communication, support de la coordination. Il faut cependant garder à l’esprit l’existence de différences sensibles quant aux conditions de communication : – nature différente des relations interpersonnelles : absence de relations hiérarchique dans la coordination interfirmes (même si des relations de pouvoir existent), niveau de confiance et possibilités de contrôle différents. . . ; – exigences de sécurité juridique plus grandes en communication externe qu’en communication interne : respect nécessaire de la loi et des termes des contrats liant les partenaires. Ces différences traduisent le fait que, dans le fonctionnement des réseaux d’entreprises, on se trouve en situation de collaboration (chaque entreprise poursuit ses propres objectifs) au moins au démarrage de la relation. On notera toutefois qu’une collaboration réussie peut entraîner un développement de la confiance entre partenaires et l’apparition d’une véritable attitude coopérative (le développement de la confiance aboutit, en règle générale, à une diminution des besoins de communication entre partenaires). On parle alors de coopétition, alliant coopération et compétition. L’examen des objectifs de la communication auquel nous venons de procéder révèle des situations de communication fort diverses (nombre et position des acteurs, volume et nature de l’information, contraintes de temps et d’espace. . .). Il semble donc nécessaire, afin de mieux comprendre le rôle des technologies de l’information, de dégager trois grandes visions de la communication : communiquer c’est transmettre, communiquer c’est échanger, communiquer c’est construire du sens. Nous préciserons ensuite ce qu’il faut entendre par aide à la communication. 1 1 2 Trois visions théoriques de la communication Les théories de la communication peuvent être en effet regroupées en perspective instrumentale (centrée sur l’étude des techniques de TRANSMISSION, et pour laquelle l’important c’est le canal), en perspective d’acteurs (focalisée sur l’interprétation de l’ÉCHANGE, et pour laquelle l’important c’est la relation) et en perspective interactionniste (fondée sur la CONSTRUCTION DE SENS, et pour laquelle l’important est l’action sociale qui organise les rôles et les règles de comportement). 1. La conception standard : communiquer c’est « transmettre » L’origine de cette conception se trouve dans les travaux de Shannon et Weaver (1949). La communication correspond à la transmission d’un message d’un émetteur à un récepteur. Ce message est un ensemble de signaux, de signes ou symboles assemblés selon un code (par exemple, les lettres d’un alphabet). Le schéma de base du processus est représenté par la figure 6. . Émetteur : celui qui décide de communiquer pour atteindre certains de ses objectifs. Cet émetteur a un « système de références », c’est-à-dire un ensemble de valeurs, une certaine « vision du monde » qui explique en partie son comportement et ses processus interprétatifs Récepteur : celui qui reçoit le message initial ; il peut devenir l’émetteur d’un message de réaction au message initial. Il possède alors son propre système de références. . Canal ou média : c’est le moyen de transmission choisi par l’émetteur pour transmettre le message (envoi d’une lettre, appel téléphonique, courrier électronique. . .). . Bruits : le processus peut être perturbé par des phénomènes de bruits, introduisant des distorsions entre le message émis et le message reçu (les symboles sont déformés par l’existence de parasites dans le canal de transmission. . .). L’un des résultats fondamentaux, c’est alors l’idée de capacité limitée des canaux à transporter une certaine « quantité d’information » mesurée par un certain « débit d’originalité » : dans quelle mesure un message de N signaux peut-il convoyer le maximum de changements possibles à l’autre bout ? Si la quantité d’information est inférieure à la capacité du canal, alors les pertes tendent vers zéro. On fait donc ici le postulat que le sens est défini avant la transmission. Dans ce modèle, l’information est vue comme une grandeur objective et mesurable, c’est une grandeur statistique : La quantité d’information est la mesure quantitative de l’incertitude d’un message en fonction du degré de probabilité de chaque signal composant le message. La quantité d’information est, dans une certaine mesure, la « quantité de nouveauté » transmise au récepteur du message. (Ainsi, un message indiquant « Il a gelé à Marseille le 14 juillet » est considéré comme plus informant que le message indiquant « La température maximale du 14 juillet à Marseille a été de 30 oC). L’efficacité de la communication dans ce modèle se mesure donc par la quantité d’information transmise, entendue comme la réduction de l’incertitude (au sens statistique du terme, celle de la probabilité de l’apparition de la réalisation d’une variable aléatoire). La théorie de Shannon a eu le double avantage de proposer une approche quantifiée de la communication et de fournir des éléments de solution pour aborder des problèmes techniques importants (amélioration des débits des lignes par exemple.. .). Mais elle se limite à l’aspect formel de la communication (probabilités de l’apparition des signaux) et ne peut pas décrire la complexité des situations de communication observables dans les organisations. Ces limites ont conduit à retenir des conceptions plus larges de la notion de communication. 2. La conception étendue : communiquer c’est « échanger » Dans « la théorie cybernétique du contrôle » établie par Norbert Wiener (1950), la situation de base correspond à un émetteur-récepteur qui reçoit des messages de feed-back d’un autre émetteurrécepteur. Utilisée au départ pour la conduite des missiles ou des automates, cette vision de la communication ne considère plus simplement une transmission mais bien un échange. La cybernétique est en fait la science des systèmes commandés (le mot vient du grec kubernetes, le « gouvernail », qui a aussi donné « gouvernement », mais qui aujourd’hui donne.. . « cyber-café », ce qui n’a pas grand-chose à voir !). Elle centre l’objet de son étude sur la conception du récepteur pour que son comportement soit conforme aux ordres transmis. Bien adaptée à l’étude des automates, la cybernétique ne semble pas a priori un outil approprié, pour une entreprise où l’on ne communique pas uniquement pour commander. Pourtant ce sont bien ces schémas, articulés autour du concept central de « feed-back », qui permettent une description des interrelations entre les différents sous-systèmes de l’entreprise. On fait donc ici le postulat que le sens se définit dans l’échange. Il s’agit ici du deuxième niveau d’analyse de la communication, le niveau de l’utilité, c’est-à-dire du résultat effectif sur le récepteur par rapport au « projet » de l’émetteur d’information. L’école de Palo Alto (groupement de chercheurs d’origines diverses : Bateson, Jackson, Goffman, Watzlawick.. .) est à l’origine de la notion de « communication élargie » : la communication doit être pensée en dehors du modèle émetteur-récepteur et « considérée comme un processus social permanent intégrant de multiples modes de comportement : la parole, le geste, le regard, la mimique, l’espace interindividuel. . . (Winkin, 1981). Lorsque plusieurs acteurs sont réunis, tout comportement a valeur de communication : chaque individu vit dans un ensemble de règles (qui correspondent à un certain code de comportement) et les utilise obligatoirement dans sa communication. «On ne peut pas ne pas communiquer » affirment les partisans de cette théorie. (S’abstenir de parler au cours d’une réunion ne signifie pas ne pas communiquer mais communiquer une idée d’indifférence ou d’embarras ou une stratégie d’évitement de conflit). La communication est un comportement : pour la comprendre, il faut l’examiner dans sa totalité et ne pas se limiter au seul message verbal exprimé. La communication verbale et la communication non verbale forment un tout inséré dans un contexte et l’analyse d’une des seules composantes (la parole ou le geste. . .) ne permet pas de reconstituer la signification de l’échange entre les acteurs. L’école de Palo Alto a distingué deux grandes catégories de signaux : – les signaux de forme digitale, définis par des conventions arbitraires entre signifié et signifiant (ce sont toutes les conventions du langage où une suite de caractères correspond à un signifié : jour, day, tag, dia), traduisant le contenu du message ; – les signaux de forme analogique qui correspondent au domaine de l’expression corporelle, qui sont motivés (le sourire de bienvenue, la mimique de dégoût.. .) et qui traduisent la relation entre les acteurs. C’est l’ensemble de tous les signaux émis qui caractérise l’échange et le comportement de communication et tout décalage entre la communication digitale et la communication analogique engendre un paradoxe sur le plan de la compréhension du message. 3. La conception sociale : communiquer c’est « construire du sens » La troisième approche de la communication, dite interactionniste, est avant tout intégrative. Elle repose sur trois éléments fondamentaux : des interlocuteurs en relation dans un certain contexte, une dynamique interactionnelle, et un système de régulation pour le partage du sens. – Le contexte détermine en partie le rapport de place, et donc la position que chacun désire assumer (relations étudiant/professeur, client/vendeur, malade/médecin.. . ou bien protecteur/ protégé, victime/sauveur.. .). – La dynamique interactionnelle de la communication est fondée sur des enjeux, qu’ils soient symboliques (faire bonne figure. . .) ou opératoires (obtenir une information.. .) : les interlocuteurs développent une stratégie, avec des buts conscients ou inconscients lors de l’interaction. – Enfin la construction de sens dépend d’un processus d’inférence, qui consiste à sélectionner, parmi les implications possibles d’un énoncé explicite, celles qui sont pertinentes par rapport au contexte. Ce qui est à la base de cette construction de sens, c’est la réversibilité de ces schémas d’inférence, et la coconstruction du sens est donc progressive, impliquant chacun des interlocuteurs (dans un « consensus », au sens d’Habermas). L’émetteur et le récepteur ne sont plus différenciés, mais reconnus comme les acteurs d’un même processus (le contexte social est envisagé comme une situation commune aux acteurs), et le message n’est plus séparé de sa réception (on réunit les notions de message, de code et de décodage). Le message se structure dans la relation au canal et au récepteur. « Le message, c’est le médium », dit M. MacLuhan, en exagérant bien sûr, mais en voulant souligner ainsi deux choses : l’usage même du médium est porteur de signification, et il modèle lui-même le message (le récepteur de télévision est sans doute plus important que son programme, car il est le seul à avoir une influence durable). L’information n’est pas univoque : un signe, reconnu comme tel par deux personnes, se verra rarement attribuer le même sens, avec les mêmes connotations, par l’un et l’autre. L’usage quotidien des langues naturelles nous fournit de nombreux exemples d’ambiguïtés et de glissements de sens. Plus un système sémiotique est flou ou ambigu, plus il est aussi fertile, créatif et évolutif. . . On fait donc ici le postulat que toute communication est une véritable construction sociale. La communication est ici essentiellement une activité de construction de sens : le sens émerge d’un contexte, caractérisé par des dimensions multiples : – contexte spatial : ce qui se dit prend un sens par rapport à la disposition des lieux ; – contexte temporel : ce qui se dit à un instant prend un sens par rapport à ce qui a été dit avant ; – contexte des positions relatives des acteurs : ce qui se dit prend un sens par rapport au positionnement des acteurs entre eux (supérieur-subordonné par exemple) ; – contexte culturel de référence aux normes partagées (règles habituelles de langage, de respect. . .) ; – contexte de l’identité des acteurs : ce qui est dit prend un sens par rapport à ce que l’on sait ou ce que l’on suppose des intentions de l’interlocuteur. Le processus d’interaction entre les acteurs, dans un certain contexte, va faire émerger du sens et c’est cette émergence d’un sens qui caractérise la véritable communication. Dans ce cas, la communication n’aboutit pas seulement (comme dans la théorie standard de la communication) à une réduction d’incertitude mais également à une réduction d’équivoque, d’ambiguïté. En effet, dans beaucoup de situations, l’ignorance des acteurs ne se limite pas à la non-connaissance de la valeur d’une variable aléatoire (situation classique d’incertitude) mais elle s’étend à la nature même des variables à considérer, au modèle interprétatif qu’il faut retenir. Or, très souvent, l’information est ambiguë, car elle est susceptible d’être interprétée de plusieurs façons différentes : plusieurs modèles sont compatibles avec les faits observées. Le dialogue, l’échange communicationnel ont alors pour objet la construction d’un sens en commun par la confrontation des représentations, des interprétations de chaque acteur. La communication sera alors considérée comme efficace si elle aboutit à une réduction de l’ambiguïté (et non seulement à une réduction de l’incertitude). Selon J. Habermas, qui propose une vision sociale de la communication, centrée sur les acteurs dans l’organisation, communiquer peut être considéré : – soit comme une action instrumentale, par laquelle on essaie de faire faire quelque chose à quelqu’un, par un ordre ou une demande ; – soit comme une action stratégique, par laquelle on cherche à influencer d’autres acteurs et à obtenir, éventuellement, une modification de leur comportement. Si l’on observe le fonctionnement d’une organisation, on retrouve cette distinction importante dans la variété des échanges entre acteurs : on communique pour agir (ordre, demande, compte rendu.. .), on communique pour informer et s’informer (sans conséquence immédiate apparente), pour former (apprendre et enseigner), pour convaincre (expliquer et justifier une action envisagée, convaincre de la qualité d’un produit. . .), pour restaurer la confiance (expliquer une action passée.. .), pour, sans doute également, le plaisir d’échanger avec d’autres. Selon P. Y. Gomez, une convention est un ensemble de critères implicites et explicites auxquels un individu se réfère au moment de décider, c’est un système de règles qui est connu d’un ensemble de personnes. La convention peut définir, de manière précise, le comportement des acteurs et, par la suite, supprimer le besoin de communication. Ainsi, le fonctionnement des feux de circulation rend inutile la communication directe entre conducteurs ; chaque conducteur décide de passer au feu vert car la convention prévoit que les conducteurs de l’autre voie doivent s’arrêter au feu rouge. La manière la plus directe de se coordonner consiste ainsi à respecter un système de valeurs commun ; ce système commun permet d’anticiper le comportement des autres même en l’absence de communication. Les règles partagées (comme les conventions du code de la route) sont un écran qui permet justement de ne pas avoir besoin de toute l’information sur le comportement des autres, car c’est définitivement impossible. Il est donc rationnel de suivre la règle (« mimétisme rationnel »). On ne communique pas pour « décider » de prendre un taxi en cherchant le moins cher, on sait seulement que le chauffeur suivra la convention en vigueur (c’est la convention de qualification). On ne communique pas pour « décider » de son investissement dans le travail en fonction du salaire horaire, mais en regardant l’implication en vigueur chez ses collègues proches (c’est la convention d’effort). 4. Conclusion Vue à l’origine comme la transmission de signaux dans un canal, la communication apparaît comme un acte social engageant des acteurs dans un certain contexte, aboutissant à des échanges d’information et à la construction d’un sens partagé. C’est par rapport à cette conception élargie de la communication que sera définie la notion d’aide à la communication. 1 2 2 La notion d’aide à la communication Comme le montre l’analyse précédente, les situations de communication peuvent être extrêmement variées (selon les objectifs, le contexte temporel et spatial, le nombre et la nature des acteurs. . .). C’est pourquoi toute réflexion sur le choix d’éventuels outils d’aide passe par l’examen préalable des deux questions clés : avec qui ? pourquoi ? communiquer. Le schéma ci-dessous, emprunté à Keen, montre les principales utilisations potentielles des technologies de la communication. Pour faire face à ces besoins variés, on dispose désormais d’une très grande variété d’outils. Par conséquent, le problème du choix pertinent des technologies à utiliser devient le problème principal. C’est pourquoi, après avoir présenté dans un premier temps les apports potentiels de différentes technologies de l’information, nous discuterons dans un second temps cette problématique du choix en nous référant aux principales théories existantes. 1. Les apports potentiels des technologies Les technologies utilisées dans les processus de communication sont extrêmement variées : cette variété s’explique à la fois par la nature des informations transmises (données, textes, images fixes, sons, sons et images animées assemblés en séquences vidéo) et la nature des fonctionnalités remplies (aide à la production de messages, aide à la transmission, aide au stockage. . .). Sur ces bases techniques, essentiellement autour de réseaux, peuvent se construire, à l’aide d’équipements terminaux variés, des systèmes d’aide à la communication. Les développements actuels sont caractérisés par une généralisation du codage numérique des signaux (téléphone numérique, télévision numérique, photographie numérique.. .), l’installation de réseaux à haut débit (téléphone à haut débit, liaisons par fibre optique, liaisons satellites permettant la diffusion d’images animées) et la recherche systématique de la mobilité (téléphone cellulaire, protocole WI-FI. . .). Ce domaine est le théâtre d’un progrès technologique extrêmement rapide. Des systèmes de communication autrefois réservés aux entreprises deviennent des moyens d’usage courant dans la vie quotidienne : la messagerie électronique, la consultation de sites Web via Internet, la communication d’images via le téléphone mobile, l’utilisation de lignes téléphoniques à haut débit pour l’accès à Internet ou pour la diffusion d’images télévisées. . . sont des exemples de cette véritable explosion des technologies de la communication. Ces technologies apportent, en effet, deux bénéfices importants : – la compression du temps : il est possible de communiquer désormais, immédiatement, d’un point à l’autre du globe. Cela a pour effet d’accélérer les processus liés à la gestion des transactions, donc de diminuer des temps de réponse et d’accroître ainsi la qualité du service rendu ; – la réduction des contraintes d’éloignement : les technologies de communication à distance permettent de s’affranchir des contraintes imposées par la dispersion spatiale des activités. Les conséquences en sont multiples : élargissement des zones de collecte de renseignements, recours accru aux possibilités de délocalisation des activités, accès à de nouveaux marchés, choix de nouveaux modes de distribution des produits, travail à distance. . . Exemples Parmi les très nombreux exemples d’apport des technologies de la communication, citons les cas suivants : – Une entreprise du secteur alimentaire a équipé ses camions de livraison d’ordinateurs portables et connectables au site central via le réseau GSM 3G. Il est ainsi possible d’éditer immédiatement les bons de livraison et les factures à partir de la connaissance exacte de la livraison ; le chauffeur-livreur peut enregistrer les commandes et les transmettre immédiatement à l’usine. Il peut consulter le stock à distance et répondre instantanément aux demandes de renseignements des clients. Si une commande ne peut être satisfaite par une usine, elle peut être proposée à une autre usine également connectée au réseau. – Une entreprise de construction électrique et électronique a développé un système de télémaintenance des appareillages installés chez ses clients. Par l’intermédiaire du réseau téléphonique, il est possible de tester le fonctionnement à distance et de fournir un diagnostic en réponse. (Ce diagnostic est, d’ailleurs, en partie automatisé par le recours à un système expert.) L’évolution prévue permettra, par téléintervention, d’opérer certains dépannages à distance. – Les sociétés de vente par correspondance ont mis en place une stratégie commerciale fondée sur l’équipement progressif des ménages en micro-ordinateurs et le développement d’Internet, cette stratégie a abouti à la création de sites Web marchands, où, à partir de son domicile, le client peut consulter les catalogues et passer des commandes. – Beaucoup d’entreprises et d’institutions publiques ont développé des centres d’appels téléphoniques pour gérer la relation avec leurs clients ou leurs usagers. Ces centres peuvent fournir des informations, vendre des produits ou des services à distance. Les outils utilisés sont des centraux téléphoniques et des logiciels d’aide assurant, par exemple, la distribution automatique des appels entre opérateurs, la recherche automatique de la fiche client à partir de la reconnaissance du numéro de l’appelant, la composition automatique des numéros.. . L’examen rapide de ces exemples montre que l’on peut ainsi : – accroître l’efficience par la réduction des coûts : diminution de coûts de traitement ou de communication, élimination de coûts de déplacement des personnes, gains sous forme d’économies d’échelle (regroupement de spécialistes de maintenance sur un seul site, par exemple), élimination d’intermédiaires (suppression de vendeurs à domicile ou de centres de prise de commande.. .), réduction du niveau moyen des stocks grâce à l’accélération de la transmission des commandes au fournisseur, diminution du coût de travail (possibilité de délocalisation de certaines activités, recours au télétravail. . .) ; – accroître l’efficacité en offrant un meilleur service au client (réduction du délai de livraison, offre plus large grâce à une meilleure information, service à domicile. . .), en élargissant le marché par l’offre de nouveaux produits (réservation de voyages, documentation.. .), en fidélisant le client (parce qu’on simplifie et améliore la relation-client. . .). Bien entendu, les apports potentiels des technologies varient selon les outils utilisés. Ces derniers peuvent être caractérisés par différentes propriétés, résumées dans la figure 8. a – Fonctionnalité principale : l’outil assure-t-il la production, la transmission ou le stockage du message ? ou plusieurs de ces fonctions ? b – Forme de l’information supportée : l’information véhiculée est-elle sous forme orale, visuelle (données, textes, images) ou audiovisuelle (image, son) ? Cette caractéristique, relative à la forme des signaux produits et transportés, a un impact direct sur la richesse de la communication. c – Capacité d’interaction offerte : l’échange lié à la communication est caractérisé par son intensité, le degré d’interaction. Ce dernier est déterminé directement par la vitesse de transmission offerte et la possibilité de s’affranchir de la distance. Ainsi le délai de rétroaction au message reçu peut être réduit et l’échange peut voir son rythme accéléré. Sur ce point, les outils de type synchrone où la présence simultanée des interlocuteurs est indispensable (par exemple le téléphone) ont une capacité d’interaction forte. En revanche, les outils de type asynchrone, qui offrent des possibilités de stockage et donc n’exigent pas la présence simultanée des interlocuteurs, ont une capacité d’interaction faible ; en contrepartie, ils offrent des modalités d’utilisation plus souples (par exemple la messagerie électronique). d – Capacité-débit : cette variable correspond à la performance, en termes de volume et de temps, susceptible d’être atteinte par l’outil : nombre de signaux transmis par unité de temps, nombre de signes stockés par unité de volume. Il est important de distinguer la capacité théorique (valeur maximale autorisée par la technologie) de la capacité pratique (effectivement disponible pour l’utilisateur) : la différence est due à la présence de signaux « de service » indispensables pour la gestion de l’outil (par exemple, signaux de synchronisation, signaux d’identification de messages, signaux de contrôle. . .). e – Sécurité : dans le cas de transmission, cette sécurité est mesurée par le taux moyen d’erreur ; elle est appréciée en fonction des possibilités de détection des erreurs et de correction. Dans le cas de stockage des données, la protection contre les risques d’effacement ou de falsification caractérise le degré de sécurité du support. f – Facilité d’utilisation, accessibilité : cette caractéristique est en pratique fort importante pour apprécier les possibilités d’insertion dans un système de communication. Certains outils sont immédiatement utilisables (le téléphone dans son usage courant), d’autres sont accessibles après un apprentissage très rapide (télécopieur, messagerie électronique simple), d’autres enfin ne peuvent être maîtrisés qu’à l’issue d’une véritable formation spécifique (traitement de texte). g – Coût : il mesure une caractéristique économique de base de l’outil ; coût initial lié à l’investissement (coût des matériels, des logiciels, de la formation des opérateurs), coûts récurrents liés à l’utilisation (coûts des supports, des communications, coûts de main-d’oeuvre.. .). Compte tenu de la grande diversité des outils disponibles d’une part, de la variété potentielle des besoins d’autre part, le problème du choix d’un système d’aide à la communication se révèle souvent difficile à résoudre. 2. Le problème du choix des médias L’adéquation du système d’aide aux besoins découlant de la situation de communication découle de la satisfaction de deux séries de contraintes : – celles, de niveau local, liées aux caractéristiques spécifiques de la situation de communication ; – celles, de niveau général, liées aux caractéristiques de l’organisation et aux conditions particulières de gestion des technologies. a – Les contraintes locales Le besoin de communication correspond à une situation de communication définie par différents éléments : – Objectifs de la communication : informer, s’informer, réaliser une opération coordonnée, négocier, créer en commun.. La problématique de la communication : pourquoi et comment communiquer ? – Acteurs de la communication : quels sont les participants au processus de communication ? Quel est leur nombre ? Quelle est leur disposition dans l’espace ? Quelle est leur attitude a priori ? – Paramètres temporels de la situation de communication : quelles sont la durée et la fréquence des communications de ce type ? Y a-t-il répétitivité de cette situation ? Le caractère fréquent, habituel, d’une situation peut justifier le recours à des outils plus coûteux que ceux qui seraient susceptibles de répondre à une demande occasionnelle. – Paramètres relatifs au processus de communication souhaité ; cela inclut différents aspects : 1) volume des informations transmises dans chaque sens (les flux peuvent être très déséquilibrés en cas de diffusion ou de collecte, plus équilibrés en cas de négociation) ; 2) degré d’interaction requis : a-t-on besoin d’un « retour » immédiat ? Contraintes de temps admissibles : de quel délai dispose-t-on pour assurer la communication ? ; 3) degré de formalisme requis : les messages à transmettre doivent-ils obéir à des règles de présentation strictes (par exemple, un « ordre de virement ») ou peuvent-ils être totalement informels ? Ce degré de formalisme est souvent déterminé par des contraintes de sécurité imposées à l’échange d’informations ; 4) richesse nécessaire : l’intensité de l’échange entre les acteurs est liée à la variété des signaux échangés et au rythme de l’échange (« temps de rétroaction »). Le support utilisé peut réduire cette variété des signaux à des données et des textes alors qu’une communication en face à face véhicule des intonations de voix, des attitudes non verbales, donc un ensemble de signaux beaucoup plus varié et complexe. La richesse nécessaire est directement liée aux objectifs et aux acteurs (une négociation ponctuelle sur un sujet difficile exige souvent l’entretien en face à face ; une transaction répétitive entre deux acteurs qui se connaissent bien peut se réaliser par un message électronique réduit à quelques chiffres). L’ensemble de ces paramètres (volume, temps, forme, richesse, sécurité. . .) définit une certaine « qualité minimale » de l’outil à retenir. Cependant, le choix de l’outil devra également tenir compte des contraintes complémentaires de niveau général. b – Les contraintes générales Ces contraintes s’expriment à travers un certain nombre de critères ; elles caractérisent une technologie de communication (actuelle ou envisagée) par rapport aux objectifs et aux conditions de fonctionnement de l’organisation. – Connectivité : dans quelle mesure peut-on relier l’outil étudié à l’ensemble des moyens existants (ou envisagés) ? Les différents outils peuvent être complémentaires ou non ; le coût de raccordement aux outils existants peut être très variable. – Sécurité : elle correspond d’abord aux contraintes de fiabilité ; est-ce que l’outil de communication est disponible en permanence (absence de pannes) pour un fonctionnement satisfaisant (qualité de la transmission) ? Elle correspond également à des contraintes de confidentialité (protection de l’information contre des tentatives de consultation non autorisée). Ces contraintes peuvent être très fortes dans certaines transactions (paiement à distance par exemple). – Difficulté de gestion : il est important d’évaluer dans quelle mesure la technologie envisagée nécessite des compétences spécifiques pour assurer son fonctionnement dans l’organisation. (Par exemple, la mise en place d’un réseau local et son administration peuvent justifier le recours permanent à un ou des spécialiste(s).) 3. Les théories sur le choix des médias Le problème du choix des médias a fait l’objet de nombreux débats théoriques ; nous nous limiterons ici à la présentation de trois théories susceptibles d’être mobilisées pour expliquer les choix : – la théorie de la richesse des médias (TRM) ; – la théorie des genres de communication ; – l’effet millefeuille. a – La théorie de la richesse des médias Le concept de richesse d’information a été défini, à l’origine, par Daft et Lengel (1986) pour traduire une certaine conception de l’efficacité de la communication : « La richesse de l’information est définie comme la capacité de l’information à changer notre compréhension dans un certain intervalle de temps. Les échanges communicationnels qui peuvent dépasser divers cadres de référence ou clarifier des questions ambiguës de manière rapide sont considérés comme riches. Les communications qui exigent une durée importante pour améliorer notre compréhension ou qui ne peuvent dépasser des perspectives différentes sont faibles en richesse. En un certain sens, la richesse ressortit à la capacité d’apprentissage de la communication. » À partir de cette définition préliminaire, Daft et Lengel proposent la théorie de la RICHESSE DES MÉDIAS. Pour eux, l’organisation doit faire face non seulement à l’incertitude mais également à l’équivoque, l’ambiguïté. Pour ce faire, elle dispose de différents moyens de communication, plus ou moins riches ; la richesse du média, c’est son aptitude à faciliter la compréhension mutuelle. Le modèle de Daft et Lengel propose de classer les médias selon leur richesse ; ce classement est établi sur la base de quatre critères : 1 – critères de feed-back : le média riche offre un retour instantané et permet un échange véritablement interactif, de nature à faciliter la compréhension mutuelle ; 2 – existence de traits multiples : les médias les plus riches véhiculant plus de signaux distincts que les médias pauvres ; la variété des signaux (image, voix, texte. . .) introduit des possibilités de redondance et améliore la fiabilité de l’échange ; 3 – variabilité du langage : un média plus riche peut supporter une plus grande variété de langage qu’un média pauvre, cette plus grande variété permet d’améliorer l’expression, de nuancer.. . 4 – personnalisation : les moyens de communication autorisant la connaissance de destinataire et l’adaptation du message au récepteur renforcent l’efficacité de la communication. En appliquant ces critères, on peut ainsi classer différents médias par ordre de richesse croissante : imprimé standard, écrit personnalisé, téléphone, vidéoconférence, face-à-face. Cette théorie a fait l’objet de vérifications significatives, mais les tentatives de l’appliquer à de nouveaux médias tels que la messagerie électronique n’ont pas confirmé pleinement la théorie. Pour beaucoup de critiques, le défaut de la théorie est de considérer la richesse de communication comme une propriété intrinsèque du média alors qu’elle est également dépendante des acteurs concernés et du contexte d’utilisation. C’est pourquoi certains auteurs (Carlson et Zmud, 1984) ont proposé une théorie élargie de la richesse du média, ou théorie de l’expansion du canal. Dans ce nouveau modèle, la richesse est moins vue comme une caractéristique intrinsèque du média et plus comme la perception d’un utilisateur, fondée à la fois sur son expérience et sa familiarité avec le média, sur ses connaissances relatives au sujet abordé et sur son expérience de communication avec ses coparticipants. Les utilisateurs peuvent atteindre une richesse de communication supérieure à celle autorisée par la richesse nominale du média grâce à leur apprentissage, leurs expériences dans les trois domaines : de l’utilisation du média d’abord, de la communication répétée avec les mêmes participants ensuite, des sujets abordés dans l’échange enfin. Cette théorie, plus riche que la théorie originelle, a fait l’objet de vérifications partielles (Marciniak et Rowe, 1999). b – La théorie des genres de communication Pour certains auteurs, l’approche du problème de l’aide à la communication par le choix du média seul traduit mal la réalité du fonctionnement des organisations. En pratique, il y a une association de l’objectif de communication et de la forme de communication pour définir ce que Yates et Orlikowski appellent un genre de communication. Le terme « genre » est utilisé depuis l’Antiquité pour classifier les discours rhétoriques et les oeuvres en littérature. Ainsi, en littérature c’est un moyen de classification fondé sur la forme et le sujet, permettant de définir soit une comédie, soit une nouvelle, soit un roman.. . Un genre de communication est une action de communication, invoquée en réponse à une situation récurrente, possédant un caractère d’exigence sociale : dans une organisation la « Réunion » est un genre de communication, le « Curriculum vitae », l’« Histoire », le « Mémo ». . . sont d’autres genres de communication qui, ensemble, forment le répertoire des genres mobilisables. . . La présentation de la notion de genre en systèmes d’information est due à Yates et Orlikowski (1992). Leur analyse permet de montrer que le courrier électronique n’est finalement qu’une évolution du genre «mémo d’entreprise ». Le SMS et le Twitt correspondent à un autre genre de communication totalement numérique et court. Le courrier d’affaire est typique d’une situation impliquant une interaction avec une entité externe. Le genre qui en résulte est luimême caractérisé par une substance et une forme. – La substance (l’intention) se réfère aux mobiles sociaux et aux thèmes exprimés dans la communication. Il ne s’agit pas du motif individuel et privé amenant à cette communication, mais du mobile socialement admis du genre. – La forme se réfère aux caractéristiques observables de la communication, qu’elles soient physiques ou linguistiques. Elle regroupe trois types de caractéristiques : – la structure, concernant soit directement le message, comme le formatage du texte, soit des dispositifs qui structurent les interactions du groupe, tels qu’un agenda ou un président pour une réunion ; – le type de médium utilisé, tels le téléphone ou le face-à-face ; – le langage ou système de symboles, tels que le formalisme ou le vocabulaire particulier utilisé (juridique, technique, scientifique). L’approche en termes de genre ne définit pas a priori le niveau d’abstraction et la portée. Pour une organisation donnée, le niveau de détail (abstraction) pertinent dépend de l’étude réalisée. Pour une même organisation, on pourra ainsi définir des genres et des sous-genres, tels que la réunion et les divers types de réunions. La portée est relative au champ d’application du genre : la société, l’organisation, le groupe.. . La notion de genre doit être dissociée de celle de médium. Le médium doit être défini comme le moyen physique de communication (le téléphone, le face-à-face, le courrier électronique. . .). La réunion, pas plus que le courrier d’affaire ne peuvent être qualifiés de médium. Ce sont, d’après la définition, des « genres ». La technologie peut être un médium particulier, et en aucun cas un genre. Par exemple, le courrier électronique ne constitue pas un genre particulier, il sert juste de médium à certains genres. Évidemment, la définition de quelques genres implique généralement l’utilisation d’un médium particulier : la lettre est le plus souvent associée au papier. En dehors de ces cas particuliers, un genre peut souvent exister en plusieurs variantes utilisant des médiums différents. Le curriculum vitae peut être remis sous forme papier pendant un face-à-face, être envoyé par la poste, être envoyé par courrier électronique. La pertinence de la notion de genre revient alors à préciser les éléments de la dynamique sociale à la base des représentations des individus. Ainsi, la théorie des genres peut être considérée comme le prolongement social de la notion de « scénarios de communication ». Peu à peu, par l’usage répété, l’organisation adopte un genre ; de même, le non-usage entraîne le dépérissement du genre. Ainsi, le répertoire des genres existant à un instant donné dans l’organisation révèle ce que ses membres partagent comme connaissance commune sur la communication et l’usage des technologies d’aide à la communication ; ces normes de communication sont le résultat d’un processus de structuration lié à l’adoption de la technologie. Il n’y a pas choix de média mais définition, par une appropriation collective, d’un genre de communication qui va devenir une pratique institutionnalisée, une norme à l’intérieur de l’organisation. Un nouveau genre peut apparaître par la reproduction d’un genre existant avec le nouveau média (la lettre de convocation à une réunion est remplacée par un message électronique) ou par une modification ou une création plus ou moins planifiées (utilisation d’un forum de discussion permis par l’usage d’un logiciel collaboratif ). c – L’effet millefeuille L’observation des comportements de communication des managers et des salariés conduit à la conclusion que la multiplication des outils de communication (courriers électroniques, intranet, réseaux sociaux, Twitter, etc.) qui se surajoutent aux médias traditionnels (face-à-face individuel, réunion, téléphone, etc.) conduit à des situations de superposition dont les conséquences peuvent être préjudiciables. Au cours de la décennie passée, le courrier électronique s’est imposé dans toutes les organisations comme le média de communication le plus utilisé. Les auteurs de la théorie du millefeuille (Kalika, Boukef, Isaac, 2007) ont, par enquêtes 1 auprès de salariés et de dirigeants, invalidé l’hypothèse selon laquelle la généralisation de la communication électronique allait s’accompagner d’une réduction du nombre de réunions en face à face. De fait, pour une très grande majorité d’entreprises, la généralisation de l’usage de l’email n’a pas induit de réduction des réunions présentielles. En effet, bien que les managers communiquent davantage par voie électronique, ils continuent à se réunir tout autant. On n’observe donc pas de substitution entre les moyens de communication, mais plutôt une superposition des genres de communication. C’est ce que l’on appelle un effet millefeuille, chaque média de communication constituant une nouvelle couche qui se surajoute aux précédentes. Plusieurs raisons expliquent cet effet millefeuille : les rôles différents que jouent les médias de communication, les routines organisationnelles, les résistances au changement, l’implication de la direction ; mais aussi le fait que les entreprises n’anticipent pas les conséquences de la mise en place d’outils de communication sur les outils existants. Cet effet millefeuille peut créer chez les managers et les salariés des effets indésirables et paradoxaux : ainsi l’on observe des managers qui répondent à leur courrier électronique en réunions pour éviter d’avoir plusieurs dizaines de mails en retard le soir en rentrant du travail. Quelques usages pathologiques du courrier électronique qui développent la surcharge informationnelle sont répertoriés dans le tableau suivant : Observatoire Dauphine-Cegos du e-management. Dans les enquêtes conduites auprès de salariés d’entreprises, on constate qu’ils sont de plus en plus nombreux à déclarer « recevoir trop de mails qu’ils n’ont pas le temps de traiter », « travailler plus souvent sur le temps personnel », etc. Cette situation conduit des entreprises à mettre en place un plan drastique de réduction de l’usage du courrier électronique (Atos Origin, 2011). Après avoir été considéré comme des facteurs d’amélioration du fonctionnement des entreprises, les outils de communication et de nomadisme dont l’usage est parfois mal maîtrisé, sont de plus en plus fréquemment montrés du doigt et associés à des effets négatifs. L’excès d’information provoque des situations de surcharge informationnelle et/ou de stress. Lorsque le choix des médias est remplacé par le non-choix, des phénomènes de millefeuille, de surcharge informationnelle peuvent conduire à des comportements de déconnection ou de rejet. 3 Conclusion : efficience et efficacité de la communication Les processus de communication sont au coeur du fonctionnement de l’organisation. Leur analyse en révèle la complexité et montre que la communication ne peut se réduire à la simple transmission d’un message plus ou moins codé. L’existence de nombreux outils, de plus en plus perfectionnés, fait apparaître de nouvelles possibilités. Cependant, cette véritable révolution technologique doit, en permanence, être évaluée en termes d’EFFICACITÉ DE LA COMMUNICATION au sens le plus large (la construction du sens en commun) et non seulement selon des paramètres techniques d’EFFICIENCE (temps d’accès, débit, coût. . .). Les choix sont difficiles et importants car ils concernent directement le fonctionnement et la structure de l’organisation. C’est à la lumière de cette conclusion qu’il faut examiner les développements des technologies de communication présentés dans la section suivante. Obsessionnel-compulsif Consulter ses e-mails de façon compulsive et provoquer des interruptions de travail incessantes. Réactif excessif Répondre à un e-mail très vite sans prendre le temps de réfléchir Arme de destruction massive Utiliser le e-mail pour exprimer ‘publiquement’ son désaccord avec une personne de l’entreprise Spirale guerrière Utiliser le e-mail dans le cadre d’un conflit et développer une logique d’escalade Téméraire... à distance Être plus froid, plus agressif par e-mail qu’on ne le serait en face à face Indicateur d’activité Diffuser des e-mails constituant des signaux de son activité Copie parapluie Envoyer des e-mails en mettant en copie un nombre injustifié de personnes, notamment pour se protéger Copie pernicieuse Envoyer des e-mails en mettant en copie cachée des personnes sans que le destinataire n’en soit informé. Faites le donc à ma place Préférer demander une information aux autres plutôt que de la chercher soi-même. Source : Bia et Kalika (2010) 2 Les réseaux et Internet Le domaine de l’aide à la communication est le lieu d’un développement technologique extrêmement rapide. La généralisation de la numérisation, la concurrence entre opérateurs de réseaux et offreurs de technologies.. . favorisent la mise sur le marché de nouveaux produits et services rendant obsolètes les propositions « novatrices » lancées quelques mois plus tôt. Il serait donc présomptueux (et peu utile) de vouloir présenter un catalogue exhaustif des technologies d’aide à la communication. C’est pourquoi nous nous limiterons à une analyse générale des quatre axes majeurs de développement que sont : – Internet : le réseaux des réseaux ; – l’aide au travail collaboratif ; – l’échange de données informatisées ; le commerce éléctronique. – 2 1 Internet : le réseau des réseaux – – – – Internet n’est pas un réseau coordonné par une entité responsable de son fonctionnement ; c’est un ensemble de réseaux qui se coordonnent sur la seule base d’un consensus technique : l’utilisation du même protocole de communication TCP/IP (Transmission Control Protocol/Internet Protocol). Ce protocole commun permet la connexion de n’importe quel ordinateur avec n’importe quel autre, par tout moyen de télécommunication (dont, en particulier, le réseau téléphonique mondial). Après avoir rapidement présenté Internet, nous décrirons les principaux types d’utilisation de cet outil dans la gestion des relations de l’entreprise puis nous analyserons les problèmes spécifiques soulevés par ces utilisations. 2 1 1Le développement d’Internet Le concept d’Internet découle de l’évolution du projet Arpanet (initialisé en 1967) visant à relier les sites informatiques des universités et instituts de recherche travaillant pour le ministère de la Défense des États-Unis. On cherchait alors à construire un réseau robuste, susceptible de résister, grâce à son maillage, à des destructions partielles. Ce réseau s’est progressivement internationalisé et a adopté, en 1973, le protocole de transmission TCP, fondé sur la transmission par paquets. Avec le développement du protocole IP permettant l’interconnexion de réseaux à protocoles de transmission hétérogènes, la notion d’Internet apparaît en 1982. La mise en place d’artères à haut débit favorise l’interconnexion ; la croissance d’Internet devient « explosive » avec le rattachement de grands réseaux existants (par exemple, en France, le réseau RENATER reliant les instituts de recherche). Internet apparaît ainsi comme une hiérarchie de réseaux interconnectés (un réseau « régional » concentre des trafics locaux, se connecte à des réseaux nationaux ou transnationaux ; les différents réseaux sont reliés par des artères à haut débit). Parmi les principaux services offerts par Internet certains sont devenus dominants : – La messagerie électronique (e-mail) : elle permet l’envoi de messages écrits entre usagers pourvus d’une adresse électronique : cette adresse indique quel est le serveur (site – informatique) auquel est rattaché le destinataire. La possibilité d’attacher des pièces jointes au message avec un protocole unique (MIME) a entraîné le succès de ce service. – Le transfert de fichiers (ftp) permet d’échanger des fichiers volumineux, d’ordinateur à ordinateur. – Le Web ou World Wide Web (W3), conçu par le Centre européen de recherche nucléaire (CERN), permet la navigation dans le réseau par la technique de l’hypertexte : en « cliquant » sur certains mots affichés à l’écran, on accède directement à d’autres informations concernant ce terme, sans connaître l’adresse des sites correspondants, grâce à des liens préétablis. (En fait, les documents présents sur le Web comportent des textes, des images, des sons. . ., et il est alors classique d’utiliser le terme hypermédia). Le langage utilisé entre un client Web et un serveur Web est le langage HTTP (hyper text transfert protocol) et la création d’un document hyper-média utilise le langage HTML (hyper text makeup language) et ses successeurs, notamment XHTML. Le poste de l’utilisateur est équipé d’un logiciel de navigation, qui permet de lancer les recherches et de passer d’un serveur à l’autre en cliquant sur des mots ou des icônes (Internet Explorer, Firefox sont des exemples de logiciels de navigation). On utilise, lorsque l’on ne connaît pas d’adresse relative à un sujet, un moteur de recherche, logiciel implanté sur des serveurs spécialisés : ces serveurs utilisent des index, des répertoires. . ., permettant de localiser, à partir de mots clés fournis par l’utilisateur, les serveurs susceptibles de délivrer des informations intéressantes (Yahoo, Google sont des exemples de moteurs de recherche). Trois voies nouvelles apparaissent dans Internet : le Web sémantique, le Web social et le Cloud Computing. – 1. Le Web sémantique Le Web est aujourd’hui composé de liens simples et universels, mais qui n’ont pas de richesse sémantique. Les moteurs de recherche deviennent certes de plus en plus sophistiqués, mais ils restent imparfaits car ils restent basés sur des recherches de mots, et non des recherches de sens. Avec le «Web sémantique », il s’agit de s’appuyer, plutôt que sur le contenu textuel des documents, sur des descriptions structurées de l’information qu’ils contiennent : des méta-données organisées. On peut définir les méta-données comme des « données relatives à des données » (si des livres sont des données, alors les fiches bibliographiques sont des méta-données). Les métadonnées sont donc des informations à propos de ressources disponibles sur le Web et exploitables par des moteurs de recherche ou des agents (qui parcourent le Web de façon automatique), elles peuvent être incluses dans les ressources elles-mêmes, ou enregistrées dans un fichier séparé. Une première idée est d’insérer des « méta-tags » normalisés dans une page html : l’exemple le plus connu de méta-données est le « Dublin Core » pour décrire les données d’une ressource bibliographique. La deuxième idée est de structurer logiquement le contenu des documents de manière à pouvoir séparer le fond et la forme : XML peut ainsi être considéré comme un métalangage permettant de décrire d’autres langages de balisage spécialisés pour des activités particulières. Enfin la troisième idée est de proposer des langages de représentation d’ontologies (par exemple OWL, Ontology Web Language). Une ontologie est la formalisation d’une conceptualisation, elle est constituée de concepts, de relations entre concepts (par exemple, les relations sous-classe, partie de. . .), de fonctions, d’axiomes. . . Dans une ontologie, qui va décrire le « sens » d’un domaine particulier de connaissance, on a donc à la fois une structuration sous forme de hiérarchie de concepts et des structures transversales qui lient les concepts entre eux. Les ontologies permettront à terme de « marquer » les pages Web pour les rendre utilisables par des agents automatisés. – 2. Le Web social Malgré les possibilités techniques de départ d’Internet (où tous les postes en réseau peuvent être à la fois serveur et client et où les liens hypertextes ont transformé le mode de lecture), le succès du Web s’est d’abord construit sur un mode assez traditionnel « émetteur-récepteur » ou « client-serveur », soit dans une logique de diffusion de contenu, soit dans une logique d’applications transactionnelles sur des bases de données. Depuis quelques années, l’expression réseau social est répandue à propos d’Internet. Lorsque les utilisateurs parlent de réseaux « sociaux », ils font référence aux sites baptisés «Web 2.0 » ou « Réseaux Sociaux Numériques » (RSN), dont les plus connus sont Facebook, MySpace, Linkedin, YouTube. . . De nombreux termes sont en fait utilisés : médias sociaux, sites de réseaux sociaux, Web communautaire, Web 2.0, Web social. . . 1 Cette réalité ne correspond en fait que très peu à une révolution technologique. Le terme de Web social n’a pas de frontière clairement définie, mais plutôt un centre de gravité autour duquel circule un ensemble de pratiques et de principes. Nous pouvons le définir suivant deux principales dimensions : – une évolution technologique, où on parle de « services Web» : les applications sont accessibles en tant que services interopérables et non en tant que produits. Les modèles de programmation sont légers, les barrières pour la réutilisation des données et des applications sont très faibles. Les applications ne sont pas limitées à une plate-forme spécifique mais deviennent accessibles à différents types d’appareils, tels que les téléphones portables. La technologie Ajax, utilisée entre autres par Google, est une composante clé de ces applications. Ce type de technologie permet d’offrir de nouvelles interfaces utilisateurs, « riches », plus intuitives et interactives ; – une dimension sociale/relationnelle. Le Web social repose sur une architecture de participation. L’implication des utilisateurs dans le réseau est fondamentale. Les utilisateurs ajoutent de la valeur en émettant des commentaires, en diffusant leurs opinions, en partageant leurs expériences et leurs connaissances avec les autres internautes. Les pratiques de navigation évoluent, on assiste ainsi à l’émergence de communautés dont les membres créent, partagent, débattent, collaborent autour d’un même centre d’intérêt. Les plates-formes relationnelles constituent des espaces de grande exposition pour les personnes qui s’y engagent et qui développent ainsi leur identité numérique. Ainsi, le Web social est un état d’esprit, il regroupe un grand nombre d’applications différentes mais toutes centrées sur les utilisateurs et le partage d’information. On peut finalement dire que les «médias sociaux » incluent les « réseaux sociaux numériques », lesquels incluent les « sites de réseaux sociaux ». La figure de la page suivante synthétise les différentes définitions et applications. Ainsi le Web apparaît-il comme un instrument privilégié de communication et comme un outil de documentation très puissant. 3.Le Cloud Computing Techniquement le Cloud Computing, ou Informatique en nuage, est un principe d’architecture logicielle et matérielle, qui consiste à déporter sur des serveurs distants interconnectés l’ensemble indéfini des traitements et des donnés. Vieux rêve de l’interopérabilité rendu possible par le très grand débit sur les réseaux, cette architecture peut donc est considérée comme un successeur des modèles « serveur-terminaux », puis « client-serveur », puis « 3 Tiers » (séparation de la présentation, de l’application et de l’accès aux données). Avec le Cloud Computing Internet devient un réservoir partagé de tout type de ressources informatiques, chacun des trois niveaux (applications Web Service, plates-formes d’exécution et infrastructures de support) étant indépendant et connecté par des normalisations encore en cours (adresses URL, pages HTML, flux RSS, Ajax, etc.) : sur le Web, une vidéo, une carte, un commentaire (ou une composition de ces différents éléments, une application composite mash-up) peuvent ainsi provenir d’un autre serveur que celui qui a généré la page lue. Mais le cloud computing peut aussi être vu comme un nouveau modèle économique : – par la fusion de multiples services Internet gratuits, le Cloud Comptuting présente un potentiel d’innovation important. Les interfaces (API) de Google Map ou Bing Cartes proposent ainsi de nombreuses méthodes et classes prêtes à l’emploi pour insérer une carte dans une page Web. Les API de eBay ou Alapage permettent d’insérer un catalogue d’article, de suivre ou d’analyser des ventes ; – pour les utilisateurs d’applications ou d’hébergement en ligne, il n’y plus d’achat de licences, le paiement se faisant à la demande, ce qui augmente la flexibilité (pour les applications traditionnelles on parlait d’ASP, Application Service Provider, pour les applications Web on parle de SaaS, Software as a Service) ; – les centres de traitement des données, data center, sont alors devenus le support d’une nouvelle activité économique, pour assurer de hauts niveaux de sécurité, de service et de meilleure efficacité énergétique. Amazon Web Services est ainsi une collection de services informatiques distants. Google App Engine, Windows Azure, Blue Cloud d’IBM. . . sont des plate-formes de conception d’hébergement d’applications Web. Grâce à l’ensemble des services offerts, à sa simplicité d’utilisation, à son faible coût d’accès, Internet apporte, au niveau mondial, des possibilités de communication (en multimédia) remarquables. Le développement des Intranets À partir de l’expérience d’Internet, les entreprises ont tiré parti des technologies du réseau des réseaux pour améliorer leur communication interne. Le terme Intranet désigne des réseaux privés utilisant les technologies d’Internet (liens de type hypertexte, moteurs de recherche, logiciels de navigation). Avec cette technologie, des textes, des images, des sons peuvent être partagés par les membres d’un groupe quel que soit le lieu où ils se trouvent. Comme le système de communication est fondé sur des protocoles indépendants du système d’exploitation, l’utilisateur peut accéder, depuis n’importe quelle machine, au réseau Intranet de son entreprise en utilisant le navigateur qu’il emploie pour travailler avec Internet. L’uniformité de l’interface utilisateur-machine permet de résoudre les problèmes de communication posés par l’existence de matériels hétérogènes, fondés sur des systèmes d’exploitation différents, au sein de la même entreprise. Cette technique peut être employée chaque fois que des utilisateurs dispersés veulent partager des informations sous forme variée. Voici quelques exemples d’utilisation : – La direction de la communication d’une grande entreprise a mis sa base de données à la disposition des employés via un Intranet. Cette base contient des présentations de l’entreprise, les rapports annuels, les communiqués de presse. . . Accessible uniquement en interne, elle permet à tous les salariés d’avoir accès à des informations validées et à jour. – Dans un groupe de cinq PME, l’Intranet est utilisé pour le travail coopératif ; ainsi, sur des projets communs, les membres du groupe peuvent échanger des documents, des photographies, des vidéos. . . – Dans une grande entreprise travaillant dans la téléphonie mobile, il est impératif de modifier constamment les produits, les prix. . ., pour s’adapter aux contraintes du marché. Les différentes antennes commerciales sont connectées, via Intranet, à un serveur central installé au siège où est géré l’ensemble des informations commerciales. – Dans une autre grande entreprise, un réseau Intranet est utilisé pour la veille technologique ; toute personne ayant repéré une information intéressante peut la communiquer aux autres : les observations sont classées par thème, sous forme de « forums » électroniques ouverts sur le réseau. La même entreprise a d’ailleurs utilisé son Intranet pour élaborer et diffuser des documents concernant sa certification qualité ISO 9001. Remarque Le terme « Extranet » désigne un réseau Intranet dont l’accès est autorisé à un public extérieur restreint (clients, fournisseurs, partenaires. . .), constituant ainsi un réseau fermé. 2 3 1 Le développement des applications Web Les Services Web poursuivent un vieil objectif, celui de voir toutes les ressources informatiques interopérables à travers un réseau, indépendamment de leurs plates-formes d’origine. Les Web Services se placent donc dans une logique de petites applications distribuées, avec un langage standardisé et ouvert. Il s’agit de pouvoir agréger des services applicatifs, de relier différents composants logiciels internes et externes (Google Map, par exemple). Trois standards sont en général utilisés : – SOAP (Simple Object Access Protocol) définit la structure des messages XML utilisés par les différentes applications pour communiquer ensemble. SOAP est un protocole d’échange de messages, dont le corps est un fichier XML, et qui définit aussi un RPC (Remote Procedure Call). SOAP est une spécification simple à mettre en oeuvre, qui fonctionne sur toutes les plates-formes et pour tous les langages de programmation ; – WSDL (Web Services Description Language) qui est un langage pour établir une connexion entre émetteurs et récepteurs, décrivant la façon pour une application d’invoquer une autre application, avec des détails comme les protocoles, les serveurs, les ports utilisés, les opérations pouvant être effectuées, les formats des messages d’entrée et de sortie, les exceptions. . . ; – UDDI (Universal Description Discovery and Integration) permet de disposer d’une cartographie de ces Services Web : un annuaire mondial d’entreprises fondé sur le Web (nom, identité des sociétés, description des produits et des services. . .). Un Service Web doit être accessible depuis n’importe quelle plate-forme ou langage de programmation. Via des protocoles standards, on peut donc utiliser un Service Web pour exporter des fonctionnalités d’une application et les rendre accessibles. 2 4 1 La gouvernance d’Internet Qui gère Internet ? Comment gouverner sans gouvernement ? Le concept de « gouvernance » d’Internet arrive au premier plan des préoccupations internationales. Mais cette gouvernance apparaît aujourd’hui dans une impasse : l’impossible contrôle du « pourriel », spam, est un bon exemple (des données différentes circulent, mais le pourriel non sollicité, le plus souvent à finalité commerciale, représenterait plus de 70 % de tous les courriels envoyés) et les difficiles débats sur la gestion des noms de domaines ou le contrôle des contenus en sont d’autres. Pour Internet, le terme de gouvernance a été consacré lors du SMSI (Sommet mondial de la société de l’information) en 2005, qui le définit comme « l’élaboration et l’application par les États, le secteur privé et la société civile, chacun selon son rôle, de principes, normes, règles, procédures de décision et programmes communs propres à modeler l’évolution et l’utilisation de l’Internet ». Certains problèmes sont sensibles, notamment la gestion des noms de domaines, la tarification étagée, le contrôle des contenus, l’exception culturelle et la propriété intellectuelle. 1. Le contrôle des noms de domaines Le DNS (Domain Name System) est géré depuis 1998 par la société californienne ICANN, une société sans actionnaires ni assemblée générale, et où le département du Commerce étasunien dispose d’un droit de veto. Pour d’évidentes raisons techniques, l’arbre des noms de domaines avait été organisé dès le départ de manière centralisée par Jon Postel, professeur à l’UCLA : il y a aujourd’hui treize serveurs racines gérant la base DNS, dont le serveur de tête géré par la société Verisign. L’ensemble des routeurs du monde (gérés eux par la société Cisco) vient copier sur ces treize serveurs racines les arbres de nommage qui s’y trouvent. La conversion des adresses IP numériques par pays ou par genre (dont les .com, .net, .org qui sont gérés par la société Verisign) permettrait de rendre inopérantes les ressources d’un pays tout entier. À ce titre, les États-Unis considèrent comme « non souhaitable » une gestion multilatérale de ces ressources. Ce problème de la gestion des adresses va prendre bientôt toute son ampleur avec « l’Internet des objets » et les systèmes de traçabilité. Avec le remplacement des codes-barres par des étiquettes radiofréquence intelligentes RFID et avec le passage du protocole IP de la version 4 à la version 6, l’ensemble des biens et marchandises sera progressivement connecté à l’Internet via la technologie ONS (Object Naming Service). S’il devient possible de suivre les mouvements de tous les objets et personnes sur la planète, le gouvernement qui contrôlera ce système détiendra un pouvoir dont personne n’osait rêver. Et c’est la société Verisign, société sous contrat avec le département étasunien de la Défense, qui vient d’être chargée par EPC Global, le consortium mondial des codes-barres, d’organiser les règles de ce futur registre ONS. 2. La neutralité du réseau ou la tarification étagée ? L’architecture technique du réseau « end-to-end », où aucun traitement n’est centralisé, avait jusqu’ici élevé au rang de grand principe celui de « la neutralité d’Internet ». Certains ont pu parler ici de « premier amendement d’Internet » : absence de discrimination dans l’accès à toutes les ressources du réseau (les applications, les services, comme les contenus : Web 2.0, peer-to-peer, blogs. . .). Mais aujourd’hui l’idéologie libertaire des créateurs d’Internet est bien loin du débat qui fait rage à propos de la « tarification étagée » (tiered Internet), notamment dans la perspective de la télévision numérique : les opérateurs télécoms réclament une tarification spécifique pour les gros utilisateurs comme Google, Amazon ou Yahoo, afin qu’ils puissent bénéficier d’une bande passante protégée, surpayée par les usagers de leurs services particuliers. Cette tarification du débit (à l’arrivée) serait une révolution qui poserait des problèmes importants à certains usages sociaux d’Internet comme les jeux vidéo, les échanges de fichiers ou même l’encyclopédie Wikipedia (laquelle utilise peu de bande passante, mais a pourtant atteint des niveaux équivalents à ceux d’e-Bay ou d’Amazon, ce qui l’oblige déjà à utiliser les infrastructures de Yahoo, pour le moment sans contrepartie commerciale). Les opérateurs privés, et les usagers qui seraient aujourd’hui prêts à payer pour bénéficier d’un accès prioritaire à certains services, remettent ainsi en cause un principe fondamental de la « Netiquette », l’éthique sur le Net, celui qui consistait à économiser les ressources rares comme la bande passante, et à refuser toute discrimination dans l’accès aux services. 3. La liberté ou le contrôle des contenus ? Face aux débordements de plus en plus fréquents du droit conventionnel, la solution avancée par les industriels et les gouvernements est présentée comme technique : elle repose sur la notion « d’hébergement abusif » en rendant responsables les FAI (fournisseurs d’accès à Internet) et les intermédiaires techniques des infractions commises par leurs abonnés, et notamment le « piratage ». Au nom du principe de liberté, ce contrôle des contenus par les opérateurs avait pourtant toujours été refusé sur Internet, même pour résoudre le grave problème du pourriel. Les votes en 2001 puis 2003 du « Patriot Act » aux États-Unis autorisent le FBI à mettre sur écoute et surveiller les FAI sans contrôle judiciaire (avec le logiciel « Carnivore ». . . il fallait oser un tel sigle !). En Chine un nouveau pas avait été franchi en 2007 : les hébergeurs chinois, mais aussi internationaux, ont dû signer un « pacte d’autodiscipline » à travers lequel ils s’engagent à ne pas diffuser des messages illégaux et à « protéger les intérêts de l’État et du public chinois » en identifiant les blogueurs. En France, en 2009, et sur un autre plan, pour satisfaire la demande pressante des industries culturelles, la loi Création et Internet a créé la haute autorité Hadopi : avant sa censure par le Conseil constitutionnel, il s’agissait de permettre aux FAI de couper les connexions sans passer par une autorité judiciaire. Depuis 2010 un accord commercial de lutte contre la contre-façon se négocie secrètement autour de l’Union européenne et de l’ALENA (et en dehors de toute instance officielle telle que l’OMPI, l’Organisation mondiale de la propriété intellectuelle) : l’ACTA, Anti-Counterfeing Trade Agreement cherche à s’appuyer sur les FAI pour imposer une protection accrue de la propriété intellectuelle et des brevets de toutes sortes. Quels que soient les contenus à contrôler (propagande, terrorisme, brevets, droits d’auteur. . .), on voit que les nouvelles propositions avancées sont loin de n’être que « techniques ». 4. La standardisation nécessaire ou l’exception culturelle ? Il s’agit d’un dossier où le rôle de la France et du Canada a été important dans la formulation d’une doctrine de l’« exception » et dans l’obtention d’un sursis. « Les biens et services culturels, des marchandises pas comme les autres », tel est le titre de l’article 8 de la Déclaration internationale sur la diversité culturelle) face au principe général des « offres de libéralisation » de l’OMC (pour qui, à l’inverse, « La promotion de contenus locaux ne doit pas engendrer des barrières irraisonnables au commerce »). Les questions urgentes concernent notamment le multilinguisme sur Internet et l’enseignement sur Internet. 5. La propriété intellectuelle ou l’accès au savoir ? Il s’agit d’un dossier complexe, car les ressources informationnelles sur Internet ne peuvent faire l’objet ni d’une définition précise des droits de propriété (cela va des théorèmes mathématiques.. . jusqu’aux informations personnelles sur les individus), ni de règles précises sur les droits d’usage de ces informations (droit d’exclusivité, usage privé ou droit de revendre, copie privée, droit de combiner des informations. . .). Les deux questions urgentes concernent notamment celle des brevets sur la connaissance (propriété industrielle et/ou logiciels libres : licence GNU GPL) et celle des redevances sur les créations (propriété littéraire et artistique : licence Creative Commons, DRM Digital Right Management Systems, droit des diffuseurs. . .). La pression des États et des entreprises a réussi à renvoyer ces questions à l’OMPI, organisation mondiale de la propriété intellectuelle, mais surtout à l’OMC dans le cadre de l’ADPIC (Aspects des droits de propriété intellectuelle qui touchent au commerce) et de l’AGCS (Accord général sur le commerce et les services). 2 2 L’aide au travail collaboratif Traditionnellement, dans les organisations, certaines activités ne sont pas directement confiées à des individus mais à des groupes de travail (comité, commission, groupe d’étude, équipe de projet. . .), généralement temporaires. Ces activités sont variées : information réciproque, production d’un plan, créativité, décision collective avec négociation. . . Ce travail collectif suppose des interactions variées entre les membres pour atteindre l’objectif commun. Selon Favier et al. (1998), ces interactions sont de trois types : – communication : diffusion d’une information aux membres du groupe, relative à l’objet du travail ; – coordination : échange pour définir le partage des tâches, la synchronisation (agenda, échéances.. .) ; – collaboration : travail commun avec un document partagé entre plusieurs membres (objet, modèle, dessins. . .). Comme ce travail collectif s’inscrit dans la durée, il est nécessaire de conserver les traces du travail et de son évolution. La fonction de mémorisation répond à ce besoin. Sous le terme générique de COLLECTICIELS (groupware en anglais), de nombreuses solutions ont été élaborées ; elles seront présentées, sous une forme générale dans le premier point. Des exemples – réunion assistée, workflow. . . –, seront présentés dans le second point. En conclusion, nous présenterons les principales problématiques associées à la notion de « groupe VIRTUEL » 2 1 2 Le travail de groupe : un domaine varié De nombreux outils informatiques et de communication sont proposés pour assister le travail des groupes ; un nouveau domaine des systèmes d’information, le CSCW (Computer Support for Cooperative Work) se développe rapidement ; l’AFCET le définit ainsi sous la traduction de « collectique », mais on utilise souvent le terme « Travail collaboratif » « La collectique (ou CSCW) regroupe l’ensemble des techniques et des méthodes qui contribuent à la réalisation d’un objectif commun à plusieurs acteurs, séparés ou réunis par le temps et par l’espace, à l’aide de tout dispositif interactif faisant appel à l’informatique, aux télécommunications et aux méthodes de conduite de groupes. » « Les collecticiels (groupware) sont les logiciels sur lesquels s’appuie la mise en oeuvre de la collectique. » Des outils autres que les collecticiels peuvent également être utilisés ; en pratique, la nature des outils à retenir dépend d’abord des paramètres fondamentaux de la situation de travail. La diversité des situations de travail On peut caractériser la situation de travail en groupe par quatre paramètres déterminants : – la tâche ; – les participants ; – les contraintes de temps ; – les contraintes d’espace. a – Nature de la tâche Quels sont l’objet et l’objectif immédiat du travail en groupe ? S’agit-il de négocier, d’examiner en commun une décision à prendre, de rechercher des idées, d’exécuter une transaction, de s’informer, de former ? La réponse à cette question permet de repérer des caractéristiques de la communication : le sens dominant de la transmission d’information (du formateur vers les formés par exemple), le caractère plus ou moins formel de l’échange (une réunion de négociation peut avoir un haut niveau de formalisation, une réunion de créativité un très faible niveau). b – Nature et nombre des participants Combien de personnes sont appelées à travailler ensemble ? Les spécialistes distinguent assez souvent les petits groupes de 5 à 20 participants, les groupes moyens de 20 à 100 environ, les grands groupes au-delà. Le groupe peut être plus ou moins homogène à différents points de vue : niveau hiérarchique des participants, niveau de compétence relative, domaine de compétence.. . (les obstacles à la communication sont plus faibles à l’intérieur des groupes de spécialistes). Le degré de maturité du groupe peut être variable également : dans un groupe à maturité élevée, les participants se connaissent déjà et ont l’habitude de travailler ensemble ; dans un groupe à maturité faible, la plupart des participants ne se connaissent pas. c – Contraintes de temps Les différentes situations sont à distinguer selon deux dimensions : – périodicité : collaboration périodique et planifiée dans le temps (par exemple, une suite de réunions pour formation organisées dans le cadre d’un programme) ou collaboration ponctuelle (une seule réunion décidée à l’avance ou « organisée » de manière impromptue) ; – interactivité : selon quelle séquence dans le temps se réalise l’interaction au sein du groupe. Si le degré d’interaction requis est très élevé, la réalisation de la tâche implique une participation simultanée des participants (cas classique d’une réunion). Si le degré d’interaction est faible, on peut travailler avec des interventions successives des participants (par exemple, différentes personnes vont travailler successivement sur le même dossier et ne se coordonneront qu’à intervalles éloignés) ; le travail de chaque membre du groupe est conditionné par celui des autres personnes qui exercent des tâches en amont de la chaîne. d – Contraintes d’espace Quelle est la position relative des membres du groupe dans l’espace ? Sont-ils physiquement présents dans un lieu unique (cas de la réunion dans une pièce) ? Sont-ils à l’intérieur d’un même établissement (dans des bureaux différents susceptibles d’être reliés, si besoin est, par un réseau local) ? Sont-ils géographiquement dispersés (dans le même pays, dans des pays différents) ? Cette contrainte d’espace conditionne fortement la nature des outils utilisables. Par la combinaison de ces quatre groupes de paramètres, on constate une très grande diversité de ces situations potentielles de travail en groupe ; par exemple, la présentation d’un nouveau produit aux équipes de vente d’une multinationale, dispersées dans 45 pays (tâche d’information, grand nombre de participants, « présence » simultanée avec dispersion géographique forte) n’a que peu d’exigences communes avec le travail de préparation d’un dossier commercial dans une grande compagnie d’assurances (traitements successifs, par quelques spécialistes, d’un dossier qui circule dans les bureaux d’un même bâtiment) ; ces deux situations sont elles-mêmes fort différentes de celle d’une réunion de créativité cherchant à créer un nouveau concept en marketing (résolution d’un problème peu formulé par un groupe hétérogène de dix participants enfermés dans une pièce). Si dans tous les cas il y a partage d’informations et communication, les exigences en matière d’aide au fonctionnement du groupe sont fortement différentes. Cela explique la très grande diversité dans les solutions apportées par les technologies de l’information. 2. La diversité des solutions Sous le nom d’aide au travail de groupe, on trouve des technologies informatiques, de communication. . ., permettant, selon les cas : 1) de fournir des aides à la communication : permettre aux membres du groupe de se mettre en contact pour communiquer, échanger et mémoriser plus facilement des informations (systèmes de communication) ; 2) d’assister le groupe dans son processus de résolution de problèmes : recherche d’idées, aide à la modélisation, traitement de modèles par simulation. . . Dans ce cas, on peut parler de système d’aide à la décision de groupe (group decision support system). On distingue donc des systèmes d’aide de niveau 1 (aide centrée sur la seule communication) et des systèmes d’aide de niveau 2 (aide combinant un support à la décision et un support à la communication). À cette distinction fondée sur la nature de l’aide apportée se superpose la distinction majeure imposée par le contexte spatio-temporel du travail du groupe. La figure 12 présente cette matrice espace-temps permettant de situer les différents outils dans quatre quadrants différents. . Quadrant 1. – Même lieu, même moment : il correspond au contexte de la réunion classique. Des logiciels spécialisés utilisés dans le cadre de « salles de décision » permettent d’assister le processus collectif d’échange et de prise de décision. Compte tenu de leur importance, ces systèmes d’aide à la décision de groupe appelés parfois « meetings assistés » ou « réunions assistées par ordinateur » feront l’objet du point 2.2.2 ci-après. Quadrant 2. – Lieux différents, même moment : ce contexte est celui de la réunion à distance. Il exige impérativement des outils de télécommunication synchrones. Selon les cas, on peut travailler en : – réunion téléphone : la communication est possible uniquement sous forme verbale et limitée à 20 postes téléphoniques. Interactive mais réclamant une grande discipline des participants, elle est d’un coût faible ; – audioconférence : la communication repose sur le son et la transmission d’images fixes (documents par télécopie et télécriture). Elle permet une interactivité plus forte avec des investissements limités. Elle est bien adaptée au travail de groupes (distants) de spécialistes, à maturité élevée ; – visioconférence : elle offre la possibilité d’effectuer des réunions à distance, en mode interactif, entre plusieurs groupes de participants géographiquement éloignés avec la transmission, dans les deux sens, de l’image animée et du son. La visualisation des participants facilite le dialogue et permet des échanges riches ; cependant l’interaction ne peut être aussi riche que dans une réunion classique (position d’un interlocuteur devant une caméra ; absence de possibilité de « balayage » simultané des différents participants). Elle semble bien adaptée à certaines situations classiques des grandes organisations : formation ou information « descendante » interne à l’usage de groupes de destinataires dispersés ; réunions d’échanges réciproques et d’analyse sur un problème connu entre collaborateurs appartenant à la même organisation qui se connaissent déjà (degré de maturité élevé). Elle semble peu adaptée aux réunions de négociation avec des participants peu connus. Malgré un coût relativement élevé sur des réseaux spécialisés, elle peut être économiquement intéressante par les gains de temps et les économies de coûts de transport qu’elle apporte. . Quadrant 3. – Même lieu, moments différents : ce contexte est celui du travail coopératif : plusieurs personnes collaborant à un projet, doivent échanger des informations, se coordonner périodiquement sans obligatoirement se rencontrer physiquement. Les solutions proposées sont très variables et les collecticiels utilisés peuvent avoir des fonctionnalités différentes : – courrier électronique : le collecticiel permet l’échange de messages en mode asynchrone ; – outils de « connexion » : souvent associés aux logiciels de messagerie, ils facilitent la planification des réunions par la tenue de calendriers, d’agendas ; – gestion de formulaires : on représente de façon standard des documents très utilisés (notes, avis. . .) ; – gestion de documents : les documents, pouvant mélanger du texte, des données, des images, etc., peuvent être archivés puis consultés par les différents participants au groupe de travail (la réglementation de la consultation est possible) ; – gestion des flux (« workflow ») : on automatise la circulation du document ; lorsque le document a subi le traitement au niveau d’un individu, il est, sous forme électronique, communiqué à un (ou plusieurs) destinataire(s) selon les instructions d’une procédure préenregistrée. Il est ainsi possible, à tout moment, de connaître l’endroit où se trouve le document et le degré d’avancement du travail. En définitive, ces différents outils du travail coopératif doivent permettre le partage d’informations de toute sorte (fichiers utilisés au départ, documents et formulaires créés en cours de travail. . .), l’échange rapide de messages sur le projet (on parle alors de conférence assistée par ordinateur), le recours à des outils de traitement identiques (par exemple, utilisation d’un tableur sur les mêmes données et visualisation sur différents écrans). Ils sont une extension des outils classiques permettant dans des conditions de sécurité satisfaisantes (nécessité de protéger les données) d’accélérer les échanges, de simplifier la communication écrite. La généralisation de leur usage peut entraîner des changements importants du travail administratif en particulier. Exemples – Dans une revue scientifique, chaque article doit être vu par plusieurs experts avant d’être publié ; le rédacteur en chef peut adresser électroniquement une copie de l’article aux différents experts ; chacun fera part de ses observations ; les commentaires seront échangés ; une conférence assistée par ordinateur permettra, par messages successifs, d’aboutir à une décision (rejet ou publication). – À partir de l’examen du résultat des ventes d’un produit, plusieurs personnes peuvent, par différents traitements, expliquer leur interprétation des chiffres et proposer des solutions ; il n’y a pas de réunion physique ni d’échanges de documents sur papier. Le groupe est un espace de travail virtuel qui partage un ensemble de données. . Quadrant 4. – Lieux différents, moments différents : toutes les solutions décrites dans le quadrant 3 peuvent s’appliquer si la connexion entre les postes de travail est réalisée par l’intermédiaire de réseaux étendus au lieu d’un réseau local. Cependant, dans le cas précédent, même si le travail coopératif correspond à des situations où le degré de formalisation est élevé, des réunions informelles ou des contacts bilatéraux directs permettent de régler certaines difficultés. Dans le cas où les distances sont grandes, la solution ne peut être améliorée que par le recours à des méthodes de télécommunication fortement interactives telles que le téléphone, l’audio ou la visioconférence. La coordination par ajustement mutuel peut alors intervenir. 2 2 2 Deux exemples : outils de groupware, outils de workflow À titre d’illustration seront présentées deux réalisations d’usage courant dans les organisations : – l’une correspondant à des situations de travail en coprésence : les réunions assistées par ordinateur ; – l’autre correspondant à des formes de travail avec un partage des tâches asynchrone : le workflow. 1. Les réunions assistées par ordinateur Les réunions sont une forme fréquente de travail collectif. (Différentes études ont montré que les cadres passent fréquemment plus de 50% de leur temps de travail en réunions, programmées ou impromptues). Les objectifs de ces réunions sont variés : – créativité : explorer des idées, brainstorming ; – présentation d’un projet, d’un produit. . . ; – résolution collective d’un problème avec décision. . . ; – négociation, recherche de consensus.. . ; – motivation ; – formation. Compte tenu à la fois du poids important des réunions dans le fonctionnement des organisations et des limites méthodologiques des solutions classiques, il a semblé judicieux de rechercher l’amélioration de ces processus collectifs par un recours accru aux technologies de l’information. Sont donc apparus, dès le début des années 1980 (au-delà du stade expérimental), des salles de décision et des collecticiels (logiciels d’aide au travail en groupe) dont l’objectif annoncé était d’améliorer l’efficience des réunions. Après avoir présenté les caractéristiques essentielles des outils proposés, nous indiquerons les aspects majeurs de leur utilisation (impact prévisible et conditions de succès). a – Les outils : salles de décision et collecticiels Une salle de décision est un local spécialement conçu pour faciliter le travail d’un groupe souhaitant travailler en réunion en face à face, c’est-à-dire avec la présence « physique » des participants. Toutes les salles ont comme objectif d’offrir des conditions de travail agréables (sièges, mobilier, éclairage, isolation phonique, climatisation. . .). Elles sont dotées d’un équipement spécifique (variable selon les réalisations) comportant au moins : – une station de travail connectée par participant ; – une station de travail centrale commandant un affichage sur grand écran ; – un tableau blanc interactif, avec stylet et écran tactile. Certaines salles sont raccordées à des réseaux publics et permettent la recherche, si besoin est, de données externes accessibles par interrogation directe. La topologie des salles peut varier : forme « amphithéâtre », forme en « U », salles circulaires, salles rectangulaires. La disposition relative des participants a une incidence directe sur les possibilités de communication (position identique pour chaque participant ou existence de places « privilégiées »). La préparation de la réunion comprend la définition des objectifs, la mise au point d’un « agenda » (ordre du jour détaillé). Un logiciel spécialisé permet de les rédiger, de les afficher à la demande ; il permet aussi de rappeler, si besoin est, le compte rendu des réunions antérieures, de déclencher l’impression de certains documents.. . Pendant le déroulement de la réunion, différents outils peuvent être utilisés : – « brainstorming » ou aide à la génération d’idées : chaque avis émis peut être stocké, affiché ou communiqué à certains membres, de manière anonyme ou ouverte. Il est possible d’indexer les avis par des mots clés ; – « classement » pour ranger les idées émises selon différents critères ; chaque participant peut avoir son propre « rangement » ; – « traitement de texte multi-utilisateurs » permettant à plusieurs personnes d’écrire « simultanément » sur un même document (très utile pour la rédaction d’un compte rendu de réunion) ; – « vote » permettant l’expression d’une volonté collective avec des modalités variées (oui-non, choix multiples, notation sur une échelle, etc.) ; – évaluation d’alternatives sur des échelles quantitatives ou qualitatives ; – questionnaire : proposé par l’animateur et affiché sur la station de travail de chaque participant ; dépouillement assisté par un logiciel statistique ; – matrice de consensus permettant de comparer les perceptions de chacun sur deux ensembles d’items. L’outil visualise graphiquement les zones d’accord et de désaccord (possibilités de différentes formes de graphiques) ; – lecteur de fichiers permettant à chacun de relire n’importe quelle donnée déjà stockée à n’importe quel moment ; – dictionnaire permettant au groupe de définir formellement des termes ou des phrases. À la demande, en fonction des questions traitées, le groupe peut également utiliser des outils classiques d’aide à la décision (tableur, modèle particulier. . .). En définitive, l’outil « salle de décision » combine des outils de communication (d’écran à écran, sur un écran mural. . .) et des outils de support du processus de décision. Bien entendu, l’organisation de la salle autorise le déroulement de la réunion soit en mode traditionnel, soit en mode assisté. b – L’utilisation : impact et conditions de succès Les salles de décision sont supposées améliorer le processus de travail du groupe par leurs quatre fonctions principales : La communication parallèle : par l’intermédiaire de sa station de travail, chacun peut émettre suggestions et commentaires lorsqu’il le désire. Le temps d’intervention est identique pour tous, non partagé ; on peut ainsi éliminer les phénomènes de domination et accroître le volume des informations échangées. La mémorisation : les commentaires écrits sont enregistrés et demeurent accessibles à tout moment ; cela diminue la contrainte d’écoute et facilite le commentaire ultérieur. L’anonymat réduit la pression du groupe et peut permettre une meilleure expression des individus moins expérimentés, plus timides ou de niveau hiérarchique faible. L’utilisation de l’écrit modifie le comportement. Communiquer une information via le clavier est plus lent que de l’exprimer oralement ; cela peut réduire à la fois le volume et la richesse des signaux échangés. En revanche, les échanges sont souvent plus concis, plus précis, mieux centrés sur le problème. De très nombreuses études expérimentales ont été conduites pour mieux cerner l’impact de la technologie « salle de décision » sur le fonctionnement des groupes. Des résultats contradictoires ont été observés. Nous n’indiquerons ici que les principales conclusions tirées de l’expérience d’utilisation à grande échelle (par exemple, celle de la société IBM qui utilise des dizaines de salles de décision pour ses besoins propres). Tout d’abord on constate une économie importante du temps consacré aux réunions (réduction du nombre de réunions et de la durée de chaque réunion) : de l’ordre de 50 % environ. Cette économie est d’autant plus forte que la taille du groupe est importante ; cela a permis, en particulier, d’accroître le nombre moyen des participants aux réunions sans perte d’efficience. Le niveau de participation s’accroît ; la concentration sur la tâche s’améliore et l’on converge plus vite vers un résultat. Dans la phase initiale de résolution d’un problème (exploration) ou dans les réunions de créativité, l’anonymat se révèle avoir des effets positifs : le nombre de suggestions, le nombre d’alternatives examinées ou de commentaires sur des propositions s’accroissent. Manifestement, l’anonymat réduit les inhibitions et la communication parallèle améliore l’échange. En revanche, les effets sur le consensus obtenu (et donc le degré d’adhésion ultérieur à l’application des décisions) sont moins nets ; certaines expériences (IBM en particulier) révèlent un meilleur consensus a posteriori, d’autres ne montrent aucun effet positif. En ce qui concerne la satisfaction des participants aux réunions, il ne semble pas possible de tirer une conclusion générale des expériences analysées. Les réunions sont vécues comme plus efficaces mais aussi comme plus « pénibles », plus « formelles », moins « conviviales », mais « riches ». On constate, ce qui est assez normal, des diversités d’opinion fortes parmi les participants à une même réunion. En ce qui concerne les facteurs de succès de l’utilisation, il se dégage un certain nombre d’opinions convergentes : – nécessité de préparer soigneusement la réunion : définition claire des objectifs, rédaction d’un agenda détaillé (programme précis), choix des participants, vérification des supports techniques ; – importance des interfaces de communication homme-machine : logiciel souple d’utilisation pour l’entrée des données, recours aux graphiques, qualités ergonomiques des écrans (individuel et général). L’apprentissage de l’outil doit être limité à quelques minutes pour des non-spécialistes ; – rôle important du facilitateur. Plusieurs expériences ont été conduites avec des modèles différents : réunions sans aucune assistance technique, réunions avec « chauffeur », c’est-à-dire avec un assistant technique qui ne prend aucune initiative relative à la direction du groupe et se limite à l’exécution d’opérations matérielles, réunions avec « facilitateur », c’est-à-dire un directeur de réunion qui pilote le processus collectif de discussion, qui indique quels sont les outils susceptibles d’être utilisés à chaque instant. Les résultats des observations montrent le rôle essentiel des facilitateurs pour les réunions complexes et, dans tous les cas, l’exigence d’une très bonne formation des facilitateurs tant en ce qui concerne les méthodes de conduite des réunions que la manipulation des outils matériels et logiciels ; – utilisation importante des possibilités de mémorisation pour la mise au point des comptes rendus et la gestion de réunions enchaînées sur le même problème (mémorisation interréunions). 2. Outils de workflow et modélisation des processus métiers L’objectif des outils de workflow (désignés parfois par l’expression GEP, gestion électronique des processus) est d’améliorer la productivité de l’organisation en optimisant l’organisation des circuits d’information et le suivi des procédures de circulation. Un des aspects importants du fonctionnement des organisations est le déroulement de processus répétitifs mobilisant l’intervention successive de plusieurs participants (postes de travail distincts dans l’organisation). La simplification et l’automatisation de ces processus répétitifs sont des moyens importants pour obtenir des gains de productivité et de qualité dans le fonctionnement de l’organisation. Défini en tant que champ d’application, « le workflow est une forme de travail impliquant un nombre limité de personnes devant accomplir, en un temps limité, des tâches articulées autour d’une procédure définie et ayant un objectif global » (N. Naffah, in Nurcan, op. cit.). Dans cette situation de travail, plusieurs personnes sont impliquées dans la réalisation d’une tâche collective mais interviennent à des étapes différentes du déroulement de la tâche et individuellement à partir du moment où elles exécutent leur part de travail. Exemples – Dans une grande administration, les promotions des employés (changement d’échelon, de grade.. .) font l’objet d’une procédure complexe impliquant l’employé spécialisé du service du personnel, puis le chef de service de l’intéressé, puis le responsable d’une commission paritaire, puis le responsable d’unité, puis le responsable du service du personnel, puis le contrôleur financier avec un retour final à l’employé spécialisé du service du personnel. – Dans une entreprise du bâtiment, la réponse aux appels d’offres de clients potentiels passe successivement par le service commercial, le service études, le service chiffrage-devis, le service planning-chantier avant de revenir au service commercial. Dans ces situations de travail, un « dossier » (c’est-à-dire un ou plusieurs « documents ») circule entre différents postes de travail ; à chacun de ces postes, il est consulté, modifié, enrichi. . . Le traitement manuel de ces procédures entraîne souvent l’apparition de problèmes variés : – constitution de files d’attente devant certains bureaux (« le dossier est bloqué ») et de retards cumulatifs ; – difficultés de localisation des dossiers en cours de traitement et, d’une manière générale, difficultés du suivi d’avancement ; – temps de communication et de manipulation importants (appels, recherches, copies de documents.. .). Ces problèmes peuvent être réduits ou supprimés si on automatise la procédure en utilisant des logiciels de workflow, capables de gérer les procédures de travail, de coordonner les charges et les ressources, de superviser le déroulement des tâches. Dans les applications de type workflow, il sera donc nécessaire d’intégrer différents éléments : – la définition de la procédure (c’est-à-dire l’enchaînement des tâches qui la composent, en précisant quels sont les événements qui déclenchent la tâche et les résultats auxquels elle doit aboutir) ; – la gestion des données utilisées dans la procédure (le contenu des dossiers traités. . .) ; – l’assistance et la coordination des différents acteurs concernés (quel poste pour accomplir quelle tâche de la procédure.. .). Par rapport à ces exigences, les possibilités des outils de workflow sont principalement de trois ordres : 1) Aide à la gestion de la procédure : le logiciel impose un guidage rigoureux de l’enchaînement des tâches ; il peut signaler au responsable de la procédure un retard anormal sur un poste. 2) Contrôle du flux de travail : l’avancement du dossier est suivi étape par étape ; il est alors possible de détecter les goulets d’étranglement (allongement de la file d’attente à l’entrée d’un poste) et d’y remédier rapidement. 3) Automatisation dans la gestion des données : les documents papier peuvent être remplacés par des formulaires électroniques, partageables par les différents acteurs, à partir de leur poste de travail respectif. Les pertes de temps de recherche, copie. . . sont fortement réduites. La coordination est ainsi assurée directement par le système, sur le document. (Dans certains cas, on obtient, de ce fait, la possibilité de travailler en parallèle au lieu de travailler en séquence sur le dossier ; l’acteur chargé de la tâche T commence à travailler sur le dossier avant que celui chargé de la tâche T – 1 ait terminé.) La circulation de l’information est automatique. En pratique, les solutions logicielles sont extrêmement variées, à différents niveaux d’automatisation et rapidement évolutives. (Elles comportent généralement des outils de messagerie électronique, de transferts de fichiers, de gestion de données partagées, de planification et de gestion des tâches. . .). 2 3 2 Conclusion : notion de groupe virtuel Le groupe de travail apparaît ainsi comme un instrument d’organisation du travail productif où l’on assure la coordination des participants individuels et où l’on favorise l’apprentissage par le partage des connaissances. La coordination peut prendre plusieurs formes : – réunion des membres : situation de coprésence ; – communication à distance par téléphone, courrier électronique. . . Généralement, le groupe de travail n’existe que de façon discontinue (pendant que la coprésence des membres est réalisée) ; cependant, grâce aux technologies de la communication, des individus peuvent, en dehors des réunions, avoir des conversations à distance, échanger des images fixes ou animées, partager des documents de travail. . . On appelle « groupe médiaté » un groupe de travail utilisant des technologies de communication en plus des classiques réunions en face à face. Si la coordination des membres se réalise exclusivement par l’intermédiaire des médias, on parle alors de « groupe virtuel ». Un groupe virtuel est un ensemble de personnes qui s’engagent dans de fréquentes interactions exclusivement à l’aide de technologies de l’information (donc à l’exclusion de toute rencontre en face à face) et qui, comme tout groupe social, possèdent une ou plusieurs des caractéristiques suivantes : – partage de normes communes sur des sujets d’intérêt commun ; – participation à un système de rôles interdépendants ; – sentiment d’appartenance au groupe. On observe ainsi des groupes virtuels travaillant avec la messagerie électronique, la vidéoconférence, les outils de workflow. . . Une des directions de recherche visant à améliorer le fonctionnement des groupes de travail ainsi constitués consiste à recourir à une « simulation virtuelle de la coprésence ». Les techniques de simulation virtuelle repoussent, en effet, les limites à la communication imposées par d’autres technologies en supportant des échanges très riches en mode interactif ; on essaie ainsi de rendre la simulation aussi proche que possible d’une interaction en face à face en utilisant des outils multimédias de plus en plus perfectionnés (vidéo grand écran, son directionnel. . .). Le développement des réseaux de télécommunications à très haut débit permet ainsi de simuler, à distance, la coprésence dans des « salles de réunion virtuelles » en donnant des images fidèles des intervenants et une communication orale améliorée. Plus modestement, l’équipement des microordinateurs avec des dispositifs de vidéoconférence permet déjà des interactions riches autour de documents de travail. La constitution et le fonctionnement de ces groupes virtuels posent parfois un certain nombre de problèmes spécifiques : – À quel objet doit-on réserver l’affectation de groupes virtuels ? (Il semble que les tâches de créativité ou de négociation complexe soient plus difficiles à réaliser avec des groupes virtuels.) L’ensemble des individus doit avoir une vision claire et partagée de la mission du groupe. – Quelle doit être la composition du groupe virtuel ? Doit-on sélectionner les membres sur des aptitudes différentes de celles que l’on exigerait pour la constitution d’un groupe traditionnel ? Comment se développe le leardership dans le groupe virtuel ? Quelle doit être la taille du groupe ? – Quels sont les moyens de communication à mettre à la disposition du groupe ? Comment ces moyens vont-ils supporter les différents types d’interaction entre les membres du groupe ? Comment ces moyens peuvent-ils influencer le partage des tâches entre les différents membres du groupe ? – Tout travail de groupe implique un minimum de confiance entre les participants ; les interactions ne peuvent se dérouler qu’à partir d’un minimum de confiance initiale et leur déroulement modifie le degré de confiance initiale (confiance à l’égard de la fiabilité et de la sécurité des outils de communication, confiance envers les autres membres). Cette question de la confiance est particulièrement cruciale dans les équipes virtuelles, car l’éloignement des participants et la nonconnaissance initiale des membres sont des facteurs peu favorables à la construction d’un haut niveau de confiance. Qui plus est, la probabilité pour que les membres retravaillent ensemble après la réalisation de la tâche qui les réunit est très faible, limitant un des facteurs favorisant la confiance, l’anticipation de futures associations, base de la confiance dite relationnelle. Pour certains groupes, le niveau de confiance semble d’emblée très élevé, et reste stable. A l’inverse, des groupes caractérisés par un faible niveau de confiance au départ, semblent avoir tendance à garder ce niveau faible. Ces deux observations conduisent à relativiser la dynamique cumulative de la confiance pour les équipes virtuelles globales (Jarvenpaa,1998). La forme de confiance observée serait la confiance rapide (« Swift Trust »), déjà analysée par exemple dans le cadre des équipes de tournage d’un film. Au départ, la confiance importante entre les membres peut s’expliquer par une catégorisation des membres, qui ne sont plus alors jugés en tant que personne, mais en tant que membre de cette catégorie. Chacun sait que l’autre respecte le convention de qualification et respectera la convention d’effort. L’application aux équipes virtuelles globales montre que ce sont les premiers messages, et notamment la présentation respective de chacun des membres, qui définissent en grande partie un niveau de confiance qui n’évoluera plus par la suite. 2 3 L’échange de données informatisées : EDI Les transactions entre organisations reposaient, traditionnellement, sur l’échange de documents spécifiques (bon de commande, facture, avis de règlement), transmis par voie postale. Cette solution classique présente des inconvénients évidents : – perte de temps due aux délais de transmission par courrier postal ; – incertitude liée aux aléas de la voie postale ; – coûts supplémentaires liés à des saisies de données multiples ; – fiabilité incertaine due aux erreurs de saisie par les différents opérateurs. De ce constat a découlé l’idée simple de remplacer l’échange de documents papier par un échange de messages électroniques, directement d’ordinateur à ordinateur, des partenaires de la transaction. Cette idée est à la base de l’échange de données informatisées : l’EDI (en anglais Electronic Data Interchange). L’EDI est donc un exemple particulier de système d’information interorganisationnel destiné au support des transactions courantes entre organisations. La Commission des Communautés européennes définit l’échange de données informatisées (EDI) comme le transfert de données structurées sur des bases de messages normalisés approuvés, entre systèmes informatisés par voie électronique. Cette technique de dématérialisation qui consacre l’« entreprise sans papier » sera rapidement décrite dans un premier point ; nous aborderons ensuite les principaux problèmes liés à son utilisation. 2 1 3 Principes de base Les domaines couverts par l’EDI sont ceux correspondant à des transactions usuelles, bien définies par des textes ou par des usages. Citons quelques exemples : – commandes ; – avis de réception de commandes ; – factures ; – avis de réception ; – avis d’expédition ; – ordres de paiement ; – appels d’offres ; – ordres d’enlèvement (transport) ; – comptes rendus d’exécution (transport) ; – documents douaniers ; – déclarations fiscales ; – déclarations à caractère social. . . Il existe ainsi, à l’heure actuelle, plus de 200 documents répertoriés et susceptibles d’être transformés en documents électroniques. Derrière cette diversité apparente, le processus de l’EDI est toujours celui illustré par la figure 13. 1) Dans le cadre d’une application informatique d’un partenaire (par exemple, la gestion des stocks chez le partenaire 1), un message est émis sous forme d’un fichier spécifique (c’est-à-dire organisé selon les modalités imposées par le logiciel d’application). Ce message est transformé par un logiciel de traduction en un fichier organisé selon les normes EDI puis communiqué automatiquement, via un réseau de communication, à un ordinateur du partenaire 2) Le réseau utilisé offre généralement des possibilités d’employer des « boîtes aux lettres électroniques » où peuvent être stockés les messages. (Ce type de service justifie l’appellation de « réseau à valeur ajoutée ».) 3) Chez le partenaire 2, le processus inverse se déroule. Le message EDI est reconnu puis « traduit » afin d’être adapté à son traitement par le logiciel d’application (par exemple, le bon de commande émis par le partenaire 1 est adapté, après réception et traduction, à l’application de traitement des commandes chez le partenaire 2). La présentation de ce processus EDI met en évidence deux caractéristiques importantes : – la possibilité de lier la transmission des documents aux applications qui les produisent ou qui les utilisent. Le logiciel de traduction permet d’assurer la liaison entre l’activité de communication et l’activité de traitement. – l’existence indispensable d’une normalisation des documents électroniques qui seule peut garantir la fiabilité de la communication : le document doit être reconnu avec certitude car il a des conséquences juridiques immédiates sur l’existence même de la transaction. 2 2 3 Principaux problèmes C’est pourquoi le problème de normalisation est fondamental. Ce qui différencie l’EDI de la simple communication électronique est le fait que les données soient présentées selon une norme reconnue aux niveaux sectoriel, national ou international. Cette norme va définir les termes commerciaux à utiliser, la façon dont le document est organisé en segments, l’ordre de ces segments, quels sont les contrôles à opérer pour vérifier, à la réception, que le message est correctement reçu. . . La norme définit un langage commun avec une syntaxe et une sémantique très précises. De très nombreuses normes ont été définies dans différents cadres ; citons par exemple : – au niveau national (France) : Galia (constructeurs automobiles), Gencod (distribution), Cefic (chimie), Innovert (transport) ; – au niveau européen : GTF (transport terrestre), Odette (construction automobile), Édifice (construction électronique), Ediconstruct (travaux publics), EAN (distribution) ; – au niveau international : IATA (transport aérien). Mais la multiplicité de ces normes se révèle très vite gênante pour faire face aux besoins du commerce international (cas d’une entreprise européenne travaillant avec l’Asie. . .) et des échanges intersectoriels (par exemple, une entreprise fabriquant des composants électroniques pour l’automobile devrait travailler avec les normes Odette et Édifice, uniquement en Europe). C’est pour cette raison qu’est développé, sous la tutelle des Nations unies, un langage commun : EDIFACT (échange de données informatisées pour l’administration, le commerce et les transports). Exemple de message utilisant les balises EDIFACT, norme 816 ST^816^1001~ BHT^0059^00^NATCON^20010101^^ML~ N1^MTMLP^HC MAUFACTURER^21^08KUG8732~ N1^BG^HC BUYING GROUP^21^097YT593J~ PER^CD^MARY AUDETTE^TE^312-575-5957^FX^312-5755958^EM^[email protected]~ HL^01^^24^1~ N1^FFS^HC BUYING GROUP^21^097YT593J~ Le paysage de la standardisation EDI est portant encore en mouvement, car le langage XML est devenu aujourd’hui la base des échanges de documents en structurant les données de manière standardisée. Mais le problème vient en l’occurrence de la souplesse fournie par XML qui permet à chacun de définir un standard.. . sur mesure. Cette possibilité a déjà été largement utilisée, notamment par les différentes branches d’activités et types d’applications qui ont défini leurs propres standards, et l’on estime leur nombre à plus de 500 ! On assiste maintenant à la naissance d’initiatives destinées à recenser ces standards XML et à définir des moyens de les fédérer. Le monde des standards pour l’interopérabilité ne se simplifie pas, mais évolue très vite : – D’un côté, Oasis (avec Sun) avec le soutien des organismes de normalisation (Cefact-ONU Edifact). OASIS se positionne en concurrent des réflexions du W3C sur le Web sémantique, et continue la mise au point de ebXML. Les pays comme les États-Unis où Edifact est peu implanté, privilégient ce « bond en avant » direct vers XML que représenterait ebXML. Mais si cette standardisation « officielle » ne débouche pas vite, la stabilité attendue par les entreprises pour passer à XML viendrait alors des standards de facto. . . – Car de l’autre côté, la WS-I (Web Services Interoperability Organisation) qui regroupe offreurs et grands utilisateurs industriels de produits basés sur XML (avec Microsoft, IBM, SAP, Oracle, Dassault Systèmes.. .) se veut un outil de la « customer business process integration » avec notamment les standards UDDI pour les registres et SOAP pour les procédures à distance. Tous proposent déjà des spécifications construites autour de XML : Ariba avec le cXML, CommerceOne avec le XCBL, IBM avec le SpML, Microsoft avec Biztalk. . . – Absent de ces deux consortiums, le W3C, qui est occupé à coordonner entre eux les nombreux standards de la galaxie XML (XML Schema, XSLT, Xquery, Xpointer, « namespaces ». . .), se situe à michemin entre les membres de Oasis et la WS-I. XML nécessite une boîte à outils cohérente et simple à utiliser, où chaque outil complète les autres, et il y a donc encore du travail à faire au W3C. – Absent aussi des deux consortiums, les utilisateurs d’EDIFACT, organisés en 10 secteurs d’utilisation et aussi dans l’EWG (Edifact Working Group). Ils coordonnent le développement d’Edifact depuis l’origine et ils veulent plutôt traduire « telle quelle » la sémantique Edifact en XML (EDI-Light) limitant ainsi le coût de la migration, alors qu’ebXML voudrait privilégier l’amélioration qualitative et radicale. 2 4 Le commerce électronique À l’heure actuelle, la croissance « explosive » d’Internet est due, pour l’essentiel, au développement de l’Internet marchand, c’est-à-dire d’applications à caractère commercial souvent regroupées sous l’expression commerce électronique. Désormais, la plupart des entreprises sont confrontées à la concurrence d’entrepreneurs utilisant certaines potentialités d’Internet pour développer des métiers nouveaux ou aborder des métiers anciens de manière différente. Les réalisations sont désormais très nombreuses et très variées ; cependant, les positionnements stratégiques adaptés se réduisent à trois types principaux, selon le rôle que l’on confie à Internet : outil de contact, outil transactionnel, outil d’intégration. 1. Premier positionnement : Internet, outil de contact La conception la plus simple consiste à considérer Internet comme un outil de diffusion (communication unilatérale d’informations) apte à informer sur l’entreprise, ses produits, ses performances.. . La plupart des organisations importantes (institutions publiques, associations privées, entreprises) ont désormais un site Web informatif, qui joue le rôle de vitrine. Ce positionnement informationnel confère à Internet le rôle classique d’un média en marketing. Ainsi, selon Monod et Rowe : « Internet est une télévision dont le contenu est permanent et consultable au moment où on le désire, bref, un journal. Mais un journal dont le contenu change à la vitesse de la radio, dont chacune des pages peut certifier qu’elle a été vue par un lecteur. » Internet est donc d’abord un espace pour faire de la publicité et de la promotion des ventes ; pour ce type de positionnement, le critère déterminant est la qualité de l’accès, c’est-à-dire le degré de couverture de la cible (le site est-il consulté par la grande majorité des clients potentiels ?). En revanche, ce type de positionnement n’exige aucune modification importante de l’organisation de l’entreprise. 2. Deuxième positionnement : Internet, outil transactionnel Dans la mesure où Internet permet l’interactivité, il semble naturel de l’utiliser comme support des transactions commerciales. Cela conduit directement à la notion de « commerce électronique » : sont concernés par ce terme tous les échanges et toutes les transactions qu’une entreprise peut être amenée à faire au travers d’un média électronique ou d’un réseau (selon la définition de l’Association française du commerce et des échanges électroniques). On distingue deux grandes formes de commerce électronique : 1) d’entreprise à entreprise (Business to Business, en agrégé B2B) ; 2) d’entreprise à consommateur final (Business to Consumer, B2C). La valeur des transactions effectuées par commerce électronique croît à un taux élevé mais le B2C ne représente qu’une très faible partie du commerce électronique. Le positionnement stratégique est fondé sur la réduction des coûts de transaction et sur la réduction de la dépendance vis-à-vis des canaux usuels. Comme le précisent M. Amami et J. Thévenot, le choix d’Internet comme support de transactions marchandes peut obéir à trois logiques différentes. 1) Marché contrôlé par le vendeur : les exemples les plus représentatifs sont des vendeurs de produits de haute technologie : Cisco, leader mondial de routeurs de télécommunications ou Dell, leader en micro-informatique. On offre au client l’interaction avec des experts techniques pour mieux préciser la demande, vérifier et suivre l’état de la commande. Si le produit ou le service vendu est 1. Sur cette question, cf. l’ouvrage très complet de H. Isaac, P. Volle, E-commerce, Pearson, 2011. réductible à de l’information numérisable, la livraison au client par l’intermédiaire du réseau peut s’effectuer dans d’excellentes conditions de délais et de coûts ; dans ce cas, le B2C présente un intérêt évident : les exemples les plus classiques sont la vente d’informations et de conseils, la vente de livres électroniques sous forme de fichiers textes, la vente de musique sous forme de fichiers numériques compressés à la norme MP3.. . 2. Marché contrôlé par l’acheteur : c’est un domaine en pleine expansion dans le B2B. Les premières applications ont été la création de plates-formes d’achat dans les grandes entreprises, au début pour l’acquisition de fournitures de bureau ou de billets d’avion pour l’ensemble des unités. On étend désormais l’activité de ces plates-formes d’achat (uni ou multientreprises) à l’achat de composants entrant dans les processus de fabrication des produits, pour une mise en concurrence systématique des fournisseurs. 3. Marché contrôlé par l’intermédiaire : certaines entreprises se sont développées dans une fonction d’intermédiation ; elles pensent pouvoir bénéficier du phénomène d’agrégation d’une demande dispersée et de la mise en concurrence des fournisseurs (éventuellement par des systèmes d’enchère comme sur eBay) pour dégager des marges intéressantes. Le positionnement transactionnel a, de toute évidence, des conséquences plus lourdes pour l’entreprise que le simple positionnement de contact. Il est indispensable de maîtriser les problèmes logistiques et les problèmes liés au paiement et à la sécurité ; l’impact sur l’organisation peut être important (changement pour les services commerciaux, les services de livraison, d’après-vente. . .) ; les risques de cannibalisation des canaux existants sont sérieux ; la confiance des consommateurs n’est pas facile à construire. 3. Troisième positionnement : Internet, outil d’intégration Ce positionnement consiste à développer un réseau reconfigurable de partenaires dotés de compétences variées pour pouvoir intégrer, personnaliser et développer de nouveaux produits afin d’offrir au client le meilleur service. Un tel schéma ambitionne de mettre fin à la standardisation des produits : le client exprime, via Internet, ses besoins. Ce choix va déclencher une série de commandes en chaîne (de l’intermédiaire vers des fournisseurs de premier puis de second niveau, vers les assembleurs, les transporteurs et éventuellement les institutions financières). L’avantage est une personnalisation du produit ou du service lié à la disposition de stocks intermédiaires ; la contrepartie est un partage d’informations entre les partenaires. On matérialise ainsi le concept d’entreprise étendue et l’on s’achemine vers la création de communautés virtuelles associant différents fournisseurs situés le long de la chaîne de valeur et leurs clients. Ce type de positionnement entraîne des modifications considérables dans le mode de fonctionnement de l’entreprise : concentration sur les compétences clés, segmentation très forte des marchés, nécessité de développer un capital de confiance solide, établissement d’une forte image de marque, maîtrise technique des relations entre partenaires. . . Il semble promu à un grand avenir car tous les acteurs peuvent y trouver un intérêt : les entreprises qui offrent un service adapté, le logisticien qui procède à une livraison unique, le client qui réduit le temps consacré à l’achat. . . 2 1 4 Le commerce électronique avec les consommateurs (B to C) Le recours à la technologie Internet pour améliorer sa position concurrentielle, créer de la valeur, attaquer de nouveaux marchés.. . semble s’imposer de plus en plus. Cependant, l’utilisation d’Internet ne va pas sans poser un certain nombre de problèmes spécifiques dont la solution conditionne le succès d’une « stratégie Internet ». 1. Premier problème : faire connaître son site Web Quel que soit son positionnement stratégique, une entreprise ne peut tirer des avantages de sa présence sur Internet que si son site est visité par de nombreux internautes dont les caractéristiques correspondent aux objectifs commerciaux visés. Un site Web doit être connu pour être visité. Or la multiplication des sites conduit chaque entreprise à se démarquer de ses concurrents et à atteindre une visibilité supérieure à la leur ; pour cela, elle doit recourir au webmarketing dont les éléments principaux sont, selon T. Isckia, le référencement, le netlinking, le mailing électronique et la publicité. 1. Le référencement consiste à inscrire le site dans un moteur de recherche ou un annuaire ; la plupart des internautes commencent en effet leur recherche par la consultation d’un moteur de recherche ou d’un annuaire ; ces derniers affichent en réponse des listes de sites correspondant à la question posée ; sachant que peu d’internautes vont audelà de 20 sites, l’enjeu pour l’entreprise est d’apparaître en bonne place dans la liste affichée. Le travail de référencement est en pratique complexe et, souvent, doit être confié à des sociétés spécialisées. 2. Le netlinking (échanges de liens) consiste à identifier des sites prescripteurs, à les contacter pour leur faire part de l’existence du site de l’entreprise et leur proposer d’établir un lien unilatéral ou réciproque vers les pages de l’entreprise à l’aide d’une navigation hypertexte. 3. La publicité : tous les supports classiques (presse, affiche, radio, télévision) peuvent être utilisés pour faire connaître l’existence d’un site Web. Mais l’entreprise a souvent intérêt à employer Internet comme support. Pour cela, elle peut proposer l’insertion de « bannières » publicitaires (fixes, animées, sonores) sur des sites adaptés (portails, sites d’associés) permettant par un simple « clic » d’arriver sur le site annoncé. La notoriété du site est une condition du succès ; il semble souhaitable que cette condition soit prise en compte lors de l’élaboration d’une stratégie Internet et que des ressources spécifiques soient affectées à cette question. 2. Deuxième problème : assurer la qualité de la relation Via Internet, l’entreprise établit des relations avec ses clients et ses partenaires. La qualité de cette relation est primordiale pour la construction de la confiance ; elle dépend, dans le cas général, de la qualité du site Web mais aussi de la façon dont elle est gérée lorsque s’effectue une transaction effective portant, en particulier, sur des biens tangibles. a – La qualité du site Selon O. Perez, un site Web peut être évalué selon neuf critères : – ergonomie : navigue-t-on facilement sur le site ? – technologie : le site est-il techniquement fiable (par exemple, bon fonctionnement des liens hypertexte) ? – graphisme : l’esthétique du site est-elle satisfaisante ? – actualité : le site est-il mis à jour régulièrement ? – richesse de l’information : l’information est-elle à valeur ajoutée ou simplement de type carte de visite ? – accès à l’information : trouve-t-on facilement une information sur le site ? – écoute du client : le site favorise-t-il le dialogue avec l’entreprise ? – convivialité : le site est-il convivial ? (page d’accueil, rubriques distrayantes) – service : le site offre-t-il des services interactifs en ligne ? Un « bon site » doit séduire l’utilisateur, répondre à ses attentes et bien se servir des ressources de la technologie. b – La qualité dans la gestion de la relation Dans le cas des sites transactionnels, l’échange commercial aboutit à la livraison de produits et à l’encaissement du paiement. Il est possible d’obtenir une bonne qualité dans la communication avec le client (avant et après l’achat) grâce à une utilisation appropriée d’Internet, mais l’expérience montre que la relation est particulièrement sensible à la façon dont sont gérés des incidents classiques : erreurs de livraison, erreurs de facturation, retards de livraison, incidents de paiement, retours clients. . . La sophistication de la technologie ne dispense pas de la rigueur dans les opérations logistiques d’une part, ni de la très grande attention à apporter aux réclamations des clients (en particulier dans le B2C) d’autre part. 3. Troisième problème : assurer la sécurité des paiements Dans les relations sur Internet, l’émetteur et le récepteur sont physiquement distants et ne possèdent aucune preuve de l’identité de chacun. L’acte de paiement repose sur la confiance entre les cocontractants (et ce problème est particulièrement important en B2C). Le paiement en ligne, à distance, doit pouvoir répondre à plusieurs exigences (D. Bounie) : – « authentification » du donneur d’ordre : l’utilisateur est-il réellement celui qu’il prétend être ? – intégrité des données transmises : le message peut-il être modifié ? – confidentialité de la transaction : un tiers non autorisé peut-il lire le message ? – anonymat de la transaction : un tiers connaît-il les achats de l’utilisateur ? – autorisation : l’utilisateur est-il autorisé à faire cette transaction ? Une première famille de solutions consiste à sécuriser les protocoles de communication dans les réseaux ouverts. Par exemple, le protocole SSL (Secure Socket Layer) repose sur une cryptographie qui permet de sécuriser la transmission du numéro de carte de crédit en ligne. D’autres systèmes, conduisant à des échanges plus complexes, font intervenir un « tiers de confiance » chargé d’effectuer le paiement après vérification de la véracité de la transaction. Remarque Le problème de la sécurisation des paiements est très important pour le B2C où les transactions sont souvent ponctuelles entre partenaires qui ne se connaissent pas. En B2B, les pratiques habituelles du crédit interentreprises et de relations fondées sur la confiance rendent la question moins prégnante. 4. Quatrième problème : disposer d’un cadre juridique clair Comme le soulignent S. Dusollier et L. Robin Jacquemins, « le marché électronique a un besoin crucial de connaître les règles du jeu. . . Pour cela, le cadre juridique doit être clair, stable et prévisible à la fois pour permettre à de nouveaux commerçants électroniques de faire face à tous les défis soulevés par le développement de nouveaux produits et services et assurer la confiance des consommateurs dans le nouveau marché électronique ». Sont concernés, en particulier : – l’identification obligatoire des fournisseurs de produits ou services (qui se cache derrière le site Web?) ; – la réglementation de la communication commerciale (interdiction de la publicité pour certains produits, réglementation des jeux et concours, des offres promotionnelles.. .) ; – la protection du consommateur dans la définition du contrat à distance (nature des informations préalables, confirmation écrite de l’information, droit de rétractation. . .) ; – le statut de la signature électronique (validité et valeur probante de la signature, rôle des intermédiaires de certification) ; – le paiement électronique (voir ci-avant) et les conditions d’utilisation de la monnaie électronique ; – le régime de la TVA des ventes en ligne (taux applicable selon le lieu de la transaction ?) ; – la protection des droits d’auteur (problème particulièrement aigu avec la numérisation de la musique et des livres. . .), donc la protection des droits de reproduction, de communication au public, de distribution et la protection des bases de données. 2 2 4 Le commerce électronique entre entreprises (B2B) Le commerce électronique entre entreprises (B2B) représente l’essentiel du commerce en ligne. À l’origine, il reposait essentiellement sur des liaisons bilatérales de type EDI ; puis le développement d’Internet et d’XML, plus souple d’utilisation et moins coûteux, a favorisé la communication avec le client à l’aide de catalogues en ligne. L’évolution actuelle consacre l’émergence des marchés électroniques ou marchés en ligne. Ce sont des systèmes d’information interorganisationnels, des espaces virtuels de communication où, grâce à des infrastructures technologiques accessibles par Internet, des acheteurs et des vendeurs peuvent échanger des informations et effectuer des transactions. Ces marchés en ligne peuvent apporter des réductions de coûts, une rapidité accrue des échanges, une ouverture mondiale, et améliorer la gestion des relations de l’entreprise avec ses partenaires. PLATE-FORME D'ACHAT PLACE DE MARCHÉ PORTAIL SPÉCIALISÉ Clients concentrés, peu nombreux et initiateurs du projet Fournisseurs nombreux Priorité à l'efficacité de la chaîne d'approvisionnement et à la mise en concurrence Objectif clé : baisse des prix et des coûts d'achat Clients nombreux, mais initiateurs neutres Fournisseurs nombreux Priorité à la transparence sur les prix et les coûts de transaction Objectif clé : mise en relation et baisse des coûts de transaction Nombreux clients segmentés Fournisseurs peu nombreux et initiateurs du portail Priorité aux besoins des clients et à leur fidélisation Partenaires complémentaires sélectionnés Objectif clé : chiffre d'affaires / fidélisation ACHAT ACHAT / VENTE VENTE / MARKETING / SERVICE Figure 4.14. Les trois types de marchés en ligne (Pick et al., p. 85) Selon Pick et al. 1 (à qui nous empruntons l’essentiel de ce développement), il existe trois grands types de marchés en ligne (figure 14) : – les plates-formes d’achat et d’approvisionnement ; – les places de marché ; – les portails spécialisés. 1. Les plates-formes d’achat et d’approvisionnement : le e-achat Ce sont des systèmes de transaction informatisés multilatéraux, dont l’accès est réservé aux adhérents, développés à l’initiative des acheteurs. a – Objectifs Les objectifs visés par le recours à ces plates-formes sont : – la réduction du coût du processus d’achat et de réapprovisionnement par l’automatisation des opérations de routine (documents.. .) ; – la réduction des coûts de stockage (la diminution des stocks découle de la réduction des délais de livraison) ; – la réduction du prix des biens achetés par une mise en concurrence élargie à un panel de fournisseurs plus important et la pratique d’enchères inversées ; – une amélioration de la qualité des produits achetés (meilleure sélection). b – Fonctionnalités principales Les applications constituant la plateforme d’achat offrent les possibilités suivantes : – catalogues complets des produits et des fournisseurs accessibles ; – possibilité de vérification en ligne de la disponibilité des produits ; – documents accompagnant la négociation ; – possibilité de lancer des appels d’offres et de gérer les enchères émises auprès des fournisseurs (enchères inversées) ; – passation et suivi des commandes ; – contrôle de qualité ; – analyses statistiques sur les achats. . . L’accès à ces fonctionnalités suppose une harmonisation des bases de données produits entre clients et fournisseurs potentiels et une modification du traitement informatisé des achats chez les clients pour qu’ils soient compatibles avec les applications offertes par la plate-forme d’achat. Exemples de plates-formes d’achat – Covisint créé dans le secteur automobile pour les achats de Ford, General Motors, DaimlerChrysler, Renault-Nissan. – Agentrics dans le secteur de la grande distribution (Carrefour, Auchan, Leclerc. . .). – Answork créé par les banques françaises (BNP-Paribas, Crédit Agricole, Société Générale.. .) pour leurs achats de fonctionnement. 1. PICK J. D., SCHNEIDER D., SCHNETKAMP G., e-Markets, les nouveaux modèles du B2B, First éditions, Paris, 2001. 2. Les places de marché Ce sont des sites, développés par des intermédiaires spécialisés, qui offrent un lieu de rencontre neutre pour de nombreux vendeurs et acheteurs. Mais le succès attendu n’est pas (encore ?) au rendez-vous. a – Objectifs Les places de marché électroniques remplissent les fonctions économiques classiques du marché, essentiellement la mise en relation d’acheteurs et de vendeurs. Elles doivent offrir un bénéfice économique à leurs utilisateurs : augmentation des ventes, diminution des coûts d’achat et des coûts de distribution, amélioration de la qualité. . . Cet objectif est d’autant mieux atteint que la taille de la place de marché est importante : le nombre de transactions potentielles s’accroît très vite avec l’augmentation du nombre de partenaires (effet de réseau). Pour les opérateurs, intermédiaires animateurs de la base, les revenus proviennent de droits d’adhésion, de commissions sur les transactions, de revenus publicitaires payés par les vendeurs, de ventes d’informations statistiques ou de ventes de services spécifiques (vérification de la solvabilité des clients, organisation logistique des livraisons, assistance pour la sécurisation des règlements.. .). 3. Les portails spécialisés : le modèle « direct » « Ce sont des plates-formes intégrées de marketing, de vente, de prestations de services, qui couvrent la totalité des besoins d’une cible donnée, en matière à la fois d’information et de transactions » (Pick et al., p. 87). Ils sont mis en place à l’initiative des vendeurs. a – Objectifs Les portails spécialisés permettent de toucher individuellement des clients dispersés (marché fragmenté) ; il est possible par Internet d’accéder à de petits clients, de façon personnalisée et peu coûteuse. Organisés à l’origine pour une certaine catégorie de produits (ceux fournis par l’initiateur du portail), ils évoluent souvent vers la couverture de l’ensemble des besoins du client. Ils offrent aux clients la possibilité d’une réponse immédiate à leurs questions et le support automatisé pour le traitement complet de la transaction (livraison et règlement). L’objectif majeur est de développer une relation stable avec le client par un marketing ciblé, un service personnalisé, une assistance forte à l’acte d’achat, un support au service aprèsvente : on peut ainsi identifier et fidéliser les meilleurs clients. Le portail joue le rôle d’un canal de distribution qui remplace ou, plus souvent, qui complète les canaux existants en contribuant à l’accroissement des volumes vendus. b – Fonctionnalités Le portail spécialisé tend à couvrir la totalité des besoins d’achats de ses clients. Il doit donc proposer un large éventail de produits et de services ; cela implique de regrouper autour de l’offreur initial les offres d’autres fournisseurs partenaires (offres complémentaires). Il doit permettre ensuite au client de définir ses besoins précis (personnalisation). Il doit assurer un traitement complet de la transaction par voie électronique : contrôle de la disponibilité du produit, enregistrement de la commande, déclenchement de la livraison, facturation et règlement, assistance à l’utilisation et service après-vente. Toutes les données concernant les interactions avec le client (demandes d’information, transactions. . .) sont conservées pour être réutilisées dans la gestion de la relation. Exemples – Dell Computer, spécialiste de micro-informatique, leader mondial, utilise le canal de la vente directe et la fabrication sur mesure. (Les en-cours sont extrêmement réduits.) À partir d’un catalogue très détaillé, le client, assisté par un logiciel, définit la configuration de son ordinateur et passe sa commande. Il peut, à tout moment, suivre l’état de cette commande. Il dispose d’un accès aux données techniques, de logiciels de diagnostic en ligne, de serveurs avec moteurs de recherche pour l’assistance technique après la vente. L’offre d’origine, les micro-ordinateurs, a été élargie à des matériels périphériques, à des logiciels puis à des mobiliers et fournitures de bureau proposés par des fournisseurs partenaires. – Restaupro, portail lancé par le groupe ACCOR, propose aux restaurateurs toute une gamme de produits et services nécessaires à leur activité. Même si leur avènement a donné lieu à des prévisions sans doute exagérées par les tenants de la « nouvelle économie », les marchés en ligne sont aujourd’hui une réalité que les entreprises ne sauraient ignorer. Pour résumer L’évolution très rapide des technologies de la communication entraîne des modifications considérables dans la gestion des organisations. La compression du temps, l’abolition de l’espace, la possibilité de transmettre sous des formes variées de très grandes quantités d’information à des coûts très faibles conduisent à des bouleversements continuels dans les processus de travail, dans les modes de coordination interne, dans la façon de concevoir la collaboration entre les organisations. La forme même des organisations, le fonctionnement des marchés sont et seront affectés par ce phénomène. Nous sommes au coeur d’une évolution de grande ampleur, comparable à la révolution industrielle du XIXe siècle. Tous les gestionnaires sont concernés car, de proche en proche, les modifications se transmettent ; certains d’entre eux auront à faire face à des mouvements de grande amplitude impliquant la disparition d’activités actuelles et la création d’activités nouvelles. La gestion de ces modifications constitue un défi redoutable.