integration de l`analyse dans la phase de resolution de probleme en
Transcription
integration de l`analyse dans la phase de resolution de probleme en
8e Conférence Internationale de MOdélisation et SIMulation - MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie « Evaluation et optimisation des systèmes innovants de production de biens et de services » INTEGRATION DE L'ANALYSE DANS LA PHASE DE RESOLUTION DE PROBLEME EN VUE DE RETOUR D'EXPERIENCE 1 H. JABROUNI1,2, B. KAMSU1 et L. GENESTE1 Laboratoire Génie de Production – Ecole Nationale d'Ingénieurs de Tarbes 47, Avenue Azereix – BP 1629 65016 Tarbes Cedex 2 ALSTOM TRANSPORT Rue du Docteur Guinier - BP 4 - 65600 Séméac {jabrouni, bkamsu, laurent.geneste}@enit.fr RESUME : En situation de résolution de problèmes, l’investissement intellectuel des experts est souvent considérable. Les connaissances expertes exploitées dans de tels cas sont très importantes à capitaliser afin de limiter l’effort à fournir lorsque des situations similaires se présenteront. Les occasions d’exploitation de connaissances expertes sont nombreuses : prise de décision en présence d’un nombre important d’indicateurs, résolution de problèmes sous incertitude, configuration experte, … Il est alors nécessaire d’assister les experts dans leurs tâches de résolution de problèmes en leur évitant de produire de nouveaux efforts impliquant un niveau d’expertise élevé. Pour cela, les connaissances qu’ils manipulent doivent être mémorisées et modélisées tout en étant facilement adaptables et réutilisables. L’exploitation des connaissances doit pouvoir être faite par les experts eux-mêmes ou par d’autres experts afin de permettre le partage de connaissances. MOTS CLES : Retour d’expérience, management des connaissances, résolution de problèmes, analyse des causes, incertitude. 1 INTRODUCTION ET PROBLEMATIQUE 1. Les processus de résolution de problème sont, en général, assez lourds à mettre en œuvre et ne sont souvent déclenchés que pour la résolution de problèmes complexes (nécessitant un niveau d'expertise élevé) et critiques (ayant un impact très négatif sur le client, sur la sécurité ou sur la performance de l'entreprise par exemple). Pourtant, l'un des défauts majeurs de ces processus réside dans l'impossibilité, a priori, de réutiliser la connaissance engagée pour la résolution d'un problème passé, en particulier celle des experts en phase d'analyse. La capacité à capitaliser et à réutiliser cette connaissance constitue ainsi un moyen puissant d'optimisation et de rationalisation du processus de résolution de problème. Nous qualifions d'expérience le fragment de connaissances capitalisées lors du travail des experts pour la résolution d'un problème et de retour d’expérience le processus qui permet d'organiser la capitalisation et l'exploitation de ces expériences. La nature des informations capitalisées a été caractérisée notamment dans (Rakoto, H, 2004) et (Hermosillo, 2005) lors de l'application des démarches classiques de résolution de problème. Les méthodes font intervenir quatre grandes catégories d'informations : le contexte, l'analyse, les solutions et les leçons apprises. Dans la suite, ce papier va être focalisé sur la proposition de mécanismes d’analyse pertinents favorisant la réutilisation efficace des connaissances capitalisées avec une meilleure gestion des aspects de similarité et d’incertitude. 2 POSITIONNEMENT- ETAT DE L’ART 2.2 Positionnement par rapport aux démarches de résolution de problèmes Dans le contexte de l'amélioration continue des produits, des services et des processus dans les entreprises, la mise en place d'un processus de retour d'expérience vise à proposer une solution pratique favorisant l'accélération de la résolution de problèmes déjà survenus et leur non-répétition. Dans le cas des problèmes complexes (nous qualifions de problèmes complexe des problèmes dont les causes et les solutions sont a priori inconnues), une démarche de résolution de problème est souvent utile. Nous rappelons la définition d’une démarche de résolution de problème présenté par (Hosotani, 1997) : un processus de résolution de problème est un ensemble d’activités qui permettent de résoudre de manière organisée et MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie systématique des problèmes complexes. Cette démarche s’appuie en général sur l’utilisation de règles, de principes, de connaissances expertes. Elle peut mobiliser, de façon structurée et logique, un ensemble d’outils et de techniques. Quelque soit la démarche retenue, on retrouve les même étapes de raisonnement : La définition d’une équipe de résolution de problème ; La description et l’évaluation de la criticité des événements ; La caractérisation du problème ; L’analyse des événements afin d’en rechercher les causes racine et la validation de cette analyse ; La proposition d’une solution au problème et son application (solution curative) ; La suggestion d’actions pour éviter une nouvelle occurrence du problème (solution préventive, leçons apprises, etc.). Figure Il existe deux grandes approches de démarche de résolution de problème (Hosotani, 1997) : La démarche théorique qui est également dénommée méthode déductive. Cette démarche est utilisée pour résoudre des problèmes en appliquant des mécanismes d'inférence issus de la recherche (par exemple le recuit-simulé, la propagation de contraintes, etc.). La démarche de résolution de problèmes par les outils issus de la qualité. Celle-ci pourrait être qualifiée d’approche inductive, au cours desquelles les causes des problèmes sont identifiées par une série d’outils, permettant de remonter jusqu’à leur source en partant des faits observés. Dans la suite de notre étude, nous retiendrons cette dernière démarche. Elle est souvent instrumentée par des outils qui varient selon la méthode retenue. Généralement dans tous les cas, on retrouve le cycle PDCA de Deming, indépendamment de la méthode retenue, comme indiqué dans la figure 1. : Cercle PDCA de Deming La phase de recherche des causes, souvent appelée la phase d’analyse est la phase phare d’une méthodologie de résolution de problème. Quelle que soit la méthode de résolution de problème retenue, l’analyse est toujours guidée par le processus d’analyse des causes racines dit du Roots Cause Analysis (RCA). Ce processus part du constat qu’il est plus judicieux de traiter les causes profondes d’un problème que d’en traiter les symptômes immédiats. Puis qu’analyser les causes d’un problème permet d’en déterminer une solution définitive, et donc d’empêcher qu’il ne se reproduise de nouveau. Le RCA peut être considéré comme un élément contributeur à des processus itératifs d’amélioration continue (DE Mast, 2004) et représente une démarche commune destinée à résoudre les problèmes d’une manière rationnelle et méthodique. Des actions isolées ne sont d’aucune efficacité (Hosotani, 1997). On s’aperçoit souvent que ce sont des actions ponctuelles, menées sans une connaissance suffisante du problème qui engendre l’échec de la résolution. Les causes réelles doivent alors être diagnostiquées au stade de l’analyse des causes, afin de pouvoir engager des actions correctives appropriées. Les principales étapes de la RCA sont : Étudier les relations de cause à effet, d’un point de vue technique et en fonction de l’expérience passée puis les récapituler dans un diagramme causeeffets. Réunir des informations factuelles à l’aide des outils appropriés (ex : feuilles de relevés) Étudier les relations de cause à effet à l’aide des méthodes de la qualité, analyser les données expérimentales passées, organiser les données à MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie observer au quotidien et analyser au moyen de graphiques, histogrammes, cartes de contrôle, analyse de la variance, analyse de régression, etc. Faire la synthèse des causes permettant de retenir celles qui ont été validées. Cette validation est habituellement faite par des outils contextuellement adaptés (plan d’expérience, diagramme de Pareto, tests industriels…). Selon le niveau d’expertise engagée, trois possibilités de situations peuvent être identifiées lors de la phase d’analyse : (Goetschmann et al. 2003): Le groupe d’experts connaît, sans ambiguïté possible, les causes réelles du problème. Dans ce premier cas, le groupe peut passer directement à la recherche et au choix de la solution. Le groupe d’experts pense connaître les causes. Dans ce deuxième cas, le groupe vérifie les causes présumées avant de passer à la recherche d’une solution potentielle. Le groupe d’experts n’a pas d’idées précises sur les causes réelles du problème. Dans ce troisième cas, le groupe fait une recherche de toutes les causes possibles. Il recueille des faits et des indices qui permettront d’identifier les causes réelles du problème. Nous retenons cette dernière possibilité de situation dans la suite de ce document. 2.2 Positionnement par rapport aux techniques de réutilisation des expériences Le processus d’exploitation est constitué des activités permettant de diffuser et d’employer les connaissances capitalisées dans les processus des organisations. De même, l’exploitation des expériences stockées peut se faire par des techniques de retour d’expériences. En effet, dans un premier temps les connaissances métier mémorisées sous forme d'expériences permettent de sauvegarder à la fois le contexte d'émergence de la connaissance et des informations précises sur son explicitation, cela par rapport au point de vue et aux connaissances de l'expert concerné. Dans un second temps, des techniques de réutilisation d’expériences permettent d’utiliser les expériences passées afin d’aider l’expert dans sa résolution de problèmes. C’est le cas notamment du raisonnement à partir de cas, noté RàPC, que nous présentons dans la section suivante. D’autres méthodes, dérivées du RàPC intègrent davantage des éléments de l’expérience. Nous pouvons citer ici le Raisonnement à Partir de Trace (RàPT) qui repose sur l’enregistrement temporel des unités d’informations appelées « Trace » (Champin et al. 2004). Sun et Finnie (Sun et Finnie, 2004) proposent une idée plus générale d’Experience Based Reasoning (EBR). Cette approche de recherche consiste à formaliser tout type de raisonnement basé sur l’expérience à partir d’une ou plusieurs règles d’inférence qui constituent, selon les auteurs, la base des raisonnements qu’il est possible d’exprimer à partir de l’expérience. Toutefois, le paradigme de raisonnement à partir de cas RàPC (Aamodt et Plaza, 1994) reste le plus connu de ces outils cités précédemment. Le principe de raisonnement à partir de cas est de constituer une base de raisonnement à partir de cas antérieurs déjà éprouvés et validés. Cette approche consiste à récupérer une solution existante ayant permis par le passé de résoudre un problème similaire à celui que l’on est en train d’aborder. A partir de la description du problème à résoudre, il s’agit de donner des éléments d’information suffisants pour permettre à une fonction de similarité d’accéder aux cas les plus voisins du cas décrit. Les outils développés permettent d’adapter les solutions des cas récupérés dans la base. Signalons que cette méthode est basée sur l’hypothèse d’avoir des solutions similaires lorsque les problèmes sont semblables. La figure 2 montre la nouvelle alternative du raisonnement à partir de cas. Nous nous sommes d'abord intéressés à l’approche classique du RàPC qui est un mode de raisonnement très connu en intelligence artificielle dans lequel le mécanisme d’inférence repose sur la réutilisation de la solution du cas retrouvé ayant un contexte (ensemble d’attribut) similaire au nouveau cas. Cependant, ce type de raisonnement n’est particulièrement pas adapté au contexte de l’amélioration continue dans lequel se situe notre problématique.. Deux problèmes survenus dans un contexte similaire ont souvent des solutions différentes notamment dans le cadre de problèmes complexes et le processus d’adaptation devient de plus en plus délicat. Quant à la nouvelle alternative, la description d’un évènement et de son contexte peut servir comme d’élément d’entrée à l’analyse experte dans laquelle l’analyse est décrite par une hiérarchie d'attributs. Nous montrons par la suite que la valeur de chaque attribut peut être partiellement connue et décrite par une fonction de croyance sur le domaine correspondant. MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie Cycle RàPC classique Figure 3 Nouvelle alternative du RàPC : Illustration sur l’utilisation d’un cas pour la résolution de problèmes MODELISATION DE L’ANALYSE 3.1 Représentation de l’analyse des causes par des outils qualité Dans la partie suivante nous introduisons brièvement quelques outils issus des approches qualité dédiés à la représentation de la phase d’analyse. Cela nous permet de positionner le retour d’expérience par rapport à ces méthodes. Figure 3.1.1 Diagramme cause-effet ou diagramme d’Ishikawa Le diagramme cause-effet (Chevel, 2000) permet de visualiser de façon simple l’ensemble des causes potentielles concernant le constat d’un effet quelle que soit la nature du problème concerné. Il se présente sous la forme d'arêtes de poisson dont la tête encadre l’effet dont on veut connaître les causes (cf. figure 3). : Diagramme cause-effet ou diagramme d’Ishikawa Après avoir identifié le problème en termes d’effet, on liste les causes potentielles par famille. Ces familles correspondent souvent aux 5M (Main d’œuvre, Matériel, Matière, Milieu), mais ceux-ci peuvent être aussi remplacés d’autres classifications propres à l’entreprise (par type de métier par exemple). 3.1.2 Diagramme ACE Le diagramme d’Ishikawa a d’abord connu une première mutation : le diagramme cause-effet par la méthode des processus. Cette évolution provient de l’ajout d’un diagramme de cheminement qui permet ainsi de visualiser l’ensemble des causes potentielles concernant l’effet constaté aux différentes étapes de réalisation d’un processus, et non plus en les groupant par famille. Le diagramme ACE (Action sur les Causes d’Erreurs) (Cheuvel, 2000) est une variante d’un diagramme de causes-effet méthode des processus. Il permet de traiter un problème au niveau d’un processus en utilisant le diagramme cause effet comme support du suivi du plan d’action (cf. figure 4). A chaque étape du processus est associé un Diagramme de Pareto des non-conformités mis à jour périodiquement. De plus, est associé à l’effet un Graphique temporel représentant le pourcentage d’unités non conformes observé durant la dernière période de temps. La figure ci-dessous montre ce type de diagramme. MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie Figure : Diagramme ACE 3.1.3 Arbre de cause ou de défaillance L'arbre des causes (arbre de défaillance) est généralement utilisé dans le domaine des risques professionnels. La méthode consiste à construire une représentation graphique de la chaîne des événements qui a conduit à la défaillance principale. Les branches de l’arbre sont ainsi construites en s’appuyant sur le Why Why Analysis appelé aussi « 5 pourquoi », qui Figure 3.2 permettent d’identifier l’origine d’un problème (root cause) en amenant les experts à s'interroger progressivement sur le problème en se posant la question à plusieurs reprises du « pourquoi ? ». La représentation graphique de la liste des causes potentielles se fait en arborescence sous forme d’arbre des causes. La figure 5 montre ce diagramme. : Exemple d’arbre de cause Vers un modèle formel d’analyse Dans l'approche présentée, nous avons choisi de proposer une méthode d’analyse très simple. Il s’agit d’un filtre qui permet de ne considérer que l’information utile. En effet, si les événements capitalisés ne sont pas bien bornés ni bien distingués (modélisés précisément), l’application de la réutilisation de cette connaissance en « action » a de fortes chances d’être trop exhaustive dans certains cas et pas assez précise dans d’autres. Pour cela, nous allons proposer un schéma fonctionnel de la phase d’analyse permettant de mieux décrire la qualité des données et de modéliser convenablement l’expertise. 3.2.1 La qualité des données Dans le domaine du retour d’expérience la qualité des données est primordiale, car elle impacte directement la fiabilité des résultats et l’interprétation du retour d’expérience. Avant toute étude ou analyse de retour d’expérience, une vérification de la qualité des données doit être effectuée. Trois critères de vérification permettent à un analyste de s’assurer de la qualité des données : MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie Leur cohérence, Leur validité, leur représentativité, et homogénéité dans le cas de multi-experts, Leur exhaustivité. leur La qualité des données doit être évaluée à plusieurs niveaux : Au niveau de la collecte, avant l’introduction des informations, lors de l’analyse a priori de l’événement Au niveau du traitement ou de l’analyse statistique, pour l’analyse à posteriori de l’événement. On peut ainsi définir des indicateurs de mesure de la qualité d’information : Concernant la collecte : par exemple, le taux de remplissage, la quantification de l’erreur humaine, la cohérence entre champs codés… Concernant l’analyse : par exemple la mise en évidence de comportements singuliers, le facteur d’erreur, des lois de distribution, la quantification des incertitudes. Toutes ces contraintes doivent être intégrées dans le cadre de la formalisation d’un modèle d’analyse. 3.2.2 Modélisation de l’expertise Sur la base du modèle utilisé d’arbre des causes, nous proposons un schéma fonctionnel de la phase d’analyse qui comprend les étapes suivantes: La description de l’évènement problématique qui est exprimé sous forme d’hypothèses d’expertises contextualisées. Durant la phase d’analyse, ces hypothèses doivent être détaillées sous forme de plusieurs hypothèses élémentaires (H1, H2, H3…..Etc.). Pour mieux cerner le problème, chacune de ces hypothèses sera à son tour détaillée plus finement en d’autres hypothèses (H11, H12, H13..etc.) à l’aide d’outils appropriés comme le 5 Pourquoi. Ces hypothèses fines contiennent de l’incertitude qui peut être représentée par une mesure traduisant le degré de confiance ou de certitude de l’expert sur les hypothèses exprimées. Les experts doivent naturellement chercher à valider en priorité les hypothèses (causes racines potentielles) possédant les degrés de plausibilité les plus forts. Cette phase de validation consiste à appliquer un filtre pour déterminer les hypothèses retenues comme étant les causes racines les plus pertinentes du problème. La figure 6 reprends les étapes décrites précédemment : Événement Hypothèses Pb Probabilité / incertitude H11 H1 H12 H2 H13 H3 H41 H4 H42 P11, Validation θ11 P13, θ 13 P42, θ 42 H43 Figure : Schéma fonctionnel de la phase d’analyse Les expériences peuvent être considérées comme des collections d’informations qui traduisent un contexte dont les informations sont rarement connues avec précision. Elles peuvent aussi être totalement inconnues dans certains cas. Le formalisme pour modéliser les expériences doit permettre de représenter ces imperfections de l’information et de les intégrer dans les différentes étapes du schéma fonctionnel de la phase d’analyse afin de disposer de résultats convenables. L’incertitude doit alors être propagée des données initiales jusqu’au résultat final. L’information n’est que très rarement une donnée fiable et parfaite. Plusieurs défauts, comme l’incertitude, l’imprécision et l’incomplétude lui sont souvent associés. Cette non-fiabilité de l’information peut être traduite sous plusieurs formes (Dubois et Prade, 2006): MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie L’incertitude qui est relative à la vérité d’une information, et caractérise son degré de conformité à la réalité. Elle fait référence à la nature de l’objet ou du fait concerné, à sa qualité, à son essence ou à son occurrence, L’imprécision qui concerne le contenu de l’information et indique donc son défaut quantitatif de connaissance, L’incomplétude qui caractérise l’absence d’information apportée par la source sur certains aspects du problème, L’ambiguïté qui exprime la capacité d’une information à permettre des interprétations différentes. Ce descriptif sommaire nous permet de mieux appréhender les différentes facettes que peut revêtir l’imperfection de l’information (Smets, 1997) en provenance du monde réel. Nous allons maintenant introduire différentes familles de moyens de représentation de ces imperfections : La méthode bayésienne constitue un cadre applicable à des probabilités a priori subjectives. L’inférence bayésienne permet de calculer (ou de réviser) la probabilité d’une hypothèse. Le choix est fait de modéliser une attente, d’estimer un jugement quitte à le réviser en fonction des nouvelles informations dont on dispose. Les probabilités sont basées sur la distribution d’un poids de confiance unitaire sur les singletons du domaine des valeurs possibles. La formulation bayésienne introduit une probabilité conditionnelle ainsi qu’une probabilité a priori révisable. Ce cadre reste largement ancré sur la notion de probabilité (Naïm et al 2007). La théorie des possibilités (Dubois et Prade, 1988) fournit des outils mathématiques qui permettent de représenter de l’information incomplète, imprécise ou vague. Elle est une extension décisionnelle de la théorie des sous-ensembles flous (Zadeh, 1978) qui permet de modéliser simplement des catégories du langage naturel, des valeurs appartenant à une échelle numérique… Elle est basée sur la distribution d’un poids de confiance unitaire sur n’importe lequel des sous-ensembles emboîtés du domaine des valeurs possibles. La théorie des fonctions de croyance (Dubois et Prade, 2006) fournit, quant à elle, des outils mathématiques permettant de traiter de l’information de nature aléatoire et imprécise. C’est Expression de concepts flous Hautement probable Probable vraisemblable Possible Impossible Invraisemblable Hautement improbable Tableau un cadre théorique qui généralise les deux cadres précédents. Les développements reposent sur la distribution d’un poids de confiance unitaire sur n’importe quel sous-ensemble du domaine des valeurs possibles. Il existe plusieurs variantes dont la théorie de Dempster-Shafer (Shafer, 1976) et le Modèle des Croyances Transférables (MCT) (Smets et Kennes, 1994). Dans la suite cet article, bien que la troisième approche semble générique et prometteuse, on ne s’intéressera qu’aux deux premières approches. En effet, nous n’avons pas encore approfondi les mécanismes de mise en œuvre appropriée de la théorie de croyance. C’est ainsi que nous proposons ci-dessous une approche combinant une quantification d’expertise par les concepts flous avec une autre quantification par les probabilités conditionnelles. 3.2.3 Quantification de l’incertitude de l’expert par des concepts flous La connaissance de l’expert est difficile à quantifier et est aussi incertaine (Coolen, 1994). Il faut donc que l’analyste puisse modéliser une distribution de probabilité à partir des informations recueillies. Plusieurs approches existent (De Fenetti, 1990) et on peut citer les plus courantes : La méthode la plus simple consiste à demander à l’expert d’exprimer la probabilité de validation d’une hypothèse, en choisissant un nombre compris entre 0 et 1 : la valeur 0 signifie que l’hypothèse est impossible ; au contraire, la valeur 1 signifie que l’hypothèse est absolument certaine. Si les experts ne sont pas en mesure de quantifier une valeur sur l’échelle subjective [0, 1], ils peuvent généralement exprimer leur incertitude, par des concepts flous comme par exemple : « probable », « fort probable » ou encore avec des symboles de type « ++ », « + », « --». Ces concepts flous sont souvent utilisés en pratique dans les environnements industriels où leur mise en œuvre est aisée (Jabrouni et al 08) … (Lichtenstein et Newman, 1967) ont défini une échelle empirique de probabilité correspondant à ces concepts. Nous présentons ici un extrait d’un tableau (Cf. Tableau 1) de correspondance entre l’estimation déclarative et la probabiliste. Probabilité moyenne associée 0,89 0,79 0,71 0,37 0,12 0,11 0,06 Intervalle d’incertitude 0,60 – 0,99 0,30 – 0,99 0,10 – 0,99 0,10 – 0,99 0,10 – 0,50 0,10 – 0,40 0,10 – 0,30 : correspondance entre estimation déclarative et probabiliste. MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie Enfin, si les experts sont familiers avec les méthodes statistiques, on peut leur demander directement une valeur moyenne, un écart type ou des quantiles d’une distribution. Ces valeurs sont généralement considérées comme les paramètres d’une distribution log-normale, normale ou ceux d’une loi de Student [H.S. Jeffreys, 1961]. 3.2.4 Estimation de l’expertise par des approches probabilistes : En général, dans la phase d’analyse, on cherche à déterminer une quantité incertaine associée à chaque cause plausible, en interrogeant des personnes ayant des connaissances sur cette quantité [De Finetti, 1990]. Ces personnes, selon le langage de la psychologie, sont des « sujets » mais ils sont plus communément appelés « experts ». On les représente dans ce qui suit par E1 , E2 , E3 ,… E n . L’analyste D , identifié comme le « preneur de décision » dans la démarche de résolution de problème, doit combiner les opinions d’experts avec ses connaissances propres, afin d’évaluer la distribution ou la valeur la plus probable à priori de C’est cette personne qui prend la donc en porte la responsabilité. Elle cela sur l’opinion de plusieurs . décision finale et va s’appuyer pour experts. Chaque expert, E i en fonction de ses connaissances, doit donc fournir au preneur de décision, D , les éléments lui permettant d’élaborer une densité de probabilité pour . Ces connaissances peuvent évoluer, en particulier lorsque des informations complémentaires sont acquises ou lorsqu’elles sont confrontées à celles d’autres experts [F. Coolen, 1994]. L’expert Ei va donc fournir une information connaissance propre, Ci , représentée par la probabilité pi ( / Ci) , et de façon symétrique, l’opinion a priori de l’analyste, D, est représentée par la distribution p( / C D ) . Pour simplifier, supposons que l’on intéresse à la probabilité conditionnée par sa d’un évènement futur A , et qu’il n’y ait qu’un seul expert, l’extension à n experts ne posant pas de problème particulier. L’analyste D possède des connaissances CD sur A , peut donc exprimer une estimation a priori de la probabilité de A : p(A / C D ) (principe de probabilité conditionnelle). Symétriquement, l’expert E1 , ayant E1 , des connaissances va fournir une p (A / C ) E1 . évaluation 1 L’analyste possède donc maintenant deux estimations de probabilité A . Il va chercher à évaluer la probabilité à posteriori de A , compte tenu de CD et de CE1 , p(A / C D , E 1 ) La précision des résultats dépend de la consistance de l’expert lui-même. Ceci aura du sens dans le cas où deux experts proposent deux valeurs divergentes pour la même hypothèse. Pour remédier à ce genre de problème plusieurs alternatives existent ([S. Moral & J. del Sagrado, 1997] et [R.P. Srivastava, 1996] ), notamment l’attribution d’un poids de confiance à chaque expert caractérisant la fiabilité de connaissance. La formalisation proposée pour l’analyse permet de garantir les points suivants : L’utilisation de l’arbre de causes articulé autour de l’outil 5 Pourquoi (while while analysis en anglais) permet de représenter d’une manière aisée l’enchaînement logique des évènements (hypothèses) contribuant à l’apparition du défaut ou problème principal. Ceci satisfait le besoin permanent de correspondre au mieux à la représentation du monde par des experts. L’utilisation des techniques de type probabiliste et flou a permis de prendre en compte le caractère incertain des informations fournies par les experts dans les mécanismes d'inférence. Cette quantification doit être fournie par chaque expert sur la liste des valeurs attribuées aux hypothèses. Les deux techniques d’estimation de l’expertise, ont été implémentées sur deux plates-formes que nous avons spécifiées. La première application baptisée T-rex, intègre dans sa phase d’analyse des causes un module complètement interactif qui permet d’élaborer l’arbre de causes permettant d’estimer la connaissance des experts par rapport aux degrés de plausibilité de la cause. Un filtre permet d’affiner la liste des causes potentielles pour aider les experts à se concentrer sur les causes possédant la plausibilité la plus forte. Tandis que la deuxième application nommée PST (Problem Solving Tool) et mise en place à ALSTOM Transport permet d’estimer la probabilité moyenne associée à chaque cause proposée. En outre, ces deux applications, basées sur une architecture Web et une base de données centralisée, permettent : La représentation, d'une manière claire, des différentes composantes, d'une expérience, décrites auparavant (événement, contexte, analyse, solutions, leçons), La structuration du processus de résolution de problèmes en étapes clairement identifiées à partir de la démarche standard « 8D », La mise à disposition d'outils appropriés facilitant la réalisation des différentes étapes du processus (par exemple « le Est/N'est pas », « les 5 pourquoi », « le diagramme d'Ishikawa », « les outils de planification et de suivi d'actions »...), La prise en compte de l’insuffisance des informations sur les causes des événements, L’amélioration des mécanismes de réutilisation des analyses expertes élaborés, MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie La mise à disposition de moteurs permettant la recherche pertinente d'expériences passées (par mots-clefs ou par similarité). (direction générale d’ALSTOM), qui est l’implémentation de l’action corrective dans les six mois précédant l’identification du problème, semble actuellement atteignable. Signalons que nous travaillons sur l’intégration du module T-rex dans la plate-forme PST d’ALSTOM Transport afin de pouvoir combiner les deux approches. 4 Figure 7 : T-Rex développé par CRC-IDCE ENIT de Tarbes Figure 8 : PST utilisé à ALSTOM Transport Le processus de capitalisation est désormais bien stabilisé via la plate-forme HLPweb installée dans l’ensemble de l’organisation d’ALSTOM Transport (71 sites dans le monde entier). Le module d’analyse des causes de T-rex a donné une grande satisfaction et les résultats d’évaluation, par les utilisateurs pilotes, sont très encourageants. Ce module a permis de faciliter la tâche des experts notamment dans le processus de validation des causes les plus plausibles (possédant le coefficient de contribution le plus élevé). Comparativement à l’application développée en Excel précédemment utilisée chez ALSTOM, les experts estiment dans leur travail avoir obtenu en moyenne à la fois un gain de temps avec une réduction des erreurs. Par conséquent, l’objectif fixé par le Top management CONCLUSION La problématique des systèmes de retour d’expérience cognitif abordée dans ce papier constitue un enjeu important dans le cadre de l’amélioration continue des organisations industrielles et, plus largement des organisations socio-techniques. Pourtant, il existe finalement peu d’outils informatiques traitant l’expérience comme une entité cognitive et non comme une simple information sur laquelle peuvent être construites des analyses statistiques. Partant de l’hypothèse que la connaissance des experts, si elle est inscrite dans l’expérience lors de la résolution des problèmes, peut permettre de compenser le faible nombre d’expériences qui empêche une analyse statistique brute. Nous avons fait un rapprochement entre le retour d’expérience cognitif et les systèmes à base de connaissances, le retour d’expérience cognitif ayant pour particularité notable que la connaissance est développée de manière incrémentale, par l’addition d’analyses sur des cas capitalisés progressivement. L’objectif de ce travail était de proposer un cadre formel de représentation des expériences, intégrant les imperfections d’information présentes dans l’expertise. Nous avons étudié la nature précise des expériences qui doivent être capitalisées sous la forme : événement, contexte, analyse, solutions, leçons apprises. Nous avons aussi montré que les expériences étant pour partie le résultat d’un travail d’interprétation (du contexte), il est intéressant de prendre en compte l’incertitude liée à cette expertise. C’est pourquoi nous avons proposé d’intégrer, de manière explicite, l’incertitude associée aux informations sur l’analyse réalisée par les experts en utilisant des approches probabilistes. Cependant, plusieurs investigations à moyen et à long terme s’imposent : Expression d'une analyse plus précise : nous pensons que d'autres possibilités pour l'expression de l'analyse sont à explorer. En effet, la version généralisée du théorème de Bayes compatible avec le modèle des croyances transférables ainsi que la définition de réseaux de croyance pourraient être très intéressants dans la perspective d’une approche de prévention des risques par l’expérience. Utilisations multi-experts du système : un intérêt majeur des fonctions de croyance réside dans la possibilité de réaliser une fusion d’information de sources variées. Nous souhaitons en effet autoriser les analyses de cas identiques par plusieurs experts MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie dans la phase de saisie des expériences et dans celle d'analyse. La diffusion ciblée vers les acteurs : cela suppose d'intégrer le profil des acteurs ou bien de s'appuyer sur la gestion des compétences des acteurs lorsqu'elle est effective (Hermosillo et al., 2005) ; Le couplage du modèle de retour d’expérience proposé avec une architecture orientée services pour favoriser une meilleure interopérabilité avec les applications des entreprises. RÉFÉRENCES Coolen, F., Statistical modeling of expert opinions using imprecise probabilities. 1994, ISBN 90-3860482-3, PhD-thesis, Eindhoven University of Technology, 121 pp. Chauvel A.-M., 2000. Méthodes et outils pour résoudre un problème, 3ème edition, édition Dunod,. D’Acquin, M., Lieber, J., Napoli, A., 2002. Représentation multi-points de vue des connaissances pour l’adaptation, Atelier de raisonnement à partir de cas, RàPC Paris De Fenetti , 1990. Theory of proability. Wiley Classics Library. Dieng-Kuntz,R., D. Minier.,D, R ži ka, M., Corby, F., Corby, O., Alamarguy, L., 2008.Building and using a medical ontology for knowledge management and cooperative work in a health care network" Computers in Biology and Medicine, Volume 36, Issues 7-8, Pages 871-892. Dubois, D., et Prade, H., 2006. Représentations formelles de l'incertain et de l'imprécis, Dans : Concepts etméthodes pour l'aide à la décision outils de modélisation, D. Bouyssou, D. Dubois, M. Pirlot, et H.Prade (Eds.), Lavoisier, (3), pp. 111171, vol. 1, Traité IC2. Fuchs, B., 1997. Représentation des connaissances pour le raisonnement à partir de cas. Le système ROCADE, Thèse de Doctorat : Informatique, SaintEtienne. Hermosillo Worley J., Rakoto H., Grabot B. and Geneste L, 2005. A competence approach in the experience feedback process. In Integrating Human Aspects in Production Management, IFIP International Federation for Information Processing series, Volume 160, pp 220-235, edited by Zulch G., Jagdev H.S and Stock P., Springer-Verlag, New York, USA. Jabrouni, H, Geneste, L., Kamsu, B., 2008. Le retour d'expérience industriel : une aide à la décision basée sur les connaissances. FEES’08. MAROC. Jeffreys, H.S., 1961. Theory of probability. 3ème edition, oxford University Press, 1961. Lichtenstein, S., Newman, J.R., 1967. Empirical scaling of common verbal phrases associated with numerical probabilities. Psychonomic Science n° 9. Naïm, P., Wuillemin, P-H., Leray, Ph., Pourret, O., Becker, A., Réseaux bayésiens, 2007. Eyrolles; Édition ISBN-10: 221211972. Rakoto, H., 2004. Intégration du Retour d’Expérience dans les processus industriels – Application à ALSTOM Transport (in France). PhD thesis, National Polytechnic Institute of Toulouse. R.P. Srivastava (1996), "Value judgments using belief functions", JAI Press, Greenwich, CT, pp.109 130. S. Moral, J. del Sagrado . (1997). Aggregation of imprecise probabilities. In: Aggregation and Fusion of Imperfect Information (B. Bouchon-Meunier, ed.) Physica Verlag, Heidelberg, 162-188. Wilke, W., Bergmann, R., 1998. Techniques and knowledge used for adaptation during case-based problem solving, 11th International Conference on Industrial Engineering Applications of Artificial Intelligence and Experts Systems, IEA- 98-AIE, Lecture Notes in Computer Science, SpringerVerlag, Berlin Heidelberg New York.