integration de l`analyse dans la phase de resolution de probleme en

Transcription

integration de l`analyse dans la phase de resolution de probleme en
8e Conférence Internationale de MOdélisation et SIMulation - MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie
« Evaluation et optimisation des systèmes innovants de production de biens et de services »
INTEGRATION DE L'ANALYSE DANS LA PHASE DE RESOLUTION DE
PROBLEME EN VUE DE RETOUR D'EXPERIENCE
1
H. JABROUNI1,2, B. KAMSU1 et L. GENESTE1
Laboratoire Génie de Production – Ecole Nationale d'Ingénieurs de Tarbes
47, Avenue Azereix – BP 1629
65016 Tarbes Cedex
2
ALSTOM TRANSPORT
Rue du Docteur Guinier - BP 4 - 65600 Séméac
{jabrouni, bkamsu, laurent.geneste}@enit.fr
RESUME : En situation de résolution de problèmes, l’investissement intellectuel des experts est souvent considérable.
Les connaissances expertes exploitées dans de tels cas sont très importantes à capitaliser afin de limiter l’effort à
fournir lorsque des situations similaires se présenteront. Les occasions d’exploitation de connaissances expertes sont
nombreuses : prise de décision en présence d’un nombre important d’indicateurs, résolution de problèmes sous
incertitude, configuration experte, … Il est alors nécessaire d’assister les experts dans leurs tâches de résolution de
problèmes en leur évitant de produire de nouveaux efforts impliquant un niveau d’expertise élevé. Pour cela, les
connaissances qu’ils manipulent doivent être mémorisées et modélisées tout en étant facilement adaptables et
réutilisables. L’exploitation des connaissances doit pouvoir être faite par les experts eux-mêmes ou par d’autres experts
afin de permettre le partage de connaissances.
MOTS CLES : Retour d’expérience, management des connaissances, résolution de problèmes, analyse des causes,
incertitude.
1
INTRODUCTION ET PROBLEMATIQUE
1.
Les processus de résolution de problème sont, en
général, assez lourds à mettre en œuvre et ne sont
souvent déclenchés que pour la résolution de
problèmes complexes (nécessitant un niveau
d'expertise élevé) et critiques (ayant un impact très
négatif sur le client, sur la sécurité ou sur la
performance de l'entreprise par exemple). Pourtant, l'un
des défauts majeurs de ces processus réside dans
l'impossibilité, a priori, de réutiliser la connaissance
engagée pour la résolution d'un problème passé, en
particulier celle des experts en phase d'analyse. La
capacité à capitaliser et à réutiliser cette connaissance
constitue ainsi un moyen puissant d'optimisation et de
rationalisation du processus de résolution de problème.
Nous qualifions d'expérience le fragment de
connaissances capitalisées lors du travail des experts
pour la résolution d'un problème et de retour
d’expérience le processus qui permet d'organiser la
capitalisation et l'exploitation de ces expériences. La
nature des informations capitalisées a été caractérisée
notamment dans (Rakoto, H, 2004) et (Hermosillo,
2005) lors de l'application des démarches classiques de
résolution de problème. Les méthodes font intervenir
quatre grandes catégories d'informations : le contexte,
l'analyse, les solutions et les leçons apprises. Dans la
suite, ce papier va être focalisé sur la proposition de
mécanismes d’analyse pertinents favorisant la
réutilisation efficace des connaissances capitalisées
avec une meilleure gestion des aspects de similarité et
d’incertitude.
2
POSITIONNEMENT- ETAT DE L’ART
2.2 Positionnement par rapport aux démarches de
résolution de problèmes
Dans le contexte de l'amélioration continue des
produits, des services et des processus dans les
entreprises, la mise en place d'un processus de retour
d'expérience vise à proposer une solution pratique
favorisant l'accélération de la résolution de problèmes
déjà survenus et leur non-répétition.
Dans le cas des problèmes complexes (nous qualifions
de problèmes complexe des problèmes dont les causes
et les solutions sont a priori inconnues), une démarche
de résolution de problème est souvent utile. Nous
rappelons la définition d’une démarche de résolution de
problème présenté par (Hosotani, 1997) : un processus
de résolution de problème est un ensemble d’activités
qui permettent de résoudre de manière organisée et
MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie
systématique des problèmes complexes. Cette
démarche s’appuie en général sur l’utilisation de
règles, de principes, de connaissances expertes. Elle
peut mobiliser, de façon structurée et logique, un
ensemble d’outils et de techniques. Quelque soit la
démarche retenue, on retrouve les même étapes de
raisonnement :
La définition d’une équipe de résolution de
problème ;
La description et l’évaluation de la criticité des
événements ;
La caractérisation du problème ;
L’analyse des événements afin d’en rechercher les
causes racine et la validation de cette analyse ;
La proposition d’une solution au problème et son
application (solution curative) ;
La suggestion d’actions pour éviter une nouvelle
occurrence du problème (solution préventive,
leçons apprises, etc.).
Figure
Il existe deux grandes approches de démarche de
résolution de problème (Hosotani, 1997) :
La démarche théorique qui est également
dénommée méthode déductive. Cette démarche est
utilisée pour résoudre des problèmes en appliquant
des mécanismes d'inférence issus de la recherche
(par exemple le recuit-simulé, la propagation de
contraintes, etc.).
La démarche de résolution de problèmes par les
outils issus de la qualité. Celle-ci pourrait être
qualifiée d’approche inductive, au cours desquelles
les causes des problèmes sont identifiées par une
série d’outils, permettant de remonter jusqu’à leur
source en partant des faits observés.
Dans la suite de notre étude, nous retiendrons cette
dernière démarche. Elle est souvent instrumentée par
des outils qui varient selon la méthode retenue.
Généralement dans tous les cas, on retrouve le cycle
PDCA de Deming, indépendamment de la méthode
retenue, comme indiqué dans la figure 1.
: Cercle PDCA de Deming
La phase de recherche des causes, souvent appelée la
phase d’analyse est la phase phare d’une méthodologie
de résolution de problème. Quelle que soit la méthode
de résolution de problème retenue, l’analyse est
toujours guidée par le processus d’analyse des causes
racines dit du Roots Cause Analysis (RCA). Ce
processus part du constat qu’il est plus judicieux de
traiter les causes profondes d’un problème que d’en
traiter les symptômes immédiats. Puis qu’analyser les
causes d’un problème permet d’en déterminer une
solution définitive, et donc d’empêcher qu’il ne se
reproduise de nouveau. Le RCA peut être considéré
comme un élément contributeur à des processus
itératifs d’amélioration continue (DE Mast, 2004) et
représente une démarche commune destinée à résoudre
les problèmes d’une manière rationnelle et méthodique.
Des actions isolées ne sont d’aucune efficacité
(Hosotani, 1997). On s’aperçoit souvent que ce sont
des actions ponctuelles, menées sans une connaissance
suffisante du problème qui engendre l’échec de la
résolution. Les causes réelles doivent alors être
diagnostiquées au stade de l’analyse des causes, afin de
pouvoir engager des actions correctives appropriées.
Les principales étapes de la RCA sont :
Étudier les relations de cause à effet, d’un point de
vue technique et en fonction de l’expérience passée
puis les récapituler dans un diagramme causeeffets.
Réunir des informations factuelles à l’aide des
outils appropriés (ex : feuilles de relevés)
Étudier les relations de cause à effet à l’aide des
méthodes de la qualité, analyser les données
expérimentales passées, organiser les données à
MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie
observer au quotidien et analyser au moyen de
graphiques, histogrammes, cartes de contrôle,
analyse de la variance, analyse de régression, etc.
Faire la synthèse des causes permettant de retenir
celles qui ont été validées. Cette validation est
habituellement faite par des outils contextuellement
adaptés (plan d’expérience, diagramme de Pareto,
tests industriels…).
Selon le niveau d’expertise engagée, trois possibilités
de situations peuvent être identifiées lors de la phase
d’analyse : (Goetschmann et al. 2003):
Le groupe d’experts connaît, sans ambiguïté
possible, les causes réelles du problème. Dans ce
premier cas, le groupe peut passer directement à la
recherche et au choix de la solution.
Le groupe d’experts pense connaître les causes.
Dans ce deuxième cas, le groupe vérifie les causes
présumées avant de passer à la recherche d’une
solution potentielle.
Le groupe d’experts n’a pas d’idées précises sur les
causes réelles du problème. Dans ce troisième cas,
le groupe fait une recherche de toutes les causes
possibles. Il recueille des faits et des indices qui
permettront d’identifier les causes réelles du
problème.
Nous retenons cette dernière possibilité de situation
dans la suite de ce document.
2.2
Positionnement par rapport aux techniques
de réutilisation des expériences
Le processus d’exploitation est constitué des activités
permettant de diffuser et d’employer les connaissances
capitalisées dans les processus des organisations. De
même, l’exploitation des expériences stockées peut se
faire par des techniques de retour d’expériences. En
effet, dans un premier temps les connaissances métier
mémorisées sous forme d'expériences permettent de
sauvegarder à la fois le contexte d'émergence de la
connaissance et des informations précises sur son
explicitation, cela par rapport au point de vue et aux
connaissances de l'expert concerné. Dans un second
temps, des techniques de réutilisation d’expériences
permettent d’utiliser les expériences passées afin
d’aider l’expert dans sa résolution de problèmes. C’est
le cas notamment du raisonnement à partir de cas, noté
RàPC, que nous présentons dans la section suivante.
D’autres méthodes, dérivées du RàPC intègrent
davantage des éléments de l’expérience. Nous pouvons
citer ici le Raisonnement à Partir de Trace (RàPT) qui
repose sur l’enregistrement temporel des unités
d’informations appelées « Trace » (Champin et al.
2004). Sun et Finnie (Sun et Finnie, 2004) proposent
une idée plus générale d’Experience Based Reasoning
(EBR). Cette approche de recherche consiste à
formaliser tout type de raisonnement basé sur
l’expérience à partir d’une ou plusieurs règles
d’inférence qui constituent, selon les auteurs, la base
des raisonnements qu’il est possible d’exprimer à partir
de l’expérience. Toutefois, le paradigme de
raisonnement à partir de cas RàPC (Aamodt et Plaza,
1994) reste le plus connu de ces outils cités
précédemment. Le principe de raisonnement à partir de
cas est de constituer une base de raisonnement à partir
de cas antérieurs déjà éprouvés et validés. Cette
approche consiste à récupérer une solution existante
ayant permis par le passé de résoudre un problème
similaire à celui que l’on est en train d’aborder. A
partir de la description du problème à résoudre, il s’agit
de donner des éléments d’information suffisants pour
permettre à une fonction de similarité d’accéder aux
cas les plus voisins du cas décrit. Les outils développés
permettent d’adapter les solutions des cas récupérés
dans la base. Signalons que cette méthode est basée sur
l’hypothèse d’avoir des solutions similaires lorsque les
problèmes sont semblables.
La figure 2 montre la nouvelle alternative du
raisonnement à partir de cas. Nous nous sommes
d'abord intéressés à l’approche classique du RàPC qui
est un mode de raisonnement très connu en intelligence
artificielle dans lequel le mécanisme d’inférence repose
sur la réutilisation de la solution du cas retrouvé ayant
un contexte (ensemble d’attribut) similaire au nouveau
cas. Cependant, ce type de raisonnement n’est
particulièrement pas adapté au contexte de
l’amélioration continue dans lequel se situe notre
problématique.. Deux problèmes survenus dans un
contexte similaire ont souvent des solutions différentes
notamment dans le cadre de problèmes complexes et le
processus d’adaptation devient de plus en plus délicat.
Quant à la nouvelle alternative, la description d’un
évènement et de son contexte peut servir comme
d’élément d’entrée à l’analyse experte dans laquelle
l’analyse est décrite par une hiérarchie d'attributs. Nous
montrons par la suite que la valeur de chaque attribut
peut être partiellement connue et décrite par une
fonction de croyance sur le domaine correspondant.
MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie
Cycle RàPC classique
Figure
3
Nouvelle alternative du RàPC
: Illustration sur l’utilisation d’un cas pour la résolution de problèmes
MODELISATION DE L’ANALYSE
3.1 Représentation de l’analyse des causes par des
outils qualité
Dans la partie suivante nous introduisons brièvement
quelques outils issus des approches qualité dédiés à la
représentation de la phase d’analyse. Cela nous permet
de positionner le retour d’expérience par rapport à ces
méthodes.
Figure
3.1.1 Diagramme cause-effet ou diagramme
d’Ishikawa
Le diagramme cause-effet (Chevel, 2000) permet de
visualiser de façon simple l’ensemble des causes
potentielles concernant le constat d’un effet quelle que
soit la nature du problème concerné. Il se présente sous
la forme d'arêtes de poisson dont la tête encadre l’effet
dont on veut connaître les causes (cf. figure 3).
: Diagramme cause-effet ou diagramme d’Ishikawa
Après avoir identifié le problème en termes d’effet, on
liste les causes potentielles par famille. Ces familles
correspondent souvent aux 5M (Main d’œuvre,
Matériel, Matière, Milieu), mais ceux-ci peuvent être
aussi remplacés d’autres classifications propres à
l’entreprise (par type de métier par exemple).
3.1.2 Diagramme ACE
Le diagramme d’Ishikawa a d’abord connu une
première mutation : le diagramme cause-effet par la
méthode des processus. Cette évolution provient de
l’ajout d’un diagramme de cheminement qui permet
ainsi de visualiser l’ensemble des causes potentielles
concernant l’effet constaté aux différentes étapes de
réalisation d’un processus, et non plus en les groupant
par famille.
Le diagramme ACE (Action sur les Causes d’Erreurs)
(Cheuvel, 2000) est une variante d’un diagramme de
causes-effet méthode des processus. Il permet de traiter
un problème au niveau d’un processus en utilisant le
diagramme cause effet comme support du suivi du plan
d’action (cf. figure 4). A chaque étape du processus est
associé un Diagramme de Pareto des non-conformités
mis à jour périodiquement. De plus, est associé à l’effet
un Graphique temporel représentant le pourcentage
d’unités non conformes observé durant la dernière
période de temps. La figure ci-dessous montre ce type
de diagramme.
MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie
Figure
: Diagramme ACE
3.1.3 Arbre de cause ou de défaillance
L'arbre des causes (arbre de défaillance) est
généralement utilisé dans le domaine des risques
professionnels. La méthode consiste à construire une
représentation graphique de la chaîne des événements
qui a conduit à la défaillance principale. Les branches
de l’arbre sont ainsi construites en s’appuyant sur le
Why Why Analysis appelé aussi « 5 pourquoi », qui
Figure
3.2
permettent d’identifier l’origine d’un problème (root
cause) en amenant les experts à s'interroger
progressivement sur le problème en se posant la
question à plusieurs reprises du « pourquoi ? ». La
représentation graphique de la liste des causes
potentielles se fait en arborescence sous forme d’arbre
des causes. La figure 5 montre ce diagramme.
: Exemple d’arbre de cause
Vers un modèle formel d’analyse
Dans l'approche présentée, nous avons choisi de
proposer une méthode d’analyse très simple. Il s’agit
d’un filtre qui permet de ne considérer que
l’information utile. En effet, si les événements
capitalisés ne sont pas bien bornés ni bien distingués
(modélisés précisément), l’application de la
réutilisation de cette connaissance en « action » a de
fortes chances d’être trop exhaustive dans certains cas
et pas assez précise dans d’autres. Pour cela, nous
allons proposer un schéma fonctionnel de la phase
d’analyse permettant de mieux décrire la qualité des
données et de modéliser convenablement l’expertise.
3.2.1 La qualité des données
Dans le domaine du retour d’expérience la qualité des
données est primordiale, car elle impacte directement
la fiabilité des résultats et l’interprétation du retour
d’expérience.
Avant toute étude ou analyse de retour d’expérience,
une vérification de la qualité des données doit être
effectuée. Trois critères de vérification permettent à un
analyste de s’assurer de la qualité des données :
MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie
Leur cohérence,
Leur validité, leur représentativité, et
homogénéité dans le cas de multi-experts,
Leur exhaustivité.
leur
La qualité des données doit être évaluée à plusieurs
niveaux :
Au niveau de la collecte, avant l’introduction des
informations, lors de l’analyse a priori de
l’événement
Au niveau du traitement ou de l’analyse statistique,
pour l’analyse à posteriori de l’événement.
On peut ainsi définir des indicateurs de mesure de la
qualité d’information :
Concernant la collecte : par exemple, le taux de
remplissage, la quantification de l’erreur humaine,
la cohérence entre champs codés…
Concernant l’analyse : par exemple la mise en
évidence de comportements singuliers, le facteur
d’erreur, des lois de distribution, la quantification
des incertitudes.
Toutes ces contraintes doivent être intégrées dans le
cadre de la formalisation d’un modèle d’analyse.
3.2.2 Modélisation de l’expertise
Sur la base du modèle utilisé d’arbre des causes, nous
proposons un schéma fonctionnel de la phase d’analyse
qui comprend les étapes suivantes:
La description de l’évènement problématique qui
est exprimé sous forme d’hypothèses d’expertises
contextualisées.
Durant la phase d’analyse, ces hypothèses doivent
être détaillées sous forme de plusieurs hypothèses
élémentaires (H1, H2, H3…..Etc.). Pour mieux
cerner le problème, chacune de ces hypothèses sera
à son tour détaillée plus finement en d’autres
hypothèses (H11, H12, H13..etc.) à l’aide d’outils
appropriés comme le 5 Pourquoi.
Ces hypothèses fines contiennent de l’incertitude
qui peut être représentée par une mesure traduisant
le degré de confiance ou de certitude de l’expert sur
les hypothèses exprimées.
Les experts doivent naturellement chercher à
valider en priorité les hypothèses (causes racines
potentielles) possédant les degrés de plausibilité les
plus forts. Cette phase de validation consiste à
appliquer un filtre pour déterminer les hypothèses
retenues comme étant les causes racines les plus
pertinentes du problème.
La figure 6 reprends les étapes décrites précédemment :
Événement
Hypothèses
Pb
Probabilité /
incertitude
H11
H1
H12
H2
H13
H3
H41
H4
H42
P11,
Validation
θ11
P13, θ 13
P42, θ 42
H43
Figure
: Schéma fonctionnel de la phase d’analyse
Les expériences peuvent être considérées comme des
collections d’informations qui traduisent un contexte
dont les informations sont rarement connues avec
précision. Elles peuvent aussi être totalement
inconnues dans certains cas. Le formalisme pour
modéliser les expériences doit permettre de représenter
ces imperfections de l’information et de les intégrer
dans les différentes étapes du schéma fonctionnel de la
phase d’analyse afin de disposer de résultats
convenables. L’incertitude doit alors être propagée des
données initiales jusqu’au résultat final.
L’information n’est que très rarement une donnée
fiable et parfaite. Plusieurs défauts, comme
l’incertitude, l’imprécision et l’incomplétude lui sont
souvent associés. Cette non-fiabilité de l’information
peut être traduite sous plusieurs formes (Dubois et
Prade, 2006):
MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie
L’incertitude qui est relative à la vérité d’une
information, et caractérise son degré de conformité
à la réalité. Elle fait référence à la nature de l’objet
ou du fait concerné, à sa qualité, à son essence ou à
son occurrence,
L’imprécision qui concerne le contenu de
l’information et indique donc son défaut quantitatif
de connaissance,
L’incomplétude
qui
caractérise
l’absence
d’information apportée par la source sur certains
aspects du problème,
L’ambiguïté qui exprime la capacité d’une
information à permettre des interprétations
différentes.
Ce descriptif sommaire nous permet de mieux
appréhender les différentes facettes que peut revêtir
l’imperfection de l’information (Smets, 1997) en
provenance du monde réel. Nous allons maintenant
introduire différentes familles de moyens de
représentation de ces imperfections :
La méthode bayésienne constitue un cadre
applicable à des probabilités a priori subjectives.
L’inférence bayésienne permet de calculer (ou de
réviser) la probabilité d’une hypothèse. Le choix est
fait de modéliser une attente, d’estimer un jugement
quitte à le réviser en fonction des nouvelles
informations dont on dispose. Les probabilités sont
basées sur la distribution d’un poids de confiance
unitaire sur les singletons du domaine des valeurs
possibles. La formulation bayésienne introduit une
probabilité conditionnelle ainsi qu’une probabilité a
priori révisable. Ce cadre reste largement ancré sur
la notion de probabilité (Naïm et al 2007).
La théorie des possibilités (Dubois et Prade, 1988)
fournit des outils mathématiques qui permettent de
représenter de l’information incomplète, imprécise
ou vague. Elle est une extension décisionnelle de la
théorie des sous-ensembles flous (Zadeh, 1978) qui
permet de modéliser simplement des catégories du
langage naturel, des valeurs appartenant à une
échelle numérique… Elle est basée sur la
distribution d’un poids de confiance unitaire sur
n’importe lequel des sous-ensembles emboîtés du
domaine des valeurs possibles.
La théorie des fonctions de croyance (Dubois et
Prade, 2006) fournit, quant à elle, des outils
mathématiques
permettant
de
traiter
de
l’information de nature aléatoire et imprécise. C’est
Expression de concepts flous
Hautement probable
Probable
vraisemblable
Possible
Impossible
Invraisemblable
Hautement improbable
Tableau
un cadre théorique qui généralise les deux cadres
précédents. Les développements reposent sur la
distribution d’un poids de confiance unitaire sur
n’importe quel sous-ensemble du domaine des
valeurs possibles. Il existe plusieurs variantes dont
la théorie de Dempster-Shafer (Shafer, 1976) et le
Modèle des Croyances Transférables (MCT)
(Smets et Kennes, 1994).
Dans la suite cet article, bien que la troisième approche
semble générique et prometteuse, on ne s’intéressera
qu’aux deux premières approches. En effet, nous
n’avons pas encore approfondi les mécanismes de mise
en œuvre appropriée de la théorie de croyance.
C’est ainsi que nous proposons ci-dessous une
approche combinant une quantification d’expertise par
les concepts flous avec une autre quantification par les
probabilités conditionnelles.
3.2.3 Quantification de l’incertitude de l’expert par
des concepts flous
La connaissance de l’expert est difficile à quantifier et
est aussi incertaine (Coolen, 1994). Il faut donc que
l’analyste puisse modéliser une distribution de
probabilité à partir des informations recueillies.
Plusieurs approches existent (De Fenetti, 1990) et on
peut citer les plus courantes :
La méthode la plus simple consiste à demander à
l’expert d’exprimer la probabilité de validation
d’une hypothèse, en choisissant un nombre compris
entre 0 et 1 : la valeur 0 signifie que l’hypothèse est
impossible ; au contraire, la valeur 1 signifie que
l’hypothèse est absolument certaine.
Si les experts ne sont pas en mesure de quantifier
une valeur sur l’échelle subjective [0, 1], ils
peuvent généralement exprimer leur incertitude, par
des concepts flous comme par exemple :
« probable », « fort probable » ou encore avec des
symboles de type « ++ », « + », « --». Ces concepts
flous sont souvent utilisés en pratique dans les
environnements industriels où leur mise en œuvre
est aisée (Jabrouni et al 08) … (Lichtenstein et
Newman, 1967) ont défini une échelle empirique de
probabilité correspondant à ces concepts. Nous
présentons ici un extrait d’un tableau (Cf. Tableau
1) de correspondance entre l’estimation déclarative
et la probabiliste.
Probabilité moyenne associée
0,89
0,79
0,71
0,37
0,12
0,11
0,06
Intervalle d’incertitude
0,60 – 0,99
0,30 – 0,99
0,10 – 0,99
0,10 – 0,99
0,10 – 0,50
0,10 – 0,40
0,10 – 0,30
: correspondance entre estimation déclarative et probabiliste.
MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie
Enfin, si les experts sont familiers avec les
méthodes statistiques, on peut leur demander
directement une valeur moyenne, un écart type ou
des quantiles d’une distribution. Ces valeurs sont
généralement considérées comme les paramètres
d’une distribution log-normale, normale ou ceux
d’une loi de Student [H.S. Jeffreys, 1961].
3.2.4 Estimation de l’expertise par des approches
probabilistes :
En général, dans la phase d’analyse, on cherche à
déterminer une quantité incertaine associée à chaque
cause plausible, en interrogeant des personnes ayant
des connaissances sur cette quantité [De Finetti, 1990].
Ces personnes, selon le langage de la psychologie, sont
des « sujets » mais ils sont plus communément appelés
« experts ». On les représente dans ce qui suit
par E1 , E2 , E3 ,… E n .
L’analyste D , identifié comme le « preneur de
décision » dans la démarche de résolution de problème,
doit combiner les opinions d’experts avec ses
connaissances propres, afin d’évaluer la distribution ou
la valeur la plus probable à priori de
C’est cette personne qui prend la
donc en porte la responsabilité. Elle
cela sur l’opinion de plusieurs
.
décision finale et
va s’appuyer pour
experts. Chaque
expert, E i en fonction de ses connaissances, doit donc
fournir au preneur de décision, D , les éléments lui
permettant d’élaborer une densité de probabilité pour
. Ces connaissances peuvent évoluer, en particulier
lorsque des informations complémentaires sont
acquises ou lorsqu’elles sont confrontées à celles
d’autres experts [F. Coolen, 1994].
L’expert Ei va donc fournir une information
connaissance propre, Ci ,
représentée par la probabilité pi ( / Ci) , et de façon
symétrique, l’opinion a priori de l’analyste, D, est
représentée par la distribution p( / C D ) . Pour
simplifier, supposons que l’on intéresse à la probabilité
conditionnée
par
sa
d’un évènement futur A , et qu’il n’y ait qu’un seul
expert, l’extension à n experts ne posant pas de
problème particulier.
L’analyste D possède des connaissances CD sur A ,
peut donc exprimer une estimation a priori de la
probabilité de A : p(A / C D ) (principe de probabilité
conditionnelle). Symétriquement, l’expert E1 , ayant
E1 ,
des
connaissances
va
fournir
une
p
(A
/
C
)
E1 .
évaluation 1
L’analyste possède donc
maintenant deux estimations de probabilité A . Il va
chercher à évaluer la probabilité à posteriori de A ,
compte tenu de CD et de CE1 , p(A / C D , E 1 )
La précision des résultats dépend de la consistance de
l’expert lui-même. Ceci aura du sens dans le cas où
deux experts proposent deux valeurs divergentes pour
la même hypothèse. Pour remédier à ce genre de
problème plusieurs alternatives existent ([S. Moral & J.
del Sagrado, 1997] et [R.P. Srivastava, 1996] ),
notamment l’attribution d’un poids de confiance à
chaque expert caractérisant la fiabilité de connaissance.
La formalisation proposée pour l’analyse permet de
garantir les points suivants :
L’utilisation de l’arbre de causes articulé autour de
l’outil 5 Pourquoi (while while analysis en anglais)
permet de représenter d’une manière aisée
l’enchaînement
logique
des
évènements
(hypothèses) contribuant à l’apparition du défaut ou
problème principal. Ceci satisfait le besoin
permanent de correspondre au mieux à la
représentation du monde par des experts.
L’utilisation des techniques de type probabiliste et
flou a permis de prendre en compte le caractère
incertain des informations fournies par les experts
dans
les
mécanismes
d'inférence.
Cette
quantification doit être fournie par chaque expert
sur la liste des valeurs attribuées aux hypothèses.
Les deux techniques d’estimation de l’expertise, ont été
implémentées sur deux plates-formes que nous avons
spécifiées. La première application baptisée T-rex,
intègre dans sa phase d’analyse des causes un module
complètement interactif qui permet d’élaborer l’arbre
de causes permettant d’estimer la connaissance des
experts par rapport aux degrés de plausibilité de la
cause. Un filtre permet d’affiner la liste des causes
potentielles pour aider les experts à se concentrer sur
les causes possédant la plausibilité la plus forte. Tandis
que la deuxième application nommée PST (Problem
Solving Tool) et mise en place à ALSTOM Transport
permet d’estimer la probabilité moyenne associée à
chaque cause proposée.
En outre, ces deux applications, basées sur une
architecture Web et une base de données centralisée,
permettent :
La représentation, d'une manière claire, des
différentes composantes, d'une expérience, décrites
auparavant
(événement,
contexte,
analyse,
solutions, leçons),
La structuration du processus de résolution de
problèmes en étapes clairement identifiées à partir
de la démarche standard « 8D »,
La mise à disposition d'outils appropriés facilitant
la réalisation des différentes étapes du processus
(par exemple « le Est/N'est pas », « les 5 pourquoi
», « le diagramme d'Ishikawa », « les outils de
planification et de suivi d'actions »...),
La prise en compte de l’insuffisance des
informations sur les causes des événements,
L’amélioration des mécanismes de réutilisation des
analyses expertes élaborés,
MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie
La mise à disposition de moteurs permettant la
recherche pertinente d'expériences passées (par
mots-clefs ou par similarité).
(direction
générale
d’ALSTOM),
qui
est
l’implémentation de l’action corrective dans les six
mois précédant l’identification du problème, semble
actuellement atteignable. Signalons que nous
travaillons sur l’intégration du module T-rex dans la
plate-forme PST d’ALSTOM Transport afin de
pouvoir combiner les deux approches.
4
Figure 7 : T-Rex développé par CRC-IDCE ENIT de
Tarbes
Figure 8 : PST utilisé à ALSTOM Transport
Le processus de capitalisation est désormais bien
stabilisé via la plate-forme HLPweb installée dans
l’ensemble de l’organisation d’ALSTOM Transport (71
sites dans le monde entier). Le module d’analyse des
causes de T-rex a donné une grande satisfaction et les
résultats d’évaluation, par les utilisateurs pilotes, sont
très encourageants. Ce module a permis de faciliter la
tâche des experts notamment dans le processus de
validation des causes les plus plausibles (possédant le
coefficient de contribution le plus élevé).
Comparativement à l’application développée en Excel
précédemment utilisée chez ALSTOM, les experts
estiment dans leur travail avoir obtenu en moyenne à la
fois un gain de temps avec une réduction des erreurs.
Par conséquent, l’objectif fixé par le Top management
CONCLUSION
La problématique des systèmes de retour d’expérience
cognitif abordée dans ce papier constitue un enjeu
important dans le cadre de l’amélioration continue des
organisations industrielles et, plus largement des
organisations socio-techniques. Pourtant, il existe
finalement peu d’outils informatiques traitant
l’expérience comme une entité cognitive et non comme
une simple information sur laquelle peuvent être
construites des analyses statistiques. Partant de
l’hypothèse que la connaissance des experts, si elle est
inscrite dans l’expérience lors de la résolution des
problèmes, peut permettre de compenser le faible
nombre d’expériences qui empêche une analyse
statistique brute. Nous avons fait un rapprochement
entre le retour d’expérience cognitif et les systèmes à
base de connaissances, le retour d’expérience cognitif
ayant pour particularité notable que la connaissance est
développée de manière incrémentale, par l’addition
d’analyses sur des cas capitalisés progressivement.
L’objectif de ce travail était de proposer un cadre
formel de représentation des expériences, intégrant les
imperfections d’information présentes dans l’expertise.
Nous avons étudié la nature précise des expériences qui
doivent être capitalisées sous la forme : événement,
contexte, analyse, solutions, leçons apprises. Nous
avons aussi montré que les expériences étant pour
partie le résultat d’un travail d’interprétation (du
contexte), il est intéressant de prendre en compte
l’incertitude liée à cette expertise. C’est pourquoi nous
avons proposé d’intégrer, de manière explicite,
l’incertitude associée aux informations sur l’analyse
réalisée par les experts en utilisant des approches
probabilistes. Cependant, plusieurs investigations à
moyen et à long terme s’imposent :
Expression d'une analyse plus précise : nous
pensons que d'autres possibilités pour l'expression
de l'analyse sont à explorer. En effet, la version
généralisée du théorème de Bayes compatible avec
le modèle des croyances transférables ainsi que la
définition de réseaux de croyance pourraient être
très intéressants dans la perspective d’une approche
de prévention des risques par l’expérience.
Utilisations multi-experts du système : un intérêt
majeur des fonctions de croyance réside dans la
possibilité de réaliser une fusion d’information de
sources variées. Nous souhaitons en effet autoriser
les analyses de cas identiques par plusieurs experts
MOSIM’10 - 10 au 12 mai 2010 - Hammamet - Tunisie
dans la phase de saisie des expériences et dans celle
d'analyse.
La diffusion ciblée vers les acteurs : cela suppose
d'intégrer le profil des acteurs ou bien de s'appuyer
sur la gestion des compétences des acteurs
lorsqu'elle est effective (Hermosillo et al., 2005) ;
Le couplage du modèle de retour d’expérience
proposé avec une architecture orientée services
pour favoriser une meilleure interopérabilité avec
les applications des entreprises.
RÉFÉRENCES
Coolen, F., Statistical modeling of expert opinions
using imprecise probabilities. 1994, ISBN 90-3860482-3, PhD-thesis, Eindhoven University of
Technology, 121 pp.
Chauvel A.-M., 2000. Méthodes et outils pour résoudre
un problème, 3ème edition, édition Dunod,.
D’Acquin, M., Lieber, J., Napoli, A., 2002.
Représentation
multi-points
de
vue
des
connaissances pour l’adaptation, Atelier de
raisonnement à partir de cas, RàPC Paris
De Fenetti , 1990. Theory of proability. Wiley Classics
Library.
Dieng-Kuntz,R., D. Minier.,D, R ži ka, M., Corby, F.,
Corby, O., Alamarguy, L., 2008.Building and using
a medical ontology for knowledge management and
cooperative work in a health care network"
Computers in Biology and Medicine, Volume 36,
Issues 7-8, Pages 871-892.
Dubois, D., et Prade, H., 2006. Représentations
formelles de l'incertain et de l'imprécis, Dans :
Concepts etméthodes pour l'aide à la décision outils de modélisation, D. Bouyssou, D. Dubois, M.
Pirlot, et H.Prade (Eds.), Lavoisier, (3), pp. 111171, vol. 1, Traité IC2.
Fuchs, B., 1997. Représentation des connaissances
pour le raisonnement à partir de cas. Le système
ROCADE, Thèse de Doctorat : Informatique, SaintEtienne.
Hermosillo Worley J., Rakoto H., Grabot B. and
Geneste L, 2005. A competence approach in the
experience feedback process. In Integrating Human
Aspects in Production Management, IFIP
International Federation for Information Processing
series, Volume 160, pp 220-235, edited by Zulch
G., Jagdev H.S and Stock P., Springer-Verlag, New
York, USA.
Jabrouni, H, Geneste, L., Kamsu, B., 2008. Le retour
d'expérience industriel : une aide à la décision basée
sur les connaissances. FEES’08. MAROC.
Jeffreys, H.S., 1961. Theory of probability. 3ème
edition, oxford University Press, 1961.
Lichtenstein, S., Newman, J.R., 1967. Empirical
scaling of common verbal phrases associated with
numerical probabilities. Psychonomic Science n° 9.
Naïm, P., Wuillemin, P-H., Leray, Ph., Pourret, O.,
Becker, A., Réseaux bayésiens, 2007. Eyrolles;
Édition ISBN-10: 221211972.
Rakoto, H., 2004. Intégration du Retour d’Expérience
dans les processus industriels – Application à
ALSTOM Transport (in France). PhD thesis,
National Polytechnic Institute of Toulouse.
R.P. Srivastava (1996), "Value judgments using belief
functions", JAI Press, Greenwich, CT, pp.109 130.
S. Moral, J. del Sagrado . (1997). Aggregation of
imprecise probabilities. In: Aggregation and Fusion
of Imperfect Information (B. Bouchon-Meunier,
ed.) Physica Verlag, Heidelberg, 162-188.
Wilke, W., Bergmann, R., 1998. Techniques and
knowledge used for adaptation during case-based
problem solving, 11th International Conference on
Industrial Engineering Applications of Artificial
Intelligence and Experts Systems, IEA- 98-AIE,
Lecture Notes in Computer Science, SpringerVerlag, Berlin Heidelberg New York.