Société de Calcul Mathématique, S. A.

Transcription

Société de Calcul Mathématique, S. A.
Société de Calcul Mathématique, S. A.
Algorithmes et Optimisation
La modélisation mathématique robuste
Exposé au forum technique d'Arcachon, Aerospace Valley, mardi 29 mai 2007
par Bernard Beauzamy
PDG, Société de Calcul Mathématique S. A.
Aujourd'hui, les organismes et entreprises cherchent de plus en plus à évaluer la qualité
des résultats numériques obtenus. C'est un état d'esprit nouveau : pendant trente ans, la
mode était au calcul de plus en plus précis, de plus en plus rapide. Maintenant, on met
davantage l'accent sur la connaissance de l'incertitude sur les résultats. Les deux, bien
sûr, ne sont pas incompatibles, mais ils procèdent d'une approche radicalement différente.
1. D'où vient ce besoin ?
Nous l'avons constaté au travers des demandes des clients : la SCM a douze années
d'existence et, depuis au moins dix ans, presque tous nos contrats se placent dans ce cadre. Il s'agit d'une photographie de l'état de l'opinion des entreprises et des organismes
publics ; nous nous sommes adaptés mais nous ne l'avons en aucune façon créé.
Comme souvent, le domaine moteur a été le nucléaire, pour des raisons évidentes : sécurité générale, allongement de la durée de vie des centrales ; tout ceci a conduit les responsables à s'interroger sur la précision, sur la fiabilité, des résultats : lorsque le code de
calcul sort une température égale à 1 145°C, en cas de grosse brèche dans le réacteur,
est-ce que cela veut dire 1 140 - 1 150, ou bien 1 100 - 1 300, ou bien 100 - 3 000, ou n'importe quoi ? En d'autres termes, quelle est l'information fiable qui se cache derrière cette
valeur bien jolie, bien précise, de 1 145°C ?
De même, quel sens peut-on donner à un coefficient de sécurité ou de dimensionnement
d'une structure, sachant que la géométrie, les lois de comportement, les caractéristiques
des matériaux, les charges appliquées, et plus généralement toutes les "entrées" du calcul relèvent elles-mêmes d'approximations, de modélisations, ou de mesures incomplètes ?
Dans le cas de véhicules aéronautiques et spatiaux, il est souvent demandé d'afficher
une "fiabilité prévisionnelle". Pour l'obtenir, on fait souvent des calculs paramétriques
reposant sur des modèles, qui ne sont que des approximations. De plus, d'un point de vue
pratique, on ne peut balayer qu'un nombre fini et restreint de variations des paramètres
d'entrée : tout ceci pose des problèmes méthodologiques quant à la validité du résultat.
Siège social et bureaux : 111, Faubourg Saint Honoré, 75008 Paris. Tel. : 01 42 89 10 89. Fax : 01 42 89 10 69
Société Anonyme au capital de 56 200 Euros. RCS : Paris B 399 991 041. SIRET : 399 991 041 00035. APE : 731Z
Dans d'autres domaines, on a voulu évaluer d'éventuels dommages. Nous avons travaillé
pour le CNES (2005) sur la question : comment mesurer les dégâts liés à la retombée des
débris spatiaux ? Nous verrons plus loin les méthodes que nous avons développées.
Ce besoin de connaître les incertitudes s'est progressivement répandu : récemment, Veolia Environnement, Région Ouest, nous a demandé de mettre au point un "panel" de
consommateurs, pour la consommation d'eau, et a précisé que ce panel devrait refléter la
consommation réelle "à 1 % près". Cette requête, très légitime, est nouvelle : les sondages
électoraux donnent une valeur, sans préciser la fourchette.
Enfin, d'autres secteurs ne sont pas encore conquis. Le responsable d'un bureau d'études
en environnement me disait récemment que les laboratoires chargés d'analyser les pollutions des sols lui fournissaient toujours un chiffre de pollution, mais que ce chiffre n'était
jamais assorti d'un intervalle. Je lui ai rétorqué qu'une mesure devait toujours être assortie d'une évaluation de précision et je lui ai conseillé de refuser de payer la facture
que les laboratoires lui adressaient !
La seconde raison qui favorise l'analyse des incertitudes est le besoin d'économies. Bien
des organismes se font cette remarque de bon sens : il n'est pas utile de développer un
logiciel très fin, très puissant, qui analyse tout et calcule avec 15 chiffres significatifs, si
nos données ne sont connues qu'à 20 % près. De même, si le besoin est imprécis, le résultat en sortie n'a pas de raison d'être précis. Nous en verrons des exemples plus loin.
Mais, même en ce cas, les méthodes robustes, dont nous allons parler, ne conviennent
pas à la culture de base des ingénieurs, qui aiment bien calculer vite et précisément.
Beaucoup d'entre eux, lorsqu'ils y réfléchissent, en conviennent volontiers, mais le réflexe de base, pour tout problème, est de vouloir recueillir des données suffisamment
précises et suffisamment nombreuses pour alimenter un calcul fin. Or, comme nous le
verrons, ce n'est généralement ni possible ni souhaitable. En 2007, on trouve encore des
écoles d'ingénieurs qui se contentent d'enseigner l'analyse numérique (encore appelée
"calcul scientifique"), sans que les élèves aient jamais entendu parler d'évaluation des
incertitudes et aient jamais reçu le moindre bagage en probabilités.
Enfin, les méthodes robustes sont souvent adoptées par ceux qui souhaitent être à l'abri
de toute critique. Par exemple, pour reconstituer des données manquantes, pour faire
des extrapolations, de nombreuses méthodes existent : prolongement linéaire, régression, etc., mais elles reposent sur des hypothèses factices, donc critiquables. Plutôt que
de dire avec une belle certitude "la valeur retenue est 10,53", et de ployer aussitôt sous le
déluge de critiques, beaucoup préfèrent dire "la valeur est entre 10 et 11", en étant sûrs
de leur fait. Nous avons un contrat cadre avec l'Agence Européenne de l'Environnement :
il s'agit de fournir des résultats "robustes" : grossiers certes, mais à l'abri de toute critique. Le domaine concerné est la mesure des pollutions dans les rivières ; nous en parlerons plus bas.
2. Un peu de terminologie
Quand il s'agit d'évaluer la précision sur un résultat, trois concepts distincts peuvent
être employés :
− Une fourchette, encore appelée tolérance absolue. Elle vous dit que le résultat annoncé a est nécessairement compris entre deux bornes m et M (qui ne sont pas nécessairement symétriques par rapport à a ). Cela correspond à un cahier des charges précis. Je déclare que telle épaisseur doit être de 3.4 cm avec une tolérance de ± 1 mm :
Modélisation robuste. Exposé BB, Aerospace Valley, Arcachon, mai 2007
2
cela signifie que, lors de la fabrication, tous les produits doivent être entre 3.3 et
3.5 cm. Ceux qui ne sont pas dans cet intervalle seront rejetés.
− Un intervalle de confiance, par exemple à 95 %. Dans l'exemple précédent, l'intervalle
3.3 - 3.5 cm sera un intervalle de confiance à 95 % si 95 % des produits fabriqués tombent dans cet intervalle. On accepte (c'est moins strict que le précédent) un quota hors
intervalle, pourvu que ce quota ne soit pas trop nombreux. Notons bien que l'on ne
fixe aucune borne sur ceux qui sont hors intervalle : s'il y en a un de 10 mètres de
long, cela reste acceptable !
− Une loi de probabilité. On définira par exemple quatre valeurs, mettons :
P {3 < X ≤ 3.3} = 0.01
P {3.3 < X ≤ 3.4} = 0.38
P {3.4 < X ≤ 3.5} = 0.59
P {3.5 < X ≤ 4} = 0.02
et on réclamera que la production respecte ces critères : par exemple, sur 10 000 pièces, il doit y en avoir environ 59 % entre 3.4 et 3.5. C'est plus précis que l'intervalle de
confiance, tout en étant plus souple que la fourchette absolue. Notons bien que dans
ces conditions on contrôle toute la production : un élément de 10 m n'est plus acceptable.
3. Un exemple concret
Pour traiter immédiatement un exemple concret, voici un problème que le CNES nous a
soumis en 2005 : comment évaluer les dégâts susceptibles d'être commis par la réentrée
d'un objet spatial (débris de satellite, de lanceur, etc.). On connaît (approximativement)
la position de l'objet et sa vitesse lors de la réentrée dans l'atmosphère ; on dispose de
cartes de densité de population, d'implantation des sites industriels, etc. Comment évaluer les dégâts susceptibles de survenir ?
On peut évidemment mettre en œuvre un logiciel précis : à partir de la taille, de la forme
de l'objet, de ses caractéristiques (Cx, surface, poids, nature du matériau), connaissant le
champ de gravité et les caractéristiques de l'atmosphère (densité, direction et force des
vents), on peut calculer le point de chute de l'objet. Un tel logiciel est lourd et coûteux à
développer, et très lent d'exécution, car toutes les équations doivent être résolues par des
méthodes numériques à pas variable.
Le problème est que le résultat obtenu (trois coordonnées, avec autant de décimales que
l'on veut !) ne répond en rien à la question posée, car les données d'entrée sont imprécises. On ne connaît pas exactement, en réalité, ni la position ni la vitesse du satellite lors
de la réentrée, ni la densité de l'air aux différentes couches. De plus, l'objet n'est pas
unique : il se fragmente, et les divers fragments auront des Cx, des surfaces, des poids,
des matériaux, différents, et donc des trajectoires différentes. Le résultat n'est donc certainement pas un nombre, mais plutôt ce que nous avons appelé une "carte probabiliste",
dont voici un exemple (Est de la France) :
Modélisation robuste. Exposé BB, Aerospace Valley, Arcachon, mai 2007
3
Figure 1 : carte probabiliste issue de la retombée de débris spatiaux, Est de la France
Nous verrons tout à l'heure comment cette carte a été construite. Notons tout de suite
qu'elle répond à la question posée, celle de l'assurance : vous superposez cette carte à une
carte de densité de population, de sites industriels, et vous faites un calcul d'espérance
mathématique : dommage multiplié par la probabilité du dommage. Pour prendre un
exemple concret, nous avions décidé que si un débris touchait une personne, cela représentait un million d'euros de dédommagement, et si le débris touchait une centrale nucléaire (nous en avions ajouté une, pour faire joli), la pénalité était dix millions d'euros.
Tout calcul fait, la prime d'assurance se montait à 100 Euros, tant la probabilité est faible.
Notre calcul conforte bien les données expérimentales recueillies à la suite de l'accident
de la navette Columbia : bien que les débris se fussent répandus sur 5 Etats et près de
2 500 km, aucune personne n'a été touchée.
La robustesse s'entend par rapport aux données, mais aussi par rapport aux objectifs. Le
CNES n'a pas besoin de savoir exactement où les débris vont tomber, mais approximativement, et si la zone est trop peuplée, on dirige le satellite ailleurs.
Voyons sur la carte ci-dessus les trois concepts mentionnés plus haut :
− La fourchette, ou tolérance absolue, serait l'ensemble des positions possibles : sorte de
grosse "patate" englobant la carte.
− L'intervalle à 95 % serait obtenu en éliminant des zones périphériques, de manière à
ne garder qu'un ellipsoïde où la probabilité totale est de 95 %.
− Enfin, la carte présentée plus haut est évidemment ce qui comporte le plus d'information : on sait où sont les zones dangereuses, et dans quelle mesure elles le sont.
Modélisation robuste. Exposé BB, Aerospace Valley, Arcachon, mai 2007
4
4. Modélisation robuste
Nous appellerons "modélisation robuste" un ensemble de méthodes qui permettent de
prendre en compte, dès l'origine, les incertitudes sur les données, sur les lois, sur les objectifs. La modélisation robuste est un concept beaucoup plus large que celui de "méthodes numériques robustes", censées fournir un résultat lorsque les données sont imprécises. La modélisation robuste est un concept qui n'a rien de numérique : c'est une façon de
poser le problème.
L'idée de base est que la plupart des gens veulent, au moins dans un premier temps, une
aide à la décision, pour "dégrossir" le problème ; la solution précise viendra plus tard si
nécessaire. Par définition, cette aide à la décision doit être grossière et rapide : telle zone
est intéressante, telle zone est éliminée. On dégage donc le concept de "Quick Acceptable
Solution" : solution rapide acceptable.
La plupart des problèmes sont posés, sous forme académique, dans un cadre d'optimisation. Il y a une fonction objectif, qu'il s'agit d'optimiser, et des contraintes, qu'il s'agit de
respecter. Par exemple, on cherchera à minimiser le coût d'une tournée, en respectant le
fait d'assurer toutes les livraisons et de garantir le temps de repos des chauffeurs.
Malheureusement, cette approche, fort répandue, est de peu d'utilité pratique. Dans la
réalité, il n'y a jamais une fonction à optimiser : il y en a des quantités. Par exemple, il y
a les objectifs à court terme, à moyen terme, à long terme, qui sont généralement peu
compatibles.
Dans notre programme de recherche "Robust Mathematical Modeling" (RMM), nous
abandonnons donc complètement la notion d'optimum, et nous la remplaçons par des
contraintes. Par exemple, au lieu de chercher à minimiser le coût de la tournée, on se
demandera : peut-on réaliser la même tournée que l'an passé avec une économie de 5 %
en carburant ? ou bien avec une économie d'heures de conduite ?
On cherche une Quick Acceptable Solution qui satisfasse les contraintes que l'on impose.
La première qui sort de l'ordinateur est soumise à l'examen : peu importe si elle ne réalise aucun optimum.
S'il s'avère qu'aucune solution n'est possible avec les contraintes retenues, on allège certaines de ces contraintes, et l'on recommence.
Au contraire, si une solution existe, on peut renforcer certaines contraintes et recommencer, en fonction des besoins.
Les contraintes que l'on impose sont elles-mêmes simplifiées. Il n'est pas utile, pour un
problème grossier, de conserver des contraintes fines et précises. On remplace donc les
contraintes d'origine par des contraintes linéaires ou affines, au moins par morceaux.
Le troisième outil essentiel de la méthode RMM est la mise en œuvre systématique de
lois probabilistes, pour tout ce qui n'est pas connu avec certitude.
Reprenons l'exemple de la réentrée des débris. La résistance de l'air est donnée par une
formule du type :
R=
1
ρ Cx S V 2
2
Modélisation robuste. Exposé BB, Aerospace Valley, Arcachon, mai 2007
5
où ρ est la résistance de l'air, C x un coefficient de frottement, S la surface du mobile et
V sa vitesse par rapport à l'air.
En vérité, dans cette formule, rien n'est correctement connu. La résistance de l'air, par
exemple, est donnée par des tables standardisées en fonction de l'altitude, mais ces valeurs ne sont certainement pas exactes. On peut penser qu'une variation de ± 10 % autour de ces valeurs est possible. Nous traduisons cela en instaurant une loi de probabilité
uniforme sur l'intervalle correspondant (il y a en réalité plusieurs lois, suivant les altitudes). De même pour le coefficient de frottement, de même pour la surface, de même pour
la vitesse. Et même l'exposant 2 de la vitesse est sujet à caution : personne n'est réellement certain que, à 7 km/s en atmosphère raréfiée (de l'ordre de 100 km d'altitude) la
résistance de l'air soit proportionnelle au carré de la vitesse. Nous avons donc introduit
un exposant α , suivant une loi uniforme entre 2 et 2.5.
Et nous avons procédé de même pour toutes les étapes de la chute : l'enveloppe externe
du satellite fond (selon un processus mal connu), des débris internes sont libérés, qui
sont eux-mêmes soumis au processus d'échauffement. Toutes les incertitudes sur l'ensemble du processus sont ainsi prises en compte.
Une fois toutes les lois écrites, on lance 10 000 simulations, chacun des paramètres
ayant sa loi propre, et on compte combien de fois chaque maille de terrain est atteinte
par un ou par plusieurs débris, d'où la carte ci-dessus.
Bien sûr, les lois uniformes ne sont là que lorsque la connaissance est très faible. Au fur
et à mesure que la connaissance progresse, on sait que certaines plages sont plus probables que d'autres, et on utilise les lois appropriées : par exemple des lois triangulaires ou
bien des lois gaussiennes.
Les méthodes probabilistes que nous venons de décrire sont finalement assez simples.
Elles répondent à la préoccupation suivante : il y a, dans le processus qui nous occupe,
des choses que nous ne connaissons pas (en l'occurrence, la densité de l'air, parmi d'autres). Peut-être pourrions-nous les mesurer (envoyer un ballon sonde), mais en définitive
ce n'est pas utile, parce que la valeur précise de cette densité nous importe assez peu, et
ce serait très coûteux. Mieux vaut donc considérer que la valeur de cette densité est régie
par le hasard ; ce n'est pas le cas, bien sûr, mais nous faisons comme si c'était le cas.
Cet exemple est vraiment caractéristique de la mise en œuvre de méthodes robustes. On
s'aperçoit qu'il n'y a absolument rien de numérique ; on ne recherche aucune précision.
Bien au contraire, on s'efforce d'être homogène d'un bout à l'autre du travail : qu'importe
si la carte probabiliste a plusieurs centaines de km de long, puisque a) la position initiale
du satellite n'est pas exactement connue et b) il ne s'agit que de le guider vers des régions suffisamment vides ?
Les trois concepts de base des méthodes RMM sont donc :
1. Il n'y a plus d'objectifs, seulement des contraintes ;
2. On simplifie les contraintes ;
3. On rend probabiliste tout ce qu'on ne connaît pas.
Modélisation robuste. Exposé BB, Aerospace Valley, Arcachon, mai 2007
6
5. Un exemple d'application possible des méthodes RMM : le Contrôle Non Destructif
Nous avons travaillé trois ans pour EdF sur la reconstruction de défauts en Courants de
Foucault (1997-2000). Quelle que soit la méthode, thermographie infrarouge ou ultrasons, on crée une bibliothèque de défauts caractéristiques ("défauthèque") et on s'en sert
pour calibrer les appareils. Etant donné un signal recueilli, on le compare aux éléments
de la bibliothèque et on tente de reconstituer la forme du défaut réel. Cette reconstruction est binaire : on détecte le défaut de la bibliothèque ou on ne le détecte pas. Deux
questions se posent, qui relèvent de la "robustesse" du procédé :
− A partir de quelle similarité entre le défaut réel et le défaut de la bibliothèque peut-on
détecter le défaut réel ? (définir un indice de proximité)
− Quel bruit de fond empêche la détection (présence d'autres défauts, épaisseur du matériau, nature de la surface, etc.) ?
De manière générale, on peut vouloir passer d'un CND qui relève de l'imagerie (donc
déterministe) à un CND qui serait probabiliste : reconstruction imprécise, mais robuste.
Il est très important de noter que la précision de la reconstruction dépend de l'objectif. Il
n'est pas nécessairement utile de reconstruire finement : ce peut être utile pour une intervention chirurgicale, mais non pour le remplacement d'une pièce. Par exemple, le
remplacement des tubes dans les générateurs de vapeur des centrales EdF ne requiert
pas une reconstitution précise, fine, détaillée : une reconstitution grossière suffit, pour
décider si oui ou non le tube doit être remplacé.
Voyons maintenant la mise en œuvre d'un outil probabiliste plus sophistiqué, l'EPH (Experimental Probabilistic Hypersurface).
6. L'Hypersurface Probabiliste
Elle a été introduite par nous dans le cadre d'un contrat avec Framatome-ANP (20032004) ; elle est maintenant développée par Olga Zeydina, SCM SA, dans le cadre d'une
thèse soutenue par l'IRSN, Direction de la Sûreté des Réacteurs (2007).
Supposons qu'un code de calcul dépende de 50 paramètres en entrée ; ce code est long à
travailler (mettons 24 heures pour faire un "run"), ce qui rend impossible une exploration complète de l'espace des paramètres. Mettons que 300 ou 400 runs aient été faits.
Dans le cas de Framatome et de l'IRSN, il s'agit du code "Cathare", code de thermohydraulique, qui calcule la température maximale atteinte par un réacteur en cas de
grosse brèche. Un seuil critique est fixé à 1 200°C. Admettons que les 400 runs faits, sur
différentes valeurs des paramètres d'entrée, aient donné diverses températures en sortie, avec au maximum 1 150°C.
La question qui se pose est celle de la valeur prédictive de ce résultat. Si chaque paramètre pouvait prendre 10 valeurs (et en général il peut en prendre une infinité, puisque ce
sont des paramètres continus), l'espace des paramètres aurait 1050 configurations possibles, et une exploration de 300 ou 400 d'entre eux est infime.
L'EPH est un moyen de propager l'information en tout point de l'espace des configurations. A partir de tout point où la mesure a été faite, on envoie une information, qui est
une loi de probabilité (portant en l'occurrence sur la température). Plus on est proche
Modélisation robuste. Exposé BB, Aerospace Valley, Arcachon, mai 2007
7
d'un point où la mesure a été faite, et plus cette loi est concentrée ; plus on est éloigné et
plus cette loi est diffuse. Ensuite, lorsque plusieurs mesures ont été faites, ces différentes
informations se recombinent entre elles. L'ensemble de la construction se fait en respectant un principe d'entropie maximale : on ne fait jamais aucune hypothèse supplémentaire.
Lorsque l'EPH est construite, le résultat est une loi de probabilité en chaque point de
l'espace des configurations. Si on veut prédire une valeur précise en un point, on prend
l'espérance de la loi. Ceci permet la reconstruction de valeurs manquantes et la prédiction. L'EPH est donc aussi un moyen de "stocker" l'information recueillie. Chaque nouvelle mesure, si l'on en fait, précise et enrichit l'EPH.
Voici un exemple, tiré d'un travail que nous réalisons pour l'AEE (Agence Européenne de
l'Environnement), 2007.
7. Un exemple d'utilisation de l'EPH
Il concerne la pollution des rivières en NH4 ; on s'intéresse à la proportion de stations de
mesure, en France, qui ont observé une concentration inférieure au seuil de 0.2 mg/l en
moyenne annuelle. Les valeurs pour les années 73, 74, 75, 78, 79, 80, 85, 86, 87, étaient
manquantes et ont été reconstituées grâce à l'EPH, et les valeurs pour 2006, 2007, 2008,
sont prédites.
concentration en NH4
1,20
1,00
0,80
0,60
0,40
0,20
2008
2007
2006
2005
2004
2003
2002
2001
2000
1999
1998
1997
1996
1995
1994
1993
1992
1991
1990
1989
1988
1987
1986
1985
1984
1983
1982
1981
1980
1979
1978
1977
1976
1975
1974
1973
1972
1971
0,00
Figure 2 : reconstruction et prédiction de valeurs de pollution grâce à l'EPH
La reconstruction et la prédiction sont faites en deux étapes :
− Tout d'abord, une loi de probabilité complète est calculée pour chacune des années en
question. Ceci est obtenu par propagation de l'information. Par exemple, voici la loi de
probabilité pour l'année 1986 :
loi proba 1986
0,35
proba
0,30
0,25
0,20
0,15
0,10
0,05
0,96
0,9
0,84
0,78
0,72
0,66
0,6
0,54
0,48
0,42
0,36
0,3
0,24
0,18
0,12
0,06
0
0,00
pourcentage stations
Figure 3 : la loi de probabilité pour 1986
Modélisation robuste. Exposé BB, Aerospace Valley, Arcachon, mai 2007
8
− Après quoi, la valeur retenue est l'espérance de cette loi.
Cette manière de procéder a trois avantages :
− Pas d'hypothèse gratuite ;
− Une loi de probabilité tout entière, pas seulement une valeur précise ;
− Un contrôle complet sur les incertitudes : on peut dire ce qui se passera si les valeurs
mesurées en certains points changent de 10 %, par exemple.
Regardons à nouveau la figure 2 : les valeurs annoncées pour 73, 74, 75, sont très audessus de celles que l'on aurait obtenues par interpolation linéaire entre 72 et 76. Cela
tient au fait que la valeur en 77 est très élevée, et qu'elle influence les choix pour 73 - 75,
ce qui ne serait pas le cas pour une simple interpolation linéaire. Il en résulte une baisse
entre 75 et 76, qui n'est nullement absurde, puisqu'une telle baisse se produit effectivement entre 77 et 81.
8. Exemples possibles d'application relevant du secteur aéronautique et spatial
− Fiabilité prévisionnelle des véhicules spatiaux
L'EPH serait un outil approprié pour l'étude de la fiabilité prévisionnelle des véhicules
spatiaux (estimation d'une probabilité de défaillance). On dispose a priori de modèles
grossiers, et on ne peut faire varier qu'un petit nombre de paramètres d'entrée. L'EPH,
dans ces conditions, permet la détection des zones dangereuses (configurations critiques)
et l'évaluation de la probabilité totale de défaillance.
− Qualifier un procédé de fabrication
La qualification des procédés de fabrication de produits intermédiaires (pré-imprégnés),
matériaux, pièces composites (par exemple) fournit également un exemple intéressant.
Il arrive régulièrement que le produit fini soit rebuté, car des paramètres "cachés" du
procédé ont changé (caractéristique non identifiée de la matière première, température /
hygrométrie de l'atelier, "tour de main" de l'opérateur, etc. ...). Lorsque le procédé de fabrication a été ainsi modifié, le premier réflexe est souvent de lancer des grands plans
d'expériences, pour essayer de "recentrer les paramètres" suivant l'expression consacrée.
L'EPH permettrait ici d'estimer une probabilité, en sortie, de rester dans tel ou tel intervalle, tenant compte des changements sur les paramètres d'entrée ; ces changements seraient incorporés sous la forme de lois de probabilité.
L'EPH permet de ne pas se limiter à une vision "binaire" : en fonction de la valeur discrète d'une caractéristique en sortie, on déclare le produit bon ou mauvais. On peut se
poser les mêmes questions de manière plus quantitative : quel pourcentage sera dans tel
intervalle ? Ou, à l'inverse, comment choisir le seuil pour qu'un pourcentage donné (par
exemple 99 %) y satisfasse ?
Le programme RMM est un programme ouvert : voir http://www.scmsa.com/robust.htm
pour les documents scientifiques, la liste des participants, les événements organisés, etc.
Modélisation robuste. Exposé BB, Aerospace Valley, Arcachon, mai 2007
9