Société de Calcul Mathématique, S. A.
Transcription
Société de Calcul Mathématique, S. A.
Société de Calcul Mathématique, S. A. Algorithmes et Optimisation La modélisation mathématique robuste Exposé au forum technique d'Arcachon, Aerospace Valley, mardi 29 mai 2007 par Bernard Beauzamy PDG, Société de Calcul Mathématique S. A. Aujourd'hui, les organismes et entreprises cherchent de plus en plus à évaluer la qualité des résultats numériques obtenus. C'est un état d'esprit nouveau : pendant trente ans, la mode était au calcul de plus en plus précis, de plus en plus rapide. Maintenant, on met davantage l'accent sur la connaissance de l'incertitude sur les résultats. Les deux, bien sûr, ne sont pas incompatibles, mais ils procèdent d'une approche radicalement différente. 1. D'où vient ce besoin ? Nous l'avons constaté au travers des demandes des clients : la SCM a douze années d'existence et, depuis au moins dix ans, presque tous nos contrats se placent dans ce cadre. Il s'agit d'une photographie de l'état de l'opinion des entreprises et des organismes publics ; nous nous sommes adaptés mais nous ne l'avons en aucune façon créé. Comme souvent, le domaine moteur a été le nucléaire, pour des raisons évidentes : sécurité générale, allongement de la durée de vie des centrales ; tout ceci a conduit les responsables à s'interroger sur la précision, sur la fiabilité, des résultats : lorsque le code de calcul sort une température égale à 1 145°C, en cas de grosse brèche dans le réacteur, est-ce que cela veut dire 1 140 - 1 150, ou bien 1 100 - 1 300, ou bien 100 - 3 000, ou n'importe quoi ? En d'autres termes, quelle est l'information fiable qui se cache derrière cette valeur bien jolie, bien précise, de 1 145°C ? De même, quel sens peut-on donner à un coefficient de sécurité ou de dimensionnement d'une structure, sachant que la géométrie, les lois de comportement, les caractéristiques des matériaux, les charges appliquées, et plus généralement toutes les "entrées" du calcul relèvent elles-mêmes d'approximations, de modélisations, ou de mesures incomplètes ? Dans le cas de véhicules aéronautiques et spatiaux, il est souvent demandé d'afficher une "fiabilité prévisionnelle". Pour l'obtenir, on fait souvent des calculs paramétriques reposant sur des modèles, qui ne sont que des approximations. De plus, d'un point de vue pratique, on ne peut balayer qu'un nombre fini et restreint de variations des paramètres d'entrée : tout ceci pose des problèmes méthodologiques quant à la validité du résultat. Siège social et bureaux : 111, Faubourg Saint Honoré, 75008 Paris. Tel. : 01 42 89 10 89. Fax : 01 42 89 10 69 Société Anonyme au capital de 56 200 Euros. RCS : Paris B 399 991 041. SIRET : 399 991 041 00035. APE : 731Z Dans d'autres domaines, on a voulu évaluer d'éventuels dommages. Nous avons travaillé pour le CNES (2005) sur la question : comment mesurer les dégâts liés à la retombée des débris spatiaux ? Nous verrons plus loin les méthodes que nous avons développées. Ce besoin de connaître les incertitudes s'est progressivement répandu : récemment, Veolia Environnement, Région Ouest, nous a demandé de mettre au point un "panel" de consommateurs, pour la consommation d'eau, et a précisé que ce panel devrait refléter la consommation réelle "à 1 % près". Cette requête, très légitime, est nouvelle : les sondages électoraux donnent une valeur, sans préciser la fourchette. Enfin, d'autres secteurs ne sont pas encore conquis. Le responsable d'un bureau d'études en environnement me disait récemment que les laboratoires chargés d'analyser les pollutions des sols lui fournissaient toujours un chiffre de pollution, mais que ce chiffre n'était jamais assorti d'un intervalle. Je lui ai rétorqué qu'une mesure devait toujours être assortie d'une évaluation de précision et je lui ai conseillé de refuser de payer la facture que les laboratoires lui adressaient ! La seconde raison qui favorise l'analyse des incertitudes est le besoin d'économies. Bien des organismes se font cette remarque de bon sens : il n'est pas utile de développer un logiciel très fin, très puissant, qui analyse tout et calcule avec 15 chiffres significatifs, si nos données ne sont connues qu'à 20 % près. De même, si le besoin est imprécis, le résultat en sortie n'a pas de raison d'être précis. Nous en verrons des exemples plus loin. Mais, même en ce cas, les méthodes robustes, dont nous allons parler, ne conviennent pas à la culture de base des ingénieurs, qui aiment bien calculer vite et précisément. Beaucoup d'entre eux, lorsqu'ils y réfléchissent, en conviennent volontiers, mais le réflexe de base, pour tout problème, est de vouloir recueillir des données suffisamment précises et suffisamment nombreuses pour alimenter un calcul fin. Or, comme nous le verrons, ce n'est généralement ni possible ni souhaitable. En 2007, on trouve encore des écoles d'ingénieurs qui se contentent d'enseigner l'analyse numérique (encore appelée "calcul scientifique"), sans que les élèves aient jamais entendu parler d'évaluation des incertitudes et aient jamais reçu le moindre bagage en probabilités. Enfin, les méthodes robustes sont souvent adoptées par ceux qui souhaitent être à l'abri de toute critique. Par exemple, pour reconstituer des données manquantes, pour faire des extrapolations, de nombreuses méthodes existent : prolongement linéaire, régression, etc., mais elles reposent sur des hypothèses factices, donc critiquables. Plutôt que de dire avec une belle certitude "la valeur retenue est 10,53", et de ployer aussitôt sous le déluge de critiques, beaucoup préfèrent dire "la valeur est entre 10 et 11", en étant sûrs de leur fait. Nous avons un contrat cadre avec l'Agence Européenne de l'Environnement : il s'agit de fournir des résultats "robustes" : grossiers certes, mais à l'abri de toute critique. Le domaine concerné est la mesure des pollutions dans les rivières ; nous en parlerons plus bas. 2. Un peu de terminologie Quand il s'agit d'évaluer la précision sur un résultat, trois concepts distincts peuvent être employés : − Une fourchette, encore appelée tolérance absolue. Elle vous dit que le résultat annoncé a est nécessairement compris entre deux bornes m et M (qui ne sont pas nécessairement symétriques par rapport à a ). Cela correspond à un cahier des charges précis. Je déclare que telle épaisseur doit être de 3.4 cm avec une tolérance de ± 1 mm : Modélisation robuste. Exposé BB, Aerospace Valley, Arcachon, mai 2007 2 cela signifie que, lors de la fabrication, tous les produits doivent être entre 3.3 et 3.5 cm. Ceux qui ne sont pas dans cet intervalle seront rejetés. − Un intervalle de confiance, par exemple à 95 %. Dans l'exemple précédent, l'intervalle 3.3 - 3.5 cm sera un intervalle de confiance à 95 % si 95 % des produits fabriqués tombent dans cet intervalle. On accepte (c'est moins strict que le précédent) un quota hors intervalle, pourvu que ce quota ne soit pas trop nombreux. Notons bien que l'on ne fixe aucune borne sur ceux qui sont hors intervalle : s'il y en a un de 10 mètres de long, cela reste acceptable ! − Une loi de probabilité. On définira par exemple quatre valeurs, mettons : P {3 < X ≤ 3.3} = 0.01 P {3.3 < X ≤ 3.4} = 0.38 P {3.4 < X ≤ 3.5} = 0.59 P {3.5 < X ≤ 4} = 0.02 et on réclamera que la production respecte ces critères : par exemple, sur 10 000 pièces, il doit y en avoir environ 59 % entre 3.4 et 3.5. C'est plus précis que l'intervalle de confiance, tout en étant plus souple que la fourchette absolue. Notons bien que dans ces conditions on contrôle toute la production : un élément de 10 m n'est plus acceptable. 3. Un exemple concret Pour traiter immédiatement un exemple concret, voici un problème que le CNES nous a soumis en 2005 : comment évaluer les dégâts susceptibles d'être commis par la réentrée d'un objet spatial (débris de satellite, de lanceur, etc.). On connaît (approximativement) la position de l'objet et sa vitesse lors de la réentrée dans l'atmosphère ; on dispose de cartes de densité de population, d'implantation des sites industriels, etc. Comment évaluer les dégâts susceptibles de survenir ? On peut évidemment mettre en œuvre un logiciel précis : à partir de la taille, de la forme de l'objet, de ses caractéristiques (Cx, surface, poids, nature du matériau), connaissant le champ de gravité et les caractéristiques de l'atmosphère (densité, direction et force des vents), on peut calculer le point de chute de l'objet. Un tel logiciel est lourd et coûteux à développer, et très lent d'exécution, car toutes les équations doivent être résolues par des méthodes numériques à pas variable. Le problème est que le résultat obtenu (trois coordonnées, avec autant de décimales que l'on veut !) ne répond en rien à la question posée, car les données d'entrée sont imprécises. On ne connaît pas exactement, en réalité, ni la position ni la vitesse du satellite lors de la réentrée, ni la densité de l'air aux différentes couches. De plus, l'objet n'est pas unique : il se fragmente, et les divers fragments auront des Cx, des surfaces, des poids, des matériaux, différents, et donc des trajectoires différentes. Le résultat n'est donc certainement pas un nombre, mais plutôt ce que nous avons appelé une "carte probabiliste", dont voici un exemple (Est de la France) : Modélisation robuste. Exposé BB, Aerospace Valley, Arcachon, mai 2007 3 Figure 1 : carte probabiliste issue de la retombée de débris spatiaux, Est de la France Nous verrons tout à l'heure comment cette carte a été construite. Notons tout de suite qu'elle répond à la question posée, celle de l'assurance : vous superposez cette carte à une carte de densité de population, de sites industriels, et vous faites un calcul d'espérance mathématique : dommage multiplié par la probabilité du dommage. Pour prendre un exemple concret, nous avions décidé que si un débris touchait une personne, cela représentait un million d'euros de dédommagement, et si le débris touchait une centrale nucléaire (nous en avions ajouté une, pour faire joli), la pénalité était dix millions d'euros. Tout calcul fait, la prime d'assurance se montait à 100 Euros, tant la probabilité est faible. Notre calcul conforte bien les données expérimentales recueillies à la suite de l'accident de la navette Columbia : bien que les débris se fussent répandus sur 5 Etats et près de 2 500 km, aucune personne n'a été touchée. La robustesse s'entend par rapport aux données, mais aussi par rapport aux objectifs. Le CNES n'a pas besoin de savoir exactement où les débris vont tomber, mais approximativement, et si la zone est trop peuplée, on dirige le satellite ailleurs. Voyons sur la carte ci-dessus les trois concepts mentionnés plus haut : − La fourchette, ou tolérance absolue, serait l'ensemble des positions possibles : sorte de grosse "patate" englobant la carte. − L'intervalle à 95 % serait obtenu en éliminant des zones périphériques, de manière à ne garder qu'un ellipsoïde où la probabilité totale est de 95 %. − Enfin, la carte présentée plus haut est évidemment ce qui comporte le plus d'information : on sait où sont les zones dangereuses, et dans quelle mesure elles le sont. Modélisation robuste. Exposé BB, Aerospace Valley, Arcachon, mai 2007 4 4. Modélisation robuste Nous appellerons "modélisation robuste" un ensemble de méthodes qui permettent de prendre en compte, dès l'origine, les incertitudes sur les données, sur les lois, sur les objectifs. La modélisation robuste est un concept beaucoup plus large que celui de "méthodes numériques robustes", censées fournir un résultat lorsque les données sont imprécises. La modélisation robuste est un concept qui n'a rien de numérique : c'est une façon de poser le problème. L'idée de base est que la plupart des gens veulent, au moins dans un premier temps, une aide à la décision, pour "dégrossir" le problème ; la solution précise viendra plus tard si nécessaire. Par définition, cette aide à la décision doit être grossière et rapide : telle zone est intéressante, telle zone est éliminée. On dégage donc le concept de "Quick Acceptable Solution" : solution rapide acceptable. La plupart des problèmes sont posés, sous forme académique, dans un cadre d'optimisation. Il y a une fonction objectif, qu'il s'agit d'optimiser, et des contraintes, qu'il s'agit de respecter. Par exemple, on cherchera à minimiser le coût d'une tournée, en respectant le fait d'assurer toutes les livraisons et de garantir le temps de repos des chauffeurs. Malheureusement, cette approche, fort répandue, est de peu d'utilité pratique. Dans la réalité, il n'y a jamais une fonction à optimiser : il y en a des quantités. Par exemple, il y a les objectifs à court terme, à moyen terme, à long terme, qui sont généralement peu compatibles. Dans notre programme de recherche "Robust Mathematical Modeling" (RMM), nous abandonnons donc complètement la notion d'optimum, et nous la remplaçons par des contraintes. Par exemple, au lieu de chercher à minimiser le coût de la tournée, on se demandera : peut-on réaliser la même tournée que l'an passé avec une économie de 5 % en carburant ? ou bien avec une économie d'heures de conduite ? On cherche une Quick Acceptable Solution qui satisfasse les contraintes que l'on impose. La première qui sort de l'ordinateur est soumise à l'examen : peu importe si elle ne réalise aucun optimum. S'il s'avère qu'aucune solution n'est possible avec les contraintes retenues, on allège certaines de ces contraintes, et l'on recommence. Au contraire, si une solution existe, on peut renforcer certaines contraintes et recommencer, en fonction des besoins. Les contraintes que l'on impose sont elles-mêmes simplifiées. Il n'est pas utile, pour un problème grossier, de conserver des contraintes fines et précises. On remplace donc les contraintes d'origine par des contraintes linéaires ou affines, au moins par morceaux. Le troisième outil essentiel de la méthode RMM est la mise en œuvre systématique de lois probabilistes, pour tout ce qui n'est pas connu avec certitude. Reprenons l'exemple de la réentrée des débris. La résistance de l'air est donnée par une formule du type : R= 1 ρ Cx S V 2 2 Modélisation robuste. Exposé BB, Aerospace Valley, Arcachon, mai 2007 5 où ρ est la résistance de l'air, C x un coefficient de frottement, S la surface du mobile et V sa vitesse par rapport à l'air. En vérité, dans cette formule, rien n'est correctement connu. La résistance de l'air, par exemple, est donnée par des tables standardisées en fonction de l'altitude, mais ces valeurs ne sont certainement pas exactes. On peut penser qu'une variation de ± 10 % autour de ces valeurs est possible. Nous traduisons cela en instaurant une loi de probabilité uniforme sur l'intervalle correspondant (il y a en réalité plusieurs lois, suivant les altitudes). De même pour le coefficient de frottement, de même pour la surface, de même pour la vitesse. Et même l'exposant 2 de la vitesse est sujet à caution : personne n'est réellement certain que, à 7 km/s en atmosphère raréfiée (de l'ordre de 100 km d'altitude) la résistance de l'air soit proportionnelle au carré de la vitesse. Nous avons donc introduit un exposant α , suivant une loi uniforme entre 2 et 2.5. Et nous avons procédé de même pour toutes les étapes de la chute : l'enveloppe externe du satellite fond (selon un processus mal connu), des débris internes sont libérés, qui sont eux-mêmes soumis au processus d'échauffement. Toutes les incertitudes sur l'ensemble du processus sont ainsi prises en compte. Une fois toutes les lois écrites, on lance 10 000 simulations, chacun des paramètres ayant sa loi propre, et on compte combien de fois chaque maille de terrain est atteinte par un ou par plusieurs débris, d'où la carte ci-dessus. Bien sûr, les lois uniformes ne sont là que lorsque la connaissance est très faible. Au fur et à mesure que la connaissance progresse, on sait que certaines plages sont plus probables que d'autres, et on utilise les lois appropriées : par exemple des lois triangulaires ou bien des lois gaussiennes. Les méthodes probabilistes que nous venons de décrire sont finalement assez simples. Elles répondent à la préoccupation suivante : il y a, dans le processus qui nous occupe, des choses que nous ne connaissons pas (en l'occurrence, la densité de l'air, parmi d'autres). Peut-être pourrions-nous les mesurer (envoyer un ballon sonde), mais en définitive ce n'est pas utile, parce que la valeur précise de cette densité nous importe assez peu, et ce serait très coûteux. Mieux vaut donc considérer que la valeur de cette densité est régie par le hasard ; ce n'est pas le cas, bien sûr, mais nous faisons comme si c'était le cas. Cet exemple est vraiment caractéristique de la mise en œuvre de méthodes robustes. On s'aperçoit qu'il n'y a absolument rien de numérique ; on ne recherche aucune précision. Bien au contraire, on s'efforce d'être homogène d'un bout à l'autre du travail : qu'importe si la carte probabiliste a plusieurs centaines de km de long, puisque a) la position initiale du satellite n'est pas exactement connue et b) il ne s'agit que de le guider vers des régions suffisamment vides ? Les trois concepts de base des méthodes RMM sont donc : 1. Il n'y a plus d'objectifs, seulement des contraintes ; 2. On simplifie les contraintes ; 3. On rend probabiliste tout ce qu'on ne connaît pas. Modélisation robuste. Exposé BB, Aerospace Valley, Arcachon, mai 2007 6 5. Un exemple d'application possible des méthodes RMM : le Contrôle Non Destructif Nous avons travaillé trois ans pour EdF sur la reconstruction de défauts en Courants de Foucault (1997-2000). Quelle que soit la méthode, thermographie infrarouge ou ultrasons, on crée une bibliothèque de défauts caractéristiques ("défauthèque") et on s'en sert pour calibrer les appareils. Etant donné un signal recueilli, on le compare aux éléments de la bibliothèque et on tente de reconstituer la forme du défaut réel. Cette reconstruction est binaire : on détecte le défaut de la bibliothèque ou on ne le détecte pas. Deux questions se posent, qui relèvent de la "robustesse" du procédé : − A partir de quelle similarité entre le défaut réel et le défaut de la bibliothèque peut-on détecter le défaut réel ? (définir un indice de proximité) − Quel bruit de fond empêche la détection (présence d'autres défauts, épaisseur du matériau, nature de la surface, etc.) ? De manière générale, on peut vouloir passer d'un CND qui relève de l'imagerie (donc déterministe) à un CND qui serait probabiliste : reconstruction imprécise, mais robuste. Il est très important de noter que la précision de la reconstruction dépend de l'objectif. Il n'est pas nécessairement utile de reconstruire finement : ce peut être utile pour une intervention chirurgicale, mais non pour le remplacement d'une pièce. Par exemple, le remplacement des tubes dans les générateurs de vapeur des centrales EdF ne requiert pas une reconstitution précise, fine, détaillée : une reconstitution grossière suffit, pour décider si oui ou non le tube doit être remplacé. Voyons maintenant la mise en œuvre d'un outil probabiliste plus sophistiqué, l'EPH (Experimental Probabilistic Hypersurface). 6. L'Hypersurface Probabiliste Elle a été introduite par nous dans le cadre d'un contrat avec Framatome-ANP (20032004) ; elle est maintenant développée par Olga Zeydina, SCM SA, dans le cadre d'une thèse soutenue par l'IRSN, Direction de la Sûreté des Réacteurs (2007). Supposons qu'un code de calcul dépende de 50 paramètres en entrée ; ce code est long à travailler (mettons 24 heures pour faire un "run"), ce qui rend impossible une exploration complète de l'espace des paramètres. Mettons que 300 ou 400 runs aient été faits. Dans le cas de Framatome et de l'IRSN, il s'agit du code "Cathare", code de thermohydraulique, qui calcule la température maximale atteinte par un réacteur en cas de grosse brèche. Un seuil critique est fixé à 1 200°C. Admettons que les 400 runs faits, sur différentes valeurs des paramètres d'entrée, aient donné diverses températures en sortie, avec au maximum 1 150°C. La question qui se pose est celle de la valeur prédictive de ce résultat. Si chaque paramètre pouvait prendre 10 valeurs (et en général il peut en prendre une infinité, puisque ce sont des paramètres continus), l'espace des paramètres aurait 1050 configurations possibles, et une exploration de 300 ou 400 d'entre eux est infime. L'EPH est un moyen de propager l'information en tout point de l'espace des configurations. A partir de tout point où la mesure a été faite, on envoie une information, qui est une loi de probabilité (portant en l'occurrence sur la température). Plus on est proche Modélisation robuste. Exposé BB, Aerospace Valley, Arcachon, mai 2007 7 d'un point où la mesure a été faite, et plus cette loi est concentrée ; plus on est éloigné et plus cette loi est diffuse. Ensuite, lorsque plusieurs mesures ont été faites, ces différentes informations se recombinent entre elles. L'ensemble de la construction se fait en respectant un principe d'entropie maximale : on ne fait jamais aucune hypothèse supplémentaire. Lorsque l'EPH est construite, le résultat est une loi de probabilité en chaque point de l'espace des configurations. Si on veut prédire une valeur précise en un point, on prend l'espérance de la loi. Ceci permet la reconstruction de valeurs manquantes et la prédiction. L'EPH est donc aussi un moyen de "stocker" l'information recueillie. Chaque nouvelle mesure, si l'on en fait, précise et enrichit l'EPH. Voici un exemple, tiré d'un travail que nous réalisons pour l'AEE (Agence Européenne de l'Environnement), 2007. 7. Un exemple d'utilisation de l'EPH Il concerne la pollution des rivières en NH4 ; on s'intéresse à la proportion de stations de mesure, en France, qui ont observé une concentration inférieure au seuil de 0.2 mg/l en moyenne annuelle. Les valeurs pour les années 73, 74, 75, 78, 79, 80, 85, 86, 87, étaient manquantes et ont été reconstituées grâce à l'EPH, et les valeurs pour 2006, 2007, 2008, sont prédites. concentration en NH4 1,20 1,00 0,80 0,60 0,40 0,20 2008 2007 2006 2005 2004 2003 2002 2001 2000 1999 1998 1997 1996 1995 1994 1993 1992 1991 1990 1989 1988 1987 1986 1985 1984 1983 1982 1981 1980 1979 1978 1977 1976 1975 1974 1973 1972 1971 0,00 Figure 2 : reconstruction et prédiction de valeurs de pollution grâce à l'EPH La reconstruction et la prédiction sont faites en deux étapes : − Tout d'abord, une loi de probabilité complète est calculée pour chacune des années en question. Ceci est obtenu par propagation de l'information. Par exemple, voici la loi de probabilité pour l'année 1986 : loi proba 1986 0,35 proba 0,30 0,25 0,20 0,15 0,10 0,05 0,96 0,9 0,84 0,78 0,72 0,66 0,6 0,54 0,48 0,42 0,36 0,3 0,24 0,18 0,12 0,06 0 0,00 pourcentage stations Figure 3 : la loi de probabilité pour 1986 Modélisation robuste. Exposé BB, Aerospace Valley, Arcachon, mai 2007 8 − Après quoi, la valeur retenue est l'espérance de cette loi. Cette manière de procéder a trois avantages : − Pas d'hypothèse gratuite ; − Une loi de probabilité tout entière, pas seulement une valeur précise ; − Un contrôle complet sur les incertitudes : on peut dire ce qui se passera si les valeurs mesurées en certains points changent de 10 %, par exemple. Regardons à nouveau la figure 2 : les valeurs annoncées pour 73, 74, 75, sont très audessus de celles que l'on aurait obtenues par interpolation linéaire entre 72 et 76. Cela tient au fait que la valeur en 77 est très élevée, et qu'elle influence les choix pour 73 - 75, ce qui ne serait pas le cas pour une simple interpolation linéaire. Il en résulte une baisse entre 75 et 76, qui n'est nullement absurde, puisqu'une telle baisse se produit effectivement entre 77 et 81. 8. Exemples possibles d'application relevant du secteur aéronautique et spatial − Fiabilité prévisionnelle des véhicules spatiaux L'EPH serait un outil approprié pour l'étude de la fiabilité prévisionnelle des véhicules spatiaux (estimation d'une probabilité de défaillance). On dispose a priori de modèles grossiers, et on ne peut faire varier qu'un petit nombre de paramètres d'entrée. L'EPH, dans ces conditions, permet la détection des zones dangereuses (configurations critiques) et l'évaluation de la probabilité totale de défaillance. − Qualifier un procédé de fabrication La qualification des procédés de fabrication de produits intermédiaires (pré-imprégnés), matériaux, pièces composites (par exemple) fournit également un exemple intéressant. Il arrive régulièrement que le produit fini soit rebuté, car des paramètres "cachés" du procédé ont changé (caractéristique non identifiée de la matière première, température / hygrométrie de l'atelier, "tour de main" de l'opérateur, etc. ...). Lorsque le procédé de fabrication a été ainsi modifié, le premier réflexe est souvent de lancer des grands plans d'expériences, pour essayer de "recentrer les paramètres" suivant l'expression consacrée. L'EPH permettrait ici d'estimer une probabilité, en sortie, de rester dans tel ou tel intervalle, tenant compte des changements sur les paramètres d'entrée ; ces changements seraient incorporés sous la forme de lois de probabilité. L'EPH permet de ne pas se limiter à une vision "binaire" : en fonction de la valeur discrète d'une caractéristique en sortie, on déclare le produit bon ou mauvais. On peut se poser les mêmes questions de manière plus quantitative : quel pourcentage sera dans tel intervalle ? Ou, à l'inverse, comment choisir le seuil pour qu'un pourcentage donné (par exemple 99 %) y satisfasse ? Le programme RMM est un programme ouvert : voir http://www.scmsa.com/robust.htm pour les documents scientifiques, la liste des participants, les événements organisés, etc. Modélisation robuste. Exposé BB, Aerospace Valley, Arcachon, mai 2007 9