Lettre TI RIE n°12_A4 Q.indd
Transcription
Lettre TI RIE n°12_A4 Q.indd
La Lettre Techniques de l’Ingénieur Juillet 2008 RISQUES INDUSTRIELS & Environnement N°12 / 26 € L’électronique et l’aéronautique se mettent « au vert » SOMMAIRE A LA UNE 01 L’électronique et l’aéronautique se mettent « au vert » INNOVATIONS ET TECHNOLOGIES 03 L’essor de la déconstruction automobile 04 Des supercalculateurs pour la gestion de l’eau FLASH 05 L’inspection des installations classées « sur le gril » DOSSIER Démarches incertitudes 06 Vers une démarche « incertitudes » : méthodologie et formation inter-industrielle 08 La formation aux incertitudes : une exigence pour l’avenir 09 Prise de risques et gestion des incertitudes RÉGLEMENTATION 12 Suivi de la réglementation du 1er au 31 mai 2008 Tandis que la microélectronique se lance dans le recyclage de ses effluents métalliques avec REVAMATIC, le traitement de surface bénéficie de projets de recyclage des terres rares et du remplacement des bains de galvanisation par la pulvérisation à sec. F inancé en avril dernier par le Fonds Unique Interministériel (FUI) à hauteur de près d’un million d’euros, le projet Recyclage & Valorisation des effluents Métalliques pour l’industrie de la mICrolélectronique (REVAMATIC), labellisé par le Pôle Minalogic, vise un objectif principal : extraire et récupérer le cuivre éliminé des procédés de fabrication des puces tel, spécialement, le polissage mécanochimique. En découlent la préservation de la ressource en minerai, en eau, et la réduction des déchets mis en décharge, le tout conduisant ainsi à d’importants gains économiques. Or, pour sa part, dans son unité de La Rochelle, Rhodia mène un important projet de recyclage des terres rares… justement utilisées pour le polissage des puces. Enfin, Rescoll porte le projet SMILE [1] dont bénéficiera l’aéronautique. Précurseur, SMILE entend préserver les pièces aéronautiques par une formulation active à pulvériser directement sur les surfaces. Le film formé, mono-épaisseur, libérera en particulier des agents biocides. UN PROJET À BÉNÉFICES MULTIPLES REVAMATIC compte comme partenaires la PME Recupyl (38), spécialiste de recyclage hydrométallurgique, ST Microelectronics, le CEA-Leti, le Laboratoire d’Electrochimie et de Physicochimie des Matériaux et des Interfaces (LEPMI) de l’Institut National Polytechnique de Grenoble (INPG). A l’origine de ce projet : d’une part les dépôts de cuivre sur les circuits imprimés qui se font par des bains notamment électro-catalytiques, auxquels succède d’autre part l’étape de polissage mécano-chimique (CMP) des puces électroniques. Or, ces deux procédés conduisent à l’élimination du métal résiduel, soit par le changement des bains appauvris, soit par les effluents aqueux, dilués en cuivre et issus du polissage. Dans ce dernier cas, le projet se ZOOM SUR UN LABORATOIRE 13 Les émissions d’incinérateurs suivies à la trace BLOC-NOTES 14 Agenda 14 A lire 14 Parutions NOS PARTENAIRES 5 QUESTIONS À… 16 La contamination fongique sous contrôle automatique Une publication des Éditions T.I. www.techniques-ingenieur.com A LA UNE Risques Industriels & Environnement gramme de développement durable du Groupe : il permettra en effet de réduire les quantités de déchets ultimes mis en Centre d’Enfouissement Technique. Parmi les secteurs d’applications des terres rares : le traitement de surface, qui représente 25 % des approvisionnements en terres rares pour le Groupe. Ainsi, dans l’électronique, « la poudre de cérium, incorporée à des solvants, assure le polissage mécano-chimique des écrans d’ordinateurs et des gaufres de silicium lors des différentes étapes de gravure de leurs circuits intégrés » informe Olivier Dambricourt, à la direction de la stratégie de Rhodia. Cette poudre présente en effet des qualités non seulement abrasives mais aussi, en quelque sorte, de « cicatrisation » de la surface traitée. A noter que cette filière de recyclage complète celle du recyclage des terres rares contenues dans les néons, où Chimirec et Véolia interviennent, notamment dans la collecte. LES SURFACES AÉRONAUTIQUES PROTÉGÉES « À SEC » Crédit : ST Microelectronics 2 Figure 1 – Cuve de collecte d’effl uent concentré en cuivre. focalisera sur le recyclage de la solution aqueuse en eau de process. Pour les bains appauvris, contenant les plus fortes concentrations d’effluents métalliques, les seuls traitements actuels consistent en chaulage (ou à des méthodes similaires) de confinement des métaux lourds. Le projet compte alors supprimer cette voie d’évacuation pour réduire ses effets : la production de boues mixtes corrélée à l’augmentation des volumes de déchets accueillis en Centre d’enfouissement technique (de classe 1). En découlera, outre des bénéfices environnementaux, un gain en métaux permettant la préservation des ressources minières. Une préservation de la ressource qui s’inscrit d’ailleurs parmi les objectifs de développement durable fixés par l’International Technology Roadmap for Semiconductors (ITRS). Une autre composante économique forte intervient encore : le souci des sites de production N°12 / JUILLET 2008 microélectronique de pouvoir traiter leurs bains sur place (voir figure 1), pour s’affranchir du recours à la sous-traitance rendue aujourd’hui incontournable par le volume croissant de boues à évacuer en décharges. Cet enjeu représente « un gain considérable en sous-traitance externe ». Finalement, REVAMATIC, qui s’étendra sur deux ans, vise également à la réduction de la consommation d’eau. LA RÉCUPÉRATION DES TERRES RARES Le groupe de chimie fine Rhodia exploite plusieurs milliers de tonnes annuels de terres rares en provenance de Chine. Or, en contrôlant de fait ce marché, la Chine fait peser des menaces sur l’approvisionnement. Dès lors, Rhodia a mis en place, dans son unité dédiée aux terres rares de La Rochelle, un projet de recyclage des terres rares exploitées dans divers secteurs industriels. Par ailleurs, outre la sécurisation des approvisionnements, ce projet – qui nécessite de « gros investissements » – s’inscrit dans le pro- Avec Rescoll en porteur de projet et des partenaires industriels tels Airbus France et Dassault Aviation, le projet SMILE, financé par le Fond unique interministériel, vise à « remplacer des systèmes de traitement des surfaces avec immersion – aux impacts négatifs sur l’environnement – par des systèmes d’aspersion ou pulvérisation pour traiter des pièces aéronautiques intégrées de plus grande complexité et de plus grandes dimensions ». Sur le plan stratégique, il ambitionne de positionner le grand Sud-Ouest à l’avant-garde des travaux en matière de protection des surfaces des structures aéronautiques. La formulation à développer, innovante, devra assurer la protection à la fois contre la corrosion et la colonisation bactérienne. Elle consistera alors en une seule couche (contre trois actuellement), fine et composite, disposant de propriétés actives par la libération de principes actifs antimicrobiens et inhibiteurs de corrosion. SMILE, labellisé par le pole Aéronautique, Espace, Systèmes Embarqués (AESE), entend ainsi réduire la masse du traitement d’au moins 20 % et la quantité d’eau de rinçage, comme de matières dangereuses. L’emploi de systèmes d’aspersion permettra en outre de mieux contrôler les procédés, permettant ainsi spécialement de réduire la consommation de substances chimiques et le volume de déchets. Arnaud QUEYREL Journaliste scientifi que RÉFÉRENCE BIBLIOGRAPHIQUE [1] QUEYREL (A.) – Aéronautique durable, Editions TI, Lettre Techniques de l’Ingénieur Risques industriels & Environnement n°1 (2007) La Lettre Techniques de l’Ingénieur Risques Industriels & Environnement INNOVATIONS ET TECHNOLOGIES 3 L’essor de la déconstruction automobile N ée après la disparition de Matra Automobile en 2003, la société ReSource Industries, en Sologne, se positionne comme la « première entreprise européenne de démantèlement de VHU à répondre à la directive européenne (2000-53) ». Elle impose la valorisation à 85 % des Véhicules Hors d’Usage (VHU). Lancée en février 2007, Re-Source Industries, détenue par Indra Investment, Renault et Sita, dispose spécialement d’une chaîne de six postes de démantèlement où les opérateurs humains assurent aujourd’hui le démontage d’un véhicule (sécurisé) en 4h30. « La mise en place, en 2008, d’un logiciel d’assistance au démantèlement permettra d’augmenter le rendement sur les postes » annonce Olivier Gaudeau, directeur opérationnel de Re-Source Industries. Mi-avril, les partenaires du projet européen Ecological dismantling of end of life vehicles (ECODISM), coordonné par SaintGobain Sekurit, restituaient les résultats de leurs travaux chez Re-Source Industries. Ils procédaient aussi à des démonstrations. DEUX SOLUTIONS EN COMPÉTITION Crédit : Re-Source Industries Le projet européen ECODISM totalise une douzaine de partenaires européens dont la société suisse EFTEC, n°1 européen des adhésifs. Rescoll et l’entreprise anglaise De-Bonding proposent, pour leur part, des solutions de désassemblage spécifiques. Démarré en 2005, ECODISM vise à faciliter la maintenance et le désassemblage des liaisons collées des pièces composites automobiles – comprenant les thermoplastiques – et des Vue du poste de retournement (breveté) de la chaîne de démantèlement de VHU. glaces de véhicules. Ainsi, Rescoll propose la solution Innovative disassemcommerciale et recherchait des investisseurs bling adhesives research (« indar inside ») qui pour assurer son positionnement. Fiat, toutefois, incorpore un additif thermosensible dans l’adhésif indiquait de « bons résultats de vieillissement et assurant le collage du joint. Le désassemblage une très bonne compatibilité d’utilisation avec des vitres comme des parties composites de ses matériels, par la technologie de décollage des véhicules nécessite alors une source d’énergie pare-brise proposée par De-Bonding ». locale comme du chauffage infrarouge, testé QUAND L’HUMAIN RIME AVEC L’ÉCONOMIE dans le cadre d’ECODISM. A noter que les partenaires estiment le caractère La solution proposée par De-Bonding consiste en opérationnel du projet à cinq ou dix ans (voire l’incorporation, notamment dans les adhésifs, de quinze ans), sachant qu’aujourd’hui les déman« microsphères thermoactivables » dont l’originateleurs atteignent les objectifs européens de lité vient de leur expansion irréversible sous l’effet, 85 % de recyclage des VHU sans y intégrer les également, d’une source de chaleur (200°C enviglaces. Or, l’Europe a fixé l’objectif de 95 % de ron). Cette expansion conduit au désassemblage. récupération en 2015. A cinq ans, les résultats Par l’apparence, ces microparticules ressemblent d’ECODISM devraient déjà bénéficier aux répaà un matériau pulvérulent blanc. Désormais, rateurs puisque le décollage des vitres devrait pour promouvoir sa technologie auprès des pouvoir s’opérer, dans un « futur proche », en constructeurs, Rescoll fait valoir une application « 5 à 10 minutes, incluant les opérations de pose déjà concluante à l’aérospatiale et « l’avantage de ventouses, positionnement de la table de de ne nécessiter aucune modification de la levage… ». D’ailleurs, parmi les participants venus formulation de l’adhésif, donc des conditions de découvrir ECODISM, se trouvait Valéo. L’opérateur pose du joint ». De-Bonding, pour sa part, n’avait travaille actuellement au « démantèlement des encore, en avril au moins, aucune existence dispositifs d’éclairage (phares, projecteurs…) ». Pour sa part, la valorisation nécessitera un temps plus long puisqu’elle dépendra de la création de filières dédiées, avec la mise en œuvre d’un mécanisme financier global de recyclage des verres. De surcroît, il s’agit de tenir compte du temps de vie des véhicules et de l’industrialisation nécessaire du procédé. Cependant, au-delà du caractère technique, le projet présente un grand intérêt pour les entreprises de maintenance en offrant la possibilité d’améliorer les conditions de travail des opérateurs de la filière VHU. Et puis, ces développements innovants en éco-conception ouvrent de nouvelles perspectives pour la déconstruction des VHU et la gestion améliorée des déchets de la filière. Cette filière est d’ailleurs globalement valorisée par son organisation de plus en plus structurée. Arnaud QUEYREL Chaîne de démantèlement de VHU. La Lettre Techniques de l’Ingénieur Journaliste scientifi que N°12 / JUILLET 2008 Crédit : Re-Source Industries Première entreprise européenne de démantèlement de Véhicules Hors d’Usage (VHU), Re-Source Industries offre une vitrine de démonstration idéale au projet européen ECODISM de désassemblage de glaces et pièces composites. INNOVATIONS ET TECHNOLOGIES Risques Industriels & Environnement Des supercalculateurs pour la gestion de l’eau En février dernier, le pôle de compétences « Durabilité de la ressource en eau associée aux milieux » (DREAM) naissait officiellement en région Centre. Présidé par le bureau d’études Géo-Hyd, ce pôle pilotera des projets de recherche centrés sur la gestion durable de la ressource en eau. Parmi ses différentes missions, l’une – impérative – sera de concevoir un supercalculateur capable d’exploiter les gros volumes de données hydrogéologiques, obtenus grâce à l’utilisation des outils et méthodologies d’acquisition de plus en plus sophistiqués. L’ un des premiers projets validés par DREAM, « eXtenGIS », vise à repenser le mode de traitement des données des Systèmes d’Information Géographique (SIG) appliqués au domaine de l’eau et ce, afin de répondre à la difficulté croissante à laquelle se heurte l’ensemble des acteurs pour analyser et traiter ces données de façon appropriée. En effet, la précision des appareils de mesure de terrain atteint, notamment « grâce au laser aéroporté, une finesse de l’ordre d’un point tous les mètres » signale Daniel Pierre, président du pôle de compétences « Durabilité de la ressource en eau associée aux milieux » (DREAM) et directeur de Géo-Hyd. Le périmètre des études environnementales, des campagnes de mesures et de prélèvements, s’établit quant à lui à l’échelle des bassins versants, voire des régions. L’augmentation des volumes d’informations – automatiquement obtenues par des outils et méthodologies d’acquisition de plus en plus sophistiqués, qui ont gagné en finesse – et « la disponibilité, jamais aussi forte, des données SIG », accroissent de ce fait la taille des bases de données. Or les outils actuels, basés sur des méthodes de calcul séquentiel fonctionnant par résolution de cellules, de proche en proche, ne sont plus techniquement capables de traiter ces masses d’informations pour en tirer le meilleur parti. En particulier pour donner des résultats fiables dans des délais de temps qui se réduisent. Crédit : Pôle de compétences DREAM 4 LA SOLUTION DU PARALLÉLISME « Bien que dotés de capacités de calcul accrues, nous arrivons toujours en limite de calcul – au mieux – ou sans pouvoir lancer de processus itératif ». Finalement, Daniel Pierre (voir figure 1) fixe l’objectif ultime du projet : « pouvoir travailler comme s’il s’agissait d’un SIG mais doté d’une capacité de solliciter des logiciels permettant de restituer la finesse des données ». La réponse d’eXtenGIS, fruit d’une collaboration entre Géo-Hyd et le laboratoire d’informatique fondamentale d’Orléans (LIFO) : concevoir un supercalculateur capable d’exploiter les gros volumes de données hydrogéologiques. Le principe se fonde sur le regroupement de PC « en N°12 / JUILLET 2008 Figure 1 – Daniel Pierre, Président du Pôle de compétences DREAM : « Bien que dotés de capacités de calcul accrues, nous arrivons toujours (actuellement) en limite de calcul ». grappe » pour leur permettre un fonctionnement en parallèle (voir figure 2). Ces PC tourneront toutefois avec de nouveaux algorithmes spécifiques et d’une grande complexité. Les algorithmes classiques, conçus par des hydrogéologues, ne peuvent en effet plus répondre aux demandes désormais croissantes, en particulier de l’Europe et des gouvernements, d’approches globales et transversales, holistiques, incorporant des variables de caractérisation du relief, d’occupation des sols… Dès lors, dans ce cadre, quel défi devront relever les informaticiens du LIFO ? Appliquer leur La Lettre Techniques de l’Ingénieur FLASH savoir-faire dans le calcul parallèle, distribué, à la refonte des algorithmes SIG dont les limitations actuelles ont jusqu’à présent bridé les calculs. Il s’agit ainsi de fournir un outil de traitement des données, fiable et rapide, au service d’applications environnementales inédites. eXtenGIS a su attirer des institutionnels comme la Direction régionale de l’environnement et l’Agence de l’eau Loire Bretagne. En matière de recherche, il compte notamment l’Inra et le BRGM tandis que de grandes entreprises, comme LVMH Recherche, y participent également. au Vaucluse. Le dispositif de surveillance repose sur un réseau de capteurs hydrométéorologiques (pluviomètres, radars de mesure de hauteur d’eau…) aux données traitées en temps réel en vue d’émettre d’éventuelles alertes. Ces données, accessibles au public via internet, sont transmises par radio jusqu’à un central d’alerte géré par le syndicat mixte local. Ce central estime automatiquement les risques de crues sur le bassin avant transmission d’une alerte éventuelle aux acteurs spécialisés. UNE MUTUALISATION EN QUÊTE DE FINANCEMENTS Pour Patrice André, secrétaire de DREAM et responsable du département « innovation actifs » chez LVMH Recherche, « l’intérêt d’un tel cluster est de réunir des sensibilités et savoir-faire complémentaires, issus de différentes filières, autour de la thématique fédératrice de l’eau, matière première du monde biologique ». LVMH intervient dans ce pôle, notamment par un premier projet d’étude et de valorisation de la biodiversité végétale des zones humides en région Centre. Plus spécifiquement, pour Daniel Pierre, en matière de mutualisation de compétences, le grand intérêt du cluster réside dans « l’exploitation des travaux scientifiques en calcul parallèle au profit du SIG, pour offrir désormais aux acteurs de terrain, comme les agences de bassin, une capacité de calcul jusqu’alors seulement scientifiquement exploitée, débouchant sur des traitements de données plus pertinents ». Et Crédit : LIFO - Université d’Orléans Risques Industriels & Environnement 5 Or, sur cette thématique des inondations, eXtenGIS est à même d’apporter des solutions. En effet, pour Daniel Pierre, la visualisation numérique 3D que comprendra eXtenGIS peut amener des réponses par la restitution graphique de l’environnement, en particulier dans le cadre de « programmes d’acquisition en zones inondables ». Ainsi, « une mise en scène 3D associant les modèles de propagation des crues (de la Loire notamment) avec l’acquisition de données par laser aéroporté, peut constituer un nouvel outil décisionnel en particulier en faveur des élus ». Figure 2 – Traitement d’informations géographiques par ordinateurs en parallèle. tandis que l’association elle-même ne disposait pas encore, début mai, de budget de fonctionnement, DREAM procédait aux demandes de financements à la fois pour Géo-Hyd et le LIFO, respectivement via l’outil de subventions « Cap R&D » du Conseil Régional Centre et l’Appel à Projet de Recherche régional. L’Association espère ainsi « rentrer dans la phase opérationnelle du projet eXtenGIS fin 2008 » signale Denis GroËninck, Délégué DREAM et Chargé des relations Recherche - Entreprises à Orléans Val de Loire Technopole (initiateur de DREAM). Le coût du projet eXtenGIS, qui devrait se dérouler sur trois ans, se monte à 1,3 million d’euros. Arnaud QUEYREL Journaliste scientifi que POUR ALLER PLUS LOIN – Pôle de compétences eau DREAM : www.orleans-valdeloire-business.com – Laboratoire d’informatique fondamentale d’Orléans (LIFO) : www.univ-orleans.fr/lifo – Géo-Hyd : www.geo-hyd.com L’APPLICATION AUX CRUES Le bureau d’études Egis Eau (ex-BCEOM France) pilote la création ex nihilo d’un système d’alerte aux crues, parfois meurtrières, qui affectent le bassin versant du Lez s’étendant de la Drôme L’inspection des installations classées « sur le gril » Le gouvernement prépare la «modernisation » du cadre d’action de l’inspection des ICPE sur fond de grogne des inspecteurs. Ils redoutent notamment l’inadéquation de moyens et la privatisation. U « risque d’aggravation de l’inadéquation des missions aux moyens, au vu des sommes de missions complémentaires importantes à mener ». D’autre part, Medhy Melin, Secrétaire national du SNIIM, corps auquel appartiennent les inspecteurs des ICPE, s’inquiète du projet de fusion entre DRIRE et DIREN : « comment se traduira-t-il concrètement sur les missions et, surtout, que deviendront leurs personnels, leurs métiers spécifiques et la culture associée ? » Et « s’agit-il d’un premier pas vers la privatisation avec la séparation entre instruction, contrôle et inspection alors menés par des dispositifs pré-établis, sans pertinence ? » ne circulaire du 23 janvier 2008 fixe les thèmes d’action nationale de l’inspection des installations classées pour l’environnement (ICPE) pour l’année 2008. « Une année de transition vers un nouveau programme de modernisation, en lien avec la mise en place de renforts de l’inspection des installations classées, et en application des décision prises lors du Grenelle de l’environnement ». Le Syndicat national des ingénieurs de l’industrie et des mines (SNIIM) constate le La Lettre Techniques de l’Ingénieur Crédit : SNIIM En matière de prévention des risques accidentels, l’accent est notamment mis sur le renforcement de la sécurité des établissements Seveso, avec l’identification des établissements nécessitant un examen complémentaire de la démarche de maîtrise des risques à la source. Medhy MELIN, Secrétaire National du SNIIM. Arnaud QUEYREL Journaliste scientifi que N°12 / JUILLET 2008 DOSSIER 6 Risques Industriels & Environnement Démarches incertitudes 06 Vers une démarche « incertitudes » : méthodologie et formation inter-industrielle 08 La formation aux incertitudes : une exigence pour l’avenir 09 Prise de risques et gestion des incertitudes Vers une démarche « incertitudes » : méthodologie et formation inter-industrielle L’accroissement de la confiance des autorités régulatrices et l’élargissement des espaces de conception passent par un enjeu industriel majeur : la maîtrise des incertitudes. F dans la mesure où cela permettra d’optimiser les marges, d’avoir des espaces de conception plus larges et d’accroître la confiance des autorités régulatrices. teurs industriels et académiques français pour progresser concrètement sur ces défis. L’une de ses actions-phare a été la réalisation d’une formation interindustrielle pilote pour mettre au point une pédagogie sur un référentiel commun, fruit d’années de collaboration entre industrie et recherche, notamment au sein du réseau européen European Safety, Reliability & Data Association (ESReDA). UN CONSENSUS MÉTHODOLOGIQUE PORTÉ PAR UNE FORMATION-PILOTE. L’expérience industrielle récente montre qu’un traitement explicite des incertitudes est désormais accessible dans les études et processus décisionnels, et qu’une démarche générique aux métiers s’avère possible. Elle pose de nombreux défis d’ordres culturel, scientifique, informatique, organisationnel et réglementaire. Suite à une première journée interindustrielle co-organisée par l’IMdR-SDF et EDF R&D en 2005, un groupe de travail « Incertitudes et Industrie » a été lancé en 2006, réunissant une vingtaine d’ac- UN CADRE GÉNÉRIQUE DE MODÉLISATION Crédit : E. De Rocquigny. Dessin : P. Bouillon ace aux aléas économiques, aux variabilités de production, aux risques naturels et industriels, ou aux incertitudes des impacts environnementaux et sanitaires, la décision s’appuie sur des essais, des mesures, des modèles numériques ou de l’expertise pour la conception, l’exploitation, le monitoring ou la prévision. Une multitude d’incertitudes, imprécisions et aléas de natures très variables affectent les marges, la fiabilité, la rentabilité et in fine la crédibilité des décisions. En outre, l’évolution contractuelle ou le dialogue réglementaire avec les autorités de contrôle conduit à plus d’exigences de robustesse dans les argumentaires d’autorisation ou de certification, ou l’audit des produits, procédés et installations. Progresser dans la maîtrise des incertitudes constitue un enjeu majeur pour les industriels, Figure 1 – Cadre commun d’étude des incertitudes. N°12 / JUILLET 2008 Quel que soit le contexte (métrologie, calcul scientifique, fiabilité, technico-économique …), la plupart des exemples industriels peuvent être appréhendés dans le cadre suivant d’étude des incertitudes (voir la figure 1) : – un objet physico-industriel au cœur de l’étude, représenté par une chaîne de modèles physiconumériques et/ou instrumenté par une chaîne métrologique (G(.)) ; – des sources d’incertitudes affectant ces modèles (notées x ), et d’autres variables considérées comme bien maîtrisées, rassemblées dans le vecteur d : par exemple les conditions de fonctionnement ou d’essais de l’installation ou du produit destiné à être certifié. On peut également y adjoindre les variables d’entrée sujettes à des incertitudes dont l’importance est négligée, ou fixées par convention ; – des enjeux industriels (sûreté/sécurité, responsabilité environnementale, optimisation économique et financière) qui pilotent l’étude d’incertitude ; – une ou des quantités d’intérêt (variance, intervalle de confiance…) portant sur une ou des variables z prédites par la chaîne de modèle. La Lettre Techniques de l’Ingénieur DOSSIER Risques Industriels & Environnement Crédit : E. De Rocquigny. Dessin : P. Bouillon L’étude d’incertitudes vise une ou plusieurs finalités parmi les suivantes, qui se matérialisera souvent par un critère décisionnel construit avec la quantité d’intérêt : – la justification (ou « certification », vis-à-vis de la réglementation) ; – la hiérarchisation (des efforts de mesure, de modélisation ou de R&D), menée souvent simultanément avec la première finalité ; – l’optimisation (des choix de conception, d’exploitation/maintenance…) ultérieure éventuelle ; – la validation (i.e. calage/qualification d’un modèle numérique, d’un procédé de mesure…) parfois menée en amont des autres finalités. REPRÉSENTATIONS MATHÉMATIQUES VARIÉES, ÉTAPES-CLÉ GÉNÉRIQUES. Le modélisation des incertitudes conduit alors à plonger ce modèle déterministe G(.) dans un univers incertain, en associant à chacune de ces variables (x, z) des « mesures (ou distributions) d’incertitude » (X, Z). Ces mesures d’incertitudes peuvent être, selon le choix du paradigme déterministe, probabiliste ou possibiliste, soit des intervalles, soit des variables aléatoires, soit encore des distributions non probabilistes (nombres flous, distributions possibilistes, de Dempster-Shafer etc.). Le choix du paradigme de modélisation des incertitudes occupe un pan entier de la littérature sur l’incertitude et le risque. Cette discussion, de nature épistémologique mais aussi liée à la théorie de la décision, est souvent associée à des distinctions suivant la nature des incertitudes (dites « aléatoires », « épistémiques », de « variabilité », « erreur » ou encore « incertitude de modèle » etc.). Dans une perspective économique, elle fait notamment référence à la façon dont les acteurs peuvent appréhender un avenir incertain plus ou moins probabilisable, avec une appréhension contrastée de l’utilité. Néanmoins, quel que soit le paradigme choisi, l’étude d’incertitudes pour un objet physico-industriel donné s’avère reposer sur les même étapes génériques (voir la figure 2) : – la spécification du problème : le choix de la variable finale (éventuellement vectorielle) z, de l’enchaînement logique des données et modèles adaptés pour les évaluer, du critère décisionnel, et du paradigme de modélisation des incertitudes. – la quantification (ou modélisation) des sources d’incertitudes : la détermination des mesures d’incertitudes X par l’estimation de leurs paramètres θX , qui peut impliquer deux voies différentes : la quantification directe par expertise et/ou traitement d’observations directes (B) ou la quantification indirecte quand les observations ou l’expertise portent sur d’autres variables, par méthodes inverses (B’). Cette dernière voie peut être aussi assimilée à la phase de calage/qualification du modèle, ou, dans un paradigme déterministe, à de l’identification de paramètres. – la « propagation d’incertitudes » : le calcul de la mesure d’incertitude Z de la variable finale z et l’estimation des critères cz. La Lettre Techniques de l’Ingénieur 7 Figure 2 – Etapes génériques d’une étude d’incertitudes. – la hiérarchisation d’importance des sources d’incertitudes (ou « analyse de sensibilité ») : le classement de l’importance des composantes Xi des sources vis-à-vis des critères cz. MÉTHODES ET COMPÉTENCES : STATISTIQUES, NUMÉRIQUES, PHYSIQUES ET DÉCISIONNELLES La mise en œuvre de ces étapes génériques mobilise un panel varié de méthodes et compétences associées, qui relient de façon étroite les mathématiques appliquées (statistiques, probabilités et analyse numérique) et l’analyse physico-industrielle (propriétés de l’objet physique, sciences de la décision et ingénierie industrielle). On observe généralement que le choix des méthodes les plus pertinentes doit être avant tout pensé en fonction du problème posé, qui dépend de la nature de la réglementation ou du critère de décision choisi (étape A) ainsi que des propriétés génériques de l’objet et du modèle, et non pas du « métier » spécifique du problème industriel. L’une des questions-clés est de savoir si l’incertitude doit être jaugée autour du comportement moyen (quantité d’intérêt de type variance) ou bien quant au risque d’écart (quantité de type probabilité de dépassement de seuil ou quantile) : les modèles statistiques et méthodes de calcul numéricoprobabiliste diffèrent. On peut citer également le fait que le calcul du modèle physico-industriel G(.) en une valeur ponctuelle (x,d) peut demander un temps CPU (Central Processing Unit) très variable (de 10-4 s à quelques jours de calcul selon les cas !), ou présenter une régularité fonctionnelle plus ou moins forte : des conséquences notables en découlent en matière de calcul scientifique faisant l’objet de projets collaboratifs Open Source (EHPOC/lot Incertitude du Pôle de Compétitivité System@tic ; OPUS financé par l’Agence Nationale pour la Recherche). Notons enfin que si dans cette même approche globale d’autres paradigmes mathématiques sont possibles (et évoqués dans la formation), le cadre mixte déterministe-probabiliste apparaît central dans les applications industrielles actuel- les. De fait, il est coutumier d’opposer l’approche « déterministe » des incertitudes, implicitement utilisée par bon nombre d’ingénieurs et décideurs – qui emploient des « scénarii pénalisés » ou de la sensibilité paramétrique élémentaire – et l’approche probabiliste. Dans la perspective du référentiel ici évoqué, on parle plutôt d’un curseur, dans une même démarche globale, entre deux modélisations de l’incertitude qui apparaissent plutôt complémentaires (entre les variables d’entrée classées « x » et « d »), voire imbriquées (dans des modèles conditionnels plus élaborés). Toute la subtilité apparaît alors dans la façon de bien traduire dans des modélisations d’incertitudes la connaissance disponible (données, expertise …) et de bien interpréter les critères décisionnels qui en découlent (flexibilité, couverture de risque…) dans une méthodologie suffisamment robuste et accessible pour être légitime et industrialisable. Etienne DE ROCQUIGNY Mission transverse « Statistiques et Incertitudes » d’EDF R&D Responsable des groupes « Incertitudes et Industrie » de l’IMdR et « Uncertainty management » de l’ESReDA. Equipe de formateurs G. ANDRIANOV (G.), LEFEBVRE (Y.) – EDF R&D ; FISCHER (N.) – LNE ; VASSEUR (O.) – ONERA ; HERBIN (E.) – Dassault Aviation ; Devictor (N.), Iooss (B.) – CEA ; FARRET (R.) – INERIS ; Stojanovic (N.) ; MANGEANT (F.) ET FEUILLARD (V.) – EADS – IW ; MASSÉ (J.R.) – SAFRAN – Hispano-Suiza ; CHOJNACKI (E.) ET RICHET (Y.) – IRSN POUR ALLER PLUS LOIN DE ROCQUIGNY (E.) – La maîtrise des incertitudes dans un contexte industriel, Journal de la Société Française de Statistique, vol. 147, n° 3, 33-106. (2006). ROCQUIGNY (E.), DEVICTOR (N.) & TARANTOLA (S.) (editors), Uncertainty in Industrial Practice - A guide to quantitative uncertainty management, Wiley, 2008 ht tp: // w w w. imdr. eu / v2 /ex tranet / index . php?page=news_detail1&id=76 N°12 / JUILLET 2008 DOSSIER 8 Risques Industriels & Environnement La formation aux incertitudes : une exigence pour l’avenir Former les ingénieurs aux méthodes de traitement des incertitudes assure la création de valeur pour les industriels en France et maintient cette compétence de recherche appliquée au plus haut niveau mondial. A l’issue du premier module, s’adressant à la communauté des décideurs et managers, les stagiaires sont capables d’identifier leurs besoins en matière de traitement des incertitudes ainsi que de dimensionner et planifier les projets dans leurs unités. Le deuxième module, rendu plus pratique par un travail sur PC et en groupe, s’adresse davantage à ceux qui implémenteront la démarche sur les cas concrets. Les stagiaires acquièrent des compétences de mise en œuvre et repartent avec les outils adaptés. S’appuyant sur les applications des industriels formateurs, ce cursus répond à différents besoins par ses deux modules : aux managers, il offre les méthodes et le REX pour la mise en place de la démarche de management des incertitudes dans leurs unités ; aux ingénieurs, les outils et des compétences pratiques d’intégration de la « dimension incertitude » dans leurs études métier. N°12 / JUILLET 2008 Tolérancement : calcul de tolérancement pour les fournisseurs en aéronautique Maintenance : prise en compte de l’incertitude dans le coût de la maintenance Etalonnage masses : évaluation de l‘incertitude lors de l’étalonnage d’une masse Cuve : calcul de probabilité de rupture d’une cuve REP EPS : étude probabiliste de sûreté Perf. Garanties consommation : calcul de coût de garantie sous incertitude CO2 : quantifi cation des incertitudes sur les émissions de CO2 Avant-projets Avion : prise en compte d’incertitude dans l’avant projet de conception d’avion Contamination des sols : Estimation de l’impact de la contamination radioactive sur l’environnement Optronique : étude d’infl uence de facteurs incertains en fabrication de fi ltres Figure 1 – Positionnement des illustrations métier. LA PÉDAGOGIE Sur le plan pédagogique, la diversité de provenance des intervenants a contribué à enrichir la variété des approches. Le premier module privilégiait les exposés synthétiques afin de favoriser la compréhension des nombreuses applications industrielles tout en discutant de façon forte les enjeux d’une telle démarche. Les principaux échanges sont de plus repris et approfondis en fin de formation lors d’une table ronde permettant à tous de bénéficier du retour d’expériences de décideurs (CEA, EDF, EADS, LNE) ayant déjà initié une telle « démarche incertitudes » dans leur entreprise. Le deuxième module privilégiait un mode d’apprentissage fondé sur l’expérimentation. Les stagiaires travaillent sur PC et appréhendent les méthodes statistiques exposées au travers d’un cas industriel fil rouge tout au long de la formation. Ils sont épaulés et sollicités individuellement par des accompagnants formateurs qui leur permettent d’avancer à leur rythme lors de chaque session thématique. En fin de formation, un travail en sous-groupe sur un cas pratique de synthèse favorise la restitution par les stagiaires de la démarche incertitudes et des méthodes associées. C’est également un moment fort de partage d’expérience et d’échanges permettant de confronter les solutions retenues par chacun en accord avec les enjeux et contraintes industriels. La réussite de cette appropriation de la démarche commune incertitudes par le stagiaire favorise son assimilation ; une première étape en vue d’une transposition à sa propre problématique industrielle. PAROLE DE STAGIAIRES Les participants à cette première session de la formation venaient d’origine industrielle en grande majorité. Il apparaissait néanmoins une grande diversité de niveaux de responsabilité des fonctions occupées : elles allaient de l’ingénieur en R&D au directeur scientifique de grande La Lettre Techniques de l’Ingénieur Crédit : N. Fischer. Dessin : P. Bouillon P lusieurs signes laissent penser que la recherche appliquée française se trouve bien positionnée en matière de méthodes de traitement des incertitudes. Toutefois l’intégration des méthodes par les équipes d’ingénierie et bureaux d’études – gage de création de valeur pour les industriels – ne va pas de soi. Nombreux sont les exemples où les avancées de la recherche française sont finalement valorisées outre-atlantique. Une masse critique d’utilisateurs compétents est un gage de transfert de savoir R&D sur la chaîne de valorisation, et un moyen de maintenir la compétence R&D au plus haut niveau en la stimulant par de nouveaux défis. Dans cette optique, sous l’égide de l’IMdR, dix entreprises et organismes industriels français (CEA, CNES, Dassault, EADS, EDF, IRSN, INERIS, LNE, Onera, Safran) issus de domaines aussi divers que l’aéronautique, l’énergie ou l’armement ont uni leurs forces afin de créer une offre de formation continue « vers une démarche incertitudes » pour les ingénieurs et managers, dont la première édition a eu lieu en novembre 2007 et janvier 2008. Fruit de l’expérience de ses intervenants, ce cursus de formation s’appuie sur une grande diversité d’applications industrielles, illustrant la pertinence et le caractère générique des méthodes proposées. Une dizaine d’illustrations métier (voir la figure 1) allant des études avant projet aux calculs opérationnels servent de support pour amener et justifier le formalisme choisi et les méthodes associées [1]. DOSSIER Risques Industriels & Environnement entreprise. Le corollaire à cette diversité était une variété dans les attendus de la formation aux incertitudes. Alors que certains ont apprécié la variété des exemples industriels du premier module dans lesquels ils pouvaient reconnaître leurs préoccupations habituelles, quelques-uns ont pu ressentir une impression de « survol » des méthodes mises en œuvre ou même un manque de formalisation mathématique. Cette impression a été majoritairement contrebalancée par le deuxième module, dont l’objectif était l’étude et la mise en application des principales méthodes participant à une étude d’incertitudes. Les formulaires de satisfaction ont fait apparaître une bonne appréciation globale de la formation de la part des stagiaires. Ils mettaient en exergue la cohérence entre les différents exposés et la très bonne coordination entre les intervenants. La variété sectorielle des participants et de leurs problématiques métier – allant de la conception par simulation numérique à la métrologie et les essais en passant par la fiabilité, le management de risques et la maintenance – a de plus conforté le message des intervenants sur le caractère générique des approches exposées. Certains stagiaires ont pu cependant reprocher le caractère trop pointu de certains exemples, ce qui pouvait faire perdre le fil conducteur de la méthodologie : un écueil qui sera corrigé dès la prochaine session de formation. Cette expérience de formation a également eu l’intérêt de susciter des débats sur des questions plus avancées surgissant de la pratique industrielle. La question de la combinaison mathématique des notions de risques et d’incertitudes en était l’une d’entre elles : les critères de décision peuvent-ils techniquement ou doivent-ils, du point de vue réglementaire, dissocier ou non des niveaux de probabilité différents pour ce qui est « intrinsèquement aléatoire » ou « lié à une méconnaissance réductible » par plus d’information ? Une autre thématique portait sur la notion d’« incertitudes de modèle », et son traitement en lien avec la calibration des codes et la comparaison essais/calculs, au-delà de la propagation des « incertitudes paramétriques ». Autant de questions qui s’avèrent donc se poser assez vite à un praticien qui lance une « démarche incertitudes », alors même qu’elles font appel à des méthodes plus sophistiquées, voire non consensuelles au plan de la recherche scientifique. Ainsi les méthodes inverses, le formalisme bayésien et l’optimisation sous incertitudes, ainsi que la construction des plans d’expérience et de méta-modèles, ont été mentionnés comme des thèmes qui pourraient trouver leur place dans cette formation. Etant plus ardues au plan pédagogique, elles avaient été écartées dans un premier temps, mais pourraient bien mériter un effort supplémentaire. LE FUTUR DE LA FORMATION Les nombreuses questions formulées par les stagiaires lors de la première édition de cette La Lettre Techniques de l’Ingénieur formation ont confirmé l’attente et les besoins des bureaux d’études sur cette thématique « Incertitudes ». Si la première édition a permis de dégager un consensus méthodologique entre les industriels, il est apparu nécessaire de la pérenniser : d’une part pour répondre aux nombreuses demandes en attente d’industriels déjà initiés au concept d’incertitude, d’autre part pour sensibiliser de nouvelles entreprises à la prise en charge de l’incertitude dans leur processus industriel. Au-delà d’une deuxième édition-pilote réalisée au sein de l’IMdR en 2008 afin de répondre à la liste d’attente, le groupe d’industriels a sollicité un organisme de formation continue afin d’industrialiser cette offre de formation, le rendre pérenne et déclinable à grande échelle. Le savoir-faire d’un organisme de formation continue, tant sur le plan organisationnel que pédagogique, permettra sur le long terme de continuer à diffuser en direction des industriels une formation de « bonne pratique » aux incertitudes, tout en continuant de s’appuyer sur le savoir-faire et la diversité d’expérience des différents partenaires initiaux. Ce nouveau déploiement offre la perspective de former dès 2009 près d’une centaine de per- sonnes par an, de quoi créer l’effet « boule de neige » recherché : il permettra à l’ensemble des industries françaises de bénéficier d’un nouvel avantage compétitif dans l’économie mondiale tout en contribuant aussi, par l’expérience industrielle, aux débats de société sur les questions de risques et de robustesse dans les argumentaires scientifiques. N. FISCHER LNE – Service Statistiques et calculs d’incertitude G. Andrianov Coordinateur du projet OPUS EDF R&D - Département Management des Risques Industriels E. Herbin Dassault Aviation et enseignant-chercheur Membres du réseau IMdR RÉFÉRENCE BIBLIOGRAPHIQUE [1] DE ROCQUIGNY – Vers une démarche « incertitudes » – méthodologie et formation IMdR , Editions TI, Lettre Techniques de l’Ingénieur Risques industriels & Environnement n°12 Prise de risques et gestion des incertitudes Protéger l’intégralité d’une population de tous les risques possibles reste du domaine de l’utopie. Pour autant, les autorités sanitaires assurent leur rôle de protection en définissant des « seuils limites ». Comment définir ces barrières entre le tolérable et l’acceptable, et les faire accepter par les populations concernées ? Q uotidiennement, la presse rend compte d’inquiétudes qui apparaissent ici ou là : la preuve n’a pas été faite que telle substance n’était pas dangereuse, que les ondes n’avaient pas d’effet nocif, qu’une installation était sans effet sur l’environnement. Il faut donc poursuivre les études : c’est la conclusion invariable. Les études faites, on en réclame d’autres, sans pour autant apaiser le public ou les journalistes. Le nucléaire, la téléphonie mobile, sont des exemples évidents, mais aussi les problèmes de toxicité (amiante), de contamination (vache folle), et plus généralement d’influence de l’homme sur l’environnement (réchauffement climatique). La majorité de la population, aujourd’hui, pense que nous vivons plus dangereusement qu’il y a cinquante ans, alors que l’espérance de vie a considérablement augmenté ; nous vivons en fait mieux et plus longtemps. Ce « décalage » entre les faits et l’opinion tient à ce que l’analyse scientifique est mal faite. On ne sait pas ce qu’on analyse, ni comment on l’analyse, si bien qu’en définitive, le résultat est dépourvu de contenu. INDÉMONTRABLE INNOCUITÉ Si l’on réfléchit un peu, on s’aperçoit que la preuve de l’innocuité d’une substance, d’une onde, d’une installation, ne peut JAMAIS être apportée, quelles N°12 / JUILLET 2008 9 10 DOSSIER Risques Industriels & Environnement LES JEUDIS DU CNRI : « RISQUES ÉMERGENTS : OU COMMENT CONCILIER ENJEUX ÉCONOMIQUES ET PRINCIPE DE PRÉCAUTION ? » Le CNRI a organisé, le 3 avril 2008, un colloque sur les Risques Emergents, dont une partie de la présentation faite par Monsieur Beauzamy, PDG de la Société de Calcul Mathématique, est reprise ici. Etaient également présents : – Jean-Marc BRIGNON, Ingénieur à la Direction des risques chroniques – INERIS, avec : « Le principe de précaution et la doctrine de la France » ; – Alain TOPPAN, Directeur projets et développement OGM en Europe – Limagrain, avec : « Les OGM : quelle évaluation des risques et quelle perception ? » ; – Bruno DEBRAY, Délégué scientifique de la Direction des risques accidentels – INERIS, avec : « La gestion intégrée des risques émergents » ; – Jacques BOUILLARD, Ingénieur à la Direction des risques accidentels – INERIS, avec : « Risques accidentels émergents liés au développement des nanomatériaux » ; – Jean-Noël GUYE, Directeur risques émergents et développement durable – Groupe AXA, et André TURBIN, Responsable projets du département responsabilité civile et risques spéciaux – AXA France, avec : « Risques émergents : le point de vue de l’assureur ». www.cnri-bourges.org que soient la durée et l’ampleur des études qu’on y consacre. Prenons par exemple l’eau pure. Vous ne pourrez jamais conclure que l’eau pure est sans danger : – il y a une certaine fraction de la population qui est allergique à l’eau, même en faible quantité, que ce soit par contact ou par absorption ; – n’importe qui ressent des troubles divers s’il a trop peu d’eau ou trop, et les valeurs seuil ne sont pas les mêmes pour tout le monde ; – le mode d’absorption n’est pas indifférent : on peut la boire, mais non se l’injecter ; – sur les 1 500 personnes qui meurent chaque jour en France (environ), il y en a un certain nombre qui buvaient de l’eau avant leur mort. Il est donc légitime de se demander s’il y a un lien de cause à effet. Ces arguments très simples sont applicables de manière très générale, et on en conclut que l’innocuité d’une substance ne peut jamais être démontrée, quelle que soit la masse des travaux qui y sont consacrés. Cette vérité élémentaire devrait être portée à la connaissance des industriels, du public et des journalistes. Toute substance est potentiellement dangereuse, hors de ses limites d’utilisation, et ces limites sont différentes d’une personne à l’autre. Selon l’Environmental Protection Agency, aux USA, seuls 7 % des produits de consommation courante ont fait l’objet d’une étude toxicologique approfondie [1]. PROTECTION DÉTERMINISTE OU PROTECTION STATISTIQUE ? En mathématiques, nous avons un concept qui nous aide à savoir de quoi nous parlons : cela s’appelle un système d’axiomes. Les mathématiciens savent qu’à l’intérieur de tel système d’axiomes, on peut démontrer telle chose et que si l’on omet l’un d’entre eux, on n’y parvient plus. La question fondamentale est : voulons-nous une précaution statistique ou déterministe ? La précaution statistique signifie que l’on admet N°12 / JUILLET 2008 un seuil de risques. Il serait admis, pour une substance nouvelle, qu’elle doit être sans danger pour (mettons) 99,999 % des utilisateurs. Mais reste 0,001 %, soit un pour cent mille, et on me rétorquera que pour un million d’utilisateurs, cela fait dix morts, soit dix morts de trop : c’est inacceptable socialement. Passons donc à la précaution déterministe : il faut tout contrôler. Mais on retombe sur les quatre arguments du paragraphe précédent qui font que, quoi qu’on fasse, il y aura toujours des morts, réelles ou suspectées. DÉFINIR DES SEUILS En pratique, les autorités sanitaires fixent en général des seuils : seuil de rejet, seuil de toxicité, valeur toxicologique de référence… On considère que ces seuils, grâce à des études préalables, permettent de préserver une fraction très importante (mettons 99,9 %) de la population, de l’environnement, de l’écosystème… De plus, ils intègrent des « facteurs de sécurité » très élevés : partout où l’on ne sait pas bien, on divise par dix, cent, mille, la dose acceptable. La notion de seuil est évidemment nécessaire d’un point de vue réglementaire, mais elle est mal perçue du public : tous ceux qui sont juste audessous considèrent qu’ils sont en danger. Alors, sous la pression des médias, le pouvoir politique abaisse le seuil, ce qui a évidemment un coût économique (il faut produire autrement). L’effet sur la population est entièrement négatif : ceux qui étaient juste au-dessous du premier seuil clament qu’on leur a menti et qu’ils étaient en danger, comme cela est maintenant reconnu (et ils réclament réparation), tandis qu’une fraction plus large de la population est maintenant à proximité du nouveau seuil ! Il est nécessaire de faire comprendre à la population qu’un seuil relève toujours de la précaution statistique : quoi qu’on fasse, si bas que soit le seuil, il y aura toujours des gens qui seront des victimes. Il ne faut jamais abaisser un seuil sous la pression du public (ou des journalistes), s’il n’y a pas une raison scientifique absolument fondée pour cela. Bien au contraire, il faut avoir le courage politique de relever certains seuils, lorsqu’il apparaît, comme cela arrive souvent, que des études scientifiques complémentaires ont montré que le produit était moins dangereux qu’on ne le pensait initialement. Et les industriels ont tout intérêt à s’associer à ces études. LES ÉTUDES FINISSENT TOUJOURS PAR MONTRER UN RÉSULTAT INQUIÉTANT L’AFSSE (Agence française de sécurité sanitaire environnementale) s’intéresse, dans un rapport récent [2], aux dangers potentiels causés par le téléphone mobile (risques de cancers). Elle constate qu’il n’y a rien à constater, mais conclut évidemment qu’il faut poursuivre les études. Si on les poursuit assez longtemps, elles finiront bien par montrer quelque chose d’inquiétant. Sur les milliers de rats qu’on mettra en présence d’ondes de faible ou de forte puissance ou à qui on injectera des substances diverses, il s’en trouvera bien un pour développer un cancer, ou au moins une rougeur sur une patte. Cela suffira aux spécialistes pour clamer qu’il y a danger. La multiplication des études n’est pas un gage d’honnêteté, puisqu’on ne retient que celles qui sont inquiétantes et elle ne peut qu’inquiéter le public. On lui dit : dans telles circonstances, où on a injecté telle substance dans le cerveau, le rat a développé telle variante de la maladie de Creutzfeldt Jacob. Mais on ne dit pas combien de rats n’ont rien développé du tout, si bien que la probabilité d’attraper la maladie de cette manière, pourtant bien particulière, reste infime. Les journaux reprennent l’information sous la forme « la maladie de la vache folle est transmissible à l’homme », et il en résulte un délire collectif. On pourrait tout aussi bien titrer : « danger, le verre d’eau tue ! », parce qu’il y a beaucoup plus de gens morts en buvant un verre d’eau que de gens morts de la maladie de Creutzfeldt Jacob. Pour y remédier, on pourrait obliger les scientifiques (et les journalistes qui en rendent compte) à publier les conditions expérimentales, comme le font les statisticiens lors des sondages : « nous avons interrogé un panel de 805 personnes ». Ici, il faudrait préciser : nous avons travaillé sur N rats, et, sur ces N rats, dans telles conditions, nous avons observé telle réaction. Ne pas se contenter des résultats inquiétants, mais les donner tous. MÉCONNAISSANCE DES ARGUMENTS STATISTIQUES RELATIFS À LA SANTÉ PUBLIQUE Cela fait maintenant plus de dix ans que la téléphonie mobile existe. Or, la fréquence des cancers et des tumeurs n’a en rien augmenté. Mais cet argument statistique, qui n’est pas politiquement correct, n’est jamais employé. De même, on montre à la télévision une école, voisine de pylônes portant des antennes, où quelques cas de cancers sont apparus. Mais La Lettre Techniques de l’Ingénieur DOSSIER Risques Industriels & Environnement on ne montre pas les écoles, tout aussi voisines d’antennes, où il n’y a pas de cancers, ni les écoles éloignées des antennes où il y a des cancers. Il faut à l’opinion et aux journalistes une relation de cause à effet entre antenne et cancer. Pourtant, ces arguments statistiques simples seraient de nature à rassurer l’opinion. Lui dire tout simplement que, depuis que la téléphonie mobile existe, la santé publique ne s’est pas dégradée mettrait fin au débat. MÉCONNAISSANCE DES LOIS FONDAMENTALES DES PROBABILITÉS Le hasard ne réclame pas l’homogénéité, mais crée la disparité. Si le cancer est dû au hasard, il est normal que le taux de cancers varie significativement d’une ville à l’autre. Il existe des tests statistiques qui permettent de déterminer quelles déviations sont significatives et lesquelles ne le sont pas. En tout état de cause, l’apparition de 4 cas de cancers sur une population de 2 000 habitants (par exemple, une école) ne justifie pas sa mise en relation avec la proximité d’une antenne : on peut aisément trouver des communautés de 2 000 habitants, éloignées de toute antenne, où il y a beaucoup plus de cancers. De la même façon, les tempêtes enregistrées en France en 1999 n’ont absolument rien d’anormal ni d’inquiétant, comme le dit Météo France [3], mais il se trouve quantité de gens pour croire que le climat est déréglé. DES MODÈLES TROP PRÉCIS POUR ÊTRE HONNÊTES Les scientifiques (et nous pensons surtout ici à ceux qui s’intéressent aux ondes hertziennes, [2], [5]) veulent faire des études extrêmement détaillées. Ils voudraient, par exemple, pouvoir décrire complètement le champ électromagnétique à tout endroit, à tout instant, pour voir s’il respecte bien les normes de sécurité imposées. Mais cette description est évidemment impossible parce que la situation est trop complexe (bâtiments, réverbérations, etc.), si bien que d’innombrables études extrêmement détaillées vont être nécessaires. De surcroît, ce que les scientifiques ne voient pas, c’est que ces études détaillées vont en réalité susciter la méfiance du public, qui est persuadé que sous ce monceau de chiffres, on lui cache quelque chose. L’objectif devrait être de répondre à la demande du public, sous une forme simple : nous sommes partout à 20 % de la norme autorisée. Il suffit donc de dimensionner les études pour valider ou réfuter une conclusion de ce type. Il n’est pas nécessaire d’entrer trop finement dans les détails. L’approche du problème, tout entière, doit être « grossière » et non pas fine. Elle doit être homogène ; il ne faut pas que tel module soit fin et tel autre grossier, sans quoi toute l’approche est mise en question. Elle doit surtout être robuste, pour être convaincante : compte tenu des insuffisances sur les données, La Lettre Techniques de l’Ingénieur compte tenu des variantes qui peuvent être faites sur les diverses hypothèses (tel mode de propagation, etc.), nous sommes en mesure de vous affirmer que le champ ne dépasse nulle part 20 % du seuil autorisé. C’est l’objectif de notre travail de recherche « modélisation robuste » [4]. LES JOURNALISTES NE REPRÉSENTENT PAS L’OPINION Les sondages et enquêtes sur les questions environnementales sont extrêmement difficiles à réaliser. On a donc tendance à accorder une importance excessive aux informations apportées par les journaux, qui ne représentent pas nécessairement l’état de l’opinion. Les journalistes accentuent les aspects spectaculaires et ils passent sous silence les aspects rassurants. modèles, on voudra bien accepter que j’en sois le principal critique ! LES SCIENTIFIQUES PEUVENT SE TROMPER ET ÊTRE MALHONNÊTES L’histoire regorge d’erreurs commises par des scientifiques en toute bonne foi. Un passé récent a vu l’apparition de « scientifiques médiatiques », qui se font filmer en blouse blanche devant un ordinateur, et annoncent un nouveau danger pour l’homme : la mer monte, l’atmosphère se réchauffe, l’air est pollué, etc. Il serait bon de remettre tout ceci en perspective [6]. Pour parvenir à ces prédictions alarmistes, les scientifiques utilisent bien sûr des modèles, mais ils « oublient » d’en préciser les incertitudes et les insuffisances. La presse fait le reste. LE RÔLE DES INDUSTRIELS. Pour y remédier, il est nécessaire que les organismes publics en charge de questions relatives à la sécurité environnementale rédigent des communiqués courts et précis, en demandant aux journalistes de les respecter strictement. Il ne faut pas hésiter à utiliser la procédure du « droit de réponse ». Le journal a décrit un phénomène de manière qui paraît contestable : l’organisme public envoie un communiqué que le journal devra reproduire précisément. Une bonne partie des inquiétudes du public proviennent d’informations fallacieuses, propagées et entretenues par des journalistes. On s’aperçoit, presque à chaque fois, que les faits réels sont connus des organismes publics en charge de ces questions et que la vérité a été publiée dans des revues internes à ces organismes ; mais elle ne circule pas auprès du grand public, qui reste persuadé qu’on lui cache quelque chose. UN MODÈLE N’EST PAS LA RÉALITÉ L’outil principal pour les prédictions, quelle qu’en soit la nature, est la modélisation. Faire un modèle c’est, à partir de faits, d’informations, de lois plus ou moins connues, plus ou moins empiriques, prévoir comment les choses vont évoluer. Mais un modèle comporte toujours une part d’hypothèses et une part d’incertitudes. Les hypothèses portent sur le comportement (on pense que telle chose se produira de telle manière) ; les incertitudes portent sur les données. Un modèle est une construction intellectuelle ; il ne représente la réalité que de manière approximative. Il représente un scénario possible, ou plusieurs. Pour prendre une comparaison, un tableau est une représentation de la réalité, mais il ne viendrait pas à l’idée d’un général de dire : « ce tableau prouve que nous pouvons traverser la rivière à gué ». Le modèle donne des indications sur ce qui peut se passer : sous telles hypothèses, telles choses peuvent arriver. Mais rien de plus. Et un modèle ne devrait jamais être utilisé pour fonder une décision politique. Comme la Société de calcul mathématique vit de la fabrication de Les industriels ont trop souvent tendance à considérer que leur rôle se limite à la production, et que c’est à l’Etat (ou à la Communauté Européenne) de définir les seuils acceptables. Or, en procédant de cette manière, ils acceptent des règles qui peuvent être lourdes de conséquences, et ne se donnent pas les moyens de participer à la prise de décision. Il serait bien préférable que les industriels se regroupent par secteurs, et mettent en place des centres de compétences, d’expérimentation, avec l’appui de l’Etat qui le souhaite. Ces centres auraient pour rôle de faire les tests, de développer la compétence théorique nécessaire, mais aussi d’informer l’opinion, ou de lutter contre la désinformation. On ne peut lutter valablement, sur toutes ces questions, que si l’on développe ce que j’appellerais une « contre-compétence » scientifique. Il ne faut pas laisser de soi-disant experts dire n’importe quoi, mais pour pouvoir leur répondre, il faut avoir des arguments. Les arguments liés à l’emploi ne suffisent pas, et il faut pouvoir faire état d’arguments scientifiques. Bernard BEAUZAMY PDG, Société de Calcul Mathématique Membre du réseau CNRI POUR ALLER PLUS LOIN [1] VINDIMIAN (E.) – Comment fi xer les niveaux de substances toxiques à ne pas dépasser dans l’environnement ? Exposé fait dans le cadre du séminaire conjoint INERIS-SCM, le 11 novembre 2002. [2] Avis de l’AFSSE sur la téléphonie mobile, saisine 1/2002, 16 avril 2003. [3] PLANTON (S.), BESSEMOULIN (P.) – Le climat s’emballe-t-il ? La Recherche (octobre 2000) [4] Modélisation mathématique robuste : www.scmsa.com/robust.htm [5] Réseau national de recherche sur les télécommunications – L’étude et la validation d’outils de référence pour la simulation des champs électromagnétiques à proximité des émetteurs radio (2002-2003) [6] LALANCETTE (M.-F.) – La lettre du Service Hydrographique et Océanographique de la Marine. Lettre n°18 (décembre 2001) N°12 / JUILLET 2008 11 12 RÉGLEMENTATION Risques Industriels & Environnement Suivi du 1er au 31 mai 2008 Intitulé du texte (référence) par thème Installations classées Décret n° 2008-467 du 19 mai 2008 relatif au comité d’hygiène, de sécurité et des conditions de travail d’un établissement à risques technologiques ou comprenant une installation nucléaire (JO n° 117 du 21 mai 2008) Arrêté du 18 avril 2008 relatif aux réservoirs enterrés de liquides inflammables et à leurs équipements annexes soumis à autorisation ou à déclaration au titre de la rubrique 1432 de la nomenclature des installations classées pour la protection de l’environnement (JO n° 117 du 21 mai 2008) Arrêté du 18 avril 2008 relatif aux conditions d’agrément des organismes chargés des contrôles des cuves enterrées de liquides infl ammables et de leurs équipements annexes (JO n°0116 du 20 mai 2008) Arrêté du 22 avril 2008 fi xant les règles techniques auxquelles doivent satisfaire les installations de compostage ou de stabilisation biologique aérobie soumises à autorisation en application du titre Ier du livre V du code de l’environnement (JO n° 114 du 17 mai 2008) Air Règlement (CE) no 473/2008 de la Commission du 29 mai 2008 modifiant le règlement (CE) no 2037/2000 du Parlement européen et du Conseil en ce qui concerne l’ajustement des codes NC de certaines substances qui appauvrissent la couche d’ozone et des mélanges contenant de telles substances (JOUE n° L 140 du 30 mai 2008) Nature Décret n° 2008-457 du 15 mai 2008 relatif aux sites Natura 2000 et modifiant le code de l’environnement (JO n° 114 du 17 mai 2008) TMD Arrêté du 9 mai 2008 fi xant la liste des ouvrages des ports intérieurs et des ports maritimes soumis aux dispositions du décret n° 2007-700 du 3 mai 2007 relatif aux études de dangers des ouvrages d’infrastructures de stationnement, chargement ou déchargement de matières dangereuses portant application de l’article L. 551-2 du code de l’environnement (JO n° 118 du 22 mai 2008) Arrêté du 9 mai 2008 fixant la liste des aires de stationnement ouvertes à la circulation publique et les gares de triage ou faisceaux de relais soumis aux dispositions du décret n° 2007-700 du 3 mai 2007 relatif aux études de dangers des ouvrages d’infrastructures de stationnement, chargement ou déchargement de matières dangereuses portant application de l’article L. 551-2 du code de l’environnement (JO n° 118 du 22 mai 2008) Produits chimiques Règlement (CE) no 440/2008 de la Commission du 30 mai 2008 établissant des méthodes d’essai conformément au règlement (CE) no 1907/2006 du Parlement européen et du Conseil concernant l’enregistrement, l’évaluation et l’autorisation des substances chimiques, ainsi que les restrictions applicables à ces substances (REACH) (JOUE n° L 142 du 31 mai 2008) Substances dangereuses Recommandation n° 2008/405/CE de la Commission du 28 mai 2008 concernant des mesures de réduction des risques présentés par le 2-nitrotoluène et le 2,4-dinitrotoluène (JOUE n° L 141 du 31 mai 2008) Règlement (CE) no 466/2008 de la Commission du 28 mai 2008 imposant aux fabricants et aux importateurs de certaines substances prioritaires de fournir des informations et de procéder à des essais complémentaires conformément au règlement (CEE) no 793/93 du Conseil concernant l’évaluation et le contrôle des risques présentés par les substances existantes (JOUE n° L 139 du 29 mai 2008) Décision n° 2008/385/CE de la Commission du 24 janvier 2008 modifiant, aux fi ns de son adaptation au progrès technique, l’annexe de la directive 2002/95/CE du Parlement européen et du Conseil en ce qui concerne les exemptions relatives aux utilisations du plomb et du cadmium (JOUE n° L 136 du 24 mai 2008) Les textes relatifs aux thèmes « Installations Classées et « Environnement-santé » sont consultables sur le site aida.ineris.fr L’INERIS développe également un site « VIJI » dans lequel sont regroupés tous les textes nationaux et communautaires dans les domaines de l’hygiène, la sécurité et de l’environnement et assure une veille juridique et une mise à jour régulière de ces textes. Pour plus d’informations, contacter Florence OGER N°12 / JUILLET 2008 La Lettre Techniques de l’Ingénieur Risques Industriels & Environnement ZOOM SUR UN LABORATOIRE 13 A Nancy, des chercheurs suivent, dans l’environnement, les métaux lourds issus de l’incinérateur de la ville de Metz. Les dernières conclusions de l’Institut National de Veille Sanitaire sont, aux yeux du Centre National d’Information Indépendant sur les Déchets (CNIID), loin d’être complets. Une démarche nécessaire pour rendre transparentes les activités d’un incinérateur situé en pleine ville et qui avivent l’intérêt pour des travaux… inconnus des riverains. F in mars 2008, l’Institut National de Veille Sanitaire (INVS) diffusait le rapport « Incidence des cancers à proximité des usines d’incinération d’ordures ménagères ». Cette étude rend compte de la relation entre l’incidence des cancers chez l’adulte et l’exposition aux émissions atmosphériques des usines d’incinération d’ordures ménagères (UIOM). Elle porte sur 135 000 cancers diagnostiqués dans quatre départements métropolitains entre 1990 et 1999. Bilan : il existe des « liens significatifs » – mais « sans causalité des relations observées » – entre l’exposition aux panaches d’incinérateurs et l’incidence de différentes formes de cancers chez l’homme comme chez la femme. Ainsi, l’INVS reconnaît « l’impact des émissions des incinérateurs sur la santé » tout en soulignant le caractère non transposable de ces résultats à l’heure actuelle et le bien-fondé des mesures de réduction des émissions de ces UIOM. CARTOGRAPHIE DES ÉMISSIONS POLLUANTES De son côté, le Centre National d’Information Indépendant sur les Déchets (CNIID) s’insurge de ces restrictions qui font, en particulier, « peu de cas du principe de précaution » et confirment la « poursuite de la politique d’incinération des déchets ». Côté industrie, Norvégie, filiale Sita exploitant des unités de traitement et de valorisation énergétique des déchets ménagers, communique sur le rapport de l’INVS en passant sous silence les « liens significatifs » révélés par ce dernier. Maintenant, en matière de recherche, les analogies de réactions entre les étoiles en formation et les fours d’incinération d’ordures ménagères ont conduit les chercheurs du Centre de Recherches Pétrographiques et Géochimiques (CRPG) de Nancy a établir le bilan de masse et le suivi, au La Lettre Techniques de l’Ingénieur Crédit : CRPG-CNRS Les émissions d’incinérateurs suivies à la trace Figure 1 – Particule porteuse de Pb émise par l’incinérateur Haganis (photo au Microscope Electronique à Balayage en électrons secondaire et spectre associé). champ proche comme au champ lointain, des matériaux inorganiques émis par l’incinérateur à sec de la ville de Metz. L’incinérateur est par ailleurs géré par HAGANIS, Etablissement public à caractère industriel et régie de la Communauté d’Agglomération de Metz-Métropole. Les chercheurs peuvent désormais établir, sur 800 km2, le devenir des polluants (métaux lourds comme Pb, Hg, Se…) issus de l’incinérateur (voir la figure 1), en couplant les caractérisations isotopiques des éléments lourds au suivi par marqueurs (lichens, comme indicateurs biologiques et aérosols – pour les PM 10). Cette démarche concertée, de référence, « entre recherche, secteurs public et privé », permet d’assurer « la transparence aux activités d’un incinérateur situé en pleine ville » estime Guy Libourel, chercheur au CRPG. QUESTIONS D’ACTUALITÉ ET DE TRANSPARENCE L’actualité du suivi consiste « en plus des échantillonnages de cendres dans l’incinérateur, en campagnes de prélèvements de lichens et d’aérosols ». D’autre part, alors que le suivi de la région messine a débuté en 2000/2001, « correspondant à notre temps zéro » (avec la mise en service de l’incinérateur), l’objectif des chercheurs est de suivre le site au minimum jusqu’en 2011. découvrir seulement aujourd’hui, ce qu’il qualifie de « manque de transparence ». Jugeant « les résultats obtenus par deux campagnes annuelles manquer de représentativité », il demande aussi un « contrôle continu, sur les dioxines en particulier, avec publication de résultats accessibles aux associations ». Témoignant pour sa part des activités de suivi menées par Tiru – Groupe industriel de valorisation de déchets – sur le territoire français, Patrick Boisseau, directeur technique du Groupe, annonce « pour toutes nos usines, à minima un suivi des retombées atmosphériques au moyen de jauges type Owen ». Et à coté, des mesures « souvent » supplémentaires en dioxines dans le lait de vache en zone rurale, « pour quelques usines, il y a aussi des mesures dans les sols ainsi que dans des végétaux, en fonction de l’entourage de l’usine (herbages, vignes, aiguilles de pin…) ». Sur le volet politique cette fois, le Ministre Jean-Louis Borloo annonçait, en avril dernier, « le renforcement réglementaire de la surveillance des UIOM ». Arnaud QUEYREL Journaliste scientifi que Jusqu’alors intéressés au suivi du champ proche et au champ lointain jusqu’à un diamètre de 15 à 20 km autour de l’incinérateur, ils souhaitent par ailleurs désormais « suivre plus en détail ce qui se passe autour de la cheminée dans un rayon de 500 à 1 000 m ». POUR ALLER PLUS LOIN De son côté, Gérard Landragin, président d’Air Vigilance – l’association de défense des riverains de l’incinérateur HAGANIS – estime ces recherches « bénéfiques », tout en déplorant de les – Centre de Recherches Pétrographiques et Géochimiques (CRPG) : www.crpg.cnrs-nancy.fr – Institut national de veille sanitaire : www.invs.sante.fr – Centre National d’Information Indépendant sur les Déchets : www.cniid.org N°12 / JUILLET 2008 14 BLOC-NOTES AGENDA 17 septembre Les nouvelles théories de l’incertain pour la maîtrise des risques industriels – Logique floue, approches possibilistes… Cette « Journée IMdR » est organisée en partenariat avec l’IRSN. Lieu indiqué ultérieurement www.imdr.eu ou tel : 01 45 36 42 10 18 septembre Colloque de Cindynique Judiciaire Organisé par l’IMdR, en partenariat avec l’ Institut des Hautes Etudes pour la Justice (IHEJ) et l’Association Françaisedes Juristes d’Entreprise (AFJE), ce colloque aura pour thème « Risque, Incertitude, Justice et Société ». Maison du Barreau, Ile de la Cité, 75001 Paris. www.imdr.eu ou tel : 01 45 36 42 10 A LIRE La méthode PPRT version stockages souterrains Le guide « PPRT Stockages Souterrains » est en ligne sur le site Internet de l’INERIS. Il a vocation à faciliter et à accompagner la mise en œuvre des Plans de Prévention des Risques Technologiques appliqués aux stockages souterrains de gaz naturel, d’hydrocarbures liquides ou liquéfiés ou de produits chimiques à destination industrielle (stockages visés à l’article 3-1 du Code Minier). Ce guide décline la méthodologie définie dans le guide PPRT général (paru en 2005), en intégrant les spécificités techniques et réglementaires liées aux stockages souterrains. L’une des particularités réside dans la prise en compte, d’une part des risques d’incendie, d’explosion ou d’émanation de produits toxiques propres aux installations de surface et, d’autre part, des risques de mouvements de terrains liés à la présence souterraine de cavités de stockage. Ce guide a été élaboré par un groupe de travail piloté par l’INERIS et constitué de représentants du ministère de l’Écologie, de l’Énergie, du Développement durable et de l’Aménagement Risques Industriels & Environnement du territoire, des DRIRE, et des exploitants de stockages souterrains GDF, TIGF et GEOSTOCK. Il s’adresse à l’ensemble des acteurs, services de l’État, collectivités, exploitants, bureaux d’études, intervenant dans l’élaboration d’un PPRT relatif à un stockage souterrain. www.ineris.fr Azote, phosphore et pesticides – Stratégies et perspectives de réduction des flux Caroline Grégoire, Sylvain Payraudeau 22,87 euros TTC, 132 pages, ISBN 978-2-85362-673-3, 2008 Cet ouvrage rassemble les travaux menés principalement en Europe pour comprendre le fonctionnement des politiques de protection et de gestion du paysage dans des cas concrets et diversifiés. Il aborde successivement les enjeux de l’action paysagère, les relations entre paysage et espace public dans le contexte urbain, les conceptions mobilisées pour élaborer et mettre en œuvre des politiques et, enfin, les modalités de participation du public. Il est destiné aux acteurs impliqués dans la mise en œuvre des politiques du paysage, mais aussi aux étudiants, aux enseignants et aux chercheurs intéressés par le transfert des résultats de la recherche au bénéfice de l’action paysagère. Membre du Groupe Weka Business Information SAS au capital de 1 000 000 € Siège social, rédaction et publicité 249, rue de Crimée 75925 Paris cedex 19 Tél. 01 53 35 20 00 Fax 01 40 38 20 22 www.editions-ti.fr Directeur de la publication André BLANC Directeur des Éditions T.I. André BLANC Directeur de la rédaction Marc CHABREUIL Responsable d’édition Céline VIAN Tarifs Prix de vente au numéro : 26 € TTC Abonnement annuel France : 229 € HT (234 € TTC) Tarif export sur demande Maquette La Coopérative de Communication Prépresse, impression Bialec – 95 boulevard Austrasie – 54000 Nancy PARUTIONS Tirage 2 500 exemplaires Dans la base documentaire Environnement des Editions Techniques de l’Ingénieur – Filières énergétiques actuelles et futures pour le transport routier de marchandises, par G. PLASSAT (IN 92) – Valorisation d’un co-produit agroalimentaire en bioadsorbant pour traiter des solutions contaminées issues de la filière papetière, par G. CRINI, P.-M. BADOT (IN 95) – Analyse environnementale , par A. PRATS (G 5002) – Mesures et traitements de polluants de l’air en agro-alimentaire, par P. LE CLOIREC, J.-M. GUILLOT (G 1920) Relation clientèle Tél. 01 53 35 20 20 Fax 01 53 26 79 18 BULLETIN D’ABONNEMENT OUI, je m’abonne à la Lettre Techniques de l’Ingénieur Risques Industriels et Environnement , 10 numéros par an, au tarif de 229 euros HT (234 euros TTC) pour la France métropolitaine (code 442). Commission paritaire 1212 I 89205 ISSN 1957-2891 © La Lettre Techniques de l’Ingénieur Risques Industriels et Environnement Si vous souhaitez poser une question ou devenir auteur, n’hésitez pas à nous contacter à l’adresse suivante : [email protected] À compléter et à renvoyer accompagné de votre règlement à : Éditions T.I. – 249, rue de Crimée – 75925 Paris cedex 19 Tél. 01 53 35 20 20 – Fax 01 53 26 79 18 E-mail : [email protected] Mr Mme Mlle Nom . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Prénom . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Je joins mon règlement d’un montant de 234 euros TTC à l’ordre des Éditions T.I. Fonction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Raison sociale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Adresse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ................................................................................................................. Date, cachet de la société et signature obligatoires CP feeee Ville . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Téléphone feeeeeeeee Fax feeeeeeeee E-mail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . SAS au capital de 1 000 000 euros – RCS Paris B 380 985 937 – Siret 380 985 937 00024 – NAF : 221 E –TVA FR 33 380 985 937 En application de l’article L27 du 6 janvier 1978, relative à l’informatique et aux libertés, vous disposez d’un droit d’accès et de rectification pour toute information vous concernant en vous adressant à notre siège social. Le salon européen des solutions optiques EOS Congrès Annuel 2008 4 jours 29 & 30 septembre 1er & 2 octobre 2008 Même lieu, mêmes dates www.optoexpo.com Badge gratuit Mot de passe : PUB42 5 QUESTIONS À… Risques Industriels & Environnement La contamination fongique sous contrôle automatique Le Centre Scientifique et Technique du Bâtiment (CSTB) a développé un premier indice d’évaluation de la qualité de l’air intérieur : l’indice de contamination fongique (voir lettre RIE n°9). Précurseur d’un indice global de la qualité de l’air intérieur des logements et bureaux (à la pollution de l’air encore « très mal connue en France »), il détecte toute contamination fongique dans l’habitat. INTERVIEW DE STÉPHANE MOULARAT Responsable du secteur biochimie au Laboratoire de Microbiologie des Environnements Intérieurs (LMEI) du Centre Scientifique et Technique du Bâtiment (CSTB). Par Arnaud Queyrel, journaliste scientifique Arnaud Queyrel – Quel objectif vise l’indice de contamination fongique ? Stéphane Moularat – L’indice est appliqué aux données de l’étude nationale sur la qualité de l’air intérieur des logements français – la « Campagne logements » – menée depuis 2007 par l’Observatoire de la qualité de l’air intérieur (OQAI). Le premier volet de l’étude visait à connaître et déterminer l’origine de la pollution intérieure dans les lieux de vie fréquentés par les enfants (crèches, écoles, piscines…) [1]. Le second programme, en cours, s’adresse à la pollution intérieure des bureaux. Dans les environnements intérieurs, les individus sont soumis à un cocktail de polluants, dont les Composés Organiques Volatils et les spores émis par les moisissures. Ces polluants d’origine biologique peuvent provoquer l’apparition de maladies notamment respiratoires comme les allergies, les infections et toxi-infections. AQ – En France, quel est le niveau de pollution fongique des logements ? SM – Pour 10 % de logements contaminés avec des moisissures visibles, 27 % le sont sans moisissures visibles. Donc, au total, 37 % des logements (sur les 496 analysés) ont montré un développement fongif actif. D’autre part, 5 % des logements, non contaminés, présentent des moisissures visibles. La technique de détection que nous avons mise au point au CSTB, incluant spécialement le nouvel indice moisissure basé sur l’identification des COVs (comme traceurs) émis par les champignons, a donc permis de détecter ces contaminations jusqu’à présent invisibles et non comptabilisées. L’objectif de notre outil est de participer à la future qualification de la qualité d’air des logements. Sachant que 10 % des logements français sont multi-pollués à des concentrations très élevées de divers polluants. AQ – Comment avez-vous procédé pour établir l’indice ? SM – Nous avons d’abord mené nos travaux en laboratoires, en chambres d’essais, puis à partir de prélèvements de COVs effectués dans des logeN°12 / JUILLET 2008 Crédit : CSTB 16 Stéphane Moularat, Responsable du secteur biochimie (CSTB). ments réels et analysés au laboratoire. Il s’agissait tout d’abord d’identifier et de caractériser les COVs spécifiques d’un développement fongique pour construire, sur cette base, l’indice de contamination fongique. Il a donc fallu, en particulier, différencier ces COVs d’origine fongique des très nombreux COVs des environnements intérieurs issus principalement des produits de construction (liège, dalles de plâtre…). Les COVs spécifiques permettent de détecter le développement de moisissures. Tout l’intérêt de la méthode est de pouvoir identifier la présence de moisissures sans signe visible. AQ – A quel développement innovant travaillez-vous ? SM – Au départ de l’outil de calcul d’indice de contamination fongique (protégé par un brevet de procédé) mis au point, et qui permet de détecter l’émission de COVs par les moisissures présentes dans les bâtiments, nous travaillons désormais à l’automatisation de la méthode. Une thèse en cours étudie ainsi les capteurs et les systèmes de capteurs à mettre en œuvre pour parvenir au traitement automatique des données issues de l’exploitation de cet outil. L’équipe envisage un prototype d’ici un an suivi de deux à trois ans de développement avant le dépôt d’un brevet. Un tel équipement pourrait alors déboucher sur la réalisation d’une cartographie globale, nationale, de la contamination fongique dans l’habitat. Cette cartographie est pour l’instant encore limitée à la région Ile de France. AQ – Quelles nouvelles mesures préparez-vous ? SM – En matière d’évaluation de matériaux, la mesure de biomasse est déjà effective pour la mesure de vulnérabilité des matériaux aux attaques fongiques. Désormais, il serait intéressant d’associer à l’exploitation de l’indice un mélange de matériaux (en fait, de travailler en environnement réel) avec des données sur les matériaux de construction et de décoration, ainsi que des paramètres environnementaux. Une analyse statistique menée à partir de cette première étape permettrait de déterminer l’importance relative des paramètres et de découvrir quels paramètres ont le plus d’importance sur la sensibilité fongique. Ce travail est déjà en cours sur de petits essais grâce à la réception, en début d’année 2008, de notre outil de calcul d’indice. POUR ALLER PLUS LOIN www.air-interieur.org [1] QUEYREL (A.) – Inquiétudes sur la pollution de l’air, intérieur, Editions TI, Lettre Techniques de l’Ingénieur Risques industriels & Environnement n°8 (2008) La Lettre Techniques de l’Ingénieur