Lettre TI RIE n°12_A4 Q.indd

Transcription

Lettre TI RIE n°12_A4 Q.indd
La Lettre Techniques de l’Ingénieur
Juillet 2008
RISQUES INDUSTRIELS
& Environnement
N°12 / 26 €
L’électronique
et l’aéronautique
se mettent « au vert »
SOMMAIRE
A LA UNE
01 L’électronique et l’aéronautique
se mettent « au vert »
INNOVATIONS ET TECHNOLOGIES
03 L’essor de la déconstruction
automobile
04 Des supercalculateurs
pour la gestion de l’eau
FLASH
05 L’inspection des installations
classées « sur le gril »
DOSSIER
Démarches incertitudes
06 Vers une démarche
« incertitudes » : méthodologie
et formation inter-industrielle
08 La formation aux incertitudes :
une exigence pour l’avenir
09 Prise de risques et gestion
des incertitudes
RÉGLEMENTATION
12 Suivi de la réglementation
du 1er au 31 mai 2008
Tandis que la microélectronique se lance dans le recyclage
de ses effluents métalliques avec REVAMATIC, le traitement de
surface bénéficie de projets de recyclage des terres rares et du
remplacement des bains de galvanisation par la pulvérisation à sec.
F
inancé en avril dernier par le Fonds
Unique Interministériel (FUI) à hauteur
de près d’un million d’euros, le projet
Recyclage & Valorisation des effluents
Métalliques pour l’industrie de la mICrolélectronique (REVAMATIC), labellisé par le Pôle Minalogic,
vise un objectif principal : extraire et récupérer le
cuivre éliminé des procédés de fabrication des
puces tel, spécialement, le polissage mécanochimique. En découlent la préservation de la
ressource en minerai, en eau, et la réduction des
déchets mis en décharge, le tout conduisant ainsi
à d’importants gains économiques.
Or, pour sa part, dans son unité de La Rochelle,
Rhodia mène un important projet de recyclage
des terres rares… justement utilisées pour le
polissage des puces. Enfin, Rescoll porte le
projet SMILE [1] dont bénéficiera l’aéronautique.
Précurseur, SMILE entend préserver les pièces
aéronautiques par une formulation active à
pulvériser directement sur les surfaces. Le film
formé, mono-épaisseur, libérera en particulier
des agents biocides.
UN PROJET À BÉNÉFICES MULTIPLES
REVAMATIC compte comme partenaires la
PME Recupyl (38), spécialiste de recyclage
hydrométallurgique, ST Microelectronics, le
CEA-Leti, le Laboratoire d’Electrochimie et de
Physicochimie des Matériaux et des Interfaces
(LEPMI) de l’Institut National Polytechnique de
Grenoble (INPG).
A l’origine de ce projet : d’une part les dépôts
de cuivre sur les circuits imprimés qui se font
par des bains notamment électro-catalytiques, auxquels succède d’autre part l’étape de
polissage mécano-chimique (CMP) des puces
électroniques. Or, ces deux procédés conduisent à l’élimination du métal résiduel, soit par
le changement des bains appauvris, soit par
les effluents aqueux, dilués en cuivre et issus
du polissage. Dans ce dernier cas, le projet se
ZOOM SUR UN LABORATOIRE
13 Les émissions d’incinérateurs
suivies à la trace
BLOC-NOTES
14 Agenda
14 A lire
14 Parutions
NOS PARTENAIRES
5 QUESTIONS À…
16 La contamination fongique
sous contrôle automatique
Une publication des Éditions T.I.
www.techniques-ingenieur.com
A LA UNE
Risques Industriels & Environnement
gramme de développement durable du Groupe :
il permettra en effet de réduire les quantités de
déchets ultimes mis en Centre d’Enfouissement
Technique.
Parmi les secteurs d’applications des terres
rares : le traitement de surface, qui représente
25 % des approvisionnements en terres rares
pour le Groupe. Ainsi, dans l’électronique, « la
poudre de cérium, incorporée à des solvants,
assure le polissage mécano-chimique des
écrans d’ordinateurs et des gaufres de silicium
lors des différentes étapes de gravure de leurs
circuits intégrés » informe Olivier Dambricourt,
à la direction de la stratégie de Rhodia. Cette
poudre présente en effet des qualités non seulement abrasives mais aussi, en quelque sorte,
de « cicatrisation » de la surface traitée. A noter
que cette filière de recyclage complète celle
du recyclage des terres rares contenues dans
les néons, où Chimirec et Véolia interviennent,
notamment dans la collecte.
LES SURFACES AÉRONAUTIQUES
PROTÉGÉES « À SEC »
Crédit : ST Microelectronics
2
Figure 1 – Cuve de collecte d’effl uent concentré en cuivre.
focalisera sur le recyclage de la solution aqueuse
en eau de process.
Pour les bains appauvris, contenant les plus fortes
concentrations d’effluents métalliques, les seuls
traitements actuels consistent en chaulage (ou
à des méthodes similaires) de confinement des
métaux lourds. Le projet compte alors supprimer
cette voie d’évacuation pour réduire ses effets :
la production de boues mixtes corrélée à l’augmentation des volumes de déchets accueillis en
Centre d’enfouissement technique (de classe 1).
En découlera, outre des bénéfices environnementaux, un gain en métaux permettant la
préservation des ressources minières. Une préservation de la ressource qui s’inscrit d’ailleurs
parmi les objectifs de développement durable
fixés par l’International Technology Roadmap for
Semiconductors (ITRS).
Une autre composante économique forte intervient encore : le souci des sites de production
N°12 / JUILLET 2008
microélectronique de pouvoir traiter leurs bains
sur place (voir figure 1), pour s’affranchir du
recours à la sous-traitance rendue aujourd’hui
incontournable par le volume croissant de
boues à évacuer en décharges. Cet enjeu représente « un gain considérable en sous-traitance
externe ». Finalement, REVAMATIC, qui s’étendra
sur deux ans, vise également à la réduction de
la consommation d’eau.
LA RÉCUPÉRATION DES TERRES RARES
Le groupe de chimie fine Rhodia exploite plusieurs
milliers de tonnes annuels de terres rares en
provenance de Chine. Or, en contrôlant de fait
ce marché, la Chine fait peser des menaces sur
l’approvisionnement. Dès lors, Rhodia a mis en
place, dans son unité dédiée aux terres rares de La
Rochelle, un projet de recyclage des terres rares
exploitées dans divers secteurs industriels.
Par ailleurs, outre la sécurisation des approvisionnements, ce projet – qui nécessite de
« gros investissements » – s’inscrit dans le pro-
Avec Rescoll en porteur de projet et des partenaires industriels tels Airbus France et Dassault
Aviation, le projet SMILE, financé par le Fond
unique interministériel, vise à « remplacer des
systèmes de traitement des surfaces avec
immersion – aux impacts négatifs sur l’environnement – par des systèmes d’aspersion ou pulvérisation pour traiter des pièces aéronautiques
intégrées de plus grande complexité et de plus
grandes dimensions ».
Sur le plan stratégique, il ambitionne de positionner le grand Sud-Ouest à l’avant-garde des
travaux en matière de protection des surfaces
des structures aéronautiques. La formulation à
développer, innovante, devra assurer la protection à la fois contre la corrosion et la colonisation bactérienne. Elle consistera alors en une
seule couche (contre trois actuellement), fine et
composite, disposant de propriétés actives par
la libération de principes actifs antimicrobiens
et inhibiteurs de corrosion. SMILE, labellisé
par le pole Aéronautique, Espace, Systèmes
Embarqués (AESE), entend ainsi réduire la
masse du traitement d’au moins 20 % et la
quantité d’eau de rinçage, comme de matières
dangereuses. L’emploi de systèmes d’aspersion
permettra en outre de mieux contrôler les procédés, permettant ainsi spécialement de réduire
la consommation de substances chimiques et le
volume de déchets.
Arnaud QUEYREL
Journaliste scientifi que
RÉFÉRENCE BIBLIOGRAPHIQUE
[1] QUEYREL (A.) – Aéronautique durable, Editions
TI, Lettre Techniques de l’Ingénieur Risques
industriels & Environnement n°1 (2007)
La Lettre Techniques de l’Ingénieur
Risques Industriels & Environnement
INNOVATIONS ET TECHNOLOGIES
3
L’essor de la déconstruction
automobile
N
ée après la disparition de Matra
Automobile en 2003, la société ReSource Industries, en Sologne, se
positionne comme la « première
entreprise européenne de démantèlement de
VHU à répondre à la directive européenne
(2000-53) ». Elle impose la valorisation à 85 %
des Véhicules Hors d’Usage (VHU). Lancée en
février 2007, Re-Source Industries, détenue
par Indra Investment, Renault et Sita, dispose
spécialement d’une chaîne de six postes de
démantèlement où les opérateurs humains
assurent aujourd’hui le démontage d’un véhicule
(sécurisé) en 4h30. « La mise en place, en 2008,
d’un logiciel d’assistance au démantèlement permettra d’augmenter le rendement sur les postes »
annonce Olivier Gaudeau, directeur opérationnel
de Re-Source Industries. Mi-avril, les partenaires
du projet européen Ecological dismantling of end
of life vehicles (ECODISM), coordonné par SaintGobain Sekurit, restituaient les résultats de leurs
travaux chez Re-Source Industries. Ils procédaient
aussi à des démonstrations.
DEUX SOLUTIONS EN COMPÉTITION
Crédit : Re-Source Industries
Le projet européen ECODISM totalise une douzaine de partenaires européens dont la société
suisse EFTEC, n°1 européen des adhésifs. Rescoll
et l’entreprise anglaise De-Bonding proposent,
pour leur part, des solutions de désassemblage
spécifiques. Démarré en 2005, ECODISM vise à
faciliter la maintenance
et le désassemblage des
liaisons collées des pièces
composites automobiles
– comprenant les thermoplastiques – et des Vue du poste de retournement (breveté) de la chaîne de démantèlement de VHU.
glaces de véhicules. Ainsi,
Rescoll propose la solution Innovative disassemcommerciale et recherchait des investisseurs
bling adhesives research (« indar inside ») qui
pour assurer son positionnement. Fiat, toutefois,
incorpore un additif thermosensible dans l’adhésif
indiquait de « bons résultats de vieillissement et
assurant le collage du joint. Le désassemblage
une très bonne compatibilité d’utilisation avec
des vitres comme des parties composites de
ses matériels, par la technologie de décollage des
véhicules nécessite alors une source d’énergie
pare-brise proposée par De-Bonding ».
locale comme du chauffage infrarouge, testé
QUAND L’HUMAIN RIME AVEC L’ÉCONOMIE
dans le cadre d’ECODISM.
A noter que les partenaires estiment le caractère
La solution proposée par De-Bonding consiste en
opérationnel du projet à cinq ou dix ans (voire
l’incorporation, notamment dans les adhésifs, de
quinze ans), sachant qu’aujourd’hui les déman« microsphères thermoactivables » dont l’originateleurs atteignent les objectifs européens de
lité vient de leur expansion irréversible sous l’effet,
85 % de recyclage des VHU sans y intégrer les
également, d’une source de chaleur (200°C enviglaces. Or, l’Europe a fixé l’objectif de 95 % de
ron). Cette expansion conduit au désassemblage.
récupération en 2015. A cinq ans, les résultats
Par l’apparence, ces microparticules ressemblent
d’ECODISM devraient déjà bénéficier aux répaà un matériau pulvérulent blanc. Désormais,
rateurs puisque le décollage des vitres devrait
pour promouvoir sa technologie auprès des
pouvoir s’opérer, dans un « futur proche », en
constructeurs, Rescoll fait valoir une application
« 5 à 10 minutes, incluant les opérations de pose
déjà concluante à l’aérospatiale et « l’avantage
de ventouses, positionnement de la table de
de ne nécessiter aucune modification de la
levage… ». D’ailleurs, parmi les participants venus
formulation de l’adhésif, donc des conditions de
découvrir ECODISM, se trouvait Valéo. L’opérateur
pose du joint ». De-Bonding, pour sa part, n’avait
travaille actuellement au « démantèlement des
encore, en avril au moins, aucune existence
dispositifs d’éclairage (phares, projecteurs…) ».
Pour sa part, la valorisation nécessitera un temps
plus long puisqu’elle dépendra de la création de
filières dédiées, avec la mise en œuvre d’un mécanisme financier global de recyclage des verres. De
surcroît, il s’agit de tenir compte du temps de vie
des véhicules et de l’industrialisation nécessaire
du procédé. Cependant, au-delà du caractère
technique, le projet présente un grand intérêt
pour les entreprises de maintenance en offrant la
possibilité d’améliorer les conditions de travail des
opérateurs de la filière VHU. Et puis, ces développements innovants en éco-conception ouvrent
de nouvelles perspectives pour la déconstruction
des VHU et la gestion améliorée des déchets de
la filière. Cette filière est d’ailleurs globalement
valorisée par son organisation de plus en plus
structurée.
Arnaud QUEYREL
Chaîne de démantèlement de VHU.
La Lettre Techniques de l’Ingénieur
Journaliste scientifi que
N°12 / JUILLET 2008
Crédit : Re-Source Industries
Première entreprise européenne de
démantèlement de Véhicules Hors d’Usage
(VHU), Re-Source Industries offre une vitrine de
démonstration idéale au projet européen ECODISM
de désassemblage de glaces et pièces composites.
INNOVATIONS ET TECHNOLOGIES
Risques Industriels & Environnement
Des supercalculateurs
pour la gestion de l’eau
En février dernier, le pôle de compétences « Durabilité de la ressource en eau associée aux milieux »
(DREAM) naissait officiellement en région Centre. Présidé par le bureau d’études Géo-Hyd,
ce pôle pilotera des projets de recherche centrés sur la gestion durable de la ressource en eau.
Parmi ses différentes missions, l’une – impérative – sera de concevoir un supercalculateur capable
d’exploiter les gros volumes de données hydrogéologiques, obtenus grâce à l’utilisation des outils
et méthodologies d’acquisition de plus en plus sophistiqués.
L’
un des premiers projets validés par
DREAM, « eXtenGIS », vise à repenser
le mode de traitement des données des
Systèmes d’Information Géographique
(SIG) appliqués au domaine de l’eau et ce, afin de
répondre à la difficulté croissante à laquelle se
heurte l’ensemble des acteurs pour analyser et
traiter ces données de façon appropriée.
En effet, la précision des appareils de mesure de
terrain atteint, notamment « grâce au laser aéroporté, une finesse de l’ordre d’un point tous les
mètres » signale Daniel Pierre, président du pôle
de compétences « Durabilité de la ressource en
eau associée aux milieux » (DREAM) et directeur
de Géo-Hyd. Le périmètre des études environnementales, des campagnes de mesures et de
prélèvements, s’établit quant à lui à l’échelle des
bassins versants, voire des régions.
L’augmentation des volumes d’informations
– automatiquement obtenues par des outils
et méthodologies d’acquisition de plus en plus
sophistiqués, qui ont gagné en finesse – et « la
disponibilité, jamais aussi forte, des données
SIG », accroissent de ce fait la taille des bases
de données. Or les outils actuels, basés sur des
méthodes de calcul séquentiel fonctionnant par
résolution de cellules, de proche en proche, ne
sont plus techniquement capables de traiter ces
masses d’informations pour en tirer le meilleur
parti. En particulier pour donner des résultats fiables dans des délais de temps qui se réduisent.
Crédit : Pôle de compétences DREAM
4
LA SOLUTION DU PARALLÉLISME
« Bien que dotés de capacités de calcul accrues,
nous arrivons toujours en limite de calcul – au
mieux – ou sans pouvoir lancer de processus
itératif ». Finalement, Daniel Pierre (voir figure 1)
fixe l’objectif ultime du projet : « pouvoir travailler
comme s’il s’agissait d’un SIG mais doté d’une
capacité de solliciter des logiciels permettant de restituer la finesse des données ». La
réponse d’eXtenGIS, fruit d’une collaboration
entre Géo-Hyd et le laboratoire d’informatique
fondamentale d’Orléans (LIFO) : concevoir un
supercalculateur capable d’exploiter les gros
volumes de données hydrogéologiques. Le
principe se fonde sur le regroupement de PC « en
N°12 / JUILLET 2008
Figure 1 – Daniel Pierre, Président du Pôle de compétences DREAM : « Bien que dotés de capacités de calcul
accrues, nous arrivons toujours (actuellement) en limite de calcul ».
grappe » pour leur permettre un fonctionnement
en parallèle (voir figure 2). Ces PC tourneront
toutefois avec de nouveaux algorithmes spécifiques et d’une grande complexité. Les algorithmes classiques, conçus par des hydrogéologues,
ne peuvent en effet plus répondre aux demandes
désormais croissantes, en particulier de l’Europe
et des gouvernements, d’approches globales
et transversales, holistiques, incorporant des
variables de caractérisation du relief, d’occupation des sols…
Dès lors, dans ce cadre, quel défi devront relever les informaticiens du LIFO ? Appliquer leur
La Lettre Techniques de l’Ingénieur
FLASH
savoir-faire dans le calcul parallèle, distribué, à la
refonte des algorithmes SIG dont les limitations
actuelles ont jusqu’à présent bridé les calculs. Il
s’agit ainsi de fournir un outil de traitement des
données, fiable et rapide, au service d’applications environnementales inédites. eXtenGIS a
su attirer des institutionnels comme la Direction
régionale de l’environnement et l’Agence de
l’eau Loire Bretagne. En matière de recherche, il
compte notamment l’Inra et le BRGM tandis que
de grandes entreprises, comme LVMH Recherche,
y participent également.
au Vaucluse. Le dispositif de surveillance repose
sur un réseau de capteurs hydrométéorologiques
(pluviomètres, radars de mesure de hauteur
d’eau…) aux données traitées en temps réel en
vue d’émettre d’éventuelles alertes. Ces données, accessibles au public via internet, sont
transmises par radio jusqu’à un central d’alerte
géré par le syndicat mixte local. Ce central estime
automatiquement les risques de crues sur le
bassin avant transmission d’une alerte éventuelle
aux acteurs spécialisés.
UNE MUTUALISATION
EN QUÊTE DE FINANCEMENTS
Pour Patrice André, secrétaire de DREAM et responsable du département « innovation actifs »
chez LVMH Recherche, « l’intérêt d’un tel cluster
est de réunir des sensibilités et savoir-faire complémentaires, issus de différentes filières, autour
de la thématique fédératrice de l’eau, matière
première du monde biologique ». LVMH intervient
dans ce pôle, notamment par un premier projet
d’étude et de valorisation de la biodiversité végétale des zones humides en région Centre.
Plus spécifiquement, pour Daniel Pierre, en
matière de mutualisation de compétences,
le grand intérêt du cluster réside dans « l’exploitation des travaux scientifiques en calcul
parallèle au profit du SIG, pour offrir désormais
aux acteurs de terrain, comme les agences de
bassin, une capacité de calcul jusqu’alors seulement scientifiquement exploitée, débouchant sur
des traitements de données plus pertinents ». Et
Crédit : LIFO - Université d’Orléans
Risques Industriels & Environnement
5
Or, sur cette thématique des inondations, eXtenGIS
est à même d’apporter des solutions. En effet, pour
Daniel Pierre, la visualisation numérique 3D que
comprendra eXtenGIS peut amener des réponses
par la restitution graphique de l’environnement,
en particulier dans le cadre de « programmes
d’acquisition en zones inondables ». Ainsi, « une
mise en scène 3D associant les modèles de propagation des crues (de la Loire notamment) avec
l’acquisition de données par laser aéroporté, peut
constituer un nouvel outil décisionnel en particulier
en faveur des élus ».
Figure 2 – Traitement d’informations
géographiques par ordinateurs en parallèle.
tandis que l’association elle-même ne disposait
pas encore, début mai, de budget de fonctionnement, DREAM procédait aux demandes de
financements à la fois pour Géo-Hyd et le LIFO,
respectivement via l’outil de subventions « Cap
R&D » du Conseil Régional Centre et l’Appel
à Projet de Recherche régional. L’Association
espère ainsi « rentrer dans la phase opérationnelle du projet eXtenGIS fin 2008 » signale
Denis GroËninck, Délégué DREAM et Chargé des
relations Recherche - Entreprises à Orléans Val
de Loire Technopole (initiateur de DREAM). Le
coût du projet eXtenGIS, qui devrait se dérouler
sur trois ans, se monte à 1,3 million d’euros.
Arnaud QUEYREL
Journaliste scientifi que
POUR ALLER PLUS LOIN
– Pôle de compétences eau DREAM :
www.orleans-valdeloire-business.com
– Laboratoire d’informatique fondamentale
d’Orléans (LIFO) : www.univ-orleans.fr/lifo
– Géo-Hyd : www.geo-hyd.com
L’APPLICATION AUX CRUES
Le bureau d’études Egis Eau (ex-BCEOM France)
pilote la création ex nihilo d’un système d’alerte
aux crues, parfois meurtrières, qui affectent le
bassin versant du Lez s’étendant de la Drôme
L’inspection des installations classées « sur le gril »
Le gouvernement prépare la «modernisation » du cadre d’action de l’inspection des ICPE sur fond
de grogne des inspecteurs. Ils redoutent notamment l’inadéquation de moyens et la privatisation.
U
« risque d’aggravation de l’inadéquation
des missions aux moyens, au vu des sommes
de missions complémentaires importantes à
mener ». D’autre part, Medhy Melin, Secrétaire
national du SNIIM, corps auquel appartiennent les inspecteurs des ICPE, s’inquiète
du projet de fusion entre DRIRE et DIREN :
« comment se traduira-t-il concrètement sur
les missions et, surtout, que deviendront leurs
personnels, leurs métiers spécifiques et la
culture associée ? » Et « s’agit-il d’un premier
pas vers la privatisation avec la séparation
entre instruction, contrôle et inspection alors
menés par des dispositifs pré-établis, sans
pertinence ? »
ne circulaire du 23 janvier 2008 fixe
les thèmes d’action nationale de l’inspection des installations classées pour
l’environnement (ICPE) pour l’année
2008. « Une année de transition vers un nouveau
programme de modernisation, en lien avec la mise
en place de renforts de l’inspection des installations classées, et en application des décision
prises lors du Grenelle de l’environnement ».
Le Syndicat national des ingénieurs de l’industrie et des mines (SNIIM) constate le
La Lettre Techniques de l’Ingénieur
Crédit : SNIIM
En matière de prévention des risques accidentels,
l’accent est notamment mis sur le renforcement
de la sécurité des établissements Seveso, avec
l’identification des établissements nécessitant
un examen complémentaire de la démarche de
maîtrise des risques à la source.
Medhy MELIN, Secrétaire National du SNIIM.
Arnaud QUEYREL
Journaliste scientifi que
N°12 / JUILLET 2008
DOSSIER
6
Risques Industriels & Environnement
Démarches
incertitudes
06 Vers une démarche
« incertitudes » :
méthodologie et formation
inter-industrielle
08 La formation
aux incertitudes :
une exigence pour l’avenir
09 Prise de risques
et gestion des incertitudes
Vers une démarche « incertitudes » :
méthodologie et formation inter-industrielle
L’accroissement de la confiance des autorités régulatrices et l’élargissement des espaces
de conception passent par un enjeu industriel majeur : la maîtrise des incertitudes.
F
dans la mesure où cela permettra d’optimiser les
marges, d’avoir des espaces de conception plus
larges et d’accroître la confiance des autorités
régulatrices.
teurs industriels et académiques français pour
progresser concrètement sur ces défis. L’une
de ses actions-phare a été la réalisation d’une
formation interindustrielle pilote pour mettre au
point une pédagogie sur un référentiel commun,
fruit d’années de collaboration entre industrie
et recherche, notamment au sein du réseau
européen European Safety, Reliability & Data
Association (ESReDA).
UN CONSENSUS MÉTHODOLOGIQUE PORTÉ
PAR UNE FORMATION-PILOTE.
L’expérience industrielle récente montre qu’un
traitement explicite des incertitudes est désormais accessible dans les études et processus
décisionnels, et qu’une démarche générique aux
métiers s’avère possible. Elle pose de nombreux
défis d’ordres culturel, scientifique, informatique,
organisationnel et réglementaire. Suite à une
première journée interindustrielle co-organisée
par l’IMdR-SDF et EDF R&D en 2005, un groupe
de travail « Incertitudes et Industrie » a été
lancé en 2006, réunissant une vingtaine d’ac-
UN CADRE GÉNÉRIQUE DE MODÉLISATION
Crédit : E. De Rocquigny. Dessin : P. Bouillon
ace aux aléas économiques, aux variabilités de production, aux risques naturels
et industriels, ou aux incertitudes des
impacts environnementaux et sanitaires,
la décision s’appuie sur des essais, des mesures,
des modèles numériques ou de l’expertise pour
la conception, l’exploitation, le monitoring
ou la prévision. Une multitude d’incertitudes,
imprécisions et aléas de natures très variables
affectent les marges, la fiabilité, la rentabilité
et in fine la crédibilité des décisions. En outre,
l’évolution contractuelle ou le dialogue réglementaire avec les autorités de contrôle conduit
à plus d’exigences de robustesse dans les argumentaires d’autorisation ou de certification, ou
l’audit des produits, procédés et installations.
Progresser dans la maîtrise des incertitudes
constitue un enjeu majeur pour les industriels,
Figure 1 – Cadre commun d’étude des incertitudes.
N°12 / JUILLET 2008
Quel que soit le contexte (métrologie, calcul
scientifique, fiabilité, technico-économique …),
la plupart des exemples industriels peuvent être
appréhendés dans le cadre suivant d’étude des
incertitudes (voir la figure 1) :
– un objet physico-industriel au cœur de l’étude,
représenté par une chaîne de modèles physiconumériques et/ou instrumenté par une chaîne
métrologique (G(.)) ;
– des sources d’incertitudes affectant ces
modèles (notées x ), et d’autres variables
considérées comme bien maîtrisées, rassemblées dans le vecteur d : par exemple les
conditions de fonctionnement ou d’essais
de l’installation ou du produit destiné à être
certifié. On peut également y adjoindre les
variables d’entrée sujettes à des incertitudes
dont l’importance est négligée, ou fixées par
convention ;
– des enjeux industriels (sûreté/sécurité, responsabilité environnementale, optimisation
économique et financière) qui pilotent l’étude
d’incertitude ;
– une ou des quantités d’intérêt (variance, intervalle de confiance…) portant sur une ou des
variables z prédites par la chaîne de modèle.
La Lettre Techniques de l’Ingénieur
DOSSIER
Risques Industriels & Environnement
Crédit : E. De Rocquigny. Dessin : P. Bouillon
L’étude d’incertitudes vise une ou plusieurs
finalités parmi les suivantes, qui se matérialisera
souvent par un critère décisionnel construit avec
la quantité d’intérêt :
– la justification (ou « certification », vis-à-vis de
la réglementation) ;
– la hiérarchisation (des efforts de mesure, de
modélisation ou de R&D), menée souvent simultanément avec la première finalité ;
– l’optimisation (des choix de conception, d’exploitation/maintenance…) ultérieure éventuelle ;
– la validation (i.e. calage/qualification d’un
modèle numérique, d’un procédé de mesure…)
parfois menée en amont des autres finalités.
REPRÉSENTATIONS MATHÉMATIQUES
VARIÉES, ÉTAPES-CLÉ GÉNÉRIQUES.
Le modélisation des incertitudes conduit alors
à plonger ce modèle déterministe G(.) dans un
univers incertain, en associant à chacune de ces
variables (x, z) des « mesures (ou distributions)
d’incertitude » (X, Z). Ces mesures d’incertitudes peuvent être, selon le choix du paradigme
déterministe, probabiliste ou possibiliste, soit
des intervalles, soit des variables aléatoires,
soit encore des distributions non probabilistes
(nombres flous, distributions possibilistes, de
Dempster-Shafer etc.). Le choix du paradigme
de modélisation des incertitudes occupe un
pan entier de la littérature sur l’incertitude et le
risque. Cette discussion, de nature épistémologique mais aussi liée à la théorie de la décision,
est souvent associée à des distinctions suivant
la nature des incertitudes (dites « aléatoires »,
« épistémiques », de « variabilité », « erreur » ou
encore « incertitude de modèle » etc.). Dans une
perspective économique, elle fait notamment
référence à la façon dont les acteurs peuvent
appréhender un avenir incertain plus ou moins
probabilisable, avec une appréhension contrastée de l’utilité. Néanmoins, quel que soit le paradigme choisi, l’étude d’incertitudes pour un objet
physico-industriel donné s’avère reposer sur les
même étapes génériques (voir la figure 2) :
– la spécification du problème : le choix de la
variable finale (éventuellement vectorielle) z, de
l’enchaînement logique des données et modèles
adaptés pour les évaluer, du critère décisionnel, et
du paradigme de modélisation des incertitudes.
– la quantification (ou modélisation) des
sources d’incertitudes : la détermination des
mesures d’incertitudes X par l’estimation de leurs
paramètres θX , qui peut impliquer deux voies
différentes : la quantification directe par expertise
et/ou traitement d’observations directes (B) ou
la quantification indirecte quand les observations
ou l’expertise portent sur d’autres variables, par
méthodes inverses (B’). Cette dernière voie peut
être aussi assimilée à la phase de calage/qualification du modèle, ou, dans un paradigme déterministe, à de l’identification de paramètres.
– la « propagation d’incertitudes » : le calcul de
la mesure d’incertitude Z de la variable finale z et
l’estimation des critères cz.
La Lettre Techniques de l’Ingénieur
7
Figure 2 – Etapes génériques d’une étude d’incertitudes.
– la hiérarchisation d’importance des sources
d’incertitudes (ou « analyse de sensibilité ») :
le classement de l’importance des composantes
Xi des sources vis-à-vis des critères cz.
MÉTHODES ET COMPÉTENCES :
STATISTIQUES, NUMÉRIQUES,
PHYSIQUES ET DÉCISIONNELLES
La mise en œuvre de ces étapes génériques mobilise un panel varié de méthodes et compétences
associées, qui relient de façon étroite les mathématiques appliquées (statistiques, probabilités et
analyse numérique) et l’analyse physico-industrielle (propriétés de l’objet physique, sciences de
la décision et ingénierie industrielle). On observe
généralement que le choix des méthodes les
plus pertinentes doit être avant tout pensé en
fonction du problème posé, qui dépend de la
nature de la réglementation ou du critère de
décision choisi (étape A) ainsi que des propriétés
génériques de l’objet et du modèle, et non pas du
« métier » spécifique du problème industriel. L’une
des questions-clés est de savoir si l’incertitude
doit être jaugée autour du comportement moyen
(quantité d’intérêt de type variance) ou bien quant
au risque d’écart (quantité de type probabilité de
dépassement de seuil ou quantile) : les modèles
statistiques et méthodes de calcul numéricoprobabiliste diffèrent. On peut citer également le
fait que le calcul du modèle physico-industriel G(.)
en une valeur ponctuelle (x,d) peut demander un
temps CPU (Central Processing Unit) très variable
(de 10-4 s à quelques jours de calcul selon les
cas !), ou présenter une régularité fonctionnelle
plus ou moins forte : des conséquences notables
en découlent en matière de calcul scientifique
faisant l’objet de projets collaboratifs Open Source
(EHPOC/lot Incertitude du Pôle de Compétitivité
System@tic ; OPUS financé par l’Agence Nationale
pour la Recherche).
Notons enfin que si dans cette même approche
globale d’autres paradigmes mathématiques
sont possibles (et évoqués dans la formation), le
cadre mixte déterministe-probabiliste apparaît
central dans les applications industrielles actuel-
les. De fait, il est coutumier d’opposer l’approche
« déterministe » des incertitudes, implicitement
utilisée par bon nombre d’ingénieurs et décideurs
– qui emploient des « scénarii pénalisés » ou
de la sensibilité paramétrique élémentaire – et
l’approche probabiliste. Dans la perspective du
référentiel ici évoqué, on parle plutôt d’un curseur,
dans une même démarche globale, entre deux
modélisations de l’incertitude qui apparaissent
plutôt complémentaires (entre les variables d’entrée classées « x » et « d »), voire imbriquées (dans
des modèles conditionnels plus élaborés). Toute
la subtilité apparaît alors dans la façon de bien
traduire dans des modélisations d’incertitudes la
connaissance disponible (données, expertise …) et
de bien interpréter les critères décisionnels qui en
découlent (flexibilité, couverture de risque…) dans
une méthodologie suffisamment robuste et accessible pour être légitime et industrialisable.
Etienne DE ROCQUIGNY
Mission transverse « Statistiques
et Incertitudes » d’EDF R&D
Responsable des groupes « Incertitudes
et Industrie » de l’IMdR et « Uncertainty
management » de l’ESReDA.
Equipe de formateurs
G. ANDRIANOV (G.), LEFEBVRE (Y.) – EDF R&D ;
FISCHER (N.) – LNE ; VASSEUR (O.) – ONERA ;
HERBIN (E.) – Dassault Aviation ;
Devictor (N.), Iooss (B.) – CEA ;
FARRET (R.) – INERIS ; Stojanovic (N.) ;
MANGEANT (F.) ET FEUILLARD (V.) – EADS – IW ;
MASSÉ (J.R.) – SAFRAN – Hispano-Suiza ;
CHOJNACKI (E.) ET RICHET (Y.) – IRSN
POUR ALLER PLUS LOIN
DE ROCQUIGNY (E.) – La maîtrise des incertitudes dans un contexte industriel, Journal de la
Société Française de Statistique, vol. 147, n° 3,
33-106. (2006).
ROCQUIGNY (E.), DEVICTOR (N.) & TARANTOLA (S.)
(editors), Uncertainty in Industrial Practice - A
guide to quantitative uncertainty management,
Wiley, 2008
ht tp: // w w w. imdr. eu / v2 /ex tranet / index .
php?page=news_detail1&id=76
N°12 / JUILLET 2008
DOSSIER
8
Risques Industriels & Environnement
La formation aux incertitudes :
une exigence pour l’avenir
Former les ingénieurs aux méthodes de traitement des incertitudes assure la création de valeur
pour les industriels en France et maintient cette compétence de recherche appliquée au plus haut
niveau mondial.
A l’issue du premier module, s’adressant à la
communauté des décideurs et managers, les
stagiaires sont capables d’identifier leurs besoins
en matière de traitement des incertitudes ainsi
que de dimensionner et planifier les projets
dans leurs unités. Le deuxième module, rendu
plus pratique par un travail sur PC et en groupe,
s’adresse davantage à ceux qui implémenteront
la démarche sur les cas concrets. Les stagiaires
acquièrent des compétences de mise en œuvre
et repartent avec les outils adaptés. S’appuyant
sur les applications des industriels formateurs, ce
cursus répond à différents besoins par ses deux
modules : aux managers, il offre les méthodes et
le REX pour la mise en place de la démarche de
management des incertitudes dans leurs unités ;
aux ingénieurs, les outils et des compétences
pratiques d’intégration de la « dimension incertitude » dans leurs études métier.
N°12 / JUILLET 2008
Tolérancement : calcul de tolérancement pour les fournisseurs en aéronautique
Maintenance : prise en compte de l’incertitude dans le coût de la maintenance
Etalonnage masses : évaluation de l‘incertitude lors de l’étalonnage d’une masse
Cuve : calcul de probabilité de rupture d’une cuve REP
EPS : étude probabiliste de sûreté
Perf. Garanties consommation : calcul de coût de garantie sous incertitude
CO2 : quantifi cation des incertitudes sur les émissions de CO2
Avant-projets Avion : prise en compte d’incertitude dans l’avant projet de conception d’avion
Contamination des sols : Estimation de l’impact de la contamination radioactive sur l’environnement
Optronique : étude d’infl uence de facteurs incertains en fabrication de fi ltres
Figure 1 – Positionnement des illustrations métier.
LA PÉDAGOGIE
Sur le plan pédagogique, la diversité de provenance des intervenants a contribué à enrichir la
variété des approches. Le premier module privilégiait les exposés synthétiques afin de favoriser
la compréhension des nombreuses applications
industrielles tout en discutant de façon forte
les enjeux d’une telle démarche. Les principaux
échanges sont de plus repris et approfondis en fin
de formation lors d’une table ronde permettant
à tous de bénéficier du retour d’expériences de
décideurs (CEA, EDF, EADS, LNE) ayant déjà initié
une telle « démarche incertitudes » dans leur
entreprise.
Le deuxième module privilégiait un mode d’apprentissage fondé sur l’expérimentation. Les
stagiaires travaillent sur PC et appréhendent
les méthodes statistiques exposées au travers
d’un cas industriel fil rouge tout au long de la
formation. Ils sont épaulés et sollicités individuellement par des accompagnants formateurs qui
leur permettent d’avancer à leur rythme lors de
chaque session thématique. En fin de formation,
un travail en sous-groupe sur un cas pratique de
synthèse favorise la restitution par les stagiaires
de la démarche incertitudes et des méthodes
associées. C’est également un moment fort de
partage d’expérience et d’échanges permettant
de confronter les solutions retenues par chacun
en accord avec les enjeux et contraintes industriels. La réussite de cette appropriation de la
démarche commune incertitudes par le stagiaire
favorise son assimilation ; une première étape en
vue d’une transposition à sa propre problématique industrielle.
PAROLE DE STAGIAIRES
Les participants à cette première session de
la formation venaient d’origine industrielle en
grande majorité. Il apparaissait néanmoins une
grande diversité de niveaux de responsabilité des
fonctions occupées : elles allaient de l’ingénieur
en R&D au directeur scientifique de grande
La Lettre Techniques de l’Ingénieur
Crédit : N. Fischer. Dessin : P. Bouillon
P
lusieurs signes laissent penser que
la recherche appliquée française se
trouve bien positionnée en matière de
méthodes de traitement des incertitudes. Toutefois l’intégration des méthodes par les
équipes d’ingénierie et bureaux d’études – gage
de création de valeur pour les industriels – ne
va pas de soi. Nombreux sont les exemples où
les avancées de la recherche française sont
finalement valorisées outre-atlantique. Une
masse critique d’utilisateurs compétents est un
gage de transfert de savoir R&D sur la chaîne de
valorisation, et un moyen de maintenir la compétence R&D au plus haut niveau en la stimulant
par de nouveaux défis. Dans cette optique, sous
l’égide de l’IMdR, dix entreprises et organismes
industriels français (CEA, CNES, Dassault, EADS,
EDF, IRSN, INERIS, LNE, Onera, Safran) issus
de domaines aussi divers que l’aéronautique,
l’énergie ou l’armement ont uni leurs forces afin
de créer une offre de formation continue « vers
une démarche incertitudes » pour les ingénieurs
et managers, dont la première édition a eu lieu
en novembre 2007 et janvier 2008. Fruit de
l’expérience de ses intervenants, ce cursus de
formation s’appuie sur une grande diversité
d’applications industrielles, illustrant la pertinence et le caractère générique des méthodes
proposées. Une dizaine d’illustrations métier
(voir la figure 1) allant des études avant projet
aux calculs opérationnels servent de support
pour amener et justifier le formalisme choisi et
les méthodes associées [1].
DOSSIER
Risques Industriels & Environnement
entreprise. Le corollaire à cette diversité était
une variété dans les attendus de la formation
aux incertitudes. Alors que certains ont apprécié
la variété des exemples industriels du premier
module dans lesquels ils pouvaient reconnaître
leurs préoccupations habituelles, quelques-uns
ont pu ressentir une impression de « survol » des
méthodes mises en œuvre ou même un manque
de formalisation mathématique. Cette impression
a été majoritairement contrebalancée par le
deuxième module, dont l’objectif était l’étude et
la mise en application des principales méthodes
participant à une étude d’incertitudes.
Les formulaires de satisfaction ont fait apparaître
une bonne appréciation globale de la formation
de la part des stagiaires. Ils mettaient en exergue
la cohérence entre les différents exposés et la
très bonne coordination entre les intervenants.
La variété sectorielle des participants et de leurs
problématiques métier – allant de la conception par
simulation numérique à la métrologie et les essais
en passant par la fiabilité, le management de risques
et la maintenance – a de plus conforté le message
des intervenants sur le caractère générique des
approches exposées. Certains stagiaires ont pu
cependant reprocher le caractère trop pointu de
certains exemples, ce qui pouvait faire perdre le fil
conducteur de la méthodologie : un écueil qui sera
corrigé dès la prochaine session de formation.
Cette expérience de formation a également eu
l’intérêt de susciter des débats sur des questions
plus avancées surgissant de la pratique industrielle. La question de la combinaison mathématique des notions de risques et d’incertitudes en
était l’une d’entre elles : les critères de décision
peuvent-ils techniquement ou doivent-ils, du
point de vue réglementaire, dissocier ou non
des niveaux de probabilité différents pour ce
qui est « intrinsèquement aléatoire » ou « lié
à une méconnaissance réductible » par plus
d’information ? Une autre thématique portait
sur la notion d’« incertitudes de modèle », et son
traitement en lien avec la calibration des codes
et la comparaison essais/calculs, au-delà de la
propagation des « incertitudes paramétriques ».
Autant de questions qui s’avèrent donc se poser
assez vite à un praticien qui lance une « démarche
incertitudes », alors même qu’elles font appel
à des méthodes plus sophistiquées, voire non
consensuelles au plan de la recherche scientifique. Ainsi les méthodes inverses, le formalisme
bayésien et l’optimisation sous incertitudes, ainsi
que la construction des plans d’expérience et
de méta-modèles, ont été mentionnés comme
des thèmes qui pourraient trouver leur place
dans cette formation. Etant plus ardues au plan
pédagogique, elles avaient été écartées dans un
premier temps, mais pourraient bien mériter un
effort supplémentaire.
LE FUTUR DE LA FORMATION
Les nombreuses questions formulées par les
stagiaires lors de la première édition de cette
La Lettre Techniques de l’Ingénieur
formation ont confirmé l’attente et les besoins
des bureaux d’études sur cette thématique
« Incertitudes ». Si la première édition a permis de
dégager un consensus méthodologique entre les
industriels, il est apparu nécessaire de la pérenniser : d’une part pour répondre aux nombreuses
demandes en attente d’industriels déjà initiés au
concept d’incertitude, d’autre part pour sensibiliser de nouvelles entreprises à la prise en charge
de l’incertitude dans leur processus industriel.
Au-delà d’une deuxième édition-pilote réalisée
au sein de l’IMdR en 2008 afin de répondre à la
liste d’attente, le groupe d’industriels a sollicité un
organisme de formation continue afin d’industrialiser cette offre de formation, le rendre pérenne et
déclinable à grande échelle. Le savoir-faire d’un
organisme de formation continue, tant sur le plan
organisationnel que pédagogique, permettra sur
le long terme de continuer à diffuser en direction des industriels une formation de « bonne
pratique » aux incertitudes, tout en continuant
de s’appuyer sur le savoir-faire et la diversité
d’expérience des différents partenaires initiaux.
Ce nouveau déploiement offre la perspective de
former dès 2009 près d’une centaine de per-
sonnes par an, de quoi créer l’effet « boule de
neige » recherché : il permettra à l’ensemble des
industries françaises de bénéficier d’un nouvel
avantage compétitif dans l’économie mondiale
tout en contribuant aussi, par l’expérience industrielle, aux débats de société sur les questions de
risques et de robustesse dans les argumentaires
scientifiques.
N. FISCHER
LNE – Service Statistiques
et calculs d’incertitude
G. Andrianov
Coordinateur du projet OPUS
EDF R&D - Département Management
des Risques Industriels
E. Herbin
Dassault Aviation et enseignant-chercheur
Membres du réseau IMdR
RÉFÉRENCE BIBLIOGRAPHIQUE
[1] DE ROCQUIGNY – Vers une démarche « incertitudes » – méthodologie et formation IMdR ,
Editions TI, Lettre Techniques de l’Ingénieur
Risques industriels & Environnement n°12
Prise de risques
et gestion
des incertitudes
Protéger l’intégralité d’une population de tous les risques
possibles reste du domaine de l’utopie. Pour autant,
les autorités sanitaires assurent leur rôle de protection
en définissant des « seuils limites ». Comment définir
ces barrières entre le tolérable et l’acceptable, et les faire
accepter par les populations concernées ?
Q
uotidiennement, la presse rend
compte d’inquiétudes qui apparaissent ici ou là : la preuve n’a pas été
faite que telle substance n’était pas
dangereuse, que les ondes n’avaient pas d’effet
nocif, qu’une installation était sans effet sur l’environnement. Il faut donc poursuivre les études :
c’est la conclusion invariable. Les études faites,
on en réclame d’autres, sans pour autant apaiser le public ou les journalistes. Le nucléaire, la
téléphonie mobile, sont des exemples évidents,
mais aussi les problèmes de toxicité (amiante),
de contamination (vache folle), et plus généralement d’influence de l’homme sur l’environnement
(réchauffement climatique).
La majorité de la population, aujourd’hui, pense
que nous vivons plus dangereusement qu’il y a
cinquante ans, alors que l’espérance de vie a
considérablement augmenté ; nous vivons en
fait mieux et plus longtemps. Ce « décalage »
entre les faits et l’opinion tient à ce que l’analyse scientifique est mal faite. On ne sait pas
ce qu’on analyse, ni comment on l’analyse, si
bien qu’en définitive, le résultat est dépourvu
de contenu.
INDÉMONTRABLE INNOCUITÉ
Si l’on réfléchit un peu, on s’aperçoit que la preuve
de l’innocuité d’une substance, d’une onde, d’une
installation, ne peut JAMAIS être apportée, quelles
N°12 / JUILLET 2008
9
10
DOSSIER
Risques Industriels & Environnement
LES JEUDIS DU CNRI : « RISQUES ÉMERGENTS : OU COMMENT
CONCILIER ENJEUX ÉCONOMIQUES ET PRINCIPE DE PRÉCAUTION ? »
Le CNRI a organisé, le 3 avril 2008, un colloque sur les Risques Emergents, dont une partie de la
présentation faite par Monsieur Beauzamy, PDG de la Société de Calcul Mathématique, est reprise ici.
Etaient également présents :
– Jean-Marc BRIGNON, Ingénieur à la Direction des risques chroniques – INERIS, avec : « Le principe
de précaution et la doctrine de la France » ;
– Alain TOPPAN, Directeur projets et développement OGM en Europe – Limagrain, avec : « Les OGM :
quelle évaluation des risques et quelle perception ? » ;
– Bruno DEBRAY, Délégué scientifique de la Direction des risques accidentels – INERIS, avec : « La
gestion intégrée des risques émergents » ;
– Jacques BOUILLARD, Ingénieur à la Direction des risques accidentels – INERIS, avec : « Risques
accidentels émergents liés au développement des nanomatériaux » ;
– Jean-Noël GUYE, Directeur risques émergents et développement durable – Groupe AXA, et André
TURBIN, Responsable projets du département responsabilité civile et risques spéciaux – AXA France,
avec : « Risques émergents : le point de vue de l’assureur ».
www.cnri-bourges.org
que soient la durée et l’ampleur des études qu’on
y consacre.
Prenons par exemple l’eau pure. Vous ne pourrez
jamais conclure que l’eau pure est sans danger :
– il y a une certaine fraction de la population qui
est allergique à l’eau, même en faible quantité,
que ce soit par contact ou par absorption ;
– n’importe qui ressent des troubles divers s’il a
trop peu d’eau ou trop, et les valeurs seuil ne sont
pas les mêmes pour tout le monde ;
– le mode d’absorption n’est pas indifférent : on
peut la boire, mais non se l’injecter ;
– sur les 1 500 personnes qui meurent chaque
jour en France (environ), il y en a un certain
nombre qui buvaient de l’eau avant leur mort. Il
est donc légitime de se demander s’il y a un lien
de cause à effet.
Ces arguments très simples sont applicables de
manière très générale, et on en conclut que l’innocuité d’une substance ne peut jamais être démontrée, quelle que soit la masse des travaux qui y
sont consacrés. Cette vérité élémentaire devrait
être portée à la connaissance des industriels, du
public et des journalistes. Toute substance est
potentiellement dangereuse, hors de ses limites
d’utilisation, et ces limites sont différentes d’une
personne à l’autre.
Selon l’Environmental Protection Agency, aux
USA, seuls 7 % des produits de consommation
courante ont fait l’objet d’une étude toxicologique
approfondie [1].
PROTECTION DÉTERMINISTE
OU PROTECTION STATISTIQUE ?
En mathématiques, nous avons un concept qui
nous aide à savoir de quoi nous parlons : cela
s’appelle un système d’axiomes. Les mathématiciens savent qu’à l’intérieur de tel système
d’axiomes, on peut démontrer telle chose et que si
l’on omet l’un d’entre eux, on n’y parvient plus.
La question fondamentale est : voulons-nous
une précaution statistique ou déterministe ? La
précaution statistique signifie que l’on admet
N°12 / JUILLET 2008
un seuil de risques. Il serait admis, pour une
substance nouvelle, qu’elle doit être sans danger
pour (mettons) 99,999 % des utilisateurs. Mais
reste 0,001 %, soit un pour cent mille, et on me
rétorquera que pour un million d’utilisateurs,
cela fait dix morts, soit dix morts de trop : c’est
inacceptable socialement.
Passons donc à la précaution déterministe : il faut
tout contrôler. Mais on retombe sur les quatre
arguments du paragraphe précédent qui font
que, quoi qu’on fasse, il y aura toujours des morts,
réelles ou suspectées.
DÉFINIR DES SEUILS
En pratique, les autorités sanitaires fixent en
général des seuils : seuil de rejet, seuil de toxicité,
valeur toxicologique de référence… On considère
que ces seuils, grâce à des études préalables,
permettent de préserver une fraction très importante (mettons 99,9 %) de la population, de
l’environnement, de l’écosystème…
De plus, ils intègrent des « facteurs de sécurité »
très élevés : partout où l’on ne sait pas bien, on
divise par dix, cent, mille, la dose acceptable. La
notion de seuil est évidemment nécessaire d’un
point de vue réglementaire, mais elle est mal
perçue du public : tous ceux qui sont juste audessous considèrent qu’ils sont en danger.
Alors, sous la pression des médias, le pouvoir
politique abaisse le seuil, ce qui a évidemment
un coût économique (il faut produire autrement).
L’effet sur la population est entièrement négatif :
ceux qui étaient juste au-dessous du premier seuil
clament qu’on leur a menti et qu’ils étaient en
danger, comme cela est maintenant reconnu (et
ils réclament réparation), tandis qu’une fraction
plus large de la population est maintenant à
proximité du nouveau seuil !
Il est nécessaire de faire comprendre à la population qu’un seuil relève toujours de la précaution
statistique : quoi qu’on fasse, si bas que soit le
seuil, il y aura toujours des gens qui seront des
victimes. Il ne faut jamais abaisser un seuil sous
la pression du public (ou des journalistes), s’il n’y
a pas une raison scientifique absolument fondée
pour cela. Bien au contraire, il faut avoir le courage politique de relever certains seuils, lorsqu’il
apparaît, comme cela arrive souvent, que des
études scientifiques complémentaires ont montré
que le produit était moins dangereux qu’on ne le
pensait initialement. Et les industriels ont tout
intérêt à s’associer à ces études.
LES ÉTUDES FINISSENT TOUJOURS
PAR MONTRER UN RÉSULTAT INQUIÉTANT
L’AFSSE (Agence française de sécurité sanitaire
environnementale) s’intéresse, dans un rapport
récent [2], aux dangers potentiels causés par
le téléphone mobile (risques de cancers). Elle
constate qu’il n’y a rien à constater, mais conclut
évidemment qu’il faut poursuivre les études. Si on
les poursuit assez longtemps, elles finiront bien
par montrer quelque chose d’inquiétant. Sur les
milliers de rats qu’on mettra en présence d’ondes
de faible ou de forte puissance ou à qui on injectera des substances diverses, il s’en trouvera bien
un pour développer un cancer, ou au moins une
rougeur sur une patte. Cela suffira aux spécialistes
pour clamer qu’il y a danger.
La multiplication des études n’est pas un gage
d’honnêteté, puisqu’on ne retient que celles qui
sont inquiétantes et elle ne peut qu’inquiéter le
public. On lui dit : dans telles circonstances, où
on a injecté telle substance dans le cerveau, le
rat a développé telle variante de la maladie de
Creutzfeldt Jacob. Mais on ne dit pas combien
de rats n’ont rien développé du tout, si bien
que la probabilité d’attraper la maladie de
cette manière, pourtant bien particulière, reste
infime. Les journaux reprennent l’information
sous la forme « la maladie de la vache folle
est transmissible à l’homme », et il en résulte
un délire collectif. On pourrait tout aussi bien
titrer : « danger, le verre d’eau tue ! », parce qu’il
y a beaucoup plus de gens morts en buvant un
verre d’eau que de gens morts de la maladie de
Creutzfeldt Jacob. Pour y remédier, on pourrait
obliger les scientifiques (et les journalistes qui
en rendent compte) à publier les conditions
expérimentales, comme le font les statisticiens
lors des sondages : « nous avons interrogé un
panel de 805 personnes ». Ici, il faudrait préciser : nous avons travaillé sur N rats, et, sur
ces N rats, dans telles conditions, nous avons
observé telle réaction. Ne pas se contenter des
résultats inquiétants, mais les donner tous.
MÉCONNAISSANCE
DES ARGUMENTS STATISTIQUES
RELATIFS À LA SANTÉ PUBLIQUE
Cela fait maintenant plus de dix ans que la téléphonie
mobile existe. Or, la fréquence des cancers et des
tumeurs n’a en rien augmenté. Mais cet argument
statistique, qui n’est pas politiquement correct, n’est
jamais employé. De même, on montre à la télévision
une école, voisine de pylônes portant des antennes,
où quelques cas de cancers sont apparus. Mais
La Lettre Techniques de l’Ingénieur
DOSSIER
Risques Industriels & Environnement
on ne montre pas les écoles, tout aussi voisines
d’antennes, où il n’y a pas de cancers, ni les écoles
éloignées des antennes où il y a des cancers.
Il faut à l’opinion et aux journalistes une relation de cause à effet entre antenne et cancer.
Pourtant, ces arguments statistiques simples
seraient de nature à rassurer l’opinion. Lui dire
tout simplement que, depuis que la téléphonie
mobile existe, la santé publique ne s’est pas
dégradée mettrait fin au débat.
MÉCONNAISSANCE DES LOIS
FONDAMENTALES DES PROBABILITÉS
Le hasard ne réclame pas l’homogénéité, mais
crée la disparité. Si le cancer est dû au hasard,
il est normal que le taux de cancers varie significativement d’une ville à l’autre. Il existe des tests
statistiques qui permettent de déterminer quelles
déviations sont significatives et lesquelles ne le
sont pas. En tout état de cause, l’apparition de
4 cas de cancers sur une population de 2 000
habitants (par exemple, une école) ne justifie
pas sa mise en relation avec la proximité d’une
antenne : on peut aisément trouver des communautés de 2 000 habitants, éloignées de toute
antenne, où il y a beaucoup plus de cancers.
De la même façon, les tempêtes enregistrées en
France en 1999 n’ont absolument rien d’anormal
ni d’inquiétant, comme le dit Météo France [3],
mais il se trouve quantité de gens pour croire que
le climat est déréglé.
DES MODÈLES TROP PRÉCIS
POUR ÊTRE HONNÊTES
Les scientifiques (et nous pensons surtout ici
à ceux qui s’intéressent aux ondes hertziennes, [2], [5]) veulent faire des études extrêmement
détaillées. Ils voudraient, par exemple, pouvoir
décrire complètement le champ électromagnétique à tout endroit, à tout instant, pour voir s’il
respecte bien les normes de sécurité imposées.
Mais cette description est évidemment impossible parce que la situation est trop complexe
(bâtiments, réverbérations, etc.), si bien que
d’innombrables études extrêmement détaillées
vont être nécessaires. De surcroît, ce que les
scientifiques ne voient pas, c’est que ces études
détaillées vont en réalité susciter la méfiance du
public, qui est persuadé que sous ce monceau de
chiffres, on lui cache quelque chose.
L’objectif devrait être de répondre à la demande
du public, sous une forme simple : nous sommes
partout à 20 % de la norme autorisée. Il suffit donc
de dimensionner les études pour valider ou réfuter
une conclusion de ce type. Il n’est pas nécessaire
d’entrer trop finement dans les détails. L’approche
du problème, tout entière, doit être « grossière »
et non pas fine. Elle doit être homogène ; il ne faut
pas que tel module soit fin et tel autre grossier, sans
quoi toute l’approche est mise en question. Elle
doit surtout être robuste, pour être convaincante :
compte tenu des insuffisances sur les données,
La Lettre Techniques de l’Ingénieur
compte tenu des variantes qui peuvent être faites
sur les diverses hypothèses (tel mode de propagation, etc.), nous sommes en mesure de vous
affirmer que le champ ne dépasse nulle part 20 %
du seuil autorisé. C’est l’objectif de notre travail de
recherche « modélisation robuste » [4].
LES JOURNALISTES
NE REPRÉSENTENT PAS L’OPINION
Les sondages et enquêtes sur les questions
environnementales sont extrêmement difficiles
à réaliser. On a donc tendance à accorder une
importance excessive aux informations apportées par les journaux, qui ne représentent pas
nécessairement l’état de l’opinion. Les journalistes
accentuent les aspects spectaculaires et ils passent sous silence les aspects rassurants.
modèles, on voudra bien accepter que j’en sois
le principal critique !
LES SCIENTIFIQUES PEUVENT
SE TROMPER ET ÊTRE MALHONNÊTES
L’histoire regorge d’erreurs commises par des
scientifiques en toute bonne foi. Un passé récent
a vu l’apparition de « scientifiques médiatiques »,
qui se font filmer en blouse blanche devant un
ordinateur, et annoncent un nouveau danger pour
l’homme : la mer monte, l’atmosphère se réchauffe,
l’air est pollué, etc. Il serait bon de remettre tout ceci
en perspective [6]. Pour parvenir à ces prédictions
alarmistes, les scientifiques utilisent bien sûr des
modèles, mais ils « oublient » d’en préciser les incertitudes et les insuffisances. La presse fait le reste.
LE RÔLE DES INDUSTRIELS.
Pour y remédier, il est nécessaire que les organismes publics en charge de questions relatives
à la sécurité environnementale rédigent des
communiqués courts et précis, en demandant
aux journalistes de les respecter strictement. Il ne
faut pas hésiter à utiliser la procédure du « droit
de réponse ». Le journal a décrit un phénomène
de manière qui paraît contestable : l’organisme
public envoie un communiqué que le journal devra
reproduire précisément.
Une bonne partie des inquiétudes du public proviennent d’informations fallacieuses, propagées
et entretenues par des journalistes. On s’aperçoit,
presque à chaque fois, que les faits réels sont
connus des organismes publics en charge de
ces questions et que la vérité a été publiée dans
des revues internes à ces organismes ; mais elle
ne circule pas auprès du grand public, qui reste
persuadé qu’on lui cache quelque chose.
UN MODÈLE N’EST PAS LA RÉALITÉ
L’outil principal pour les prédictions, quelle qu’en
soit la nature, est la modélisation. Faire un modèle
c’est, à partir de faits, d’informations, de lois plus
ou moins connues, plus ou moins empiriques,
prévoir comment les choses vont évoluer.
Mais un modèle comporte toujours une part
d’hypothèses et une part d’incertitudes. Les hypothèses portent sur le comportement (on pense
que telle chose se produira de telle manière) ; les
incertitudes portent sur les données. Un modèle
est une construction intellectuelle ; il ne représente la réalité que de manière approximative. Il
représente un scénario possible, ou plusieurs.
Pour prendre une comparaison, un tableau
est une représentation de la réalité, mais il ne
viendrait pas à l’idée d’un général de dire : « ce
tableau prouve que nous pouvons traverser la
rivière à gué ». Le modèle donne des indications
sur ce qui peut se passer : sous telles hypothèses,
telles choses peuvent arriver. Mais rien de plus.
Et un modèle ne devrait jamais être utilisé pour
fonder une décision politique. Comme la Société
de calcul mathématique vit de la fabrication de
Les industriels ont trop souvent tendance à considérer que leur rôle se limite à la production, et que
c’est à l’Etat (ou à la Communauté Européenne) de
définir les seuils acceptables. Or, en procédant de
cette manière, ils acceptent des règles qui peuvent
être lourdes de conséquences, et ne se donnent
pas les moyens de participer à la prise de décision.
Il serait bien préférable que les industriels se regroupent par secteurs, et mettent en place des centres
de compétences, d’expérimentation, avec l’appui
de l’Etat qui le souhaite. Ces centres auraient pour
rôle de faire les tests, de développer la compétence
théorique nécessaire, mais aussi d’informer l’opinion,
ou de lutter contre la désinformation.
On ne peut lutter valablement, sur toutes ces
questions, que si l’on développe ce que j’appellerais une « contre-compétence » scientifique.
Il ne faut pas laisser de soi-disant experts dire
n’importe quoi, mais pour pouvoir leur répondre,
il faut avoir des arguments. Les arguments liés à
l’emploi ne suffisent pas, et il faut pouvoir faire
état d’arguments scientifiques.
Bernard BEAUZAMY
PDG, Société de Calcul Mathématique
Membre du réseau CNRI
POUR ALLER PLUS LOIN
[1] VINDIMIAN (E.) – Comment fi xer les niveaux
de substances toxiques à ne pas dépasser dans
l’environnement ? Exposé fait dans le cadre du
séminaire conjoint INERIS-SCM, le 11 novembre
2002.
[2] Avis de l’AFSSE sur la téléphonie mobile,
saisine 1/2002, 16 avril 2003.
[3] PLANTON (S.), BESSEMOULIN (P.) – Le
climat s’emballe-t-il ? La Recherche (octobre
2000)
[4] Modélisation mathématique robuste :
www.scmsa.com/robust.htm
[5] Réseau national de recherche sur les télécommunications – L’étude et la validation
d’outils de référence pour la simulation des
champs électromagnétiques à proximité des
émetteurs radio (2002-2003)
[6] LALANCETTE (M.-F.) – La lettre du Service
Hydrographique et Océanographique de la
Marine. Lettre n°18 (décembre 2001)
N°12 / JUILLET 2008
11
12
RÉGLEMENTATION
Risques Industriels & Environnement
Suivi du 1er au 31 mai 2008
Intitulé du texte (référence) par thème
Installations classées
Décret n° 2008-467 du 19 mai 2008 relatif au comité d’hygiène, de sécurité et des conditions de travail d’un établissement à risques technologiques
ou comprenant une installation nucléaire (JO n° 117 du 21 mai 2008)
Arrêté du 18 avril 2008 relatif aux réservoirs enterrés de liquides inflammables et à leurs équipements annexes soumis à autorisation ou à déclaration
au titre de la rubrique 1432 de la nomenclature des installations classées pour la protection de l’environnement (JO n° 117 du 21 mai 2008)
Arrêté du 18 avril 2008 relatif aux conditions d’agrément des organismes chargés des contrôles des cuves enterrées de liquides infl ammables et de
leurs équipements annexes (JO n°0116 du 20 mai 2008)
Arrêté du 22 avril 2008 fi xant les règles techniques auxquelles doivent satisfaire les installations de compostage ou de stabilisation biologique
aérobie soumises à autorisation en application du titre Ier du livre V du code de l’environnement (JO n° 114 du 17 mai 2008)
Air
Règlement (CE) no 473/2008 de la Commission du 29 mai 2008 modifiant le règlement (CE) no 2037/2000 du Parlement européen et du
Conseil en ce qui concerne l’ajustement des codes NC de certaines substances qui appauvrissent la couche d’ozone et des mélanges contenant de telles substances (JOUE n° L 140 du 30 mai 2008)
Nature
Décret n° 2008-457 du 15 mai 2008 relatif aux sites Natura 2000 et modifiant le code de l’environnement (JO n° 114 du 17 mai 2008)
TMD
Arrêté du 9 mai 2008 fi xant la liste des ouvrages des ports intérieurs et des ports maritimes soumis aux dispositions du décret n° 2007-700 du
3 mai 2007 relatif aux études de dangers des ouvrages d’infrastructures de stationnement, chargement ou déchargement de matières dangereuses portant application de l’article L. 551-2 du code de l’environnement (JO n° 118 du 22 mai 2008)
Arrêté du 9 mai 2008 fixant la liste des aires de stationnement ouvertes à la circulation publique et les gares de triage ou faisceaux de relais
soumis aux dispositions du décret n° 2007-700 du 3 mai 2007 relatif aux études de dangers des ouvrages d’infrastructures de stationnement,
chargement ou déchargement de matières dangereuses portant application de l’article L. 551-2 du code de l’environnement (JO n° 118 du
22 mai 2008)
Produits chimiques
Règlement (CE) no 440/2008 de la Commission du 30 mai 2008 établissant des méthodes d’essai conformément au règlement (CE) no 1907/2006
du Parlement européen et du Conseil concernant l’enregistrement, l’évaluation et l’autorisation des substances chimiques, ainsi que les restrictions
applicables à ces substances (REACH) (JOUE n° L 142 du 31 mai 2008)
Substances dangereuses
Recommandation n° 2008/405/CE de la Commission du 28 mai 2008 concernant des mesures de réduction des risques présentés par le 2-nitrotoluène et le 2,4-dinitrotoluène (JOUE n° L 141 du 31 mai 2008)
Règlement (CE) no 466/2008 de la Commission du 28 mai 2008 imposant aux fabricants et aux importateurs de certaines substances prioritaires
de fournir des informations et de procéder à des essais complémentaires conformément au règlement (CEE) no 793/93 du Conseil concernant
l’évaluation et le contrôle des risques présentés par les substances existantes (JOUE n° L 139 du 29 mai 2008)
Décision n° 2008/385/CE de la Commission du 24 janvier 2008 modifiant, aux fi ns de son adaptation au progrès technique, l’annexe de la directive
2002/95/CE du Parlement européen et du Conseil en ce qui concerne les exemptions relatives aux utilisations du plomb et du cadmium (JOUE
n° L 136 du 24 mai 2008)
Les textes relatifs aux thèmes « Installations Classées et « Environnement-santé » sont consultables sur le site aida.ineris.fr
L’INERIS développe également un site « VIJI » dans lequel sont regroupés tous les textes nationaux et communautaires dans les domaines de l’hygiène, la
sécurité et de l’environnement et assure une veille juridique et une mise à jour régulière de ces textes. Pour plus d’informations, contacter Florence OGER
N°12 / JUILLET 2008
La Lettre Techniques de l’Ingénieur
Risques Industriels & Environnement
ZOOM SUR UN LABORATOIRE
13
A Nancy, des chercheurs suivent, dans l’environnement,
les métaux lourds issus de l’incinérateur de la ville de
Metz. Les dernières conclusions de l’Institut National
de Veille Sanitaire sont, aux yeux du Centre National
d’Information Indépendant sur les Déchets (CNIID), loin
d’être complets. Une démarche nécessaire pour rendre
transparentes les activités d’un incinérateur situé en
pleine ville et qui avivent l’intérêt pour des travaux…
inconnus des riverains.
F
in mars 2008, l’Institut National de Veille
Sanitaire (INVS) diffusait le rapport
« Incidence des cancers à proximité des usines d’incinération d’ordures ménagères ».
Cette étude rend compte de la relation entre l’incidence des cancers chez l’adulte et l’exposition aux
émissions atmosphériques des usines d’incinération
d’ordures ménagères (UIOM). Elle porte sur 135 000
cancers diagnostiqués dans quatre départements
métropolitains entre 1990 et 1999.
Bilan : il existe des « liens significatifs » – mais
« sans causalité des relations observées » – entre
l’exposition aux panaches d’incinérateurs et
l’incidence de différentes formes de cancers
chez l’homme comme chez la femme. Ainsi,
l’INVS reconnaît « l’impact des émissions des
incinérateurs sur la santé » tout en soulignant
le caractère non transposable de ces résultats à
l’heure actuelle et le bien-fondé des mesures de
réduction des émissions de ces UIOM.
CARTOGRAPHIE DES
ÉMISSIONS POLLUANTES
De son côté, le Centre National d’Information
Indépendant sur les Déchets (CNIID) s’insurge de ces
restrictions qui font, en particulier, « peu de cas du
principe de précaution » et confirment la « poursuite
de la politique d’incinération des déchets ». Côté
industrie, Norvégie, filiale Sita exploitant des unités
de traitement et de valorisation énergétique des
déchets ménagers, communique sur le rapport de
l’INVS en passant sous silence les « liens significatifs » révélés par ce dernier.
Maintenant, en matière de recherche, les analogies de réactions entre les étoiles en formation et
les fours d’incinération d’ordures ménagères ont
conduit les chercheurs du Centre de Recherches
Pétrographiques et Géochimiques (CRPG) de
Nancy a établir le bilan de masse et le suivi, au
La Lettre Techniques de l’Ingénieur
Crédit : CRPG-CNRS
Les émissions
d’incinérateurs
suivies à la trace
Figure 1 – Particule porteuse de Pb émise par l’incinérateur Haganis
(photo au Microscope Electronique à Balayage en électrons secondaire
et spectre associé).
champ proche comme au champ lointain, des
matériaux inorganiques émis par l’incinérateur
à sec de la ville de Metz. L’incinérateur est par
ailleurs géré par HAGANIS, Etablissement public
à caractère industriel et régie de la Communauté
d’Agglomération de Metz-Métropole. Les chercheurs peuvent désormais établir, sur 800 km2, le
devenir des polluants (métaux lourds comme Pb,
Hg, Se…) issus de l’incinérateur (voir la figure 1),
en couplant les caractérisations isotopiques des
éléments lourds au suivi par marqueurs (lichens,
comme indicateurs biologiques et aérosols
– pour les PM 10). Cette démarche concertée,
de référence, « entre recherche, secteurs public
et privé », permet d’assurer « la transparence aux
activités d’un incinérateur situé en pleine ville »
estime Guy Libourel, chercheur au CRPG.
QUESTIONS D’ACTUALITÉ
ET DE TRANSPARENCE
L’actualité du suivi consiste « en plus des échantillonnages de cendres dans l’incinérateur, en
campagnes de prélèvements de lichens et d’aérosols ». D’autre part, alors que le suivi de la région
messine a débuté en 2000/2001, « correspondant à notre temps zéro » (avec la mise en service
de l’incinérateur), l’objectif des chercheurs est de
suivre le site au minimum jusqu’en 2011.
découvrir seulement aujourd’hui, ce qu’il qualifie
de « manque de transparence ». Jugeant « les
résultats obtenus par deux campagnes annuelles
manquer de représentativité », il demande aussi
un « contrôle continu, sur les dioxines en particulier, avec publication de résultats accessibles
aux associations ».
Témoignant pour sa part des activités de suivi
menées par Tiru – Groupe industriel de valorisation de déchets – sur le territoire français,
Patrick Boisseau, directeur technique du Groupe,
annonce « pour toutes nos usines, à minima un
suivi des retombées atmosphériques au moyen
de jauges type Owen ». Et à coté, des mesures
« souvent » supplémentaires en dioxines dans
le lait de vache en zone rurale, « pour quelques
usines, il y a aussi des mesures dans les sols ainsi
que dans des végétaux, en fonction de l’entourage de l’usine (herbages, vignes, aiguilles de
pin…) ». Sur le volet politique cette fois, le Ministre
Jean-Louis Borloo annonçait, en avril dernier, « le
renforcement réglementaire de la surveillance
des UIOM ».
Arnaud QUEYREL
Journaliste scientifi que
Jusqu’alors intéressés au suivi du champ proche
et au champ lointain jusqu’à un diamètre de 15 à
20 km autour de l’incinérateur, ils souhaitent par
ailleurs désormais « suivre plus en détail ce qui se
passe autour de la cheminée dans un rayon de
500 à 1 000 m ».
POUR ALLER PLUS LOIN
De son côté, Gérard Landragin, président d’Air
Vigilance – l’association de défense des riverains
de l’incinérateur HAGANIS – estime ces recherches « bénéfiques », tout en déplorant de les
– Centre de Recherches Pétrographiques
et Géochimiques (CRPG) :
www.crpg.cnrs-nancy.fr
– Institut national de veille sanitaire :
www.invs.sante.fr
– Centre National d’Information
Indépendant sur les Déchets :
www.cniid.org
N°12 / JUILLET 2008
14
BLOC-NOTES
AGENDA
17 septembre
Les nouvelles théories de l’incertain
pour la maîtrise des risques industriels –
Logique floue, approches possibilistes…
Cette « Journée IMdR » est organisée en partenariat avec l’IRSN.
Lieu indiqué ultérieurement
www.imdr.eu ou tel : 01 45 36 42 10
18 septembre
Colloque de Cindynique Judiciaire
Organisé par l’IMdR, en partenariat avec l’ Institut
des Hautes Etudes pour la Justice (IHEJ) et l’Association Françaisedes Juristes d’Entreprise (AFJE),
ce colloque aura pour thème « Risque, Incertitude,
Justice et Société ».
Maison du Barreau, Ile de la Cité, 75001 Paris.
www.imdr.eu ou tel : 01 45 36 42 10
A LIRE
La méthode PPRT version
stockages souterrains
Le guide « PPRT Stockages Souterrains » est en
ligne sur le site Internet de l’INERIS. Il a vocation
à faciliter et à accompagner la mise en œuvre des
Plans de Prévention des Risques Technologiques
appliqués aux stockages souterrains de gaz
naturel, d’hydrocarbures liquides ou liquéfiés ou
de produits chimiques à destination industrielle
(stockages visés à l’article 3-1 du Code Minier).
Ce guide décline la méthodologie définie dans le
guide PPRT général (paru en 2005), en intégrant
les spécificités techniques et réglementaires liées
aux stockages souterrains. L’une des particularités réside dans la prise en compte, d’une part des
risques d’incendie, d’explosion ou d’émanation
de produits toxiques propres aux installations de
surface et, d’autre part, des risques de mouvements de terrains liés à la présence souterraine
de cavités de stockage.
Ce guide a été élaboré par un groupe de travail
piloté par l’INERIS et constitué de représentants du ministère de l’Écologie, de l’Énergie, du
Développement durable et de l’Aménagement
Risques Industriels & Environnement
du territoire, des DRIRE, et des exploitants de
stockages souterrains GDF, TIGF et GEOSTOCK.
Il s’adresse à l’ensemble des acteurs, services de
l’État, collectivités, exploitants, bureaux d’études,
intervenant dans l’élaboration d’un PPRT relatif
à un stockage souterrain.
www.ineris.fr
Azote, phosphore et pesticides
– Stratégies et perspectives
de réduction des flux
Caroline Grégoire, Sylvain Payraudeau
22,87 euros TTC, 132 pages,
ISBN 978-2-85362-673-3, 2008
Cet ouvrage rassemble les travaux menés principalement en Europe pour comprendre le
fonctionnement des politiques de protection et
de gestion du paysage dans des cas concrets et
diversifiés. Il aborde successivement les enjeux
de l’action paysagère, les relations entre paysage et espace public dans le contexte urbain, les
conceptions mobilisées pour élaborer et mettre
en œuvre des politiques et, enfin, les modalités
de participation du public. Il est destiné aux
acteurs impliqués dans la mise en œuvre des
politiques du paysage, mais aussi aux étudiants,
aux enseignants et aux chercheurs intéressés
par le transfert des résultats de la recherche au
bénéfice de l’action paysagère.
Membre du Groupe
Weka Business Information
SAS au capital de 1 000 000 €
Siège social, rédaction et publicité
249, rue de Crimée
75925 Paris cedex 19
Tél. 01 53 35 20 00
Fax 01 40 38 20 22
www.editions-ti.fr
Directeur de la publication
André BLANC
Directeur des Éditions T.I.
André BLANC
Directeur de la rédaction
Marc CHABREUIL
Responsable d’édition
Céline VIAN
Tarifs
Prix de vente au numéro : 26 € TTC
Abonnement annuel France : 229 € HT (234 € TTC)
Tarif export sur demande
Maquette
La Coopérative de Communication
Prépresse, impression
Bialec – 95 boulevard Austrasie – 54000 Nancy
PARUTIONS
Tirage
2 500 exemplaires
Dans la base documentaire
Environnement des Editions
Techniques de l’Ingénieur
– Filières énergétiques actuelles et futures
pour le transport routier de marchandises, par
G. PLASSAT (IN 92)
– Valorisation d’un co-produit agroalimentaire
en bioadsorbant pour traiter des solutions
contaminées issues de la filière papetière, par
G. CRINI, P.-M. BADOT (IN 95)
– Analyse environnementale , par A. PRATS
(G 5002)
– Mesures et traitements de polluants de
l’air en agro-alimentaire, par P. LE CLOIREC,
J.-M. GUILLOT (G 1920)
Relation clientèle
Tél. 01 53 35 20 20
Fax 01 53 26 79 18
BULLETIN D’ABONNEMENT
OUI, je m’abonne à la Lettre Techniques de l’Ingénieur
Risques Industriels et Environnement , 10 numéros par an,
au tarif de 229 euros HT (234 euros TTC) pour la France
métropolitaine (code 442).
Commission paritaire
1212 I 89205
ISSN
1957-2891
© La Lettre Techniques de l’Ingénieur
Risques Industriels et Environnement
Si vous souhaitez poser une question
ou devenir auteur, n’hésitez pas à
nous contacter à l’adresse suivante :
[email protected]
À compléter et à renvoyer accompagné de votre règlement à :
Éditions T.I. – 249, rue de Crimée – 75925 Paris cedex 19
Tél. 01 53 35 20 20 – Fax 01 53 26 79 18
E-mail : [email protected]
Mr
Mme
Mlle
Nom . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Prénom . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Je joins mon règlement d’un montant de 234 euros TTC
à l’ordre des Éditions T.I.
Fonction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Raison sociale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Adresse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.................................................................................................................
Date, cachet de la société et signature obligatoires
CP feeee Ville . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Téléphone feeeeeeeee Fax feeeeeeeee
E-mail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
SAS au capital de 1 000 000 euros – RCS Paris B 380 985 937 – Siret 380 985 937 00024 – NAF : 221 E –TVA FR 33 380 985 937
En application de l’article L27 du 6 janvier 1978, relative à l’informatique et aux libertés, vous disposez d’un droit d’accès et de rectification pour toute information vous concernant en vous adressant à notre siège social.
Le salon européen des solutions optiques
EOS
Congrès Annuel 2008
4 jours
29 & 30 septembre
1er & 2 octobre 2008
Même lieu, mêmes dates
www.optoexpo.com
Badge gratuit
Mot de passe : PUB42
5 QUESTIONS À…
Risques Industriels & Environnement
La contamination fongique
sous contrôle automatique
Le Centre Scientifique et Technique du Bâtiment (CSTB) a développé un premier indice d’évaluation
de la qualité de l’air intérieur : l’indice de contamination fongique (voir lettre RIE n°9). Précurseur
d’un indice global de la qualité de l’air intérieur des logements et bureaux (à la pollution de l’air
encore « très mal connue en France »), il détecte toute contamination fongique dans l’habitat.
INTERVIEW DE STÉPHANE MOULARAT
Responsable du secteur biochimie
au Laboratoire de Microbiologie des
Environnements Intérieurs (LMEI) du Centre
Scientifique et Technique du Bâtiment (CSTB).
Par Arnaud Queyrel, journaliste scientifique
Arnaud Queyrel – Quel objectif vise l’indice
de contamination fongique ?
Stéphane Moularat – L’indice est appliqué aux
données de l’étude nationale sur la qualité de l’air
intérieur des logements français – la « Campagne
logements » – menée depuis 2007 par l’Observatoire de la qualité de l’air intérieur (OQAI).
Le premier volet de l’étude visait à connaître et
déterminer l’origine de la pollution intérieure dans
les lieux de vie fréquentés par les enfants (crèches,
écoles, piscines…) [1]. Le second programme,
en cours, s’adresse à la pollution intérieure des
bureaux. Dans les environnements intérieurs, les
individus sont soumis à un cocktail de polluants,
dont les Composés Organiques Volatils et les
spores émis par les moisissures. Ces polluants
d’origine biologique peuvent provoquer l’apparition de maladies notamment respiratoires comme
les allergies, les infections et toxi-infections.
AQ – En France, quel est le niveau de pollution fongique des logements ?
SM – Pour 10 % de logements contaminés
avec des moisissures visibles, 27 % le sont sans
moisissures visibles. Donc, au total, 37 % des
logements (sur les 496 analysés) ont montré
un développement fongif actif. D’autre part, 5 %
des logements, non contaminés, présentent des
moisissures visibles. La technique de détection
que nous avons mise au point au CSTB, incluant
spécialement le nouvel indice moisissure basé sur
l’identification des COVs (comme traceurs) émis
par les champignons, a donc permis de détecter
ces contaminations jusqu’à présent invisibles
et non comptabilisées. L’objectif de notre outil
est de participer à la future qualification de la
qualité d’air des logements. Sachant que 10 %
des logements français sont multi-pollués à des
concentrations très élevées de divers polluants.
AQ – Comment avez-vous procédé pour
établir l’indice ?
SM – Nous avons d’abord mené nos travaux en
laboratoires, en chambres d’essais, puis à partir de
prélèvements de COVs effectués dans des logeN°12 / JUILLET 2008
Crédit : CSTB
16
Stéphane Moularat, Responsable du secteur biochimie (CSTB).
ments réels et analysés au laboratoire. Il s’agissait
tout d’abord d’identifier et de caractériser les COVs
spécifiques d’un développement fongique pour
construire, sur cette base, l’indice de contamination
fongique. Il a donc fallu, en particulier, différencier
ces COVs d’origine fongique des très nombreux COVs
des environnements intérieurs issus principalement
des produits de construction (liège, dalles de plâtre…). Les COVs spécifiques permettent de détecter
le développement de moisissures. Tout l’intérêt de
la méthode est de pouvoir identifier la présence de
moisissures sans signe visible.
AQ – A quel développement innovant travaillez-vous ?
SM – Au départ de l’outil de calcul d’indice de
contamination fongique (protégé par un brevet de
procédé) mis au point, et qui permet de détecter
l’émission de COVs par les moisissures présentes
dans les bâtiments, nous travaillons désormais à
l’automatisation de la méthode. Une thèse en cours
étudie ainsi les capteurs et les systèmes de capteurs
à mettre en œuvre pour parvenir au traitement
automatique des données issues de l’exploitation de
cet outil. L’équipe envisage un prototype d’ici un an
suivi de deux à trois ans de développement avant le
dépôt d’un brevet. Un tel équipement pourrait alors
déboucher sur la réalisation d’une cartographie
globale, nationale, de la contamination fongique
dans l’habitat. Cette cartographie est pour l’instant
encore limitée à la région Ile de France.
AQ – Quelles nouvelles mesures préparez-vous ?
SM – En matière d’évaluation de matériaux, la
mesure de biomasse est déjà effective pour la
mesure de vulnérabilité des matériaux aux attaques
fongiques. Désormais, il serait intéressant d’associer
à l’exploitation de l’indice un mélange de matériaux
(en fait, de travailler en environnement réel) avec
des données sur les matériaux de construction et
de décoration, ainsi que des paramètres environnementaux. Une analyse statistique menée à partir
de cette première étape permettrait de déterminer
l’importance relative des paramètres et de découvrir
quels paramètres ont le plus d’importance sur la
sensibilité fongique. Ce travail est déjà en cours
sur de petits essais grâce à la réception, en début
d’année 2008, de notre outil de calcul d’indice.
POUR ALLER PLUS LOIN
www.air-interieur.org
[1] QUEYREL (A.) – Inquiétudes sur la pollution de l’air, intérieur, Editions TI, Lettre
Techniques de l’Ingénieur Risques industriels
& Environnement n°8 (2008)
La Lettre Techniques de l’Ingénieur