Prédiction des effets des explosions et de réponse des structures

Transcription

Prédiction des effets des explosions et de réponse des structures
Prédiction des effets des explosions et de réponse
des structures pyrotechniques
Jean-Pierre Languy, TECHNIP
1.
INTRODUCTION
La prédiction des effets des explosifs intéresse en premier lieu le chimiste qui met aux points de
nouveaux explosifs et en aval de celui-ci tous les industriels et militaires qui mettent en œuvre des
explosifs.
En effet ceux-ci ont toujours cherché à faire de nouveaux explosifs plus puissants (en pression, en
impulsion, en gaz…) et/ou plus sûrs d’usage. La prédiction des intensités des explosions est donc
une de leurs tâches pour mesurer les progrès des nouveaux produits par rapport aux anciens.
Certains industriels et les militaires, une fois les intensités connues, chercheront ensuite à prédire
les effets des intensités.
Cette prédiction intéresse aussi les chargés de sécurité pyrotechniques car il n’est pas possible de
concevoir des installations fournissant un haut niveau de sécurité au personnel fabriquant ou
utilisant des explosifs et aux riverains si on est incapable de prédire les effets d’une détonation
accidentelle et de dimensionner des ouvrages de protection.
Nous pourrions en déduire que la "science de la prédiction des effets" doit donc être très ancienne
et très précise vu que celle-ci intéresse de nombreux acteurs pyrotechniques.
Ce serait probablement le cas si la prédiction des effets des explosions était simple ou
relativement simple à réaliser. En fait le problème est très complexe au niveau de la prédiction des
ondes de choc en géométrie 3D puis du calcul de structures car souvent celles-ci sont en béton
armé ; un matériau composite très délicat à modéliser lorsque l’on souhaite l’étudier au-delà de sa
limite élastique.
En conséquence nous verrons que la science de la prédiction des effets des explosions n’a pas
plus de 40 ans et qu’il reste encore aujourd’hui des progrès à accomplir pour qu’il soit permis de
dire que les prédictions sont "parfaites".
Dans la suite de ce document le sujet de la prédiction des effets des explosions et de la réponse
des structures est exclusivement abordé sous l’aspect Sécurité ; l’objectif étant de démontrer
comment un chargé de sécurité fera la prédiction pour protéger des personnes des explosions.
Sixièmes journées scientifiques Paul Vieille, ENSTA, Paris 7-8 octobre 2009
-1-
2.
METHODOLOGE GENERALE POUR LA PREDICTION DES EFFETS
La prédiction des effets des explosions sur des bâtiments et ouvrages divers nécessite que soient
traités successivement :
• un problème détonique pour obtenir les P(t) dans le champ proche,
• un problème de mécanique des fluides pour prédire les P(t) au-delà du champ proche,
• un problème de résistance des matériaux sachant que le sujet est "très dynamique" et qu’il va
généralement falloir modéliser les matériaux au-delà de leur limite élastique vu l’intensité des
efforts.
• un problème constructif ; le modélisateur devant s’interfacer avec un homme de construction
pour ne pas proposer une solution théoriquement bonne mais non réalisable. Ensuite il faudra
transformer des notes de calcul souvent complexes en spécifications constructives (armatures
en diamètres et écartements dans le béton, ancrage de portes…).
Il apparait de suite que ces quatre domaines étant vraiment différents les uns des autres, cela peut
conduire à utiliser des sociétés spécialisées dans chaque domaine. Ceci est possible mais il
faudra être très vigilant sur les interfaces car certaines sont vraiment "piégeuses". Pour réduire le
risque lié aux interfaces, l’idéal est bien sûr une équipe dans une même société qui maîtrise les
quatre sujets et qui est habituée à travailler sur la problématique.
Les quatre problèmes à résoudre et listés ci-avant vont être explicités dans les chapitres suivants.
3.
LA PREDICTION DES SOLLICITATIONS
Nous entendons par sollicitations :
• les surpressions,
• les éclats,
• les flux thermiques.
Dans cette courte présentation nous ne traiterons que le premier sujet sachant que :
• Le sujet des éclats est très militaire et qu’en sécurité industrielle il n’est pas développé de
méthodologies particulières mais utilisé les modèles classiques de type Mott, Gurney, Taylor
pour caractériser les éclats à la source puis des formules semi empiriques calées sur essais
(THORR, TM5 1300….) pour étudier les pénétrations-perforations. Quand les éclats sont de
très grandes tailles et posent plus un problème de tenue globale du receveur qu’un problème
Sixièmes journées scientifiques Paul Vieille, ENSTA, Paris 7-8 octobre 2009
-2-
de pénétration, il est utilisé les logiciels numériques tels LS-DYNA (voir le chapitre qui
concerne ce type de méthodologie de calcul) pour appréhender le problème.
• Le sujet des flux thermique n’a pas besoin d’être pris en considération lors de l’étude des effets
de détonations puisque les durées de ces flux sont très courtes et donc les flux sans effets réels
sur les structures (surtout si on compare ces effets à ceux de l’onde de choc aérienne).
3.1
Historique
La prédiction du pic de surpression en un point donné à une certaine distance d’un explosif est
possible probablement depuis le milieu du vingtième siècle. Nous verrons cependant que
caractériser complètement et correctement une onde de choc aérienne a nécessité des capteurs
de surpression à temps de réponse adapté et que même dans les années 1960-1970 beaucoup de
travaux comportaient des erreurs (par exemple le TM 5 1300 qui était LA référence pour la
prédiction des effets d’explosion).
Il convient ensuite de noter que :
• connaître précisément le signal de pression P(t) en un point dans une configuration plane et
dépourvue d’obstacles est un préalable,
• mais que ceci est totalement insuffisant si ensuite on ne sait pas prendre en compte les
réflexions de tout ordre lorsque l’explosion est intérieure à un local et/ou les effets des
obstacles entre le donneur et le receveur… puis les problèmes d’atténuation/amplification dus à
la géométrie propre du receveur.
Il est évident que faire cette étude de mécanique des fluides pour quantifier précisément les
surpressions effectives subies par un receveur n’a pas d’intérêt si ensuite on ne sait pas calculer le
comportement des structures à ce champ de surpression dynamique.
En conséquence nous pouvons constater que ces deux sujets furent développés conjointement
dans les années 70 afin de créer le premier document "public" complet sur ces sujets : le TM5
1300.
Dans ce document il existe des méthodes pour prédire :
• les surpressions effectives "en champ proche" c'est-à-dire dans le local où à lieu l’explosion,
• les surpressions effectives "en champ lointain" c'est-à-dire sur un receveur éloigné de l’explosif
donneur lorsque la géométrie entre donneur et receveur est simple (pas d’obstacles ou presque
pas d’obstacles).
Cet ouvrage (le TM5 1300) ne proposait lors de sa publication en 1968 que des méthodes semiempiriques.
Sous cette terminologie nous désignons des méthodes qui ne sont pas strictement physiques mais
qui combinent des résultats expérimentaux (mesures par capteurs de pression) et des lois
d’extrapolations physiques, ou "logiques".
Sixièmes journées scientifiques Paul Vieille, ENSTA, Paris 7-8 octobre 2009
-3-
Bien évidemment, entre 1968 et aujourd’hui, sont apparues les méthodes CFD (Computational
Fluid Dynamic) qui permettent de traiter via les volumes finis la propagation d’un champ de
surpression au cours du temps.
En fait traiter le sujet en CFD a toujours été complexe et le reste car :
• dans le champ très proche de l’explosif le problème à résoudre est de la détonique,
• dans le champ intermédiaire et lointain, le problème est relativement simple au niveau des gaz
puisque non réactif mais souvent très complexe au niveau de la propagation car des obstacles
vont rendre le problème très tridimensionnel.
En sécurité industrielle il est difficile de dire quand les techniques CFD ont débutées car les
premières tentatives étaient "pour voir" plus que pour supplanter les méthodologies semiempiriques explicitées ci-avant.
En sécurité il est probable que les premiers calculs CFD de prédiction de surpression aient été
réalisés dans les années 80-90 mais avec des logiciels internes (c'est-à-dire développés par les
centres de recherches et non achetables). Il a fallu attendre les années 2000 pour pouvoir utiliser
des logiciels publics ; une majorité d’entre eux ne traitant pas la partie détonique cependant.
En 2009 TECHNIP estime que la majorité des calculs de propagations d’onde de choc reste
effectuée via des méthodes semi-empiriques mais ceci pour des raisons économiques. En effet les
calculs CFD sont fiables et apportent une précision supérieure aux calculs semi-empiriques mais
ils restent coûteux par rapport au budget global généralement consacré à une étude de sécurité.
3.2.
Les méthodologies de prédiction des surpressions
Dans le paragraphe précédent nous avons vu que pour prédire les surpressions d’une explosion,
nous pouvons utiliser :
• soit une méthode semi-empirique,
• soit une méthode numérique (CFD).
Il faut noter qu’il est aussi possible d’avoir recours à une modélisation sur maquette. Cette
méthodologie est théoriquement très ancienne puisque elle date des travaux de Hopkinson Sachs
qui dès 1918 montraient qu’il était possible de faire des mesures sur des maquettes à échelles
réduites puis d’obtenir les valeurs réelles de pression et impulsion à échelle 1 en utilisant des
coefficients correctifs (1 pour la pression et celui de l’échelle pour l’impulsion). Le recours à des
essais reste en 2009 une possibilité intéressante. Il reste cependant souvent des limitations à leur
usage qui sont le délai et le coût ; mais aussi le faible nombre de capteurs disponibles dans
beaucoup de centres d’essais alors que beaucoup de problèmes "très complexes
géométriquement" nécessitent l’enregistrement de surpression en des dizaines de points. Alors il
sera probablement privilégié le CFD.
Sixièmes journées scientifiques Paul Vieille, ENSTA, Paris 7-8 octobre 2009
-4-
Méthodes semi-empiriques
Le principe de ces méthodes est simple puisque ce ne sont que des résultats de mesures lors
d’essais complétés de lois d’extrapolation pour pouvoir traiter un nombre important de
configurations. Ceci a permis aux auteurs de publier des abaques dans des ouvrages tels le TM5
1300. Il faut noter que le nombre de paramètres influant sur le résultat :
• est faible quand c’est la propagation d’une onde de choc issue d’un explosif externe en terrain
plan qui est étudié vers un bâtiment receveur (mais ce cas "militaire" n’existe pas au sein d’une
usine lorsque l’on fait de la sécurité industrielle),
• est parfois élevé quand entre le donneur et le receveur il y a un certain nombre d’obstacles,
• et est toujours élevé quand on évalue les surpressions dans un local donneur, les paramètres
étant au nombre de 6, ce qui fait que cela conduit à proposer 400 abaques dans un document
tel le TM5 1300.
La configuration la plus simple est bien sûr la charge TNT hémisphérique en terrain plan et nu qui
a permis de tracer l'abaque "de référence suivante".
Positive phase shock wave parameters for a
hemispherical
TNT explosion
on thewave
surface
at sea level for a
Figure
2-15. Positive
phase shock
parameters
hemispherical TNT explosion on the surface at sea level
200 000
100 000
Pr, psi
Pso, psi
Ir, psi-ms/lb^(1/3)
Is, psi-ms/lb^(1/3)
ta, ms/lb^(1/3)
to, ms/lb^(1/3)
U, ft/ms
Lw, ft/lb^(1/3)
10 000
1 000
100
10
Avec :
Pso = pic de pression incidente
PR = pic de pression réfléchie
Iso = impulsion incidente
Ie = impulsion réfléchie
Ta = temps d’arrivée de la surpression
to = durée de la surpression positive
v = vitesse du front d’onde
Lw = longueur d’onde
1
0,1
0,01
0,005
0,1
0,5
1
5
10
50
Scaled Distance Z = R/W^(1/3)
Sixièmes journées scientifiques Paul Vieille, ENSTA, Paris 7-8 octobre 2009
-5-
100
Bien sûr de nos jours les abaques sont devenus des logiciels mais ceux-ci ne font qu’interpréter
des résultats d’essais comme le faisaient les abaques.
Il faut noter que lorsque l’on cherche les courbes P(t) en différents points Ai des parois d’un local
donneur, celles-ci ont un profil très différent d’un point à un autre Ai car les combinaisons de
réflexions sont fonction de la position de l’explosif et du point considéré dans le donneur.
A l'extérieur du local les propagations d'onde sont aussi très complexes et il existe de grandes
différences entre les courbes P(t) des points Pi.
Cette "ultra sensibilité" du profil de surpression P(t) à de nombreux paramètres pourrait inquiéter
sur la sécurité des calculs dans leur globalité et de la sécurité des bâtiments. En fait nous verrons
dans la suite de cette note que les structures donneuses soumises à de fortes surpressions ne
sont pas trop sensibles à la forme des courbes P(t) mais principalement aux impulsions qui sont
les intégrales des courbes P(t). Ces impulsions dépendant beaucoup moins de la position exacte
de l’explosif et du point considéré, cela permet de dire que les calculs sont valides même si une
certaine incertitude existe sur les positions de l’explosif et sur les courbes exactes P(t) au niveau
du mur étudié.
Méthodologie CFD
Les codes CFD, pour Computational Fluid Dynamics (ou Mécanique des fluides numériques en
français), sont des outils dédiés à la résolution numérique des problèmes de mécanique des
fluides. L’ensemble des équations gouvernant le comportement des fluides (Equation de Navier
Stokes, Equations d’Euler,…) sont alors résolues dans un domaine géométrique préalablement
discrétisé en volumes élémentaires (maillage).
Leur utilisation est aujourd’hui largement répandue dans les domaines de l’automobile,
l’aéronautique, la marine, la défense, l’énergie, la thermique ou la sécurité industrielle (liste non
exhaustive). L’intérêt croissant porté à ce type d’outils ces dernières années peut s’expliquer d’une
part par leur complémentarité avec les essais expérimentaux (il est possible avec la CFD de
réaliser des mesures non intrusives, de réaliser des études de sensibilité relativement
rapidement,…), et d’autre part par leur capacité prédictive (indispensable pour les cas qui ne
peuvent pas faire l’objet d’un essai).
Il existe des codes CFD généralistes, qui permettent en théorie de gérer tous les types de
problèmes, et des codes CFD plus spécialisés dont l’utilisation est restreinte à un ou plusieurs
Sixièmes journées scientifiques Paul Vieille, ENSTA, Paris 7-8 octobre 2009
-6-
types de problèmes spécifiques (code CFD pour les problèmes d’explosion, code CFD pour les
problèmes d’incendie,…). Pour ces derniers, les équations de comportement sont généralement
résolues en implémentant certaines hypothèses spécifiques au domaine d’application (ce qui
permet notamment de gagner du temps de calcul).
Les performances des outils CFD restent en effet fortement liées aux ressources de calculs à
disposition (puissances des ordinateurs, nombre de processeurs,…). Aujourd’hui, les calculs CFD
ne permettent pas de résoudre les problèmes "en temps réel" (le temps de calcul nécessaire est
en général bien supérieur à la durée du phénomène à simuler).
De plus ils n’ont pas atteints encore un degré de maturité suffisant pour pouvoir s’affranchir
entièrement de la nécessité de réaliser des essais expérimentaux. La plupart des codes CFD
comportent une part d’empirisme (constantes de calibration, formules empiriques pour certains
phénomènes,…) et les résultats fournis peuvent encore comporter un certain degré d’incertitude.
Les outils CFD sont à considérer comme des outils d’aide à la décision.
Dans le domaine de la sécurité industrielle, l’usage des outils CFD s’est vite révélé intéressant
d’une part car il n’est pas envisageable de réaliser systématiquement des essais à grandes
échelles, et d’autre part car l’utilisation des formules analytiques ou empirique simples s’avèrent
vite limitée (non prise en compte de la géométrie du domaine notamment). C’est notamment dans
le domaine de l’explosion que les premiers développements ont été réalisés.
Dans les problématiques pyrotechniques, la modélisation du terme source par des outils CFD peut
vite s’avérer problématique. D’un point de vue physique, la modélisation de la propagation d’une
onde de choc dans un solide, ainsi que la chimie de la combustion du solide nécessite des
modèles supplémentaires par rapport aux modèles couramment utilisés ceux utilisés pour prédire
les écoulements de fluide. De plus les échelles caractéristiques des phénomènes peuvent être
différentes de plusieurs ordres de grandeurs. En effet une charge solide classique a un volume
très faible (< 1m3) en regard des dimensions du domaine de propagation potentielle des effets de
surpressions qu’elle engendre (plusieurs centaines de mètres). Au final, la puissance de calcul
nécessaire risque de devenir rapidement rédhibitoire.
Une approche classique pour simplifier le problème consiste à ramener le phénomène de
combustion du solide à une libération rapide d’énergie. De cette façon, la chimie, ainsi que la
propagation d’ondes dans le solide n’a plus besoin d’être explicitement modélisée. Ce type de
modélisation a déjà été utilisé par plusieurs auteurs (A.C van den Berg 2008, Ivings et al 2001)
avec des résultats satisfaisants.
Avec cette approche, les codes CFD commerciaux dédiés à l’étude des phénomènes d’explosion
de gaz peuvent alors être utilisés pour prédire la propagation de l’onde de surpression dans
l’environnement. Ceux-ci ont été développés au cours des années 90, pour répondre aux
problématiques de sécurité posés par les installations pétrolière offshore. Ces codes utilisent
généralement deux types de solver, une résolution classique des équations pour la partie réactive
(combustion des gaz) et une résolution eulérienne pour calculer la propagation des ondes de
surpression dans l’environnement (hors de la zone réactive constituée par le nuage inflammable).
C’est ce solver eulérien qui peut être utilisé pour étudier la propagation des ondes de surpression
résultantes d’une détonation de solide. Moyennant l’ajout de quelques modèles supplémentaires,
les résultats obtenus peuvent être très satisfaisants. En dehors de ces codes commerciaux, il est
très probable que des codes universitaires, ou des codes internes de grands organismes aient été
Sixièmes journées scientifiques Paul Vieille, ENSTA, Paris 7-8 octobre 2009
-7-
développés spécifiquement pour ces problématiques pyrotechniques. Cependant, TECHNIP n’a
pas connaissance de ces codes spécifiques (ce qui ne signifie pas qu’ils n’existent pas).
La description et la modélisation de l’environnement sont réalisées soit manuellement, soit par
l’importation d’un modèle numérique existant. Cette étape peut parfois être longue et fastidieuse,
mais ne constitue pas un point bloquant dans la modélisation. La modélisation de l’environnement
est un des atouts majeurs des modèles CFD. Elle permet ainsi de prendre en compte les effets de
masque des bâtiments, l’effet de merlon de protection, ce qui n’est pas faisable avec les
approches analytiques simplifiées.
Figure 1 : effet des obstacles sur la propagation de l’onde
Le degré de résolution de géométrie à adopter dans le modèle va dépendre des objectifs du calcul,
des caractéristiques du maillage, et de l’effet potentiel des obstacles sur la propagation d’onde.
Ces codes restent des outils numériques et peuvent être très sensibles à plusieurs paramètres
numériques tels que le maillage utilisé, les conditions aux limites retenues. En ce sens il est
indispensable de bien comprendre les phénomènes mis en jeu, ainsi que les caractéristiques
propres au code utilisé.
Les modèles CFD peuvent être ainsi utilisés pour :
•
•
Donner des pressions de dimensionnement pour des protections, des abris.
Déterminer les distances de sécurité réglementaires à retenir.
Figure 2 : explosion dans un bâtiment multi cellulaire
Sixièmes journées scientifiques Paul Vieille, ENSTA, Paris 7-8 octobre 2009
-8-
4.
LA PREDICTION DES DOMMAGES
La prédiction des dommages doit être faite :
• lorsque l’on conçoit un atelier, car de nos jours la quasi-totalité des ateliers pyrotechniques est
conçue pour résister aux explosions internes1,
• lorsque l’on vérifie que les dommages ne posent pas problème aux ateliers receveurs et
bureaux du site,
• lorsqu’on vérifie que l’explosion ne créée pas de dommages inacceptables aux riverains (la
nouvelle réglementation PPRT créée en 2005 impose ce type d’étude dite "de vulnérabilité"
autour de tout site SEVESO).
La difficulté principale de la prédiction des dommages est qu’il va falloir étudier le comportement
de très nombreux matériaux de construction ; et même produits de construction (un produit étant
souvent un assemblage de divers matériaux).
Il s’en déduit de suite :
• que prédire le comportement d’une porte en acier sera facile car le matériau est isotrope et la loi
de comportement élastique-plastique d’un acier standard bien connue,
• que prédire le comportement d’une paroi en béton armé très au-delà de la limite élastique du
béton armé va être délicat car la décohésion entre le béton et les armatures va poser un
problème à la modélisation. De plus il va falloir décider jusqu'à quelle déformation des
armatures, ou du béton, ou du mur, on s’autorise,
• que prédire le comportement d’un mur en parpaings va être délicat car un tel matériau n’est pas
conçu pour supporter des efforts transversaux. Pourtant la majorité des constructions (hors les
ateliers pyrotechniques), sont en parpaings puisque ce sont des bureaux, des habitations ou
des locaux industriels standards.
• qu’il faudra aussi prédire le comportement de parois en bardage, de toiture en bac acier, de
vitres et châssis vitrés... Ces prédictions ne doivent pas être bâclées même si elles sont moins
"scientifiquement intéressantes" que d’autres sachant par exemple que plus de 80 % des
blessés lors des explosions le sont par éclats de verre.
Vu la diversité des matériaux il est évident que le choix de la méthodologie de prédiction des
dommages dépend :
• d’abord du matériau à étudier,
Pour des raisons de coût d'exploitation, il est en effet rare depuis les années 80 de disposer une
cellule pyrotechnique à 5Q1/3 ou 8Q1/3 de toute autre cellule pyrotechnique.
1
Sixièmes journées scientifiques Paul Vieille, ENSTA, Paris 7-8 octobre 2009
-9-
• puis de la complexité de la géométrie de la structure.
Les méthodologies d’étude envisageables sont :
• les essais,
• les méthodes analytiques "globales2",
• les méthodes numériques.
4.1.
Prédiction des dommages par les expérimentations
Etant donné que beaucoup de matériaux de construction paraissent difficiles à modéliser, il est
normal d’envisager de déterminer leur comportement via des essais. De plus il est bien connu que
les essais sans instrumentation (on peut envisager de s’en passer pour étudier le comportement
de structures) ne sont généralement pas très coûteux, leur coût étant quasiment celui de la
structure à tester.
En fait cette méthode de prédiction via des essais est souvent impossible à cause des lois de
modélisations à échelle réduite ; le problème étant le suivant :
• soit il est fait une maquette à échelle 1 et alors les résultats de l’essai seront probants. La
difficulté est que tirer une charge d’explosif importante (plusieurs dizaines de kg TNT) est
souvent très difficile vu le faible timbrage d’une majorité de champs de tirs. Le coût de la
structure à tester à échelle 1 peut aussi être une difficulté,
• soit il est fait une maquette à échelle réduite pour résoudre les deux difficultés citées
précédemment. Ceci est justifié pour étudier les ondes de choc puisqu'il existe des lois de
modélisations permettant de corriger les valeurs enregistrées pour obtenir les valeurs réelles
mais ceci est quasi impossible pour étudier le comportement de structures. En effet ne pas
respecter l’échelle 1 va obligatoirement "déformer la courbe P(t) que subit la structure". En
appliquant les lois de modélisations classiques, bien sûr il pourra être recréé le même pic de
surpression mais jamais le même pic de surpression et la même impulsion ; a fortiori le même
signal P(t). En fait les essais sur maquettes à échelle réduite ne peuvent servir qu’à caler un
modèle de calcul, si on en a un. Ceci explique le peu d’essais entrepris pour définir le
comportement de matériaux et structures aux explosions.
4.2.
Prédiction des dommages par les méthodes analytiques "globales"
Une explosion créant une surpression dynamique la première "idée" » pour réaliser une prédiction
de comportement peut être de définir une pression statique équivalente à la pression dynamique
réelle.
Ensuite comme les calculs non linéaires sont réputés complexes la "seconde idée" peut être de ne
faire que des calculs linéaires (ou pseudo linéaire via un coefficient de comportement comme cela
se fait en séisme).
Au sens où il n’est pas fait de maillage mais considéré qu’un mur, ou une porte, ou…., n’est qu’un
seul élément équivalent à un ressort
2
Sixièmes journées scientifiques Paul Vieille, ENSTA, Paris 7-8 octobre 2009
- 10 -
La courbe contrainte déformation suivante montre de suite que la seconde idée est mauvaise car
avec un calcul en linéaire nous n’arriverons pas à prendre en compte l’énergie interne disponible
dans la structure au-delà de la phase élastoplastique (X < Xp) . Certes il est non usuel de prendre
en compte cette déformation "juste avant ruine" mais compte tenu de l'énorme énergie externe à
absorber, ne pas la prendre en compte serait extrêmement coûteux.
Typical resistance-deflection function for two-way element
La courbe suivante montre le surdimensionnement (donc surcoût) qu’entrainerait un calcul en
linéaire ou plus en moins en non linéaire (cela conduit sur l’exemple à multiplier par trois les
épaisseurs de structures nécessaires).
déformation élastique
3
100
COUT (indice)
EPAISSEUR DE LA DALLE
(cm)
Dalle encastrée
Longueur = Largeur = 4 m
100 kg TNT à 2 m
limite pour protection du
personnel
80
60
écran pour éviter
transmission et projections
40
1
0,75
20
ferraillage
spécifique
10
20
30
40
50
FLECHE MAXI AU CENTRE (cm)
Sixièmes journées scientifiques Paul Vieille, ENSTA, Paris 7-8 octobre 2009
- 11 -
En fait les choix méthodologiques sont représentés sur le logigramme suivant :
1. La première méthode qui consiste à appliquer un DLF de 2 est la plus simple puisqu'elle évite
de devoir calculer les périodes de vibration des structures (ce qui cependant n’est pas bien
difficile dans le domaine élastique de celles-ci). Elle n’est cependant pas recommandée pour
dimensionner de nouvelles structures puisqu’elle conduit à des surdimensionnements
systématiques, donc à des surcoûts constructifs. Par contre elle peut être utilisée en
vérification de structures car si le résultat est positif la méthode étant conservative, cela aura
permis d’économiser intelligemment du temps de calcul.
2. La seconde méthode consiste à appliquer un DLF après avoir calculer la première période de
la structure grâce à une abaque telle la suivante (ou directement en faisant un calcul
dynamique "équivalent").
Courbe de DLF type détonation
2,5
2
DLF
1,5
1
0,5
0
0
2
4
6
8
10
12
t/Tn
Sixièmes journées scientifiques Paul Vieille, ENSTA, Paris 7-8 octobre 2009
- 12 -
Une fois obtenue la pression statique équivalente, il est réalisé un calcul linéaire de structures.
Cette méthode ne permet pas d’utiliser l’énergie interne de la structure au-delà de la limite
élastoplastique de la structure donc elle est peu optimale au niveau des coûts de construction.
3. La méthode 3A est identique à la méthode 4A mais n'a aucun intérêt.
4. La méthode 3B n’est pas recommandée pour prédire les effets d’une explosion accidentelle car
il est inutile d’utiliser un outil numérique potentiellement performant en le bridant via l’utilisation
exclusive de lois de comportements linéaires. Cependant si la structure à dimensionner doit
rester dans son domaine linéaire après explosion, comme c’est le cas d’une casemate de tir ou
une piscine de tir (ou d’autres cas très spécifiques) la méthode est parfaitement bien adaptée.
5. La méthode 4A qui est une méthode analytique dynamique avec prise en compte des
déformations non linéaires des structures (acier, béton armé ou autre) est UNE DES DEUX
METHODES RECOMMANDEES pour la prédiction des effets ; l’autre étant le calcul numérique
dynamique en non linéaire. La méthodologie est présentée plus complètement dans la suite de
ce chapitre.
6. La méthode 4B est probablement la meilleure des six puisqu'elle est dynamique, en non
linéaire et permet contrairement à la méthode 4A de modéliser les géométries complexes. Ses
inconvénients sont cependant liés aux incertitudes sur les lois de comportement de certains
matériaux tel le bêton armé, et souvent les coûts de calcul. Cette méthodologie sera explicitée
dans un chapitre particulier.
______________
Il est explicité dans ses grandes lignes la méthode 3A qui est avec la 4A une des deux les plus
intéressantes.
La méthode 3A est la suivante :
• comme il est difficile d’étudier le comportement réel d’une structure au cours du temps (donc en
suivant sa déformation au cours du temps) il faut la ramener à un corps simple, un ressort,
• un ressort est lui facile à étudier sous un chargement dynamique P(t) puisqu’il suffit de résoudre
par pas de temps les équations.
=> coefficient
de transformation
Système réel
Ressort équivalent
Sixièmes journées scientifiques Paul Vieille, ENSTA, Paris 7-8 octobre 2009
- 13 -
Puis résoudre simultanément (par pas de temps).
F( t ) = Pt.L.be
.
.
..
..
1
X n +∆t = X n + ∆t (X n + X n + ∆t )
2
.
..
..
∆t ..
Xn + ∆t = Xn + ∆t X n + ( ) 2 X n + β(X n + ∆t − X n )∆t 2
2
..
Ft ( t ) − KeX
X=
KLM.Mτ
• Pour transformer la structure (le mur ou des murs) en ressort(s) il faut comparer les équations
des déformés et des énergies du ressort et de la structure sous chargement statique et ainsi
déterminer des coefficients de transformation de l’un en l’autre.
La méthode est ancienne puisque c’est Biggs du MIT qui l’a publiée le premier en 1956.
La méthode n’était cependant applicable qu’à des structures acier (ou autre matériau isotrope bien
connu) car elle ne disait pas jusqu'à quelle déformation plastique il était possible d’aller. Pour des
structures acier cela ne posait pas trop3 problème car il était possible d’évaluer les déformations
de rupture à partir des limites de rupture à la traction sur éprouvette (données du fournisseur).
Pour le béton armé il subsistait un énorme problème "comment modéliser le béton armé au-delà
de sa limite élastique compte tenu qu’il se fissure, change d’inertie, que les aciers glissent dans le
béton et qu’au final il peut y avoir séparation totale entre les armatures et le béton ?".
La réponse a nécessité énormément d’analyses et d’essais par les armées US entre1956 et 1968.
La réponse aux questions précédentes a permis aux armées US de publier le TM 5 1300 qui lui
permettait de calculer les structures en béton armé vis-à-vis des explosions.
Ce document avait l’avantage d’être "global" c'est-à-dire qu’il proposait :
• une méthode de calculs des surpressions (pas mal d’erreurs furent ensuite signalées),
• une méthode de calcul du bêton armé issue de la théorie de Biggs,
• et surtout des dispositions constructives précises à respecter pour que le béton armé puisse se
déformer au delà de sa limite élastique et absorber une énergie externe maximale.
Cependant ce n'est pas simple pour autant car les allongements ne sont pas identiques en toute
part d'une structure.
3
Sixièmes journées scientifiques Paul Vieille, ENSTA, Paris 7-8 octobre 2009
- 14 -
Typical details at intersection of two continuous laced
walls (pour murs supportant de grandes déformations)
Depuis ce document a été révisé mais la méthodologie et les dispositions constructives ont peu
évolué.
4.3.
Prédiction des dommages par les méthodes numériques
Une fois définis les champs de surpression sur une structure, il est logique d’envisager d’étudier le
comportement de cette structure avec un logiciel aux éléments finis puisque les logiciels
numériques en mécanique des solides sont opérationnels depuis plusieurs dizaines d’années.
Ils sont donc opérationnels dans de nombreuses sociétés industrielles et de service.
Il faut cependant noter que le logiciel doit être capable :
• de prendre en compte un chargement dynamique,
• et d’étudier les structures très au-delà de leurs déformations élastiques,
sachant par ailleurs que le chargement dynamique est extrêmement intense et de très courte
durée.
Cela conduit à retenir un code de calcul qui permette de prendre en compte la propagation des
ondes dans les solides et l’endommagement associé (fissuration pour le béton, par exemple).
La majorité des logiciels aux éléments sont implicites car ce schéma numérique est le plus
approprié pour des calculs statiques ou dynamiques peu rapides. Cependant un certain nombre
d’entre eux disposent également d’un solveur explicite.
Cette première sélection étant faite, il apparait que la véritable difficulté va être la prise en compte
des grandes non linéarités, aussi bien matériaux (grandes déformations) que géométriques
(grandes déplacements) ceci afin :
• soit d’optimiser le coût de construction lorsqu’il s’agit de dimensionner un bâtiment nouveau,
Sixièmes journées scientifiques Paul Vieille, ENSTA, Paris 7-8 octobre 2009
- 15 -
• soit de ne pas conclure abusivement à la ruine d’un bâtiment existant dès que la limite élastique
des structures est dépassée (alors qu’il aurait fallu juste dire quelle déformation atteint la
structure tout en restant stable).
De suite nous constatons que le dimensionnement d’un ouvrage en pyrotechnie et l’étude des
crash automobiles ont de très nombreux points communs puisque :
• l’intensité du choc va être intense et de courte durée,
• et pour étudier le choc il faudra faire une modélisation avec prise en compte du comportement
post élastique des structures.
Dans les deux cas le critère d’acceptabilité ne sera pas une contrainte maximale à ne pas
dépasser mais une déformation maximale.
Les deux principales différences entre automobile et pyrotechnie (pour l’étude de bâtiments) sont :
• un modèle automobile a beaucoup de plus de mailles qu’un modèle de bâtiment,
• mais l’automobile a la chance d’utiliser essentiellement des aciers et matériaux isotropes, avec
des lois de comportement non linéaire bien connues. A contrario en prédiction des effets
d’explosion l’essentiel des études concerne le béton armé qui est un matériau complexe à
appréhender au delà de sa limite élastique compte tenu de son comportement différentié en
traction et en compression ainsi que du phénomène d’endommagement lié à la fissuration.
D’autre part il convient d’intégrer la présence des armatures.
Un des logiciels les plus réputés pour traiter les chocs (dus à une surpression ou au choc d’un
solide) est probablement LS DYNA. Il a été mis au point au Livermore dans les années 80 puis
commercialisé par son créateur lorsqu’il quitta le Livermore et créa sa société LSTC dans les
années 90.
Depuis cette époque certains autres logiciels ont acquis des capacités assez comparables à LS
DYNA, en adoptant au besoin un solveur explicite d’origine LS DYNA. On notera à ce titre
ABAQUS/EXPLICIT.
Dans le cas qui nous intéresse "la prédiction des effets des explosions", il apparait de suite que
l’essentiel des études va concerner des bâtiments non pas en acier, aluminium… mais en béton
armé.
Alors le problème majeur n’est pas la qualité du solveur mais la qualité des lois de comportement
du béton armé.
Il convient de noter que l’intérêt d’un code tel LS DYNA est de proposer de nombreuses lois de
comportement. Ce logiciel en propose en effet environ 150 dont une dizaine pour le béton armé.
La difficulté est alors de choisir dans cette dizaine la bonne loi sachant que certaines données
constructives vont influer sur la loi de comportement.
En effet un ferraillage « classique » frettera mal le béton armé et dès le dépassement de la limite
élastique il peut y avoir des fragilités qui empêchent tout développement de capacité de
plastification. Ce peut être le cas si un cisaillement brutal survient au niveau des appuis ou si les
Sixièmes journées scientifiques Paul Vieille, ENSTA, Paris 7-8 octobre 2009
- 16 -
deux nappes d’armatures se désolidarisent par manque de ferraillage transversal (épingles, étriers
ou laçage).
Par ailleurs il faut fixer des critères d’acceptabilités, non pas en contrainte puisqu‘il s’agit de calculs
en grande non linéarité, mais en déformations.
Il serait logique de choisir le taux d’allongement des armatures par rapport à leurs limites de
rupture. Ce peut être un choix mais TECHNIP privilégie une flèche limite par référence aux
recommandations du TM5 1300. En fait TECHNIP retient la première des deux limites atteinte. .
Les calculs numériques de structures vis-à-vis des explosions peuvent donc être considérés
comme un excellent moyen d’étude mais qui reste assez délicat a cause des lois de
comportement.
Dans la pratique ils sont utilisés :
• lorsque la géométrie du bâtiment à calculer est complexe, trop complexe pour des calculs
analytiques,
• lorsque les enjeux sont très forts (alors généralement il est fait des calculs analytiques puis des
calculs numériques de vérification).
Sixièmes journées scientifiques Paul Vieille, ENSTA, Paris 7-8 octobre 2009
- 17 -
4.4.
Prédiction des dommages aux "matériaux de second œuvre"
Lorsqu’il est fait des prédictions de dommages en sécurité industrielle, il ne faut pas négliger de
traiter sérieusement le comportement des vitres, des châssis vitrés, des portes, des parpaings, en
fait de tous les matériaux qui lors d’explosions peuvent être la cause de blessures ou létalité.
Dans cette courte présentation nous ne pouvons pas vraiment aborder le sujet mais il faut noter
qu’en 2009 il est incorrect de faire des prédictions du genre "10 % des vitres cassent pour
10mbars" ou "les parpaings tombent sous 200mbars" car il existe des méthodes de prédiction
pour ces deux matériaux et bien d’autres.
Pour le verre par exemple les méthodes prennent en compte :
• la nature du verre (recuit, trempé, feuilleté..) car cela conduit à de très grandes différences de
tenue pour une même épaisseur,
• la taille du vitrage bien sûr et son épaisseur,
• la courbe P(t) et non exclusivement le pic de pression.
Les courbes suivantes montrent les résultats de quelques calculs.
Tenue du verre trempé de 4 mm d'épaisseur
Tenue du verre recuit de 5,6 mm d'épaisseur
1000
Lxl=0,5x0,5m
Lxl=0,75x0,75m
10
Lxl=1x1m
Lxl=2x2m
Pression (mbar)
Pression (mbar)
100
Lxl=0,5x0,5m
Lxl=0,75x0,75m
100
Lxl=1x1m
Lxl=2x2m
10
1
1
10
100
Durée (ms)
1000
1
10
100
1000
Durée (ms)
Sixièmes journées scientifiques Paul Vieille, ENSTA, Paris 7-8 octobre 2009
- 18 -
Pour la tenue de murs en parpaings les méthodes prennent en compte :
• l’épaisseur du mur et le type de parpaings,
• la portée du mur,
• la rigidité des appuis,
• la courbe P(t).
La courbe suivante montre les résultats de quelques calculs.
Tenue d'un mur en maçonnerie (H=4 m)
700
600
Pression (mbar)
500
400
300
200
100
0
0
50
100
150
200
250
300
Durée (ms)
5. LA PROBLEMATIQUE DES INCERTITUDES
Tous les concepteurs sont confrontés au problème des incertitudes de leurs calculs.
Pour une majorité d’entre eux le sujet des incertitudes ne nécessitera cependant pas
d’investigations particulières car ils auront mis en œuvre des règlements (BAEL, règles API….)
dans lesquels les incertitudes ont été identifiées et prises en compte par les rédacteurs de ces
règles. L’incertitude "est alors ce qu’elle est" et ne pose pas problème au concepteur sur la qualité
de ses calculs prédictifs.
Dans le domaine qui nous préoccupe, celui de la prédiction des effets des explosions, le problème
des incertitudes est bien différent et il mérite réflexion car nous allons devoir successivement
aborder quatre sujets bien différents les uns des autres qui apportent chacun leur part d’incertitude
dans le résultat final.
Les quatre sujets sur lesquels il faut réfléchir successivement aux incertitudes sont :
• l’équivalent TNT du produit considéré et la détonique (ou directement la détonique du produit),
• la propagation aérienne 3D d’une onde de choc,
Sixièmes journées scientifiques Paul Vieille, ENSTA, Paris 7-8 octobre 2009
- 19 -
• les calculs dynamiques non linéaires de structures,
• les incertitudes de la construction réelle.
Si les explosions créaient de faibles efforts et que les structures capables d’y résister étaient de
faibles épaisseurs, il serait probablement possible d’empiler les coefficients de sécurité propre à
chacun des quatre sujets précédents et de ne pas trop devoir analyser la problématique.
Le cas précédent existe bien sûr mais est peu fréquent (les bâtiments donneurs contenant de très
faibles charges et les bâtiments receveurs situés très loin du donneur).
Dans une majorité de situation, les structures seront importantes et donc devront être optimisées
pour raison de coût. Les coefficients de sécurité devront alors être choisis avec attention et non
majorés et empilés à l’excès.
Une fois cela dit il faut mesurer la difficulté de l’exercice !
La première incertitude concerne l’équivalent TNT car il est usuel de ne pas faire de calcul 3D de
détonique sur le produit mis en jeu mais de passer par un équivalent TNT. A cet équivalent TNT
sur la matière pyrotechnique il faudra superposer un équivalent sur la forme de l’objet
pyrotechnique car il est rarement sphérique alors que dans les calculs qui suivront, un équivalent
TNT sphérique sera généralement considéré. Ensuite il y aura le coefficient lié à la répartition
d’énergie dans les éclats et dans l’onde de choc aérienne. Il n’est pas possible dans ce court
article d’expliciter les incertitudes sur ces sujets et de toute façon ce ne sont pas les concepteurs
de structures résistantes aux explosions qui sont les mieux à même de présenter la partie
détonique de la problématique globale. Il convient cependant de noter que des documents comme
le TM5 1300 imposent de majorer la masse d’équivalent TNT de 20 % pour tenir compte des
incertitudes, sans expliquer le coefficient de 20%. Ce chiffre ne parait pas exagéré au seul
examen des courbes d’équivalent TNT en pression et impulsion de différents explosifs.
La seconde incertitude concerne la propagation de l’onde de choc dans l’air. Il faut alors
différencier les cas où les calculs sont réalisés en CFD de ceux où les calculs sont effectués en
analytique (méthodes semi-empiriques).
Dans le premier cas il est possible de considérer que l’incertitude est faible si le logiciel CFD a été
bien calé sur des résultats expérimentaux et que l’utilisateur du code est expérimenté. L’incertitude
qui existe peut alors être négligée comparativement aux autres.
Dans le second cas où les calculs sont effectués en analytique, l’incertitude n’est pas facile à
évaluer car ce sont les créateurs des méthodes semi-empiriques issues d’essais qui les ont
évaluées et prises en compte dans leurs méthodes. Nous pouvons cependant ajouter qu’une autre
incertitude peut exister quand la situation réelle est très complexe et qu’il faut la simplifier pour
pouvoir utiliser une méthode analytique (c’est par exemple le cas de situations avec beaucoup
d’obstacles entre donneur et receveur).Tout ceci signifie que le concepteur doit être très prudent et
doit parfois faire des études de sensibilité complètes (en examinant par exemple les
conséquences d’écarts sur ce sujet au niveau du résultat final, puis du cumul des écarts possible).
La troisième incertitude concerne les calculs dynamiques non linéaires. Là il ne peut pas être
certifié que les calculs numériques sont toujours plus exacts que les calculs analytiques puisque
en numérique il est parfois difficile de définir une loi de comportement en très grande non linéarité
Sixièmes journées scientifiques Paul Vieille, ENSTA, Paris 7-8 octobre 2009
- 20 -
quand le matériau est composite, comme l’est le béton armé. La loi de comportement est LE sujet
important en calcul numérique non linéaire de matériau composite. En fait l’exactitude dépend en
premier lieu de la plus ou moins grande déformation. L’incertitude sur le résultat croit avec le taux
de ductilité au-delà de 1 (rapport de la déformation sous explosion à la déformation élastique de la
structure). Certaines comparaisons calculs/essais laissent penser que pour les angles de rotation
supérieurs à 3 % sur appui, l’erreur pourrait être de ± 35 % sur cet angle. Cependant il est difficile
de certifier que l’erreur soit exclusivement du au calcul et non pas aux matériaux et à l’onde de
choc reçue (le signal réel étant toujours plus compliqué que le signal entré en calculs sachant que
par ailleurs il n’est pas mis une infinité de capteurs sur la structure expérimentée).
La quatrième incertitude concerne les qualités de la construction réelle et des matériaux. Il pourrait
être jugé que ce sujet n’est pas très important car "cela est pareil dans tous les domaines de la
construction". En fait le problème est plus important en comportement des structures aux
explosions que dans les domaines classiques de dimensionnement car les matériaux et les
structures vont être pris en compte au-delà de leur phase élastique jusqu'à approcher la rupture
afin d’optimiser les coûts.
Il faut cependant noter que les matériaux (acier, béton) ont des performances réelles supérieures
aux valeurs garanties ce qui est normal mais en en fait elles sont souvent très supérieures à celles
garanties.
Il est fréquent par exemple que des aciers pour béton aient des performances 20 % supérieures
aux valeurs garanties.
Ceci introduit un coefficient de sécurité, donc une incertitude "positive", l’incertitude négative étant
plutôt liée aux malfaçons de construction.
L’analyse précédente sur chacun des quatre sujets amène à penser que l’incertitude sur la
prédiction des effets d’une explosion doit être grande. Il est difficile de dire le contraire si on
compare cette incertitude à celle sur des dimensionnements sous contrainte statique sans
dépassement de la limite élastique des matériaux. A contrario les nombreux essais conduits
notamment par les armées US pour la mise au point des guides de conceptions tels le TM5 1300
permettent de dire que la prédiction des effets des explosions est une "science opérationnelle" qui
permet de prédire correctement avec un bon niveau de précision, et toujours un coefficient de
sécurité, le comportement des structures sous explosion.
6.
CONCLUSION
La prédiction des effets d’une explosion accidentelle, ou intentionnelle, est tout à fait possible avec
un niveau de précision correct en 2009.
Il faut cependant noter que le sujet reste relativement délicat car pour faire les prédictions il faut
traiter un problème de détonique, puis de mécanique des fluides instationnaires dans un milieu
très tridimensionnel, puis un problème de mécanique des solides en dynamique avec prise en
compte de grandes non linéarités , puis prendre en considération les réalités constructives.
Sixièmes journées scientifiques Paul Vieille, ENSTA, Paris 7-8 octobre 2009
- 21 -
Pour que la prédiction soit optimale, il faut avoir une vision globale sur la problématique : à quoi
cela sert il par exemple de faire une étude CFD ultra précise si on a d’énormes incertitudes sur les
trois autres sujets d’étude et que l'on n'essaie pas de les réduire par ailleurs.
La réussite de la prédiction n’est donc pas liée directement à l’usage d’une méthode et d’un logiciel
supérieur à tout autre mais à des choix judicieux des meilleurs outils face à chaque problématique.
Bien que cela puisse paraitre évident, il faut aussi insister sur la nécessité que le concepteur ait
"un sens physique aigu" car l’utilisation de logiciels complexes sans sens physique peut amener à
des aberrations ; qui dans le cas présent peuvent avoir des conséquences sur la sécurité des
personnes.
Sixièmes journées scientifiques Paul Vieille, ENSTA, Paris 7-8 octobre 2009
- 22 -