Flash X n°14 - Ecole polytechnique

Transcription

Flash X n°14 - Ecole polytechnique
n°
14
juillet 2012
La revue scientifique de l’École Polytechnique
TRANSPORTS
Véhicules électriques
Matériaux et structures
Sources d’énergie alternatives
Gestion du trafic
Impact environnemental
1
Éditorial
Sommaire
Manager l’innovation de rupture :
Pascal BRADU
Rédacteur en chef
le véhicule électrique ............................................................. p.3
Le partenariat de l'École Polytechnique avec
PSA Peugeot Citroën .............................................................. p.5
Les transports individuels et collectifs jouent un rôle majeur dans
notre vie quotidienne. Ainsi, un milliard de voitures circulent
La dégradation thermo-oxydante des huiles moteurs :
dans le monde et 3 milliards sont prévues à l’horizon 2050.
description des mécanismes mis en jeu................................. p.9
Le développement de transports intelligents, verts et intégrés constitue un des 6 défis sociétaux du prochain pro-
La pile à combustible,
gramme cadre Européen « Horizon 2020 ».
une solution vers des véhicules propres ............................... p.13
À notre échelon local, le développement du futur campus
Les nouvelles technologies pour les batteries Li-ion
Paris – Saclay ne pourra pleinement se réaliser sans le déve-
dans le cadre de l’application au véhicule électrique .......... p.19
loppement des transports en commun : les bus en site propre
et métros automatiques qui devraient desservir le plateau
de Saclay avant la fin de la décennie seront nécessaires pour
La méthode de conception fiabiliste des axes/roues
assurer son décloisonnement et renforcer son attractivité.
ferroviaires vis-à-vis de la fatigue ......................................... p.23
Le secteur Automobile et Transports, plus gros déposant de
La commande « sans modèle » du trafic autoroutier .......... p.25
brevets en France, est très innovant et investit fortement en
R et D, du génie mécanique à l’électronique en passant par les
énergies renouvelables et les biocarburants.
La recherche opérationnelle, la multi-modalité
et les véhicules en libre service .............................................. p.31
On peut répertorier des travaux de recherche liés à la thématique « Transports » dans une douzaine de laboratoires de
Le choc laser : vulnérabilité et durabilité
l’École Polytechnique. Ces recherches sont menées en parte-
des structures composites pour l’aéronautique ................... p.33
nariats avec les constructeurs et équipementiers nationaux
du secteur routier, les constructeurs du secteur aéronautique
et spatial, les opérateurs du secteur ferroviaire et du secteur
Le titane et ses alliages dans les transports :
naval. Dans le passé par exemple, des travaux sur l’analyse
atouts et problèmes ............................................................... p.37
des crissements de freins de TGV ont été réalisés.
Une des grandes problématiques actuelles réside dans le
développement de transports terrestres moins polluants dans
Le calcul scientifique dans les industries
des transports – expérience d’une spin-off de l’X ................ p.43
les zones urbaines et périurbaines, moins émetteurs de gaz à
effet de serre, plus efficaces d’un point de vue énergétique.
Comprendre et réduire le bruit en aéronautique ................ p.47
La mise au point de véhicules moins consommateurs en carburants dont le prix s’accroit (pétrole) constitue un enjeu majeur,
à coté des enjeux de sécurité, d’esthétisme et de confort. Le
véhicule électrique et la vente de services de mobilité durable
Les effets transitoires des rafales de vent :
de l’aile d’avion aux ponts haubannés ................................. p.49
constituent des innovations de rupture. Les secteurs aéronautiques et automobiles ont, notons le aussi, de plus en plus de
PEGASES :
synergie (allégement, cadences…) sans parler des projets de
un nouveau propulseur électrique d’avenir ......................... p.53
« voiture volante » comme le programme NAOS.
Les travaux de nos laboratoires dans le domaine des trans-
En bref… ................................................................................. p.56
ports font l’objet de ce nouveau numéro de flash X dont
la maquette a été remaniée afin d'offrir une lecture plus
agréable.
Prix et distinctions .................................................................. p.58
Flash X n°14 - Transports
3
Manager l’innovation de rupture :
le véhicule électrique
Christophe MIDLER - Florence CHARUE-DUBOC - Rémi MANIAK - Romain BEAUME - Felix VON PECHMANN
Centre de Recherche en Gestion
UMR PREG, CNRS - EP 7176
O
n assiste depuis la fin des
années 2000 à une multiplication d’initiatives dans
le domaine des voitures
électriques et hybrides.
Les politiques de protection de l’environnement, le renchérissement du prix du
pétrole et les progrès des technologies
de batteries constituent évidemment
des facteurs favorables. Est-ce à dire que
ces conditions amèneront automatiquement le décollage du véhicule électrique
vers un marché de masse ?
L’histoire de l’industrie automobile incite
à la prudence : la voiture électrique n’est
pas une nouvelle technologie ; elle existe
depuis les débuts de l’ère automobile.
Mais elle a été victime de ce que les chercheurs appellent le « dominant design » :
après une phase de foisonnement et
d’exploration inventive, certaines technologies réussissent à s’imposer, et, peu
à peu, se met en place un système qui fait
quasiment disparaître toutes les technologies concurrentes. Ainsi, entre 1903 et
1920, près d’une vingtaine d’entreprises
fabriquaient des véhicules électriques,
puis le dominant design du moteur à
explosion s’est imposé et ces constructeurs ont disparu. Un certain nombre de
tentatives de commercialisation de véhicules électriques ont eu lieu depuis lors,
en particulier lors des crises pétrolières,
mais elles n’ont jamais débouché sur la
création d’un marché de masse.
Pour déstabiliser un dominant design, des
facteurs d’environnement favorables sont
assurément des conditions nécessaires,
mais elles ne sont pas suffisantes. Il faut
aussi que le management de l’innovation des entreprises soit adapté à ce qui
constitue un véritable changement de
paradigme dans la mobilité individuelle.
Comment caractériser un tel management de l’innovation de rupture ? Comment opérer les transformations d’un
système organisé pour concevoir des produits plus traditionnels ? Telles sont les
questions qu’aborde la recherche engagée depuis 2008 au Centre de Recherche
en gestion (CRG) de l’École Polytechnique
dans le cadre de son programme « straté-
gies d’innovation et dynamique des systèmes de conception ». Cette recherche
est menée en partenariat avec des chercheurs de Télécom ParisTech et Mines
ParisTech, et des industriels du domaine
dont en particulier Renault, dans le cadre
de la chaire Management de l’innovation
de l’École et de l’Institut de la Mobilité
Durable Renault ParisTech.
La recherche a d’abord montré que le
système de conception traditionnel des
constructeurs automobiles a longtemps
abordé cette question sous l’angle, trop
réducteur, d’une « électrification » des
voitures thermiques, ce qui conduisait à
des offres peu attractives pour les clients.
L’initiative Zéro Emission de Renault :
un programme ambitieux pour amener le véhicule électrique jusqu’au marché de masse
4
Elle a ensuite permis d’identifier les nouveaux périmètres à intégrer dans le management de cette innovation : élargissement
de la vision " produit " au système de mobilité incluant l’infrastructure de recharge,
développement des services permettant
de valoriser l’offre produit " véhicule électrique "z proprement dite, exploration de
nouveaux modèles économiques tirant
parti des valeurs générées par la mobilité
électrique et rassurant le client quant aux
risques inhérents à une telle innovation de
rupture, accompagnement de l’apprentissage des clients dans leur expérience de la
mobilité électrique.
La recherche s’est ensuite attachée à formaliser les raisonnements, outils et méthodes
permettant d’appréhender ces enjeux et de
piloter la conception des offres associées
en conséquence. Il s’agissait notamment
de définir des paramètres et des méthodes
de nature à appréhender et dimensionner
la valeur des produits et services dans une
perspective de structuration d’un nouvel
écosystème (externalités de valeur) et de
dynamique de construction de marché
(dynamique de valeur). Il s’agissait aussi de
construire et d’évaluer un plan d’expérience
à l’échelle mondiale de la mobilité électrique, afin de comprendre les contextes
locaux, la spécificité des usages, construire
les partenariats nécessaires à la conception
des offres.
Le contexte de partenariat avec Renault
a permis d’expérimenter ces nouvelles
méthodes et outils en situation réelle. La
recherche se poursuit selon différentes
perspectives, dont une comparaison
internationale des initiatives de véhicule
électrique, recherche menée avec l’Université RWTH d’Aix La Chapelle et l’Université de Tokyo.
Cette recherche a pu associer des élèves de
l’X à ces travaux, dans le cadre de MODAL
HSS et de projets de Master PIC . Un récent
ouvrage témoigne de cette articulation
étroite entre recherche et enseignement
sur ce domaine d’innovation contemporain
particulièrement stimulant que constitue le
management de l’innovation de rupture.
http://www.editions.polytechnique.fr
Contact :
Christophe Midler
[email protected]
http://www.chaireinnovation.fr
http://www.mobilite-durable.org
http://www.masterpic.fr
Le foisonnement actuel des initiatives de véhicules électrifiés. Source de l’image (editée) : www.e-mobile.ch
Flash X n°14 - Transports
5
Le partenariat de l'École Polytechnique
avec PSA Peugeot Citroën
Patrick LE TALLEC - Habibou MAITOURNAM
Laboratoire de Mécanique des Solides
UMR CNRS - EP - École des Mines ParisTech 7649
Sylvain ALLANO - Laurent ROTA - Jean-Marc MOUSSET
PSA Peugeot Citroën DRD/DRIA/DSTF
L
a Chaire André Citroën vient
renforcer et dynamiser les
liens scientifiques étroits et la
collaboration fructueuse établis depuis plusieurs décennies
entre PSA Peugeot Citroën et l’École,
PSA et les laboratoires de l’École et plus
particulièrement entre PSA et le LMS
(Laboratoire de Mécanique des Solides).
Ce partenariat exemplaire a été mis en
place et porté dans les années 90 par
Ky Dang Van, chercheur au LMS, dont
le critère de fatigue est toujours utilisé
pour optimiser la résistance des structures, et André Bignonnet, ancien responsable du service de mécanique et
matériaux au sein de la DRIA de PSA,
qui s’est appuyé sur le laboratoire pour
construire une véritable démarche de
prototypage virtuel, et par là-même
développer l’innovation et de nouvelles
compétences pour l’automobile.
Depuis la fin des années 80 jusqu’à
aujourd’hui, une vingtaine de thèses de
doctorat CIFRE ont été soutenues. On
pourra citer d’abord celle de Patrick Ballard
(X84), collaboration entre PSA-LMS-LULI,
puis celle d’André Deperrois (X85) qui a
permis de mettre au point un module d’optimisation de la résistance à la fatigue des
composants d’automobile, module qui est
toujours utilisé par les bureaux d’études de
PSA et qui a continué à être perfectionné
par tous les travaux qui ont suivi.
Parmi les thèses récentes, on peut mentionner celles d’Antoine Launay (X04)
« Thermoplastiques renforcés en fibres
de verre courtes : comportement cyclique,
fatigue et durée de vie », d’Aurélie Benoît
« Prédiction de la durée de vie des structures mécano-soudées soumises à des
chargements anisothermes: applications
aux collecteurs d’échappement » et de
Shadan Tabibian « Fatigue thermomécanique des alliages en aluminium fondues
avec le procédé PMP ».
Les différents autres travaux de doctorat
ont conduit à des applications concrètes,
utilisées dans l’industrie pour optimiser,
mettre au point et sélectionner des matériaux et structures.
L’excellence de ces travaux est aussi reconnue au niveau académique car plusieurs
d’entre eux ont été couronnés par des prix.
Remarquons qu’il s’agit bien d’une formation par la recherche. Les doctorants
formés sont, en grande majorité, actuellement des cadres chez PSA, dans différents services (pas seulement en R&D)
et dans d’autres secteurs de l’industrie.
D’un autre côté, en plus des contrats de
recherche, des chercheurs du LMS (C.
Stolz et A. Constantinescu) ont été détachés pendant un an chacun chez PSA.
Des ingénieurs de PSA ont aussi participé
à l’enseignement, encadré des projets, de
stages bien sûr, en apportant une compo-
sante essentielle, à laquelle sont sensibles
les élèves, les applications, la réponse au
« à quoi ça sert ? ». Ils ont donc enrichi l’enseignement par des applications concrètes,
des situations industrielles caractéristiques,
et contribué de ce fait à le garder au cœur
des problématiques industrielles actuelles.
La Chaire André Citroën va donc stimuler ce
partenariat, sur trois volets : la recherche,
l’enseignement et l’ouverture internationale. Elle associe l’École Polytechnique,
la Fondation de l’École Polytechnique et
PSA Peugeot Citroën. Cette chaire a été
inaugurée le 6 mai 2011. D’une durée de
5 ans, elle porte sur la modélisation mécanique et multi-physique. Son responsable
académique à l’École Polytechnique est
Habibou Maitournam, enseignant-chercheur au LMS et le correspondant à PSA
est Laurent Rota. Elle rend ainsi hommage
à l’ancien polytechnicien, fondateur de la
marque automobile du même nom.
Les objectifs de la chaire seront de développer les thématiques liées aux matériaux
et aux structures mécaniques, à la physique
des surfaces, à la modélisation numérique
et aux couplages multi-physiques. Dans le
cadre de ses recherches, la chaire bénéficiera de la culture d’excellence scientifique
de l’École Polytechnique en s’appuyant sur
un corps enseignant de très haut niveau et
sur deux laboratoires, le LMS et le LPICM.
La Chaire André Citroën développera non
seulement la recherche, mais aussi l’enseignement en encourageant notamment
6
des initiatives dans le domaine de l’automobile. Elles permettront aux étudiants
accueillis au sein du Groupe d’être confrontés à des situations d’innovations technologiques caractéristiques.
Les travaux de recherche s’inscriront dans
un environnement international : en collaboration avec l’Université PSA Peugeot
Citroën, la Chaire André Citroën débouchera sur des coopérations avec les universités chinoises, brésiliennes et américaines,
facilitera l’accueil de professeurs internationaux, favorisera l’échange d’étudiants
et donnera lieu à des conférences d’envergure internationale.
Instabilité et mécanismes de rupture des
structures sandwich renforcées (LMS)
Un grand nombre d’applications dans
l’automobile moderne et les structures
aérospatiales recherchent des matériaux
légers mais raides. Un des matériaux les
plus prometteurs est une nouvelle structure sandwich d’aluminium renforcé qui
fournit une raideur importante sans ajouter trop de masse sur l’ensemble.
C’est similaire à une structure sandwich
ordinaire mais avec des plaques renforcées supplémentaires passant à travers
le centre de chaque cellule hexagonale.
Cela ajoute une raideur considérable à
la structure dans la direction, et de plus
génère un mode de ruine plus complexe.
Figure 1 : Écrasement à température ambiante
Flash X n°14 - Transports
Le but principal de ce projet est d’étudier les instabilités et les mécanismes de
ruine d’une structure sandwich renforcée, à différentes températures. Toutes
les plaques dans la structure alvéolaire
renforcée sont assemblées avec de la
colle époxy qui reste dure à température
ambiante. Par contre, à de plus hautes
températures, la ramollissement de la
colle époxy affecte le mode de ruine des
structures sandwich, comme le montrent
les figures 1 et 2.
Le problème est abordé de deux façons
différentes : i) une approche théorique utilisant une cellule et la théorie de représentation des ondes de Bloch pour analyser les
charges et modes critiques de la structure
infinie en trois dimensions, ii) et un calcul
numérique complet basé sur des codes
numériques existants. La structure est
supposée être composée de plaques nonlinéaires et élastoplastiques alors qu’un
modèle spécial est développé pour la colle.
Projet Nano-Capteur Intelligent
(LMS et LPICM)
La métrologie est un élément clef dans
l’instrumentation en continu du véhicule
moderne. La collecte d’information massivement distribuée requiert l’emploi de
systèmes communicants, de capteurs à
bas coût et à faible consommation énergétique et faible impact écologique. Les
nano-capteurs peuvent constituer dans ce
sens des solutions métrologiques particulièrement intéressantes, offrant sensibilité, richesse des observables, autonomie
énergétique et bas coût à grande échelle.
Dans le cadre du volet « Electronique
et Nanomatériaux » de la Chaire André
Citroën, le projet de recherche mené lors
de la première année (Septembre 2011Août 2012) vise à démontrer la faisabilité
du concept de nano-capteurs par la réalisation d’un démonstrateur de nano-capteur d’humidité.
Des travaux préliminaires réalisés par
l’équipe NanoMade du LPICM (Laboratoire de Physique des Interfaces et
Couches Minces) ont montré qu’une
structure de transistor à base de nanotubes de carbone peut avoir une
réponse linéaire significative en terme
de courant à l’état bloqué (Ioff) pour
une gamme large de valeurs d’humidité
relative dans l’air (<20% à plus de 80%)
Le travail de recherche qui est principalement mené par un post-doctorant
(Fatima Bouaniss) financé via la Chaire
André Citroën, vise donc à réaliser un
démonstrateur de concept facilement
intégrable dans une chaîne de mesure.
De manière plus précise seront abordées
lors de cette première année :
Figure 2 : Écrasement à haute température
7
L’optimisation du composant (transistor à base de nanotubes de carbone)
en termes de conditions de dépôt et de
choix de structure.
La fiabilisation de la fonction de transduction en termes de plage et de stabilité de la mesure ainsi que de sélectivité.
La réalisation d’une électronique embarquée dédiée pour rendre le signal utilisable dans une chaîne de mesure.
Le second volet du partenariat avec
PSA s’est ouvert avec l’inauguration en
décembre 2011 d’un nouvel OpenLab
« Computational Mechanics » de PSA Peugeot Citroën en partenariat avec l’École
des Mines ParisTech.
Regroupant des équipes du LMS de l’École
Polytechnique et du Centre des Matériaux
de Mines ParisTech, l’OpenLab « Computational Mechanics » a pour but de développer en partenariat avec la Direction de
la recherche et de l’ingénierie avancée de
PSA Peugeot Citroën, les compétences et
la recherche en matière d’innovation technologique et de recherche scientifique
dans le domaine de la mécanique des
solides, des structures et des matériaux.
Le programme scientifique est structuré en
quatre axes de recherche et d’innovation
Le comportement et durabilité des
structures : appréhender les phénomènes
de fatigue des structures sous sollicitations
mécaniques variées, couplées à d’autres sollicitations (thermique, physico-chimique…)
Les matériaux composites pour applications structurales : explorer un levier
nouveau dans le domaine automobile
pour réussir le challenge de la réduction
de la masse
Les méthodes numériques : imaginer des
outils de plus en plus efficaces pour simuler
les processus multi-physiques (couplages,
simulation des procédés, modélisation
multi-échelle…) et le comportement mécanique des structures
Milieux complexes : explorer des solutions
matériaux nouvelles pour l’automobile
de demain (matériaux multifonctionnels,
matériaux micro ou nano-structurés, matériaux pilotables,…)
Les six « OPenLabs » de PSA sont coordonnés par une structure d’animation
du groupe, qui a pour mission de créer
un réseau interdisciplinaire d’échanges
et de dialogue entre scientifiques et
experts du constructeur.
Contacts :
Patrick Le Tallec
[email protected]
Habibou Maitournam
[email protected]
Sylvain Allano
[email protected]
Laurent Rota
[email protected]
Jean-Marc Mousset
[email protected]
Flash X n°14 - Transports
9
Dégradation thermo-oxydante des huiles moteur :
description des mécanismes mis en jeu
Michel SABLIER - Moussa DIABY
Laboratoire des Mécanismes Réactionnels (DCMR)
UMR CNRS - EP 7651
L
a motorisation Diesel a connu
un véritable essor pour des
raisons économiques (faible
consommation de carburant,
faible coût de maintenance) et
environnementales (faibles émissions
de CO2 notamment). De plus, avec le
développement des filtres à particules,
la motorisation diesel a gagné une
image de moteur propre. Cependant,
l’un des défis majeurs à relever reste
la réduction des émissions d’oxydes
d’azote (NOx) produits lors de la combustion. Ainsi, face aux contraintes
réglementaires de plus en plus sévères,
les constructeurs automobiles innovent
dans des technologies nouvelles comme
la recirculation de gaz d’échappement
(Exhaust Gas Recirculation, EGR).
Cette technologie contribue toutefois à
une formation plus importante de suies qui
se déposent sur les parois des cylindres ou
sont acheminées dans le réservoir d’huile.
Les propriétés physico-chimiques de l’huile
sont alors modifiées. Des phénomènes
Description du système :
Le moteur en fonctionnement est un appareil
soumis à des contraintes thermiques importantes. Les conditions d’excès d’air nécessaire à la combustion Diesel et le manque
d’étanchéité complète des segments de
pistons font que dans le carter d’huile, l’environnement est assez oxydant. Ainsi l’huile
présente dans le carter est soumise à des
conditions d’oxydation. Ces mécanismes
d’oxydation largement relatés dans la littérature font appel à des réactions radicalaires.
Température de certains organes du moteur lors de son fonctionnement
d’usure des parties métalliques se produisent et des dépôts carbonés se forment
à divers endroits du moteur, notamment
en fond de première gorge de piston.
Le but des travaux conduis au Laboratoire des Mécanismes Réactionnels
(DCMR) a consisté à mettre en évidence
les mécanismes de formation de dépôts
en fond de première gorge de piston de
moteurs Diesel.
La technologie (EGR), qui consiste à rediriger vers le système d’admission une partie
du gaz d’échappement, a montré son efficacité dans la réduction des quantités de
NOx à l’échappement.
Principe de la technologie EGR
Simulation de la dégradation oxydante
d’une huile de moteur :
L’huile des moteurs est un produit de
haute technicité, indispensable au bon
fonctionnement du moteur. Elle sert
de lubrifiant pour les différentes pièces
de celui-ci. Les lubrifiants doivent donc
assurer le bon fonctionnement des
mécanismes en s’intercalant entre les
surfaces frottantes.
Il est indispensable pour la vie des
moteurs que les propriétés des lubrifiants soient conservées quelles que
soient les conditions de vie du moteur.
Ainsi, pour protéger le moteur, les lubrifiants se composent généralement d’un
mélange de bases minérales et synthétiques et d’additifs de 2% jusqu’à
plus de 25% pour les dernières huiles
multigrades.
10
L’huile de base sert de matrice pour constituer « l’ossature » du lubrifiant et elle doit
avoir des caractéristiques aussi proches
que possible de celles du lubrifiant visé.
Les additifs viennent alors renforcer ou
apporter des propriétés supplémentaires
aux huiles de base ; ce sont par exemple :
les additifs antioxydants, les détergents,
les dispersants, les anti-usures, les modificateurs de frottements etc.
La figure ci-contre montre à titre d’exemple
l’empreinte d’une huile de moteur obtenue
par spectroscopie infra-rouge.
Spectre infrarouge d’une huile neuve
Lors de la dégradation thermo-oxydante
d’une huile de moteur, plusieurs mécanismes sont mis en jeu. Cette dégradation caractérisée par la formation
successive et progressive de produits
d’oxydation, de produits de polymérisation, se déroule simultanément avec
la consommation des additifs antioxydants. Elle peut conduire à des réactions
de cyclisation et d’aromatisation des
chaînes hydrocarbures à l’origine de la
formation de dépôts en fond de première gorge de piston. Les éventuelles
particules métalliques dans le milieu
réactionnel provenant de l’usure des
organes en contact peuvent agir comme
catalyseur et accélérer le processus de
dégradation.
Ce phénomène prend une importance
significative sous l’effet de la température et de la durée de fonctionnement.
Or une dégradation trop rapide du
lubrifiant a des conséquences sur l’intervalle de vidange qui, pour le confort du
client, doit être le plus long possible.
L’originalité de cette étude est de simuler
le vieillissement des huiles moteur dans les
conditions de températures et de pressions
rencontrées dans les premières gorges de
piston. En effet, si l’effet de la température
sur les mécanismes de dégradation des
lubrifiants est très bien connu, l’influence
de la pression l’est beaucoup moins.
Pour ce faire, un microréacteur de type
autoclave a été conçu pour reproduire les
conditions thermodynamiques des gorges
de piston.
Vue d’ensemble du micro-réacteur de type autoclave
Flash X n°14 - Transports
11
Les expériences ont montré le rôle prépondérant de la pression dans la dégradation
de la molécule modèle, le squalane. Leurs
résultats ont été corrélés à ceux obtenus lors
de la dégradation du squalane à pression
atmosphérique. Sous l’effet conjugué de la
pression et de la température, il se produit
une voie supplémentaire de dégradation de
l’hydrocarbure : c’est la dégradation thermique donnant lieu à la formation d’hydrocarbures aromatiques polycycliques (HAP)
par des mécanismes de type Diels-Alder et
de déshydrogénation et désoxygénation.
Spectre de masse expérimental du méthyl-pyrène, un des précurseurs de composés polymérisés formés
Mécanisme de vieillissement des huiles en
conditions de gorges de piston
La modélisation de la base de l’huile de
grade SAE 5W-30 par le squalane (C30H62)
est un excellent moyen pour étudier simplement les mécanismes de dégradation
des huiles en condition thermo-oxydante.
L’utilisation d’une telle molécule simple
permet d’identifier aisément les produits
de dégradation, de suivre leur évolution
dans le temps et d’en extraire un modèle
cinétique utilisable en prédictif. Le schéma
mécanistique général ci-dessous issu des
travaux menés au DCMR a permis d’expliquer la formation de dépôts en fond de
première gorge de piston de moteurs. Ces
travaux - associant le DCMR et la société
Peugeot-Citroën Automobiles SA – centre
Technique de Vélizy DRD/DRIA/DSTF/PCEA
complètent les données disponibles sur
les facteurs responsables de la dégradation thermo-oxydante des huiles moteurs.
Ils mettent un accent particulier sur l’effet
prépondérant de la pression quand elle
est associée aux autres paramètres habituellement étudiés à pression atmosphérique (température, durée d’exposition,
composition de l’environnement gazeux).
Il apparaît clairement que seule la caractérisation des mécanismes prenant place
à la fois au niveau du piston (effet prépondérant de la pression, température,
composition gazeuse environnante) et
du carter à huile (effet prépondérant de
la température, durée d’exposition, pré-
sence de particules métalliques) conduit à
des avancées effectives pour optimiser la
formulation des huiles moteurs et réduire
ainsi les risques liés à la formation de
dépôts nuisibles à la conservation de leurs
propriétés mécaniques.
Ces travaux ont été soutenus par le financement d’une thèse sous convention Cifre et
le financement d’un contrat de recherche
post-doctoral par la société PeugeotCitroën Automobiles SA. Le LMS, et en particulier Daniel Caldemaison, doivent être
remerciés pour l’accès à la microscopie électronique à balayage (MEB) ayant permis la
caractérisation structurelle des dépôts.
Contacts :
Michel Sablier
[email protected]
Moussa Diaby
[email protected]
Schéma du mécanisme de formation de dépôts
(vue agrandie au microscope électronique à balayage d’un échantillon de dépôts)
Références :
Diaby M, Sablier M, Le Negrate A, El Fassi M,
Bocquet J. Understanding carbonaceous deposit
formation resulting from engine oil degradation.
Carbon 2009; 47(2):355-66.
Diaby, M.; Kinani, S.; Genty, C.; Bouchonnet, S.;
Sablier, M.; Le Negrate, A.; El Fassi, M. Analysis
of the Volatile Organic Matter of Engine Piston
Deposits by Direct Sample Introduction Thermal
Desorption Gas Chromatography/Mass Spectrometry. Anal. Chem. 2009; 81, 9764-9770.
Diaby M, Sablier M, Le Negrate A, El Fassi M. Kinetic Study of the Thermo-Oxidative Degradation
of Squalane (C(30)H(62)) Modeling the Base Oil of
Engine Lubricants. J. Eng. Gas Turb. Power 2010;
132(3), 032805.1-032805-9.
Flash X n°14 - Transports
13
La pile à combustible,
une solution vers des véhicules propres
Marie-Claude CLOCHARD
Laboratoire des Solides Irradiés (LSI)
UMR CEA – CNRS – EP 7642
L
es énergies alternatives sont
aujourd’hui une réalité et leur
développement est devenu
une priorité dans les objectifs de la Recherche française
(Grenelle de l’Environnement). Pour
l’Automobile, deux technologies sont
aujourd’hui en plein essor pour le remplacement du moteur à explosion : la
batterie lithium et la pile à combustible.
Dans les deux cas, des prototypes sont
à l’essai et les grands constructeurs
automobiles (Peugeot, Renault, Nissan,
Toyota) ont déjà fait fonctionner certains modèles de véhicules avec ces deux
types de technologies.
La batterie touche un marché plus proche
que la pile à combustible car la production d’électricité n’est pas un souci et
son acheminement non plus. La pile à
combustible, quant à elle, a besoin d’hydrogène pour fonctionner ; il faut donc
pouvoir en produire en grande quantité
(projet d’un réacteur nucléaire francoaméricain pour l’hydrolyse de l’eau haute
température) et inventer de nouvelles
pompes pour la stocker. Le marché visé
est à l’horizon des 20 ans à venir.
La batterie manque cependant d’autonomie et un temps de recharge d’en
moyenne ½ h est nécessaire. Un plein d’essence ne prend pas plus de 8 min ! Aussi
certains constructeurs pensent à des batteries que l’on pourrait changer comme
des valisettes chez les distributeurs classiques pour éviter les temps de recharge.
D’autres pensent à une technologie mixte
pile à combustible/batterie, la pile servant uniquement à recharger la batterie.
Bref, toute l’inventivité des ingénieurs
et des chercheurs se met à la disposition
du meilleur dispositif qui pourra un jour
remplacer le moteur à explosion pour
limiter la dépense en énergie fossile et
l’émission de CO2.
Comment marche une pile à combustible ?
Le principe de la pile à combustible a
été inventé en 1839 par William Grove.
Il s’agit tout simplement de la réaction
inverse de l’électrolyse de l’eau : 2H2 +
O2 → 2H2O.
Or la réaction a lieu à la condition que
la molécule d’hydrogène H2 se dissocie
au contact du catalyseur (en général
des grains de platine) placé sur l’anode,
ce qui libère quatre électrons, selon la
réaction suivante :
Anode (oxydation) - carburant
2H2 → 4H+ + 4 e - (0V)
Les quatre électrons sont transmis au circuit électrique via des éléments carbonés
conducteurs également présents dans la
composition de l’anode. Il y a donc création d’électricité. Les protons sont, eux,
véhiculés vers la membrane échangeuse
de protons. Cette membrane peut être
en matériaux divers mais pour l’application automobile, seules les membranes
polymères fines et élastiques semblent
appropriées. On parle alors de pile à
combustible à membrane polymère électrolyte (Polymer Membrane Fuel Cell ou
PEMFC en anglais). Le polymère constituant la membrane se comporte comme
un électrolyte solide et est capable
d’acheminer les protons de l’anode à
la cathode. À la cathode, les protons
se combinent avec l’oxygène de l’air au
contact d’un catalyseur (classiquement
du Platine) selon la réaction :
Cathode (réduction) - comburant
O2 + 4 H+ + 4 e - → 2 H2O (1.23V)
Le bilan énergétique est donc de 1.23 V.
Si on enlève la contribution des résistances du dispositif, on arrive à 0.9 V
entre l’anode et la cathode. Lorsqu’on
demande du courant à la pile en fonctionnement, la pile va tendre à maintenir cette différence de potentiel. C’est
sa faculté à maintenir constante une différence de potentiel la plus haute possible par rapport à la valeur théorique
qui indique si une membrane est performante ou non pour cette application.
On évalue donc les performances d’une
pile à combustible non seulement au courant que l’on tire mais aussi par rapport
à sa conductivité protonique en réalisant
des courbes dites de polarisation avec,
14
Le Nafion® est également cher à fabriquer. Ce coût s’ajoute au prix du platine.
en ordonnée, la différence de potentiel
entre l’anode et la cathode et, en abscisse, la densité de courant (en A/cm2).
Verrous technologiques à lever
La membrane de référence est une membrane perfluorée sulfonée du fabricant
Dupont-De Nemours, le Nafion® (voir
schéma de sa formule chimique ci-dessus).
L’acide sulfonique est un acide fort, ce qui
signifie que sa constante de dissociation est
élevée. Il favorise donc la conduction protonique. D’autres fabricants, comme Dow
Chemical, commercialisent des variantes
de membranes perfluorées sulfonées pour
essayer de prendre une part du marché.
Néanmoins, la formulation du Nafion® fait
de cette membrane la membrane reine
dans le domaine des piles à combustible.
Et pourtant, elle a ses limites malgré sa
robustesse (5000 h de fonctionnement
en milieu acide et oxydant). En effet,
sa température de fusion basse interdit
de monter trop haut en température
de fonctionnement, aux environs de
60-70°C. C’est un problème au niveau
des catalyseurs platines qui s’empoisonnent par du monoxyde de carbone à
cette température. L’efficacité des catalyseurs est diminuée et la dismutation de
l’hydrogène n’est donc pas optimum. De
plus, le Nafion® a besoin de beaucoup
d’eau pour fonctionner, jusqu’à 40%
en poids, et, si en mode stationnaire, sa
durabilité est forte, en mode cyclique
arrêt-démarrage, sa durabilité est nettement affectée par ces cycliques de gonflement et dégonflement associés à la
quantité d’eau demandée.
Il est donc intéressant de chercher si
d’autres types de membranes ne pourraient pas satisfaire davantage au cahier
des charges pour l’application automobile
ou, tout du moins, pour une même performance, diminuer le prix. Le prix est un
paramètre important pour qu’une technologie puisse voir le jour. Pour fabriquer
une pile à combustible qui permette de
délivrer l’énergie nécessaire pour une voiture, il faut empiler des minipiles les unes
aux autres pour créer ce que l’on appelle
un ‘stack’ (figure 1). Pour un stack, il faut
compter jusqu’à 10m2 de membrane…
Notre travail
L’objectif de notre travail au Laboratoire
des Solides Irradiés (LSI) est l’étude des
membranes polymères électrolytes à base
de films thermoplastiques fluorés de Poly
(Difluorure de vinylidène) (PVDF) pouvant
remplacer le Nafion®. Contrairement au
Nafion®, ils sont nano-structurés en canaux
de conduction protoniques rectilignes.
Depuis 2007, quatre brevets ont été déposés sur ce projet (dont un en 2011) [1]. Les
premiers résultats sur les performances en
pile de ce nouveau type de membranes ont
été publiés début 2010 [2] en collaboration
avec le CEA Grenoble1.
En 2010, Enrico Gallino a rejoint le LSI en
tant que post-doctorant pour renforcer
l’équipe de travail du projet. Il a repris
la méthode de synthèse des membranes
en PVDF : i) irradiations aux ions lourds
rapides au GANIL2 (un ion = une trace),
ii) greffage radio-induit d’un polymère
dans les traces laissées par les ions et iii)
fonctionnalisation du polymère radiogreffé précédemment avec des entités
capables de transporter des protons.
C
ollaboration A. Morin du CEA/DRT/LITEN et G. Gébel
du CEA/DSM/INAC
2
Grand Accélérateur National d’Ions Lourds en collaboration avec le CIMAP (Caen)
3
FTIR = Infra-Rouge à Transformée de Fourrier
1
Figure 1. Exemple d’un stack de piles à combustible permettant le fonctionnement d’une voiture
Flash X n°14 - Transports
15
La trace devient alors un chemin privilégié et rectiligne pour le transport de
protons entre l’anode et la cathode.
On parle ici de canal de conduction
protonique.
De nombreux tests en pile ont été effectués avec une mission de 15 jours tous les
4 mois en moyenne au CEA Grenoble. La
reproductibilité des résultats obtenus sur
une membrane en PVDF greffée Polystyrène sulfoné (PVDF-g-PSSA caractérisée en
FTIR3 -Figure 2-) fortement radiogreffée
a été montrée (Figure 3). La conductivité
est importante (de l’ordre de 30 mS/cm) et
la densité de courant à 500mV peut être
délivrée sur trois jours à un ampère par
cm2. Ces résultats sont tout à fait comparables à ceux obtenus avec le Nafion®
dans les mêmes conditions. La robustesse
des membranes lors du montage en pile
est également un atout pour l’application
industrielle. Par contre, des tests de durabilité ont montré que le taux de greffage
trop important limite la durée de vie à 70h.
Le but en 2011 a été de renforcer la tenue
mécanique en diminuant la densité des
traces. Les performances en test en pile
ont pu être préservées en jouant sur les
débits d’entrée des gaz H2 et O2 (Figure 4).
Ce résultat montre l’importance de l’effet
de la structuration en nanocanaux sur les
propriétés de conduction de ce nouveau
type de membrane pour l’application pile
à combustible [3]. Des tests de durabilité
sont actuellement en cours.
La recherche sur les nouveaux types
de membranes s’oriente maintenant à
découvrir d’autres types de fonctionnalités chimiques permettant le transport de
protons pour booster les performances.
L’amélioration de l’interface membraneélectrode reste également un point
important à développer. Cette amélio-
Figure 2. Spectres FTIR d’un film de PVDF irradié aux ions Kr (10MeV/uma –ligne SME GANIL-,
densité = 1010 ions/cm2), d’un même film après radiogreffage PVDF-g-PS et de la membrane finale
après sulfonation sur le polystyrène PVDF-g-PSSA (A) 4000-2000 cm-1 et (B) 1800-900 cm-1.
ration passe par la compréhension des
spectres de spectroscopie d’impédance
enregistrés au cours des tests en pile. En
effet, on observe, dans des conditions
sévères de test en pile, la présence de
deux hémisphères au lieu d’une seule
révélant plusieurs mécanismes de transport protonique (Figure 5). Il ne s’agit
donc plus de s’intéresser à la membrane
seule mais d’appréhender l’ensemble du
système c’est-à-dire l’Assemblage Membrane-Electrode ou AME. Cette amélioration passe par la mise en place d’un AME
particulier, dans lequel on change la composition de l’électrode pour assurer une
continuité chimique entre l’électrode et
la membrane. Cela revient à la réalisation
d’un AME en rupture technologique complète avec le Nafion® qui compose également la formulation des encres pour les
électrodes. Durant 2011, ce projet a été
accepté par le programme transverse CEA
et sera conduit en 2012. La mise en place
d’un dispositif de synthèse du PVDF dédié
à la formulation des nouvelles encres a
déjà été réalisée au LSI.
Contact :
Marie-Claude Clochard
[email protected]
16
Figure 3. Courbes de polarisation obtenues entre 50°C et 80°C pour la membrane de PVDF-g-PSSA (taux de greffage = 140%) – Tests en pile alimentée
en gaz H2 et O2 purs.
Figure 4. Comparaison des courbes de polarisation obtenues à 80°C pour la membrane de PVDF-g-PSSA (1010 canaux/cm2, taux de greffage = 140%), la
membrane de PVDF-g-PSSA (108 canaux/cm2, taux de greffage = 40%) et le Nafion® NRE212 – Tests en pile alimentée en gaz H2 et O2 purs.
Membrane
Taux de
greffage (%)
IEC
(meq/g)
Water uptake
(%)
RH
(%)
Température
(°C)
Conductivité
(mS cm-1)
Nafion NRE
212
/
0.95-1.1
50
75
75
75
75
50
50
60
70
80
80
31
29
31
27
17
PVDF-g-PSSA
140
3
Hors équilibre
75
75
75
75
50
50
60
70
80
80
25
23
23
22
7
Tableau 1. Récapitulatif des conductivités protoniques in-situ dans la pile en fonctionnement des membranes nanostructurées de densité de 1010 canaux
par cm2 en PVDF-g-PSSA (IEC = capacité d’échange ionique évalué par expérience de dosage ex-situ).
Flash X n°14 - Transports
17
Figure 5. Exemple de courbes de spectroscopie d’impédance enregistrées au début d’un test en pile sur une membrane de PVDF-g-PSSA (1010 canaux/cm2,
taux de greffage = 140%) pour des conditions particulières de faible température et pression en atmosphère peu humide : 50°C, 2 bars, 35% RH (Relative
Humidity)
Références :
[1] Brevets CEA :
- M.-C. Clochard, T. Berthelot, C. Baudin,
« Procédé d’élaboration de Membranes
Conductrices de Protons de Pile à Combustible
par Radiogreffage » CEA French patent (BD
1727) FR 0757875 ext PCT WO/2008/062726
(2007)
- T. Berthelot, M-C Clochard, « Membranes
Conductrices de Protons pour Pile à Combustibles présentant un gradient de protons
et Procédés de Préparation desdites Membranes» CEA French patent (BD 10047) FR
0757873 ext PCT WO/2009/103925 (2007)
- T. Berthelot, M-C Clochard, « Membranes
Conductrices de Protons pour Pile à Combustible et Procédés de Préparation desdites Membranes » BD11266 French patent
FR0955854 ext PCT WO/2010/062512 (2009)
- M.-C. Clochard, H. Bessbousse, T. Wade, E.
Gallino « Membranes nanostructurées et leur
utilisation » CEA-X-CNRS French Patent FR
1153977 (2011)
[2] M.-C. Clochard, T. Berthelot, C. Baudin, N.
Betz, E. Balanzat, G. Gebel, and A. Morin, J.
Power Sources 195, 223 (2010)
[3] Enrico Gallino, Marie-Claude Clochard,
Emmanuel Balanzat, Gerard Gebel, Arnaud
Morin “Elaboration of nanostructured and
highly proton conductive membranes for
PEMFC by ion track grafting technique” November 28 - December 2, 2011 Hynes Convention Center, Boston, MA, MRS proceedings
(submitted)
Flash X n°14 - Transports
19
Les nouvelles technologies pour les batteries Li-ion
dans le cadre de l’application au véhicule électrique
Costel Sorin COJOCARU
Laboratoire de Physique des Interfaces et des Couches Minces (LPICM)
UMR CNRS – EP 7647
François OZANAM - Michel ROSSO
Laboratoire de Physique de la Matière Condensée (PMC)
UMR CNRS – EP 7643
Aurélien GOHIER
Renault SAS, DREAM/DETA/SEE
L
a raréfaction à terme des combustibles fossiles, l’augmentation de leur coût et la volonté
de réduire de façon significative les émissions de gaz à effet
de serre poussent au développement de
véhicules électriques de façon beaucoup
plus volontariste que par le passé. Pour
des véhicules à motorisation totalement
électrique dits « Zéro Emission » (aucune
émission de dioxyde de carbone dans
l’atmosphère), ou pour des véhicules
hybrides (motorisation mixte thermique
et électrique), ce développement nécessite d’augmenter l’efficacité et la fiabilité des moyens de stockage de l’énergie.
Une des solutions les plus prometteuses
consiste à stocker l’énergie nécessaire à
la propulsion du véhicule dans des batteries d’accumulateurs, mais de nombreux
progrès restent à faire pour atteindre
un confort d’utilisation proche de celui
des véhicules thermiques traditionnels :
la quantité d’énergie (celle contenue
dans un litre d’essence est environ 100
fois supérieure à celle contenue dans
une batterie de volume équivalent), la
durée de vie, la sécurité d’une batterie
sont encore à améliorer, et il faut plusieurs heures pour recharger la batterie
d’un véhicule électrique alors qu’il ne
faut que quelques minutes pour faire
un plein d’essence. Le prix des batteries,
une part importante du prix total du
véhicule, reste aussi un frein au développement du véhicule électrique.
Pourtant ce véhicule a une longue histoire derrière lui. Au tout début du
vingtième siècle, le véhicule électrique
concurrençait sérieusement le véhicule
thermique. La « Jamais contente » fut
la première automobile à passer, en
1899, la barre des 100km/h. Son moteur
électrique était alimenté par des batteries au plomb. Le véhicule électrique
a cependant laissé la place au véhicule
thermique au début des années 20.
Plus proches de nous, différentes tentatives de commercialisation de véhicules
électriques ont connu des succès éphémères. La principale difficulté tenait
à l’autonomie très réduite de ces véhicules (en général moins de 100 km entre
deux recharges). Les dernières années
ont cependant vu la batterie lithiumion, commercialisée à grand échelle au
début des années 90, supplanter la classique batterie au plomb. La capacité a
ainsi été augmentée d’un facteur 5-6,
permettant de développer des véhicules
ayant une autonomie de plus de 200 km
à l’heure actuelle.
Plusieurs constructeurs automobiles
développent maintenant une production de véhicules électriques à grande
échelle, mais améliorer les conditions de
stockage de l’énergie pour le véhicule
électrique reste un enjeu majeur. Deux
laboratoires de l’École, le LPICM et le
LPMC, sont engagés dans des recherches
visant à améliorer la capacité de stockage des batteries.
Une recherche orientée matériau
La capacité des batteries se mesure traditionnellement en Wh, qui est l’énergie produite par une alimentation
électrique fournissant une puissance de
1W pendant une heure. Une caractéristique importante pour un véhicule est la
quantité d’énergie qu’on peut stocker
par unité de masse, ou de volume de
l’accumulateur. Typiquement, les performances actuelles des accumulateurs
sont de 35 Wh/kg pour les batteries au
plomb et de 120-180 Wh/kg pour les
batteries lithium-ion. Pour celles-ci des
progrès sont encore possibles, notamment en augmentant la capacité des
électrodes.
20
Toute batterie comprend deux électrodes (une dite négative et une positive, voir figure 1). L’électrode négative
des systèmes lithium-ion actuellement
commercialisés est en graphite. La performance théorique d’une telle électrode est caractérisée par sa capacité
spécifique exprimée en milli Ampèreheure par gramme (mAh/g). Pour le
graphite, cette capacité spécifique théorique est de 372 mAh/g. D’autres composés peuvent être utilisés en substitution
du graphite pour obtenir une capacité
plus élevée : le silicium a une capacité
théorique de 3580 mAh/g, environ dix
fois supérieure à celle des électrodes en
graphite utilisées actuellement dans les
batteries Li-ion commerciales. Compte
tenu des autres éléments constituant la
batterie, l’utilisation d’une anode en silicium permettrait d’augmenter la capacité de la batterie d’environ 30%.
Cependant, le silicium subit d’importantes variations de volume (300 à 400%)
au fil des alternances charge/décharge
de l’accumulateur, qui se traduisent
par une perte d’intégrité de l’électrode
(pulvérisation) et une baisse de performance trop rapide pour être compatible
avec une application de longue durée.
Actuellement, les deux laboratoires de
l’École Polytechnique recherchent des
voies complémentaires pour apporter
des solutions à ce verrou technologique.
Le Laboratoire de Physique de la Matière
Condensée (PMC) mène depuis plusieurs
années des recherches sur les propriétés
physiques des surfaces et des couches
minces (production, caractérisation).
L’utilisation des techniques spectroscopiques comme la spectroscopie infrarouge in situ permet de comprendre
l’évolution des propriétés de surface
(formation de la couche de passivation
notamment) et de volume (expansion
et contraction volumique en cours de
cyclage) d’électrodes constituées de
couches de silicium de quelques dizaines
de nm. Ces études, menées dans le
cadre d’une collaboration avec SAFT,
devraient déboucher sur la définition
de traitements de surface permettant
au matériau de mieux accepter les changements de volume dus aux alternances
insertion-désinsertion du lithium au
cours du cyclage de la batterie.
La composition du matériau lui même
est aussi étudiée, en particulier pour
son effet sur ses propriétés mécaniques.
Des alliages amorphes silicium-carbonehydrogène ont ainsi été produits par
PECVD (Plasma Enhanced Chemical Vapor
Deposition, technique de production de
couches minces de matériaux amorphes
bien maîtrisée au laboratoire). En ajustant
leur teneur en carbone, ces matériaux
présentent des capacités énergétiques
proches de celles du silicium et des propriétés de cyclage améliorées par rapport
au silicium pur.
Le Laboratoire de Physique des Interfaces et des Couches Minces (LPICM)
s’appuie sur son expérience dans le
domaine des nanomatériaux. Les nanosciences et nanotechnologies (NST) sont
un secteur stratégique avec un impact
potentiel considérable dans de nombreux domaines : informatique et télécommunications, médecine et biologie,
matériaux et chimie, sécurité, production et stockage de l’énergie... Associant plusieurs disciplines scientifiques
traditionnelles (physique, chimie et biologie, science des matériaux…), les NST
constituent un domaine de recherche
en plein essor, très compétitif, en rapide
croissance économique et de plus en plus
perçu comme la base de la prochaine
révolution industrielle. Dans ce contexte,
le développement des nanomatériaux
(nanotubes, nanofils, graphène) devrait
permettre des progrès importants aussi
Figure 1
Flash X n°14 - Transports
21
Figure 2
bien pour les systèmes de production
(par exemple photovoltaïques) que pour
le stockage électrochimique de l’énergie :
super-condensateurs et batteries Li-ion.
Dans le cadre de l’Institut de la Mobilité
Durable, créé par Renault, la Fondation
Renault et le Pôle de Recherche et d’Enseignement Supérieur Paristech, le LPICM
développe une nouvelle approche consistant à « construire » (croissance directe sur
le collecteur de courant – par exemple de
type feuillard métallique, voir figure 2) des
électrodes en Si nanostructuré pour les
batteries Li-ion. Ces nanomatériaux sont
des nanofils de Si et des systèmes hybrides
comme des nanotubes de carbone recouverts de silicium. La nanostructuration
du silicium présente plusieurs avantages :
d’une part la taille nanométrique du silicium permet d’accommoder sans déstructuration les variations volumiques lors des
cycles de charge/décharge et d’autre part
la très grande surface spécifique de ses fils
et leur taille nanométrique permettent
une lithiation/délithiation rapide et profonde du matériau, permettant ainsi
l’utilisation de forts courants. Ce nouveau
concept (dont la faisabilité vient d’être
démontrée par quelques équipes dans le
monde) constitue une véritable rupture
technologique dans la mesure où il permet
d’améliorer la technologie des batteries
Li-ion en apportant stabilité et fiabilité,
un bon comportement en puissance et
une excellente cyclabilité. Sur la base de
cette approche, des capacités de stockage
proches de la valeur maximale théorique
et une très bonne tenue aux cycles de
charge-décharge ont été obtenues.
Contacts :
Michel Rosso
[email protected]
Costel-Sorin Cojocaru
[email protected]
Références :
A. Gohier, B. Laïk, K.-H. Kim, J.-L. Maurice,
M. Martin, J.-P. Pereira-Ramos, C.S. Cojocaru,
« Silicon decorated vertically aligned carbon
nanotubes directly grown on collector for
high rate capability lithium-ion batteries
anodes », Advanced Materials (2012), sous
presse.
A. Gohier, B. Laik, J.-P. Pereira-Ramos, C.S.
Cojocaru, P. Tran-Van, « Influence of the diameter distribution on the rate capability of
silicon nanowires for lithium-ion batteries
anode » Journal of Power Sources 203, 135–
139 (2012).
Flash X n°14 - Transports
23
La méthode de conception fiabiliste des axes/roues
ferroviaires vis-à-vis de la fatigue
Clément ROUX
Laboratoire de Mécanique des Solides (LMS)
UMR CNRS - EP - École des Mines ParisTech 7649
A
ctuellement, le transport
ferroviaire est un des modes
de transport les plus sûrs et
les plus propres vis-à-vis de
l’environnement. La Direction de l’Innovation et de la Recherche
de la SNCF mène à bien des projets de
recherche pour accroître la compétitivité
des transports ferroviaires tout en garantissant une excellente sécurité de ces
moyens de transport. Les roues et axes
d’essieux des trains sont des structures
mécaniques primordiales dans le fonctionnement et la sécurité d’un train. Ils
sont donc dimensionnés pour ne jamais
rompre par fatigue mécanique : chaque
rotation de roue va engendrer un cycle de
sollicitation qui pourrait endommager la
structure matérielle de la roue et ainsi permettre potentiellement la naissance, la
coalescence et la propagation de fissures
catastrophiques. Ce type d’accident est
extrêmement dangereux et à proscrire.
Ainsi, d’une part les roues et axes sont
conçus pour résister à ces phénomènes.
D’autre part, ces structures coûteuses
(fabrication, maintenance, exploitation)
doivent évoluer pour répondre aux objectifs environnementaux et à l’évolution
des besoins (on présente ci-contre une
roue d’autorail présentant des perçages
permettant la fixation de disque de frein).
De nos jours, la sécurité est assurée mais
la marge de progression vers des structures plus compétitives reste difficile à
évaluer. Ainsi, les recherches effectuées
visent à mieux évaluer statistiquement
les efforts appliqués aux roues et proposer une méthode de conception
fiabiliste en fatigue multiaxiale afin d’affiner les marges de sécurité imposées
aujourd’hui par les normes de dimensionnement des roues ferroviaires. Des
travaux dans ce domaine sont menés au
Laboratoire de Mécanique des Solides
de l’École Polytechnique.
Connaître les sollicitations appliquées à
la roue
Depuis quelques années, les opérateurs
ferroviaires européens, dont la SNCF,
se sont lancés dans des campagnes
d’essais ambitieuses et coûteuses pour
caractériser statistiquement les sollicitations appliquées sur la roue. La roue est
essentiellement sollicitée par les efforts
induits par le contact roue/rail. La figure
suivante montre les différents cas de sollicitations possibles.
Caractériser la critique d’un trajet vis-àvis de sécurité en fatigue
Après la caractérisation des sollicitations,
il est primordial de pouvoir caractériser la
sévérité vis-à-vis de la fatigue. Ainsi, on se
propose de calculer cette sévérité sous la
forme d’un scalaire à partir du vecteur des
sollicitations (Y, Q, F) pour chaque rotation
Illustration des cas de chargements : Images Agence d’Essai Ferroviaire - SNCF
24
distribution de criticité d’usages. À partir de cette donnée statistique appelée
« Contrainte » et connaissant la « Résistance » à la fatigue (distribution de la
limite d’endurance du matériau), on
utilise une méthode probabiliste : la
méthode « Contrainte – Résistance ».
Illustration de Pf : Interaction entre « sollicitations » et « résistances »
de la roue. Pour cela, on utilise le critère de
fatigue multiaxial de DANG VAN. À partir
de calcul mécanique et des données matériaux, à chaque tour de roue, on associe
une valeur de criticité : tDV= fonction(Y,Q,F).
Connaître la criticité de chaque tour de
roue ne permet pas de calculer directement la criticité d’un trajet complet
(représentatif de la durée de vie). On
utilise pour cela la méthode d’ « Équivalence Fatigue » qui permet de calculer
le scalaire teq représentatif de la criticité
d’un usage. En pratique, on utilise la criticité de chaque tour de roue pour calculer
une criticité globale via les méthodes de
cumul de dommage classiques. Un usage
représente un trajet équivalent à une
durée de vie pour la roue dans une situation particulière de l’utilisation du train
(en pratique on définit des usages types
à partir des données globales).
Estimer et maîtriser la marge de sécurité
en fatigue
En ayant la connaissance de la criticité
d’un ensemble d’usages suffisants (plusieurs dizaines) on peut construire une
Cette méthode permet de connaître la
probabilité de rupture de la pièce (Pf)
à partir de l’interaction entre la distribution de « Contrainte » et de « Résistance » (Pf représente la probabilité
que la contrainte soit plus forte que la
résistance). En pratique, la probabilité
souhaitée pour un organe de sécurité est
de l’ordre de 10 -6 à 10 -9. Ainsi, le concepteur de la roue devra adapter la structure
mécanique de la roue pour se rapprocher
au maximum de la valeur cible.
Conclusion et perspectives
La pièce ainsi conçue sera sûre et performante en termes de coût et de respect
de l’environnement. La puissance de la
méthode se base sur une connaissance
forte des usages du train via des essais
en ligne permettant de caractériser les
efforts. Ensuite, l’aspect mathématique
et mécanique mis en place apporte
au concepteur un outil de conception et validation puissant. Ce type de
méthode reste toutefois coûteux en
temps de calcul ; les calculs mécaniques
sont lourds. L’avenir pour ce type de
méthode est de se passer de ces calculs
via des approches couplant le calcul de
critère et les aspects statistiques dans
une méthode dite « multi-entrée ».
Contact :
Clément Roux
[email protected]
Résultat du calcul de Pf sur une roue réelle.
Flash X n°14 - Transports
25
La commande « sans modèle » du trafic autoroutier
Michel FLIESS
Laboratoire d'Informatique de l'École Polytechnique (LIX)
UMR CNRS - EP 7161
Hassane ABOUAISSA
LGI2A Université Lille Nord
Violina IORDANOVA
DRIEA IF/DiRIF/SAR/DIET/UTR
Cédric JOIN
CRAN Université de Nancy
UMR CNRS 7039
O
n propose pour la régulation d’accès autoroutier, système non linéaire complexe,
la nouvelle commande sans
modèle. Plusieurs simulations numériques valident notre approche,
simple à mettre en œuvre et robuste aux
perturbations.
Avec une circulation automobile dense
sur les Voies Rapides Urbaines, VRU en
abrégé, durant les heures de pointe, et
sur les axes autoroutiers pendant les
départs massifs en vacances, la difficulté
de construire aujourd’hui de nouvelles
infrastructures dans les villes et autour,
la régulation du trafic autoroutier
semble la meilleure, sinon la seule, solution pour éliminer, ou du moins atténuer, les congestions.
Citons parmi les actions les plus utilisées :
Les panneaux à messages variables
pour la limitation dynamique de
vitesse, le routage et l’information des
conducteurs.
Le contrôle d’accès, considéré comme
le plus prometteur.
On agit alors sur les débits d’entrées des
bretelles afin de maintenir les densités
du trafic sur la voie principale au-des1
cronyme d’Asservissement LINéaire d’Entrée AutoA
routière.
sous d’une certaine valeur critique.
La littérature sur le trafic routier grossit chaque jour. Plusieurs revues scientifiques s’y consacrent entièrement, ou
presque. Il n’est donc guère surprenant
que de nombreuses variantes de ces
techniques de contrôle aient vu le jour :
L’algorithme Demande/Capacité, ou
DC, introduit il y a près de cinquante
ans et très utilisé aux États-Unis, est
une technique en boucle ouverte, assez
sensible aux perturbations. La stratégie
Taux d’Occupation, analogue, se fonde
sur l’estimation du taux d’occupation du
flux d’entrée.
D’autres études sont plus proches de
l’automatique « habituelle », comme :
- l’algorithme linéaire quadratique et
d’autres techniques d’optimisation ;
-
la stratégie de régulation ALINEA1,
due à Papageourgiou, Haj-Salem et
Blosseville, est exploitée en France et
dans d’autres pays ;
-
la commande par retour d’état, la
commande prédictive, la commande
robuste, et les techniques LMI ;
- les systèmes experts, réseaux de neurones ou commande floue.
À l’exception notable d’ALINEA, basé sur
un modèle linéaire très (trop ?) simplifié,
ces travaux naviguent entre deux écueils,
redoutables, qui obèrent les performances :
L’écriture de modèles mathématiques
précis est une tâche difficile, voire impossible. En raison de la grande échelle
des réseaux autoroutiers, les modèles
macroscopiques actuels sont loin de donner entière satisfaction, car ils peinent à
prendre en compte les comportements
des conducteurs, l’hétérogénéité du trafic, les conditions météorologiques…
Lourdeur et difficulté des calibrages
et/ou des apprentissages.
Cette article introduit une nouvelle
approche, reposant sur la commande « sans
modèle ». Elle fournit une excellente régulation, sans modélisation mathématique ni
calibrage et apprentissage.
Après un bref rappel de la commande
sans modèle, les paragraphes suivants
décrivent respectivement son application
au contrôle d’accès et de multiples simulations numériques, de bon aloi, obtenues
avec des données réelles. La conclusion
trace quelques pistes de réflexion.
Quelques rappels sur la commande sans
modèle
On remplace2 le modèle mathématique,
inconnu, du système, supposé, pour simplifier, monovariable, d’entrée u et de sortie
y, par un modèle « phénoménologique »,
26
le plus souvent du premier ordre, dit ultralocal car valable sur un court laps de temps,
On introduit le correcteur proportionnel intégral intelligent, ou iPI
(1)
(2)
où
- le paramètre constant α, fixé par l’opérateur afin que les valeurs numériques
de αu et ỷ aient même ordre de grandeur, n’a pas a priori de valeur précise ;
- F, qui contient toutes les informations
« structurelles », dépend de toutes les
autres variables du système, y compris
des perturbations, et de leurs dérivées.
L’estimation en temps réel de la valeur
numérique de F, qui permet de réactualiser (1) à chaque instant, est possible selon l’une des deux méthodes
suivantes :
où
- y* est la trajectoire de référence de la
sortie,
- e=y-y* est l’erreur de poursuite,
- Kp , K I sont les gains usuels d’un correcteur PI.
On se ramène ainsi à la stabilisation d’un
intégrateur pur. D’où un réglage immédiat des gains, ce qui tranche avec les
correcteurs PI traditionnels.
Contrôle d’accès autoroutier
Le contrôle d’accès peut être implanté
localement : c’est une commande isolée, indépendante des autres accès, ou
coordonné pour commander plusieurs
rampes simultanément.
Ici, nous nous limitons à un contrôle
isolé, atténuant les congestions.
B. Trafic sans modèle
(1) devient :
(3)
où
- β remplace α,
- la commande r(t), qui vérifie rmin ≤ r ≤ rmax
représente le débit autorisé à entrer sur
la voie principale3.
A. Principes généraux
- l’estimation de la dérivée du signal
bruité y ;
- l’estimation paramétrique, en supposant F constant par morceaux.
Pour améliorer la capacité et la fluidité de
l’autoroute représentée par la figure 1, le
contrôle d’accès vise à maintenir la densité
ρs (en nombre de véhicules/km/voie) sur la
section principale à une valeur inférieure ou
égale à un seuil défini par la densité critique ρer.
Ce contrôle agit, à l’aide de feux de signalisation, sur le débit d’entrée de la rampe
qr, exprimé en nombre de véhicules/h.
D’autres précautions doivent être prises,
comme la prévention d’une file d’attente w,
en nombre de véhicules, débordant sur les
voies adjacentes.
Elle est calculée grâce au correcteur iPI
(2) :
(4)
où
- ρ * est la trajectoire de référence,
- e=ρs-ρ* est l’erreur.
L’expression
où
- le temps, noté k, est discrétisé,
- [ ]e indique une estimée de
fournit
une estimée de F.
•
•
Remarque 2 : Comme avec la plupart
des stratégies mises en pratique, nul
besoin ici de modèles macroscopiques
dont l’écriture, délicate, fait appel à
des équations aux dérivées partielles.
envoyons pour plus de détails à la communication « Rien
R
de plus utile qu’une bonne théorie : la commande sans
modèle », signée par M. Fliess, C. Join, S. Riachy (4es
Journées Doctorales/ Journées Nationales GDR MACS,
Marseille, 2011 – accessible à partir de http://hal-Polytechnique.archives-ouvertes.fr/hal-00581109). On y trouvera
en particulier les références des nombreuses applications
concrètes déjà réussies dans les domaines les plus divers.
3
Si la rampe n’est pas contrôlée, r = 1.
4
Anti-windup, en anglais.
2
Figure 1. Principe du contrôle d’accès autoroutier
Flash X n°14 - Transports
27
ALINEA est un régulateur intégral au
sens classique. L’iPI (4) prend mieux en
compte la complexité du trafic grâce au
terme estimé [F]e.
grâce au modèle ultra-local (3) du premier
ordre. La stabilité ainsi obtenue permet
de ne pas se soucier d’erreurs, comme
celles provenant de l’estimation [F]e de F.
C. Mise en œuvre
3. Les objectifs du boîtier contrôleur sont :
- Estimer F. La cadence assez faible de
l’échantillonnage nous fait préférer un
filtre dérivateur élémentaire pour estimer la dérivée d’un signal bruité.
- Réaliser la dynamique du correcteur
décrit plus haut.
Le schéma 2 de commande comporte,
comme le montre la figure 3, trois principaux éléments :
1. Un générateur de trajectoires afin de relier le
point de départ, connu, à celui d’arrivée, désiré.
On y emploie des méthodes standard d’analyse
numérique, comme les splines, les polynômes de
Bézier…
2. Un correcteur de type (4) assure la
poursuite de la trajectoire désirée ρ*. On
règle très aisément les gains K P et K I
Un dispositif de saturation, comme dans
toute installation industrielle, prévient
des changements trop brutaux de la
commande, dus à de grandes perturbations. On y adjoint, bien entendu, un
dispositif anti-emballement4.
Figure 2. Schéma général entrées-sortie
de la commande
Illustrations numériques
A. Généralités
La photo 4 montre la portion d’autoroute A4Y, dans le sens Paris-province,
étudiée ci-dessous. Nos simulations
utilisent le programme METANET [30],
basé sur un modèle macroscopique du
second ordre. Il y a 4 voies avec une distance entre la station RAD5 et le point
d’insertion de l’accès égale à 406 m.
La distance entre le feu de signalisation,
qui est l’actionneur, et le point d’intersection est de 102 m. La rampe d’accès
est à 2 voies.
Les paramètres utilisés pour les simulations, c’est-à-dire la densité critique,
le paramètre a et la vitesse libre, sont
issus du diagramme fondamental, dit de
May :
Figure 3. Principaux éléments de la commande
Figure 4. Photo du site étudié
28
Le tableau ci-dessous, ou ρmax indique la
densité maximale, à l’arrêt, en donne les
valeurs, obtenues en ligne avec les techniques algébriques de [1].
Le tableau ci-dessous, où ρmax indique la
densité maximale, à l’arrêt, en donne les
valeurs, obtenues en ligne avec les techniques algébriques de [1].
Lors de nos simulations, la durée du cycle
est égale à C = 40 secondes, avec une
durée de feux vert et d’orange de 35
secondes au maximum. La durée minimum
du rouge est donc de 5 secondes, en fonctionnement normal. Ces durées, utilisées
par les exploitants, semblent appropriées
puisqu’elles minimisent les arrêts sur les
rampes. Les usagers avancent constamment dans la file d’attente jusqu’au feu.
Ainsi, les contraintes suivantes sont prises
en compte :
- Durée du cycle : 40 secondes.
- Vert min = 15 secondes (10 secondes de
vert + 5 secondes d’orange),
soit rmin = 0.375.
- Vert max = 35 secondes (30 secondes de
vert + 5 secondes d’orange),
soit rmax = 0.875.
Flash X n°14 - Transports
Notons rcsm la durée du rouge, issue de
notre commande sans modèle :
1. Si rcsm > rmax alors r = 1. Escamotage du
rouge (la durée du vert est égale à celle
du cycle).
2. Si la contrainte de longueur de file
d’attente est activée, alors r = 1 (passage
au vert).
B. Premiers résultats
Les figures 5-(a) et 5-(b), montrent l’évolution des demandes aux origines, section principale et rampe d’accès, entre
5 et 22 heures, afin d’englober l’ensemble des congestions de la journée.
Les mesures sont pauvres et passablement bruitées. Les figures 6-(a) et 6-(b)
montrent l’évolution des densités ainsi
que celle des vitesses, dans le cas sans
29
Figure 7. Signal de commande
commande, et avec la commande sans
modèle.
Durant les heures de pointes, entre 7h30
et 10h30 environ, ainsi qu’entre 15h30 et
20h30, on remarque de fortes congestions, dues à une demande importante.
Alors, la commande sans modèle arrive
à stabiliser la densité autour de la valeur
critique. Elle améliore donc sensiblement le rendement de la section étudiée. La figure 8 montre l’évolution de
la commande r en fonction du temps.
Cette commande implique la formation
d’une file d’attente. On l’évite en fixant
un seuil critique de longueur de la file et
/ ou en implantant un autre régulateur
de file d’attente. Celui-ci délivrerait une
valeur notée r w de commande. La commande finale R serait, alors,
Figure 8 Évolution de la file d’attente
C. Comparaison avec ALINEA
Ci-dessous, dans le tableau de comparaison avec ALINEA, évoqué en début
d'article, TTS et CSM désignent respectivement le temps total passé et notre commande sans modèle. Le gain est éloquent.
Contact :
Michel Fliess
[email protected]
Conclusion
À la différence de la plupart des autres,
notre stratégie, comme souligné en
début d'article et dans la remarque 2,
fait fi d’une description mathématique
aussi complète que possible ; est facile à
régler ; est capable de prendre en compte
les variations, souvent importantes et
brutales, contrairement, semble-t-il, à
ALINEA.
Ces travaux préliminaires, qui aboutissent
à des simulations de qualité, ont tenu
leur promesse. Reprenons une discussion
abordée par ailleurs. Les équations aux
dérivées partielles jouent un rôle important dans maintes études théoriques portant sur une modélisation macroscopique
fine du trafic routier, son comportement
5
Acronyme de Recueil Automatique de Données.
qualitatif et la régulation. Ici aussi, à la
lumière de nos résultats, un contraste
frappant ou, peut-être même, une opposition franche avec notre point de vue se
manifestent. L’avenir tranchera !
Remerciements :
Ce texte est une adaptation d’une communication signée par H. Abouaïssa, M. Fliess, V. Iordanova et C. Join, intitulée « Prolégomènes à une
régulation sans modèle du trafic autoroutier »
(Conférence Méditerranéenne sur l’Ingénierie
Sûre des Systèmes Complexes, MISC 2011, Agadir, 2011 - accessible à partir de http://hal-Polytechnique.archives-ouvertes.fr/hal-00585442).
Le lecteur intéressé y trouvera des références
bibliographiques indispensables. Ce travail,
sous l’égide de la convention d’étude, intitulée
« Application de la commande sans modèle
au contrôle d’accès », entre, d’une part, la
Direction des Routes d’Ile-de-France (DiRIF) et,
d’autre part, l’École Polytechnique, a fait l’objet d’une demande de brevet (n° FR1151604),
déposée le 28 février 2011, par l’École Polytechnique, l’Université Henri Poincaré (Nancy
1), l’Université d’Artois et le Centre National de
la Recherche Scientifique (CNRS).
Flash X n°14 - Transports
31
La recherche opérationnelle, la multi-modalité
et les véhicules en libre service
Vinvent JOST - Dominik KIRCHLER - Ariel WASERHOLE - Leo LIBERTI
Laboratoire d'Informatique de l'École Polytechnique (LIX)
UMR CNRS - EP 7162
L
a recherche opérationnelle (RO)
vise à formaliser le fonctionnement d'un système afin d'en
automatiser et/ou optimiser
les prises de décisions. Le système en question peut être une usine,
un microprocesseur, ou encore un réseau
de distribution de biens matériels. Les
décisions à prendre peuvent concerner
la conception du système, la tarification
des services qu'il permet ou encore la
coordination des actions élémentaires.
Dans le cas d'un réseau de distribution,
il faut, lors de la conception, choisir l'emplacement et la taille des entrepôts de
stockage intermédiaires («Facility location»). Il faudra ensuite regrouper les
commandes dans des véhicules et décider
dans quel ordre les clients seront livrés
(«vehicle routing problem» (VRP)). Un
sous-problème du VRP consiste à trouver
un plus court chemin entre deux points
dans un réseau. Chaque entreprise gère
aussi un flux de biens matériels entre ses
fournisseurs et ses clients, et il convient
de limiter conjointement les coûts de
stockage, de distribution et les risques de
pénurie («Supply chain management»).
Pour des systèmes de grande taille et
sujets à de nombreuses contraintes techniques, il n'est pas rare que des méthodes
de décision automatisées amènent à des
diminutions des coûts opérationnels de
l'ordre de 10% par rapport à ce que les
experts humains proposaient auparavant. On parle ici de coûts annuels allant
de la centaine de milliers à la dizaine de
millions, voire au milliard d'Euros.
Pour arriver à de tels résultats, un long
travail d'analyse du système, de modélisation mathématique, de mise en
place de bases de données et d'outils de
mesures est souvent nécessaire. Il faut
ensuite chercher des algorithmes efficaces pour résoudre les modèles d'optimisation, puis soumettre les solutions
suggérées au jugement des experts techniques, marketing et juridiques, pour
souvent corriger et affiner le modèle
d'origine jusqu'à trouver un consensus.
Une introduction à la recherche opérationnelle et une présentation des principales entreprises françaises utilisant ce
type de méthode est téléchargeable :
http://www.roadef.org/content/roadef/
pdf/LivreBlancRO.pdf
À la recherche du meilleur itinéraire
multi-modal.
Ces dernières années, la recherche en
informatique a permis de déployer des
programmes capables de fournir très rapidement un itinéraire optimisé aux automobilistes. Il est remarquable que l'on soit
aujourd'hui capable de calculer un plus
court chemin entre deux adresses quelconques en Europe, dans un réseau routier
comportant plusieurs millions de routes,
en moins d'un centième de seconde. Les
programmes actuels sont capables de
prendre en compte des informations en
temps réel qui conditionnent les temps
de trajets (accidents, travaux, embouteillages), ainsi que des prévisions horaires
basées sur des observations statistiques.
Les développements les plus récents
tentent même de prendre en compte les
prévisions et influences météorologiques.
Parallèlement, le secteur du transport s'est
massivement développé sur des sites internet afin de fournir aux voyageurs des itinéraires en vélo, voiture, train, bus, métro,
avion et bateau. Cependant, la planification porte-à-porte d'un trajet multi-modal
reste difficile car les sites-web d'opérateurs indépendants restent organisés
indépendamment. Une vue globale est
nécessaire pour fournir une comparaison
rapide de plusieurs modes de transports
ou d'itinéraires multimodaux. De plus, les
critères de comparaison peuvent varier
d'un client à l'autre. Outre le temps de
transport et le prix, le confort, l’émission
de CO2 ou encore l’accessibilité (particulièrement pour les personnes handicapées
ou très chargées) influencent le choix.
Un axe de recherche vise donc à intégrer
l'ensemble des modes de transport dans un
même outil de recherche d'itinéraires. Le
LIX (Laboratoire d'informatique de l'X) en
collaboration avec v-trafic.com, une PME
parisienne spécialisée dans l'information
sur le trafic routier, créent un prototype
de recherche d'itinéraires multimodaux
pour l'Île-de-France, incluant les différents
moyens de transports existants, y-compris
32
Vélib' et Autolib'. Les préférences individuelles concernant l'importance relative
des critères d'optimisation ainsi que le
choix des modes de transports à privilégier
dans la recherche sont considérés.
Une des difficultés concerne la disponibilité de données volumineuses sur les systèmes et réseaux de transport en question.
Les données routières sont largement disponibles gratuitement, grâce aux projets
communautaires comme OpenStreetMap,
qui concerne en outre les pistes et stations
cyclables ainsi que les voies piétonnes. D'un
autre côté, les opérateurs de transports
publics sont encore souvent récalcitrants
à fournir gratuitement les informations
détaillées en temps réel dont ils disposent
sur leur réseau. Espérons que cela change
bientôt, à l'instar des Étas-Unis où la mise
à disposition des informations à l'intention des développeurs et des chercheurs
est devenue la règle plutôt que l'exception. La conséquence est une multitude
d'applications innovantes, principalement
orientées vers l'utilisation sur téléphone
portable, aidant le voyageur à s'orienter
dans un système de transport citadin, en
fonction de sa position, des informations
sur le réseau et configuré en fonction de
ses préférences personnelles.
Vers une tarification structurante des
systèmes de transport en libre service ?
La location courte durée (d'un vélo ou
d'une voiture) avec emprunt et restitution
dans deux lieux différents est en plein
développement. Cette évolution peut être
envisagée comme une mutualisation partielle des moyens de transports individuels.
Elle a pour originalité et pour motivation
de permettre des trajets plus efficaces, en
résolvant partiellement les problèmes de
recherche d'une place de parking et en
permettant une meilleure intermodalité,
en plus des avantages financiers que peut
apporter la location classique à un utilisateur occasionnel.
Flash X n°14 - Transports
La réalité n'est cependant pas si simple. La
disponibilité des véhicules et des places de
parking pour les restituer ne va toujours
pas de soi, particulièrement quand de
nombreux utilisateurs veulent se rendre
dans une même zone urbaine au même
moment (flux et reflux domicile-travail ou
encore sortie dans un centre culturel ou de
loisir les week-ends). Dans le cas des vélos,
les stations ont de plus tendance à être
d'autant plus vides qu'elles sont situées en
hauteur dans la ville. Il est alors intéressant
d'utiliser des camions pour relocaliser les
vélos, donnant lieu du côté théorique à des
problèmes de tournées de véhicules, l'un
des thèmes les plus actifs de la recherche
opérationnelle depuis des décennies.
Pour gérer l'équilibrage des stations, nous
étudions les incitations tarifaires et les
possibilités de réservation. Cela peut permettre de génerer des revenus supplémentaires pour le gestionnaire du parc de
véhicules et des stations, selon la logique
du management de revenu classique dans
les transports aériens et ferroviaires. Il est
moins connu (et moins pratiqué) que le
management du revenu peut aussi être un
outil pour l'utilisation plus efficace des ressources (intégrer les émissions de CO2 dans
le marché vise à inciter les efforts les plus
efficaces en priorité). Dans notre contexte,
chaque vente de trajet ne consiste pas seulement en l'emprunt d'un véhicule pendant
quelques heures, mais aussi à délocaliser
deux ressources: un véhicule dans le sens
du trajet et une place disponible dans le
sens inverse. Cette délocalisation de ressource génère de nouvelles opportunités
d'optimisation. Il est possible, en jouant
sur l’élasticité de la demande par rapport
au prix, d'augmenter le nombre de clients
satisfaits en même temps que le bénéfice
engendré. Un autre critère important de
l'étude, mais qui reste à définir correctement avec des économistes et urbanistes,
concerne l'amélioration globale de la
mobilité. Ces résultats restent théoriques
et préliminaires, et nécessitent d'être réévalués et affinés ville par ville.
Contact :
Vinvent Jost
[email protected]
33
Choc laser : vulnérabilité et durabilité des
structures composites pour l’aéronautique.
Romain ECAULT - Michel BOUSTIE - Fabienne TOUCHARD
Institut PPRIME, Département Physique et Mécanique des Matériaux, CNRS-ENSMA-Université de Poitiers
Laurent BERTHE
Laboratoire Procédés et Ingénierie en Mécanique et Matériaux (CNRS), Arts et Métiers ParisTech
Bastien EHRHART
Fraunhofer Institute for Non-Destructive Test Methods (IZFP)
Clemens BOCKENHEIMER
Airbus Operations GmbH, Department Materials and Processes ESWNG
L
’industrie du transport et le
secteur aéronautique particulièrement sont en mutation au
niveau des choix structuraux
dans la course à la réduction de
masse, à l’amélioration des performances
et à la réduction des espèces polluantes.
Parmi les différents points d’action, nombre
de structures métalliques assemblées
autrefois par rivetage ou boulonnage sont
remplacées par des structures composites
assemblées par collage, conduisant à des
gains de masse significatifs. Cependant, le
collage peut présenter de nombreux problèmes de mise en œuvre, en usine comme
en réparation en cours de vie, car la qualité
du joint peut être affectée par un mauvais
cycle de cuisson, la présence d’un contaminant, etc. [3]. De plus, aucune technique
non-destructive ne permet aujourd’hui
de quantifier la résistance mécanique des
joints de collage. Pour répondre à cette problématique, les acteurs du projet ENCOMB
(Extended Non destructive testing of COMPosites bondings), s’appuyant sur les installations du LULI (Laboratoire d’Utilisation
des Lasers Intenses) de l’École Polytechnique et de l’ILP (Institut Laser et Plasmas)
développent des méthodes qui permettront, d’une part, de caractériser l’état de
surface des matériaux avant collage, et
d’autre part, de certifier la qualité mécanique du joint de collage. L’une d’elle est
le test d’adhérence par choc laser qui permet de solliciter, brièvement et de manière
intense, une interface [4]. Cette technique a
déjà fait ses preuves, sous certaines conditions, pour tester différents niveaux d’adhérence d’assemblages [5], [6]. Cependant,
des études sont encore nécessaires afin
d’optimiser la technique et de maîtriser les
phénomènes physiques complexes qui s’y
rattachent. En particulier, le comportement
dynamique sous choc laser des matériaux
composites doit être compris afin de rendre
la technique industrialisable et adaptable à
n’importe quel type de matériau.
Figure 1 : Schéma de principe du test d’adhérence par choc laser
34
Figure 2 : a) Micrographie d’un échantillon de composite T800/M21, 1,5 mm d’épaisseur, après choc laser.
b) Radiographie X d’un échantillon T800/M21, 1,5 mm d’épaisseur, avec 4 chocs laser de différentes intensités.
c) Mesure par microscopie confocale du relief résiduel en face arrière après choc laser sur un composite T800/M21, 6 mm d’épaisseur, multi-directions (0°, +45°, -45°).
En ce sens, la modélisation numérique
est une étape obligatoire pour définir
les différents paramètres de choc laser
adaptés aux assemblages testés.
La technique de choc laser
La technique de choc laser repose sur
une irradiation d’une surface par une
impulsion laser brève (de l’ordre de la
ns) et très intense (de l’ordre du GW/
cm2) déployée par des installations
telles que celles se trouvant au LULI.
Focalisée sur un matériau, elle sublime
la surface en un plasma intense. Ce
plasma se détend, produisant par réaction une onde de choc dans le matériau.
L’onde se propage ensuite dans l’épaisseur du matériau selon les propriétés
de celui-ci et sa géométrie. Une fois
arrivée en face arrière de l’échantillon,
l’onde de choc incidente se réfléchie en
une onde de détente se propageant en
sens inverse. Cette onde de détente va
alors croiser l’onde de détente incidente
issue de la face avant, et initiée à la fin
du chargement laser (retour à l’état initial). Comme l’impulsion laser est très
brève, la fin du chargement a lieu très
tôt après le départ de l’onde de choc, ce
qui permet aux deux ondes de détente
de se croiser au sein du matériau. Ce
croisement d’ondes de détente conduit
à une sollicitation en traction, locale et
Flash X n°14 - Transports
intense, du matériau (voir Figure 1). Si
elle est suffisamment élevée, cette sollicitation dynamique peut endommager
le matériau, et plus particulièrement
une interface.
Le niveau de contrainte en traction est
directement proportionnel à l’énergie
du faisceau laser envoyé sur cible, et
son positionnement dans l’épaisseur du
matériau dépend de ses propriétés et
des caractéristiques de l’impulsion laser
(durée). Ainsi, en changeant les paramètres laser, l’endommagement peut
être contrôlé. Un VISAR (Velocity Interferometer System for Any Reflector) est
utilisé pour mesurer la vitesse de face
arrière de la cible, dont l’analyse permet
de reconstituer l’histoire de la propagation des ondes, et la création éventuelle
d’un défaut.
Comportement des matériaux composites
sous choc.
Dans le but de caractériser l’endommagement des composites créé par un choc
laser, plusieurs diagnostics post-mortem
ont été utilisés (voir quelques exemples
Figure 2). La microscopie optique, effectuée sur des coupes, a permis de visualiser les fissures et les délaminages issus
de la propagation des ondes dans le
matériau. L’étendue des endommage-
ments a pu être reliée à l’intensité du
chargement laser, et la propagation
des fissures dans les inter-plis a ainsi pu
être expliquée. La radiographie X s’est
révélée efficace pour rendre compte
de l’étendue des défauts dans le plan
orthogonal au chargement, et met en
lumière l’anisotropie des délaminages
(forme ellipsoïdale) malgré le caractère
axisymétrique du chargement (circulaire). Enfin, la microscopie confocale a
été utilisée pour quantifier précisément
les reliefs résiduels en face arrière. L’anisotropie de ces reliefs ainsi que la corrélation entre ces derniers et l’intensité du
chargement laser ont permis d’établir
des abaques fixant le seuil d’endommagement dans les composites étudiés.
Des expériences ont été menées sur des
assemblages collés de différentes qualités afin d’évaluer le potentiel de la technique à discriminer différents niveaux
d’adhérence dans le joint de colle. Sur la
Figure 3, deux assemblages composites
sont présentés. Ils différent uniquement
par la qualité du joint de collage. Avec
les mêmes paramètres laser, on observe
dans le premier cas la tenue du joint
de colle, alors qu’une rupture adhésive
peut être identifiée dans le second.
35
Conclusion et perspectives
Ces résultats sont encourageants quant
au potentiel de la technique. Cependant, celle-ci nécessite une optimisation
des paramètres de la source laser vis-àvis du système à tester afin de conduire
à une localisation des conditions de
traction essentiellement à l’interface
afin d’éviter les ruptures internes de
matériau. Ils confortent, après optimisation des conditions de choc, la possibilité d’un test d’adhérence par choc laser
pour les assemblages collés composites.
Cette étude s’inscrit dans le cadre du
projet européen ENCOMB (Extended
Non destructive testing for COMposite
Bonds FP7/2007-2013 n° 266226, www.
encomb.eu), porté par Airbus et EADS
(France et Allemagne).
Références :
1. S. Markus and C. Tornow. 2011. “Extended
Non-Destructive Testing of Composite Bonds,”
presented at the SAE 2011 Aerotech Congress &
Exposition, October 18, 2011, Toulouse, France.
4. J. Yuan, V. Gupta, 1993 “Measurement of interface strength by the modified laser spallation
technique. I. Experiment and simulation of the
spallation process” J. Appl. Phys.., 74:2388-2397.
2. L-A. Généreux, M. Viens, G. Lebrun 2011.
“Comparison of ultrasonic Testing and Infrared
Thermography for the Detection of Machining
Defects in Composite Materials,” presented at
the 26th ASC Annual Technical Conference,
September 27th, 2011, Montreal, Canada
5. R. Bossi, K. Housen, C. T. Walters, D. Sokol
2009. “Laser Bond Testing” Materials Evaluation, 67:819-827.
3. B. Ehrhart, B.Valeske, R. Ecault, M. Boustie, L.
Berthe, C. Bockenheimer, 2011. “Extended NDT
for the Quality Assessment of Adhesive Bonded
CFRP Structures,” presented at the Smart Material, Structures & NDT in Aerospace Conference,
November 2-4th , 2011, Montreal, Canada.
6. M. Perton, A. Blouin and J-P. Monchalin
2010. “Adhesive bond testing of carbon–
epoxy composites by laser shockwave” J.
Phys. D: Appl. Phys. 44 (2010) 034012.
Contact :
Michel Boustie
[email protected]
Figure 3 : Exemple de deux assemblages collés de différentes qualités soumis au même impact laser
Mise en évidence de la rupture du joint de colle dans le cas d’un échantillon au joint dégradé.
Flash X n°14 - Transports
37
Le titane et ses alliages dans les transports :
atouts et problèmes
Véronique DOQUET
Laboratoire de Mécanique des Solides (LMS)
UMR CNRS - EP - École des Mines ParisTech 7649
A
vec une densité de l’ordre
de 4.6, le titane et ses
alliages sont particulièrement adaptés à la construction de structures légères
(critère important dans les transports,
en vue d’économies de carburant) et
capables de supporter des sollicitations
mécaniques sévères, à des températures
allant du domaine cryogénique (moteur
de la fusée Ariane) jusqu’à 600°C
(disques et aubes des réacteurs d’avion),
sans oublier les applications à température proche de l’ambiante (train d’atterrissage, moyeu et rotor d’hélicoptères).
Grâce à la très fine couche d’oxyde qui
revêt rapidement leur surface, ces matériaux offrent en outre une bonne résistance à la corrosion, notamment marine,
ainsi qu’à l’érosion par des écoulements
turbulents et sont donc aussi employés
en construction navale (coques de sousmarins, notamment). Toutefois, des problèmes de fissuration, voire de rupture
en service de structures en alliages de
titane, avec des conséquences humaines
dramatiques et des pertes économiques
lourdes sont survenus et leur analyse a
mis en évidence une insuffisance des
connaissances sur le comportement
mécanique de ces matériaux, à laquelle
certains travaux menés au LMS se proposent de remédier.
Une propension au fluage « à froid » et
un renforcement mutuel des effets de la
fatigue et du fluage
Alors que dans la plupart des matériaux
métalliques le fluage (déformation pro-
gressive irréversible pouvant conduire à
la rupture, sous l’effet d’une contrainte
pourtant constante) ne se manifeste
qu’à haute température, le titane et certains de ses alliages présentent ce type
de comportement « viscoplastique » dès
Figure 1: éclatement d’aubes et disque de moteur d’avion en alliage de titane
38
Figure 2 : observations de coupes d’échantillons d’alliage de titane biphasé sollicités en fatigue-fluage
a) Image MEB de cavités formées par cisaillement de la phase b
b) image MET montrant les dislocations à l’origine de ce cisaillement
c) microfissure formée par coalescence de ces cavités
la température ambiante. Ce fluage « à
froid» tend, paradoxalement, à disparaître au dessus de 150 à 200°C, pour ne
réapparaître, de façon plus conventionnelle, qu’au dessus de 500°C !
Or, les disques tournants auxquels sont
fixées les aubes des turbines aéronautiques subissent, au cours d’un vol,
des sollicitations mécaniques évoluant
avec le régime du moteur : montée en
charge lors du décollage suivie d’un
palier lors du vol de croisière et d’un
relâchement des efforts à l’atterrissage. Pour se prémunir contre des éclatements en vol comme celui illustré en
figure 1 plusieurs difficultés doivent
être surmontées.
Tout d’abord le risque d’un endommagement par « fatigue » (processus d’amorçage et de propagation de fissures sous
l’effet de chargements modérés, inoffensifs isolément mais qui, subis de façon
répétée, peuvent entraîner la rupture)
lié aux cycles de charge-décharge doit
être pris en compte dans leur dimensionnement. Ensuite, le maintien sous forte
charge lors des vols de croisière induit
un risque de fluage qui doit également
être anticipé, même (ou surtout) à basse
température.
Mais la difficulté majeure réside dans
le renforcement mutuel des risques liés
à la fatigue et au fluage. Un temps de
maintien à contrainte maximale lors
de cycles de charge-décharge à la température ambiante réduit en effet le
nombre de cycles que peut supporter le
matériau avant de rompre par rapport à
un chargement de fatigue simple. Réciproquement, le temps total de maintien
à la contrainte maximale qui conduit
à la rupture est moindre qu’en fluage
pur (c'est-à-dire sans les phases de
charge-décharge). Or il n’existe actuellement aucun modèle capable de rendre
compte de façon satisfaisante de ce
cumul non-linéaire des deux processus
d’endommagement.
Figure 3 : Modèle micromécanique de la formation des cavités dans un alliage de titane biphasé.
a) configuration étudiée b) effets comparés de trois types de chargements.
c) effet de l’amplitude de la contrainte
Flash X n°14 - Transports
Une thèse financée par Snecma et menée
en collaboration entre le LMS (Laboratoire de Mécanique des Solides de l’École
Polytechnique) et le LMPM de l’ENSMA
a permis de mieux en comprendre les
mécanismes et de les modéliser. Comme
39
nombre d’alliages de titane, le matériau
étudié était constitué principalement
d’une phase de structure hexagonale compacte, aisément déformable (phase α) et
d’une phase plus dure, cubique centrée
(phase β). Des observations au microscope électronique à balayage (MEB) et
à transmission (MET) d’échantillons sollicités par des cycles charge-décharge ou
charge-maintien-décharge ont montré
que des fissures se forment par coalescence de micro-cavités dues à la rupture
de la phase « dure » β, sous l’effet d’un
cisaillement intense et localisé (figure 2).
Ce cisaillement est dû au glissement sur
un plan cristallin spécifique de « dislocations » (défauts dans un cristal dont le
déplacement sous l’effet de contraintes
entraîne une déformation « plastique »
c’est-à-dire irréversible) nées de « sources »
situées dans la phase « molle » α. Le fluage
lors des temps de maintien fait grossir ces
cavités et les cycles de fatigue permettent
à la fissure formée par leur coalescence
de se développer jusqu’à entraîner la rupture. Des simulations de l’émission de ces
dislocations par une source, de leur glissement alterné dans la phase α sous l’effet
de contraintes cycliques et de la rupture
de la phase β, qui y fait obstacle jusqu’à
ce qu’un nombre suffisant de ces défauts
s’y empile (figure 3a) ont permis de rendre
compte de l’effet nocif des temps de maintien (figure 3b), de l’existence d’une amplitude minimale de contrainte pour former
ces cavités (figure 3c) et de l’influence des
paramètres morphologiques de la micros-
tructure biphasée.
Le fait que les disques de moteur en rotation subissent, outre des efforts radiaux
liés à la force centrifuge, une tension tangentielle liée à la contraction latérale de
la matière, contrariée par le reste de la
structure (figure 4a), pouvait constituer
un facteur aggravant, non pris en compte
dans un dimensionnement basé sur des
essais mécaniques en tension simple.
Le LMS ayant acquis, grâce à un financement conjoint de l’École Polytechnique,
de l’ENSTA, du CNRS et de la Région Îlede-France une machine d’essai triaxiale
permettant de solliciter des échantillons tubulaires en traction-compression,
torsion et pression interne, ceci nous a
permis d’explorer l’effet d’un tel chargement. La combinaison d’un effort de
traction et d’une pression interne reproduit en effet dans un échantillon tubulaire l’état de contrainte existant dans
les disques de moteur en rotation (figure
4b). Le caractère biaxial du chargement
s’est, paradoxalement, avéré bénéfique
en fatigue pure, mais il semble bien avoir
un effet aggravant en fatigue-fluage, en
favorisant la croissance des microcavités
à l’origine des fissures.
Une tendance à la « rupture différée »
même en environnement neutre
En construction navale, nombreuses sont
les structures en titane assemblées par
soudage, procédé qui laisse subsister
des contraintes dans le matériau. Si ces
contraintes résiduelles ne sont pas relaxées
par un traitement thermique approprié,
elles peuvent causer, dans le titane et ses
alliages, une propagation lente de fissures
alors que l’intensité du chargement à leur
pointe (évaluée par le « facteur d’intensité des contraintes ») est très inférieure à
l’intensité critique (la « ténacité » du matériau) pour laquelle une fissure sollicitée
par un chargement croissant s’y propage
soudainement. Ces matériaux contiennent
généralement une faible quantité d’hydrogène (quelques ppm pour le titane
non allié et jusqu’à 180 ppm dans certains
alliages) et selon la teneur en cet élément,
la susceptibilité du matériau à ce mode
de fissuration change très fortement, et
de façon non monotone, sans que l’on en
comprenne bien la cause.
Des essais de fissuration menés au LMS
ont mis en évidence une sur-concentration en hydrogène en pointe de fissure.
La forte tension qui y règne favorise en
effet l’afflux par diffusion de cette espèce
très mobile même à l’ambiante, ainsi que
le piégeage et le transport de ces atomes
par les dislocations en mouvement, nombreuses en pointe de fissure. Le LMS
disposant de mini-machines d’essai mécanique fonctionnant dans la chambre d’un
microscope électronique à balayage, des
essais de fissuration menés in situ ont en
outre mis en évidence le rôle du « fluage
à froid » responsable, comme l’illustre la
figure 5 d’un accroissement de l’ouverture
d’une fissure, pourtant maintenue sous un
Figure 4 : a) Sollicitation dans un disque de moteur en rotation b) essais de fatigue-fluage en traction + pression reproduisant cet état de contrainte sur
des échantillons tubulaires avec c) un suivi des déformations axiale et diamétrale
40
Figure 5 : Essai de fissuration lente sous MEB mettant en évidence le fluage en pointe de fissure a) b) images prises avant et après 2 minutes de maintien sous un
chargement ne représentant que 80% de la ténacité. c) accroissement par fluage de la déformation mesurée par corrélation des images, dans la zone encadrée
chargement constant, puis de son avancée.
Or, des essais de fluage sur l’alliage brut,
dopé ou appauvri en hydrogène ont montré que ces changements de composition
en modifient substantiellement l’intensité,
les atomes d’hydrogène accroissant ou
réduisant, selon les conditions, la mobilité
des dislocations dont le mouvement est au
contraire toujours entravé par les atomes
d’oxygène également présents dans le
métal. Des variations infimes (quelques
dizaines de ppm) dans la composition
chimique d’une zone des quelques dizaines
de microns autour de la pointe d’une fissure contrôleraient donc la résistance à la
fissuration du matériau et indirectement la
flottabilité de sous-marins…
Un comportement viscoplastique influencé
par les teneurs en oxygène et hydrogène.
Pour clarifier ces effets, le projet ANR Fluti
porté par le LMS, en collaboration avec
le Laboratoire des Solides Irradiés (LSI) de
l’École Polytechnique, le Centre des Matériaux de l’École des Mines et l’Institut de
Chimie des Matériaux de Paris Est s’attache
donc à étudier l’influence des teneurs en
oxygène et hydrogène sur le comportement, l’endommagement et la fissuration
du titane. Après divers traitements thermiques destinés à faire varier ces teneurs,
le comportement viscoplastique du matériau est étudié à plusieurs échelles.
À l’échelle macroscopique, des essais de
fluage, relaxation, traction avec de brusques
sauts de la vitesse de déformation (Figure
6) permettent de caractériser l’impact des
Flash X n°14 - Transports
changements de composition sur le comportement viscoplastique et d’identifier
une loi de comportement (nécessairement
anisotrope compte tenu des réponses
différentes observées selon le sens de
sollicitation par rapport à la direction de
laminage) qui en rende compte. La loi de
comportement ainsi identifiée permettra d’analyser les champs de contrainte et
déformation en pointe de fissure, dans
des conditions de propagation lente, en
tenant compte de l’afflux d’hydrogène
vers la pointe et de ses conséquences sur le
comportement local.
À l’échelle mésoscopique (quelques dizaines
à quelques centaines de microns), des essais
mécaniques couplés à une observation
en temps réel des micro-mécanismes de
déformation et d’endommagement seront
menés sous le microscope électronique
41
Figure 6 : comportement visqueux anisotrope du titane contenant 8ppm d’hydrogène et 1600ppm d’oxygène en traction parallèlement
ou normalement à l’axe de laminage, avec des sauts de vitesse de déformation
à balayage et accompagnés de mesures
des champs de déformation par corrélation d’images numériques à l’échelle de
quelques cristaux dont l’orientation sera
préalablement déterminée par diffraction
d’électrons rétrodiffusés (technique EBSD).
On identifiera ainsi les modes de déformation (plans et directions privilégiés de glissement des dislocations) activés selon la
composition chimique, ainsi que l’impact
de ce paramètre sur le degré d’hétérogénéité de la déformation plastique, qui
contrôle l’apparition de l’endommagement. Ces essais alimenteront un modèle
micromécanique du comportement déduisant la réponse macroscopique du matériau polycristallin de celle de chacun de ses
cristaux.
À l’échelle microscopique (quelques
microns), des essais de traction sur des
lames amincies de métal dans un microscope électronique à transmission permettront une observation dynamique directe
du glissement des dislocations sous
contrainte et d’étudier l’impact des changements de composition sur ses caractéristiques (longueurs de saut, déviations,
dissociations, etc).
À l’échelle nanoscopique, enfin, des simulations atomistiques « ab-initio » (résolution,
moyennant certaines approximations, de
l’équation de Schrödinger pour calculer
les énergies de diverses configurations
d’atomes, en prenant en compte leur structure électronique externe) du « cœur » des
dislocations (zone du cristal où l’arrange-
ment des atomes est le plus perturbé) dans
le titane en présence d’atomes d’hydrogène et/ou d’oxygène sont entreprises
au LSI afin d’analyser les changements de
comportement viscoplastiques induits par
ces espèces.
Grâce à ce projet et aux connaissances
nouvelles qu’il permettra d’acquérir, nous
espérons parvenir à identifier des compositions chimiques minimisant la propension
au fluage à froid et à la rupture différée
des alliages de titane.
Contact :
Véronique Doquet
[email protected]
Flash X n°14 - Transports
43
Le calcul scientifique dans les industries
des transports - expérience d’une spin-off de l’X
Toufic ABBOUD
Ingénierie MAthématique et Calcul Scientifique (IMACS)
I
l y a quelques décennies, la simulation numérique était essentiellement cantonnée aux laboratoires
académiques et à quelques industries liées à la Défense, l’aéronautique et l’espace. Avec le développement
et les progrès effectués dans les différentes disciplines scientifiques impliquées d’une part et l’amélioration
constante de la puissance des ordinateurs et la démocratisation des moyens
de calcul d’autre part, toutes les industries à forte valeur ajoutée font appel
aujourd’hui quasi-systématiquement à
la modélisation et à la simulation numérique dans leurs méthodes de conception. Les industries des transports font
partie des pionniers dans le domaine. La
simulation y est utilisée dans deux buts
: optimiser un concept existant pour en
améliorer les performances et réduire
les marges, et rechercher l’innovation
technologique en permettant de tester
virtuellement beaucoup de nouveaux
concepts. Avec le raccourcissement des
cycles de développement et la contrainte
de faire juste du premier coup, la maîtrise de la « maquette virtuelle » pour
simuler correctement ce que l’on conçoit
devient un facteur important de différentiation sur le marché.
Cette révolution en marche tend à modifier l’organisation des entreprises et le
métier d’ingénieur. Mais on est loin du
tout « virtuel » et, si la simulation est
régulièrement utilisée dans les industries
des transports, elle ne l’est pas assez. Ceci
est dû à plusieurs difficultés que nous
n’analysons pas ici. Signalons simplement
le délai important entre une découverte
dans un laboratoire de recherche et son
utilisation dans le cycle de conception :
c’est l’étape de transfert, d’industrialisation, d’optimisation et d’intégration
dans les chaînes de calcul. Lorsqu’elle est
sous-estimée, cela conduit à un retard
important dans l’utilisation des travaux
de recherche et il en résulte un coût global plus élevé. Ce délai peut être réduit en
développant les structures de transfert et
la création d’entreprises innovantes. C’est
l’axe développé dans cet article au travers
de deux exemples.
Le Centre de Mathématiques Appliquées de
l’École Polytechnique (CMAP) a une longue
tradition de collaboration avec l’industrie
qui a conduit à la création de plusieurs spinoffs. IMACS (Ingénierie MAthématique et
Calcul Scientifique ) est l’une de ces startups,
installée dans la pépinière de l’École X-Technologies. Elle travaille depuis plus de quinze
ans dans le domaine de la modélisation et
Le maillage de surface utilisé par la méthode intégrale pour le calcul du rayonnement acoustique du
moteur n’est pas disponible dans le modèle CAO. Dans cet exemple, le maillage acoustique (à droite)
est construit plus ou moins automatiquement à partir d’une enveloppe du modèle structure (à gauche).
44
et d’aboutir à une maquette logicielle
implémentant un schéma stable et précis. Dans une deuxième phase, grâce à
des collaborations fructueuses avec des
experts industriels autour de cas tests,
nous en avons appris un peu plus sur
les problèmes pratiques que ce schéma
numérique peut contribuer à résoudre.
C’est l’étape longue et difficile de l’industrialisation de la première maquette.
Nous avons ainsi été amenés à élargir
notre spectre : chaînes de calcul, lien
CAO-Calcul, formats d’échange, calcul
parallèle…
Simulation du bruit de roulement : calcul d’une fonction de transfert temporelle pneu avant gauche.
du calcul scientifique et sert des clients
dans divers secteurs industriels notamment l’automobile, l’aéronautique et
l’espace. Sept anciens doctorants du
CMAP ont travaillé à IMACS.
Méthode des équations intégrales
La méthode des équations intégrales
est un outil mathématique très puissant dans l’étude de certaines équations de la physique. L’applicabilité de
cette méthode à la modélisation de la
propagation d’ondes électromagnétiques ou acoustiques dans le domaine
temporel est restée longtemps un défi
scientifique et technique. La littérature
est riche d’articles essayant (vainement)
de résoudre les problèmes de stabilité
des schémas numériques qui découlent
de la discrétisation de telles équations.
En s’appuyant sur des recherches effectuées au CMAP sous la direction de JeanClaude Nédélec, IMACS a été la première
entreprise à développer et proposer une
solution robuste : le logiciel SONATE©
utilisé dans l’industrie pour les simulations temporelles en vibro-acoustique.
Ce transfert a démarré par deux thèses à
IMACS en lien avec le CMAP, qui ont permis de clarifier le cadre mathématique
Suite au succès de SONATE© dans les
applications automobiles (PSA PeugeotCitroën, Renault), un partenariat a été
signé avec LMS International, leader
mondial des logiciels pour l’acoustique.
SONATE© est aujourd’hui intégré dans la
plateforme LMS Virtual.Lab® (sur base
CATIA V) et distribué mondialement par
LMS Intl.
De plus, IMACS collabore avec EADS Innovation Works, dans le cadre d’un fort partenariat, sur la méthode des équations
intégrales, les solveurs rapides associés
(FMM, H-matrices…) et les couplages avec
d’autres méthodes numériques (FEM,
DGM, TLM, rayons, macro-modeling…)
avec beaucoup d’applications dans
les domaines de l’aéronautique et de
l’espace : calcul de surface équivalente
radar (SER) pour les applications Défense,
compatibilité électromagnétique et couplage avec des modèles d’équipements,
analyse des effets indirects de la foudre
sur les aéronefs en composite, positionnement des antennes sur aéronef, acoustique des nacelles…
Les bases mathématiques de ces méthodes
sont enseignées dans un cours master de
l’École animé par Isabelle Terrasse (enseignement d’approfondissement MAP572,
suite au cours MAP558) et approfondies dans un cours de master 2 (AN-EDP,
X-Paris VI).
Simulation du bruit du générateur auxiliaire de puissance : calcul de fonction de transfert temporelle.
Flash X n°14 - Transports
45
Traitement acoustique des nacelles des
turboréacteurs
Ce deuxième exemple traite d’une collaboration réussie d’IMACS avec un
centre de recherche industriel, EADS
Innovation Works, et un industriel
des transports Airbus Operations SAS.
Une technique de décomposition de
domaine a été appliquée avec succès
à la modélisation de l’impédance de
traitements acoustiques innovants des
nacelles, en vue de la réduction du bruit
des moteurs des turboréacteurs. Airbus
Operations SAS est très impliquée dans
le développement de technologies de
réduction de bruit, en particulier les
traitements acoustiques capables de
réduire le niveau de bruit perçu de 4
à 5 EPNdB au décollage et 2 EPNdB en
phase d’approche. Grâce aux similarités de leurs bases mathématiques, les
logiciels développés à l’origine pour
l’électromagnétisme comme le solveur
FMM, ont été transférés rapidement
et avec succès à l’acoustique. Ces logiciels sont utilisés par Airbus Operations
SAS pour prédire la propagation de
bruit et le rayonnement des moteurs.
La réduction de bruit est réalisée au
moyen de traitements passifs (liners en
anglais), qui peuvent être caractérisés
d’un point de vue numérique (à l’échelle
de la nacelle, voire de l’avion) par une
condition aux limites équivalente de
type impédance. Airbus Operations SAS
a développé des modèles analytiques et
des techniques de mesure pour aider à
développer et optimiser ces traitements
dans certaines conditions standard où
la description fine de la géométrie n’est
pas nécessaire. Dans l’objectif d’optimiser les traitements existants et d’étudier
de nouveaux concepts innovants, une
modélisation numérique précise s’est
avérée nécessaire.
Un projet de recherche a été lancé en
2004 par Airbus en proche collaboration
avec EADS Innovation Works et IMACS
dans l’objectif de mettre au point un outil
de simulation robuste et précis pour la
prédiction de l’impédance des liners. Le
Modèle de traitement acoustique des nacelles avec les différentes échelles en jeu : nacelle (mètre),
période du nid d’abeille (centimètre), perforation (millimètre), pas de maillage (dizaine de microns).
projet était financé par Airbus et EADS.
Une équipe pluridisciplinaire a été le facteur clé du succès : un processus itératif
de comparaison avec les résultats expérimentaux et analytiques a permis de
mettre au point et d’améliorer au fur et
à mesure le modèle numérique, compte
tenu des difficultés scientifiques rencontrées au cours du projet, bien supérieures
à celles initialement envisagées.
L’impédance est obtenue après calcul
des coefficients de réflexion d’un réseau
infini bi-périodique constitué d’une
couche en nid d’abeille et d’une couche
résistive en tôle perforée. Le but est de
caractériser le traitement en régime
linéaire puis non-linéaire, avec ou sans
écoulement. Le résultat est obtenu par
une technique de décomposition de
domaine, multi-physique, multi-échelle
et multi-méthode. L’absorption du bruit
est due à la viscosité ainsi qu’aux effets
non-linéaires au voisinage des perforations de la couche résistive. Les équations
de Navier-Stokes non-linéaires sont résolues dans un domaine « trou étendu »
générique en vue de la construction
d’une base de données d’opérateurs
d’impédance. Cette base peut être
réduite avec une bonne approximation.
Un modèle axisymétrique est proposé
pour accélérer les calculs. Cette base est
utilisée pour le couplage avec les équations de l’acoustique linéarisées dans les
alvéoles et le domaine extérieur.
Contact :
Toufic Abboud
[email protected]
http://imacs.Polytechnique.fr/
Flash X n°14 - Transports
47
Comprendre et réduire
le bruit en aéronautique
Miguel FOSAS DE PANDO - Xavier GARNAUD - Lutz LESSHAFFT
Laboratoire d'Hydrodynamique de l'École Polytechnique (LadHyX)
UMR CNRS - EP 7646
L
e transport aérien est devenu
depuis longtemps un élément
essentiel à notre mode de vie.
La possibilité de voyager à travers le monde dans la journée,
en comparaison des 80 jours qu'il a fallu
à Phileas Fogg il y a 140 ans, a eu un
impact énorme sur la société moderne.
Que ce soit pour se déplacer, pour le commerce mondial ou pour pouvoir importer
des fruits de Nouvelle Zélande, il est nécessaire d'avoir une importante capacité de
transport aérien. D’après les projections,
ce dernier devrait encore se développer
dans les décennies a venir. Après la pollution, le plus gros impact négatif du
trafic aérien vient des nuisances sonores
à proximité des aéroports. Ces nuisances
ont non seulement un impact sur la qualité de vie des riverains mais aussi sur leur
santé. Alors que des capacités aéroportuaires importantes sont souvent nécessaires au développement économique
régional, les projets de constructions ou
d'agrandissement d'aéroport suscitent
souvent de fortes protestations (en mars
2012, plusieurs milliers de manifestants
ont protesté à Nantes, un chiffre similaire
à ceux des rassemblements à Berlin et
Francfort). Afin de permettre l'augmentation du trafic, les émissions sonores
doivent être significativement réduites.
Le projet européen ACARE a fixé comme
objectif de réduire les émissions de bruit
d'un facteur deux entre 2000 et 2020. La
NASA a formulé des projets similaires.
Deux des principales contributions au bruit
d'un avion sont les jets issus des réacteurs
et l'écoulement autour des ailes. Le bruit
de jet est dominant lors des phases de
décollage et de montée initiale, lorsque
les moteurs sont utilisés à pleine puissance.
Lors de l'approche finale, c'est l'aile en
configuration d’atterrissage qui est particulièrement bruyante. Au LadHyX (Laboratoire d’Hydrodynamique de l’X) , nous
étudions ces deux types d'écoulement de
façon à identifier des stratégies de contrôle
pour réduire ces émissions de bruit.
ou le nombre de Mach ; de petites perturbations à ces fréquences sont amplifiées
en même temps qu'elles sont advectées
par l'écoulement moyen, et mènent à la
formation de tourbillons responsable du
rayonnement acoustique. En pratique, il
est impossible de contrôler l'écoulement
là où le bruit est émis dans la mesure où
l'on ne peut placer des actuateurs au
milieu de l'écoulement. Le contrôle doit
être effectué en fin de tuyère de manière
à influencer le développement des structures plus en aval.
À la fois les jets et les écoulements autour
de profils sont fortement turbulents.
Une première contribution aux émissions
sonores vient des structures turbulentes,
de petite taille et à l'évolution quasistochastique. Les grandes structures cohérentes, souvent plus bruyantes, ont une
dynamique qui peut être étudiée dans le
cadre de la théorie de la stabilité hydrodynamique. Le LadHyX a une longue
tradition et une grande expertise dans
ce domaine, et nous étudions les instabilités de jet et le bruit associé depuis près
de 10 ans.
Nos études visent à proposer une description conceptuelle des mécanismes
physiques responsables de la formation
de tourbillons et de l'émission sonore.
Par le passé, nous avons montré que des
oscillations intrinsèques se développent
dans les jets chauds, menant à la formation d'anneaux tourbillonnaires dont la
fréquence est naturellement fixée par
l'écoulement. Ce phénomène est proche
de l'allée tourbillonnaire de BénardKármán qui se développe dans le sillage d'un
cylindre. Il a été montré que ce comportement est dû à une instabilité absolue
du jet chaud, ce qui permet une prédiction analytique de la fréquence de formation des tourbillons. Ces tourbillons
mélangent l'air chaud du jet avec l'air
froid ambiant, ce qui crée un rayonnement acoustique dipolaire.
Bruit de jet
Nous nous intéressons au développement
d'instabilités sur des écoulements turbulents statistiquement stationnaires. Un
jet est instable pour certaines fréquences,
qui dépendent de paramètres de l'écoulement tels que le nombre de Reynolds
48
Plus récemment, nous avons étendu ce
type d'étude à des configurations où la
formation de tourbillons est due à des
perturbations extérieures. L'analyse permettant de prédire comment les mécanismes d'instabilité amplifient de petites
perturbations en fonction de leur fréquence est basée sur le calcul de valeurs
singulières de l'équation de NavierStokes
linéarisée. Ce formalisme nous permet
de prédire la forme et la fréquence des
perturbations entraînant le plus fort
rayonnement acoustique. Nos études ont
montré que les fréquences caractérisées
par un nombre de Strouhal ( nombre sans
dimension décrivant les mécanismes de
circulation oscillante ) de l'ordre de 0.4
sont dominantes pour un jet typique, et
que l'émission sonore associée se fait principalement à un angle d'environ 30° de
l'axe du jet. Ces résultats correspondent
à ce qui est généralement observé lors
d'expériences. Nos études permettent
d'étudier les mécanismes physiques responsables de ce comportement, ce qui
permettra de manipuler l'écoulement de
manière à réduire le bruit de jet.
Bruit de profil
L'écoulement autour d'un profil génère
du son dans de nombreuses situations, par
exemple lorsqu'une pale de rotor d'hélicoptère rencontre le tourbillon généré
par la pale précédente. Une aile placée
dans un écoulement uniforme est aussi la
source d'un bruit important issu de l'interaction entre les tourbillons présent dans
la couche limite et la surface du profil :
c'est à cette situation que nous nous intéressons au LadHyX.
Des expériences menées à des nombres
de Reynolds modérés ont mis en évidence
que le spectre du rayonnement acoustique
est dominé par un ensemble discret de fréquences fortement reliées aux instabilités
se développant dans la couche limite sur
l'intrados de l'aile. Cependant de nombreux aspects du processus d'émission de
son restent incompris.
Nous effectuons des simulations numériques directes en prenant en compte la
compressibilité de l'air (figure 1).
Ces simulations présentent les mêmes
caractéristiques que les études menées
en souffleries, en particulier concernant
le spectre de l'émission acoustique. A
partir de ces simulations , nous avons
pu mener des analyses mettant en évidence que la fréquence dominante correspond à celle du mode le moins stable
de l'équation de NavierStokes linéarisée. Ce mode et le mode adjoint associé
permettent à leur tour de déterminer la
réceptivité de l'écoulement à des perturbations extérieures et sa sensibilité à des
changements de l'écoulement moyen.
Nous avons montré que la sensibilité est
plus forte sur l'intrados, ce qui signifie
que le mécanisme de génération de son
peut être aisément influencé en agissant
sur l'écoulement dans cette région. Ce
type d'analyse sera utilisé dans le futur
pour déterminer le placement optimal
des capteurs et des actuateurs utilisés
pour le contrôle.
Contact :
Lutz Lesshafft
[email protected]
Figure 1 : Simulation numérique directe d’un écoulement autour d’un profil.
À gauche : vorti-cité, détail du bord aval.
À droite : rayonnement acoustique (dilatation) en champ lointain.
Flash X n°14 - Transports
49
Les effets transitoires des rafales de vent :
de l’aile d’avion aux ponts haubannés
Pascal HÉMON
Laboratoire d'Hydrodynamique de l'École Polytechnique (LadHyX)
UMR CNRS - EP 7646
Ainsi nous avons découvert puis mis en évidence expérimentalement un mécanisme
appelé croissance transitoire de l’énergie
qui était resté inaperçu jusqu’alors dans la
communauté.
Ce phénomène peut se produire à l’issue
d’une perturbation dans la vitesse de
l’écoulement, comme par exemple une
rafale de vent. Cette rafale transmet une
certaine quantité d’énergie à la structure qui la dissipe en oscillant. A priori
puisque la structure est bien conçue (elle
est stable du point de vue du flottement),
les oscillations s’amortissent rapidement
et l’énergie mécanique devrait décroître.
Mais c’est sans compter sur le phénomène de croissance transitoire de l’énergie : il arrive dans certaines conditions
que l’énergie commence d’abord par
augmenter pendant quelques secondes,
et les oscillations avec elle, avant de dimi-
nuer puis de s’atténuer complètement. Si
le phénomène n’est pas dommageable
à court terme, ce n’est pas obligatoirement le cas pour la fatigue à long terme.
En 2006/2007 nous avions quantifié en
soufflerie et modélisé par calcul ce mécanisme sur un profil d’aile dans le cadre
d’un contrat de partenariat avec Airbus.
Mais un profil d’aile d’avion est une
structure aérodynamique simple. Tandis
que dans le domaine du génie civil, les
formes d’ouvrage sont nettement plus
compliquées, la fonction aérodynamique
n’étant pas leur objectif premier. Dans la
thèse de Shehryar Manzoor soutenue en
© Coll. EP /Ph. Lavialle
L
’hôtesse vient à peine de servir le café que le commandant
de bord annonce une zone de
turbulence. Tous les passagers
rattachent leur ceinture et se
saisissent de leur tasse, concentrés au
maximum pour éviter les débordements
de liquide. Qui, au cours d’un trajet, n’a
pas déjà vécu un scénario analogue ?
Car les avions traversent régulièrement
des zones d’atmosphère perturbée qui
déclenchent des tremblements de la
structure. Pour les voilures, cela se traduit par des oscillations de l’aile qui la
font fléchir et se tordre. On parle ainsi de
flexion-torsion. Le calcul du mouvement
de la structure à la suite d’une excitation
transitoire par la turbulence atmosphérique relève du domaine des interactions
fluide-structure, et plus précisément de
l’aéroélasticité. Il s’agit en effet de calculer le comportement de structures
souples en présence d’un écoulement
d’air et éventuellement de ses perturbations. Plusieurs types d’instabilités
peuvent se produire : les flottements qui
conduisent généralement à destruction,
à l’instar du pont de Tacoma, ou bien des
instabilités transitoires à durée de vie
courte. Leur étude est l’une des spécialités du LadHyX depuis plusieurs années.
Vue de la soufflerie du LadHyX conçue pour les essais aéroélastiques.
50
Figure 1 : Mise en évidence en soufflerie d’une croissance transitoire
de l’énergie sur un tablier de pont de type Millau.
2010, nous avons étudié la croissance transitoire de l’énergie sur un tablier de pont
de forme semblable au viaduc de Millau.
Pour cela nous avons produit en soufflerie
un écoulement d’air de vitesse moyenne
auquel nous avons superposé une rafale
de vent unique à l’aide d’un volet placé
en amont et brutalement tourné de 180°
(figure 2). La rafale se traduit par une survitesse de la composante longitudinale u
conjointement à une double impulsion,
positive puis négative, sur la composante
verticale w (figure 3). Cette perturbation
est semblable à une rafale turbulente
naturelle ramenée à l’échelle de la soufflerie. Elle transmet à la structure une
énergie initiale E0 qui sert de référence
et sur laquelle se mesure l’amplification.
Mais l’enjeu réside surtout dans la modélisation du phénomène afin d’enrichir les
modèles de calcul employés par l’industrie. Or autant un profil d’aile d’avion
peut raisonnablement se calculer à l’aide
de modèles standards, autant un tablier
de pont, même profilé comme celui de
Millau, reste difficile à appréhender par
le calcul.
En se basant sur les résultats expérimentaux obtenus par Shehryar Manzoor,
nous avons pu avec Xavier Amandolèse
adapter et comparer différents modèles
théoriques. L’une des particularités a
été l’utilisation de modèles temporels
directs, dans lesquels on calcule directement le comportement de la structure en
fonction du temps. Or ce type de calcul
reste encore peu utilisé en pratique dans
la mesure où jusqu’à présent seul le comportement à long terme de la structure
était recherché. Mais dans le cadre d’une
étude transitoire, l’usage d’un modèle
en temps s’impose de lui-même. De plus,
pour le génie civil, il existe une tendance
grandissante des bureaux d’études industriels à privilégier les calculs temporels car
ils permettent de combiner facilement
plusieurs cas de charge sur les structures
et également de prendre en compte
les non-linéarités des matériaux ou des
assemblages, par exemple pour les câbles.
Des deux principaux modèles testés par
comparaison avec les résultats de soufflerie (figure 4), un seul permet de capter la
physique liée à la croissance transitoire de
l’énergie. Il nécessite la modélisation de
la rafale de vent mais les calculs montrent
que seule la double impulsion de vitesse
verticale joue un rôle dans le mécanisme.
Nous avons pu ainsi construire un modèle
relativement simple réduit aux ingrédients
Figure 2 : Schéma de l‘expérience de soufflerie sur un tablier de pont souple en flexion-torsion z(t)-α(t).
La photo montre l’intérieur de la soufflerie vue depuis l’amont, le volet au premier plan en bas et la maquette de tablier au fond.
Flash X n°14 - Transports
51
Figure 3 : Perturbation de la vitesse du vent par l’action du volet mesuré en soufflerie.
strictement nécessaires pour représenter le
phénomène. Mais ce modèle plutôt dédié
aux phénomènes à court terme ne capte
pas correctement les instabilités à long
terme susceptibles de détruire l’ouvrage.
Dans l’étude globale d’un ouvrage il faut
donc toujours employer le modèle classique
dit « long terme » et compléter l’étude en
transitoire avec le modèle spécifique.
Évidemment les structures étudiées sont
restées suffisamment simples pour pouvoir être reproduites expérimentalement
en soufflerie. Néanmoins la connaissance
acquise sur la modélisation temporelle des
phénomènes aéroélastiques transitoires
est importante et trouve des débouchés
dans d’autres applications.
Par exemple, nous avons ainsi pu mettre
en lumière la probable implication de
croissance transitoire de l’énergie dans
la problématique du dépassement de
camion par une automobile, le fameux
« coup de volant » que les conducteurs
ressentent à cette occasion. Lorsque
la voiture traverse le sillage latéral du
camion, elle subit l’équivalent de l’impact d’une rafale de vent latéral. Cela
induit transitoirement des efforts aérodynamiques, une force de dérive et un
moment de dérapage, qui se couplent
avec la suspension. Nous avons montré
que la réponse du véhicule, en l’absence
de réaction du conducteur sur le volant,
pouvait effectivement présenter une
croissance transitoire de l’énergie.
L’application des connaissances acquises
trouve également un autre débouché au
LadHyX dans le domaine des récupérateurs d’énergie basés sur l’utilisation des
instabilités de flottement de structures
conçues à cet effet.
Ces structures, que l’on place délibérément en oscillation de grande amplitude,
posent déjà de nouvelles questions. Comment vont-elles se comporter à l’impact
d’une rafale de vent ? Peut-on imaginer
récupérer l’énergie supplémentaire liée à
la croissance transitoire ?
Contact :
Pascal Hemon
[email protected]
Figure 4 : Comparaison calcul-expérience de l’amplification transitoire de l’énergie en fonction de la vitesse du vent pour deux cas de tabliers de type Millau.
Flash X n°14 - Transports
53
PEGASES
un nouveau propulseur électrique d’avenir
Ane AANESLAND
Laboratoire de Physique des Plasmas (LPP)
UMR CNRS - EP - Université Paris VI - Université Paris 11 7648
L
'exploration de l'espace, proche
ou lointain, offre une occasion
unique pour réaliser des découvertes majeures portant à la fois
sur nos origines et sur l'environnement terrestre. Dans ce contexte,
le recours à des technologies innovantes
embarquées sur des satellites est une
nécessité absolue pour observer, communiquer et explorer à plus ou moins grandes
distances de notre planète. Au Laboratoire de Physique des Plasmas (LPP), nous
travaillons sur un nouveau concept de propulsion électrique par plasma que nous
présentons dans cet article.
À la différence de ces dispositifs qui ne
contiennent que des ions positifs et des
électrons, l’innovation principale du propulseur PEGASES consiste à utiliser un
gaz produisant un plasma électronégatif comprenant, outre des électrons, des
ions positifs et des ions négatifs. L’utilisation d’un plasma électronégatif permet
l'accélération des deux types d’ions pour
fournir la poussée ; de cette façon, le système de neutralisation en aval n'est plus
requis, ce qui représente un grand avantage technologique (voir Figure 1b).
Le propulseur PEGASES comprend trois
étages :
i) Création du plasma (ionisation). Un
plasma électronégatif, qui contient des
ions des deux signes ainsi que des électrons, est produit dans cet étage par
apport d'énergie électromagnétique à
un gaz neutre. Dans les technologies spatiales, chaque gramme et chaque coût en
puissance électrique compte. Le prototype actuel (voir Figure 2) contient une
source d'ionisation très efficace utilisant
Le propulseur développé et breveté
au laboratoire est un moteur ionique
dénommé PEGASES, un acronyme
anglais pour « Plasma Propulsion with
Electronegative Gases ».
PEGASES appartient à la famille des propulseurs électrostatiques par plasma. Dans
un propulseur électrostatique classique,
le plasma utilisé contient majoritairement
des ions positifs et des électrons. Les ions
positifs, massifs, fournissent la poussée,
tandis que les électrons, beaucoup plus
légers, sont utilisés pour ioniser le gaz dans
la région de production du plasma, et en
aval pour la neutralisation des ions expulsés (voir Figure 1a).
5
ette source est développée dans le cadre d’une colC
laboration avec V. Godyak, Boston USA. Le dispositif
utilisé est un exemple de transfert technologique d’un
dispositif développé initialement pour l'éclairage vers
un usage appliqué aux technologies spatiales.
Figure 1 : a) Illustration de la propulsion électrique classique et b) du propulseur PEGASES
54
au LPP. La Figure 3 montre la première
évidence expérimentale de ce dispositif
où deux faisceaux d’ions sont mesurés
séparément pendant la polarisation de
la grille.
Figure 2 PEGASES Prototype développé au LPP
un couplage de puissance par induction
électromagnétique1. 90% de l'énergie
électrique utilisée est directement couplée aux électrons du plasma, et seulement 10% est perdue en chaleur par
rayonnement.
ii) Formation du plasma ion-ion. Dans cet
étage, un champ magnétique est utilisé
pour confiner et refroidir les électrons.
À la sortie de cette zone, le plasma n’est
pratiquement plus composé que d’ions
positifs et négatifs : le champ magnétique
agit comme un filtre pour les électrons,
et il y a formation d’un plasma ion-ion.
Le transport des particules chargées, ions
et électrons, à travers le champ magnétique local ainsi que le comportement du
plasma ion-ion est activement étudié au
laboratoire. En particulier, nous avons pu
montrer récemment que la décroissance
de la température électronique peut
être pilotée par le contrôle du gradient
de l'intensité du champ magnétique utilisé. Cette plus faible température électronique en sortie du filtre magnétique
assure une production plus importante
d’ions négatifs et facilite la formation du
plasma ion-ion.
iii) Accélération des ions. Dans cette partie,
les ions sont extraits et accélérés en polarisant au cours du temps des grilles accélératrices par des signaux rectangulaires.
Le résultat est une émission alternée de
faisceaux d'ions positifs et négatifs (cf.
illustration sur la figure 2). Ce concept
d’accélérations alternées a été breveté
Les recherches menées au LPP s’appliquent
aux trois étages du projet PEGASES et
comprennent des aspects à la fois fondamentaux et technologiques, qui nécessitent expériences, théorie et simulations.
Le développement de ce propulseur
d’avenir est fortement soutenu par notre
partenaire industriel Astrium. L’étude
des mécanismes physiques se poursuivra
dans le cadre de l'ANR EPIC récemment
obtenue, qui impliquera trois laboratoires
français (le LPP à Palaiseau, le laboratoire
ICARE à Orléans et le laboratoire LAPLACE
de Toulouse).
Contact :
Ane Aanesland
[email protected]
http://www.lpp.fr/?plasmas-pour-la-propulsion
Figure 3 : Distribution d’énergie des ions mesurée à différents moments du cycle de tension.
Flash X n°14 - Transports
56
En bref…
L
’École Polytechnique travaille sur d’autres sujets de recherche en rapport avec le domaine des transports (par exemple
en mathématiques appliquées avec Renault, en informatique avec Valeo, en mécanique avec Michelin) que l’état d’avancement ou le degré de confidentialité n’a pas permis de détailler sous forme d’article dans FLASH X. On peut mentionner cependant les travaux suivants.
Étude sur les traînées de condensation des avions
Olivier BOUCHER
Laboratoire de Météorologie Dynamique (LMD)
« Pouvons-nous tous devenir des aidechercheurs ? » C’est une question que
beaucoup de gens se posent. Le grand
public peut en effet contribuer à observer notre environnement ou donner un
peu du temps de calcul de leur ordinateur pour des projets scientifiques. C'est
pourquoi le Laboratoire de Météorologie
Dynamique (LMD) a lancé une étude relative à l’impact de l’aviation sur le réchauffement climatique. En effet, les traînées
de condensation des avions visibles dans
le ciel pourraient influencer le climat terrestre en raison de leur interaction avec
le rayonnement. L'idée est de demander
aux utilisateurs de Smartphones de réunir des données sur ces fameuses traînées au niveau local, régional, national
voire international. Les données récoltées
pourront éclairer les scientifiques et permettre une meilleure compréhension des
processus de formation et d’évolution de
ces traînées.
Flash X n°14 - Transports
Chacun avec son Smartphone pourra, s’il
repère une ou plusieurs de ces traînées
de condensation, répondre à un petit
questionnaire sur une application (à télécharger gratuitement sur tous les supports de téléchargement par exemple :
Android Market ou Itunes) et indiquer
les caractéristiques du ciel et les caractéristiques morphologiques des traînées
observées. Seules trois petites questions
seront demandées, les coordonnées GPS
sont enregistrées et une photo peut aussi
être envoyée de manière facultative.
L’application Epicollect© permet de répertorier des données (photos, description
de faits...) et de les localiser à travers le
monde (http://www.epicollect.net). Il est
aussi fourni un tutoriel d’utilisation.
Contact :
Olivier Boucher
[email protected]
57
Propulsion des bateaux par cerf-volant
Christophe CLANET
Laboratoire d'Hydrodynamique de l'X (Ladhyx)
Pour tracter les bateaux – de marine marchande, de plaisance ou de pêche – le
célèbre navigateur yves parlier a imaginé
un système de train de cerfs – volants
inspirés des ailes de kite-surf, avec un
nouveau mode de lancement. Dans le
cadre de son projet « Beyond the sea »,
l’équipe de Christophe Clanet au Ladhyx
(Laboratoire d’Hydrodynamique de l’X) a
lancé des travaux de recherche sur deux
aspects : maximisation de la force de traction (optimisation de la forme de l’aile
et du mouvement à lui donner) et techniques de dépliement et de repliement de
ces structures.
Il faudra aussi déterminer la meilleure distance à respecter entre ces ailes volantes
pour minimiser les turbulences. La rigidité
de l’ensemble étant assurée par des boudins gonflables, le Ladhyx cherchera notamment à voir à partir de quel moment des plis
se forment sur ces structures en boudin.
Ce concept de navigation durable semble
être très prometteur en terme de gains environnementaux (réduction des émissions de
gaz à effet de serre) et économiques (allègement et économie de carburant).
Contact :
Christophe Clanet
[email protected]
Mur anti-bruit accoustique
Bernard SAPOVAL
Laboratoire de Physique de la Matière Condensée (PMC)
Les travaux sur les propriétés d’absorption
des ondes par des structures de morphologies irrégulières effectuées au sein du
Laboratoire de Physique de la Matière
Condensée (PMC) ont débouché sur la
conception d’un mur anti-bruit acoustique routier de performances inégalées.
Ces travaux ont eu un certain retentissement : 2003, Grand Prix Siemens de l’Innovation pour la Recherche Appliquée. 2004,
Award de l’International Road Federation.
2008, Prix « Canac » de la Société française
d’acoustique. 2008 : Prix « Fibre de l’Innovation » de Optics Valley, Région Île-deFrance. Ces travaux ont été récemment
utilisés pour l’amélioration des performances des chambres anéchoïques électromagnétiques, en partenariat avec la
Société Siepel et avec le soutien de la DGA.
Contact :
Bernard Sapoval
[email protected]
58
Prix et distinctions
PHYSIQUE
Médaille Albert Einstein de la société
A. Einstein
Alain ASPECT
Directeur de recherche CNRS,
Professeur de physique
Concours national OSEO 2012 d’aide à la
création d’entreprises de technologies
innovantes
Haad BESSBOUSSE
Post-doc au Laboratoire des Solides
Irradiés (LSI)
Cristal 2011 du CNRS
Christophe COILLOT
Ingénieur de recherche au Laboratoire
de Physique des Plasmas (LPP)
Prix Charles Hard Townes 2012
Philippe GRANGIER
Président du Département de Physique
Médaille Edward Teller 2011 de la Société
de physique nucléaire américaine
Christine LABAUNE
Directrice de recherche CNRS au
Laboratoire pour l’Utilisation des Lasers
Intenses (LULI)
Flash X n°14 - Transports
Prix de thèse de la Division Plasmas de
l'European Physical Society (EPS)
Frédéric PÉREZ
Thèse réalisée au Laboratoire
d'Utilisation des Lasers Intenses (LULI)
Médaille d’argent 2011 du CNRS
Pere ROCA Y CABARROCAS
Chercheur au Laboratoire de Physique des
Interfaces et des Couches Minces (LPICM)
Prix Jeune chercheur de la
Société Française d’Astronomie et
d’Astrophysique (SF2A)
Fouad SAHRAOUI (X 2008)
Chargé de recherche au Laboratoire de
Physique des Plasmas (LPP)
CHIMIE
Prix ACROS de la Société Française de
Chimie 2012
Fabien GAGOSZ
Chercheur au Laboratoire de Synthèse
Organique (DCSO)
Grand Prix Joseph-Achille Le Bel 2012
Fellow of the Royal Society of Chemistry,
Membre honoraire de la Sociedad
Argentina de Investigación en Química
Orgánica
Samir ZARD
Directeur de recherche Classe
Exceptionnelle au Laboratoire de
Synthèse Organique (DCSO),
Président du département de chimie,
Professeur de chimie
Prix de thèse ParisTech
Larbi TOUAHIR
Thèse réalisée au Laboratoire de
Physique de la Matière Condensée (PMC)
BIOLOGIE
Médaille d’argent 2011 du CNRS
François HACHE
Directeur de recherche au Laboratoire
d’Optique et Biosciences (LOB)
LANGUES ET CULTURES
Médaille de bronze 2011 du CNRS
Olivier BERTRAND
Président du département Langues et
cultures
59
MATHÉMATIQUES APPLIQUÉES
MÉCANIQUE
Grand Prix 2011 de la Fondation
d’entreprise EADS de l’Académie des
sciences,
Président de la Société de Mathématiques
Appliquées et Industrielles (SMAI)
ERC-Starting Grant 2011 du Conseil
Européen de la Recherche
Grégoire ALLAIRE
Professeur et vice-président du
Département de Mathématiques
Appliquées,
Chercheur au Centre de Mathématiques
Appliquées (CMAP)
Prix Jacques-Louis Lions 2011 de
l’Académie des sciences
Vincent GIOVANGIGLI
Directeur de recherche CNRS au Centre
de Mathématiques Appliquées (CMAP)
Prix Paul Caseau de l'Académie
des technologies / EDF, catégorie
« modélisation et simulation numérique »
Zakaria HABIBI
Thèse réalisée au Centre de
Mathématiques Appliquées (CMAP)
Grand prix de l’INRIA 2012
Pierre-Louis LIONS
Professeur de mathématiques appliquées
Charles BAROUD
Professeur au Département de
Mécanique,
Chercheur au Laboratoire
d’hydrodynamique (Ladhyx)
Honorary Fellow de la Royal
Meteorological Society Britannique
Olivier TALAGRAND
Directeur de recherche émérite
au Laboratoire de Météorologie
Dynamique (LMD)
PRIX DE L’ÉCOLE POLYTECHNIQUE
Bernard Haurwitz Memorial Lecturer award
2012 de l’American Meteorogical Society
Prix Pierre Faure 2011 de la Fondation de
l’École Polytechnique
Sandrine BONY
Chercheur au Laboratoire de
Météorologie Dynamique (LMD)
Hélène KARCHER (X 1998)
Chercheur aux laboratoires Novartis
Pharma AG
Médaille Alfred Wegener 2011 de
l’European Geosciences Union (EGU)
Michael GHIL
Chercheur au Laboratoire de
Météorologie Dynamique (LMD)
Prix Meilleures thèses de la Fondation
EADS 2011,
Prix Prud’homme de la Société
Météorologique de France (SMF) 2011
Camille RISI
Thèse réalisée au Laboratoire de
Météorologie Dynamique (LMD)
Prix de l’innovation 2011 de l’École
Polytechnique, catégorie « brevets »
François OZANAM
Directeur du Laboratoire de Physique
de la Matière Condensée (PMC),
Travaux sur le thème des biocapteurs
Prix de l’innovation 2011 de l’École
Polytechnique, catégorie « création
d’entreprise »
Sébastien DINE
Créateur de « SOLAYL »,
Ancien doctorant au Laboratoire de
Physique des Plasmas (LPP)
La lettre scientifique
de l’Ecole Polytechnique
Juillet 2005 N°1
Éditorial
[email protected]
Tirage : 1500 exemplaires
www.polytechnique.edu
Imprimé au CPM
de l’École Polytechnique
91128 Palaiseau cedex
Les nouveautés du Teramobile
Des tirs dans l’air avec un laser Terawatt (mille milliards de
watt) ultra-bref et mobile ont été réalisés en 2003 à l’Ecole, puis
récemment au sommet d’une montagne à 3200 m d’altitude
dans le nouveau Mexique (voir photo page suivante), pour
tester la propagation non linéaire de ces faisceaux lumineux
dans l’air sur de grandes distances et à différentes pressions. Un
faisceau a pu être ainsi propagé horizontalement sur plus de 2
km. Le Teramobile est le fruit d’une collaboration franco-allemande et constitue un dispositif unique au monde en terme de
puissance et compacité.
Contact : Samir Zard
En fait, les impulsions laser créent des filaments rectilignes de
[email protected]
plasma conducteurs qui émettent du rayonnement (de l’ultraviolet à l’infrarouge) et elles se propagent ainsi de façon autoguidée
sous cette forme filamentée, sous l’effet focalisant de l’effet Kerr optique et dé-focalisant de l’ionisation multiphotonique.
Un pas de plus est ainsi réalisé vers l’utilisation de ces lasers ultra-brefs pour le sondage de l’atmosphère
Flash X - n°1
juillet 2005
La lettre scientifique
de l�E´cole Polytechnique
La lettre scientifique
de l�E´cole Polytechnique
octobre  N° 
mars 2007 N° 5
juin 2007 N° 6
De´fi environnemental
Ge´ne´ral Xaviel Michel, Directeur Ge´ne´ral de l�E´cole Polytechnique
Brèves scientifiques
Une nouvelle chimie des xanthates
pour des polymères « sur mesure »
Au laboratoire DCSO (synthèse
organique), des travaux menés en collaboration avec RHODIA ont abouti à la
mise au point d’un procédé innovant et
performant de polymérisation radicalaire contrôlé appelé MADIX. À partir
de produits accessibles et peu chers, il
élabore des polymères « vivants »
extensibles car réactifs aux 2
extrémités, dont l’une est un groupe
xanthate (composé du soufre). On peut
ainsi préparer rapidement et de façon
économique des polymères à blocs très
variés à partir de pratiquement tous les
monomères commerciaux .La construction sur mesure de matériaux combinant diverses propriétés et porteurs de
multiples applications est ainsi devenu
envisageable (adhésifs, détergents,
émulsifiants, cosmétiques, shampoings,
peintures, encres spéciales, traitement
et hydrofugation des surfaces…)
La lettre scientifique
de l’École Polytechnique
avril 2006 N° 3
C�est avec une tre`s grande satisfaction que j�ai retrouve´, 30 ans apre`s, l�E´cole
Polytechnique dont j�ai e´te´ l�e´le`ve �promotion 72� et de´couvert tout le potentiel de l�E´cole et son dynamisme en matie`re de recherche et d�enseignement. Je compte poursuivre les efforts de´ja` engage´s par mon pre´de´cesseur pour accroiˆtre le rayonnement de
l�X. Le de´veloppement de l�internationalisation de l�E´cole, notamment a` travers
ParisTech, des masters et doctorats, de la recherche et sa valorisation doivent eˆtre
poursuivis avec te´nacite´. Le campus est par ailleurs en plein de´veloppement. Thales
vient d�arriver, l�Institut d�optique the´orique et applique´e �IOTA�, qui comprend
notamment l�E´cole supe´rieure d�optique, va nous rejoindre en 2006, le chantier de
construction venant de de´marrer. L�installation de l�ENSTA est pre´vu pour 2009-2010 et des
laboratoires de l�ONERA, en optique et me´canique des fluides, devraient nous rejoindre e´galement, meˆme si rien n�est encore officialise´. Il faudra aussi compter sur Digiteo Labs, le parc de
recherche dans le domaine des technologies nume´riques, et exploiter les possibilite´s qui s�ouvrent
avec le poˆle de compe´titivite´ System@tic. Une de mes priorite´s sera de poursuivre cette dynamique et de cre´er une synergie entre toutes ces activite´s afin de contribuer a` e´tablir sur le plateau de Saclay un poˆle de rayonnement scientifique et technique international.
Gabriel de Nomazy, Directeur Général de l’École Polytechnique
Un nouveau mode de synthèse de l’ADN
Au Laboratoire d'Optique et Biosciences (LOB) a été découverte
une nouvelle enzyme ThyX (thymidylate synthase alternative)
permettant la synthèse d’un des 4 précurseurs de l'ADN.
Absente chez l'homme mais présente dans de nombreuses bactéries pathogènes pour l'homme, elle pourrait fournir une cible
originale pour des molécules d’intérêt pharmaceutique (brevet
international 2003). Un nouvel essai optique a été développé
permettant la robotisation et le criblage à haut débit. Les premières molécules démontrant une inhibition compétitive de
ThyX ont été découvertes.
Contact : Ursula Liebl
ursula.liebl @polytechnique.fr
La lettre scientifique
de l�E´cole Polytechnique
E´ditorial
Nous vous adressons aujourd’hui le premier numéro de la lettre scientifique de l’Ecole
Polytechnique. Celle-ci a pour but d’informer les responsables du monde socio-économique,
les acteurs publics de la recherche et de l’innovation et les médias scientifiques de l’actualité
de notre centre de recherche. Nous l’avons baptisée Flash X en référence à la « spécialité » d’un
de nos laboratoires qui est de créer des rayonnements X de très courtes durées. Nous
souhaitons, par ce rendez-vous trimestriel, entretenir et resserrer les liens avec nos nombreux
partenaires, en France et à l’international et ainsi poursuivre l’effort de la cellule de valorisation de notre centre de recherche.
Celui-ci regroupe 21 laboratoires couvrant un ensemble très larges de domaines (mathématiques, physique, chimie, sciences de la vie, sciences humaines et sociales, sciences de l’environnement). Ce gisement de savoir et de technologie, alimenté par les 1400 personnes du centre, et s’appuyant sur des techniques de pointe, est ouvert sur le monde socio-économique et
contribue à faire avancer les défis qu’il a à relever. Inversement, les perspectives d’applications peuvent
inspirer et stimuler de nouvelles découvertes scientifiques.
Valoriser c’est transformer de la matière grise en valeur, que ce soit sous la forme de produits et services,
générateurs de gains financiers, d’emplois mais aussi de rayonnement de l’établissement. C’est une des priorités de l’Ecole Polytechnique, très consciente que la recherche est devenue le moteur principal de l’innovation et qu’elle contribue largement au progrès de la société.
FLASH X
la lettre scientifique de l’École
Polytechnique
Parution : 18 juillet 2005 - Dépot
légal : juillet 2005 - Adresse : École
Polytechnique 91128 Palaiseau cedex.
Téléphone : 01 69 33 43 38 - Directeur
de la publication : Général de
Nomazy, Directeur Général de l’École
Polytechnique - Rédacteur en chef :
Pascal Bradu, délégué à la valorisation de la recherche - Maquette mise en page : Dominique Toustou
- Fabrication : Jean-Claude
Mathieu, Jean-Félix Le Rouzic.
e-mail :
La lettre scientifique
de l�E´cole Polytechnique
novembre 2005 N° 2
DigiteoLabs et System@tic :
l�union fait la force
FLASH X
la lettre scientifique de l�E´cole
Polytechnique
Parution : 25 novembre 2005 De´pot le´gal : novembre 2005 Adresse : E´cole Polytechnique 91 128
Palaiseau CEDEX. Te´le´phone :
01 69 33 43 38 - Directeur de la publication : Ge´ne´ral Michel, Directeur
Ge´ne´ral de l�E´cole Polytechnique Re´dacteur en chef : Pascal Bradu,
direction de la recherche - Maquette
- mise en page : Dominique
Toustou - Fabrication : Jean-Claude
Mathieu, Jean-Fe´lix Le Rouzic.
e-mail :
[email protected]
Tirage : 1 500 exemplaires
N° ISSN : 1775-0385
www.polytechnique.edu
Imprime´ au CPM
de l�E´cole Polytechnique
91128 PalaiseauCEDEX
Un Poˆle commun de recherche en informatique
�PCRI� avait e´te´ cre´e en 2003 �rassemblant le
LIX, laboratoire d�informatique de l�E´cole, le
LRI, de l�universite´ Paris XI Orsay, et la nouvelle unite´ INRIA-Futurs, a` Saclay�.
Il existait aussi une plate-forme sur les technologies logicielles, baptise´e Numatec, issue du
rassemblement d�activite´s du CEA et de
Supe´lec, en liaison avec le CNRS.
Il est apparu e´vident que des convergences
existaient entre ces deux projets et qu�un lien
permettant de re´aliser des projets plus ambitieux e´tait souhaitable.
C�est ainsi qu�en 2004, les e´tablissements tutelles des diffe´rents laboratoires implique´s �CEA,
CNRS, E´cole Polytechnique, INRIA, Supe´lec,
Universite´ Paris XI�, ont de´cide´ d�unir leurs
efforts pour construire ensemble sur le plateau
de Saclay le premier parc de recherche publique
franc¸ais dans le domaine des sciences et technologies de l�information et de la communication, nomme´ Digiteo Labs, consacre´ a` la
conception et au de´veloppement des syste`mes
a` forte composante logicielle, depuis le syste`me
sur puce jusqu�au calcul haute performance et
aux grandes infrastructures logicielles en passant par les syste`mes embarque´s et les robots.
Une convention relative a` ce consortium
devrait eˆtre signe´e avant fin 2005.
A` la fin de la de´cennie, avec le soutien des collectivite´s locales et des pouvoirs publics natio-
naux et europe´ens, Digiteo Labs qui regroupe
actuellement 1 250 personnes, devrait accueillir
plus de 1 800 personnels de la recherche,
employe´s par les six e´tablissements fondateurs
et leurs partenaires, dont 300 sur le campus de
Polytechnique. Les sites de Saclay, du Campus
de l�X et du Plateau de Moulon he´bergeront les
e´quipes de Digiteo Labs sur une surface de l�ordre de 45 000 m2 de locaux dont 28 700 m2 de
nouvelles constructions �comprenant un nouveau baˆtiment, sur notre campus, de 6050 m2 dont une partie re´serve´e a` l�accueil de porteur
de projet de start-up�.
Digiteo Labs ambitionne d�eˆtre le coeur de
recherche publique du poˆle de compe´titivite´
System@tic Paris-Re´gion, dont le projet a e´te´
labellise´ le 12 Juillet 2005 par le CIADT en tant
que poˆle de compe´titivite´ a` visibilite´ mondiale.
Il concentre dans l�ouest francilien un nombre
exceptionnellement e´leve´ a` l�e´chelle internationale de centres de formation et de recherche
publics et industriels sur le the`me des syste`mes
complexes dont le logiciel constitue la technologie la plus fe´de´rative.
Ce poˆle se concentrera sur les applications lie´es
a` l�automobile/transports, aux te´le´communications, a` la se´curite´/de´fense, a` la conception et
au de´veloppement des syste`mes complexes.
Sont implique´s dans ce poˆle, de grands groupes
internationaux tels Alcatel, Altis semiconductor, Bull, Cegelec, CS Communication et
Syste`mes, Dassault Aviation, Dassault Systems,
EADS, EDF, France Telecom, Motorola, RATP,
Renault, Sagem, SNCF, Thales, Valeo. ainsi que
plus d�une trentaine de PME-PMI franciliennes.
Flash X - n°2
novembre 2005
FLASH X
la lettre scientifique de l�E´cole
Polytechnique
Parution : avril 2006 - De´pot le´gal :
3 avril 2006 - Adresse : E´cole
Polytechnique 91 128 Palaiseau
CEDEX. Te´le´phone : 01 69 33 43 38 Directeur de la publication : Ge´ne´ral
Michel, Directeur Ge´ne´ral de l�E´cole
Polytechnique - Re´dacteur en chef :
Pascal Bradu, direction de la recherche - Maquette - mise en page :
Dominique Toustou - Fabrication :
Jean-Claude Mathieu, Jean-Fe´lix Le
Rouzic.
e-mail :
[email protected]
Tirage : 1 500 exemplaires
N° ISSN : 1775-0385
www.polytechnique.edu
Imprime´ au CPM
de l�E´cole Polytechnique
91128 PalaiseauCEDEX
E´ditorial
Pollution atmosphe´rique, augmentation de la concentration des gaz a` effet de serre,
destruction de la couche d�ozone, re´chauffement global et multiplication des ale´as climatiques �tempeˆtes, canicules, cyclones, inondations, …� , de´veloppement durable,
capture et stockage du CO2, pe´nurie des e´nergies fossiles , de´veloppement des e´nergies
renouvelables, biodiversite´, gestion des de´chets nucle´aires, tous ces termes s�immiscent
dans notre quotidien et impactent de manie`re de plus en plus significative l�e´conomie et la ge´opolitique mondiale , la sante´ et la se´curite´ des citoyens et conditionnent l�avenir des ge´ne´rations
futures. Cette anne´e encore, ils feront l�objet de de´bats intenses dans le cadre d�une prise de
conscience progressive non de´nue´e de craintes que l�homme a une responsabilite´ collective et
individuelle dans l�avenir de la plane`te, a` bien plus court terme qu�on ne l�aurait suppose´ il y 30
ans. La premie`re partie de ce sie`cle sera assure´ment le sie`ge d�une rupture en terme de production et consommation e´nerge´tique et la fin du sie`cle pourrait signer dans le prolongement des
e´volutions climatiques de´ja` constate´s, un changement d�e`re climatique dont les conse´quences
restent difficiles a` imaginer. Et cela malgre´ la mise en place d�un cadre re´glementaire �protocoles de Montreal et Kyoto � susceptible de nous permettre de mieux ge´rer ces difficulte´s . L�Ecole
Polytechnique , a` travers ses recherches et enseignements dans divers domaines �me´te´orologie,
me´canique, optique, chimie , sciences e´conomiques et sociales, ..� participe aux progre`s de la
connaissance de notre environnement, qui devraient permettre aux responsables politiques de
prendre les de´cisions utiles et fonde´es a` partir d�une e´valuation plus pre´cise des risques environnementaux et compte tenu des contraintes de temps impose´es par la nature.
C�est pourquoi il nous a semble´ utile de consacrer un nume´ro plus e´toffe´ de flash X, consacre´ a`
cette the´matique d�importance, incluant des re´sume´s de deux pre´sentations faites dans le cadre
de notre chaire environnement durable et un bilan de nos travaux effectue´s sur la proble´matique du stockage des de´chets nucle´aires.
Pascal BRADU
Re´dacteur en chef
Un nouvel observatoire pour la
recherche en me´te´orologie et
qualite´ de l�air
Les pre´visions me´te´orologiques et de qualite´
de l�air ont e´te´ conside´rablement ame´liore´es
ces 15 dernie`res anne´es avec le de´veloppement massif d�assimilation de donne´es procure´es par des dispositifs d�observation tre`s
de´veloppe´s a` l�e´chelle nationale et mondiale.
Cependant, certains processus sont tre`s difficiles a` repre´senter dans les mode`les, comme
par exemple le roˆle des ae´rosols, qui d�une
part sont source de pollution dans l�atmosphe`re et d�autre part ont une influence
sur la formation des nuages, brouillard et
pre´cipitations.
L�institut Pierre Simon Laplace �IPSL�, une
fe´de´ration de recherche du CNRS, a mis sur
pied un ve´ritable observatoire de l�atmosphe`re regroupant des moyens d�observation de l�atmosphe`re sophistique´s par
te´le´de´tection active et passive �radars,
lidars, radiome`tres� et par mesures in situ a`
proximite´ du sol. Cet observatoire appele´
SIRTA�1� , situe´ sur le campus de l�Ecole
Polytechnique, permet d�e´tudier les ae´rosols
et les particules d�eau et de glace �nuages�
dans la colonne atmosphe´rique, de documenter des tailles de particules des nuages
et ae´rosols �pouvant varier entre 1 mm et
1/10 000 mm� et des concentrations variant
de 1 a` 10 000 particules/m3, et de caracte´riser les conditions dynamiques associe´es. Le
SIRTA permet e´galement de fournir des donne´es de validation pour les mode`les de
me´te´o et climat et de servir de point de re´fe´rence pour la validation d�observations spatiales. Il fait partie de re´seaux europe´ens et
mondiaux de � super sites � atmosphe´riques
de´die´s a` la recherche sur les nuages et ae´rosols.
Cet observatoire qui s�est e´quipe´ en 2005
d�une nouvelle plate-forme regroupant tous
les moyens expe´rimentaux jusqu�alors
disperse´s, fonctionne graˆce aux soutiens du
CNRS et de son Institut National des
Sciences de l�Univers �INSU�, du CNES
Éditorial
E´ditorial
Le monde n’est pas calme et figé.A grande échelle , l’univers est le siège de phénomènes très violents , sources de rayonnements très énergétiques et dont on
peut aussi reproduire certains aspects en laboratoire avec des lasers très puissants. Notre planète est agité par des séismes imprévisibles et meurtriers. Sur
terre, dans les fluides (l’eau, l’air), dans les plasmas , la turbulence voire le chaos
vient s’opposer à l’écoulement « paisible » de ces milieux. A l’échelle humaine, les flambées de violence urbaine ne doivent pas cacher celles émanant des incivilités quotidiennes. Notre vie elle même n’est que mouvement, comme le dit Montaigne, et ce à toutes
les échelles , de la molécule à la cellule . Il est très important de pouvoir identifier ces
mouvements associés à des fonctions biologiques. A un niveau encore plus microscopique, les électrons se repoussent sans cesse entre eux dans les solides , et leurs mouvements peuvent être fortement corrélés .Ces divers sujets sur lesquels les chercheurs de
l’Ecole Polytechnique travaillent activement et produisent des avancées, publiées dans les
meilleures revues internationales et récompensées par des prix sont notamment relatées dans ce nouveau numéro de flash X.
Ces dernie`res anne´es ont e´te´ marque´es par une forte e´volution de la physionomie
de l�E´cole, de son campus et plus ge´ne´ralement du ses partenariats. Le rythme des
e´volutions s�est acce´le´re´ comme le traduit la succession des inaugurations officielles durant le seul dernier trimestre 2006 �DIGITEO Labs, THALES RT, SOLEIL,
Institut d�Optique Graduate School�. Pour les 5 prochaines anne´es, comme l�indique
le contrat pluriannuel qui vient d�eˆtre signe´ avec l�E´tat, le de´veloppement du campus et de
son environnement proche �qui regroupera plus de 3000 chercheurs et enseignants� reste
un enjeu majeur. Il s�agit d�accueillir de nouveaux e´tablissements de haut niveau dont la
comple´mentarite´ avec l�E´cole permettra d�e´tendre le spectre de formation et de recherche
� tels l�ENSTA, l�ENSAE ou des laboratoires de l�ONERA�, et de construire des partenariats
efficaces avec les organismes d�enseignement supe´rieur et de recherche proches. Il s�agit
aussi de de´velopper les e´changes avec le monde de l�entreprise, notamment a` travers de
nouvelles chaires d�enseignement et de recherche, et via la re´alisation d�un ensemble IPHE
� Incubateur- Pe´pinie`re-Hoˆtel d�Entreprises� de pre`s de 10 000 m2 a` la pe´riphe´rie du campus. L�E´cole doit aussi affirmer la re´putation de sa graduate school, notamment en de´veloppant des masters et doctorats de dimension internationale. Un autre objectif majeur est
l�insertion de l�E´cole avec son campus dans les re´seaux acade´miques internationaux, en relation avec ParisTech, afin qu�elle soit identifie´e comme l�un des hauts lieux ou` l�Europe investit pour son avenir. Pour se faire reconnaiˆtre comme un e´tablissement universitaire de premier plan au niveau international, continuant d�assurer la re´ussite de ses e´le`ves et e´tudiants, l�E´cole Polytechnique doit relever ainsi un ve´ritable de´fi.
Xavier Michel
Directeur Ge´ne´ral de l�E´cole Polytechnique
Pascal BRADU
Rédacteur en chef
Brèves scientifiques
FLASH X
la lettre scientifique de l’École
Polytechnique
Parution : octobre  - Dépot
légal :  octobre  - Adresse :
École Polytechnique   Palaiseau
CEDEX. Téléphone :      Directeur de la publication : Général
Michel, Directeur Général de l’École
Polytechnique - Rédacteur en chef :
Pascal Bradu, direction de la recherche - Maquette - mise en page :
Dominique Toustou - Fabrication :
Jean-Claude Mathieu, Jean-Félix Le
Rouzic.
e-mail :
Comment retarder la transition vers
la turbulence
[email protected]
[email protected]
Tirage :   exemplaires
N° ISSN : -
www.polytechnique.edu
Imprimé au CPM
de l’École Polytechnique
 PalaiseauCEDEX
Tirage : 1 500 exemplaires
N° ISSN : 1775-0385
www.polytechnique.edu
Imprime´ au CPM
de l�E´cole Polytechnique
91128 PalaiseauCEDEX
La turbulence est un phénomène nuisible car
susceptible de réduire le rendement énergé-
�1�Site Instrumental de Recherche par Te´le´de´tection Atmosphe´rique
Flash X - n°3
avril 2006
FLASH X
la lettre scientifique de l�E´cole
Polytechnique
Parution : mars 2007 - De´poˆt le´gal :
mars
2007 - Adresse : E´cole
Polytechnique 91 128 Palaiseau
CEDEX. Te´le´phone : 01 69 33 43 38 Directeur de la publication : Ge´ne´ral
Michel, Directeur Ge´ne´ral de l�E´cole
Polytechnique - Re´dacteur en chef :
Pascal Bradu, direction de la recherche - Maquette - mise en page :
Dominique Toustou - Fabrication :
Jean-Claude Mathieu, Jean-Fe´lix Le
Rouzic.
e-mail :
tique dans le vol des avions , la vitesse des
voitures ou la furtivité des sous-marins
Flash X - n°4
octobre 2006
La lettre scientifique
de l’École Polytechnique
La lettre scientifique
de l’École Polytechnique
La lettre scientifique
de l’École Polytechnique
La lettre scientifique
de l’École Polytechnique
février 2008 N° 8
juillet 2008 N°9
janvier 2009 N°10
juillet 2009 N°11
E´ditorial
Multirisques
Risques climatiques, risques naturels, risques chimiques , biologiques et nucle´aires,
terroristes et de se´curite´ , risques financiers, risques sanitaires, nouveaux risques
technologiques �l�informatique et les nanotechnologies sont souvent sous les feux
de l�actualite´� ,le risque est multiforme et de plus en plus omnipre´sent dans notre
vie quotidienne . Il est devenu un ve´ritable objet scientifique sur lequel travaillent
les laboratoires de l�Ecole, notamment au niveau des sciences e´conomiques et
sociales , des mathe´matiques applique´es et de l�environnement. Le risque c�est
aussi le gisement meˆme des opportunite´s comme le rappelle l�ide´ogramme chinois
de la crise re´sultant de l�association de deux ide´ogrammes �Wei� danger + �Ji�
opportunite´ . Le re´chauffement climatique que les experts du GIEC �dont certains sont
a` l�X, comme Herve´ le Treut � viennent de juger sans e´quivoque et tre`s probablement
lie´ aux activite´s humaines , pourrait eˆtre ainsi l�occasion pour minimiser son impact d�avance´es dans divers domaines.
L�anne´e 2007 est aussi une anne´e riche e´lectoralement parlant. Deux chercheurs de
l�Ecole en ont profite´ pour tester un nouveau mode de scrutin qui serait a` meˆme de
repre´senter plus justement le jugement des e´lecteurs sur les candidats �et d�e´viter aussi
toutes proportions garde´es certains risques politiques, puisqu�un tel mode de scrutin
aurait pu rejeter selon eux Hitler en 1933 !!�
FLASH X
la lettre scientifique de l�E´cole
Polytechnique
Parution : mars 2007 - De´poˆt le´gal :
juin
2007 - Adresse : E´cole
Polytechnique 91 128 Palaiseau
CEDEX. Te´le´phone : 01 69 33 43 38 Directeur de la publication : Ge´ne´ral
Xavier Michel, Directeur Ge´ne´ral de
l�E´cole Polytechnique - Re´dacteur en
chef : Pascal Bradu, direction de la
recherche - Maquette - mise en page :
Dominique Toustou - Fabrication :
Jean-Claude Mathieu, Jean-Fe´lix Le
Rouzic.
e-mail :
Inaugurations
La source de rayonnement synchrotron
SOLEIL �Source Optimise´e de Lumie`re
d�E´nergie Interme´diaire�, situe´e a` Saint
Aubin sur le plateau de Saclay, a e´te´ inaugure´e le 18 de´cembre 2006 en pre´sence du
chef de l�E´tat. Cette installation commune
au CEA et au CNRS qui ont cre´e´ ensemble
la socie´te´ civile Synchrotron SOLEIL
dispose d�un budget de 449 millions
d�Euros pour la pe´riode 2002-2009 de
construction et de´but d�exploitation
�dont pre`s de 183 millions fournis par les
collectivite´s territoriales d�Iˆle de France�.
Elle emploiera a` terme plus de 350 personnes. C�est le second dispositif de 3e
ge´ne´ration construit en France, apre`s
l�ESRF de Grenoble, qui est lui optimise´
dans les rayons X durs alors que Soleil l�est
dans les X mous et tendres, moins e´nerge´tiques.
Le rayonnement tre`s brillant et peu divergent qui s�e´tend sur une large gamme d�e´ner-
La lettre scientifique
de l’École Polytechnique
novembre 2007 N° 7
[email protected]
gie, de l�Infra-Rouge aux rayons X, est fourni
par un anneau de stockage de 354 m de circonfe´rence ou re`gne un vide pousse´ et dans
lequel circulent des e´lectrons de tre`s haute
e´nergie. Il est ensuite guide´ vers des lignes de
lumie`re dispose´es tout autour de l�anneau
�23 pre´vues en 2009, 43 potentiellement� qui
sont des laboratoires inde´pendants, mises a`
disposition des utilisateurs souhaitant explorer la structure et les proprie´te´s chimiques et
morphologiques de la matie`re, au moyen de
techniques de diffusion/diffraction X, spectroscopies, microscopies/imageries. Une
Tirage : 1 000 exemplaires
N° ISSN : 1775-0385
www.polytechnique.edu
Imprime´ au CPM
de l�E´cole Polytechnique
91128 PalaiseauCEDEX
Flash X - n°5
mars 2007
anniversaires
Flash X
la lettre scientifique de l’École
Polytechnique
Cette fondation pre´sente´e officiellement
le 7 mars 2007 a pour objet de contribuer
durablement au de´veloppement du
potentiel franc¸ais de recherche, d�enseignement et de formation dans tous les
domaines du risque au centre des pre´occupations de nos socie´te´s contemporaines. Le risque est inhe´rent a` la vie �le
risque ze´ro, c�est l�e´tat de mort !�, multiforme, en de´veloppement avec l�e´mergence de nouvelles formes �catastrophes,
terrorisme ou judiciarisation de la socie´te´�. Il fait l�objet si on y regarde bien de
90 % du discours politique actuel, mais
aussi de l�adversion croissante de la population et des entreprises de plus en plus
demandeuses de protection et de se´curite´, ce qui place les assureurs devant de
nouveaux de´fis, notamment dans un
contexte de mondialisation de l�e´conomie. Le risque est aujourd�hui l�objet d�un
nouveau principe constitutionnel inscrit
dans la charte de l�environnement 2 004.
Son actualite´ est particulie`rement res-
sentie dans les secteurs de la sante´, de
l�industrie mais aussi de la banque et de
l�assurance.
Les travaux les plus fe´conds sur le risque
ne´cessitent une approche acade´mique
transversale et multidisciplinaire �mathe´matiques et statistique, actuariat, droit,
comptabilite´, e´conomie, sociologie,
management, finance, sciences de la vie
et sciences de l�inge´nieur�. Des grandes
universite´s ame´ricaines comme Stanford
en font l�axe central de leur strate´gie de
de´veloppement. Quatre poˆles d�excellence acade´miques vont ainsi mettre en
commun leur formation et recherche sur
le risque pour constituer une masse critique suffisante : l�X, l�Universite´ Paris
Dauphine,
d�E´tudes
Centre
le
Actuarielles �CEA�, l�E´cole Nationale
de la Statistique et de l�Administration
E´conomique �ENSAE�, qui est une des
E´coles d�application de l�X. Quatre entreprises fondatrices AGF, AXA, Groupama,
Socie´te´ Ge´ne´rale, rejoints re´cemment
Flash X - n°6
juin 2007
Éditorial
On célèbre les 40 ans de l’INRIA (nommé IRIA à sa création), institut avec lequel
l’X entretient de nombreuses relations dans le domaine de l’informatique à travers des projets de recherche et de valorisation communs et plus largement au
sein du RTRA DIGITEO, dont Maurice ROBIN vient d’être nommé directeur après
plusieurs années fructueuses de direction de la recherche de l’X.
L’année 2007 qui correspond au cinquantième anniversaire du premier lancement
d’un satellite artificiel est aussi celle du cinquantenaire de l’année géophysique internationale . Elle a été déclarée année polaire internationale, mais aussi année héliophysique internationale, étendant le concept de géophysique jusqu’à l’héliosphère, la sphère
d’influence du soleil qui concerne directement l’environnement de notre planète soumis
à l’effet du plasma solaire (sous forme de vent, éruptions et autres éjections de matière).
Ce numéro de flash X détaille des travaux menées à l’École en relation avec cette thématique.
L’École contribue d’une autre manière à cette célébration en accueillant Michel BLANC
comme nouveau directeur général adjoint, en charge de la recherche. C’est un spécialiste
de la physique des plasmas spatiaux et de l’exploration planétaire, qui a dirigé notamment
des observatoires à Toulouse et Marseille.
Pascal BRaDU
Rédacteur en chef
Parution: novembre 2007 - Dépôt légal: novembre 2005 - Adresse: École Polytechnique 91128 Palaiseau CEDEX.
Téléphone: 0169334013 - Directeur
de la publication: Général Michel, Directeur général de l’École Polytechnique - Rédacteur en chef: Pascal Bradu,
direction de la recherche - Maquette
- mise en page: Dominique Toustou
- Fabrication: Jean-Claude Mathieu,
Jean-Félix Le Rouzic.
e-mail :
[email protected]
Tirage : 1 000 exemplaires
N° ISSN : 1775-0385
www.polytechnique.edu
Imprimé au CPM
de l’École Polytechnique
91128 PalaiseauCEDEX
Chaires d’enseignement et de recherche
Chaire science des matériaux et surfaces
actives X/ESPCI/St GOBAIN
fondamentales qu’appliquées. Ils contribuent non seulement à faire progresser les
Jean-Louis Beffa, le Général Xavier Michel,
Jacques Prost et Thierry Desmarets ont signé le 29 mai 2007 un accord de création
d‘une nouvelle Chaire « Sciences des Matériaux et Surfaces Actives ». Articulée
autour d’une formation de Master correspondant aux 3e et 4e années du cycle
ingénieur, ce dispositif permettra d’ouvrir
très largement un espace de recherche
conjoint et de favoriser des interactions
avec des équipes internationales dans un
domaine scientifique et technique en fort
développement.
Verres hydrophobes ou autonettoyants,
transistors transparents, couches minces
pour les éclairages de demain ou le développement du photovoltaïque, nanomatériaux pour l’électronique et l’optique… la
liste est longue des innombrables applications que la science des matériaux permet
d’envisager dans le domaine de l’ingénierie des surfaces et des couches minces.
De nombreux chercheurs du campus travaillent depuis plusieurs années sur ces
sujets, avec des problématiques aussi bien
remarquables.
C’est dans ce cadre que saint-Gobain, leader mondial des matériaux, l’ESPCI et l’École Polytechnique, partenaires de longue date sur ces sujets, ont décidé de
mettre en place un programme d’enseignement et de recherche ancré dans ces problématiques à fort potentiel dont les
connaissances théoriques sur les propriétés physiques des matériaux mais aussi à
mettre au point des processus innovants
de conception, de caractérisation et de traitement de matériaux aux propriétés
Flash X - n°7
novembre 2007
n°
14
juillet 2012
Éditorial
Complexités
Flash X
la lettre scientifique de l’École
Polytechnique
Parution: février 2008 - Dépôt légal:
février 2008 - Adresse: École Polytechnique 91128 Palaiseau CEDEX.
Téléphone: 0169334013 - Directeur
de la publication: Général Michel, Directeur général de l’École Polytechnique - Rédacteur en chef: Pascal Bradu,
direction de la recherche - Maquette
- mise en page: Dominique Toustou
- Fabrication: Jean-Claude Mathieu,
Jean-Félix Le Rouzic.
e-mail :
Structurés sur plusieurs niveaux d’organisation, constitués d’entités hétérogènes
elles-mêmes complexes, les systèmes complexes recouvrent aussi bien les systèmes
naturels des macromolécules du vivant jusqu’à l’écosphère, que les systèmes artificiels de tous ordres dont l’homme s’entoure. Ils sont uniques, imprévisibles, capables de s’adapter dans des environnements changeants et ne peuvent être connus
que de façon incomplète.
La science des systèmes complexes représente une tentative pour mener à grande
échelle une démarche scientifique, pluridisciplinaire inédite et métissée (physique, biologie,
informatique, écologie, sciences cognitives et sociales, Elle fait le lien entre l’individuel et le
collectif (des gènes aux organismes et écosystèmes, des atomes aux matériaux et produits,
des citoyens à la société) à travers la reconstruction des dynamiques multi-échelles. Comprendre les mouvements de groupe d’étourneaux et les comportements collectifs humains
dans la sphère socio-économique, étudier l’évolution d’échelle des réseaux pour mieux
concevoir les potentialités de l’internet de 2025, tels sont des exemples de problèmes étudié
par cette science. Science encore émergente, elle devrait devenir une science essentielle de
ce siècle, et pourrait par exemple révolutionner les traitements médicaux et la délivrance
des médicaments (dans le cadre d’une nanomédecine personnalisée). Elle participe de fait à
la convergence NBICS (Nano-Bio-Info-Cognition-Socio). C ‘est aussi un nouveau langage qui
permet de formuler de nouvelles questions. Cette science est étudiée à l’X à travers notamment l’Institut des Systèmes Complexes Paris Île de France.
Un système industriel complexe est un système dont la maîtrise de la conception, de la
maintenance et de l’évolution pose des problèmes importants, liés à tant à sa taille qu’au
nombre de technologies utilisées, qui rendent l’ensemble difficile à appréhender. Les grands
systèmes de transport modernes, les systèmes de télécommunications ou microélectroniques, les systèmes d’information d’entreprise sont autant de systèmes industriels complexes
largement utilisés en pratique. Ces systèmes sont composés de systèmes techniques (i.e.
technologiques et informatiques) fortement couplés et souvent hétérogènes qui peuvent
être également amenés à avoir des interactions fortes avec des organisations d’entreprise
(que l’on voit ici comme d’autres systèmes). L’exemple du transport aérien illustre parfaitement cette situation.
La modélisation de tels systèmes est donc intrinsèquement une vraie problématique de recherche qui est traitée à l’X dans le cadre de la Chaire Ingénierie des Systèmes Industriels
Complexes avec THALES et plus généralement au sein du Réseau Thématique de Recherche
Avancée Digiteo et du Pôle de compétitivité System@tic consacré aux logiciels et systèmes
complexes
Pascal BRaDU
Rédacteur en chef
Imprimé au CPM
Pascal BRaDU
Rédacteur en chef
* le Tevatron du Fermilab (proton/antiproton de 1 TeV chacun) aux Usa pourrait aussi le détecter
avant, selon la valeur de sa masse
Jean-Félix le Rouzic.
e-mail :
N° IssN : 1775-0385
N° ISSN : 1775-0385
91128 PalaiseauCEDEX
Polytechnique
Téléphone: 0169334013 - Directeur
de la publication: Général Michel,
Directeur général de l’École Polytechnique - Rédacteur en chef: Pascal Bradu,
direction de la recherche - Maquette
- mise en page: Dominique Toustou
- Fabrication: Jean-Claude Mathieu,
Tirage : 1 000 exemplaires
Tirage : 1 000 exemplaires
de l’École Polytechnique
Flash X
la lettre scientifique de l’École
Parution: juillet 2008 - Dépôt légal:
juillet 2008 - adresse: École Polytechnique 91128 Palaiseau CEDEX.
Éditorial
[email protected]
[email protected]
www.polytechnique.edu
Un anneau tube et des nanotubes
Quoi de commun entre le gigantisme du nouvel anneau collisionneur
LHC du CERN (27 km de circonférence) avec ses 2 faisceaux de protons
accélérés dans deux tubes à vide et ses détecteurs « cathédrales », au
service du monde de l’infiniment petit peuplé de particules, et la petitesse
de ces objets nanométriques (dont les nanotubes de carbone sont la
figure de proue) qui pénètrent progressivement notre quotidien. Rien si ce n’est
le caractère extrême des échelles mises en jeu et le fait qu’ils font actuellement la
une de l’actualité scientifique. Incidemment notons que les faisceaux de particules des grands collisionneurs linéaires susceptibles de succéder au LHC devront
avoir des dimensions de seulement quelques nanomètres au point de collision
pour que le nombre d’événements intéressants issus de ces chocs soit suffisamment grand.
Ces divers sujets font l’objet de travaux à l’École et ce numéro double de flash
X décrit certaines activités « nanos » menées dans plusieurs de nos laboratoires.
Elles s’intègrent notamment dans le RTRA Triangle de la Physique récemment
inauguré et dans le centre régional de compétences C’nano IdF. L’École a prévu
de se renforcer dans ce secteur des nanosciences et nanotechnologies qu’elle
juge prioritaire. Par ailleurs, les physiciens des particules théoriciens et expérimentateurs de l’X, participant notamment au GIS physique des deux infinis, se
préparent activement à réaliser, dépouiller, interpréter les prochaines expériences qui se feront avec le LHC. Avec l’espoir entre autre de mettre en évidence
le fameux boson de Higgs* surnommé médiatiquement la « particule de Dieu »
dont l’existence a été postulée il y a presque 45 ans et qui selon le modèle dit
standard conférerait une masse aux particules constituant notre matière, et ce
via le champ auquel il est associé.
Paul Bourgine est directeur du CREA , le Centre de Recherche en Epistémologie Appliquée
de l’X. Il dirige l’ institut des systèmes complexes Paris Ile de France ainsi que le GIS Réseau
national des systèmes complexes , tous deux
crées en 2005.
années 40 avec les automates auto-reproducteurs de Von Neumann, les réseaux de neurones formels de McCullochs et Pitt. Au cours
des années 60 et 70, les mathématiques de la
morphogénèse de René Thom, la thermodynamique des systèmes hors d’équilibre de Prigogine, la synergétique de haken, les méthodes de
mécanique statistique d’anderson et de Wilson ont permis de nouvelles compréhensions
des systèmes auto-organisés.
Historique
Les premières approches théoriques de modélisation des systèmes complexes remontent aux
www.polytechnique.edu
Imprimé au CPM
de l’École Polytechnique
91128 PalaiseauCEDEX
Flash X
la lettre scientifique de l’École
a été décidée dix ans plus tard. Il permettra
en réalisant des chocs entre particules à des
énergies inégalées, de créer localement des
conditions similaires à celles qui prévalaient
une fraction de milliardième de seconde
après le big bang (il y a 13, 7 milliards d’années), de chercher de nouvelles particules
lourdes ou de nouveaux états de la matière
extrêmement denses et chauds.
Pourquoi notre monde est-il tel qu’il est,
*Exposition « cabinets de géographie » jusqu’au 30 juin 2009
Pascal BRADU
Rédacteur en chef
Polytechnique
Parution: janvier 2009 - Dépôt légal:
janvier 2009 - adresse: École Polytechnique 91128 Palaiseau CEDEX.
Téléphone: 0169334013 - Directeur
de la publication: Général Michel,
Directeur général de l’École Polytechnique - Rédacteur en chef: Pascal Bradu,
direction de la recherche - Maquette
- mise en page: Dominique Toustou
- Fabrication: Jean-Claude Mathieu,
LHC : LA mACHINE DES RECoRDS
L’anneau souterrain de collisions entre hadrons LHC (Large Hadron Collider) du
CERN (Conseil Européen pour la Recherche
Nucléaire), entre la France et la Suisse, sera
inauguré officiellement le 21 octobre 2008.
Il affiche de multiples records à commencer
par être le plus grand instrument scientifique
jamais réalisé sur terre, qui pourra sonder la
structure de la matière à l’échelle de 10-19 m.
Le projet est né en 1984 et sa construction
Éditorial
Objectif Terre
Jean-Félix le Rouzic.
e-mail :
[email protected]
Tirage : 1 000 exemplaires
N° IssN : 1775-0385
www.polytechnique.edu
Imprimé au CPM
de l’École Polytechnique
91128 PalaiseauCEDEX
Éditorial
I3
Comme le rappelle une exposition en cours* à l’École, les polytechniciens ont
largement contribué depuis la fin du XVIIIe siècle aux progrès de la géographie (topographie, cartographie,…)
À l’occasion de l’apogée de l’Année internationale pour la Planète Terre décrétée par
l’Unesco, ce numéro de flash X met à l’honneur certains travaux reliés au secteur des géosciences, réalisés au sein
de cet « écosystème » de
186 hectares qu’est le
campus de l’X (photo aérienne ci-contre)avec son P. Lavialle
lac, ses zones boisées, ses haies, sa proximité de vallées,
ses bâtiments de plus en plus nombreux, le tout parfois recouvert d’un épais brouillard. L’eau, enjeu de plus en plus
vital, dont les modifications prévues du cycle sont porteuses de crises, sera très présente dans ce numéro à travers
son cycle en Méditerranée, sa condensation nuageuse,
son écoulement tourbillonnaire ou sa forme souterraine.
La revue scientifique de l’École Polytechnique
La lettre scientifique
de l’École Polytechnique
Comme l’a montré la 5è conférence européenne sur les très grandes Infrastructures de recherche qui s’est tenue à Versailles en décembre 2008
dans le cadre de la présidence française de l’Union Européenne, l’Europe
exerce un rôle moteur pour stimuler la recherche à travers notamment les
Flash X
la lettre scientifique de l’École
N° 12
JUIN 2010
La revue scientifique
de l’École Polytechnique
N° 13
juin 2011
PCRD. A ce sujet, notons que les laboratoires de l’X ont été impliqués dans une
soixantaine de projets financés par le 6è PCRD (dont certaines I3 Integrated Infrastructure Initiative) et déjà dans une vingtaine du 7è PCRD en cours. Les infrastructures qui sont l’un des piliers de la « vision 2020 » de l’espace européen de
la recherche, représentent par ailleurs un gros marché industriel et sont porteuses
d’Innovation.
L’année 2009 a été déclarée année européenne de la créativité et de l’innovation. La recherche et l’innovation constituent en effet les éléments clés du développement de l’Europe, encore plus en période de crise. Ils font partie des principaux
moteurs de la compétitivité de la Région Capitale, dont le plateau de Saclay sera
une composante essentielle, destinée à devenir une des plus importantes plateformes scientifiques et technologiques au monde L’X participe à cet objectif comme
le traduisent les prix de l’innovation qui ont été remis en mars dernier à deux de
ses chercheurs.
Ce numéro fait aussi le point sur certaines activités dans le domaine de l’Informatique menées notamment dans le cadre de réseau, chaire, pôle qui constituent
des exemples de travail collaboratif de plusieurs acteurs du plateau de Saclay.
TRANSPORTS
Polytechnique
LE CYCLE DE L’EAU SUR LE BASSIN MÉDITERRANÉEN
Le projet HyMeX – cycle de
l’eau en Méditerranée (Hydrological cycle in the Mediterranean eXperiment) a vu le jour en 2005, partant du constat du besoin d’un programme
multi-échelle et multidisciplinaire en Méditerranée. Porté par le Comité Inter Organismes
Environnement(1) et piloté par l’INSU (Institut
National des Sciences de l’Univers), HyMeX
est la première composante de cet important
chantier de recherche sur la Méditerranée,
région touchée par les problématiques de
l’eau, des écosystèmes, de la pollution, des
séismes, des conflits humains et du brassage
des cultures. La Méditerranée est un point
chaud, cible privilégiée de la recherche appliquée et fondamentale !
1- Organismes partenaires du Comité Interorganisme Environnement :
INSU, Andra, BRGM, CEA, Cemagref, Cirad, CNES, CNRS, IFP,
Ifremer, Ineris, INRA, IRD, IRSN, LCPC et Météo-France.
Comprendre le cycle hydrologique et des
phénomènes intenses en Méditerranée
HyMeX a pour objectif d’améliorer la compréhension du cycle de l’eau en Méditerranée, tout particulièrement dans le domaine
de la prévision et de l’évolution des événements intenses associés à ce cycle. Il existe
des événements intenses de deux types : les
événements courts et inattendus, tels que les
précipitations et les tempêtes, et les événements extrêmes et durables, tels que les sécheresses, qu’on ne maîtrise pas bien car les
interactions sont fortes entre les compartiments
atmosphériques, continentaux et océaniques
et à des échelles très différentes.
Le projet HyMeX a donc pour vocation de
surveiller et modéliser le système couplé
océan-atmosphère-surfaces continentales, sa
variabilité (de l’échelle de l’événement aux
Parution: juillet 2009 - Dépôt légal:
juillet 2009 - adresse: École Polytechnique 91128 Palaiseau CEDEX.
Téléphone: 0169334013 - Directeur
de la publication: Général Michel,
Directeur général de l’École Polytechnique - Rédacteur en chef: Pascal Bradu,
direction de la recherche - Maquette
- mise en page: Dominique Toustou
- Fabrication: Jean-Claude Mathieu,
Jean-Félix le Rouzic.
e-mail :
[email protected]
Tirage : 1 000 exemplaires
N° IssN : 1775-0385
www.polytechnique.edu
Imprimé au CPM
de l’École Polytechnique
91128 PalaiseauCEDEX
ECRI2008
ConférenCe
européenne sur les très grandes infrastruCtures de reCherChe
Avec 505 participants en provenance d’une
trentaine de pays, la conférence ECRI2008
a présenté un panorama complet de la stratégie de l’Union européenne pour les « Infrastructures de Recherche » à l’horizon de 20202025.
Cette conférence a été organisée conjointement par le Ministère de l’Enseignement Supérieur et de la Recherche (MEsR) et la Commission Européenne (CE), en partenariat avec
le Forum Européen pour les Infrastructures de
Recherche (EsFRI : http://cordis.europa.eu/
esfri/ chargé d’élaborer la feuille de route
des infrastructures au niveau européen.
Ces infrastructures, qui constituent un élément
clé dans la construction de l’Espace Européen
de la Recherche, se doivent de répondre si-
Dossier :
LES PLASMAS
Dossier : La
multanément aux besoins légitimes de faire
progresser les connaissances, et aux enjeux
de société en matière de santé, environnement ou énergie. La seconde édition de la
feuille de route d’EsFRI (labellisation de 35
grandes infrastructures prioritaires à construire
avant 2020) publiée pour la première fois en
octobre 2006 a été réactualisée à cette occasion (10 infrastructure supplémentaires), en
même temps qu’a été dressé un panorama
des stratégies nationales des Etats-membres
de l’Union européenne.
L’Europe a démontré sa détermination dans
de grands projets internationaux comme
ITER, en parlant d’une seule voix au nom de
tous ses Etats-membres. En lançant le processus EsFRI, la communauté européenne s’est
Santé
Véhicules électriques
Matériaux et structures
Sources d’énergie alternative
Gestion du trafic
Impact environnemental
1
Flash X - n°9
juillet 2008
Flash X - n°10
janvier 2009
Flash X - n°11
juillet 2009
Flash X - n°12
juin 2010
Flash X - n°13
juin 2011
Flash X - n°14
juillet 2012
Inscription sur [email protected]
La revue scientifique de l’École Polytechnique
Vous souhaitez recevoir la revue Flash X :
Flash X - n°8
février 2008
Parution : juillet 2012 - Dépôt légal : août 2012
Adresse : École Polytechnique 91 128 Palaiseau Cedex.
Téléphone : 01 69 33 33 33
Directeur de la publication : Général Xavier Michel, Directeur général de l’École Polytechnique
Rédacteur en chef : Pascal Bradu, direction de la recherche - e-mail : [email protected]
Comité éditorial : M
aud-Andréa Bidet, Michel Blanc, Olivier Bournez, Jean Deschard , Henri-Jean Drouhin, Claude Pernel, Antoine Rousseau, Pauline Serraz
Infographie et impression :
Tirage : 1200 exemplaires
N° ISSN : 1775-0385
www.polytechnique.edu
Crédits photos de la une : Thinkstock 2012