Flash X n°14 - Ecole polytechnique
Transcription
Flash X n°14 - Ecole polytechnique
n° 14 juillet 2012 La revue scientifique de l’École Polytechnique TRANSPORTS Véhicules électriques Matériaux et structures Sources d’énergie alternatives Gestion du trafic Impact environnemental 1 Éditorial Sommaire Manager l’innovation de rupture : Pascal BRADU Rédacteur en chef le véhicule électrique ............................................................. p.3 Le partenariat de l'École Polytechnique avec PSA Peugeot Citroën .............................................................. p.5 Les transports individuels et collectifs jouent un rôle majeur dans notre vie quotidienne. Ainsi, un milliard de voitures circulent La dégradation thermo-oxydante des huiles moteurs : dans le monde et 3 milliards sont prévues à l’horizon 2050. description des mécanismes mis en jeu................................. p.9 Le développement de transports intelligents, verts et intégrés constitue un des 6 défis sociétaux du prochain pro- La pile à combustible, gramme cadre Européen « Horizon 2020 ». une solution vers des véhicules propres ............................... p.13 À notre échelon local, le développement du futur campus Les nouvelles technologies pour les batteries Li-ion Paris – Saclay ne pourra pleinement se réaliser sans le déve- dans le cadre de l’application au véhicule électrique .......... p.19 loppement des transports en commun : les bus en site propre et métros automatiques qui devraient desservir le plateau de Saclay avant la fin de la décennie seront nécessaires pour La méthode de conception fiabiliste des axes/roues assurer son décloisonnement et renforcer son attractivité. ferroviaires vis-à-vis de la fatigue ......................................... p.23 Le secteur Automobile et Transports, plus gros déposant de La commande « sans modèle » du trafic autoroutier .......... p.25 brevets en France, est très innovant et investit fortement en R et D, du génie mécanique à l’électronique en passant par les énergies renouvelables et les biocarburants. La recherche opérationnelle, la multi-modalité et les véhicules en libre service .............................................. p.31 On peut répertorier des travaux de recherche liés à la thématique « Transports » dans une douzaine de laboratoires de Le choc laser : vulnérabilité et durabilité l’École Polytechnique. Ces recherches sont menées en parte- des structures composites pour l’aéronautique ................... p.33 nariats avec les constructeurs et équipementiers nationaux du secteur routier, les constructeurs du secteur aéronautique et spatial, les opérateurs du secteur ferroviaire et du secteur Le titane et ses alliages dans les transports : naval. Dans le passé par exemple, des travaux sur l’analyse atouts et problèmes ............................................................... p.37 des crissements de freins de TGV ont été réalisés. Une des grandes problématiques actuelles réside dans le développement de transports terrestres moins polluants dans Le calcul scientifique dans les industries des transports – expérience d’une spin-off de l’X ................ p.43 les zones urbaines et périurbaines, moins émetteurs de gaz à effet de serre, plus efficaces d’un point de vue énergétique. Comprendre et réduire le bruit en aéronautique ................ p.47 La mise au point de véhicules moins consommateurs en carburants dont le prix s’accroit (pétrole) constitue un enjeu majeur, à coté des enjeux de sécurité, d’esthétisme et de confort. Le véhicule électrique et la vente de services de mobilité durable Les effets transitoires des rafales de vent : de l’aile d’avion aux ponts haubannés ................................. p.49 constituent des innovations de rupture. Les secteurs aéronautiques et automobiles ont, notons le aussi, de plus en plus de PEGASES : synergie (allégement, cadences…) sans parler des projets de un nouveau propulseur électrique d’avenir ......................... p.53 « voiture volante » comme le programme NAOS. Les travaux de nos laboratoires dans le domaine des trans- En bref… ................................................................................. p.56 ports font l’objet de ce nouveau numéro de flash X dont la maquette a été remaniée afin d'offrir une lecture plus agréable. Prix et distinctions .................................................................. p.58 Flash X n°14 - Transports 3 Manager l’innovation de rupture : le véhicule électrique Christophe MIDLER - Florence CHARUE-DUBOC - Rémi MANIAK - Romain BEAUME - Felix VON PECHMANN Centre de Recherche en Gestion UMR PREG, CNRS - EP 7176 O n assiste depuis la fin des années 2000 à une multiplication d’initiatives dans le domaine des voitures électriques et hybrides. Les politiques de protection de l’environnement, le renchérissement du prix du pétrole et les progrès des technologies de batteries constituent évidemment des facteurs favorables. Est-ce à dire que ces conditions amèneront automatiquement le décollage du véhicule électrique vers un marché de masse ? L’histoire de l’industrie automobile incite à la prudence : la voiture électrique n’est pas une nouvelle technologie ; elle existe depuis les débuts de l’ère automobile. Mais elle a été victime de ce que les chercheurs appellent le « dominant design » : après une phase de foisonnement et d’exploration inventive, certaines technologies réussissent à s’imposer, et, peu à peu, se met en place un système qui fait quasiment disparaître toutes les technologies concurrentes. Ainsi, entre 1903 et 1920, près d’une vingtaine d’entreprises fabriquaient des véhicules électriques, puis le dominant design du moteur à explosion s’est imposé et ces constructeurs ont disparu. Un certain nombre de tentatives de commercialisation de véhicules électriques ont eu lieu depuis lors, en particulier lors des crises pétrolières, mais elles n’ont jamais débouché sur la création d’un marché de masse. Pour déstabiliser un dominant design, des facteurs d’environnement favorables sont assurément des conditions nécessaires, mais elles ne sont pas suffisantes. Il faut aussi que le management de l’innovation des entreprises soit adapté à ce qui constitue un véritable changement de paradigme dans la mobilité individuelle. Comment caractériser un tel management de l’innovation de rupture ? Comment opérer les transformations d’un système organisé pour concevoir des produits plus traditionnels ? Telles sont les questions qu’aborde la recherche engagée depuis 2008 au Centre de Recherche en gestion (CRG) de l’École Polytechnique dans le cadre de son programme « straté- gies d’innovation et dynamique des systèmes de conception ». Cette recherche est menée en partenariat avec des chercheurs de Télécom ParisTech et Mines ParisTech, et des industriels du domaine dont en particulier Renault, dans le cadre de la chaire Management de l’innovation de l’École et de l’Institut de la Mobilité Durable Renault ParisTech. La recherche a d’abord montré que le système de conception traditionnel des constructeurs automobiles a longtemps abordé cette question sous l’angle, trop réducteur, d’une « électrification » des voitures thermiques, ce qui conduisait à des offres peu attractives pour les clients. L’initiative Zéro Emission de Renault : un programme ambitieux pour amener le véhicule électrique jusqu’au marché de masse 4 Elle a ensuite permis d’identifier les nouveaux périmètres à intégrer dans le management de cette innovation : élargissement de la vision " produit " au système de mobilité incluant l’infrastructure de recharge, développement des services permettant de valoriser l’offre produit " véhicule électrique "z proprement dite, exploration de nouveaux modèles économiques tirant parti des valeurs générées par la mobilité électrique et rassurant le client quant aux risques inhérents à une telle innovation de rupture, accompagnement de l’apprentissage des clients dans leur expérience de la mobilité électrique. La recherche s’est ensuite attachée à formaliser les raisonnements, outils et méthodes permettant d’appréhender ces enjeux et de piloter la conception des offres associées en conséquence. Il s’agissait notamment de définir des paramètres et des méthodes de nature à appréhender et dimensionner la valeur des produits et services dans une perspective de structuration d’un nouvel écosystème (externalités de valeur) et de dynamique de construction de marché (dynamique de valeur). Il s’agissait aussi de construire et d’évaluer un plan d’expérience à l’échelle mondiale de la mobilité électrique, afin de comprendre les contextes locaux, la spécificité des usages, construire les partenariats nécessaires à la conception des offres. Le contexte de partenariat avec Renault a permis d’expérimenter ces nouvelles méthodes et outils en situation réelle. La recherche se poursuit selon différentes perspectives, dont une comparaison internationale des initiatives de véhicule électrique, recherche menée avec l’Université RWTH d’Aix La Chapelle et l’Université de Tokyo. Cette recherche a pu associer des élèves de l’X à ces travaux, dans le cadre de MODAL HSS et de projets de Master PIC . Un récent ouvrage témoigne de cette articulation étroite entre recherche et enseignement sur ce domaine d’innovation contemporain particulièrement stimulant que constitue le management de l’innovation de rupture. http://www.editions.polytechnique.fr Contact : Christophe Midler [email protected] http://www.chaireinnovation.fr http://www.mobilite-durable.org http://www.masterpic.fr Le foisonnement actuel des initiatives de véhicules électrifiés. Source de l’image (editée) : www.e-mobile.ch Flash X n°14 - Transports 5 Le partenariat de l'École Polytechnique avec PSA Peugeot Citroën Patrick LE TALLEC - Habibou MAITOURNAM Laboratoire de Mécanique des Solides UMR CNRS - EP - École des Mines ParisTech 7649 Sylvain ALLANO - Laurent ROTA - Jean-Marc MOUSSET PSA Peugeot Citroën DRD/DRIA/DSTF L a Chaire André Citroën vient renforcer et dynamiser les liens scientifiques étroits et la collaboration fructueuse établis depuis plusieurs décennies entre PSA Peugeot Citroën et l’École, PSA et les laboratoires de l’École et plus particulièrement entre PSA et le LMS (Laboratoire de Mécanique des Solides). Ce partenariat exemplaire a été mis en place et porté dans les années 90 par Ky Dang Van, chercheur au LMS, dont le critère de fatigue est toujours utilisé pour optimiser la résistance des structures, et André Bignonnet, ancien responsable du service de mécanique et matériaux au sein de la DRIA de PSA, qui s’est appuyé sur le laboratoire pour construire une véritable démarche de prototypage virtuel, et par là-même développer l’innovation et de nouvelles compétences pour l’automobile. Depuis la fin des années 80 jusqu’à aujourd’hui, une vingtaine de thèses de doctorat CIFRE ont été soutenues. On pourra citer d’abord celle de Patrick Ballard (X84), collaboration entre PSA-LMS-LULI, puis celle d’André Deperrois (X85) qui a permis de mettre au point un module d’optimisation de la résistance à la fatigue des composants d’automobile, module qui est toujours utilisé par les bureaux d’études de PSA et qui a continué à être perfectionné par tous les travaux qui ont suivi. Parmi les thèses récentes, on peut mentionner celles d’Antoine Launay (X04) « Thermoplastiques renforcés en fibres de verre courtes : comportement cyclique, fatigue et durée de vie », d’Aurélie Benoît « Prédiction de la durée de vie des structures mécano-soudées soumises à des chargements anisothermes: applications aux collecteurs d’échappement » et de Shadan Tabibian « Fatigue thermomécanique des alliages en aluminium fondues avec le procédé PMP ». Les différents autres travaux de doctorat ont conduit à des applications concrètes, utilisées dans l’industrie pour optimiser, mettre au point et sélectionner des matériaux et structures. L’excellence de ces travaux est aussi reconnue au niveau académique car plusieurs d’entre eux ont été couronnés par des prix. Remarquons qu’il s’agit bien d’une formation par la recherche. Les doctorants formés sont, en grande majorité, actuellement des cadres chez PSA, dans différents services (pas seulement en R&D) et dans d’autres secteurs de l’industrie. D’un autre côté, en plus des contrats de recherche, des chercheurs du LMS (C. Stolz et A. Constantinescu) ont été détachés pendant un an chacun chez PSA. Des ingénieurs de PSA ont aussi participé à l’enseignement, encadré des projets, de stages bien sûr, en apportant une compo- sante essentielle, à laquelle sont sensibles les élèves, les applications, la réponse au « à quoi ça sert ? ». Ils ont donc enrichi l’enseignement par des applications concrètes, des situations industrielles caractéristiques, et contribué de ce fait à le garder au cœur des problématiques industrielles actuelles. La Chaire André Citroën va donc stimuler ce partenariat, sur trois volets : la recherche, l’enseignement et l’ouverture internationale. Elle associe l’École Polytechnique, la Fondation de l’École Polytechnique et PSA Peugeot Citroën. Cette chaire a été inaugurée le 6 mai 2011. D’une durée de 5 ans, elle porte sur la modélisation mécanique et multi-physique. Son responsable académique à l’École Polytechnique est Habibou Maitournam, enseignant-chercheur au LMS et le correspondant à PSA est Laurent Rota. Elle rend ainsi hommage à l’ancien polytechnicien, fondateur de la marque automobile du même nom. Les objectifs de la chaire seront de développer les thématiques liées aux matériaux et aux structures mécaniques, à la physique des surfaces, à la modélisation numérique et aux couplages multi-physiques. Dans le cadre de ses recherches, la chaire bénéficiera de la culture d’excellence scientifique de l’École Polytechnique en s’appuyant sur un corps enseignant de très haut niveau et sur deux laboratoires, le LMS et le LPICM. La Chaire André Citroën développera non seulement la recherche, mais aussi l’enseignement en encourageant notamment 6 des initiatives dans le domaine de l’automobile. Elles permettront aux étudiants accueillis au sein du Groupe d’être confrontés à des situations d’innovations technologiques caractéristiques. Les travaux de recherche s’inscriront dans un environnement international : en collaboration avec l’Université PSA Peugeot Citroën, la Chaire André Citroën débouchera sur des coopérations avec les universités chinoises, brésiliennes et américaines, facilitera l’accueil de professeurs internationaux, favorisera l’échange d’étudiants et donnera lieu à des conférences d’envergure internationale. Instabilité et mécanismes de rupture des structures sandwich renforcées (LMS) Un grand nombre d’applications dans l’automobile moderne et les structures aérospatiales recherchent des matériaux légers mais raides. Un des matériaux les plus prometteurs est une nouvelle structure sandwich d’aluminium renforcé qui fournit une raideur importante sans ajouter trop de masse sur l’ensemble. C’est similaire à une structure sandwich ordinaire mais avec des plaques renforcées supplémentaires passant à travers le centre de chaque cellule hexagonale. Cela ajoute une raideur considérable à la structure dans la direction, et de plus génère un mode de ruine plus complexe. Figure 1 : Écrasement à température ambiante Flash X n°14 - Transports Le but principal de ce projet est d’étudier les instabilités et les mécanismes de ruine d’une structure sandwich renforcée, à différentes températures. Toutes les plaques dans la structure alvéolaire renforcée sont assemblées avec de la colle époxy qui reste dure à température ambiante. Par contre, à de plus hautes températures, la ramollissement de la colle époxy affecte le mode de ruine des structures sandwich, comme le montrent les figures 1 et 2. Le problème est abordé de deux façons différentes : i) une approche théorique utilisant une cellule et la théorie de représentation des ondes de Bloch pour analyser les charges et modes critiques de la structure infinie en trois dimensions, ii) et un calcul numérique complet basé sur des codes numériques existants. La structure est supposée être composée de plaques nonlinéaires et élastoplastiques alors qu’un modèle spécial est développé pour la colle. Projet Nano-Capteur Intelligent (LMS et LPICM) La métrologie est un élément clef dans l’instrumentation en continu du véhicule moderne. La collecte d’information massivement distribuée requiert l’emploi de systèmes communicants, de capteurs à bas coût et à faible consommation énergétique et faible impact écologique. Les nano-capteurs peuvent constituer dans ce sens des solutions métrologiques particulièrement intéressantes, offrant sensibilité, richesse des observables, autonomie énergétique et bas coût à grande échelle. Dans le cadre du volet « Electronique et Nanomatériaux » de la Chaire André Citroën, le projet de recherche mené lors de la première année (Septembre 2011Août 2012) vise à démontrer la faisabilité du concept de nano-capteurs par la réalisation d’un démonstrateur de nano-capteur d’humidité. Des travaux préliminaires réalisés par l’équipe NanoMade du LPICM (Laboratoire de Physique des Interfaces et Couches Minces) ont montré qu’une structure de transistor à base de nanotubes de carbone peut avoir une réponse linéaire significative en terme de courant à l’état bloqué (Ioff) pour une gamme large de valeurs d’humidité relative dans l’air (<20% à plus de 80%) Le travail de recherche qui est principalement mené par un post-doctorant (Fatima Bouaniss) financé via la Chaire André Citroën, vise donc à réaliser un démonstrateur de concept facilement intégrable dans une chaîne de mesure. De manière plus précise seront abordées lors de cette première année : Figure 2 : Écrasement à haute température 7 L’optimisation du composant (transistor à base de nanotubes de carbone) en termes de conditions de dépôt et de choix de structure. La fiabilisation de la fonction de transduction en termes de plage et de stabilité de la mesure ainsi que de sélectivité. La réalisation d’une électronique embarquée dédiée pour rendre le signal utilisable dans une chaîne de mesure. Le second volet du partenariat avec PSA s’est ouvert avec l’inauguration en décembre 2011 d’un nouvel OpenLab « Computational Mechanics » de PSA Peugeot Citroën en partenariat avec l’École des Mines ParisTech. Regroupant des équipes du LMS de l’École Polytechnique et du Centre des Matériaux de Mines ParisTech, l’OpenLab « Computational Mechanics » a pour but de développer en partenariat avec la Direction de la recherche et de l’ingénierie avancée de PSA Peugeot Citroën, les compétences et la recherche en matière d’innovation technologique et de recherche scientifique dans le domaine de la mécanique des solides, des structures et des matériaux. Le programme scientifique est structuré en quatre axes de recherche et d’innovation Le comportement et durabilité des structures : appréhender les phénomènes de fatigue des structures sous sollicitations mécaniques variées, couplées à d’autres sollicitations (thermique, physico-chimique…) Les matériaux composites pour applications structurales : explorer un levier nouveau dans le domaine automobile pour réussir le challenge de la réduction de la masse Les méthodes numériques : imaginer des outils de plus en plus efficaces pour simuler les processus multi-physiques (couplages, simulation des procédés, modélisation multi-échelle…) et le comportement mécanique des structures Milieux complexes : explorer des solutions matériaux nouvelles pour l’automobile de demain (matériaux multifonctionnels, matériaux micro ou nano-structurés, matériaux pilotables,…) Les six « OPenLabs » de PSA sont coordonnés par une structure d’animation du groupe, qui a pour mission de créer un réseau interdisciplinaire d’échanges et de dialogue entre scientifiques et experts du constructeur. Contacts : Patrick Le Tallec [email protected] Habibou Maitournam [email protected] Sylvain Allano [email protected] Laurent Rota [email protected] Jean-Marc Mousset [email protected] Flash X n°14 - Transports 9 Dégradation thermo-oxydante des huiles moteur : description des mécanismes mis en jeu Michel SABLIER - Moussa DIABY Laboratoire des Mécanismes Réactionnels (DCMR) UMR CNRS - EP 7651 L a motorisation Diesel a connu un véritable essor pour des raisons économiques (faible consommation de carburant, faible coût de maintenance) et environnementales (faibles émissions de CO2 notamment). De plus, avec le développement des filtres à particules, la motorisation diesel a gagné une image de moteur propre. Cependant, l’un des défis majeurs à relever reste la réduction des émissions d’oxydes d’azote (NOx) produits lors de la combustion. Ainsi, face aux contraintes réglementaires de plus en plus sévères, les constructeurs automobiles innovent dans des technologies nouvelles comme la recirculation de gaz d’échappement (Exhaust Gas Recirculation, EGR). Cette technologie contribue toutefois à une formation plus importante de suies qui se déposent sur les parois des cylindres ou sont acheminées dans le réservoir d’huile. Les propriétés physico-chimiques de l’huile sont alors modifiées. Des phénomènes Description du système : Le moteur en fonctionnement est un appareil soumis à des contraintes thermiques importantes. Les conditions d’excès d’air nécessaire à la combustion Diesel et le manque d’étanchéité complète des segments de pistons font que dans le carter d’huile, l’environnement est assez oxydant. Ainsi l’huile présente dans le carter est soumise à des conditions d’oxydation. Ces mécanismes d’oxydation largement relatés dans la littérature font appel à des réactions radicalaires. Température de certains organes du moteur lors de son fonctionnement d’usure des parties métalliques se produisent et des dépôts carbonés se forment à divers endroits du moteur, notamment en fond de première gorge de piston. Le but des travaux conduis au Laboratoire des Mécanismes Réactionnels (DCMR) a consisté à mettre en évidence les mécanismes de formation de dépôts en fond de première gorge de piston de moteurs Diesel. La technologie (EGR), qui consiste à rediriger vers le système d’admission une partie du gaz d’échappement, a montré son efficacité dans la réduction des quantités de NOx à l’échappement. Principe de la technologie EGR Simulation de la dégradation oxydante d’une huile de moteur : L’huile des moteurs est un produit de haute technicité, indispensable au bon fonctionnement du moteur. Elle sert de lubrifiant pour les différentes pièces de celui-ci. Les lubrifiants doivent donc assurer le bon fonctionnement des mécanismes en s’intercalant entre les surfaces frottantes. Il est indispensable pour la vie des moteurs que les propriétés des lubrifiants soient conservées quelles que soient les conditions de vie du moteur. Ainsi, pour protéger le moteur, les lubrifiants se composent généralement d’un mélange de bases minérales et synthétiques et d’additifs de 2% jusqu’à plus de 25% pour les dernières huiles multigrades. 10 L’huile de base sert de matrice pour constituer « l’ossature » du lubrifiant et elle doit avoir des caractéristiques aussi proches que possible de celles du lubrifiant visé. Les additifs viennent alors renforcer ou apporter des propriétés supplémentaires aux huiles de base ; ce sont par exemple : les additifs antioxydants, les détergents, les dispersants, les anti-usures, les modificateurs de frottements etc. La figure ci-contre montre à titre d’exemple l’empreinte d’une huile de moteur obtenue par spectroscopie infra-rouge. Spectre infrarouge d’une huile neuve Lors de la dégradation thermo-oxydante d’une huile de moteur, plusieurs mécanismes sont mis en jeu. Cette dégradation caractérisée par la formation successive et progressive de produits d’oxydation, de produits de polymérisation, se déroule simultanément avec la consommation des additifs antioxydants. Elle peut conduire à des réactions de cyclisation et d’aromatisation des chaînes hydrocarbures à l’origine de la formation de dépôts en fond de première gorge de piston. Les éventuelles particules métalliques dans le milieu réactionnel provenant de l’usure des organes en contact peuvent agir comme catalyseur et accélérer le processus de dégradation. Ce phénomène prend une importance significative sous l’effet de la température et de la durée de fonctionnement. Or une dégradation trop rapide du lubrifiant a des conséquences sur l’intervalle de vidange qui, pour le confort du client, doit être le plus long possible. L’originalité de cette étude est de simuler le vieillissement des huiles moteur dans les conditions de températures et de pressions rencontrées dans les premières gorges de piston. En effet, si l’effet de la température sur les mécanismes de dégradation des lubrifiants est très bien connu, l’influence de la pression l’est beaucoup moins. Pour ce faire, un microréacteur de type autoclave a été conçu pour reproduire les conditions thermodynamiques des gorges de piston. Vue d’ensemble du micro-réacteur de type autoclave Flash X n°14 - Transports 11 Les expériences ont montré le rôle prépondérant de la pression dans la dégradation de la molécule modèle, le squalane. Leurs résultats ont été corrélés à ceux obtenus lors de la dégradation du squalane à pression atmosphérique. Sous l’effet conjugué de la pression et de la température, il se produit une voie supplémentaire de dégradation de l’hydrocarbure : c’est la dégradation thermique donnant lieu à la formation d’hydrocarbures aromatiques polycycliques (HAP) par des mécanismes de type Diels-Alder et de déshydrogénation et désoxygénation. Spectre de masse expérimental du méthyl-pyrène, un des précurseurs de composés polymérisés formés Mécanisme de vieillissement des huiles en conditions de gorges de piston La modélisation de la base de l’huile de grade SAE 5W-30 par le squalane (C30H62) est un excellent moyen pour étudier simplement les mécanismes de dégradation des huiles en condition thermo-oxydante. L’utilisation d’une telle molécule simple permet d’identifier aisément les produits de dégradation, de suivre leur évolution dans le temps et d’en extraire un modèle cinétique utilisable en prédictif. Le schéma mécanistique général ci-dessous issu des travaux menés au DCMR a permis d’expliquer la formation de dépôts en fond de première gorge de piston de moteurs. Ces travaux - associant le DCMR et la société Peugeot-Citroën Automobiles SA – centre Technique de Vélizy DRD/DRIA/DSTF/PCEA complètent les données disponibles sur les facteurs responsables de la dégradation thermo-oxydante des huiles moteurs. Ils mettent un accent particulier sur l’effet prépondérant de la pression quand elle est associée aux autres paramètres habituellement étudiés à pression atmosphérique (température, durée d’exposition, composition de l’environnement gazeux). Il apparaît clairement que seule la caractérisation des mécanismes prenant place à la fois au niveau du piston (effet prépondérant de la pression, température, composition gazeuse environnante) et du carter à huile (effet prépondérant de la température, durée d’exposition, pré- sence de particules métalliques) conduit à des avancées effectives pour optimiser la formulation des huiles moteurs et réduire ainsi les risques liés à la formation de dépôts nuisibles à la conservation de leurs propriétés mécaniques. Ces travaux ont été soutenus par le financement d’une thèse sous convention Cifre et le financement d’un contrat de recherche post-doctoral par la société PeugeotCitroën Automobiles SA. Le LMS, et en particulier Daniel Caldemaison, doivent être remerciés pour l’accès à la microscopie électronique à balayage (MEB) ayant permis la caractérisation structurelle des dépôts. Contacts : Michel Sablier [email protected] Moussa Diaby [email protected] Schéma du mécanisme de formation de dépôts (vue agrandie au microscope électronique à balayage d’un échantillon de dépôts) Références : Diaby M, Sablier M, Le Negrate A, El Fassi M, Bocquet J. Understanding carbonaceous deposit formation resulting from engine oil degradation. Carbon 2009; 47(2):355-66. Diaby, M.; Kinani, S.; Genty, C.; Bouchonnet, S.; Sablier, M.; Le Negrate, A.; El Fassi, M. Analysis of the Volatile Organic Matter of Engine Piston Deposits by Direct Sample Introduction Thermal Desorption Gas Chromatography/Mass Spectrometry. Anal. Chem. 2009; 81, 9764-9770. Diaby M, Sablier M, Le Negrate A, El Fassi M. Kinetic Study of the Thermo-Oxidative Degradation of Squalane (C(30)H(62)) Modeling the Base Oil of Engine Lubricants. J. Eng. Gas Turb. Power 2010; 132(3), 032805.1-032805-9. Flash X n°14 - Transports 13 La pile à combustible, une solution vers des véhicules propres Marie-Claude CLOCHARD Laboratoire des Solides Irradiés (LSI) UMR CEA – CNRS – EP 7642 L es énergies alternatives sont aujourd’hui une réalité et leur développement est devenu une priorité dans les objectifs de la Recherche française (Grenelle de l’Environnement). Pour l’Automobile, deux technologies sont aujourd’hui en plein essor pour le remplacement du moteur à explosion : la batterie lithium et la pile à combustible. Dans les deux cas, des prototypes sont à l’essai et les grands constructeurs automobiles (Peugeot, Renault, Nissan, Toyota) ont déjà fait fonctionner certains modèles de véhicules avec ces deux types de technologies. La batterie touche un marché plus proche que la pile à combustible car la production d’électricité n’est pas un souci et son acheminement non plus. La pile à combustible, quant à elle, a besoin d’hydrogène pour fonctionner ; il faut donc pouvoir en produire en grande quantité (projet d’un réacteur nucléaire francoaméricain pour l’hydrolyse de l’eau haute température) et inventer de nouvelles pompes pour la stocker. Le marché visé est à l’horizon des 20 ans à venir. La batterie manque cependant d’autonomie et un temps de recharge d’en moyenne ½ h est nécessaire. Un plein d’essence ne prend pas plus de 8 min ! Aussi certains constructeurs pensent à des batteries que l’on pourrait changer comme des valisettes chez les distributeurs classiques pour éviter les temps de recharge. D’autres pensent à une technologie mixte pile à combustible/batterie, la pile servant uniquement à recharger la batterie. Bref, toute l’inventivité des ingénieurs et des chercheurs se met à la disposition du meilleur dispositif qui pourra un jour remplacer le moteur à explosion pour limiter la dépense en énergie fossile et l’émission de CO2. Comment marche une pile à combustible ? Le principe de la pile à combustible a été inventé en 1839 par William Grove. Il s’agit tout simplement de la réaction inverse de l’électrolyse de l’eau : 2H2 + O2 → 2H2O. Or la réaction a lieu à la condition que la molécule d’hydrogène H2 se dissocie au contact du catalyseur (en général des grains de platine) placé sur l’anode, ce qui libère quatre électrons, selon la réaction suivante : Anode (oxydation) - carburant 2H2 → 4H+ + 4 e - (0V) Les quatre électrons sont transmis au circuit électrique via des éléments carbonés conducteurs également présents dans la composition de l’anode. Il y a donc création d’électricité. Les protons sont, eux, véhiculés vers la membrane échangeuse de protons. Cette membrane peut être en matériaux divers mais pour l’application automobile, seules les membranes polymères fines et élastiques semblent appropriées. On parle alors de pile à combustible à membrane polymère électrolyte (Polymer Membrane Fuel Cell ou PEMFC en anglais). Le polymère constituant la membrane se comporte comme un électrolyte solide et est capable d’acheminer les protons de l’anode à la cathode. À la cathode, les protons se combinent avec l’oxygène de l’air au contact d’un catalyseur (classiquement du Platine) selon la réaction : Cathode (réduction) - comburant O2 + 4 H+ + 4 e - → 2 H2O (1.23V) Le bilan énergétique est donc de 1.23 V. Si on enlève la contribution des résistances du dispositif, on arrive à 0.9 V entre l’anode et la cathode. Lorsqu’on demande du courant à la pile en fonctionnement, la pile va tendre à maintenir cette différence de potentiel. C’est sa faculté à maintenir constante une différence de potentiel la plus haute possible par rapport à la valeur théorique qui indique si une membrane est performante ou non pour cette application. On évalue donc les performances d’une pile à combustible non seulement au courant que l’on tire mais aussi par rapport à sa conductivité protonique en réalisant des courbes dites de polarisation avec, 14 Le Nafion® est également cher à fabriquer. Ce coût s’ajoute au prix du platine. en ordonnée, la différence de potentiel entre l’anode et la cathode et, en abscisse, la densité de courant (en A/cm2). Verrous technologiques à lever La membrane de référence est une membrane perfluorée sulfonée du fabricant Dupont-De Nemours, le Nafion® (voir schéma de sa formule chimique ci-dessus). L’acide sulfonique est un acide fort, ce qui signifie que sa constante de dissociation est élevée. Il favorise donc la conduction protonique. D’autres fabricants, comme Dow Chemical, commercialisent des variantes de membranes perfluorées sulfonées pour essayer de prendre une part du marché. Néanmoins, la formulation du Nafion® fait de cette membrane la membrane reine dans le domaine des piles à combustible. Et pourtant, elle a ses limites malgré sa robustesse (5000 h de fonctionnement en milieu acide et oxydant). En effet, sa température de fusion basse interdit de monter trop haut en température de fonctionnement, aux environs de 60-70°C. C’est un problème au niveau des catalyseurs platines qui s’empoisonnent par du monoxyde de carbone à cette température. L’efficacité des catalyseurs est diminuée et la dismutation de l’hydrogène n’est donc pas optimum. De plus, le Nafion® a besoin de beaucoup d’eau pour fonctionner, jusqu’à 40% en poids, et, si en mode stationnaire, sa durabilité est forte, en mode cyclique arrêt-démarrage, sa durabilité est nettement affectée par ces cycliques de gonflement et dégonflement associés à la quantité d’eau demandée. Il est donc intéressant de chercher si d’autres types de membranes ne pourraient pas satisfaire davantage au cahier des charges pour l’application automobile ou, tout du moins, pour une même performance, diminuer le prix. Le prix est un paramètre important pour qu’une technologie puisse voir le jour. Pour fabriquer une pile à combustible qui permette de délivrer l’énergie nécessaire pour une voiture, il faut empiler des minipiles les unes aux autres pour créer ce que l’on appelle un ‘stack’ (figure 1). Pour un stack, il faut compter jusqu’à 10m2 de membrane… Notre travail L’objectif de notre travail au Laboratoire des Solides Irradiés (LSI) est l’étude des membranes polymères électrolytes à base de films thermoplastiques fluorés de Poly (Difluorure de vinylidène) (PVDF) pouvant remplacer le Nafion®. Contrairement au Nafion®, ils sont nano-structurés en canaux de conduction protoniques rectilignes. Depuis 2007, quatre brevets ont été déposés sur ce projet (dont un en 2011) [1]. Les premiers résultats sur les performances en pile de ce nouveau type de membranes ont été publiés début 2010 [2] en collaboration avec le CEA Grenoble1. En 2010, Enrico Gallino a rejoint le LSI en tant que post-doctorant pour renforcer l’équipe de travail du projet. Il a repris la méthode de synthèse des membranes en PVDF : i) irradiations aux ions lourds rapides au GANIL2 (un ion = une trace), ii) greffage radio-induit d’un polymère dans les traces laissées par les ions et iii) fonctionnalisation du polymère radiogreffé précédemment avec des entités capables de transporter des protons. C ollaboration A. Morin du CEA/DRT/LITEN et G. Gébel du CEA/DSM/INAC 2 Grand Accélérateur National d’Ions Lourds en collaboration avec le CIMAP (Caen) 3 FTIR = Infra-Rouge à Transformée de Fourrier 1 Figure 1. Exemple d’un stack de piles à combustible permettant le fonctionnement d’une voiture Flash X n°14 - Transports 15 La trace devient alors un chemin privilégié et rectiligne pour le transport de protons entre l’anode et la cathode. On parle ici de canal de conduction protonique. De nombreux tests en pile ont été effectués avec une mission de 15 jours tous les 4 mois en moyenne au CEA Grenoble. La reproductibilité des résultats obtenus sur une membrane en PVDF greffée Polystyrène sulfoné (PVDF-g-PSSA caractérisée en FTIR3 -Figure 2-) fortement radiogreffée a été montrée (Figure 3). La conductivité est importante (de l’ordre de 30 mS/cm) et la densité de courant à 500mV peut être délivrée sur trois jours à un ampère par cm2. Ces résultats sont tout à fait comparables à ceux obtenus avec le Nafion® dans les mêmes conditions. La robustesse des membranes lors du montage en pile est également un atout pour l’application industrielle. Par contre, des tests de durabilité ont montré que le taux de greffage trop important limite la durée de vie à 70h. Le but en 2011 a été de renforcer la tenue mécanique en diminuant la densité des traces. Les performances en test en pile ont pu être préservées en jouant sur les débits d’entrée des gaz H2 et O2 (Figure 4). Ce résultat montre l’importance de l’effet de la structuration en nanocanaux sur les propriétés de conduction de ce nouveau type de membrane pour l’application pile à combustible [3]. Des tests de durabilité sont actuellement en cours. La recherche sur les nouveaux types de membranes s’oriente maintenant à découvrir d’autres types de fonctionnalités chimiques permettant le transport de protons pour booster les performances. L’amélioration de l’interface membraneélectrode reste également un point important à développer. Cette amélio- Figure 2. Spectres FTIR d’un film de PVDF irradié aux ions Kr (10MeV/uma –ligne SME GANIL-, densité = 1010 ions/cm2), d’un même film après radiogreffage PVDF-g-PS et de la membrane finale après sulfonation sur le polystyrène PVDF-g-PSSA (A) 4000-2000 cm-1 et (B) 1800-900 cm-1. ration passe par la compréhension des spectres de spectroscopie d’impédance enregistrés au cours des tests en pile. En effet, on observe, dans des conditions sévères de test en pile, la présence de deux hémisphères au lieu d’une seule révélant plusieurs mécanismes de transport protonique (Figure 5). Il ne s’agit donc plus de s’intéresser à la membrane seule mais d’appréhender l’ensemble du système c’est-à-dire l’Assemblage Membrane-Electrode ou AME. Cette amélioration passe par la mise en place d’un AME particulier, dans lequel on change la composition de l’électrode pour assurer une continuité chimique entre l’électrode et la membrane. Cela revient à la réalisation d’un AME en rupture technologique complète avec le Nafion® qui compose également la formulation des encres pour les électrodes. Durant 2011, ce projet a été accepté par le programme transverse CEA et sera conduit en 2012. La mise en place d’un dispositif de synthèse du PVDF dédié à la formulation des nouvelles encres a déjà été réalisée au LSI. Contact : Marie-Claude Clochard [email protected] 16 Figure 3. Courbes de polarisation obtenues entre 50°C et 80°C pour la membrane de PVDF-g-PSSA (taux de greffage = 140%) – Tests en pile alimentée en gaz H2 et O2 purs. Figure 4. Comparaison des courbes de polarisation obtenues à 80°C pour la membrane de PVDF-g-PSSA (1010 canaux/cm2, taux de greffage = 140%), la membrane de PVDF-g-PSSA (108 canaux/cm2, taux de greffage = 40%) et le Nafion® NRE212 – Tests en pile alimentée en gaz H2 et O2 purs. Membrane Taux de greffage (%) IEC (meq/g) Water uptake (%) RH (%) Température (°C) Conductivité (mS cm-1) Nafion NRE 212 / 0.95-1.1 50 75 75 75 75 50 50 60 70 80 80 31 29 31 27 17 PVDF-g-PSSA 140 3 Hors équilibre 75 75 75 75 50 50 60 70 80 80 25 23 23 22 7 Tableau 1. Récapitulatif des conductivités protoniques in-situ dans la pile en fonctionnement des membranes nanostructurées de densité de 1010 canaux par cm2 en PVDF-g-PSSA (IEC = capacité d’échange ionique évalué par expérience de dosage ex-situ). Flash X n°14 - Transports 17 Figure 5. Exemple de courbes de spectroscopie d’impédance enregistrées au début d’un test en pile sur une membrane de PVDF-g-PSSA (1010 canaux/cm2, taux de greffage = 140%) pour des conditions particulières de faible température et pression en atmosphère peu humide : 50°C, 2 bars, 35% RH (Relative Humidity) Références : [1] Brevets CEA : - M.-C. Clochard, T. Berthelot, C. Baudin, « Procédé d’élaboration de Membranes Conductrices de Protons de Pile à Combustible par Radiogreffage » CEA French patent (BD 1727) FR 0757875 ext PCT WO/2008/062726 (2007) - T. Berthelot, M-C Clochard, « Membranes Conductrices de Protons pour Pile à Combustibles présentant un gradient de protons et Procédés de Préparation desdites Membranes» CEA French patent (BD 10047) FR 0757873 ext PCT WO/2009/103925 (2007) - T. Berthelot, M-C Clochard, « Membranes Conductrices de Protons pour Pile à Combustible et Procédés de Préparation desdites Membranes » BD11266 French patent FR0955854 ext PCT WO/2010/062512 (2009) - M.-C. Clochard, H. Bessbousse, T. Wade, E. Gallino « Membranes nanostructurées et leur utilisation » CEA-X-CNRS French Patent FR 1153977 (2011) [2] M.-C. Clochard, T. Berthelot, C. Baudin, N. Betz, E. Balanzat, G. Gebel, and A. Morin, J. Power Sources 195, 223 (2010) [3] Enrico Gallino, Marie-Claude Clochard, Emmanuel Balanzat, Gerard Gebel, Arnaud Morin “Elaboration of nanostructured and highly proton conductive membranes for PEMFC by ion track grafting technique” November 28 - December 2, 2011 Hynes Convention Center, Boston, MA, MRS proceedings (submitted) Flash X n°14 - Transports 19 Les nouvelles technologies pour les batteries Li-ion dans le cadre de l’application au véhicule électrique Costel Sorin COJOCARU Laboratoire de Physique des Interfaces et des Couches Minces (LPICM) UMR CNRS – EP 7647 François OZANAM - Michel ROSSO Laboratoire de Physique de la Matière Condensée (PMC) UMR CNRS – EP 7643 Aurélien GOHIER Renault SAS, DREAM/DETA/SEE L a raréfaction à terme des combustibles fossiles, l’augmentation de leur coût et la volonté de réduire de façon significative les émissions de gaz à effet de serre poussent au développement de véhicules électriques de façon beaucoup plus volontariste que par le passé. Pour des véhicules à motorisation totalement électrique dits « Zéro Emission » (aucune émission de dioxyde de carbone dans l’atmosphère), ou pour des véhicules hybrides (motorisation mixte thermique et électrique), ce développement nécessite d’augmenter l’efficacité et la fiabilité des moyens de stockage de l’énergie. Une des solutions les plus prometteuses consiste à stocker l’énergie nécessaire à la propulsion du véhicule dans des batteries d’accumulateurs, mais de nombreux progrès restent à faire pour atteindre un confort d’utilisation proche de celui des véhicules thermiques traditionnels : la quantité d’énergie (celle contenue dans un litre d’essence est environ 100 fois supérieure à celle contenue dans une batterie de volume équivalent), la durée de vie, la sécurité d’une batterie sont encore à améliorer, et il faut plusieurs heures pour recharger la batterie d’un véhicule électrique alors qu’il ne faut que quelques minutes pour faire un plein d’essence. Le prix des batteries, une part importante du prix total du véhicule, reste aussi un frein au développement du véhicule électrique. Pourtant ce véhicule a une longue histoire derrière lui. Au tout début du vingtième siècle, le véhicule électrique concurrençait sérieusement le véhicule thermique. La « Jamais contente » fut la première automobile à passer, en 1899, la barre des 100km/h. Son moteur électrique était alimenté par des batteries au plomb. Le véhicule électrique a cependant laissé la place au véhicule thermique au début des années 20. Plus proches de nous, différentes tentatives de commercialisation de véhicules électriques ont connu des succès éphémères. La principale difficulté tenait à l’autonomie très réduite de ces véhicules (en général moins de 100 km entre deux recharges). Les dernières années ont cependant vu la batterie lithiumion, commercialisée à grand échelle au début des années 90, supplanter la classique batterie au plomb. La capacité a ainsi été augmentée d’un facteur 5-6, permettant de développer des véhicules ayant une autonomie de plus de 200 km à l’heure actuelle. Plusieurs constructeurs automobiles développent maintenant une production de véhicules électriques à grande échelle, mais améliorer les conditions de stockage de l’énergie pour le véhicule électrique reste un enjeu majeur. Deux laboratoires de l’École, le LPICM et le LPMC, sont engagés dans des recherches visant à améliorer la capacité de stockage des batteries. Une recherche orientée matériau La capacité des batteries se mesure traditionnellement en Wh, qui est l’énergie produite par une alimentation électrique fournissant une puissance de 1W pendant une heure. Une caractéristique importante pour un véhicule est la quantité d’énergie qu’on peut stocker par unité de masse, ou de volume de l’accumulateur. Typiquement, les performances actuelles des accumulateurs sont de 35 Wh/kg pour les batteries au plomb et de 120-180 Wh/kg pour les batteries lithium-ion. Pour celles-ci des progrès sont encore possibles, notamment en augmentant la capacité des électrodes. 20 Toute batterie comprend deux électrodes (une dite négative et une positive, voir figure 1). L’électrode négative des systèmes lithium-ion actuellement commercialisés est en graphite. La performance théorique d’une telle électrode est caractérisée par sa capacité spécifique exprimée en milli Ampèreheure par gramme (mAh/g). Pour le graphite, cette capacité spécifique théorique est de 372 mAh/g. D’autres composés peuvent être utilisés en substitution du graphite pour obtenir une capacité plus élevée : le silicium a une capacité théorique de 3580 mAh/g, environ dix fois supérieure à celle des électrodes en graphite utilisées actuellement dans les batteries Li-ion commerciales. Compte tenu des autres éléments constituant la batterie, l’utilisation d’une anode en silicium permettrait d’augmenter la capacité de la batterie d’environ 30%. Cependant, le silicium subit d’importantes variations de volume (300 à 400%) au fil des alternances charge/décharge de l’accumulateur, qui se traduisent par une perte d’intégrité de l’électrode (pulvérisation) et une baisse de performance trop rapide pour être compatible avec une application de longue durée. Actuellement, les deux laboratoires de l’École Polytechnique recherchent des voies complémentaires pour apporter des solutions à ce verrou technologique. Le Laboratoire de Physique de la Matière Condensée (PMC) mène depuis plusieurs années des recherches sur les propriétés physiques des surfaces et des couches minces (production, caractérisation). L’utilisation des techniques spectroscopiques comme la spectroscopie infrarouge in situ permet de comprendre l’évolution des propriétés de surface (formation de la couche de passivation notamment) et de volume (expansion et contraction volumique en cours de cyclage) d’électrodes constituées de couches de silicium de quelques dizaines de nm. Ces études, menées dans le cadre d’une collaboration avec SAFT, devraient déboucher sur la définition de traitements de surface permettant au matériau de mieux accepter les changements de volume dus aux alternances insertion-désinsertion du lithium au cours du cyclage de la batterie. La composition du matériau lui même est aussi étudiée, en particulier pour son effet sur ses propriétés mécaniques. Des alliages amorphes silicium-carbonehydrogène ont ainsi été produits par PECVD (Plasma Enhanced Chemical Vapor Deposition, technique de production de couches minces de matériaux amorphes bien maîtrisée au laboratoire). En ajustant leur teneur en carbone, ces matériaux présentent des capacités énergétiques proches de celles du silicium et des propriétés de cyclage améliorées par rapport au silicium pur. Le Laboratoire de Physique des Interfaces et des Couches Minces (LPICM) s’appuie sur son expérience dans le domaine des nanomatériaux. Les nanosciences et nanotechnologies (NST) sont un secteur stratégique avec un impact potentiel considérable dans de nombreux domaines : informatique et télécommunications, médecine et biologie, matériaux et chimie, sécurité, production et stockage de l’énergie... Associant plusieurs disciplines scientifiques traditionnelles (physique, chimie et biologie, science des matériaux…), les NST constituent un domaine de recherche en plein essor, très compétitif, en rapide croissance économique et de plus en plus perçu comme la base de la prochaine révolution industrielle. Dans ce contexte, le développement des nanomatériaux (nanotubes, nanofils, graphène) devrait permettre des progrès importants aussi Figure 1 Flash X n°14 - Transports 21 Figure 2 bien pour les systèmes de production (par exemple photovoltaïques) que pour le stockage électrochimique de l’énergie : super-condensateurs et batteries Li-ion. Dans le cadre de l’Institut de la Mobilité Durable, créé par Renault, la Fondation Renault et le Pôle de Recherche et d’Enseignement Supérieur Paristech, le LPICM développe une nouvelle approche consistant à « construire » (croissance directe sur le collecteur de courant – par exemple de type feuillard métallique, voir figure 2) des électrodes en Si nanostructuré pour les batteries Li-ion. Ces nanomatériaux sont des nanofils de Si et des systèmes hybrides comme des nanotubes de carbone recouverts de silicium. La nanostructuration du silicium présente plusieurs avantages : d’une part la taille nanométrique du silicium permet d’accommoder sans déstructuration les variations volumiques lors des cycles de charge/décharge et d’autre part la très grande surface spécifique de ses fils et leur taille nanométrique permettent une lithiation/délithiation rapide et profonde du matériau, permettant ainsi l’utilisation de forts courants. Ce nouveau concept (dont la faisabilité vient d’être démontrée par quelques équipes dans le monde) constitue une véritable rupture technologique dans la mesure où il permet d’améliorer la technologie des batteries Li-ion en apportant stabilité et fiabilité, un bon comportement en puissance et une excellente cyclabilité. Sur la base de cette approche, des capacités de stockage proches de la valeur maximale théorique et une très bonne tenue aux cycles de charge-décharge ont été obtenues. Contacts : Michel Rosso [email protected] Costel-Sorin Cojocaru [email protected] Références : A. Gohier, B. Laïk, K.-H. Kim, J.-L. Maurice, M. Martin, J.-P. Pereira-Ramos, C.S. Cojocaru, « Silicon decorated vertically aligned carbon nanotubes directly grown on collector for high rate capability lithium-ion batteries anodes », Advanced Materials (2012), sous presse. A. Gohier, B. Laik, J.-P. Pereira-Ramos, C.S. Cojocaru, P. Tran-Van, « Influence of the diameter distribution on the rate capability of silicon nanowires for lithium-ion batteries anode » Journal of Power Sources 203, 135– 139 (2012). Flash X n°14 - Transports 23 La méthode de conception fiabiliste des axes/roues ferroviaires vis-à-vis de la fatigue Clément ROUX Laboratoire de Mécanique des Solides (LMS) UMR CNRS - EP - École des Mines ParisTech 7649 A ctuellement, le transport ferroviaire est un des modes de transport les plus sûrs et les plus propres vis-à-vis de l’environnement. La Direction de l’Innovation et de la Recherche de la SNCF mène à bien des projets de recherche pour accroître la compétitivité des transports ferroviaires tout en garantissant une excellente sécurité de ces moyens de transport. Les roues et axes d’essieux des trains sont des structures mécaniques primordiales dans le fonctionnement et la sécurité d’un train. Ils sont donc dimensionnés pour ne jamais rompre par fatigue mécanique : chaque rotation de roue va engendrer un cycle de sollicitation qui pourrait endommager la structure matérielle de la roue et ainsi permettre potentiellement la naissance, la coalescence et la propagation de fissures catastrophiques. Ce type d’accident est extrêmement dangereux et à proscrire. Ainsi, d’une part les roues et axes sont conçus pour résister à ces phénomènes. D’autre part, ces structures coûteuses (fabrication, maintenance, exploitation) doivent évoluer pour répondre aux objectifs environnementaux et à l’évolution des besoins (on présente ci-contre une roue d’autorail présentant des perçages permettant la fixation de disque de frein). De nos jours, la sécurité est assurée mais la marge de progression vers des structures plus compétitives reste difficile à évaluer. Ainsi, les recherches effectuées visent à mieux évaluer statistiquement les efforts appliqués aux roues et proposer une méthode de conception fiabiliste en fatigue multiaxiale afin d’affiner les marges de sécurité imposées aujourd’hui par les normes de dimensionnement des roues ferroviaires. Des travaux dans ce domaine sont menés au Laboratoire de Mécanique des Solides de l’École Polytechnique. Connaître les sollicitations appliquées à la roue Depuis quelques années, les opérateurs ferroviaires européens, dont la SNCF, se sont lancés dans des campagnes d’essais ambitieuses et coûteuses pour caractériser statistiquement les sollicitations appliquées sur la roue. La roue est essentiellement sollicitée par les efforts induits par le contact roue/rail. La figure suivante montre les différents cas de sollicitations possibles. Caractériser la critique d’un trajet vis-àvis de sécurité en fatigue Après la caractérisation des sollicitations, il est primordial de pouvoir caractériser la sévérité vis-à-vis de la fatigue. Ainsi, on se propose de calculer cette sévérité sous la forme d’un scalaire à partir du vecteur des sollicitations (Y, Q, F) pour chaque rotation Illustration des cas de chargements : Images Agence d’Essai Ferroviaire - SNCF 24 distribution de criticité d’usages. À partir de cette donnée statistique appelée « Contrainte » et connaissant la « Résistance » à la fatigue (distribution de la limite d’endurance du matériau), on utilise une méthode probabiliste : la méthode « Contrainte – Résistance ». Illustration de Pf : Interaction entre « sollicitations » et « résistances » de la roue. Pour cela, on utilise le critère de fatigue multiaxial de DANG VAN. À partir de calcul mécanique et des données matériaux, à chaque tour de roue, on associe une valeur de criticité : tDV= fonction(Y,Q,F). Connaître la criticité de chaque tour de roue ne permet pas de calculer directement la criticité d’un trajet complet (représentatif de la durée de vie). On utilise pour cela la méthode d’ « Équivalence Fatigue » qui permet de calculer le scalaire teq représentatif de la criticité d’un usage. En pratique, on utilise la criticité de chaque tour de roue pour calculer une criticité globale via les méthodes de cumul de dommage classiques. Un usage représente un trajet équivalent à une durée de vie pour la roue dans une situation particulière de l’utilisation du train (en pratique on définit des usages types à partir des données globales). Estimer et maîtriser la marge de sécurité en fatigue En ayant la connaissance de la criticité d’un ensemble d’usages suffisants (plusieurs dizaines) on peut construire une Cette méthode permet de connaître la probabilité de rupture de la pièce (Pf) à partir de l’interaction entre la distribution de « Contrainte » et de « Résistance » (Pf représente la probabilité que la contrainte soit plus forte que la résistance). En pratique, la probabilité souhaitée pour un organe de sécurité est de l’ordre de 10 -6 à 10 -9. Ainsi, le concepteur de la roue devra adapter la structure mécanique de la roue pour se rapprocher au maximum de la valeur cible. Conclusion et perspectives La pièce ainsi conçue sera sûre et performante en termes de coût et de respect de l’environnement. La puissance de la méthode se base sur une connaissance forte des usages du train via des essais en ligne permettant de caractériser les efforts. Ensuite, l’aspect mathématique et mécanique mis en place apporte au concepteur un outil de conception et validation puissant. Ce type de méthode reste toutefois coûteux en temps de calcul ; les calculs mécaniques sont lourds. L’avenir pour ce type de méthode est de se passer de ces calculs via des approches couplant le calcul de critère et les aspects statistiques dans une méthode dite « multi-entrée ». Contact : Clément Roux [email protected] Résultat du calcul de Pf sur une roue réelle. Flash X n°14 - Transports 25 La commande « sans modèle » du trafic autoroutier Michel FLIESS Laboratoire d'Informatique de l'École Polytechnique (LIX) UMR CNRS - EP 7161 Hassane ABOUAISSA LGI2A Université Lille Nord Violina IORDANOVA DRIEA IF/DiRIF/SAR/DIET/UTR Cédric JOIN CRAN Université de Nancy UMR CNRS 7039 O n propose pour la régulation d’accès autoroutier, système non linéaire complexe, la nouvelle commande sans modèle. Plusieurs simulations numériques valident notre approche, simple à mettre en œuvre et robuste aux perturbations. Avec une circulation automobile dense sur les Voies Rapides Urbaines, VRU en abrégé, durant les heures de pointe, et sur les axes autoroutiers pendant les départs massifs en vacances, la difficulté de construire aujourd’hui de nouvelles infrastructures dans les villes et autour, la régulation du trafic autoroutier semble la meilleure, sinon la seule, solution pour éliminer, ou du moins atténuer, les congestions. Citons parmi les actions les plus utilisées : Les panneaux à messages variables pour la limitation dynamique de vitesse, le routage et l’information des conducteurs. Le contrôle d’accès, considéré comme le plus prometteur. On agit alors sur les débits d’entrées des bretelles afin de maintenir les densités du trafic sur la voie principale au-des1 cronyme d’Asservissement LINéaire d’Entrée AutoA routière. sous d’une certaine valeur critique. La littérature sur le trafic routier grossit chaque jour. Plusieurs revues scientifiques s’y consacrent entièrement, ou presque. Il n’est donc guère surprenant que de nombreuses variantes de ces techniques de contrôle aient vu le jour : L’algorithme Demande/Capacité, ou DC, introduit il y a près de cinquante ans et très utilisé aux États-Unis, est une technique en boucle ouverte, assez sensible aux perturbations. La stratégie Taux d’Occupation, analogue, se fonde sur l’estimation du taux d’occupation du flux d’entrée. D’autres études sont plus proches de l’automatique « habituelle », comme : - l’algorithme linéaire quadratique et d’autres techniques d’optimisation ; - la stratégie de régulation ALINEA1, due à Papageourgiou, Haj-Salem et Blosseville, est exploitée en France et dans d’autres pays ; - la commande par retour d’état, la commande prédictive, la commande robuste, et les techniques LMI ; - les systèmes experts, réseaux de neurones ou commande floue. À l’exception notable d’ALINEA, basé sur un modèle linéaire très (trop ?) simplifié, ces travaux naviguent entre deux écueils, redoutables, qui obèrent les performances : L’écriture de modèles mathématiques précis est une tâche difficile, voire impossible. En raison de la grande échelle des réseaux autoroutiers, les modèles macroscopiques actuels sont loin de donner entière satisfaction, car ils peinent à prendre en compte les comportements des conducteurs, l’hétérogénéité du trafic, les conditions météorologiques… Lourdeur et difficulté des calibrages et/ou des apprentissages. Cette article introduit une nouvelle approche, reposant sur la commande « sans modèle ». Elle fournit une excellente régulation, sans modélisation mathématique ni calibrage et apprentissage. Après un bref rappel de la commande sans modèle, les paragraphes suivants décrivent respectivement son application au contrôle d’accès et de multiples simulations numériques, de bon aloi, obtenues avec des données réelles. La conclusion trace quelques pistes de réflexion. Quelques rappels sur la commande sans modèle On remplace2 le modèle mathématique, inconnu, du système, supposé, pour simplifier, monovariable, d’entrée u et de sortie y, par un modèle « phénoménologique », 26 le plus souvent du premier ordre, dit ultralocal car valable sur un court laps de temps, On introduit le correcteur proportionnel intégral intelligent, ou iPI (1) (2) où - le paramètre constant α, fixé par l’opérateur afin que les valeurs numériques de αu et ỷ aient même ordre de grandeur, n’a pas a priori de valeur précise ; - F, qui contient toutes les informations « structurelles », dépend de toutes les autres variables du système, y compris des perturbations, et de leurs dérivées. L’estimation en temps réel de la valeur numérique de F, qui permet de réactualiser (1) à chaque instant, est possible selon l’une des deux méthodes suivantes : où - y* est la trajectoire de référence de la sortie, - e=y-y* est l’erreur de poursuite, - Kp , K I sont les gains usuels d’un correcteur PI. On se ramène ainsi à la stabilisation d’un intégrateur pur. D’où un réglage immédiat des gains, ce qui tranche avec les correcteurs PI traditionnels. Contrôle d’accès autoroutier Le contrôle d’accès peut être implanté localement : c’est une commande isolée, indépendante des autres accès, ou coordonné pour commander plusieurs rampes simultanément. Ici, nous nous limitons à un contrôle isolé, atténuant les congestions. B. Trafic sans modèle (1) devient : (3) où - β remplace α, - la commande r(t), qui vérifie rmin ≤ r ≤ rmax représente le débit autorisé à entrer sur la voie principale3. A. Principes généraux - l’estimation de la dérivée du signal bruité y ; - l’estimation paramétrique, en supposant F constant par morceaux. Pour améliorer la capacité et la fluidité de l’autoroute représentée par la figure 1, le contrôle d’accès vise à maintenir la densité ρs (en nombre de véhicules/km/voie) sur la section principale à une valeur inférieure ou égale à un seuil défini par la densité critique ρer. Ce contrôle agit, à l’aide de feux de signalisation, sur le débit d’entrée de la rampe qr, exprimé en nombre de véhicules/h. D’autres précautions doivent être prises, comme la prévention d’une file d’attente w, en nombre de véhicules, débordant sur les voies adjacentes. Elle est calculée grâce au correcteur iPI (2) : (4) où - ρ * est la trajectoire de référence, - e=ρs-ρ* est l’erreur. L’expression où - le temps, noté k, est discrétisé, - [ ]e indique une estimée de fournit une estimée de F. • • Remarque 2 : Comme avec la plupart des stratégies mises en pratique, nul besoin ici de modèles macroscopiques dont l’écriture, délicate, fait appel à des équations aux dérivées partielles. envoyons pour plus de détails à la communication « Rien R de plus utile qu’une bonne théorie : la commande sans modèle », signée par M. Fliess, C. Join, S. Riachy (4es Journées Doctorales/ Journées Nationales GDR MACS, Marseille, 2011 – accessible à partir de http://hal-Polytechnique.archives-ouvertes.fr/hal-00581109). On y trouvera en particulier les références des nombreuses applications concrètes déjà réussies dans les domaines les plus divers. 3 Si la rampe n’est pas contrôlée, r = 1. 4 Anti-windup, en anglais. 2 Figure 1. Principe du contrôle d’accès autoroutier Flash X n°14 - Transports 27 ALINEA est un régulateur intégral au sens classique. L’iPI (4) prend mieux en compte la complexité du trafic grâce au terme estimé [F]e. grâce au modèle ultra-local (3) du premier ordre. La stabilité ainsi obtenue permet de ne pas se soucier d’erreurs, comme celles provenant de l’estimation [F]e de F. C. Mise en œuvre 3. Les objectifs du boîtier contrôleur sont : - Estimer F. La cadence assez faible de l’échantillonnage nous fait préférer un filtre dérivateur élémentaire pour estimer la dérivée d’un signal bruité. - Réaliser la dynamique du correcteur décrit plus haut. Le schéma 2 de commande comporte, comme le montre la figure 3, trois principaux éléments : 1. Un générateur de trajectoires afin de relier le point de départ, connu, à celui d’arrivée, désiré. On y emploie des méthodes standard d’analyse numérique, comme les splines, les polynômes de Bézier… 2. Un correcteur de type (4) assure la poursuite de la trajectoire désirée ρ*. On règle très aisément les gains K P et K I Un dispositif de saturation, comme dans toute installation industrielle, prévient des changements trop brutaux de la commande, dus à de grandes perturbations. On y adjoint, bien entendu, un dispositif anti-emballement4. Figure 2. Schéma général entrées-sortie de la commande Illustrations numériques A. Généralités La photo 4 montre la portion d’autoroute A4Y, dans le sens Paris-province, étudiée ci-dessous. Nos simulations utilisent le programme METANET [30], basé sur un modèle macroscopique du second ordre. Il y a 4 voies avec une distance entre la station RAD5 et le point d’insertion de l’accès égale à 406 m. La distance entre le feu de signalisation, qui est l’actionneur, et le point d’intersection est de 102 m. La rampe d’accès est à 2 voies. Les paramètres utilisés pour les simulations, c’est-à-dire la densité critique, le paramètre a et la vitesse libre, sont issus du diagramme fondamental, dit de May : Figure 3. Principaux éléments de la commande Figure 4. Photo du site étudié 28 Le tableau ci-dessous, ou ρmax indique la densité maximale, à l’arrêt, en donne les valeurs, obtenues en ligne avec les techniques algébriques de [1]. Le tableau ci-dessous, où ρmax indique la densité maximale, à l’arrêt, en donne les valeurs, obtenues en ligne avec les techniques algébriques de [1]. Lors de nos simulations, la durée du cycle est égale à C = 40 secondes, avec une durée de feux vert et d’orange de 35 secondes au maximum. La durée minimum du rouge est donc de 5 secondes, en fonctionnement normal. Ces durées, utilisées par les exploitants, semblent appropriées puisqu’elles minimisent les arrêts sur les rampes. Les usagers avancent constamment dans la file d’attente jusqu’au feu. Ainsi, les contraintes suivantes sont prises en compte : - Durée du cycle : 40 secondes. - Vert min = 15 secondes (10 secondes de vert + 5 secondes d’orange), soit rmin = 0.375. - Vert max = 35 secondes (30 secondes de vert + 5 secondes d’orange), soit rmax = 0.875. Flash X n°14 - Transports Notons rcsm la durée du rouge, issue de notre commande sans modèle : 1. Si rcsm > rmax alors r = 1. Escamotage du rouge (la durée du vert est égale à celle du cycle). 2. Si la contrainte de longueur de file d’attente est activée, alors r = 1 (passage au vert). B. Premiers résultats Les figures 5-(a) et 5-(b), montrent l’évolution des demandes aux origines, section principale et rampe d’accès, entre 5 et 22 heures, afin d’englober l’ensemble des congestions de la journée. Les mesures sont pauvres et passablement bruitées. Les figures 6-(a) et 6-(b) montrent l’évolution des densités ainsi que celle des vitesses, dans le cas sans 29 Figure 7. Signal de commande commande, et avec la commande sans modèle. Durant les heures de pointes, entre 7h30 et 10h30 environ, ainsi qu’entre 15h30 et 20h30, on remarque de fortes congestions, dues à une demande importante. Alors, la commande sans modèle arrive à stabiliser la densité autour de la valeur critique. Elle améliore donc sensiblement le rendement de la section étudiée. La figure 8 montre l’évolution de la commande r en fonction du temps. Cette commande implique la formation d’une file d’attente. On l’évite en fixant un seuil critique de longueur de la file et / ou en implantant un autre régulateur de file d’attente. Celui-ci délivrerait une valeur notée r w de commande. La commande finale R serait, alors, Figure 8 Évolution de la file d’attente C. Comparaison avec ALINEA Ci-dessous, dans le tableau de comparaison avec ALINEA, évoqué en début d'article, TTS et CSM désignent respectivement le temps total passé et notre commande sans modèle. Le gain est éloquent. Contact : Michel Fliess [email protected] Conclusion À la différence de la plupart des autres, notre stratégie, comme souligné en début d'article et dans la remarque 2, fait fi d’une description mathématique aussi complète que possible ; est facile à régler ; est capable de prendre en compte les variations, souvent importantes et brutales, contrairement, semble-t-il, à ALINEA. Ces travaux préliminaires, qui aboutissent à des simulations de qualité, ont tenu leur promesse. Reprenons une discussion abordée par ailleurs. Les équations aux dérivées partielles jouent un rôle important dans maintes études théoriques portant sur une modélisation macroscopique fine du trafic routier, son comportement 5 Acronyme de Recueil Automatique de Données. qualitatif et la régulation. Ici aussi, à la lumière de nos résultats, un contraste frappant ou, peut-être même, une opposition franche avec notre point de vue se manifestent. L’avenir tranchera ! Remerciements : Ce texte est une adaptation d’une communication signée par H. Abouaïssa, M. Fliess, V. Iordanova et C. Join, intitulée « Prolégomènes à une régulation sans modèle du trafic autoroutier » (Conférence Méditerranéenne sur l’Ingénierie Sûre des Systèmes Complexes, MISC 2011, Agadir, 2011 - accessible à partir de http://hal-Polytechnique.archives-ouvertes.fr/hal-00585442). Le lecteur intéressé y trouvera des références bibliographiques indispensables. Ce travail, sous l’égide de la convention d’étude, intitulée « Application de la commande sans modèle au contrôle d’accès », entre, d’une part, la Direction des Routes d’Ile-de-France (DiRIF) et, d’autre part, l’École Polytechnique, a fait l’objet d’une demande de brevet (n° FR1151604), déposée le 28 février 2011, par l’École Polytechnique, l’Université Henri Poincaré (Nancy 1), l’Université d’Artois et le Centre National de la Recherche Scientifique (CNRS). Flash X n°14 - Transports 31 La recherche opérationnelle, la multi-modalité et les véhicules en libre service Vinvent JOST - Dominik KIRCHLER - Ariel WASERHOLE - Leo LIBERTI Laboratoire d'Informatique de l'École Polytechnique (LIX) UMR CNRS - EP 7162 L a recherche opérationnelle (RO) vise à formaliser le fonctionnement d'un système afin d'en automatiser et/ou optimiser les prises de décisions. Le système en question peut être une usine, un microprocesseur, ou encore un réseau de distribution de biens matériels. Les décisions à prendre peuvent concerner la conception du système, la tarification des services qu'il permet ou encore la coordination des actions élémentaires. Dans le cas d'un réseau de distribution, il faut, lors de la conception, choisir l'emplacement et la taille des entrepôts de stockage intermédiaires («Facility location»). Il faudra ensuite regrouper les commandes dans des véhicules et décider dans quel ordre les clients seront livrés («vehicle routing problem» (VRP)). Un sous-problème du VRP consiste à trouver un plus court chemin entre deux points dans un réseau. Chaque entreprise gère aussi un flux de biens matériels entre ses fournisseurs et ses clients, et il convient de limiter conjointement les coûts de stockage, de distribution et les risques de pénurie («Supply chain management»). Pour des systèmes de grande taille et sujets à de nombreuses contraintes techniques, il n'est pas rare que des méthodes de décision automatisées amènent à des diminutions des coûts opérationnels de l'ordre de 10% par rapport à ce que les experts humains proposaient auparavant. On parle ici de coûts annuels allant de la centaine de milliers à la dizaine de millions, voire au milliard d'Euros. Pour arriver à de tels résultats, un long travail d'analyse du système, de modélisation mathématique, de mise en place de bases de données et d'outils de mesures est souvent nécessaire. Il faut ensuite chercher des algorithmes efficaces pour résoudre les modèles d'optimisation, puis soumettre les solutions suggérées au jugement des experts techniques, marketing et juridiques, pour souvent corriger et affiner le modèle d'origine jusqu'à trouver un consensus. Une introduction à la recherche opérationnelle et une présentation des principales entreprises françaises utilisant ce type de méthode est téléchargeable : http://www.roadef.org/content/roadef/ pdf/LivreBlancRO.pdf À la recherche du meilleur itinéraire multi-modal. Ces dernières années, la recherche en informatique a permis de déployer des programmes capables de fournir très rapidement un itinéraire optimisé aux automobilistes. Il est remarquable que l'on soit aujourd'hui capable de calculer un plus court chemin entre deux adresses quelconques en Europe, dans un réseau routier comportant plusieurs millions de routes, en moins d'un centième de seconde. Les programmes actuels sont capables de prendre en compte des informations en temps réel qui conditionnent les temps de trajets (accidents, travaux, embouteillages), ainsi que des prévisions horaires basées sur des observations statistiques. Les développements les plus récents tentent même de prendre en compte les prévisions et influences météorologiques. Parallèlement, le secteur du transport s'est massivement développé sur des sites internet afin de fournir aux voyageurs des itinéraires en vélo, voiture, train, bus, métro, avion et bateau. Cependant, la planification porte-à-porte d'un trajet multi-modal reste difficile car les sites-web d'opérateurs indépendants restent organisés indépendamment. Une vue globale est nécessaire pour fournir une comparaison rapide de plusieurs modes de transports ou d'itinéraires multimodaux. De plus, les critères de comparaison peuvent varier d'un client à l'autre. Outre le temps de transport et le prix, le confort, l’émission de CO2 ou encore l’accessibilité (particulièrement pour les personnes handicapées ou très chargées) influencent le choix. Un axe de recherche vise donc à intégrer l'ensemble des modes de transport dans un même outil de recherche d'itinéraires. Le LIX (Laboratoire d'informatique de l'X) en collaboration avec v-trafic.com, une PME parisienne spécialisée dans l'information sur le trafic routier, créent un prototype de recherche d'itinéraires multimodaux pour l'Île-de-France, incluant les différents moyens de transports existants, y-compris 32 Vélib' et Autolib'. Les préférences individuelles concernant l'importance relative des critères d'optimisation ainsi que le choix des modes de transports à privilégier dans la recherche sont considérés. Une des difficultés concerne la disponibilité de données volumineuses sur les systèmes et réseaux de transport en question. Les données routières sont largement disponibles gratuitement, grâce aux projets communautaires comme OpenStreetMap, qui concerne en outre les pistes et stations cyclables ainsi que les voies piétonnes. D'un autre côté, les opérateurs de transports publics sont encore souvent récalcitrants à fournir gratuitement les informations détaillées en temps réel dont ils disposent sur leur réseau. Espérons que cela change bientôt, à l'instar des Étas-Unis où la mise à disposition des informations à l'intention des développeurs et des chercheurs est devenue la règle plutôt que l'exception. La conséquence est une multitude d'applications innovantes, principalement orientées vers l'utilisation sur téléphone portable, aidant le voyageur à s'orienter dans un système de transport citadin, en fonction de sa position, des informations sur le réseau et configuré en fonction de ses préférences personnelles. Vers une tarification structurante des systèmes de transport en libre service ? La location courte durée (d'un vélo ou d'une voiture) avec emprunt et restitution dans deux lieux différents est en plein développement. Cette évolution peut être envisagée comme une mutualisation partielle des moyens de transports individuels. Elle a pour originalité et pour motivation de permettre des trajets plus efficaces, en résolvant partiellement les problèmes de recherche d'une place de parking et en permettant une meilleure intermodalité, en plus des avantages financiers que peut apporter la location classique à un utilisateur occasionnel. Flash X n°14 - Transports La réalité n'est cependant pas si simple. La disponibilité des véhicules et des places de parking pour les restituer ne va toujours pas de soi, particulièrement quand de nombreux utilisateurs veulent se rendre dans une même zone urbaine au même moment (flux et reflux domicile-travail ou encore sortie dans un centre culturel ou de loisir les week-ends). Dans le cas des vélos, les stations ont de plus tendance à être d'autant plus vides qu'elles sont situées en hauteur dans la ville. Il est alors intéressant d'utiliser des camions pour relocaliser les vélos, donnant lieu du côté théorique à des problèmes de tournées de véhicules, l'un des thèmes les plus actifs de la recherche opérationnelle depuis des décennies. Pour gérer l'équilibrage des stations, nous étudions les incitations tarifaires et les possibilités de réservation. Cela peut permettre de génerer des revenus supplémentaires pour le gestionnaire du parc de véhicules et des stations, selon la logique du management de revenu classique dans les transports aériens et ferroviaires. Il est moins connu (et moins pratiqué) que le management du revenu peut aussi être un outil pour l'utilisation plus efficace des ressources (intégrer les émissions de CO2 dans le marché vise à inciter les efforts les plus efficaces en priorité). Dans notre contexte, chaque vente de trajet ne consiste pas seulement en l'emprunt d'un véhicule pendant quelques heures, mais aussi à délocaliser deux ressources: un véhicule dans le sens du trajet et une place disponible dans le sens inverse. Cette délocalisation de ressource génère de nouvelles opportunités d'optimisation. Il est possible, en jouant sur l’élasticité de la demande par rapport au prix, d'augmenter le nombre de clients satisfaits en même temps que le bénéfice engendré. Un autre critère important de l'étude, mais qui reste à définir correctement avec des économistes et urbanistes, concerne l'amélioration globale de la mobilité. Ces résultats restent théoriques et préliminaires, et nécessitent d'être réévalués et affinés ville par ville. Contact : Vinvent Jost [email protected] 33 Choc laser : vulnérabilité et durabilité des structures composites pour l’aéronautique. Romain ECAULT - Michel BOUSTIE - Fabienne TOUCHARD Institut PPRIME, Département Physique et Mécanique des Matériaux, CNRS-ENSMA-Université de Poitiers Laurent BERTHE Laboratoire Procédés et Ingénierie en Mécanique et Matériaux (CNRS), Arts et Métiers ParisTech Bastien EHRHART Fraunhofer Institute for Non-Destructive Test Methods (IZFP) Clemens BOCKENHEIMER Airbus Operations GmbH, Department Materials and Processes ESWNG L ’industrie du transport et le secteur aéronautique particulièrement sont en mutation au niveau des choix structuraux dans la course à la réduction de masse, à l’amélioration des performances et à la réduction des espèces polluantes. Parmi les différents points d’action, nombre de structures métalliques assemblées autrefois par rivetage ou boulonnage sont remplacées par des structures composites assemblées par collage, conduisant à des gains de masse significatifs. Cependant, le collage peut présenter de nombreux problèmes de mise en œuvre, en usine comme en réparation en cours de vie, car la qualité du joint peut être affectée par un mauvais cycle de cuisson, la présence d’un contaminant, etc. [3]. De plus, aucune technique non-destructive ne permet aujourd’hui de quantifier la résistance mécanique des joints de collage. Pour répondre à cette problématique, les acteurs du projet ENCOMB (Extended Non destructive testing of COMPosites bondings), s’appuyant sur les installations du LULI (Laboratoire d’Utilisation des Lasers Intenses) de l’École Polytechnique et de l’ILP (Institut Laser et Plasmas) développent des méthodes qui permettront, d’une part, de caractériser l’état de surface des matériaux avant collage, et d’autre part, de certifier la qualité mécanique du joint de collage. L’une d’elle est le test d’adhérence par choc laser qui permet de solliciter, brièvement et de manière intense, une interface [4]. Cette technique a déjà fait ses preuves, sous certaines conditions, pour tester différents niveaux d’adhérence d’assemblages [5], [6]. Cependant, des études sont encore nécessaires afin d’optimiser la technique et de maîtriser les phénomènes physiques complexes qui s’y rattachent. En particulier, le comportement dynamique sous choc laser des matériaux composites doit être compris afin de rendre la technique industrialisable et adaptable à n’importe quel type de matériau. Figure 1 : Schéma de principe du test d’adhérence par choc laser 34 Figure 2 : a) Micrographie d’un échantillon de composite T800/M21, 1,5 mm d’épaisseur, après choc laser. b) Radiographie X d’un échantillon T800/M21, 1,5 mm d’épaisseur, avec 4 chocs laser de différentes intensités. c) Mesure par microscopie confocale du relief résiduel en face arrière après choc laser sur un composite T800/M21, 6 mm d’épaisseur, multi-directions (0°, +45°, -45°). En ce sens, la modélisation numérique est une étape obligatoire pour définir les différents paramètres de choc laser adaptés aux assemblages testés. La technique de choc laser La technique de choc laser repose sur une irradiation d’une surface par une impulsion laser brève (de l’ordre de la ns) et très intense (de l’ordre du GW/ cm2) déployée par des installations telles que celles se trouvant au LULI. Focalisée sur un matériau, elle sublime la surface en un plasma intense. Ce plasma se détend, produisant par réaction une onde de choc dans le matériau. L’onde se propage ensuite dans l’épaisseur du matériau selon les propriétés de celui-ci et sa géométrie. Une fois arrivée en face arrière de l’échantillon, l’onde de choc incidente se réfléchie en une onde de détente se propageant en sens inverse. Cette onde de détente va alors croiser l’onde de détente incidente issue de la face avant, et initiée à la fin du chargement laser (retour à l’état initial). Comme l’impulsion laser est très brève, la fin du chargement a lieu très tôt après le départ de l’onde de choc, ce qui permet aux deux ondes de détente de se croiser au sein du matériau. Ce croisement d’ondes de détente conduit à une sollicitation en traction, locale et Flash X n°14 - Transports intense, du matériau (voir Figure 1). Si elle est suffisamment élevée, cette sollicitation dynamique peut endommager le matériau, et plus particulièrement une interface. Le niveau de contrainte en traction est directement proportionnel à l’énergie du faisceau laser envoyé sur cible, et son positionnement dans l’épaisseur du matériau dépend de ses propriétés et des caractéristiques de l’impulsion laser (durée). Ainsi, en changeant les paramètres laser, l’endommagement peut être contrôlé. Un VISAR (Velocity Interferometer System for Any Reflector) est utilisé pour mesurer la vitesse de face arrière de la cible, dont l’analyse permet de reconstituer l’histoire de la propagation des ondes, et la création éventuelle d’un défaut. Comportement des matériaux composites sous choc. Dans le but de caractériser l’endommagement des composites créé par un choc laser, plusieurs diagnostics post-mortem ont été utilisés (voir quelques exemples Figure 2). La microscopie optique, effectuée sur des coupes, a permis de visualiser les fissures et les délaminages issus de la propagation des ondes dans le matériau. L’étendue des endommage- ments a pu être reliée à l’intensité du chargement laser, et la propagation des fissures dans les inter-plis a ainsi pu être expliquée. La radiographie X s’est révélée efficace pour rendre compte de l’étendue des défauts dans le plan orthogonal au chargement, et met en lumière l’anisotropie des délaminages (forme ellipsoïdale) malgré le caractère axisymétrique du chargement (circulaire). Enfin, la microscopie confocale a été utilisée pour quantifier précisément les reliefs résiduels en face arrière. L’anisotropie de ces reliefs ainsi que la corrélation entre ces derniers et l’intensité du chargement laser ont permis d’établir des abaques fixant le seuil d’endommagement dans les composites étudiés. Des expériences ont été menées sur des assemblages collés de différentes qualités afin d’évaluer le potentiel de la technique à discriminer différents niveaux d’adhérence dans le joint de colle. Sur la Figure 3, deux assemblages composites sont présentés. Ils différent uniquement par la qualité du joint de collage. Avec les mêmes paramètres laser, on observe dans le premier cas la tenue du joint de colle, alors qu’une rupture adhésive peut être identifiée dans le second. 35 Conclusion et perspectives Ces résultats sont encourageants quant au potentiel de la technique. Cependant, celle-ci nécessite une optimisation des paramètres de la source laser vis-àvis du système à tester afin de conduire à une localisation des conditions de traction essentiellement à l’interface afin d’éviter les ruptures internes de matériau. Ils confortent, après optimisation des conditions de choc, la possibilité d’un test d’adhérence par choc laser pour les assemblages collés composites. Cette étude s’inscrit dans le cadre du projet européen ENCOMB (Extended Non destructive testing for COMposite Bonds FP7/2007-2013 n° 266226, www. encomb.eu), porté par Airbus et EADS (France et Allemagne). Références : 1. S. Markus and C. Tornow. 2011. “Extended Non-Destructive Testing of Composite Bonds,” presented at the SAE 2011 Aerotech Congress & Exposition, October 18, 2011, Toulouse, France. 4. J. Yuan, V. Gupta, 1993 “Measurement of interface strength by the modified laser spallation technique. I. Experiment and simulation of the spallation process” J. Appl. Phys.., 74:2388-2397. 2. L-A. Généreux, M. Viens, G. Lebrun 2011. “Comparison of ultrasonic Testing and Infrared Thermography for the Detection of Machining Defects in Composite Materials,” presented at the 26th ASC Annual Technical Conference, September 27th, 2011, Montreal, Canada 5. R. Bossi, K. Housen, C. T. Walters, D. Sokol 2009. “Laser Bond Testing” Materials Evaluation, 67:819-827. 3. B. Ehrhart, B.Valeske, R. Ecault, M. Boustie, L. Berthe, C. Bockenheimer, 2011. “Extended NDT for the Quality Assessment of Adhesive Bonded CFRP Structures,” presented at the Smart Material, Structures & NDT in Aerospace Conference, November 2-4th , 2011, Montreal, Canada. 6. M. Perton, A. Blouin and J-P. Monchalin 2010. “Adhesive bond testing of carbon– epoxy composites by laser shockwave” J. Phys. D: Appl. Phys. 44 (2010) 034012. Contact : Michel Boustie [email protected] Figure 3 : Exemple de deux assemblages collés de différentes qualités soumis au même impact laser Mise en évidence de la rupture du joint de colle dans le cas d’un échantillon au joint dégradé. Flash X n°14 - Transports 37 Le titane et ses alliages dans les transports : atouts et problèmes Véronique DOQUET Laboratoire de Mécanique des Solides (LMS) UMR CNRS - EP - École des Mines ParisTech 7649 A vec une densité de l’ordre de 4.6, le titane et ses alliages sont particulièrement adaptés à la construction de structures légères (critère important dans les transports, en vue d’économies de carburant) et capables de supporter des sollicitations mécaniques sévères, à des températures allant du domaine cryogénique (moteur de la fusée Ariane) jusqu’à 600°C (disques et aubes des réacteurs d’avion), sans oublier les applications à température proche de l’ambiante (train d’atterrissage, moyeu et rotor d’hélicoptères). Grâce à la très fine couche d’oxyde qui revêt rapidement leur surface, ces matériaux offrent en outre une bonne résistance à la corrosion, notamment marine, ainsi qu’à l’érosion par des écoulements turbulents et sont donc aussi employés en construction navale (coques de sousmarins, notamment). Toutefois, des problèmes de fissuration, voire de rupture en service de structures en alliages de titane, avec des conséquences humaines dramatiques et des pertes économiques lourdes sont survenus et leur analyse a mis en évidence une insuffisance des connaissances sur le comportement mécanique de ces matériaux, à laquelle certains travaux menés au LMS se proposent de remédier. Une propension au fluage « à froid » et un renforcement mutuel des effets de la fatigue et du fluage Alors que dans la plupart des matériaux métalliques le fluage (déformation pro- gressive irréversible pouvant conduire à la rupture, sous l’effet d’une contrainte pourtant constante) ne se manifeste qu’à haute température, le titane et certains de ses alliages présentent ce type de comportement « viscoplastique » dès Figure 1: éclatement d’aubes et disque de moteur d’avion en alliage de titane 38 Figure 2 : observations de coupes d’échantillons d’alliage de titane biphasé sollicités en fatigue-fluage a) Image MEB de cavités formées par cisaillement de la phase b b) image MET montrant les dislocations à l’origine de ce cisaillement c) microfissure formée par coalescence de ces cavités la température ambiante. Ce fluage « à froid» tend, paradoxalement, à disparaître au dessus de 150 à 200°C, pour ne réapparaître, de façon plus conventionnelle, qu’au dessus de 500°C ! Or, les disques tournants auxquels sont fixées les aubes des turbines aéronautiques subissent, au cours d’un vol, des sollicitations mécaniques évoluant avec le régime du moteur : montée en charge lors du décollage suivie d’un palier lors du vol de croisière et d’un relâchement des efforts à l’atterrissage. Pour se prémunir contre des éclatements en vol comme celui illustré en figure 1 plusieurs difficultés doivent être surmontées. Tout d’abord le risque d’un endommagement par « fatigue » (processus d’amorçage et de propagation de fissures sous l’effet de chargements modérés, inoffensifs isolément mais qui, subis de façon répétée, peuvent entraîner la rupture) lié aux cycles de charge-décharge doit être pris en compte dans leur dimensionnement. Ensuite, le maintien sous forte charge lors des vols de croisière induit un risque de fluage qui doit également être anticipé, même (ou surtout) à basse température. Mais la difficulté majeure réside dans le renforcement mutuel des risques liés à la fatigue et au fluage. Un temps de maintien à contrainte maximale lors de cycles de charge-décharge à la température ambiante réduit en effet le nombre de cycles que peut supporter le matériau avant de rompre par rapport à un chargement de fatigue simple. Réciproquement, le temps total de maintien à la contrainte maximale qui conduit à la rupture est moindre qu’en fluage pur (c'est-à-dire sans les phases de charge-décharge). Or il n’existe actuellement aucun modèle capable de rendre compte de façon satisfaisante de ce cumul non-linéaire des deux processus d’endommagement. Figure 3 : Modèle micromécanique de la formation des cavités dans un alliage de titane biphasé. a) configuration étudiée b) effets comparés de trois types de chargements. c) effet de l’amplitude de la contrainte Flash X n°14 - Transports Une thèse financée par Snecma et menée en collaboration entre le LMS (Laboratoire de Mécanique des Solides de l’École Polytechnique) et le LMPM de l’ENSMA a permis de mieux en comprendre les mécanismes et de les modéliser. Comme 39 nombre d’alliages de titane, le matériau étudié était constitué principalement d’une phase de structure hexagonale compacte, aisément déformable (phase α) et d’une phase plus dure, cubique centrée (phase β). Des observations au microscope électronique à balayage (MEB) et à transmission (MET) d’échantillons sollicités par des cycles charge-décharge ou charge-maintien-décharge ont montré que des fissures se forment par coalescence de micro-cavités dues à la rupture de la phase « dure » β, sous l’effet d’un cisaillement intense et localisé (figure 2). Ce cisaillement est dû au glissement sur un plan cristallin spécifique de « dislocations » (défauts dans un cristal dont le déplacement sous l’effet de contraintes entraîne une déformation « plastique » c’est-à-dire irréversible) nées de « sources » situées dans la phase « molle » α. Le fluage lors des temps de maintien fait grossir ces cavités et les cycles de fatigue permettent à la fissure formée par leur coalescence de se développer jusqu’à entraîner la rupture. Des simulations de l’émission de ces dislocations par une source, de leur glissement alterné dans la phase α sous l’effet de contraintes cycliques et de la rupture de la phase β, qui y fait obstacle jusqu’à ce qu’un nombre suffisant de ces défauts s’y empile (figure 3a) ont permis de rendre compte de l’effet nocif des temps de maintien (figure 3b), de l’existence d’une amplitude minimale de contrainte pour former ces cavités (figure 3c) et de l’influence des paramètres morphologiques de la micros- tructure biphasée. Le fait que les disques de moteur en rotation subissent, outre des efforts radiaux liés à la force centrifuge, une tension tangentielle liée à la contraction latérale de la matière, contrariée par le reste de la structure (figure 4a), pouvait constituer un facteur aggravant, non pris en compte dans un dimensionnement basé sur des essais mécaniques en tension simple. Le LMS ayant acquis, grâce à un financement conjoint de l’École Polytechnique, de l’ENSTA, du CNRS et de la Région Îlede-France une machine d’essai triaxiale permettant de solliciter des échantillons tubulaires en traction-compression, torsion et pression interne, ceci nous a permis d’explorer l’effet d’un tel chargement. La combinaison d’un effort de traction et d’une pression interne reproduit en effet dans un échantillon tubulaire l’état de contrainte existant dans les disques de moteur en rotation (figure 4b). Le caractère biaxial du chargement s’est, paradoxalement, avéré bénéfique en fatigue pure, mais il semble bien avoir un effet aggravant en fatigue-fluage, en favorisant la croissance des microcavités à l’origine des fissures. Une tendance à la « rupture différée » même en environnement neutre En construction navale, nombreuses sont les structures en titane assemblées par soudage, procédé qui laisse subsister des contraintes dans le matériau. Si ces contraintes résiduelles ne sont pas relaxées par un traitement thermique approprié, elles peuvent causer, dans le titane et ses alliages, une propagation lente de fissures alors que l’intensité du chargement à leur pointe (évaluée par le « facteur d’intensité des contraintes ») est très inférieure à l’intensité critique (la « ténacité » du matériau) pour laquelle une fissure sollicitée par un chargement croissant s’y propage soudainement. Ces matériaux contiennent généralement une faible quantité d’hydrogène (quelques ppm pour le titane non allié et jusqu’à 180 ppm dans certains alliages) et selon la teneur en cet élément, la susceptibilité du matériau à ce mode de fissuration change très fortement, et de façon non monotone, sans que l’on en comprenne bien la cause. Des essais de fissuration menés au LMS ont mis en évidence une sur-concentration en hydrogène en pointe de fissure. La forte tension qui y règne favorise en effet l’afflux par diffusion de cette espèce très mobile même à l’ambiante, ainsi que le piégeage et le transport de ces atomes par les dislocations en mouvement, nombreuses en pointe de fissure. Le LMS disposant de mini-machines d’essai mécanique fonctionnant dans la chambre d’un microscope électronique à balayage, des essais de fissuration menés in situ ont en outre mis en évidence le rôle du « fluage à froid » responsable, comme l’illustre la figure 5 d’un accroissement de l’ouverture d’une fissure, pourtant maintenue sous un Figure 4 : a) Sollicitation dans un disque de moteur en rotation b) essais de fatigue-fluage en traction + pression reproduisant cet état de contrainte sur des échantillons tubulaires avec c) un suivi des déformations axiale et diamétrale 40 Figure 5 : Essai de fissuration lente sous MEB mettant en évidence le fluage en pointe de fissure a) b) images prises avant et après 2 minutes de maintien sous un chargement ne représentant que 80% de la ténacité. c) accroissement par fluage de la déformation mesurée par corrélation des images, dans la zone encadrée chargement constant, puis de son avancée. Or, des essais de fluage sur l’alliage brut, dopé ou appauvri en hydrogène ont montré que ces changements de composition en modifient substantiellement l’intensité, les atomes d’hydrogène accroissant ou réduisant, selon les conditions, la mobilité des dislocations dont le mouvement est au contraire toujours entravé par les atomes d’oxygène également présents dans le métal. Des variations infimes (quelques dizaines de ppm) dans la composition chimique d’une zone des quelques dizaines de microns autour de la pointe d’une fissure contrôleraient donc la résistance à la fissuration du matériau et indirectement la flottabilité de sous-marins… Un comportement viscoplastique influencé par les teneurs en oxygène et hydrogène. Pour clarifier ces effets, le projet ANR Fluti porté par le LMS, en collaboration avec le Laboratoire des Solides Irradiés (LSI) de l’École Polytechnique, le Centre des Matériaux de l’École des Mines et l’Institut de Chimie des Matériaux de Paris Est s’attache donc à étudier l’influence des teneurs en oxygène et hydrogène sur le comportement, l’endommagement et la fissuration du titane. Après divers traitements thermiques destinés à faire varier ces teneurs, le comportement viscoplastique du matériau est étudié à plusieurs échelles. À l’échelle macroscopique, des essais de fluage, relaxation, traction avec de brusques sauts de la vitesse de déformation (Figure 6) permettent de caractériser l’impact des Flash X n°14 - Transports changements de composition sur le comportement viscoplastique et d’identifier une loi de comportement (nécessairement anisotrope compte tenu des réponses différentes observées selon le sens de sollicitation par rapport à la direction de laminage) qui en rende compte. La loi de comportement ainsi identifiée permettra d’analyser les champs de contrainte et déformation en pointe de fissure, dans des conditions de propagation lente, en tenant compte de l’afflux d’hydrogène vers la pointe et de ses conséquences sur le comportement local. À l’échelle mésoscopique (quelques dizaines à quelques centaines de microns), des essais mécaniques couplés à une observation en temps réel des micro-mécanismes de déformation et d’endommagement seront menés sous le microscope électronique 41 Figure 6 : comportement visqueux anisotrope du titane contenant 8ppm d’hydrogène et 1600ppm d’oxygène en traction parallèlement ou normalement à l’axe de laminage, avec des sauts de vitesse de déformation à balayage et accompagnés de mesures des champs de déformation par corrélation d’images numériques à l’échelle de quelques cristaux dont l’orientation sera préalablement déterminée par diffraction d’électrons rétrodiffusés (technique EBSD). On identifiera ainsi les modes de déformation (plans et directions privilégiés de glissement des dislocations) activés selon la composition chimique, ainsi que l’impact de ce paramètre sur le degré d’hétérogénéité de la déformation plastique, qui contrôle l’apparition de l’endommagement. Ces essais alimenteront un modèle micromécanique du comportement déduisant la réponse macroscopique du matériau polycristallin de celle de chacun de ses cristaux. À l’échelle microscopique (quelques microns), des essais de traction sur des lames amincies de métal dans un microscope électronique à transmission permettront une observation dynamique directe du glissement des dislocations sous contrainte et d’étudier l’impact des changements de composition sur ses caractéristiques (longueurs de saut, déviations, dissociations, etc). À l’échelle nanoscopique, enfin, des simulations atomistiques « ab-initio » (résolution, moyennant certaines approximations, de l’équation de Schrödinger pour calculer les énergies de diverses configurations d’atomes, en prenant en compte leur structure électronique externe) du « cœur » des dislocations (zone du cristal où l’arrange- ment des atomes est le plus perturbé) dans le titane en présence d’atomes d’hydrogène et/ou d’oxygène sont entreprises au LSI afin d’analyser les changements de comportement viscoplastiques induits par ces espèces. Grâce à ce projet et aux connaissances nouvelles qu’il permettra d’acquérir, nous espérons parvenir à identifier des compositions chimiques minimisant la propension au fluage à froid et à la rupture différée des alliages de titane. Contact : Véronique Doquet [email protected] Flash X n°14 - Transports 43 Le calcul scientifique dans les industries des transports - expérience d’une spin-off de l’X Toufic ABBOUD Ingénierie MAthématique et Calcul Scientifique (IMACS) I l y a quelques décennies, la simulation numérique était essentiellement cantonnée aux laboratoires académiques et à quelques industries liées à la Défense, l’aéronautique et l’espace. Avec le développement et les progrès effectués dans les différentes disciplines scientifiques impliquées d’une part et l’amélioration constante de la puissance des ordinateurs et la démocratisation des moyens de calcul d’autre part, toutes les industries à forte valeur ajoutée font appel aujourd’hui quasi-systématiquement à la modélisation et à la simulation numérique dans leurs méthodes de conception. Les industries des transports font partie des pionniers dans le domaine. La simulation y est utilisée dans deux buts : optimiser un concept existant pour en améliorer les performances et réduire les marges, et rechercher l’innovation technologique en permettant de tester virtuellement beaucoup de nouveaux concepts. Avec le raccourcissement des cycles de développement et la contrainte de faire juste du premier coup, la maîtrise de la « maquette virtuelle » pour simuler correctement ce que l’on conçoit devient un facteur important de différentiation sur le marché. Cette révolution en marche tend à modifier l’organisation des entreprises et le métier d’ingénieur. Mais on est loin du tout « virtuel » et, si la simulation est régulièrement utilisée dans les industries des transports, elle ne l’est pas assez. Ceci est dû à plusieurs difficultés que nous n’analysons pas ici. Signalons simplement le délai important entre une découverte dans un laboratoire de recherche et son utilisation dans le cycle de conception : c’est l’étape de transfert, d’industrialisation, d’optimisation et d’intégration dans les chaînes de calcul. Lorsqu’elle est sous-estimée, cela conduit à un retard important dans l’utilisation des travaux de recherche et il en résulte un coût global plus élevé. Ce délai peut être réduit en développant les structures de transfert et la création d’entreprises innovantes. C’est l’axe développé dans cet article au travers de deux exemples. Le Centre de Mathématiques Appliquées de l’École Polytechnique (CMAP) a une longue tradition de collaboration avec l’industrie qui a conduit à la création de plusieurs spinoffs. IMACS (Ingénierie MAthématique et Calcul Scientifique ) est l’une de ces startups, installée dans la pépinière de l’École X-Technologies. Elle travaille depuis plus de quinze ans dans le domaine de la modélisation et Le maillage de surface utilisé par la méthode intégrale pour le calcul du rayonnement acoustique du moteur n’est pas disponible dans le modèle CAO. Dans cet exemple, le maillage acoustique (à droite) est construit plus ou moins automatiquement à partir d’une enveloppe du modèle structure (à gauche). 44 et d’aboutir à une maquette logicielle implémentant un schéma stable et précis. Dans une deuxième phase, grâce à des collaborations fructueuses avec des experts industriels autour de cas tests, nous en avons appris un peu plus sur les problèmes pratiques que ce schéma numérique peut contribuer à résoudre. C’est l’étape longue et difficile de l’industrialisation de la première maquette. Nous avons ainsi été amenés à élargir notre spectre : chaînes de calcul, lien CAO-Calcul, formats d’échange, calcul parallèle… Simulation du bruit de roulement : calcul d’une fonction de transfert temporelle pneu avant gauche. du calcul scientifique et sert des clients dans divers secteurs industriels notamment l’automobile, l’aéronautique et l’espace. Sept anciens doctorants du CMAP ont travaillé à IMACS. Méthode des équations intégrales La méthode des équations intégrales est un outil mathématique très puissant dans l’étude de certaines équations de la physique. L’applicabilité de cette méthode à la modélisation de la propagation d’ondes électromagnétiques ou acoustiques dans le domaine temporel est restée longtemps un défi scientifique et technique. La littérature est riche d’articles essayant (vainement) de résoudre les problèmes de stabilité des schémas numériques qui découlent de la discrétisation de telles équations. En s’appuyant sur des recherches effectuées au CMAP sous la direction de JeanClaude Nédélec, IMACS a été la première entreprise à développer et proposer une solution robuste : le logiciel SONATE© utilisé dans l’industrie pour les simulations temporelles en vibro-acoustique. Ce transfert a démarré par deux thèses à IMACS en lien avec le CMAP, qui ont permis de clarifier le cadre mathématique Suite au succès de SONATE© dans les applications automobiles (PSA PeugeotCitroën, Renault), un partenariat a été signé avec LMS International, leader mondial des logiciels pour l’acoustique. SONATE© est aujourd’hui intégré dans la plateforme LMS Virtual.Lab® (sur base CATIA V) et distribué mondialement par LMS Intl. De plus, IMACS collabore avec EADS Innovation Works, dans le cadre d’un fort partenariat, sur la méthode des équations intégrales, les solveurs rapides associés (FMM, H-matrices…) et les couplages avec d’autres méthodes numériques (FEM, DGM, TLM, rayons, macro-modeling…) avec beaucoup d’applications dans les domaines de l’aéronautique et de l’espace : calcul de surface équivalente radar (SER) pour les applications Défense, compatibilité électromagnétique et couplage avec des modèles d’équipements, analyse des effets indirects de la foudre sur les aéronefs en composite, positionnement des antennes sur aéronef, acoustique des nacelles… Les bases mathématiques de ces méthodes sont enseignées dans un cours master de l’École animé par Isabelle Terrasse (enseignement d’approfondissement MAP572, suite au cours MAP558) et approfondies dans un cours de master 2 (AN-EDP, X-Paris VI). Simulation du bruit du générateur auxiliaire de puissance : calcul de fonction de transfert temporelle. Flash X n°14 - Transports 45 Traitement acoustique des nacelles des turboréacteurs Ce deuxième exemple traite d’une collaboration réussie d’IMACS avec un centre de recherche industriel, EADS Innovation Works, et un industriel des transports Airbus Operations SAS. Une technique de décomposition de domaine a été appliquée avec succès à la modélisation de l’impédance de traitements acoustiques innovants des nacelles, en vue de la réduction du bruit des moteurs des turboréacteurs. Airbus Operations SAS est très impliquée dans le développement de technologies de réduction de bruit, en particulier les traitements acoustiques capables de réduire le niveau de bruit perçu de 4 à 5 EPNdB au décollage et 2 EPNdB en phase d’approche. Grâce aux similarités de leurs bases mathématiques, les logiciels développés à l’origine pour l’électromagnétisme comme le solveur FMM, ont été transférés rapidement et avec succès à l’acoustique. Ces logiciels sont utilisés par Airbus Operations SAS pour prédire la propagation de bruit et le rayonnement des moteurs. La réduction de bruit est réalisée au moyen de traitements passifs (liners en anglais), qui peuvent être caractérisés d’un point de vue numérique (à l’échelle de la nacelle, voire de l’avion) par une condition aux limites équivalente de type impédance. Airbus Operations SAS a développé des modèles analytiques et des techniques de mesure pour aider à développer et optimiser ces traitements dans certaines conditions standard où la description fine de la géométrie n’est pas nécessaire. Dans l’objectif d’optimiser les traitements existants et d’étudier de nouveaux concepts innovants, une modélisation numérique précise s’est avérée nécessaire. Un projet de recherche a été lancé en 2004 par Airbus en proche collaboration avec EADS Innovation Works et IMACS dans l’objectif de mettre au point un outil de simulation robuste et précis pour la prédiction de l’impédance des liners. Le Modèle de traitement acoustique des nacelles avec les différentes échelles en jeu : nacelle (mètre), période du nid d’abeille (centimètre), perforation (millimètre), pas de maillage (dizaine de microns). projet était financé par Airbus et EADS. Une équipe pluridisciplinaire a été le facteur clé du succès : un processus itératif de comparaison avec les résultats expérimentaux et analytiques a permis de mettre au point et d’améliorer au fur et à mesure le modèle numérique, compte tenu des difficultés scientifiques rencontrées au cours du projet, bien supérieures à celles initialement envisagées. L’impédance est obtenue après calcul des coefficients de réflexion d’un réseau infini bi-périodique constitué d’une couche en nid d’abeille et d’une couche résistive en tôle perforée. Le but est de caractériser le traitement en régime linéaire puis non-linéaire, avec ou sans écoulement. Le résultat est obtenu par une technique de décomposition de domaine, multi-physique, multi-échelle et multi-méthode. L’absorption du bruit est due à la viscosité ainsi qu’aux effets non-linéaires au voisinage des perforations de la couche résistive. Les équations de Navier-Stokes non-linéaires sont résolues dans un domaine « trou étendu » générique en vue de la construction d’une base de données d’opérateurs d’impédance. Cette base peut être réduite avec une bonne approximation. Un modèle axisymétrique est proposé pour accélérer les calculs. Cette base est utilisée pour le couplage avec les équations de l’acoustique linéarisées dans les alvéoles et le domaine extérieur. Contact : Toufic Abboud [email protected] http://imacs.Polytechnique.fr/ Flash X n°14 - Transports 47 Comprendre et réduire le bruit en aéronautique Miguel FOSAS DE PANDO - Xavier GARNAUD - Lutz LESSHAFFT Laboratoire d'Hydrodynamique de l'École Polytechnique (LadHyX) UMR CNRS - EP 7646 L e transport aérien est devenu depuis longtemps un élément essentiel à notre mode de vie. La possibilité de voyager à travers le monde dans la journée, en comparaison des 80 jours qu'il a fallu à Phileas Fogg il y a 140 ans, a eu un impact énorme sur la société moderne. Que ce soit pour se déplacer, pour le commerce mondial ou pour pouvoir importer des fruits de Nouvelle Zélande, il est nécessaire d'avoir une importante capacité de transport aérien. D’après les projections, ce dernier devrait encore se développer dans les décennies a venir. Après la pollution, le plus gros impact négatif du trafic aérien vient des nuisances sonores à proximité des aéroports. Ces nuisances ont non seulement un impact sur la qualité de vie des riverains mais aussi sur leur santé. Alors que des capacités aéroportuaires importantes sont souvent nécessaires au développement économique régional, les projets de constructions ou d'agrandissement d'aéroport suscitent souvent de fortes protestations (en mars 2012, plusieurs milliers de manifestants ont protesté à Nantes, un chiffre similaire à ceux des rassemblements à Berlin et Francfort). Afin de permettre l'augmentation du trafic, les émissions sonores doivent être significativement réduites. Le projet européen ACARE a fixé comme objectif de réduire les émissions de bruit d'un facteur deux entre 2000 et 2020. La NASA a formulé des projets similaires. Deux des principales contributions au bruit d'un avion sont les jets issus des réacteurs et l'écoulement autour des ailes. Le bruit de jet est dominant lors des phases de décollage et de montée initiale, lorsque les moteurs sont utilisés à pleine puissance. Lors de l'approche finale, c'est l'aile en configuration d’atterrissage qui est particulièrement bruyante. Au LadHyX (Laboratoire d’Hydrodynamique de l’X) , nous étudions ces deux types d'écoulement de façon à identifier des stratégies de contrôle pour réduire ces émissions de bruit. ou le nombre de Mach ; de petites perturbations à ces fréquences sont amplifiées en même temps qu'elles sont advectées par l'écoulement moyen, et mènent à la formation de tourbillons responsable du rayonnement acoustique. En pratique, il est impossible de contrôler l'écoulement là où le bruit est émis dans la mesure où l'on ne peut placer des actuateurs au milieu de l'écoulement. Le contrôle doit être effectué en fin de tuyère de manière à influencer le développement des structures plus en aval. À la fois les jets et les écoulements autour de profils sont fortement turbulents. Une première contribution aux émissions sonores vient des structures turbulentes, de petite taille et à l'évolution quasistochastique. Les grandes structures cohérentes, souvent plus bruyantes, ont une dynamique qui peut être étudiée dans le cadre de la théorie de la stabilité hydrodynamique. Le LadHyX a une longue tradition et une grande expertise dans ce domaine, et nous étudions les instabilités de jet et le bruit associé depuis près de 10 ans. Nos études visent à proposer une description conceptuelle des mécanismes physiques responsables de la formation de tourbillons et de l'émission sonore. Par le passé, nous avons montré que des oscillations intrinsèques se développent dans les jets chauds, menant à la formation d'anneaux tourbillonnaires dont la fréquence est naturellement fixée par l'écoulement. Ce phénomène est proche de l'allée tourbillonnaire de BénardKármán qui se développe dans le sillage d'un cylindre. Il a été montré que ce comportement est dû à une instabilité absolue du jet chaud, ce qui permet une prédiction analytique de la fréquence de formation des tourbillons. Ces tourbillons mélangent l'air chaud du jet avec l'air froid ambiant, ce qui crée un rayonnement acoustique dipolaire. Bruit de jet Nous nous intéressons au développement d'instabilités sur des écoulements turbulents statistiquement stationnaires. Un jet est instable pour certaines fréquences, qui dépendent de paramètres de l'écoulement tels que le nombre de Reynolds 48 Plus récemment, nous avons étendu ce type d'étude à des configurations où la formation de tourbillons est due à des perturbations extérieures. L'analyse permettant de prédire comment les mécanismes d'instabilité amplifient de petites perturbations en fonction de leur fréquence est basée sur le calcul de valeurs singulières de l'équation de NavierStokes linéarisée. Ce formalisme nous permet de prédire la forme et la fréquence des perturbations entraînant le plus fort rayonnement acoustique. Nos études ont montré que les fréquences caractérisées par un nombre de Strouhal ( nombre sans dimension décrivant les mécanismes de circulation oscillante ) de l'ordre de 0.4 sont dominantes pour un jet typique, et que l'émission sonore associée se fait principalement à un angle d'environ 30° de l'axe du jet. Ces résultats correspondent à ce qui est généralement observé lors d'expériences. Nos études permettent d'étudier les mécanismes physiques responsables de ce comportement, ce qui permettra de manipuler l'écoulement de manière à réduire le bruit de jet. Bruit de profil L'écoulement autour d'un profil génère du son dans de nombreuses situations, par exemple lorsqu'une pale de rotor d'hélicoptère rencontre le tourbillon généré par la pale précédente. Une aile placée dans un écoulement uniforme est aussi la source d'un bruit important issu de l'interaction entre les tourbillons présent dans la couche limite et la surface du profil : c'est à cette situation que nous nous intéressons au LadHyX. Des expériences menées à des nombres de Reynolds modérés ont mis en évidence que le spectre du rayonnement acoustique est dominé par un ensemble discret de fréquences fortement reliées aux instabilités se développant dans la couche limite sur l'intrados de l'aile. Cependant de nombreux aspects du processus d'émission de son restent incompris. Nous effectuons des simulations numériques directes en prenant en compte la compressibilité de l'air (figure 1). Ces simulations présentent les mêmes caractéristiques que les études menées en souffleries, en particulier concernant le spectre de l'émission acoustique. A partir de ces simulations , nous avons pu mener des analyses mettant en évidence que la fréquence dominante correspond à celle du mode le moins stable de l'équation de NavierStokes linéarisée. Ce mode et le mode adjoint associé permettent à leur tour de déterminer la réceptivité de l'écoulement à des perturbations extérieures et sa sensibilité à des changements de l'écoulement moyen. Nous avons montré que la sensibilité est plus forte sur l'intrados, ce qui signifie que le mécanisme de génération de son peut être aisément influencé en agissant sur l'écoulement dans cette région. Ce type d'analyse sera utilisé dans le futur pour déterminer le placement optimal des capteurs et des actuateurs utilisés pour le contrôle. Contact : Lutz Lesshafft [email protected] Figure 1 : Simulation numérique directe d’un écoulement autour d’un profil. À gauche : vorti-cité, détail du bord aval. À droite : rayonnement acoustique (dilatation) en champ lointain. Flash X n°14 - Transports 49 Les effets transitoires des rafales de vent : de l’aile d’avion aux ponts haubannés Pascal HÉMON Laboratoire d'Hydrodynamique de l'École Polytechnique (LadHyX) UMR CNRS - EP 7646 Ainsi nous avons découvert puis mis en évidence expérimentalement un mécanisme appelé croissance transitoire de l’énergie qui était resté inaperçu jusqu’alors dans la communauté. Ce phénomène peut se produire à l’issue d’une perturbation dans la vitesse de l’écoulement, comme par exemple une rafale de vent. Cette rafale transmet une certaine quantité d’énergie à la structure qui la dissipe en oscillant. A priori puisque la structure est bien conçue (elle est stable du point de vue du flottement), les oscillations s’amortissent rapidement et l’énergie mécanique devrait décroître. Mais c’est sans compter sur le phénomène de croissance transitoire de l’énergie : il arrive dans certaines conditions que l’énergie commence d’abord par augmenter pendant quelques secondes, et les oscillations avec elle, avant de dimi- nuer puis de s’atténuer complètement. Si le phénomène n’est pas dommageable à court terme, ce n’est pas obligatoirement le cas pour la fatigue à long terme. En 2006/2007 nous avions quantifié en soufflerie et modélisé par calcul ce mécanisme sur un profil d’aile dans le cadre d’un contrat de partenariat avec Airbus. Mais un profil d’aile d’avion est une structure aérodynamique simple. Tandis que dans le domaine du génie civil, les formes d’ouvrage sont nettement plus compliquées, la fonction aérodynamique n’étant pas leur objectif premier. Dans la thèse de Shehryar Manzoor soutenue en © Coll. EP /Ph. Lavialle L ’hôtesse vient à peine de servir le café que le commandant de bord annonce une zone de turbulence. Tous les passagers rattachent leur ceinture et se saisissent de leur tasse, concentrés au maximum pour éviter les débordements de liquide. Qui, au cours d’un trajet, n’a pas déjà vécu un scénario analogue ? Car les avions traversent régulièrement des zones d’atmosphère perturbée qui déclenchent des tremblements de la structure. Pour les voilures, cela se traduit par des oscillations de l’aile qui la font fléchir et se tordre. On parle ainsi de flexion-torsion. Le calcul du mouvement de la structure à la suite d’une excitation transitoire par la turbulence atmosphérique relève du domaine des interactions fluide-structure, et plus précisément de l’aéroélasticité. Il s’agit en effet de calculer le comportement de structures souples en présence d’un écoulement d’air et éventuellement de ses perturbations. Plusieurs types d’instabilités peuvent se produire : les flottements qui conduisent généralement à destruction, à l’instar du pont de Tacoma, ou bien des instabilités transitoires à durée de vie courte. Leur étude est l’une des spécialités du LadHyX depuis plusieurs années. Vue de la soufflerie du LadHyX conçue pour les essais aéroélastiques. 50 Figure 1 : Mise en évidence en soufflerie d’une croissance transitoire de l’énergie sur un tablier de pont de type Millau. 2010, nous avons étudié la croissance transitoire de l’énergie sur un tablier de pont de forme semblable au viaduc de Millau. Pour cela nous avons produit en soufflerie un écoulement d’air de vitesse moyenne auquel nous avons superposé une rafale de vent unique à l’aide d’un volet placé en amont et brutalement tourné de 180° (figure 2). La rafale se traduit par une survitesse de la composante longitudinale u conjointement à une double impulsion, positive puis négative, sur la composante verticale w (figure 3). Cette perturbation est semblable à une rafale turbulente naturelle ramenée à l’échelle de la soufflerie. Elle transmet à la structure une énergie initiale E0 qui sert de référence et sur laquelle se mesure l’amplification. Mais l’enjeu réside surtout dans la modélisation du phénomène afin d’enrichir les modèles de calcul employés par l’industrie. Or autant un profil d’aile d’avion peut raisonnablement se calculer à l’aide de modèles standards, autant un tablier de pont, même profilé comme celui de Millau, reste difficile à appréhender par le calcul. En se basant sur les résultats expérimentaux obtenus par Shehryar Manzoor, nous avons pu avec Xavier Amandolèse adapter et comparer différents modèles théoriques. L’une des particularités a été l’utilisation de modèles temporels directs, dans lesquels on calcule directement le comportement de la structure en fonction du temps. Or ce type de calcul reste encore peu utilisé en pratique dans la mesure où jusqu’à présent seul le comportement à long terme de la structure était recherché. Mais dans le cadre d’une étude transitoire, l’usage d’un modèle en temps s’impose de lui-même. De plus, pour le génie civil, il existe une tendance grandissante des bureaux d’études industriels à privilégier les calculs temporels car ils permettent de combiner facilement plusieurs cas de charge sur les structures et également de prendre en compte les non-linéarités des matériaux ou des assemblages, par exemple pour les câbles. Des deux principaux modèles testés par comparaison avec les résultats de soufflerie (figure 4), un seul permet de capter la physique liée à la croissance transitoire de l’énergie. Il nécessite la modélisation de la rafale de vent mais les calculs montrent que seule la double impulsion de vitesse verticale joue un rôle dans le mécanisme. Nous avons pu ainsi construire un modèle relativement simple réduit aux ingrédients Figure 2 : Schéma de l‘expérience de soufflerie sur un tablier de pont souple en flexion-torsion z(t)-α(t). La photo montre l’intérieur de la soufflerie vue depuis l’amont, le volet au premier plan en bas et la maquette de tablier au fond. Flash X n°14 - Transports 51 Figure 3 : Perturbation de la vitesse du vent par l’action du volet mesuré en soufflerie. strictement nécessaires pour représenter le phénomène. Mais ce modèle plutôt dédié aux phénomènes à court terme ne capte pas correctement les instabilités à long terme susceptibles de détruire l’ouvrage. Dans l’étude globale d’un ouvrage il faut donc toujours employer le modèle classique dit « long terme » et compléter l’étude en transitoire avec le modèle spécifique. Évidemment les structures étudiées sont restées suffisamment simples pour pouvoir être reproduites expérimentalement en soufflerie. Néanmoins la connaissance acquise sur la modélisation temporelle des phénomènes aéroélastiques transitoires est importante et trouve des débouchés dans d’autres applications. Par exemple, nous avons ainsi pu mettre en lumière la probable implication de croissance transitoire de l’énergie dans la problématique du dépassement de camion par une automobile, le fameux « coup de volant » que les conducteurs ressentent à cette occasion. Lorsque la voiture traverse le sillage latéral du camion, elle subit l’équivalent de l’impact d’une rafale de vent latéral. Cela induit transitoirement des efforts aérodynamiques, une force de dérive et un moment de dérapage, qui se couplent avec la suspension. Nous avons montré que la réponse du véhicule, en l’absence de réaction du conducteur sur le volant, pouvait effectivement présenter une croissance transitoire de l’énergie. L’application des connaissances acquises trouve également un autre débouché au LadHyX dans le domaine des récupérateurs d’énergie basés sur l’utilisation des instabilités de flottement de structures conçues à cet effet. Ces structures, que l’on place délibérément en oscillation de grande amplitude, posent déjà de nouvelles questions. Comment vont-elles se comporter à l’impact d’une rafale de vent ? Peut-on imaginer récupérer l’énergie supplémentaire liée à la croissance transitoire ? Contact : Pascal Hemon [email protected] Figure 4 : Comparaison calcul-expérience de l’amplification transitoire de l’énergie en fonction de la vitesse du vent pour deux cas de tabliers de type Millau. Flash X n°14 - Transports 53 PEGASES un nouveau propulseur électrique d’avenir Ane AANESLAND Laboratoire de Physique des Plasmas (LPP) UMR CNRS - EP - Université Paris VI - Université Paris 11 7648 L 'exploration de l'espace, proche ou lointain, offre une occasion unique pour réaliser des découvertes majeures portant à la fois sur nos origines et sur l'environnement terrestre. Dans ce contexte, le recours à des technologies innovantes embarquées sur des satellites est une nécessité absolue pour observer, communiquer et explorer à plus ou moins grandes distances de notre planète. Au Laboratoire de Physique des Plasmas (LPP), nous travaillons sur un nouveau concept de propulsion électrique par plasma que nous présentons dans cet article. À la différence de ces dispositifs qui ne contiennent que des ions positifs et des électrons, l’innovation principale du propulseur PEGASES consiste à utiliser un gaz produisant un plasma électronégatif comprenant, outre des électrons, des ions positifs et des ions négatifs. L’utilisation d’un plasma électronégatif permet l'accélération des deux types d’ions pour fournir la poussée ; de cette façon, le système de neutralisation en aval n'est plus requis, ce qui représente un grand avantage technologique (voir Figure 1b). Le propulseur PEGASES comprend trois étages : i) Création du plasma (ionisation). Un plasma électronégatif, qui contient des ions des deux signes ainsi que des électrons, est produit dans cet étage par apport d'énergie électromagnétique à un gaz neutre. Dans les technologies spatiales, chaque gramme et chaque coût en puissance électrique compte. Le prototype actuel (voir Figure 2) contient une source d'ionisation très efficace utilisant Le propulseur développé et breveté au laboratoire est un moteur ionique dénommé PEGASES, un acronyme anglais pour « Plasma Propulsion with Electronegative Gases ». PEGASES appartient à la famille des propulseurs électrostatiques par plasma. Dans un propulseur électrostatique classique, le plasma utilisé contient majoritairement des ions positifs et des électrons. Les ions positifs, massifs, fournissent la poussée, tandis que les électrons, beaucoup plus légers, sont utilisés pour ioniser le gaz dans la région de production du plasma, et en aval pour la neutralisation des ions expulsés (voir Figure 1a). 5 ette source est développée dans le cadre d’une colC laboration avec V. Godyak, Boston USA. Le dispositif utilisé est un exemple de transfert technologique d’un dispositif développé initialement pour l'éclairage vers un usage appliqué aux technologies spatiales. Figure 1 : a) Illustration de la propulsion électrique classique et b) du propulseur PEGASES 54 au LPP. La Figure 3 montre la première évidence expérimentale de ce dispositif où deux faisceaux d’ions sont mesurés séparément pendant la polarisation de la grille. Figure 2 PEGASES Prototype développé au LPP un couplage de puissance par induction électromagnétique1. 90% de l'énergie électrique utilisée est directement couplée aux électrons du plasma, et seulement 10% est perdue en chaleur par rayonnement. ii) Formation du plasma ion-ion. Dans cet étage, un champ magnétique est utilisé pour confiner et refroidir les électrons. À la sortie de cette zone, le plasma n’est pratiquement plus composé que d’ions positifs et négatifs : le champ magnétique agit comme un filtre pour les électrons, et il y a formation d’un plasma ion-ion. Le transport des particules chargées, ions et électrons, à travers le champ magnétique local ainsi que le comportement du plasma ion-ion est activement étudié au laboratoire. En particulier, nous avons pu montrer récemment que la décroissance de la température électronique peut être pilotée par le contrôle du gradient de l'intensité du champ magnétique utilisé. Cette plus faible température électronique en sortie du filtre magnétique assure une production plus importante d’ions négatifs et facilite la formation du plasma ion-ion. iii) Accélération des ions. Dans cette partie, les ions sont extraits et accélérés en polarisant au cours du temps des grilles accélératrices par des signaux rectangulaires. Le résultat est une émission alternée de faisceaux d'ions positifs et négatifs (cf. illustration sur la figure 2). Ce concept d’accélérations alternées a été breveté Les recherches menées au LPP s’appliquent aux trois étages du projet PEGASES et comprennent des aspects à la fois fondamentaux et technologiques, qui nécessitent expériences, théorie et simulations. Le développement de ce propulseur d’avenir est fortement soutenu par notre partenaire industriel Astrium. L’étude des mécanismes physiques se poursuivra dans le cadre de l'ANR EPIC récemment obtenue, qui impliquera trois laboratoires français (le LPP à Palaiseau, le laboratoire ICARE à Orléans et le laboratoire LAPLACE de Toulouse). Contact : Ane Aanesland [email protected] http://www.lpp.fr/?plasmas-pour-la-propulsion Figure 3 : Distribution d’énergie des ions mesurée à différents moments du cycle de tension. Flash X n°14 - Transports 56 En bref… L ’École Polytechnique travaille sur d’autres sujets de recherche en rapport avec le domaine des transports (par exemple en mathématiques appliquées avec Renault, en informatique avec Valeo, en mécanique avec Michelin) que l’état d’avancement ou le degré de confidentialité n’a pas permis de détailler sous forme d’article dans FLASH X. On peut mentionner cependant les travaux suivants. Étude sur les traînées de condensation des avions Olivier BOUCHER Laboratoire de Météorologie Dynamique (LMD) « Pouvons-nous tous devenir des aidechercheurs ? » C’est une question que beaucoup de gens se posent. Le grand public peut en effet contribuer à observer notre environnement ou donner un peu du temps de calcul de leur ordinateur pour des projets scientifiques. C'est pourquoi le Laboratoire de Météorologie Dynamique (LMD) a lancé une étude relative à l’impact de l’aviation sur le réchauffement climatique. En effet, les traînées de condensation des avions visibles dans le ciel pourraient influencer le climat terrestre en raison de leur interaction avec le rayonnement. L'idée est de demander aux utilisateurs de Smartphones de réunir des données sur ces fameuses traînées au niveau local, régional, national voire international. Les données récoltées pourront éclairer les scientifiques et permettre une meilleure compréhension des processus de formation et d’évolution de ces traînées. Flash X n°14 - Transports Chacun avec son Smartphone pourra, s’il repère une ou plusieurs de ces traînées de condensation, répondre à un petit questionnaire sur une application (à télécharger gratuitement sur tous les supports de téléchargement par exemple : Android Market ou Itunes) et indiquer les caractéristiques du ciel et les caractéristiques morphologiques des traînées observées. Seules trois petites questions seront demandées, les coordonnées GPS sont enregistrées et une photo peut aussi être envoyée de manière facultative. L’application Epicollect© permet de répertorier des données (photos, description de faits...) et de les localiser à travers le monde (http://www.epicollect.net). Il est aussi fourni un tutoriel d’utilisation. Contact : Olivier Boucher [email protected] 57 Propulsion des bateaux par cerf-volant Christophe CLANET Laboratoire d'Hydrodynamique de l'X (Ladhyx) Pour tracter les bateaux – de marine marchande, de plaisance ou de pêche – le célèbre navigateur yves parlier a imaginé un système de train de cerfs – volants inspirés des ailes de kite-surf, avec un nouveau mode de lancement. Dans le cadre de son projet « Beyond the sea », l’équipe de Christophe Clanet au Ladhyx (Laboratoire d’Hydrodynamique de l’X) a lancé des travaux de recherche sur deux aspects : maximisation de la force de traction (optimisation de la forme de l’aile et du mouvement à lui donner) et techniques de dépliement et de repliement de ces structures. Il faudra aussi déterminer la meilleure distance à respecter entre ces ailes volantes pour minimiser les turbulences. La rigidité de l’ensemble étant assurée par des boudins gonflables, le Ladhyx cherchera notamment à voir à partir de quel moment des plis se forment sur ces structures en boudin. Ce concept de navigation durable semble être très prometteur en terme de gains environnementaux (réduction des émissions de gaz à effet de serre) et économiques (allègement et économie de carburant). Contact : Christophe Clanet [email protected] Mur anti-bruit accoustique Bernard SAPOVAL Laboratoire de Physique de la Matière Condensée (PMC) Les travaux sur les propriétés d’absorption des ondes par des structures de morphologies irrégulières effectuées au sein du Laboratoire de Physique de la Matière Condensée (PMC) ont débouché sur la conception d’un mur anti-bruit acoustique routier de performances inégalées. Ces travaux ont eu un certain retentissement : 2003, Grand Prix Siemens de l’Innovation pour la Recherche Appliquée. 2004, Award de l’International Road Federation. 2008, Prix « Canac » de la Société française d’acoustique. 2008 : Prix « Fibre de l’Innovation » de Optics Valley, Région Île-deFrance. Ces travaux ont été récemment utilisés pour l’amélioration des performances des chambres anéchoïques électromagnétiques, en partenariat avec la Société Siepel et avec le soutien de la DGA. Contact : Bernard Sapoval [email protected] 58 Prix et distinctions PHYSIQUE Médaille Albert Einstein de la société A. Einstein Alain ASPECT Directeur de recherche CNRS, Professeur de physique Concours national OSEO 2012 d’aide à la création d’entreprises de technologies innovantes Haad BESSBOUSSE Post-doc au Laboratoire des Solides Irradiés (LSI) Cristal 2011 du CNRS Christophe COILLOT Ingénieur de recherche au Laboratoire de Physique des Plasmas (LPP) Prix Charles Hard Townes 2012 Philippe GRANGIER Président du Département de Physique Médaille Edward Teller 2011 de la Société de physique nucléaire américaine Christine LABAUNE Directrice de recherche CNRS au Laboratoire pour l’Utilisation des Lasers Intenses (LULI) Flash X n°14 - Transports Prix de thèse de la Division Plasmas de l'European Physical Society (EPS) Frédéric PÉREZ Thèse réalisée au Laboratoire d'Utilisation des Lasers Intenses (LULI) Médaille d’argent 2011 du CNRS Pere ROCA Y CABARROCAS Chercheur au Laboratoire de Physique des Interfaces et des Couches Minces (LPICM) Prix Jeune chercheur de la Société Française d’Astronomie et d’Astrophysique (SF2A) Fouad SAHRAOUI (X 2008) Chargé de recherche au Laboratoire de Physique des Plasmas (LPP) CHIMIE Prix ACROS de la Société Française de Chimie 2012 Fabien GAGOSZ Chercheur au Laboratoire de Synthèse Organique (DCSO) Grand Prix Joseph-Achille Le Bel 2012 Fellow of the Royal Society of Chemistry, Membre honoraire de la Sociedad Argentina de Investigación en Química Orgánica Samir ZARD Directeur de recherche Classe Exceptionnelle au Laboratoire de Synthèse Organique (DCSO), Président du département de chimie, Professeur de chimie Prix de thèse ParisTech Larbi TOUAHIR Thèse réalisée au Laboratoire de Physique de la Matière Condensée (PMC) BIOLOGIE Médaille d’argent 2011 du CNRS François HACHE Directeur de recherche au Laboratoire d’Optique et Biosciences (LOB) LANGUES ET CULTURES Médaille de bronze 2011 du CNRS Olivier BERTRAND Président du département Langues et cultures 59 MATHÉMATIQUES APPLIQUÉES MÉCANIQUE Grand Prix 2011 de la Fondation d’entreprise EADS de l’Académie des sciences, Président de la Société de Mathématiques Appliquées et Industrielles (SMAI) ERC-Starting Grant 2011 du Conseil Européen de la Recherche Grégoire ALLAIRE Professeur et vice-président du Département de Mathématiques Appliquées, Chercheur au Centre de Mathématiques Appliquées (CMAP) Prix Jacques-Louis Lions 2011 de l’Académie des sciences Vincent GIOVANGIGLI Directeur de recherche CNRS au Centre de Mathématiques Appliquées (CMAP) Prix Paul Caseau de l'Académie des technologies / EDF, catégorie « modélisation et simulation numérique » Zakaria HABIBI Thèse réalisée au Centre de Mathématiques Appliquées (CMAP) Grand prix de l’INRIA 2012 Pierre-Louis LIONS Professeur de mathématiques appliquées Charles BAROUD Professeur au Département de Mécanique, Chercheur au Laboratoire d’hydrodynamique (Ladhyx) Honorary Fellow de la Royal Meteorological Society Britannique Olivier TALAGRAND Directeur de recherche émérite au Laboratoire de Météorologie Dynamique (LMD) PRIX DE L’ÉCOLE POLYTECHNIQUE Bernard Haurwitz Memorial Lecturer award 2012 de l’American Meteorogical Society Prix Pierre Faure 2011 de la Fondation de l’École Polytechnique Sandrine BONY Chercheur au Laboratoire de Météorologie Dynamique (LMD) Hélène KARCHER (X 1998) Chercheur aux laboratoires Novartis Pharma AG Médaille Alfred Wegener 2011 de l’European Geosciences Union (EGU) Michael GHIL Chercheur au Laboratoire de Météorologie Dynamique (LMD) Prix Meilleures thèses de la Fondation EADS 2011, Prix Prud’homme de la Société Météorologique de France (SMF) 2011 Camille RISI Thèse réalisée au Laboratoire de Météorologie Dynamique (LMD) Prix de l’innovation 2011 de l’École Polytechnique, catégorie « brevets » François OZANAM Directeur du Laboratoire de Physique de la Matière Condensée (PMC), Travaux sur le thème des biocapteurs Prix de l’innovation 2011 de l’École Polytechnique, catégorie « création d’entreprise » Sébastien DINE Créateur de « SOLAYL », Ancien doctorant au Laboratoire de Physique des Plasmas (LPP) La lettre scientifique de l’Ecole Polytechnique Juillet 2005 N°1 Éditorial [email protected] Tirage : 1500 exemplaires www.polytechnique.edu Imprimé au CPM de l’École Polytechnique 91128 Palaiseau cedex Les nouveautés du Teramobile Des tirs dans l’air avec un laser Terawatt (mille milliards de watt) ultra-bref et mobile ont été réalisés en 2003 à l’Ecole, puis récemment au sommet d’une montagne à 3200 m d’altitude dans le nouveau Mexique (voir photo page suivante), pour tester la propagation non linéaire de ces faisceaux lumineux dans l’air sur de grandes distances et à différentes pressions. Un faisceau a pu être ainsi propagé horizontalement sur plus de 2 km. Le Teramobile est le fruit d’une collaboration franco-allemande et constitue un dispositif unique au monde en terme de puissance et compacité. Contact : Samir Zard En fait, les impulsions laser créent des filaments rectilignes de [email protected] plasma conducteurs qui émettent du rayonnement (de l’ultraviolet à l’infrarouge) et elles se propagent ainsi de façon autoguidée sous cette forme filamentée, sous l’effet focalisant de l’effet Kerr optique et dé-focalisant de l’ionisation multiphotonique. Un pas de plus est ainsi réalisé vers l’utilisation de ces lasers ultra-brefs pour le sondage de l’atmosphère Flash X - n°1 juillet 2005 La lettre scientifique de l�E´cole Polytechnique La lettre scientifique de l�E´cole Polytechnique octobre N° mars 2007 N° 5 juin 2007 N° 6 De´fi environnemental Ge´ne´ral Xaviel Michel, Directeur Ge´ne´ral de l�E´cole Polytechnique Brèves scientifiques Une nouvelle chimie des xanthates pour des polymères « sur mesure » Au laboratoire DCSO (synthèse organique), des travaux menés en collaboration avec RHODIA ont abouti à la mise au point d’un procédé innovant et performant de polymérisation radicalaire contrôlé appelé MADIX. À partir de produits accessibles et peu chers, il élabore des polymères « vivants » extensibles car réactifs aux 2 extrémités, dont l’une est un groupe xanthate (composé du soufre). On peut ainsi préparer rapidement et de façon économique des polymères à blocs très variés à partir de pratiquement tous les monomères commerciaux .La construction sur mesure de matériaux combinant diverses propriétés et porteurs de multiples applications est ainsi devenu envisageable (adhésifs, détergents, émulsifiants, cosmétiques, shampoings, peintures, encres spéciales, traitement et hydrofugation des surfaces…) La lettre scientifique de l’École Polytechnique avril 2006 N° 3 C�est avec une tre`s grande satisfaction que j�ai retrouve´, 30 ans apre`s, l�E´cole Polytechnique dont j�ai e´te´ l�e´le`ve �promotion 72� et de´couvert tout le potentiel de l�E´cole et son dynamisme en matie`re de recherche et d�enseignement. Je compte poursuivre les efforts de´ja` engage´s par mon pre´de´cesseur pour accroiˆtre le rayonnement de l�X. Le de´veloppement de l�internationalisation de l�E´cole, notamment a` travers ParisTech, des masters et doctorats, de la recherche et sa valorisation doivent eˆtre poursuivis avec te´nacite´. Le campus est par ailleurs en plein de´veloppement. Thales vient d�arriver, l�Institut d�optique the´orique et applique´e �IOTA�, qui comprend notamment l�E´cole supe´rieure d�optique, va nous rejoindre en 2006, le chantier de construction venant de de´marrer. L�installation de l�ENSTA est pre´vu pour 2009-2010 et des laboratoires de l�ONERA, en optique et me´canique des fluides, devraient nous rejoindre e´galement, meˆme si rien n�est encore officialise´. Il faudra aussi compter sur Digiteo Labs, le parc de recherche dans le domaine des technologies nume´riques, et exploiter les possibilite´s qui s�ouvrent avec le poˆle de compe´titivite´ System@tic. Une de mes priorite´s sera de poursuivre cette dynamique et de cre´er une synergie entre toutes ces activite´s afin de contribuer a` e´tablir sur le plateau de Saclay un poˆle de rayonnement scientifique et technique international. Gabriel de Nomazy, Directeur Général de l’École Polytechnique Un nouveau mode de synthèse de l’ADN Au Laboratoire d'Optique et Biosciences (LOB) a été découverte une nouvelle enzyme ThyX (thymidylate synthase alternative) permettant la synthèse d’un des 4 précurseurs de l'ADN. Absente chez l'homme mais présente dans de nombreuses bactéries pathogènes pour l'homme, elle pourrait fournir une cible originale pour des molécules d’intérêt pharmaceutique (brevet international 2003). Un nouvel essai optique a été développé permettant la robotisation et le criblage à haut débit. Les premières molécules démontrant une inhibition compétitive de ThyX ont été découvertes. Contact : Ursula Liebl ursula.liebl @polytechnique.fr La lettre scientifique de l�E´cole Polytechnique E´ditorial Nous vous adressons aujourd’hui le premier numéro de la lettre scientifique de l’Ecole Polytechnique. Celle-ci a pour but d’informer les responsables du monde socio-économique, les acteurs publics de la recherche et de l’innovation et les médias scientifiques de l’actualité de notre centre de recherche. Nous l’avons baptisée Flash X en référence à la « spécialité » d’un de nos laboratoires qui est de créer des rayonnements X de très courtes durées. Nous souhaitons, par ce rendez-vous trimestriel, entretenir et resserrer les liens avec nos nombreux partenaires, en France et à l’international et ainsi poursuivre l’effort de la cellule de valorisation de notre centre de recherche. Celui-ci regroupe 21 laboratoires couvrant un ensemble très larges de domaines (mathématiques, physique, chimie, sciences de la vie, sciences humaines et sociales, sciences de l’environnement). Ce gisement de savoir et de technologie, alimenté par les 1400 personnes du centre, et s’appuyant sur des techniques de pointe, est ouvert sur le monde socio-économique et contribue à faire avancer les défis qu’il a à relever. Inversement, les perspectives d’applications peuvent inspirer et stimuler de nouvelles découvertes scientifiques. Valoriser c’est transformer de la matière grise en valeur, que ce soit sous la forme de produits et services, générateurs de gains financiers, d’emplois mais aussi de rayonnement de l’établissement. C’est une des priorités de l’Ecole Polytechnique, très consciente que la recherche est devenue le moteur principal de l’innovation et qu’elle contribue largement au progrès de la société. FLASH X la lettre scientifique de l’École Polytechnique Parution : 18 juillet 2005 - Dépot légal : juillet 2005 - Adresse : École Polytechnique 91128 Palaiseau cedex. Téléphone : 01 69 33 43 38 - Directeur de la publication : Général de Nomazy, Directeur Général de l’École Polytechnique - Rédacteur en chef : Pascal Bradu, délégué à la valorisation de la recherche - Maquette mise en page : Dominique Toustou - Fabrication : Jean-Claude Mathieu, Jean-Félix Le Rouzic. e-mail : La lettre scientifique de l�E´cole Polytechnique novembre 2005 N° 2 DigiteoLabs et System@tic : l�union fait la force FLASH X la lettre scientifique de l�E´cole Polytechnique Parution : 25 novembre 2005 De´pot le´gal : novembre 2005 Adresse : E´cole Polytechnique 91 128 Palaiseau CEDEX. Te´le´phone : 01 69 33 43 38 - Directeur de la publication : Ge´ne´ral Michel, Directeur Ge´ne´ral de l�E´cole Polytechnique Re´dacteur en chef : Pascal Bradu, direction de la recherche - Maquette - mise en page : Dominique Toustou - Fabrication : Jean-Claude Mathieu, Jean-Fe´lix Le Rouzic. e-mail : [email protected] Tirage : 1 500 exemplaires N° ISSN : 1775-0385 www.polytechnique.edu Imprime´ au CPM de l�E´cole Polytechnique 91128 PalaiseauCEDEX Un Poˆle commun de recherche en informatique �PCRI� avait e´te´ cre´e en 2003 �rassemblant le LIX, laboratoire d�informatique de l�E´cole, le LRI, de l�universite´ Paris XI Orsay, et la nouvelle unite´ INRIA-Futurs, a` Saclay�. Il existait aussi une plate-forme sur les technologies logicielles, baptise´e Numatec, issue du rassemblement d�activite´s du CEA et de Supe´lec, en liaison avec le CNRS. Il est apparu e´vident que des convergences existaient entre ces deux projets et qu�un lien permettant de re´aliser des projets plus ambitieux e´tait souhaitable. C�est ainsi qu�en 2004, les e´tablissements tutelles des diffe´rents laboratoires implique´s �CEA, CNRS, E´cole Polytechnique, INRIA, Supe´lec, Universite´ Paris XI�, ont de´cide´ d�unir leurs efforts pour construire ensemble sur le plateau de Saclay le premier parc de recherche publique franc¸ais dans le domaine des sciences et technologies de l�information et de la communication, nomme´ Digiteo Labs, consacre´ a` la conception et au de´veloppement des syste`mes a` forte composante logicielle, depuis le syste`me sur puce jusqu�au calcul haute performance et aux grandes infrastructures logicielles en passant par les syste`mes embarque´s et les robots. Une convention relative a` ce consortium devrait eˆtre signe´e avant fin 2005. A` la fin de la de´cennie, avec le soutien des collectivite´s locales et des pouvoirs publics natio- naux et europe´ens, Digiteo Labs qui regroupe actuellement 1 250 personnes, devrait accueillir plus de 1 800 personnels de la recherche, employe´s par les six e´tablissements fondateurs et leurs partenaires, dont 300 sur le campus de Polytechnique. Les sites de Saclay, du Campus de l�X et du Plateau de Moulon he´bergeront les e´quipes de Digiteo Labs sur une surface de l�ordre de 45 000 m2 de locaux dont 28 700 m2 de nouvelles constructions �comprenant un nouveau baˆtiment, sur notre campus, de 6050 m2 dont une partie re´serve´e a` l�accueil de porteur de projet de start-up�. Digiteo Labs ambitionne d�eˆtre le coeur de recherche publique du poˆle de compe´titivite´ System@tic Paris-Re´gion, dont le projet a e´te´ labellise´ le 12 Juillet 2005 par le CIADT en tant que poˆle de compe´titivite´ a` visibilite´ mondiale. Il concentre dans l�ouest francilien un nombre exceptionnellement e´leve´ a` l�e´chelle internationale de centres de formation et de recherche publics et industriels sur le the`me des syste`mes complexes dont le logiciel constitue la technologie la plus fe´de´rative. Ce poˆle se concentrera sur les applications lie´es a` l�automobile/transports, aux te´le´communications, a` la se´curite´/de´fense, a` la conception et au de´veloppement des syste`mes complexes. Sont implique´s dans ce poˆle, de grands groupes internationaux tels Alcatel, Altis semiconductor, Bull, Cegelec, CS Communication et Syste`mes, Dassault Aviation, Dassault Systems, EADS, EDF, France Telecom, Motorola, RATP, Renault, Sagem, SNCF, Thales, Valeo. ainsi que plus d�une trentaine de PME-PMI franciliennes. Flash X - n°2 novembre 2005 FLASH X la lettre scientifique de l�E´cole Polytechnique Parution : avril 2006 - De´pot le´gal : 3 avril 2006 - Adresse : E´cole Polytechnique 91 128 Palaiseau CEDEX. Te´le´phone : 01 69 33 43 38 Directeur de la publication : Ge´ne´ral Michel, Directeur Ge´ne´ral de l�E´cole Polytechnique - Re´dacteur en chef : Pascal Bradu, direction de la recherche - Maquette - mise en page : Dominique Toustou - Fabrication : Jean-Claude Mathieu, Jean-Fe´lix Le Rouzic. e-mail : [email protected] Tirage : 1 500 exemplaires N° ISSN : 1775-0385 www.polytechnique.edu Imprime´ au CPM de l�E´cole Polytechnique 91128 PalaiseauCEDEX E´ditorial Pollution atmosphe´rique, augmentation de la concentration des gaz a` effet de serre, destruction de la couche d�ozone, re´chauffement global et multiplication des ale´as climatiques �tempeˆtes, canicules, cyclones, inondations, …� , de´veloppement durable, capture et stockage du CO2, pe´nurie des e´nergies fossiles , de´veloppement des e´nergies renouvelables, biodiversite´, gestion des de´chets nucle´aires, tous ces termes s�immiscent dans notre quotidien et impactent de manie`re de plus en plus significative l�e´conomie et la ge´opolitique mondiale , la sante´ et la se´curite´ des citoyens et conditionnent l�avenir des ge´ne´rations futures. Cette anne´e encore, ils feront l�objet de de´bats intenses dans le cadre d�une prise de conscience progressive non de´nue´e de craintes que l�homme a une responsabilite´ collective et individuelle dans l�avenir de la plane`te, a` bien plus court terme qu�on ne l�aurait suppose´ il y 30 ans. La premie`re partie de ce sie`cle sera assure´ment le sie`ge d�une rupture en terme de production et consommation e´nerge´tique et la fin du sie`cle pourrait signer dans le prolongement des e´volutions climatiques de´ja` constate´s, un changement d�e`re climatique dont les conse´quences restent difficiles a` imaginer. Et cela malgre´ la mise en place d�un cadre re´glementaire �protocoles de Montreal et Kyoto � susceptible de nous permettre de mieux ge´rer ces difficulte´s . L�Ecole Polytechnique , a` travers ses recherches et enseignements dans divers domaines �me´te´orologie, me´canique, optique, chimie , sciences e´conomiques et sociales, ..� participe aux progre`s de la connaissance de notre environnement, qui devraient permettre aux responsables politiques de prendre les de´cisions utiles et fonde´es a` partir d�une e´valuation plus pre´cise des risques environnementaux et compte tenu des contraintes de temps impose´es par la nature. C�est pourquoi il nous a semble´ utile de consacrer un nume´ro plus e´toffe´ de flash X, consacre´ a` cette the´matique d�importance, incluant des re´sume´s de deux pre´sentations faites dans le cadre de notre chaire environnement durable et un bilan de nos travaux effectue´s sur la proble´matique du stockage des de´chets nucle´aires. Pascal BRADU Re´dacteur en chef Un nouvel observatoire pour la recherche en me´te´orologie et qualite´ de l�air Les pre´visions me´te´orologiques et de qualite´ de l�air ont e´te´ conside´rablement ame´liore´es ces 15 dernie`res anne´es avec le de´veloppement massif d�assimilation de donne´es procure´es par des dispositifs d�observation tre`s de´veloppe´s a` l�e´chelle nationale et mondiale. Cependant, certains processus sont tre`s difficiles a` repre´senter dans les mode`les, comme par exemple le roˆle des ae´rosols, qui d�une part sont source de pollution dans l�atmosphe`re et d�autre part ont une influence sur la formation des nuages, brouillard et pre´cipitations. L�institut Pierre Simon Laplace �IPSL�, une fe´de´ration de recherche du CNRS, a mis sur pied un ve´ritable observatoire de l�atmosphe`re regroupant des moyens d�observation de l�atmosphe`re sophistique´s par te´le´de´tection active et passive �radars, lidars, radiome`tres� et par mesures in situ a` proximite´ du sol. Cet observatoire appele´ SIRTA�1� , situe´ sur le campus de l�Ecole Polytechnique, permet d�e´tudier les ae´rosols et les particules d�eau et de glace �nuages� dans la colonne atmosphe´rique, de documenter des tailles de particules des nuages et ae´rosols �pouvant varier entre 1 mm et 1/10 000 mm� et des concentrations variant de 1 a` 10 000 particules/m3, et de caracte´riser les conditions dynamiques associe´es. Le SIRTA permet e´galement de fournir des donne´es de validation pour les mode`les de me´te´o et climat et de servir de point de re´fe´rence pour la validation d�observations spatiales. Il fait partie de re´seaux europe´ens et mondiaux de � super sites � atmosphe´riques de´die´s a` la recherche sur les nuages et ae´rosols. Cet observatoire qui s�est e´quipe´ en 2005 d�une nouvelle plate-forme regroupant tous les moyens expe´rimentaux jusqu�alors disperse´s, fonctionne graˆce aux soutiens du CNRS et de son Institut National des Sciences de l�Univers �INSU�, du CNES Éditorial E´ditorial Le monde n’est pas calme et figé.A grande échelle , l’univers est le siège de phénomènes très violents , sources de rayonnements très énergétiques et dont on peut aussi reproduire certains aspects en laboratoire avec des lasers très puissants. Notre planète est agité par des séismes imprévisibles et meurtriers. Sur terre, dans les fluides (l’eau, l’air), dans les plasmas , la turbulence voire le chaos vient s’opposer à l’écoulement « paisible » de ces milieux. A l’échelle humaine, les flambées de violence urbaine ne doivent pas cacher celles émanant des incivilités quotidiennes. Notre vie elle même n’est que mouvement, comme le dit Montaigne, et ce à toutes les échelles , de la molécule à la cellule . Il est très important de pouvoir identifier ces mouvements associés à des fonctions biologiques. A un niveau encore plus microscopique, les électrons se repoussent sans cesse entre eux dans les solides , et leurs mouvements peuvent être fortement corrélés .Ces divers sujets sur lesquels les chercheurs de l’Ecole Polytechnique travaillent activement et produisent des avancées, publiées dans les meilleures revues internationales et récompensées par des prix sont notamment relatées dans ce nouveau numéro de flash X. Ces dernie`res anne´es ont e´te´ marque´es par une forte e´volution de la physionomie de l�E´cole, de son campus et plus ge´ne´ralement du ses partenariats. Le rythme des e´volutions s�est acce´le´re´ comme le traduit la succession des inaugurations officielles durant le seul dernier trimestre 2006 �DIGITEO Labs, THALES RT, SOLEIL, Institut d�Optique Graduate School�. Pour les 5 prochaines anne´es, comme l�indique le contrat pluriannuel qui vient d�eˆtre signe´ avec l�E´tat, le de´veloppement du campus et de son environnement proche �qui regroupera plus de 3000 chercheurs et enseignants� reste un enjeu majeur. Il s�agit d�accueillir de nouveaux e´tablissements de haut niveau dont la comple´mentarite´ avec l�E´cole permettra d�e´tendre le spectre de formation et de recherche � tels l�ENSTA, l�ENSAE ou des laboratoires de l�ONERA�, et de construire des partenariats efficaces avec les organismes d�enseignement supe´rieur et de recherche proches. Il s�agit aussi de de´velopper les e´changes avec le monde de l�entreprise, notamment a` travers de nouvelles chaires d�enseignement et de recherche, et via la re´alisation d�un ensemble IPHE � Incubateur- Pe´pinie`re-Hoˆtel d�Entreprises� de pre`s de 10 000 m2 a` la pe´riphe´rie du campus. L�E´cole doit aussi affirmer la re´putation de sa graduate school, notamment en de´veloppant des masters et doctorats de dimension internationale. Un autre objectif majeur est l�insertion de l�E´cole avec son campus dans les re´seaux acade´miques internationaux, en relation avec ParisTech, afin qu�elle soit identifie´e comme l�un des hauts lieux ou` l�Europe investit pour son avenir. Pour se faire reconnaiˆtre comme un e´tablissement universitaire de premier plan au niveau international, continuant d�assurer la re´ussite de ses e´le`ves et e´tudiants, l�E´cole Polytechnique doit relever ainsi un ve´ritable de´fi. Xavier Michel Directeur Ge´ne´ral de l�E´cole Polytechnique Pascal BRADU Rédacteur en chef Brèves scientifiques FLASH X la lettre scientifique de l’École Polytechnique Parution : octobre - Dépot légal : octobre - Adresse : École Polytechnique Palaiseau CEDEX. Téléphone : Directeur de la publication : Général Michel, Directeur Général de l’École Polytechnique - Rédacteur en chef : Pascal Bradu, direction de la recherche - Maquette - mise en page : Dominique Toustou - Fabrication : Jean-Claude Mathieu, Jean-Félix Le Rouzic. e-mail : Comment retarder la transition vers la turbulence [email protected] [email protected] Tirage : exemplaires N° ISSN : - www.polytechnique.edu Imprimé au CPM de l’École Polytechnique PalaiseauCEDEX Tirage : 1 500 exemplaires N° ISSN : 1775-0385 www.polytechnique.edu Imprime´ au CPM de l�E´cole Polytechnique 91128 PalaiseauCEDEX La turbulence est un phénomène nuisible car susceptible de réduire le rendement énergé- �1�Site Instrumental de Recherche par Te´le´de´tection Atmosphe´rique Flash X - n°3 avril 2006 FLASH X la lettre scientifique de l�E´cole Polytechnique Parution : mars 2007 - De´poˆt le´gal : mars 2007 - Adresse : E´cole Polytechnique 91 128 Palaiseau CEDEX. Te´le´phone : 01 69 33 43 38 Directeur de la publication : Ge´ne´ral Michel, Directeur Ge´ne´ral de l�E´cole Polytechnique - Re´dacteur en chef : Pascal Bradu, direction de la recherche - Maquette - mise en page : Dominique Toustou - Fabrication : Jean-Claude Mathieu, Jean-Fe´lix Le Rouzic. e-mail : tique dans le vol des avions , la vitesse des voitures ou la furtivité des sous-marins Flash X - n°4 octobre 2006 La lettre scientifique de l’École Polytechnique La lettre scientifique de l’École Polytechnique La lettre scientifique de l’École Polytechnique La lettre scientifique de l’École Polytechnique février 2008 N° 8 juillet 2008 N°9 janvier 2009 N°10 juillet 2009 N°11 E´ditorial Multirisques Risques climatiques, risques naturels, risques chimiques , biologiques et nucle´aires, terroristes et de se´curite´ , risques financiers, risques sanitaires, nouveaux risques technologiques �l�informatique et les nanotechnologies sont souvent sous les feux de l�actualite´� ,le risque est multiforme et de plus en plus omnipre´sent dans notre vie quotidienne . Il est devenu un ve´ritable objet scientifique sur lequel travaillent les laboratoires de l�Ecole, notamment au niveau des sciences e´conomiques et sociales , des mathe´matiques applique´es et de l�environnement. Le risque c�est aussi le gisement meˆme des opportunite´s comme le rappelle l�ide´ogramme chinois de la crise re´sultant de l�association de deux ide´ogrammes �Wei� danger + �Ji� opportunite´ . Le re´chauffement climatique que les experts du GIEC �dont certains sont a` l�X, comme Herve´ le Treut � viennent de juger sans e´quivoque et tre`s probablement lie´ aux activite´s humaines , pourrait eˆtre ainsi l�occasion pour minimiser son impact d�avance´es dans divers domaines. L�anne´e 2007 est aussi une anne´e riche e´lectoralement parlant. Deux chercheurs de l�Ecole en ont profite´ pour tester un nouveau mode de scrutin qui serait a` meˆme de repre´senter plus justement le jugement des e´lecteurs sur les candidats �et d�e´viter aussi toutes proportions garde´es certains risques politiques, puisqu�un tel mode de scrutin aurait pu rejeter selon eux Hitler en 1933 !!� FLASH X la lettre scientifique de l�E´cole Polytechnique Parution : mars 2007 - De´poˆt le´gal : juin 2007 - Adresse : E´cole Polytechnique 91 128 Palaiseau CEDEX. Te´le´phone : 01 69 33 43 38 Directeur de la publication : Ge´ne´ral Xavier Michel, Directeur Ge´ne´ral de l�E´cole Polytechnique - Re´dacteur en chef : Pascal Bradu, direction de la recherche - Maquette - mise en page : Dominique Toustou - Fabrication : Jean-Claude Mathieu, Jean-Fe´lix Le Rouzic. e-mail : Inaugurations La source de rayonnement synchrotron SOLEIL �Source Optimise´e de Lumie`re d�E´nergie Interme´diaire�, situe´e a` Saint Aubin sur le plateau de Saclay, a e´te´ inaugure´e le 18 de´cembre 2006 en pre´sence du chef de l�E´tat. Cette installation commune au CEA et au CNRS qui ont cre´e´ ensemble la socie´te´ civile Synchrotron SOLEIL dispose d�un budget de 449 millions d�Euros pour la pe´riode 2002-2009 de construction et de´but d�exploitation �dont pre`s de 183 millions fournis par les collectivite´s territoriales d�Iˆle de France�. Elle emploiera a` terme plus de 350 personnes. C�est le second dispositif de 3e ge´ne´ration construit en France, apre`s l�ESRF de Grenoble, qui est lui optimise´ dans les rayons X durs alors que Soleil l�est dans les X mous et tendres, moins e´nerge´tiques. Le rayonnement tre`s brillant et peu divergent qui s�e´tend sur une large gamme d�e´ner- La lettre scientifique de l’École Polytechnique novembre 2007 N° 7 [email protected] gie, de l�Infra-Rouge aux rayons X, est fourni par un anneau de stockage de 354 m de circonfe´rence ou re`gne un vide pousse´ et dans lequel circulent des e´lectrons de tre`s haute e´nergie. Il est ensuite guide´ vers des lignes de lumie`re dispose´es tout autour de l�anneau �23 pre´vues en 2009, 43 potentiellement� qui sont des laboratoires inde´pendants, mises a` disposition des utilisateurs souhaitant explorer la structure et les proprie´te´s chimiques et morphologiques de la matie`re, au moyen de techniques de diffusion/diffraction X, spectroscopies, microscopies/imageries. Une Tirage : 1 000 exemplaires N° ISSN : 1775-0385 www.polytechnique.edu Imprime´ au CPM de l�E´cole Polytechnique 91128 PalaiseauCEDEX Flash X - n°5 mars 2007 anniversaires Flash X la lettre scientifique de l’École Polytechnique Cette fondation pre´sente´e officiellement le 7 mars 2007 a pour objet de contribuer durablement au de´veloppement du potentiel franc¸ais de recherche, d�enseignement et de formation dans tous les domaines du risque au centre des pre´occupations de nos socie´te´s contemporaines. Le risque est inhe´rent a` la vie �le risque ze´ro, c�est l�e´tat de mort !�, multiforme, en de´veloppement avec l�e´mergence de nouvelles formes �catastrophes, terrorisme ou judiciarisation de la socie´te´�. Il fait l�objet si on y regarde bien de 90 % du discours politique actuel, mais aussi de l�adversion croissante de la population et des entreprises de plus en plus demandeuses de protection et de se´curite´, ce qui place les assureurs devant de nouveaux de´fis, notamment dans un contexte de mondialisation de l�e´conomie. Le risque est aujourd�hui l�objet d�un nouveau principe constitutionnel inscrit dans la charte de l�environnement 2 004. Son actualite´ est particulie`rement res- sentie dans les secteurs de la sante´, de l�industrie mais aussi de la banque et de l�assurance. Les travaux les plus fe´conds sur le risque ne´cessitent une approche acade´mique transversale et multidisciplinaire �mathe´matiques et statistique, actuariat, droit, comptabilite´, e´conomie, sociologie, management, finance, sciences de la vie et sciences de l�inge´nieur�. Des grandes universite´s ame´ricaines comme Stanford en font l�axe central de leur strate´gie de de´veloppement. Quatre poˆles d�excellence acade´miques vont ainsi mettre en commun leur formation et recherche sur le risque pour constituer une masse critique suffisante : l�X, l�Universite´ Paris Dauphine, d�E´tudes Centre le Actuarielles �CEA�, l�E´cole Nationale de la Statistique et de l�Administration E´conomique �ENSAE�, qui est une des E´coles d�application de l�X. Quatre entreprises fondatrices AGF, AXA, Groupama, Socie´te´ Ge´ne´rale, rejoints re´cemment Flash X - n°6 juin 2007 Éditorial On célèbre les 40 ans de l’INRIA (nommé IRIA à sa création), institut avec lequel l’X entretient de nombreuses relations dans le domaine de l’informatique à travers des projets de recherche et de valorisation communs et plus largement au sein du RTRA DIGITEO, dont Maurice ROBIN vient d’être nommé directeur après plusieurs années fructueuses de direction de la recherche de l’X. L’année 2007 qui correspond au cinquantième anniversaire du premier lancement d’un satellite artificiel est aussi celle du cinquantenaire de l’année géophysique internationale . Elle a été déclarée année polaire internationale, mais aussi année héliophysique internationale, étendant le concept de géophysique jusqu’à l’héliosphère, la sphère d’influence du soleil qui concerne directement l’environnement de notre planète soumis à l’effet du plasma solaire (sous forme de vent, éruptions et autres éjections de matière). Ce numéro de flash X détaille des travaux menées à l’École en relation avec cette thématique. L’École contribue d’une autre manière à cette célébration en accueillant Michel BLANC comme nouveau directeur général adjoint, en charge de la recherche. C’est un spécialiste de la physique des plasmas spatiaux et de l’exploration planétaire, qui a dirigé notamment des observatoires à Toulouse et Marseille. Pascal BRaDU Rédacteur en chef Parution: novembre 2007 - Dépôt légal: novembre 2005 - Adresse: École Polytechnique 91128 Palaiseau CEDEX. Téléphone: 0169334013 - Directeur de la publication: Général Michel, Directeur général de l’École Polytechnique - Rédacteur en chef: Pascal Bradu, direction de la recherche - Maquette - mise en page: Dominique Toustou - Fabrication: Jean-Claude Mathieu, Jean-Félix Le Rouzic. e-mail : [email protected] Tirage : 1 000 exemplaires N° ISSN : 1775-0385 www.polytechnique.edu Imprimé au CPM de l’École Polytechnique 91128 PalaiseauCEDEX Chaires d’enseignement et de recherche Chaire science des matériaux et surfaces actives X/ESPCI/St GOBAIN fondamentales qu’appliquées. Ils contribuent non seulement à faire progresser les Jean-Louis Beffa, le Général Xavier Michel, Jacques Prost et Thierry Desmarets ont signé le 29 mai 2007 un accord de création d‘une nouvelle Chaire « Sciences des Matériaux et Surfaces Actives ». Articulée autour d’une formation de Master correspondant aux 3e et 4e années du cycle ingénieur, ce dispositif permettra d’ouvrir très largement un espace de recherche conjoint et de favoriser des interactions avec des équipes internationales dans un domaine scientifique et technique en fort développement. Verres hydrophobes ou autonettoyants, transistors transparents, couches minces pour les éclairages de demain ou le développement du photovoltaïque, nanomatériaux pour l’électronique et l’optique… la liste est longue des innombrables applications que la science des matériaux permet d’envisager dans le domaine de l’ingénierie des surfaces et des couches minces. De nombreux chercheurs du campus travaillent depuis plusieurs années sur ces sujets, avec des problématiques aussi bien remarquables. C’est dans ce cadre que saint-Gobain, leader mondial des matériaux, l’ESPCI et l’École Polytechnique, partenaires de longue date sur ces sujets, ont décidé de mettre en place un programme d’enseignement et de recherche ancré dans ces problématiques à fort potentiel dont les connaissances théoriques sur les propriétés physiques des matériaux mais aussi à mettre au point des processus innovants de conception, de caractérisation et de traitement de matériaux aux propriétés Flash X - n°7 novembre 2007 n° 14 juillet 2012 Éditorial Complexités Flash X la lettre scientifique de l’École Polytechnique Parution: février 2008 - Dépôt légal: février 2008 - Adresse: École Polytechnique 91128 Palaiseau CEDEX. Téléphone: 0169334013 - Directeur de la publication: Général Michel, Directeur général de l’École Polytechnique - Rédacteur en chef: Pascal Bradu, direction de la recherche - Maquette - mise en page: Dominique Toustou - Fabrication: Jean-Claude Mathieu, Jean-Félix Le Rouzic. e-mail : Structurés sur plusieurs niveaux d’organisation, constitués d’entités hétérogènes elles-mêmes complexes, les systèmes complexes recouvrent aussi bien les systèmes naturels des macromolécules du vivant jusqu’à l’écosphère, que les systèmes artificiels de tous ordres dont l’homme s’entoure. Ils sont uniques, imprévisibles, capables de s’adapter dans des environnements changeants et ne peuvent être connus que de façon incomplète. La science des systèmes complexes représente une tentative pour mener à grande échelle une démarche scientifique, pluridisciplinaire inédite et métissée (physique, biologie, informatique, écologie, sciences cognitives et sociales, Elle fait le lien entre l’individuel et le collectif (des gènes aux organismes et écosystèmes, des atomes aux matériaux et produits, des citoyens à la société) à travers la reconstruction des dynamiques multi-échelles. Comprendre les mouvements de groupe d’étourneaux et les comportements collectifs humains dans la sphère socio-économique, étudier l’évolution d’échelle des réseaux pour mieux concevoir les potentialités de l’internet de 2025, tels sont des exemples de problèmes étudié par cette science. Science encore émergente, elle devrait devenir une science essentielle de ce siècle, et pourrait par exemple révolutionner les traitements médicaux et la délivrance des médicaments (dans le cadre d’une nanomédecine personnalisée). Elle participe de fait à la convergence NBICS (Nano-Bio-Info-Cognition-Socio). C ‘est aussi un nouveau langage qui permet de formuler de nouvelles questions. Cette science est étudiée à l’X à travers notamment l’Institut des Systèmes Complexes Paris Île de France. Un système industriel complexe est un système dont la maîtrise de la conception, de la maintenance et de l’évolution pose des problèmes importants, liés à tant à sa taille qu’au nombre de technologies utilisées, qui rendent l’ensemble difficile à appréhender. Les grands systèmes de transport modernes, les systèmes de télécommunications ou microélectroniques, les systèmes d’information d’entreprise sont autant de systèmes industriels complexes largement utilisés en pratique. Ces systèmes sont composés de systèmes techniques (i.e. technologiques et informatiques) fortement couplés et souvent hétérogènes qui peuvent être également amenés à avoir des interactions fortes avec des organisations d’entreprise (que l’on voit ici comme d’autres systèmes). L’exemple du transport aérien illustre parfaitement cette situation. La modélisation de tels systèmes est donc intrinsèquement une vraie problématique de recherche qui est traitée à l’X dans le cadre de la Chaire Ingénierie des Systèmes Industriels Complexes avec THALES et plus généralement au sein du Réseau Thématique de Recherche Avancée Digiteo et du Pôle de compétitivité System@tic consacré aux logiciels et systèmes complexes Pascal BRaDU Rédacteur en chef Imprimé au CPM Pascal BRaDU Rédacteur en chef * le Tevatron du Fermilab (proton/antiproton de 1 TeV chacun) aux Usa pourrait aussi le détecter avant, selon la valeur de sa masse Jean-Félix le Rouzic. e-mail : N° IssN : 1775-0385 N° ISSN : 1775-0385 91128 PalaiseauCEDEX Polytechnique Téléphone: 0169334013 - Directeur de la publication: Général Michel, Directeur général de l’École Polytechnique - Rédacteur en chef: Pascal Bradu, direction de la recherche - Maquette - mise en page: Dominique Toustou - Fabrication: Jean-Claude Mathieu, Tirage : 1 000 exemplaires Tirage : 1 000 exemplaires de l’École Polytechnique Flash X la lettre scientifique de l’École Parution: juillet 2008 - Dépôt légal: juillet 2008 - adresse: École Polytechnique 91128 Palaiseau CEDEX. Éditorial [email protected] [email protected] www.polytechnique.edu Un anneau tube et des nanotubes Quoi de commun entre le gigantisme du nouvel anneau collisionneur LHC du CERN (27 km de circonférence) avec ses 2 faisceaux de protons accélérés dans deux tubes à vide et ses détecteurs « cathédrales », au service du monde de l’infiniment petit peuplé de particules, et la petitesse de ces objets nanométriques (dont les nanotubes de carbone sont la figure de proue) qui pénètrent progressivement notre quotidien. Rien si ce n’est le caractère extrême des échelles mises en jeu et le fait qu’ils font actuellement la une de l’actualité scientifique. Incidemment notons que les faisceaux de particules des grands collisionneurs linéaires susceptibles de succéder au LHC devront avoir des dimensions de seulement quelques nanomètres au point de collision pour que le nombre d’événements intéressants issus de ces chocs soit suffisamment grand. Ces divers sujets font l’objet de travaux à l’École et ce numéro double de flash X décrit certaines activités « nanos » menées dans plusieurs de nos laboratoires. Elles s’intègrent notamment dans le RTRA Triangle de la Physique récemment inauguré et dans le centre régional de compétences C’nano IdF. L’École a prévu de se renforcer dans ce secteur des nanosciences et nanotechnologies qu’elle juge prioritaire. Par ailleurs, les physiciens des particules théoriciens et expérimentateurs de l’X, participant notamment au GIS physique des deux infinis, se préparent activement à réaliser, dépouiller, interpréter les prochaines expériences qui se feront avec le LHC. Avec l’espoir entre autre de mettre en évidence le fameux boson de Higgs* surnommé médiatiquement la « particule de Dieu » dont l’existence a été postulée il y a presque 45 ans et qui selon le modèle dit standard conférerait une masse aux particules constituant notre matière, et ce via le champ auquel il est associé. Paul Bourgine est directeur du CREA , le Centre de Recherche en Epistémologie Appliquée de l’X. Il dirige l’ institut des systèmes complexes Paris Ile de France ainsi que le GIS Réseau national des systèmes complexes , tous deux crées en 2005. années 40 avec les automates auto-reproducteurs de Von Neumann, les réseaux de neurones formels de McCullochs et Pitt. Au cours des années 60 et 70, les mathématiques de la morphogénèse de René Thom, la thermodynamique des systèmes hors d’équilibre de Prigogine, la synergétique de haken, les méthodes de mécanique statistique d’anderson et de Wilson ont permis de nouvelles compréhensions des systèmes auto-organisés. Historique Les premières approches théoriques de modélisation des systèmes complexes remontent aux www.polytechnique.edu Imprimé au CPM de l’École Polytechnique 91128 PalaiseauCEDEX Flash X la lettre scientifique de l’École a été décidée dix ans plus tard. Il permettra en réalisant des chocs entre particules à des énergies inégalées, de créer localement des conditions similaires à celles qui prévalaient une fraction de milliardième de seconde après le big bang (il y a 13, 7 milliards d’années), de chercher de nouvelles particules lourdes ou de nouveaux états de la matière extrêmement denses et chauds. Pourquoi notre monde est-il tel qu’il est, *Exposition « cabinets de géographie » jusqu’au 30 juin 2009 Pascal BRADU Rédacteur en chef Polytechnique Parution: janvier 2009 - Dépôt légal: janvier 2009 - adresse: École Polytechnique 91128 Palaiseau CEDEX. Téléphone: 0169334013 - Directeur de la publication: Général Michel, Directeur général de l’École Polytechnique - Rédacteur en chef: Pascal Bradu, direction de la recherche - Maquette - mise en page: Dominique Toustou - Fabrication: Jean-Claude Mathieu, LHC : LA mACHINE DES RECoRDS L’anneau souterrain de collisions entre hadrons LHC (Large Hadron Collider) du CERN (Conseil Européen pour la Recherche Nucléaire), entre la France et la Suisse, sera inauguré officiellement le 21 octobre 2008. Il affiche de multiples records à commencer par être le plus grand instrument scientifique jamais réalisé sur terre, qui pourra sonder la structure de la matière à l’échelle de 10-19 m. Le projet est né en 1984 et sa construction Éditorial Objectif Terre Jean-Félix le Rouzic. e-mail : [email protected] Tirage : 1 000 exemplaires N° IssN : 1775-0385 www.polytechnique.edu Imprimé au CPM de l’École Polytechnique 91128 PalaiseauCEDEX Éditorial I3 Comme le rappelle une exposition en cours* à l’École, les polytechniciens ont largement contribué depuis la fin du XVIIIe siècle aux progrès de la géographie (topographie, cartographie,…) À l’occasion de l’apogée de l’Année internationale pour la Planète Terre décrétée par l’Unesco, ce numéro de flash X met à l’honneur certains travaux reliés au secteur des géosciences, réalisés au sein de cet « écosystème » de 186 hectares qu’est le campus de l’X (photo aérienne ci-contre)avec son P. Lavialle lac, ses zones boisées, ses haies, sa proximité de vallées, ses bâtiments de plus en plus nombreux, le tout parfois recouvert d’un épais brouillard. L’eau, enjeu de plus en plus vital, dont les modifications prévues du cycle sont porteuses de crises, sera très présente dans ce numéro à travers son cycle en Méditerranée, sa condensation nuageuse, son écoulement tourbillonnaire ou sa forme souterraine. La revue scientifique de l’École Polytechnique La lettre scientifique de l’École Polytechnique Comme l’a montré la 5è conférence européenne sur les très grandes Infrastructures de recherche qui s’est tenue à Versailles en décembre 2008 dans le cadre de la présidence française de l’Union Européenne, l’Europe exerce un rôle moteur pour stimuler la recherche à travers notamment les Flash X la lettre scientifique de l’École N° 12 JUIN 2010 La revue scientifique de l’École Polytechnique N° 13 juin 2011 PCRD. A ce sujet, notons que les laboratoires de l’X ont été impliqués dans une soixantaine de projets financés par le 6è PCRD (dont certaines I3 Integrated Infrastructure Initiative) et déjà dans une vingtaine du 7è PCRD en cours. Les infrastructures qui sont l’un des piliers de la « vision 2020 » de l’espace européen de la recherche, représentent par ailleurs un gros marché industriel et sont porteuses d’Innovation. L’année 2009 a été déclarée année européenne de la créativité et de l’innovation. La recherche et l’innovation constituent en effet les éléments clés du développement de l’Europe, encore plus en période de crise. Ils font partie des principaux moteurs de la compétitivité de la Région Capitale, dont le plateau de Saclay sera une composante essentielle, destinée à devenir une des plus importantes plateformes scientifiques et technologiques au monde L’X participe à cet objectif comme le traduisent les prix de l’innovation qui ont été remis en mars dernier à deux de ses chercheurs. Ce numéro fait aussi le point sur certaines activités dans le domaine de l’Informatique menées notamment dans le cadre de réseau, chaire, pôle qui constituent des exemples de travail collaboratif de plusieurs acteurs du plateau de Saclay. TRANSPORTS Polytechnique LE CYCLE DE L’EAU SUR LE BASSIN MÉDITERRANÉEN Le projet HyMeX – cycle de l’eau en Méditerranée (Hydrological cycle in the Mediterranean eXperiment) a vu le jour en 2005, partant du constat du besoin d’un programme multi-échelle et multidisciplinaire en Méditerranée. Porté par le Comité Inter Organismes Environnement(1) et piloté par l’INSU (Institut National des Sciences de l’Univers), HyMeX est la première composante de cet important chantier de recherche sur la Méditerranée, région touchée par les problématiques de l’eau, des écosystèmes, de la pollution, des séismes, des conflits humains et du brassage des cultures. La Méditerranée est un point chaud, cible privilégiée de la recherche appliquée et fondamentale ! 1- Organismes partenaires du Comité Interorganisme Environnement : INSU, Andra, BRGM, CEA, Cemagref, Cirad, CNES, CNRS, IFP, Ifremer, Ineris, INRA, IRD, IRSN, LCPC et Météo-France. Comprendre le cycle hydrologique et des phénomènes intenses en Méditerranée HyMeX a pour objectif d’améliorer la compréhension du cycle de l’eau en Méditerranée, tout particulièrement dans le domaine de la prévision et de l’évolution des événements intenses associés à ce cycle. Il existe des événements intenses de deux types : les événements courts et inattendus, tels que les précipitations et les tempêtes, et les événements extrêmes et durables, tels que les sécheresses, qu’on ne maîtrise pas bien car les interactions sont fortes entre les compartiments atmosphériques, continentaux et océaniques et à des échelles très différentes. Le projet HyMeX a donc pour vocation de surveiller et modéliser le système couplé océan-atmosphère-surfaces continentales, sa variabilité (de l’échelle de l’événement aux Parution: juillet 2009 - Dépôt légal: juillet 2009 - adresse: École Polytechnique 91128 Palaiseau CEDEX. Téléphone: 0169334013 - Directeur de la publication: Général Michel, Directeur général de l’École Polytechnique - Rédacteur en chef: Pascal Bradu, direction de la recherche - Maquette - mise en page: Dominique Toustou - Fabrication: Jean-Claude Mathieu, Jean-Félix le Rouzic. e-mail : [email protected] Tirage : 1 000 exemplaires N° IssN : 1775-0385 www.polytechnique.edu Imprimé au CPM de l’École Polytechnique 91128 PalaiseauCEDEX ECRI2008 ConférenCe européenne sur les très grandes infrastruCtures de reCherChe Avec 505 participants en provenance d’une trentaine de pays, la conférence ECRI2008 a présenté un panorama complet de la stratégie de l’Union européenne pour les « Infrastructures de Recherche » à l’horizon de 20202025. Cette conférence a été organisée conjointement par le Ministère de l’Enseignement Supérieur et de la Recherche (MEsR) et la Commission Européenne (CE), en partenariat avec le Forum Européen pour les Infrastructures de Recherche (EsFRI : http://cordis.europa.eu/ esfri/ chargé d’élaborer la feuille de route des infrastructures au niveau européen. Ces infrastructures, qui constituent un élément clé dans la construction de l’Espace Européen de la Recherche, se doivent de répondre si- Dossier : LES PLASMAS Dossier : La multanément aux besoins légitimes de faire progresser les connaissances, et aux enjeux de société en matière de santé, environnement ou énergie. La seconde édition de la feuille de route d’EsFRI (labellisation de 35 grandes infrastructures prioritaires à construire avant 2020) publiée pour la première fois en octobre 2006 a été réactualisée à cette occasion (10 infrastructure supplémentaires), en même temps qu’a été dressé un panorama des stratégies nationales des Etats-membres de l’Union européenne. L’Europe a démontré sa détermination dans de grands projets internationaux comme ITER, en parlant d’une seule voix au nom de tous ses Etats-membres. En lançant le processus EsFRI, la communauté européenne s’est Santé Véhicules électriques Matériaux et structures Sources d’énergie alternative Gestion du trafic Impact environnemental 1 Flash X - n°9 juillet 2008 Flash X - n°10 janvier 2009 Flash X - n°11 juillet 2009 Flash X - n°12 juin 2010 Flash X - n°13 juin 2011 Flash X - n°14 juillet 2012 Inscription sur [email protected] La revue scientifique de l’École Polytechnique Vous souhaitez recevoir la revue Flash X : Flash X - n°8 février 2008 Parution : juillet 2012 - Dépôt légal : août 2012 Adresse : École Polytechnique 91 128 Palaiseau Cedex. Téléphone : 01 69 33 33 33 Directeur de la publication : Général Xavier Michel, Directeur général de l’École Polytechnique Rédacteur en chef : Pascal Bradu, direction de la recherche - e-mail : [email protected] Comité éditorial : M aud-Andréa Bidet, Michel Blanc, Olivier Bournez, Jean Deschard , Henri-Jean Drouhin, Claude Pernel, Antoine Rousseau, Pauline Serraz Infographie et impression : Tirage : 1200 exemplaires N° ISSN : 1775-0385 www.polytechnique.edu Crédits photos de la une : Thinkstock 2012