Séchage convectif : étude théorique et

Transcription

Séchage convectif : étude théorique et
Séchage convectif : étude théorique et expérimentation sur
différents matériaux
Positionnement thématique
Opérations unitaires, Mécanique des fluides, Physique des matériaux, Thermodynamique.
Mots-clés
Mots-clés (en français)
Air humide
Evaporation
Convection
Modèles physiques
Séchage des matériaux
Mots-clés (en anglais)
Moist air
Evaporation
Convection
Physical models
Drying of materials
Bibliographie commentée
La convection naturelle ou forcée : une problématique qui nous entraı̂ne du cycle de l’eau sur
Terre aux procédés industriels de séchage des matériaux. L’eau s’évapore naturellement des océans
et des mers par le processus dit de convection naturelle. Contrairement à la diffusion moléculaire [1]
qui décrit le transfert de matière dans une phase fluide macroscopiquement immobile, mais agitée à
l’échelle moléculaire (mouvement Brownien), la convection correspond à un mouvement macroscopique du fluide [2, 3]. La convection naturelle est mue par la différence de densité entre l’air humide
et l’air sec. L’air humide est plus léger que l’air sec (contrairement à la croyance populaire qui nous
dit que l’air humide est ≪ lourd ≫ . . . ), car la molécule d’eau est plus légère que les molécules de
dioxygène et de diazote qui composent l’air. Ainsi, lors de la convection naturelle, l’air au contact
de la surface libre du liquide est saturé d’humidité et s’élève. L’air non saturé, loin de la surface
libre, chute. Il s’enrichit en humidité au contact du liquide puis s’élève. Ce mouvement gazeux est
un processus stationnaire, en l’absence de perturbation. Il régit le séchage des terres après la pluie
ou l’évaporation des lacs et des océans. On peut cependant s’interroger sur sa rapidité, puisque dans
l’industrie, on dépense beaucoup d’énergie pour sécher les matériaux, soit en les ventilant, soit en
augmentant leur température [4, 5, 6, 7, 8].
1. La convection induite par ventilation est appelée ≪ convection forcée ≫ : elle est mue par une
différence de pression imposée dans la phase fluide, induisant l’écoulement du fluide [2, 3]. Augmenter la vitesse du fluide augmente l’intensité de la convection et donc le taux d’évaporation.
2. Augmenter la température d’un matériau humide augmente la pression partielle de vapeur
d’eau à sa surface [9], induisant un gradient plus élevé de concentration en vapeur d’eau dans
l’air au contact de la surface, ce qui augmente le taux d’évaporation (le flux de transfert de
matière étant proportionnel au gradient de concentration en vapeur d’eau, selon la loi de Fick).
Certains calculs théoriques peuvent être faits : la théorie hydrodynamique de la couche limite
en régime laminaire [2], appliquée au cas de la convection naturelle ou forcée d’un fluide s’écoulant
au-dessus d’une surface plane, permet d’établir des expressions théoriques pour les valeurs des densités de flux de transfert d’eau. Ces calculs sont-ils suffisamment fiables et précis, et peuvent-ils
1
être appliqués sur différents matériaux ? L’évaporation est le processus clé du séchage industriel des
matériaux [4]. Les matériaux humides sont plus ou moins rétenteurs d’eau. Il peut s’agir d’eau libre
à la surface accessible du matériau, ou insérée dans sa porosité, non liée chimiquement ou physiquement aux molécules du substrat (matériaux hydrophobes). À l’inverse, les matériaux hydrophiles
sont définis par le fait qu’ils développent des interactions physiques avec l’eau. L’hydrophilie est
caractérisée par le fait que l’évaporation de l’eau dans ces matériaux demande plus d’énergie que
l’évaporation de l’eau libre [5]. Pour accélérer la vitesse de séchage, deux possibilités sont offertes :
chauffer plus ou augmenter la ventilation [6, 7, 8]. Laquelle de ces stratégies est la plus efficace, la plus
économe énergétiquement, ou la mieux adaptée à un matériau donné, dont la stabilité thermique et
morphologique peuvent être en jeu ? Et selon le type de matériau, à quelle période du séchage (phase
à taux constant, phase à taux décroissant), chacune de ces stratégies peut-elle être appliquée ?
Problématique retenue
Evaluer la prédictibilité de modèles permettant de calculer des vitesses de séchage de différents
matériaux. L’adéquation de modèles de transfert par convection, appliqués à l’écoulement d’air audessus d’une surface d’eau, est étudiée expérimentalement. Les résultats sont appliqués à l’investigation des mécanismes de séchage de différents matériaux qui se différencient par leur nature,
morphologie et hydrophilie (sable humide, polymères hydrophiles ou hydrophobes, matériau pâteux,
. . . ), et à la recherche d’une stratégie optimale de séchage au cas par cas, prenant en compte l’aspect
énergétique.
Objectifs du TIPE
1. Recherche et analyse des modèles d’évaporation par convection
2. Mise au point d’un dispositif expérimental permettant de mesurer une vitesse de séchage et
de calculer des coefficients de transfert de matière
3. Étude de l’adéquation des modèles, calcul de bilans énergétiques.
Références bibliographiques
[1] J. Crank : The Mathematics of Diffusion. Oxford science publications. Clarendon Press, 1979.
[2] R.B. Bird, W.E. Stewart et E.N. Lightfoot : Transport Phenomena. Wiley International
edition. John Wiley & Sons Publishers, 2007.
[3] S. Middleman : An Introduction to Mass and Heat Transfer : Principles of Analysis and Design.
John Wiley & Sons Publishers, 1998.
[4] D. Green et R. Perry : Perry’s Chemical Engineers’ Handbook, Eighth Edition. McGraw-Hill
Education, 2007. https://books.google.co.uk/books?id=tH7IVcA-MX0C.
[5] Patricia Arlabosse : Séchage industriel aspects pratiques. Techniques de l’ingénieur :
Production des médicaments, base documentaire : TIB610DUO.(ref. article : j2455), 2016.
http://www.techniques-ingenieur.fr/base-documentaire/biomedical-pharma-th15/
production-des-medicaments-42610210/sechage-industriel-j2455/.
[6] Jean Vasseur : Séchage : principes et calcul d’appareils de séchage convectif par air chaud (partie
1). Techniques de l’ingénieur Opérations unitaires : évaporation et séchage, J2451, 2016. http:
//www.techniques-ingenieur.fr/base-documentaire/procedes-chimie-bio-agro-th2/
operations-unitaires-evaporation-et-sechage-42316210/sechage-principes-et-calcul-d-appa
[7] Jean Vasseur :
séchage convectif
Séchage industriel :
par air chaud (partie
2
principes
2).
et calcul
Techniques
d’appareils de
de l’ingénieur
Opérations unitaires : évaporation et séchage, J2452, 2016.
http://www.
techniques-ingenieur.fr/base-documentaire/procedes-chimie-bio-agro-th2/
operations-unitaires-evaporation-et-sechage-42316210/sechage-industriel-principes-et-ca
[8] Jean Vasseur : Séchage : principes et calcul d’appareils - autres modes de séchage que l’air
chaud. Techniques de l’ingénieur, 2008.
[9] Diagrammes de l’air humide basses températures, moyennes températures, hautes températures.,
2008.
3
Croissance pilotée par la diffusion : une approche physique
de la notion de fractale
Positionnement thématique
Physique Théorique, Physique de la Matière, Informatique Pratique, Chimie Organique.
Mots-clés
Mots-clés (en français)
Diffusion
Marche aléatoire
Croissance dendritique
Dimension fractale
Physique numérique
Mots-clés (en anglais)
Diffusion
Random walk
Dendritic growth
Fractal dimension
Computational physics
Bibliographie commentée
La physique s’intéresse aux lois fondamentales, celles qui régissent la chute des corps (la gravitation), le comportement de la matière à très petite échelle (la mécanique quantique), etc, mais elle
investit également les comportements collectifs, qui se déduisent bien sûr des lois fondamentales, mais
qui procèdent de mécanismes complexes qui font souvent émerger des schémas inattendus. On parlera
souvent, pour simplifier, de physique fondamentale quand il s’agira de comprendre le comportement
d’un électron dans un accélérateur à particules, et de physique des systèmes complexes quand on
s’attachera à interpréter les avalanches de sable sur une barkhane (dune en forme de croissant allongé
dans le sens du vent). Dans ce travail, je m’intéresse au point de vue des systèmes complexes et plus
précisément à la notion de croissance et de morphologie. Cette question apparemment simple de la
forme d’un objet ou d’une surface qui évolue au cours du temps est un domaine extrêmement riche
comme en témoigne la récente médaille Fields (2014) attribuée à Martin Haier[2], mathématicien autrichien, et qui concerne son étude de l’équation dite de Kardar-Parisi-Zhang[1], équation soupçonnée
de décrire de très nombreux phénomènes de croissance des surfaces.
Nous nous concentrerons en particulier sur la notion de forme fractale, et plus précisément sur celle
d’arborescence. Cette notion de fractale, introduite par Benoı̂t Mandelbrot[3] en 1973 et développée
un an plus tard dans un ouvrage[4] qui fait depuis référence, fait appel à un nouveau type de géométrie
où la structure est invariante par changement d’échelle. Dans notre travail, nous nous restreignons
à une classe particulière d’objets, les arborescences, qui, comme leur nom l’indique, possèdent une
géométrie analogue à celle des arbres, à la différence près que les ramifications peuvent formellement
se faire à des profondeurs infinies.
La nature, comme les réalisations expérimentales contrôlées en laboratoire, fournissent de nombreux exemples de telles structures et la question est vite apparue de modéliser ces géométries atypiques, en essayant de comprendre le rôle des différents paramètres en jeu. Ces systèmes sont générés
par des processus complexes, distincts (dendrite végétale, neurone de la rétine, réseau des affluents
d’une rivière, dépôt électrolytique sous champ magnétique, etc), et il importe fondamentalement de
comprendre en quoi ils peuvent conduire à des formes similaires. Dans son livre, Universalités et fractales : jeux d’enfants ou délits d’initié ?, Bernard Sapoval[5] invoque cette notion d’universalité en
1
observant ces similarités morphologiques : indépendamment des processus, tous différents, qui pilotent
ces phénomènes physiques, les formes obtenues se ressemblent. Et c’est précisément pour essayer de
reproduire les observations expérimentales qu’en 1981, Witten et Sander[8, 7] introduisent un modèle
numérique de croissance, le modèle DLA (Diffusion Limited Aggregation), dont l’objet d’étude est
l’agrégation de particules métalliques. Ces auteurs remarquent immédiatement que ce modèle est un
cas limite de croissance dendritique (qui sera la partie expérimentale de mon projet). Ce modèle a
connu un très grand succès (cité plus de 5000 fois [8]) en raison de sa simplicité d’implémentation
(qui constituera la partie simulation numérique de mon projet) et sa faculté à reproduire les caractéristiques essentielles des croissances naturelles ou de laboratoire. Le coeur algorithmique de ce
modèle est celui de la marche aléatoire[6], que je relierai à la diffusion (partie modélisation de mon
projet), et il nous permettra de construire des formes dont nous analyserons la dimension, dite fractale, puis de quantifier comment la matière, dans ces morphologies, occupe l’espace. Sur la base des
propriétés attendues de ce modèle, je mettrai en vis-à-vis les résultats expérimentaux et les simulations numériques afin de caractériser la dimension, fractale ou euclidienne, des échantillons, qui
correspondront à une croissance bactérienne sur des plaques d’agar.
Problématique retenue
Les paramètres d’une diffusion dans le plan sont essentiels pour interpréter les géométries obtenues
expérimentalement. Il s’agit de comprendre comment le caractère fractal des morphologies dépend,
aussi bien du point de vue théorique qu’expérimental, de ces paramètres et s’il est possible de les
manipuler de manière efficace.
Objectifs du TIPE
1. Modélisation : je ferai le lien entre diffusion et marche aléatoire, en montrant dans le cas
unidimensionnel qu’en prenant la limite du milieu continu, le problème du dénombrement d’un
grand nombre de marches discrètes est bien décrit par une équation aux dérivées partielles
identique à celle de la diffusion de la chaleur.
2. Simulation numérique : j’implémenterai l’algorithme DLA en C++ par souci d’efficacité et
utiliserai des bibliothèques graphiques pour la visualisation.
3. Croissance bactérienne : je ferai croı̂tre des colonies bactériennes sur de l’agar (gélose) afin
d’étudier l’organisation dendritique du point de vue expérimental.
Références bibliographiques
[1] Ivan Corwin : Kardar-Parisi-Zhang Universality. http://www.ams.org/journals/notices/
201603/rnoti-p230.pdf. Je n’ai pas spécifiquement travaillé sur cette équation, bien au-delà de
mes connaissances. Site consulté en septembre 2016.
[2] M. Hairer : http://www.mathunion.org/general/prizes/fields/prizewinners/. Le site
personnel de Martin Hairer : http://www.hairer.org. Site consulté en septembre 2016.
[3] Benoı̂t Mandelbrot : Formes nouvelles du hasard dans les sciences. Économie appliquée,
26:307–319, 1973.
[4] Benoı̂t Mandelbrot : Les objets fractals forme, hasard et dimension. Champs sciences 301.
Flammarion, Paris, 2010.
[5] Bernard Sapoval : Universalités et fractales jeux d’enfant ou délits d’initié ? Champs 466.
Flammarion, Paris, 2001.
[6] Wikipedia : Marche aléatoire. https://en.wikipedia.org/wiki/Random_Walk. Site consulté
régulièrement depuis septembre 2016.
2
[7] T. A. Witten et L. M. Sander : Diffusion-limited aggregation, a kinetic critical phenomenon. http://isites.harvard.edu/fs/docs/icb.topic543638.files/witten-sander-dla.
pdf. La référence de Witten et Sander n’est pas accessible sans abonnement, mais le papier
est suffisamment connu pour qu’une version pdf gratuite ait été rendue disponible en ligne par le
site de Harvard. Site consulté régulièrement depuis septembre 2016.
[8] T. A. Witten et L. M. Sander : Diffusion-limited aggregation, a kinetic critical phenomenon.
Phys. Rev. Lett., 47:1400 –1403, Nov 1981.
3
Le cendrier de l’EPR
Positionnement thématique
Physique de la matière, Chimie théorique et générale
Mots-clés
Mots-clés (en français)
Accident nucléaire
Écoulements
Conduction thermique
Oxydo-réduction
Décomposition thermique
Mots-clés (en anglais)
Nuclear accident
Fluid flows
Thermal conduction
Oxydoreduction
Thermal decomposition
Bibliographie commentée
La production d’électricité en France est assurée à plus de 75% par des réacteurs nucléaires. Leur
fonctionnement [1] est basé sur l’exploitation de l’énergie libérée par la réaction de fission en chaı̂ne
contrôlée de l’uranium 235. L’exploitation de ces réacteurs est extrêmement surveillée, et tout doit
être mis en oeuvre pour éviter les accidents. Le combustible nucléaire, de l’UO2 disposé en pastilles
dans des ≪ crayons ≫ combustibles, est disposé dans une structure métallique globalement cylindrique,
appelée ≪ coeur ≫. Cet ensemble est placé dans une cuve en acier très épaisse, dans laquelle circule
de l’eau sous pression. Ce circuit caloporteur évacue la chaleur vers des générateurs de vapeur. La
vapeur générée dans un circuit secondaire est dirigée vers des turbines et des alternateurs [1, 2]. L’autorité de sûreté nucléaire (ASN) exige des concepteurs, des constructeurs comme des exploitants, que
toutes les dispositions soient prises pour que les accidents nucléaires soient les plus rares possibles, et
leurs conséquences sur l’environnement minimales. Les études nécessaires pour garantir la sûreté en
exploitation, regroupées dans un rapport préliminaire de sûreté [3], doivent satisfaire trois critères :
contrôle de la réaction en chaı̂ne, évacuation de la puissance, et confinement des matières radioactives [1]. Outre la puissance thermique dégagée pendant le fonctionnement du réacteur, il faut aussi
considérer la ≪ puissance résiduelle ≫ due aux réactions de désintégration radioactive des produits de
fission qui continue à être émise après arrêt, pendant longtemps, sans pouvoir être stoppée [2]. Cette
puissance résiduelle est dépendante de l’usure du combustible, mais aussi de la puissance avant arrêt
de l’unité en fonctionnement [1]. Les moyens de refroidissement doivent donc être dimensionnés par
rapport aux conditions extrêmes.
Les récents accidents nucléaires de grande ampleur, comme Tchernobyl (1986) ou Fukushima
(2011) [4], ont conduit à la fusion des matériaux qui se trouvaient dans la cuve du réacteur parce
que les moyens d’évacuation de puissance n’ont pas été suffisants. Les températures très élevées dans
la cuve ont alors conduit à la fusion partielle ou totale du combustible. Le ≪ corium ≫, mélange
complexe de matériaux combustibles fondus et des structures en acier du coeur, s’est retrouvé, soit
au fond de la cuve, confiné, mais difficile à refroidir et inaccessible pour un démantèlement ultérieur,
1
soit en dehors de la cuve qui avait fondu, avec des conséquences graves sur l’environnement et un
démantèlement bien plus complexe [5]. Dans tous les cas, la fusion du coeur a été accompagnée
des réactions des métaux avec la vapeur d’eau, très exothermiques, compliquant les processus et
provoquant des explosions.
Dans le cadre des études de sûreté des réacteurs du futur, les risques d’accidents de fusion sont
systématiquement pris en compte. Lors d’un tel accident, on cherche à garantir que la fusion de
la cuve est quasiment impossible. Le corium serait bien localisé en fond de cuve. On parle alors
de fusion ≪ in-core ≫. Pour l’EPR, on a construit un dispositif tel que, si la fusion du coeur se
produisait, les matériaux fondus, après rupture du fond de la cuve, seraient étalés en-dessous, dans un
réceptacle en béton et acier, appelé ≪ cendrier ≫. Ces dispositifs sont destinés à guider les matériaux
fondus, leur laisser le temps de descendre dans un réceptacle bien dimensionné, pour recueillir ni
trop vite, ni trop lentement, ces matières. Les matériaux (bétons et aciers) et la géométrie ont
été rigoureusement sélectionnés pour garantir que la réaction ne redémarrera pas, que les matières
pourront être refroidies aussi longtemps que nécessaire, sans dispersion des matières radioactives et
perte de confinement [6, 7]. On parle alors de fusion ≪ ex-core ≫.
Problématique
Dans tous les cas, trois études s’imposent dans la conception du réacteur : un dimensionnement
très précis du dispositif (dimensions, matériaux, séquencements), dont l’efficacité s’appuie sur des
études poussées des interactions corium-béton [8] (validations des codes de calcul par des expériences
grandeur nature). Le fonctionnement post accidentel d’échangeurs de chaleur spécifiques doit être
optimisé pour évacuer la puissance résiduelle du combustible récupéré à long terme. Enfin, le dispositif
doit prendre en compte les volumes des gaz produits par les réactions des métaux avec la vapeur
d’eau et l’ablation du béton, donc aussi l’énergie libérée [9].
Objectifs du TIPE
1. Analyse fine du dispositif ;
2. Approche chimique et thermodynamique ;
3. Modélisation 1D.
Je me propose : (1) d’étudier le fonctionnement du cendrier de l’EPR en cas de fusion ex-core [3],
(2) discuter dimensions optimales et choix des matériaux, à partir des études sur les interactions
corium-béton, et (3) développer un modèle 1D des échanges thermiques entre le corium fondu et du
béton.
Références bibliographiques
[1] N. Kerkar et P. Paulin : Exploitation des coeurs REP. EDP Sciences, 2008. Description du
fonctionnement général d’une centrale électronucléaire.
[2] S. Marguet : La physique des Réacteurs Nucléaires, chapitre 15, La physique du cycle du
combustible. Lavoisier, Paris, 2011. Ouvrage très complet sur le fonctionnement du coeur d’un
réacteur nucléaire.
[3] EDF : Rapport préliminaire de sureté du réacteur EPR. Rapport technique, EDF, 2016. Description du réacteur EPR.
[4] SFEN : http://www.sfen.org/fr/lenergie-nucleaire/les-accidents-nucleaires.
[5] R&D relative aux accidents graves dans les réacteurs à eau pressurisée : Bilan et perspectives,
2005. Description phénoménologique des fusions de coeur et description du cendrier de l’EPR.
2
[6] C. Introı̈ni : Interaction entre un fluide à haute température et un béton : contribution à
la modélisation des échanges de masse et de chaleur. Thèse de doctorat, INP Toulouse, 2010.
http://ethesis.inp-toulouse.fr/archive/00001391/.
[7] Christophe Journeau : Contribution des essais en matériaux prototypiques sur la plate-forme
plinius à l’étude des accidents graves de réacteurs nucléaires. Rapport technique, CEA, 2008.
Validation des études théoriques par des expériences analogues.
[8] M. Konovalikhin : Investigations on melt spreading and coolability in a LWR severe accident.
Thèse de doctorat, Royal Institute of Technology, Stockolm, Sweden, 2011. Evacuation de la
puissance lors d’accidents nucléaires graves.
[9] M. Fischer : The severe accident mitigation concept and the design measures for core melt
retention of the European Pressurized Reactor (EPR). Nuclear Engineering and Design, (230):169
à 180, 2004. Prise en compte des réactions chimiques dans la fusion.
3
Les supercondensateurs
Positionnement thématique
Physique ondulatoire, Physique interdisciplinaire, Chimie organique
Mots-clés
Mots-clés (en français)
Condensateur
Electrolyte
Stockage
Energie
Surface spécifique
Mots-clés (en anglais)
Capacitor
Electrolyte
Storage
Energy
Specific surface area
Bibliographie commentée
Aujourd’hui, les énergies fossiles représentent plus des deux tiers de la consommation finale
d’énergie en France. Ces ressources, pour l’essentiel importées, pèsent sur l’économie française et
nous rendent dépendants énergétiquement. Mais ces énergies sont aussi à l’origine d’une crise climatique sans précédent. Depuis le début de l’ère préindustrielle, la température moyenne à la surface du
globe s’est élevée de 1°C à cause de l’augmentation de l’effet de serre, par élévation de la quantité de
certains gaz d’origine anthropique [1]. La Loi sur la Transition Énergétique pour la Croissance Verte
[2] fait de la lutte contre ce changement climatique l’un de ses objectifs. Elle réaffirme en particulier
la nécessaire montée en puissance de la France sur les énergies renouvelables, avec en particulier une
part portée à 40 % dans l’électricité produite. Compte tenu du caractère irrégulier et intermittent
de ces sources, le stockage de l’énergie produite est une des solutions pour accroı̂tre leur déploiement
sur le territoire. Les technologies de stockage massif de l’énergie se déclinent selon quatre catégories
[3] :
— mécanique (potentielle ou cinétique) : stockage gravitaire par pompage, stockage par air comprimé ;
— thermique et thermochimique : chaleur sensible ou chaleur latente, énergie par sorption ;
— chimique : hydrogène, méthanation ;
— électrochimique et électrostatique : batteries, condensateurs.
Les objectifs actuels cherchent à améliorer les capacités de stockage, notamment celles de la voie
électrostatique [4].
Un condensateur est un dispositif permettant de stocker des charges électriques, dans lequel deux
conducteurs électriques, séparés par un diélectrique, sont disposés face à face. Pour accroı̂tre la
capacité d’un tel dispositif, et donc la quantité d’énergie stockée, on peut agir sur deux paramètres
[5] :
— la nature du diélectrique en recherchant une permittivité relative élevée ;
— la géométrie du condensateur avec des diélectriques très minces, et des conducteurs présentant
d’importantes surfaces.
1
Ce dernier point est à l’origine du développement des supercondensateurs. Ces derniers présentent
l’intérêt de se recharger beaucoup plus rapidement, et d’avoir une durée de vie plus longue que les
autres systèmes électrochimiques. Ainsi, un supercondensateur peut supporter plus d’un million de
cycles de charge/décharge, près de 1000 fois plus que les batteries actuelles, des durées de charge
records de quelques secondes. En revanche, leur tension de fonctionnement limite la densité d’énergie
électrique stockable à une dizaine de Wh/kg, soit 1/10ème de la densité des batteries. Autrement
dit, le dispositif est idéal pour stocker et fournir dans un temps record de l’énergie, mais en quantité
modeste [6].
La structure élémentaire d’un supercondensateur typique est constituée de deux électrodes imprégnées
d’une solution électrolytique, et séparées par une membrane isolante mais perméable aux ions. Le
principe de base des supercondensateurs repose sur les propriétés capacitives de l’interface entre
conducteur électronique solide et conducteur ionique liquide, propriétés découvertes par le physicien
Hermann Von Helmholtz en 1853. Sous l’effet de la tension appliquée, la distribution des ions de
l’électrolyte au voisinage de chaque électrode crée en effet une zone de charge d’espace, ou double
couche électrique, assurant le stockage de l’énergie [6]. Pour optimiser les potentialités de cette couche
en termes de densité volumique d’énergie, il convient d’accroı̂tre la surface de contact entre électrode
et électrolyte sans augmenter outre mesure le volume total de l’ensemble. On a recours pour ce faire
à des matériaux d’électrodes poreux de très grande surface spécifique, tels que le charbon actif [7].
En outre, la puissance maximale que peut fournir le supercondensateur dépend directement de sa
résistance interne. Différentes méthodes de caractérisation ont été développées pour décrire le comportement des supercondensateurs [8]. Une des voies d’amélioration de ces performances passe par
l’optimisation de l’électrolyte [9].
Problématique
La surface spécifique du charbon actif et le choix de l’électrolyte sont déterminants pour les
performances d’un supercondensateur.
Etudier les cycles de charge/décharge à tension ou à courant constants conduit à un modèle électrique
simple. Ces paramètres permettent d’évaluer les densités de puissance et d’énergie, mais dépendent
fortement des contraintes électriques et de la température.
Objectifs du TIPE
Le charbon actif, matériau peu coûteux et de surface spécifique élevée, est présent à la surface des
électrodes. À partir de différents types de charbon actif, je souhaite mesurer leur surface spécifique
au laboratoire (mesure de l’indice d’iode et du bleu de méthylène) et comparer les résultats obtenus
avec des isothermes d’adsorption (méthode BET).
Je me propose ensuite de construire un supercondensateur avec mon binôme. Par une étude de
cycles de charge/décharge, je compte alors analyser l’influence des différents charbons actifs et des
caractéristiques de l’électrolyte (nature : organique ou aqueux / concentration) sur les performances
du supercondensateur.
Références bibliographiques
[1] R. Mosseri et C. Jeandel : L’énergie à découvert. CNRS Editions, 2013.
[2] Ministère de l’Environnement, de l’Énergie et de la Mer :
Transition énergétique pour la croissance verte. http://www.developpement-durable.gouv.fr/
-La-transition-energetique-pour-la-.html.
2
[3] IFP Énergie Nouvelle (IFPEN) :
Stockage massif de l’énergie.
http:
//www.ifpenergiesnouvelles.fr/Espace-Decouverte/Les-cles-pour-comprendre/
Le-stockage-massif-de-l-energie.
[4] Techniques de l’Ingénieur : Les supercondensateurs. http://www.techniques-ingenieur.
fr/base-documentaire/energies-th4/accumulateurs-d-energie-42243210/
supercondensateurs-d3334/.
[5] E. Kierlik et J.-M. Courty : Charges en stock. Pour la Science, (439):87–88, Mai 2014.
[6] F. Belhachemi : Modélisation et caractérisation des supercondensateurs à couche double
électrique utilisés en électronique de puissance. Thèse de doctorat, INP Lorraine, 2001. https:
//tel.archives-ouvertes.fr/tel-00095893/document.
[7] C. Largeot : Développement de supercondensateurs carbone/carbone : relation entre la taille
des ions de l’électrolyte et la taille des pores de la matière active. Thèse de doctorat, Université
de Toulouse, 2009. http://thesesups.ups-tlse.fr/529/1/Largeot_Celine.pdf.
[8] Y. Diab : Étude et modélisation des supercondensateurs : applications aux systèmes de puissance. Thèse de doctorat, Université Claude Bernard, Lyon 1, 2009. http://www.theses.fr/
2009LYO10042.
[9] E. Perricone : Mise au point d’électrolytes innovants et performants pour supercondensateurs. Thèse de doctorat, Université de Grenoble, 2011. https ://tel.archives-ouvertes.fr/tel00630049/document.
3
Les supercondensateurs
Positionnement thématique
Physique ondulatoire, Physique interdisciplinaire, Chimie organique
Mots-clés
Mots-clés (en français)
Condensateur
Electrolyte
Stockage
Energie
Modélisation
Mots-clés (en anglais)
Capacitor
Electrolyte
Storage
Energy
Modelization
Bibliographie commentée
Aujourd’hui, les énergies fossiles représentent plus des deux tiers de la consommation finale
d’énergie en France. Ces ressources, pour l’essentiel importées, pèsent sur l’économie française et
nous rendent dépendants énergétiquement. Mais ces énergies sont aussi à l’origine d’une crise climatique sans précédent. Depuis le début de l’ère préindustrielle, la température moyenne à la surface du
globe s’est élevée de 1°C à cause de l’augmentation de l’effet de serre, par élévation de la quantité de
certains gaz d’origine anthropique [1]. La Loi sur la Transition Énergétique pour la Croissance Verte
[2] fait de la lutte contre ce changement climatique l’un de ses objectifs. Elle réaffirme en particulier
la nécessaire montée en puissance de la France sur les énergies renouvelables, avec en particulier une
part portée à 40 % dans l’électricité produite. Compte tenu du caractère irrégulier et intermittent
de ces sources, le stockage de l’énergie produite est une des solutions pour accroı̂tre leur déploiement
sur le territoire. Les technologies de stockage massif de l’énergie se déclinent selon quatre catégories
[3] :
— mécanique (potentielle ou cinétique) : stockage gravitaire par pompage, stockage par air comprimé ;
— thermique et thermochimique : chaleur sensible ou chaleur latente, énergie par sorption ;
— chimique : hydrogène, méthanation ;
— électrochimique et électrostatique : batteries, condensateurs.
Les objectifs actuels cherchent à améliorer les capacités de stockage, notamment celles de la voie
électrostatique [4].
Un condensateur est un dispositif permettant de stocker des charges électriques, dans lequel deux
conducteurs électriques, séparés par un diélectrique, sont disposés face à face. Pour accroı̂tre la
capacité d’un tel dispositif, et donc la quantité d’énergie stockée, on peut agir sur deux paramètres
[5] :
— la nature du diélectrique en recherchant une permittivité relative élevée ;
— la géométrie du condensateur avec des diélectriques très minces, et des conducteurs présentant
d’importantes surfaces.
1
Ce dernier point est à l’origine du développement des supercondensateurs. Ces derniers présentent
l’intérêt de se recharger beaucoup plus rapidement, et d’avoir une durée de vie plus longue que les
autres systèmes électrochimiques. Ainsi, un supercondensateur peut supporter plus d’un million de
cycles de charge/décharge, près de 1000 fois plus que les batteries actuelles, des durées de charge
records de quelques secondes. En revanche, leur tension de fonctionnement limite la densité d’énergie
électrique stockable à une dizaine de Wh/kg, soit 1/10ème de la densité des batteries. Autrement
dit, le dispositif est idéal pour stocker et fournir dans un temps record de l’énergie, mais en quantité
modeste [6].
La structure élémentaire d’un supercondensateur typique est constituée de deux électrodes imprégnées
d’une solution électrolytique, et séparées par une membrane isolante mais perméable aux ions. Le
principe de base des supercondensateurs repose sur les propriétés capacitives de l’interface entre
conducteur électronique solide et conducteur ionique liquide, propriétés découvertes par le physicien
Hermann Von Helmholtz en 1853. Sous l’effet de la tension appliquée, la distribution des ions de
l’électrolyte au voisinage de chaque électrode crée en effet une zone de charge d’espace, ou double
couche électrique, assurant le stockage de l’énergie [6]. Pour optimiser les potentialités de cette couche
en termes de densité volumique d’énergie, il convient d’accroı̂tre la surface de contact entre électrode
et électrolyte sans augmenter outre mesure le volume total de l’ensemble. On a recours pour ce faire
à des matériaux d’électrodes poreux de très grande surface spécifique, tels que le charbon actif [7].
En outre, la puissance maximale que peut fournir le supercondensateur dépend directement de sa
résistance interne. Différentes méthodes de caractérisation ont été développées pour décrire le comportement des supercondensateurs [8]. Une des voies d’amélioration de ces performances passe par
l’optimisation de l’électrolyte [9].
Problématique retenue
La surface spécifique du charbon actif et le choix de l’électrolyte sont déterminants pour les
performances d’un supercondensateur.
Etudier les cycles de charge/décharge à tension ou à courant constants conduit à un modèle électrique
simple. Ces paramètres permettent d’évaluer les densités de puissance et d’énergie, mais dépendent
fortement des contraintes électriques et de la température.
Objectifs du TIPE
Je me propose de construire un supercondensateur avec mon binôme (binôme 1). Par une étude de
cycles de charge/décharge à tension ou à courant constants, je souhaite modéliser son comportement
par un schéma électrique équivalent constitué d’une résistance série et d’une capacité de stockage. Je
vais ensuite comparer ses performances (densités de puissance et d’énergie) avec des supercondensateurs commerciaux. Je compte enfin étudier quelques paramètres d’influence (tension ou courant de
charge, température) sur leur capacité.
Références bibliographiques
[1] R. Mosseri et C. Jeandel : L’énergie à découvert. CNRS Editions, 2013.
[2] Ministère de l’Environnement, de l’Énergie et de la Mer :
Transition
Énergétique pour la croissance verte.
http://www.developpement-durable.gouv.fr/
-La-transition-energetique-pour-la-.html.
[3] IFP Énergie Nouvelle (IFPEN) :
Stockage massif de l’énergie.
http:
//www.ifpenergiesnouvelles.fr/Espace-Decouverte/Les-cles-pour-comprendre/
Le-stockage-massif-de-l-energie.
2
[4] Techniques de l’Ingénieur : Les supercondensateurs. http://www.techniques-ingenieur.
fr/base-documentaire/energies-th4/accumulateurs-d-energie-42243210/
supercondensateurs-d3334/.
[5] E. Kierlik et J.-M. Courty : Charges en stock. our la Science, (439):87–88, Mai 2014.
[6] F. Belhachemi : Modélisation et caractérisation des supercondensateurs à couche double
électrique utilisés en électronique de puissance. Thèse de doctorat, INP Lorraine, 2001. https:
//tel.archives-ouvertes.fr/tel-00095893/document.
[7] C. Largeot : Développement de supercondensateurs carbone/carbone : relation entre la taille
des ions de l’électrolyte et la taille des pores de la matière active. Thèse de doctorat, Université
de Toulouse, 2009. http://thesesups.ups-tlse.fr/529/1/Largeot_Celine.pdf.
[8] Y. Diab : Étude et modélisation des supercondensateurs : applications aux systèmes de puissance. Thèse de doctorat, Université Claude Bernard, Lyon 1, 2009. http://www.theses.fr/
2009LYO10042.
[9] E. Perricone : Mise au point d’électrolytes innovants et performants pour supercondensateurs. Thèse de doctorat, Université de Grenoble, 2011. https ://tel.archives-ouvertes.fr/tel00630049/document.
3
Asservissement de la tension délivrée par un
convertisseur de type Buck
Positionnement thématique
Régulation, Electronique de puissance, Systèmes embarqués
Mots-clés
Mots-clés (en français)
Convertisseur statique DC/DC
Linéarisation
Régulation
Systèmes embarqués
Régulateur PID
Mots-clés (en anglais)
DC/DC Buck converter
Linearization
Control
Embedded systems
PID controller
Bibliographie commentée
Un convertisseur statique, également appelé hacheur, est un composant électronique qui permet
d’adapter une source d’énergie électrique à un récepteur donné en la convertissant. Deux grands types
de convertisseurs peuvent être distingués : les ré-hausseurs de tension, ou convertisseurs ≪ Boost
≫, et les abaisseurs de tension, ou convertisseurs ≪ Buck ≫ [1]. Les premiers sont essentiellement
utilisés dans l’industrie automobile ou navale. Les téléphones mobiles intègrent quant à eux un
convertisseur Buck. C’est ce modèle qui sera l’objet de notre étude. La tension délivrée par ces
convertisseurs doit être régulée afin de maintenir sa valeur malgré des variations possibles de la
charge et de la tension délivrée par la source d’alimentation. Cette dernière subit en effet des cycles
de charge / décharge et son niveau de charge est caractérisé par une grandeur appelée State of
Charge (Soc) [2]. Ce cycle présente en première approximation une forme triangulaire, générant ainsi
sur la tension de sortie une perturbation pouvant être assimilée à une rampe. Le schéma électrique
équivalent du convertisseur ≪ Boost ≫ est composé d’un ensemble de composants électroniques passifs
(résistance, capacité, inductance), et d’un transistor fonctionnant en mode interrupteur. Le schéma
électrique équivalent du convertisseur présente deux configurations possibles en fonction de la position
de l’interrupteur. Un modèle ≪ moyen ≫ peut être obtenu à partir des lois de Kirchoff en considérant
que la fréquence d’ouverture et de fermeture de l’interrupteur est relativement élevée par rapport à la
rapidité du système [3]. Ce modèle est alors composé de deux équations différentielles non-linéaires, et
la variable de commande est le rapport cyclique de commande du convertisseur. Le courant circulant
dans une branche du circuit est alors une moyenne des courants circulant dans cette branche sur
une période du cycle d’ouverture et de fermeture de l’interrupteur. L’asservissement des systèmes
non–linéaires a été abordé de différentes manières dans la littérature. Les méthodes les plus anciennes
consistent à linéariser le modèle non-linéaire autour d’un point de fonctionnement [4]. Le modèle
linéaire ainsi obtenu permet de déterminer un régulateur pour répondre au cahier des charges en
termes de performances et de robustesse. Plusieurs méthodes ont été proposées pour la synthèse d’un
régulateur. Le réglage d’un correcteur de type PID peut être réalisé à l’aide de la méthode de ZieglerNichols [5] ou à l’aide de techniques fréquentielles plus élaborées permettant notamment de fixer la
Marge de Phase de l’asservissement [6]. Cette dernière approche est intéressante car, la linéarisation
1
conduisant à une approximation du modèle, les marges de robustesse doivent être suffisantes afin de
préserver la stabilité du système en présence de ces erreurs de modèle. Pour contourner ce problème et
assurer un fonctionnement correct de l’asservissement indépendamment du point de fonctionnement
choisi, des approches utilisant le modèle non-linéaire ont été récemment proposées. Elles sont basées
sur des techniques issues de la théorie de Lyapunov [7], mais dépassent le cadre théorique de notre
approche. La fonction de transfert du régulateur était historiquement réalisée analogiquement à l’aide
de circuits électroniques actifs à base d’amplificateurs opérationnels. A l’heure actuelle, cette approche
est de plus en plus abandonnée au profit de l’utilisation de systèmes embarqués présentant plus de
possibilités et de flexibilité. L’algorithme de commande est basé sur des équations de récurrence, et
implémenté dans le microcontrôleur situé sur la carte de contrôle/commande de type Arduino, par
exemple [8]. Ces équations de récurrence sont obtenues par discrétisation de la fonction de transfert
du régulateur. La période d’échantillonnage doit être judicieusement choisie afin de respecter le critère
de Shannon [9].
Problématique retenue
L’algorithme d’asservissement implémenté sur une carte Arduino doit assurer de bonnes marges
de robustesse en raison des erreurs de modélisation liées à la linéarisation. Il doit en outre permettre
de compenser les variations de la tension délivrée par la batterie provenant de ses cycles de charges
/décharges.
Objectifs du TIPE
Je me propose : (i) de déterminer la fonction de transfert du convertisseur Buck à partir de son
modèle physique, (ii) de choisir une méthode de synthèse d’un régulateur de type PI Avance de Phase
et de vérifier ses performances et ses limites en simulation, et (iii) d’implémenter le régulateur sur
la carte Arduino et de valider les performances de l’asservissement avec une batterie chargée et une
batterie partiellement déchargée.
Références bibliographiques
[1] Philippe Barrade : Electronique de Puissance, Méthodologies et convertisseurs élémentaires.
Presses Polytechniques et Universitaires Romandes, 2006.
[2] Akram Eddahech : Modélisation du vieillissement et détermination de l’état de santé de batteries
lithium-ion pour application véhicule électrique et hybride. Thèse de doctorat, Université de
Bordeaux 1, 2014.
[3] H Sira-Ramirez et R Silva-Ortigoza : Control design technics in power electronics devices,
chapitre 2. Springer, 2016.
[4] P. De Larminat : Automatique. Hermes, 1996.
[5] B. Wayne Becquette : Process control, modelling design and simulation. Prentice Hall, 1957.
[6] K. J. Astrom et B. Wittenmark : Adaptive control. Prentice Hall, 2014.
[7] Amin Shotorbani et Ebrahim Babaei : Robust nonlinear controller based on control lyapunov function and terminal sliding mode for buck converter. International Journal of Numerical
Modelling : Electronic Networks, Devices and Fields, 2016.
[8] G. V. Arun Kumar : A technical seminar on embedded-system-programming-using-arduinomicrocontroller, 2015. Consulté le 5 juillet 2016 http://fr.slideshare.net/ArunKumar1709/
embedded-system-programming-using-arduino-microcontroller.
[9] M. Charbit et G. Blanchet : Eléments de base pour le traitement numérique du signal et de
l’image, 2010. Polycopié de cours, Telecom ParisTech.
2
Modélisation mathématique et informatique du découpage
d’une région en unités cellulaires pour la téléphonie mobile
Titre initial : Les antennes pour la téléphonie mobile
Auteur : J.-S. Partre (trinômé avec S. Bavoir et B. Orisvian)
Remarque : Nous avons vu la dualité avec la triangulation de Delaunay, mais choisi de ne pas
approfondir cette notion car trop divergente par rapport au sujet.
Positionnement thématique
Modélisation mathématique, Programmation, Géométrie.
Mots-clés
Mots-clés (en français)
Téléphonie cellulaire
Géométrie algorithmique
Tessellation de Voronoi
Diagrammes de Laguerre
Homologie
Mots-clés (en anglais)
Cellular phones
Computational geometry
Voronoi tessellation
Laguerre diagrams
Homology
Bibliographie commentée
Préambule expliquant notre changement de titre : Lorsque nous avons déposé notre titre en Janvier, nous avions pensé à un sujet orienté sur les télécommunications. Au cours de notre recherche
bibliographique, nous nous sommes aperçus qu’il était plus intéressant, notamment pour être dans
le thème “optimalité, choix, contraintes, hasard” de nous recentrer sur la manière d’obtenir les zones
“couvertes” par les différentes antennes.
La téléphonie mobile utilise des réseaux d’antennes couvrant une certaine zone, induisant un
maillage de cette zone, ces mailles étant de taille allant de 1 à 10 par exemple selon qu’il s’agit d’une
zone citadine ou rurale. Dans l’idéal, il pourrait s’agir de zones formant un recouvrement disjoint.
Dans ce cas, une fois décidés les emplacements des antennes, “la mise en cellules” (disjointes) relève de
ce que l’on appelle en mathématiques la “tessellation de Voronoi” ; cette modélisation mathématique
relativement simple, qui ne convient que pour des antennes ayant toutes même puissance, possède
son pendant en modélisation informatique ; il s’agit de l’algorithme de Voronoı̈ tellement important
que c’est une des “briques de base” du domaine récent appelé “géométrie algorithmique”. Cet algorithme génère les cellules associées à un ensemble fini de points, appelés ”germes“ (les localisations
d’antennes), la cellule Ck associée au kième point Pk étant définie comme étant l’ensemble des points
du plan plus proche de Pk que de tout autre Pi . Cet algorithme est implémenté dans de nombreux
logiciels y compris des logiciels libres par exemple Voroglide [1] ; actuellement, nous nous orientons
vers une programmation avec Matlab (environnement logiciel conseillé par notre professeur référent)
1
où l’algorithme peut être implémenté de façon très efficace.
Dans le cas où les puissances ne sont pas toutes identiques, la modélisation mathématique, cousine
de la précédente, est celle des diagrammes de puissance [2, 1] ([1] étant le document qui nous a été
le plus utile). Des cas très spéciaux peuvent alors apparaı̂tre, attirant l’attention sur des cas où des
antennes s’avèrent complétement sous-dimensionnées. Là aussi, il y a une modélisation informatique.
En fait, travailler dans l’hypothèse où les zones sont disjointes peut être une bonne première
approximation, mais la réalité est que les zones ont un certain recouvrement, mais ce recouvrement
ne doit pas être excessif. On change alors de point de vue, en posant le problème mathématique
de la minimisation du nombre de disques recouvrant une zone donnée. De manière inattendue, une
théorie mathématique, l’homologie, permet de rendre compte de ce type de situations Cette théorie
est notamment traitée dans un article de recherche [3] utilisant les probabilités.
Problématique retenue
Pour un utilisateur de téléphonie mobile, c’est en principe l’antenne la plus proche avec laquelle
il communique. Comment fait-on alors pour dessiner la région (la cellule) affectée à telle ou telle
antenne ? Il s’agit de régions dites de Voronoı̈ ; si l’on a beaucoup d’antennes, l’obtention de l’ensemble
de ces cellules, qui se fait par un programme d’ordinateur, s’appelle une tessellation. Cela fait partie
d’un domaine très vaste qui s’appelle la géométrie algorithmique (que notre camarade B. Orisvian a
particulièrement travaillé). Si les antennes ont des puissances différentes, la méthode précédente est
à adapter. C’est ce sur quoi j’ai travaillé ; on débouche sur le modèle de tessellation de Laguerre, qui,
lui aussi se programme, comme je le montrerai. Enfin, notre camarade (S. Bavoir) projette d’aller
plus loin en considérant des zones de recouvrement, avec la théorie de l’homologie.
Objectifs du TIPE
Les diagrammes de Voronoi classiques constituent l’outil mathématique de premier niveau permettant de régionaliser le plan en polygones convexes, par exemple pour définir des cellules (des
régions) pour la téléphonie mobile. Cependant, pour aller plus loin, notamment pour tenir compte de
puissances d’émission variables (ce qui a été l’objet de mon travail propre) et/ou de problématiques
de recouvrement minimal par des disques, il faut faire appel à des théories plus avancées. C’est l’objectif que je me suis fixé de montrer. Pour cela je mêlerai modélisation mathématique et modélisation
informatique, avec exemples et contre-exemples. Certains aspects sociétaux seront mentionnés en plus
[4].
Nous n’avons pas recherché de contacts, les échanges avec notre professeur-encadrant ayant suffi.
(tous les sites ci-dessous étaient actifs début 2017)
Références bibliographiques
[1] Houman Borouchaki, Nicolas Flandrin et Chakib Bennis : Diagramme de Laguerre.
Comptes Rendus de l’Académie des Sciences Mécanique, 333(10):762–767, 2005.
[2] Franck Hetroy : Un petit peu de géométrie algorithmique. http://evasion.imag.fr/
Membres/Franck.Hetroy/Teaching/GeoAlgo/poly_geoalgo.pdf.
[3] Laurent Decreusefond, Eduardo Ferraz, H Randriambololona, Anaı̈s Vergne et al. :
Simplicial homology of random configurations. Advances in Applied Probability, 46(2):325–347,
2014. http://arxiv.org/pdf/1103.4457.pdf.
2
[4] Danger téléphone portable. www.robindestoits.org. blog basé sur des opinions / défense
d’intérêts.
[5] TL Singal : Wireless communications. Tata McGraw Hill Education Private Limited, 2010.
[6] Mark De Berg, Cheong Otfried, Marc Van Kreveld et Mark Overmars : Computational
geometry. Springer, 2008. 3ième édition.
[7] Jean-Daniel Boissonnat et Mariette Yvinec : Géométrie algorithmique. 1995.
[8] Oswin Aichholzer, Danny Z Chen, DT Lee, Asish Mukhopadhyay, Evanthia Papadopoulou et Franz Aurenhammer : Voronoi diagrams for direction-sensitive distances. In
Proceedings of the thirteenth annual symposium on Computational geometry, pages 418–420.
ACM, 1997. www.igi.tugraz.at/telematik/tele1-02_aich-favor.pdf.
[9] Christian Icking, Rolf Klein, Peter Köllner et Lihong Ma : Java applets for the dynamic
visualization of voronoi diagrams. In Computer Science in Perspective, pages 191–205. Springer,
2003. www.pi6.fernuni-hagen.de/GeomLab/VoroGlide/index.html.en.
[10] Groupe de recherches geometrica. https://team.inria.fr/geometrica/. Data Shape : INRIA.
3
Matériaux auxétiques
Positionnement thématique
Sciences Industrielles : résistance des matériaux (contrainte-déformation), Sciences Industrielles :
productique (fabrication additive), Technologie : réalisation d’un dispositif de mesure.
Mots-clés
Mots-clés (en français)
Coefficient de Poisson
Contrainte/Déformation
Modélisation
Mesures
Matériaux
Mots-clés (en anglais)
Poisson’s ratio
Strain/Stress
Modelling
Measurements
Materials
Bibliographie commentée
Lorsqu’une poutre cylindrique est étirée dans sa direction longitudinale, celle-ci va se contracter
dans sa direction radiale. Ces deux déformations sont proportionnelles et le coefficient de proportionnalité est nommé coefficient de Poisson. Usuellement, ce coefficient est compris entre 0 et 0,5.
Cependant, certains matériaux ont la particularité de s’étendre (contracter) dans la direction radiale lorsqu’ils sont soumis à une contrainte de traction (compression) longitudinale. Ces matériaux
sont appelés matériaux auxétiques et ils sont caractérisés par un coefficient de Poisson ayant une
valeur comprise entre 0 et -1. Initialement considérée comme anormale lors de son observation dans
les domaines des biomatériaux et des tissus biologiques, cette propriété a par la suite fait l’objet de nombreuses études, notamment depuis la fin du XXème siècle. Ainsi, désormais les auteurs
s’accordent sur le fait que le comportement auxétique des tissus biologiques résulte de la forme particulière de la microstructure de ces matériaux [1],[2]. À l’heure actuelle, des matériaux auxétiques sont
synthétisés, principalement sous forme de mousses qui peuvent être en matériaux thermoplastiques
(polyester), thermodurcissables (caoutchouc) ou métalliques (cuivre) [2] [3] [4] [5]. Ces mousses, et
autres matériaux auxétiques, sont réalisés de manière à posséder une structure (généralement de
dimension millimétrique) composée de formes géométriques qui sous l’action d’une contrainte de
traction dans la direction longitudinale vont ≪ se déplier ≫ dans la direction radiale. À l’heure actuelle, de très nombreuses formes sont recensées dans la littérature [6] [7] [8]. Par exemple, il a été
montré que des structures bidimensionnelles réalisées suivant les motifs de pavages d’art islamique
possèdent un coefficient de Poisson négatif [8]. Si les matériaux auxétiques sont étudiés à l’heure
actuelle, c’est en raison de leurs applications potentielles. Quelques exemples d’applications sont
l’amélioration de propriétés acoustiques par absorption des sons, l’absorption des chocs (par exemple
dans le cas des gilets pare-balles), dans le domaine médical (pour la réalisation de prothèses ou d’implants), la réalisation de filtres à porosité modulaire, ou encore d’électrodes dans des applications
piézoélectriques [9].
1
Problématique retenue
Les matériaux auxétiques de synthèse font l’objet de nombreuses études. Cependant, mes recherches bibliographiques ne m’ont pas permis de trouver d’étude comparative qui permettrait à un
ingénieur/concepteur de choisir un type de structure dans le but de répondre à un besoin précis. Ainsi,
l’objectif de ce travail est de réaliser et caractériser des matériaux auxétiques possédant différentes
structures et de comparer leur aptitude à être utilisés en tant que filtres de porosité modulaire.
Objectifs du TIPE
Pour remplir mon objectif, il m’a tout d’abord fallu réaliser des matériaux auxétiques. Pour
ce faire, j’ai décidé d’utiliser l’imprimante 3D disponible au lycée. Cependant, celle-ci utilisait un
matériau trop dur et trop cassant, il m’a fallu trouver un matériau plus adapté et pouvant être
utilisé dans l’imprimante 3D. Ainsi, j’ai opté pour du PLA souple qui permet de répondre à ces
contraintes. Par la suite, j’ai reproduit 4 structures issues de la littérature afin de réaliser mes
matériaux auxétiques. Une fois les matériaux réalisés, j’ai décidé de construire un dispositif de compression uniaxiale afin de les caractériser. Ce dispositif est constitué d’un plan horizontal rigide sur
lequel est disposé mon matériau et d’un plateau placé par dessus du matériau sur lequel sont placés
des poids afin d’induire la compression du matériau suivant la direction verticale. Afin de mesurer les
contractions suivant l’axe vertical et l’axe horizontal, des photos sont prises avant et après chargement, puis analysées à l’aide du logiciel AVIMéca. En parallèle de ces mesures, j’ai réalisé le modèle
de mes 4 matériaux auxétiques à l’aide du logiciel solidworks et étudié leurs déformations à l’aide
du module de simulation. Enfin, j’ai étudié l’utilité de ces matériaux en tant que filtre à porosité
modulaire. Pour ce faire, j’ai étudié la force de traction nécessaire pour agrandir les pores et laisser
passer différents objets sphériques.
Références bibliographiques
[1] N Gaspar, CW Smith et KE Evans : Auxetic behaviour and anisotropic heterogeneity. Acta
Materialia, 57(3):875–880, 2009.
[2] R.S. Lakes : Foam structures with a negative Poisson’s ratio. Science, 235:1038–1040, 1987.
[3] F Scarpa, JA Giacomin, A Bezazi et WA Bullough : Dynamic behavior and damping
capacity of auxetic foam pads. In Smart Structures and Materials, page 6169. International
Society for Optics and Photonics, 2006.
[4] F Scarpa, P Pastorino, A Garelli, S Patsias et M Ruzzene : Auxetic compliant flexible
PU foams : static and dynamic properties. physica status solidi (b), 242(3):681–694, 2005.
[5] Matteo Bianchi, Fabrizio L Scarpa et Christopher W Smith : Stiffness and energy dissipation
in polyurethane auxetic foams. Journal of Materials Science, 43(17):5851–5860, 2008.
[6] Lorna J Gibson et Michael F Ashby : The mechanics of three-dimensional cellular materials. In
Proceedings of the Royal Society of London A : Mathematical, Physical and Engineering Sciences,
volume 382, pages 43–59. The Royal Society, 1982.
[7] Lorna J Gibson et Michael F Ashby : Cellular solids : structure and properties. Cambridge
University Press, 1999.
[8] https://www.youtube.com/watch?v=j6iDcIYTqNQ.
[9] Docnum.univ-lorraine.fr.
2
Anomalies de Bouguer
Positionnement thématique
Mécanique (mécanique newtonienne), Physique interdisciplinaire (géophysique), Mathématiques
appliquées (cartographie).
Mots-clés
Mots-clés (en français)
Champ de pesanteur
Modélisation
Précision
Mesures
Pendule
Mots-clés (en anglais)
Gravity field
Modelling
Precision
Measurements
Pendulum
Bibliographie commentée
La gravimétrie, c’est-à-dire la mesure de l’accélération de la pesanteur g en un point donné, est
une méthode géophysique qui permet d’imager à différentes échelles la structure interne de la Terre
[1]. Elle consiste à étudier, de façon indirecte, les variations spatio-temporelles du champ de pesanteur
terrestre liées à la distribution des masses au sein de la Terre (effets à grande distance), à proximité de
la surface (quelques centaines de mètres), voire en surface. En France, la valeur moyenne admise de g
est de 9, 81m.s−2 , soit 981Gal(cm.s−2 ). La valeur de l’accélération de la pesanteur est principalement
liée aux structures profondes de la Terre.
En 1687, Newton publie Philosophiae naturalis principia mathematica dans laquelle il formule
la loi de la gravitation universelle : deux corps ponctuels, du simple fait de leur masse, s’attirent
mutuellement. Cette loi n’est pas pour autant réduite à une interaction mutuelle entre simples corps
ponctuels puisque l’effet gravitationnel exercé en un point extérieur par une sphère à distribution
radiale de masse est le même que si toute la masse de la sphère était concentrée en son centre.
Les études menées depuis près de trois siècles, et les perfectionnements dans la précision des mesures, ont permis progressivement de constater que cette approche globale était loin d’être suffisante
[2], avec des variations sensibles selon le point de mesure. Si la distribution radiale est relativement
uniforme à grande échelle (structure profonde de la Terre), elle est hétérogène à proximité d’une
surface (couches géologiques proches de nature variable), et dépendante du relief.
À présent, le champ de pesanteur théorique en un point est calculé en première approximation
à partir de la distance au centre de la Terre, puis on lui applique des termes correctifs prenant en
compte la rotation de la Terre sur elle-même, sa non-sphéricité (ellipsoı̈de), les écarts de densité du
sous-sol et les effets des marées terrestres [3, 4]. On appelle anomalie gravimétrique de Bouguer (en
l’honneur d’un mathématicien du début du XVIIIème siècle), au point considéré sur l’ellipsoı̈de de
référence [2], l’écart entre le champ de pesanteur terrestre mesuré et le champ de pesanteur théorique.
Cet écart peut être significatif, de l’ordre de ±300mGal, soit ±3cm.s−2 . La correction à ”l’air libre”
permet de tenir compte de l’effet de l’altitude du point de mesure par rapport à un ellipsoı̈de de
référence supposé d’altitude zéro. La correction dite ”de plateau” vise à tenir compte de la masse
comprise entre l’ellipsoı̈de et le point de mesure, approximée par une tranche horizontale homogène
1
et d’extension infinie. Très souvent, il faut apporter une correction supplémentaire, dite correction
”de terrain”. Ce calcul prend en compte ici les effets du relief (vallée, colline, falaise) autour du point
de mesure. Il est donc nécessaire de connaı̂tre la géologie, et la topographie locale au point de mesure
pour calculer ces trois corrections [5].
On appelle ”anomalie de Bouguer complète” la différence entre la pesanteur mesurée en un point
donné, et la valeur théorique tenant compte de ces trois corrections [6]. On peut les calculer par
des modèles mathématiques simples. Ces anomalies de Bouguer sont exploitées par exemple pour les
recherches minières puisqu’elles apportent des informations sur le sous-sol.
Pour avoir accès à ces informations, il a fallu développer des mesures de plus en plus précises.
L’utilisation systématique de gravimètres pendulaires (mesure de période) a fourni depuis longtemps
de nombreuses données relatives (par rapport à un réseau de points de référence). La mise au point
de gravimètres absolus par mesure du temps de chute a permis de préciser ces points de référence
[7]. Cela a conduit le Bureau Gravimétrique International (BGI) à publier des cartographies de ces
”anomalies de Bouguer” [8].
Problématique retenue
Si l’on veut comparer des corrections théoriques à une mesure effectuée en un point donné, il faut
sélectionner un point de référence absolu, fourni par la banque de données du BGI, qui soit associé
à une topographie locale très simple à modéliser, et effectuer une mesure aussi précise que possible.
Objectifs du TIPE
Je me propose :
1. de choisir dans les bases de données du BGI des points de référence absolus pour lesquels la
topographie locale et la géologie (IGN et BRGM) [9] sont simples à modéliser ;
2. de calculer mathématiquement les corrections de Bouguer associées à cette topographie locale,
pour apprécier l’ordre de grandeur des effets locaux à mesurer ;
3. d’effectuer une mesure de g en ces points à partir des oscillations d’un pendule (construction personnelle), en identifiant tous les moyens pour améliorer la précision de la mesure, en
espérant arriver à l’ordre de grandeur des écarts calculés [10].
Références bibliographiques
[1] Champ gravitationnel : définition du champ de gravité.
gravitationnel.
fr.wikipedia.org/wiki/Champ_
[2] S. Bonvalot : Mesure et modélisation de la gravité. École d’été du groupe de recherche en
géodésie spatiale (GRGS), 6-10 septembre 2010. www.geoazur.fr/GLOBALSEIS/stehly/cours.
[3] S. Rosat, J-P Boy, G Ferhat, J Hinderer, M Amalvict, P Gegout et B Luck : Analysis of a 10-year (1997–2007) record of time-varying gravity in Strasbourg using absolute and
superconducting gravimeters : new results on the calibration and comparison with GPS height
changes and hydrology. Journal of Geodynamics, 48(3):360–365, 2009.
[4] P. Melchior et B. Ducarme : Étude des phénomènes de marée gravimétrique. Géodynamique,
4-1:3–14, 1989.
[5] Geoportail de l’Institut Géographique National (IGN). en rapport avec les sites de référence du
BGI. Visité le 8 octobre 2016. www.geoportail.gouv.fr.
2
[6] George P. Woollard : The relation of gravity anomalies to surface elevation crustal structure and geology. Geophysical and polar research department, Research Report series, N°62-9,
Décembre 1962. University of Wisconsin.
[7] M. Sarrailh et S. Balmino : La mesure du champ de gravité de la Terre. Bureau
Gravimétrique International (BGI). bgi.omp.obs-mip.fr/data-products/Documentation/
tutorials.
[8] S. Bonvalot et al. : Carte des anomalies de Bouguer. Commission de la carte géologique du
monde.
[9] Bureau Gravimétrique International (BGI) : banque de données des mesures absolues. Visité
entre le 7 septembre et le 13 octobre 2017. bgi.omp.obs-mip.fr.
[10] R.P. Middlemiss et al. : Measurement of the Earth tides with a MEMS gravimeter. Nature,
531:614, 2016.
3