Les énergies - Livret sur l`environnement 2013

Transcription

Les énergies - Livret sur l`environnement 2013
Livret sur l’environnement 2013
Les énergies
Michel Combarnous
Liste des questions :
1.
Quelle différence y a-t-il entre force et énergie ?
2.
Quelles sont les unités utilisées pour quantifier l’énergie ?
3.
Pourquoi l’homme a-t-il besoin d’énergie ?
4.
Quels sont les principaux secteurs consommateurs d’énergie ?
5.
Quelle différence y a-t-il entre énergie primaire et énergie finale ?
6.
Quelles sont les principales sources d’énergie ?
7.
Pendant combien de temps pourrons-nous utiliser les combustibles fossiles ?
8.
Comment se procure-t-on du charbon ?
9.
Comment se procure-t-on du pétrole et du gaz ?
10. Les gaz de schiste, un atout ou un épiphénomène ?
11. Qu’est-ce que l’énergie nucléaire ?
12. Comment fonctionnent les centrales électriques nucléaires en service ?
13. La fusion est-elle l’avenir de l’énergie nucléaire ?
14. Quels sont les avantages et inconvénients de l’énergie hydraulique ?
15. Pourquoi utiliser la biomasse pour produire de l’énergie ?
16. Quels sont les mérites et les inconvénients de l’énergie éolienne ?
17. Que pouvons espérer du soleil comme source d’énergie ?
18. Le soleil source directe d’énergie : le photovoltaïque ?
19. Le stockage de l’électricité est-il possible à grande échelle ?
20. Quel avenir pour les centrales électriques « solaires à concentration » ?
21. Utiliser le « chauffage central » de la Terre et faire appel à la géothermie ?
22. Que pouvons-nous espérer de la mer : énergie mécanique, énergie thermique ?
1. Quelle différence y a-t-il entre force et énergie ?
La force permet de faire bouger des objets. C’est ainsi qu’il faut exercer une force pour
soulever un poids posé sur une table. Des dispositifs très simples permettent d’augmenter la
force appliquée sur un objet. Fabriquons une barre horizontale mobile autour d’un axe placé
près d’une de ses extrémités de façon à ce qu’un des bras de la « balance » ainsi fabriquée soit
4 fois plus long que l’autre. Un poids de 1 kg placé à l’extrémité du plus long des bras
permettra de soulever un poids allant jusqu’à 4 kg placé à l’extrémité du petit bras, car le
poids de 1 kg exercera à l’autre extrémité de la barre une force 4 fois plus élevée. C’est le
fameux « effet de levier ».
En revanche, pour soulever le gros poids de 4 kg de 10 cm, l’extrémité du grand bras de
levier devra parcourir une distance de 40 cm. Le produit de la force par le déplacement qu’on
appelle le travail, qu’il soit évalué à partir du déplacement du petit poids ou du gros poids, est
le même et caractérise ce qu’on appelle l’énergie qui est conservée dans les systèmes
mécaniques simples.
Cette énergie peut prendre diverses formes : l’énergie cinétique qui est celle d’un objet en
mouvement qu’on ne peut arrêter qu’en dépensant un certain travail, par freinage par
exemple, ou encore l’énergie potentielle qu’on crée en soulevant un objet et qu’on peut
transformer en énergie cinétique en le laissant tomber.
La chaleur elle-même est une forme d’énergie : en faisant brûler du charbon, on chauffe
de l’eau pour la transformer en vapeur que la locomotive, par le biais de pistons poussés par
cette vapeur, transforme en énergie mécanique pour permettre au train d’acquérir une certaine
vitesse, en dépit de la résistance de l’air, d’autres frottements ou d’ascension sur une voie
montante. L’énergie cinétique du train se transformera à son tour en chaleur lorsque le
conducteur actionnera les freins dont les patins frotteront sur les roues, les roues,
éventuellement bloquées, frottant elles-mêmes sur les voies.
On peut également parler d’une énergie chimique qui est, par exemple, la source de
l’électricité disponible aux bornes des piles. Au XXe siècle, Einstein a découvert qu’énergie et
masse sont deux aspects d’une même propriété fondamentale.
2. Quelles sont les unités utilisées pour quantifier l’énergie ?
Le système d’unités international mesure l’énergie en Joule ou en ses multiples : méga (un
million ou 106, noté M), giga (un milliard ou 109, noté G), téra (soit mille giga ou 1012, noté
T). Les électriciens ont l’habitude d’utiliser plutôt le Watt-heure (Wh) ou ses multiples, en
particulier le kWh. 1 Wh vaut 3 600 joules.
Plus ancienne que le joule, la calorie (cal) est également utilisée (elle correspond à
l’augmentation de 1 °C d’un gramme d’eau) ; la calorie vaut 4,18 joules. À titre d’exemple,
indiquons que l’alimentation humaine correspond à sensiblement 2 500 kcal/(habitant.jour).
Les économistes utilisent généralement comme unité pratique la tonne d’équivalent
pétrole (TEP) qui est l’énergie dégagée par la combustion d’un tonne de pétrole. Ce pétrole
est d’ailleurs un pétrole « théorique » qui veut représenter une composition moyenne du
pétrole. La combustion complète de cette tonne d’équivalent pétrole, ou plus précisément son
pouvoir de combustion supérieur (production de CO2 gazeux et prise en compte de la chaleur
de condensation de l’eau résultant de la combustion) correspond, de façon conventionnelle, à
environ 42 giga joules (GJ).
2
On obtient alors le tableau de correspondance :
Giga joule (GJ)
1 GJ vaut
1 GWh vaut
1 tep vaut
1
3600
42
Giga watt-heure (GWh) Tonne d’équivalent pétrole (TEP)
2,77 10-3
1
0,0117
0,0238
85,7
1
Tableau des équivalences entre les unités d’énergie les plus courantes.
L’énergie, ou travail, ne doit pas être confondue avec la puissance, grandeur très souvent
utilisée en énergétique, qui correspond à une énergie rapportée à une certaine durée, à un
certain temps donc.
Ainsi, l’unité internationale de puissance, le watt correspond à une énergie d’un joule
dissipée ou mise en œuvre en une seconde.
Parmi les repères de puissance on peut noter : les ampoules « basse consommation »
consomment des puissances de l’ordre de 20 W, par rapport à une centaine de watts pour des
ampoules classiques à filament, une voiture mobilise une puissance de 50 à 100 kW, une rame
de TGV environ 10 MW. Un tir d’Ariane 5 correspond à la mise en œuvre, pendant les toutes
premières secondes du lancement, d’une puissance de près 50 GW !
Une autre unité de puissance est souvent utilisée, y compris dans beaucoup de statistiques
internationales, la TEP/an, qui correspond à environ 1 400 W.
3. Pourquoi l’homme a-t-il besoin d’énergie ?
L’homme a commencé par découvrir que le feu lui permettait de se protéger du froid en
hiver, de cuire ses aliments et d’éloigner les prédateurs qui s’attaquaient à lui. En quelque
sorte, il a commencé par n’utiliser exclusivement que des énergies renouvelables.
Il a ensuite appris à utiliser à son profit l’énergie cinétique de l’eau des rivières pour
moudre le grain au lieu d’utiliser sa propre énergie pour soulever un lourd pilon ou encore
l’énergie cinétique de l’air grâce aux moulins à vent. L’eau ou l’air faisaient alors tourner des
pales d’un dispositif qui mettaient en jeu un système de meules pour moudre les grains. Les
gravures du vieux Paris (XVIIe siècle) montrent de nombreux moulins flottant sur la Seine
autour de l’Ile Saint-Louis : ancrés dans la rivière, ils étaient équipés de roues à aubes que le
courant du fleuve faisait tourner : chacun y apportait le grain en barque !
L’homme a également appris à utiliser l’énergie des animaux, à des fins diverses, comme
celle de parcourir à cheval plus de chemin qu’il n’aurait pu le faire à pied pendant la même
journée. L’industrie naissante a commencé par faire appel à ces sources d’énergie avant de
découvrir les vertus de la combustion du bois et plus tard de celle de produits « fossiles »
enfouis dans le sous-sol depuis des centaines de millions d’années, comme le charbon, le
pétrole.
4. Quels sont les principaux secteurs consommateurs d’énergie ?
La part de l’industrie dans la consommation mondiale d’énergie est passée de 40 % en
1971 à 37 % en 2004, à cause de la croissance plus rapide des autres secteurs. Les industries
les plus gourmandes sont le traitement des métaux ferreux et non ferreux, la fabrication des
produits chimiques et des engrais, les raffineries de pétrole, les cimenteries et la fabrication du
verre et du papier. La diminution du prix de revient est un souci constant de l’industrie qui fait
3
des efforts de plus en plus importants en matière de consommation d’énergie. C’est une des
raisons pour lesquelles la demande énergétique de ce secteur est celle qui croît le moins vite.
La consommation d’énergie dans les bâtiments d’habitation et les bâtiments
professionnels représente environ le tiers du total et croît régulièrement. Dans bien des
situations, une meilleure isolation des bâtiments permettrait de faire des économies
substantielles dans leur chauffage en hiver et leur climatisation en été.
Le dernier contributeur majeur est celui du transport qui représente environ le quart de la
consommation mondiale, mais qui est celui qui croît le plus rapidement : 2 % par an. Les
transports en commun consomment moins d’énergie que les moyens de transport individuels.
La consommation des véhicules individuels peut être diminuée, en particulier en décourageant
l’emploi de véhicules inutilement surpuissants, compte tenu des règles de circulation routière.
Dans chacun de ces secteurs (le quatrième, moins important en volume, serait
l’agriculture), on peut donc envisager de faire des économies d’énergie sans rien sacrifier de
l’essentiel de notre bien-être.
5. Quelle différence y a-t-il entre énergie primaire et énergie finale ?
L’énergie finale est celle utilisée par l’utilisateur final (autrement dit celle qui lui est
facturée). Elle ne mesure pas rigoureusement le service rendu, en ce sens qu’elle n’est pas
directement corrélée à l’énergie strictement utile au but à atteindre. Par exemple, l’utilisation
de lampes basse consommation permet d’obtenir le même éclairage, c’est-à-dire la même
énergie lumineuse nécessaire à l’utilisateur, avec une énergie finale moindre. De même,
l’énergie finale nécessaire au chauffage d’une maison dépend du rendement de la chaudière.
L’énergie primaire est, en principe, l’énergie nécessaire pour produire l’énergie finale.
Cette étape ne s’effectue que très rarement avec un rendement égal à l’unité. Par exemple, une
turbine à gaz, produisant de l’électricité le fera avec un rendement d’une quarantaine de % :
sur cet exemple d’ailleurs, on constate les progrès importants qui sont réalisés au fil du temps,
des matériaux de plus en plus performants autorisant des températures d’entrée dans la turbine
plus élevés et des rendements thermiques croissant régulièrement.
Donc, pour passer de la valeur de l’énergie finale à celle de l’énergie primaire, on est
conduit à admettre des valeurs moyennes du rendement et des pertes qui peuvent différer
selon les évaluateurs. Les diverses organisations nationales et internationales concernées ont
choisi des méthodologies différentes, bien que souvent voisines. Ce choix a une influence sur
le résultat de la comparaison des divers modes de production d’énergie.
6. Quelles sont les principales sources d’énergie ?
Les combustibles fossiles, charbon, pétrole et gaz, sont le résultat de la décomposition de
végétaux enfouis dans le sous-sol depuis deux ou trois centaines de millions d’années. Pour
l’année 2008 par exemple, leur utilisation contribue pour 80 % à la production mondiale
d’énergie, le pétrole pour 33 % environ, le charbon pour 27 % et le gaz naturel pour 21 %.
L’énergie nucléaire, c’est-à-dire la transformation de masse en énergie, à partir de minéraux
tels que l’uranium, représente, quant à elle, 6 % de la production totale.
En ce qui concerne les énergies renouvelables, l’hydraulique correspond à environ 6 %,
Le bois et les déchets en fournissent environ 10 %, les autres sources d’énergie renouvelables
ne représentant actuellement au total que quelques % : on notera cependant que certaines
formes se développent très rapidement et que des difficultés technologiques importantes
existent sur l’utilisation, souvent très dispersée des produits, très divers, de la biomasse,
4
utilisés à des fins énergétiques. N’oublions pas, aussi, que dans de très nombreux pays
africains, les énergies renouvelables sont majoritaires parmi les sources d’énergie. Au niveau
mondial, seules les productions et consommations du bois et du charbon de bois font l’objet
d’estimations fiables.
Ces deux types de sources correspondent à ce que l’on pourrait appeler des
consommations explicites d’énergie, dûment identifiées et susceptibles d’estimations
relativement précises. Il ne faut pas oublier l’existence de ce que l’on pourrait appeler des
consommations implicites. Souvent d’origine solaire, elles correspondent aux produits qui
constituent notre alimentation : végétaux, animaux s’étant le plus souvent nourris de
végétaux, activités de séchage, grandes consommatrices d’énergie. Leur ampleur est difficile
à estimer avec précision mais elles jouent un rôle important dans l’organisation de notre vie
sur la planète.
7. Pendant combien de temps pourrons-nous utiliser les combustibles
fossiles ?
Ayant mis très longtemps à se former, par leur nature même, les combustibles sont en
quantité limitée et le développement actuel de l’humanité, largement fondé sur leur
utilisation, est donc par essence non durable. Toute la question est de savoir de combien de
temps nous disposons pour changer les choses. L’évaluation des ressources encore
disponibles est nécessairement imprécise. Il est très généralement admis que le pétrole va
commencer à se raréfier d’ici quelques décennies et qu’il en ira de même pour le gaz naturel.
En revanche, les ressources en charbon sont suffisantes pour satisfaire les besoins de
l’humanité pendant quelques siècles.
Comme le montre la fiche « Le changement climatique mondial », le dioxyde de carbone
produit en brûlant les combustibles fossiles et relâché dans l’atmosphère est responsable d’un
changement climatique qu’on ne pourra maîtriser qu’en se tournant vers d’autres
façons de produire l’énergie bien avant que les réserves de charbon ne soient épuisées.
Une technique en cours d’expérimentation permettra peut-être d’en prolonger certains types
d’utilisation : on peut envisager d’équiper les installations fixes dont la taille le justifie d’un
dispositif de récupération du dioxyde de carbone qu’on purifie, qu’on comprime et qu’on
transporte jusqu’à un site géologique capable de le stocker, tel qu’un puits de gaz ou de
pétrole déjà exploité. On parle alors de capture et de stockage du CO2 (CCS : carbon capture
and sequestration).
En ce qui concerne les réserves dont nous disposons, si l’on admet assez souvent que les
réserves de charbon correspondent à plusieurs siècles, peut-être deux à trois, les réserves
estimées en pétrole et gaz apparaissent beaucoup plus modestes. Il est fréquent, par exemple,
de faire référence au peak oil, une sorte de maximum de la production annuelle de pétrole,
dont l’occurrence correspondrait à une fin prochaine de la production de pétrole qui
décroîtrait inexorablement après ce pic. Actuellement, on parle plutôt d’un plateau, qui
conduit à imaginer que les réserves de pétrole, mesurées comme les réserves prouvées
rapportées à la consommation annuelle actuelle, correspondrait à environ une cinquantaine
d’années. En ce qui concerne le gaz, les estimations sont du même ordre, amplifiées
fortement, récemment, par les estimations des productions possibles de gaz de schiste.
5
8. Comment se procure-t-on du charbon ?
Le charbon a commencé à se former à la fin de l’ère primaire, il y a plus de 200 millions
d’années. Il résulte de l’accumulation de matière végétale dans des zones marécageuses, des
lacs ou des régions de deltas. Ces sédiments se sont progressivement enfoncés jusqu’à des
profondeurs allant de quelques centaines de mètres pour les lignites relativement pauvres en
carbone (55 %) à plusieurs km pour les anthracites les plus riches (90 %). Les ressources en
charbon sont situées essentiellement en Asie-Pacifique, en Europe et en Amérique du Nord.
Pour extraire le charbon, en dehors des cas où l’exploitation à ciel ouvert est possible, il
faut creuser des puits de mines où deux nuisances principales ont longtemps guetté les
mineurs et les guettent encore dans certains pays qui ne bénéficient pas encore des
développements techniques modernes. D’une part, le grisou, qui n’est autre que du méthane,
est parfois présent et constitue un mélange explosif avec l’air quand sa concentration dépasse
6 %. Une ventilation énergique permet de se prémunir contre le risque d’explosion, mais rien
qu’en Chine, les accidents associés au grisou causent des milliers de morts chaque année.
D’autre part, la silicose, l’une des plus anciennes maladies professionnelles, continue à
tuer des milliers de personnes chaque année, partout dans le monde. Il s’agit d’une maladie
pulmonaire incurable provoquée par l’inhalation de poussières contenant de la silice
cristalline libre. Elle est irréversible et, de plus, continue à progresser même après la fin de
l’exposition. En cas d’exposition extrêmement forte, la durée de latence est raccourcie et la
maladie évolue plus rapidement. La silicose a frappé quasiment toute la génération des
mineurs français employés avant 1945. Depuis, l’abattage systématique des poussières avait
fait progressivement disparaître cette maladie des mines françaises, mais ailleurs dans le
monde ses ravages continuent.
9. Comment se procure-t-on du pétrole et du gaz ?
Les hydrocarbures sont des substances dont les molécules sont formées d’atomes de
carbone et d’hydrogène. Les hydrocarbures de masse moléculaire faible, par exemple le
méthane (CH4), l’éthane (C2H6), le propane, le butane, assez souvent gazeux dans les
conditions ambiantes, contiennent plus d’hydrogène que les hydrocarbures plus lourds (c’est
pour cela que l’on dit que le gaz est un combustible « plus propre » que le pétrole ou le
charbon).
Les hydrocarbures dont les molécules sont plus riches en carbone sont liquides et de plus
en plus visqueux au fur et à mesure que la proportion de carbone croît. Le pétrole est un
mélange d’hydrocarbures liquides et d’impuretés (eau, sulfures, métaux lourds). Les produits
pétroliers sont extraits des pétroles bruts par distillation.
Le pétrole et le gaz résultent de la décomposition par la chaleur, en l’absence d’oxygène,
de matières organiques qui sont les restes de plancton et d’algues tombés à leur mort au fond
des océans et dans les deltas. Mélangés aux boues, aux sables et aux limons, ils forment des
sédiments qui s’alourdissent et tombent au fond de l’eau, subissant progressivement, au fur et
à mesure de l’enfouissement de nouvelles couches, une pression qui accroît la température de
plusieurs dizaines de degrés. À une certaine profondeur, vers 2 500 m à 3 000 m par exemple,
le pétrole commence alors à se former, accompagné de gaz. À plus grande profondeur, et
donc à plus forte température, une partie du pétrole se transforme en gaz par craquage.
Une fois formé, le pétrole remonte vers la croûte terrestre, car sa densité est plus faible que
celle de l’eau salée, présente dans pratiquement tous les sous-sols de la planète, qui remplit
généralement les interstices libres dans ces matériaux. Le pétrole et le gaz s’infiltrent dans les
6
pores des sédiments plus gros qui se trouvent au-dessus d’eux. Quand ils rencontrent un
schiste imperméable ou une couche de roches dense qui les arrêtent, un gisement se forme. On
peut exploiter ce gisement en creusant des puits de géométrie complexe dont, dans de rares
cas, le pétrole jaillit de lui-même (puits dits éruptifs) ou dont la production doit être assurée
par pompage, avec souvent des procédés de stimulation (récupération assistée).
Le pétrole et le gaz peuvent être transportés des lieux de production aux lieux d’utilisation,
soit par de longues conduites (oléoducs et gazoducs, ou « pipelines », du terme anglais), soit
par bateaux (pétroliers ou méthaniers). Les accidents de pétroliers peuvent provoquer des
marées noires qui dévastent l’environnement dans les régions avoisinantes pour de
nombreuses années. Le pétrole est particulièrement pratique pour fournir les carburants des
véhicules routiers, gazole ou essence. Il est non seulement une source d’énergie, mais aussi
une matière première. Environ 8 % de la production est utilisée par la pétrochimie qui produit
les matières plastiques, les fibres textiles synthétiques, les caoutchoucs synthétiques, les colles
et adhésifs, les détergents et les lessives et une partie des engrais azotés.
Une grande partie des ressources en pétrole se trouve au Moyen-Orient, bénéficiant de
surcroît de coûts d’exploitation particulièrement bas. Les réserves mondiales de gaz naturel
sont partagées entre le Moyen-Orient d’une part et l’Europe et Eurasie de l’autre, mais
beaucoup d’autres territoires font l’objet d’explorations de plus en plus intenses.
10. Les gaz de schiste, un atout ou un épiphénomène ?
Dans le « bouquet » des énergies d’origine fossile, l’exploitation des gaz de schiste est en
train de se trouver une place. Cette exploitation est, par exemple, actuellement massive aux
États-Unis, un pays où le propriétaire du sol est propriétaire du sous-sol !
Ce qui, techniquement, a débloqué cette exploitation repose sur deux clés de base : la
première réside dans l’apparition de la technique de forage des « puits horizontaux », dans
l’industrie pétrolière. Au début de l’exploitation du pétrole, les puits étaient verticaux. La
zone concernée par le pétrole sortant du gisement dans le puits, était alors nécessairement
réduite. Le fait de pouvoir depuis, une dizaine d’années au moins, réaliser des puits
horizontaux, la partie horizontale étant au sein du gisement, a changé la donne.
Le second élément, tout aussi important est la « fracturation hydraulique » : si le fluide
contenu dans le gisement a de la peine à circuler, parce que la perméabilité des roches est très
faible, on peut avoir recours à cette technique qui a été et est toujours abondamment utilisée,
sur des milliers de puits, dans l’industrie pétrolière classique. De quoi s’agit-il ?
Si on injecte dans un puits, au niveau d’une zone jugée intéressante, un fluide à très forte
pression la roche qui constitue le gisement va se fissurer. Si l’injection est faite à faible
profondeur, la fissure qui se crée est en général horizontale (on « soulève » tout simplement
les terrains au-dessus de la zone étudiée). Si l’injection est faite à plus grande profondeur,
quelques milliers de mètres par exemple, alors la fracture créée est verticale, dans une
direction correspondant à l’état des contraintes mécaniques de la zone. C’est pour cela qu’on
peut réaliser, à partir d’un puits horizontal tout un « feuilleté » de telles fractures (une sorte
d’échangeur en quelque sorte). On conçoit très bien comment marche un tel dispositif. On
comprend très bien aussi que si l’on dit « pas de fracturation hydraulique », cela équivaut à
« pas d’exploitation de gaz de schiste ». En l’état actuel des techniques du moins.
Pour fracturer des terrains à grande profondeur, il faut mettre en jeu des systèmes de
pompes excessivement puissants et donc des installations lourdes qui, lors de la préparation
de l’exploitation, sont évidemment très contraignantes pour l’environnement (la construction
7
d’une centrale quelconque ou d’un barrage ne l’est-elle pas aussi ?). Dès que l’on crée une
fissure, il faut bien sûr y injecter des petits objets (sables, morceaux de coquilles de noix dans
les temps anciens), entraînés par le fluide de fracturation, qui évitent que les lèvres de la
fissure ne se referment. Pour éviter que les fissures ne se bouchent ensuite trop vite, la
solution injectée peut contenir des produits chimiques variés, dont l’impact général est bien
sûr à étudier soigneusement.
Les fractures étant verticales, sommes-nous bien sûr qu’elles ne vont pas avoir une
extension trop importante créant des possibilités d’échanges avec les formations géologiques
« encaissantes », supérieure et inférieure, qui contiennent de l’eau ?
Un autre problème auquel il convient de porter attention est particulier aux schistes. Ils
contiennent, en effet, beaucoup de composés chimiques gênants (métaux lourds par
exemple, …), qui peuvent être entraînés pour partie avec les gaz produits ou l’eau utilisée lors
de la fracturation, fluides qu’il convient bien sûr de traiter correctement. On cite également,
mais il y a à cette aune beaucoup d’autres activités humaines qu’il faudrait revisiter, les
problèmes de consommation d’eau, potable ou pas.
11. Qu’est-ce que l’énergie nucléaire ?
Rappelons qu’un atome est constitué d’un noyau, où est concentrée la presque totalité de la
masse, et d’électrons porteurs d’une charge électrique négative. Le noyau est un assemblage
de particules plus lourdes que ces derniers, de masses identiques : les protons chargés
négativement et les neutrons sans charge électrique. Le nombre de protons est égal à celui des
électrons. Deux isotopes ne diffèrent que par leur nombre de neutrons.
L’énergie nucléaire consiste à transformer de la masse matérielle en énergie utilisable par
l’Homme, généralement de l’électricité, en exploitant la découverte faite par Einstein de
l’identité profonde entre masse et énergie. Pour cela, on peut soit casser un noyau d’atome,
c’est la fission, ou réunir deux noyaux en un seul, c’est la fusion. La masse finale de matière
est légèrement inférieure à la masse initiale, la différence ayant été transformée en énergie.
Par nature même, cette manière de produire de l’énergie n’émet pas de gaz à effet de serre et
ne contribue pas au changement climatique, sauf en ce qui concerne les mines de matière
première, la construction et l’entretien des centrales.
L’image de l’énergie nucléaire dans l’opinion a été durablement affectée par la manière
dont le grand public en a appris l’existence. Cette nouvelle façon de créer de l’énergie a été
révélée au monde par la mise au point d’armes redoutables, comme la bombe A utilisant la
fission, utilisée pour la première fois à Hiroshima à la fin de la Seconde Guerre mondiale, et
comme la bombe H, encore plus puissante, fondée sur la fusion. Cette nouvelle arme est si
redoutable que, paradoxalement, elle a joué un rôle de dissuasion, à cause des dégâts terribles
qu’aurait causé son emploi et on considère parfois qu’elle a contribué au maintien de la paix
dans des périodes de tension comme la Guerre froide.
Plusieurs accidents civils importants ont contribué et continuent de contribuer au
développement de méfiances fortes à l’encontre de l’énergie nucléaire civile et de ses
centrales. Si on se souvient parfois de l’accident de Three Mile Island aux États-Unis (28
mars 1979, niveau 5), nul ne peut oublier les suivants : Tchernobyl, en Ukraine, le 26 avril
1986 (niveau 7, le plus élevé) et, bien sûr, plus récemment, le 11 mars 2011, celui de
Fukushima, au Japon (niveau 7) provoqué par un tsunami de forte ampleur, dû à un fort
séisme.
8
Même si, argument souvent avancé, le nombre de morts directes imputables, en rythme
normal, à l’industrie nucléaire civile est sans aucun doute très inférieur aux décès dans les
mines de charbon (qui fournissent tout de même environ six fois plus d’énergie que le
nucléaire), les inquiétudes sont liées aux conséquences qui peuvent être considérables,
dépassant les seules morts à constater, d’accidents nucléaires majeurs. Par exemple, à
Tchernobyl le nombre de personnes déplacées, souvent définitivement, a dépassé plusieurs
centaines de milliers d’habitants, le nombre des « liquidateurs » qui ont travaillé au plus près
du réacteur après l’accident étant, quant à lui, supérieur à 500 000 !
L’hostilité de certains au nucléaire repose également sur le coût et la complexité du
démantèlement des centrales et sur l’avenir des déchets radioactifs qui sont les résidus de
matières radioactives qui subsistent dans les réacteurs, lorsque leur combustible est usé au
bout de 4 à 5 ans. Ces résidus sont tout d’abord entreposés dans une piscine remplie d’eau
pendant quelques années, en attendant que leur radioactivité diminue, puis un traitement
chimique permet de récupérer les matières recyclables (uranium et plutonium). Les déchets
ultimes sont ensuite conditionnés pour permettre leur entreposage ou leur stockage pendant
très longue durée, et, enfin, envoyés pour un stockage réversible dans des couches
géologiques profondes.
12. Comment fonctionnent les centrales électriques nucléaires en service ?
Les centrales nucléaires fournissent 80 % de la production française d’électricité et 16 %
de la production mondiale. Elles sont toutes fondées sur la fission. Quand un noyau d’uranium
ou de plutonium capture un neutron, il devient instable et éclate en deux fragments et 2 ou 3
neutrons libres. Ces derniers peuvent être à leur tour capturés, ce qui donne lieu à une réaction
en chaîne qu’on laisse se développer dans le cas d’une bombe, mais qu’il faut maîtriser dans
le cas d’un réacteur destiné à produire de l’électricité.
Pour cela, on transforme l’énergie considérable des produits de fission en chaleur qu’on
transporte grâce à un fluide « caloporteur » pour ensuite actionner une turbine produisant de
l’électricité. Les 58 réacteurs français sont du type à eau pressurisée (REP). Le fluide
caloporteur « primaire » qui traverse le « cœur » où se produisent les réactions de fission, est
en effet de l’eau maintenue à l’état liquide par la très forte pression qu’on impose dans le
circuit correspondant, qualifié lui aussi de primaire. Cette chaleur est ensuite transférée à un
circuit « secondaire » contenant de la vapeur d’eau qui fait fonctionner la turbine qui entraîne
l’alternateur source de courant électrique.
Un emballement des réactions de fission est évidemment un danger majeur que les
concepteurs de réacteurs cherchent à juguler par tous les moyens. C’est ainsi que les réacteurs
REP possèdent trois barrières de confinement destinées à éviter que, même en cas d’accident,
la radioactivité produite dans le combustible nucléaire puisse se répandre à l’extérieur où elle
aurait des effets très nocifs sur toutes les formes de vie. Ces barrières s’emboîtent l’une dans
l’autre de façon à constituer un triple écran. La 1ère barrière est la gaine qui entoure les
éléments combustibles, la 2e l’enveloppe du circuit primaire, la 3e une enceinte de
confinement en béton qui entoure le tout.
Le premier accident du plus haut niveau (le niveau 7) survenu dans le monde à ce jour a
été celui de Tchernobyl en Ukraine, en 1986. À la suite d’une série d’erreurs humaines, un
réacteur, de fiabilité faible et qui n’était pas doté d’une enceinte de confinement, a explosé et
répandu dans l’atmosphère une quantité importante de produits radioactifs. Les personnels qui
luttaient sur place contre la catastrophe ont été les plus durement touchés et plusieurs dizaines
d’entre eux sont décédés en quelques mois. Des dommages humains ont été créés à distance
9
par la radioactivité diffusée de façon d’autant plus diluée que l’éloignement est plus grand.
Comme il s’agit essentiellement de cancers pouvant se déclarer après des années, il est
difficile d’évaluer parmi tous les cancers ceux qui sont attribuables à l’accident.
L’organisation mondiale de la santé (OMS) a évalué, en 2006, à 4 000 le nombre des morts
qui étaient finalement dues à Tchernobyl. Cette estimation est considérée comme sousévaluée par un certain nombre d’organisations hostiles au recours à l’énergie nucléaire.
La question des réserves mondiales d’uranium, indispensable au fonctionnement des
réacteurs actuels, reste ouverte dans la mesure où la situation du marché a conduit des
activités d’exploration très réduites, si bien que les gisements possibles sont loin d’avoir été
tous identifiés. De plus, on a déjà fait fonctionner à l’échelle industrielle des réacteurs de
types différents, capables d’extraire la quasi-totalité de l’énergie de l’uranium, ce qui en
diminue beaucoup la consommation : tel est le cas des surrégénérateurs, comme
Superphénix en France (arrêté en 1997 sous la pression des antinucléaires, alors qu’il
produisait 1 200 MW d’électricité). D’autres pistes de réacteurs nucléaires sont également
en voie d’investigation au niveau de la recherche.
13. La fusion est-elle l’avenir de l’énergie nucléaire ?
Pour fusionner ensemble deux noyaux légers, il faut les rapprocher suffisamment en dépit
de la répulsion coulombienne qui s’exerce entre deux particules ayant des charges électriques
de même signe. Dans le Soleil, c’est la gravitation qui écrase les noyaux les uns contre les
autres et permet de déclencher les réactions de fusion qui sont à l’origine de l’énergie
rayonnée par cet astre.
La seule fusion qu’on envisage actuellement d’utiliser sur Terre est celle du deutérium et
du tritium, deux isotopes de l’hydrogène. Le tritium n’existe pas dans la nature car il est
radioactif et sa période de désintégration (12 ans) est telle qu’il disparaît en quelques
décennies. Il faut donc le créer en bombardant un isotope du lithium avec des neutrons. C’est
ce qu’on fait dans la redoutable bombe H. Contrôler la fusion pour en faire une source
d’énergie électrique est encore bien plus difficile. Le problème principal est posé par le
confinement d’un matériau très chaud capable de détruire toutes les barrières matérielles.
L’avantage de la fusion sur la fission est l’absence de risque d’emballement de la réaction qui
n’est pas une réaction en chaîne. Il faudra cependant prendre des précautions pour manipuler
de grandes quantités de tritium radioactif et les matériaux de la structure qui seront bombardés
par un flux intense de neutrons. On peut sans doute espérer que ces déchets ne comporteront
pas d’éléments à longue durée de vie.
Une première méthode de confinement consiste à piéger les particules ionisées par la
température élevée dans un champ magnétique, c’est le confinement magnétique. La
structure privilégiée pour cela est un tore creux, de la même forme qu’un anneau de rideau
qu’on appelle un tokamak : dans cet anneau les éléments tournent à grandes vitesses jusqu’à
atteindre les conditions souhaitées pour la fusion. C’est précisément ce type de confinement
qui est au centre du projet international Iter (International Thermonuclear Experimental
Reactor). Ce projet regroupe sept grands partenaires dont la France pour la construction à
Cadarache du plus grand tokamak du monde. Les expériences devraient y commencer en
2016 et se poursuivre durant une quinzaine d’années. Avant de passer à un vrai réacteur de
démonstration capable de produire de l’électricité, il faudra, en plus d’Iter, réaliser tout un
programme de développement de matériaux adaptés.
La deuxième méthode, la fusion inertielle, consiste à comprimer jusqu’à des densités
considérables une petite sphère remplie d’un mélange deutérium-tritium pour obtenir une
10
réaction pendant un temps très bref. Pour cela, on utilise un grand nombre de faisceaux laser
de très haute intensité qui convergent vers la cible. Les recherches dans ce domaine sont
surtout actuellement conduites à des fins militaires, les essais de bombes réelles étant interdits
par les accords internationaux. On ne peut exclure une utilisation pacifique, sans aucun doute
à très long terme, de la fusion inertielle.
14. Quels sont les avantages et les inconvénients de l’énergie hydraulique ?
En dehors des combustibles fossiles, l’énergie hydraulique a été, aux origines de son
exploitation, dénommée « houille blanche » par opposition au charbon et en référence aux
zones d’un torrent ou d’une rivière où l’eau est mélangée à l’air, sous forme d’une écume
blanche, comme dans des vagues déferlantes par exemple. L’énergie hydraulique est, pour le
moment, la seule des énergies renouvelables à avoir fait la preuve de sa capacité à produire de
manière industrielle de grandes quantités d’énergie. Elle fournit environ 15 % de l’électricité
française et 17 % de l’électricité mondiale.
L’énergie hydraulique est une forme concentrée d’énergie solaire puisque c’est
l’évaporation de l’eau sous l’action du rayonnement solaire qui produit les nuages qui
alimentent en précipitations les régions en altitude. La force de gravité terrestre confère à
l’eau stockée en hauteur une énergie potentielle que l’écoulement vers des niveaux inférieurs
transforme en énergie cinétique capable d’entraîner des turbines qui font tourner les
alternateurs générant de l’électricité.
On a beaucoup exploité, et l’on exploite toujours, des petites centrales électriques, ou
« microcentrales », implantées le long des torrents ou rivières. Cette petite hydraulique, dite
« au fil de l’eau » ne requiert pas la construction de barrages. Sa contribution au bouquet
énergétique peut être localement très intéressante, mais son apport global reste négligeable. Si
on veut aller plus loin, bien sûr, il faut accumuler de grandes quantités d’eau, autorisant une
production régulière. Ces grands barrages ne sont pas éternels et doivent être renouvelés ou
remplacés, après des durées généralement supérieures à la centaine d’années.
L’électricité d’origine hydraulique présente de grands avantages. Elle est renouvelable et
elle émet peu de gaz à effet de serre (uniquement ceux occasionnés par la construction des
barrages et des usines). Dans de bons sites, elle est très économique. Elle est très souple : il
ne faut que quelques minutes pour produire la pleine puissance, ce qui en fait un complément
idéal pour les sources intermittentes comme l’éolien, ou certaines autres formes d’énergie
solaire.
En contrepartie de ces avantages, les grands barrages modifient le paysage (il est vrai
pas toujours en mal) et conduisent à inonder de grandes superficies de terre parfois fertiles. Ils
provoquent l’évacuation des populations qui y vivaient (la mise en eau récente du barrage des
Trois Gorges a nécessité l’évacuation d’au moins un million et demi de Chinois). Ils amènent
à noyer des sites historiques ou culturels irremplaçables (on a déplacé les temples d’Abou
Simbel, dans le cadre du grand barrage d’Assouan, en haute Egypte, sur le Nil qui alimente le
pays en électricité).
En outre, surtout en climat tropical, la fermentation de la biomasse immergée risque
d’émettre des quantités non négligeables de gaz à effet de serre. Les barrages contribuent
aussi à retenir des sédiments, nutriments minéraux indispensables à certaines terres inondées
chaque année (l’exemple le plus célèbre est également celui du barrage d’Assouan et de son
impact sur les terres de la basse vallée du Nil). Pour toutes ces raisons, l’équipement des sites
propices encore existants, en Asie, en Russie et surtout en Afrique se heurte très souvent à
d’importantes réticences.
11
15. Pourquoi utiliser la biomasse pour produire de l’énergie ?
Dans les périodes préhistoriques, le bois a permis aux premiers hommes de domestiquer le
feu et, aujourd’hui encore, plus d’un milliard et demi d’hommes, soit près du quart de la
population mondiale, ne disposent pas d’autre source d’énergie que la biomasse. Bois de
chauffe, déchets agricoles et déjections animales sont souvent les seules sources d’énergie
disponibles pour faire cuire les aliments et apporter un peu de protection contre le froid. Mais
leur combustion sans précaution peut polluer l’atmosphère, surtout si elle a lieu dans un
endroit clos, et avoir un impact sérieux sur la santé.
Des situations d’extrême pauvreté conduisent à surexploiter les ressources et à
provoquer des déforestations qui dégradent de façon durable, parfois irréversible, les
ressources locales et qui contribuent à l’effet de serre. En revanche, si on prend soin de faire
pousser un nouvel arbre pour remplacer celui qui qu’on abat, on n’augmente pas la
concentration de gaz carbonique dans l’atmosphère. En effet, si la combustion du bois de
chauffe récolté envoie dans l’atmosphère du gaz carbonique, la synthèse chlorophyllienne
extrait ce gaz carbonique de l’atmosphère pour assurer le développement de l’arbre de
remplacement.
Pour cette même raison, les biocarburants, c’est-à-dire des carburants fabriqués à partir
de végétaux, sont considérés comme ne contribuant pas à l’effet de serre. En fait, les
biocarburants actuellement utilisés devraient plutôt être qualifiés d’agrocarburants, car ils
sont produits à partir de cultures qui entrent en concurrence avec l’agriculture alimentaire
pour l’utilisation des surfaces agricoles. On utilise, par exemple, le sucre des betteraves ou de
la canne à sucre, l’amidon des céréales ou l’huile de plantes oléagineuses comme le colza. La
compétition pour les terres a déjà provoqué une augmentation du prix des céréales, le
rendement énergétique laisse à désirer et l’emploi d’engrais azotés risque de provoquer des
émissions de N2O (protoxyde d’azote) qui est un gaz à effet de serre caractérisé par un
« coefficient de forçage radiatif » trois cent fois plus important que celui du CO2.
Le principal mérite des biocarburants actuels est peut-être de préparer les circuits
économiques qui diffuseront les prochaines générations de biocarburants : on espère
mettre au point des enzymes qui permettront de gazéifier les substances organiques et
végétales et de valoriser des produits lignocellulosiques comme le bois ou la paille ou des
céréales et des oléagineux sous forme de la plante entière et non uniquement des graines. Les
biocarburants sont généralement utilisés en les mélangeant avec de l’essence. Les voies de
production par micro-algues, en lagunes mais aussi en réacteurs industriels, sont actuellement
en cours d’exploration dans plusieurs pays ou dans le cadre d’actions internationales.
On n’oubliera pas enfin que, dans tous les pays, même les plus avancés, en Europe par
exemple, on voit se développer, de plus en plus, de très nombreuses installations de
cogénération, de puissance de l’ordre de quelques MW, produisant, à partir de déchets de
biomasses et de bois, tout à la fois de la chaleur à usage domestique et de l’électricité.
16.
Quels sont les mérites et les inconvénients de l’énergie éolienne ?
Les moulins à vent ont été utilisés depuis le Moyen Âge pour moudre le grain, presser les
olives et actionner des pompes. Les matériaux développés pour l’aéronautique permettent
aujourd’hui de construire des pales longues de plusieurs dizaines de mètres, tournant autour
d’un axe horizontal, pour ne décrire que les plus classiques des éoliennes commerciales. Cet
axe est situé à la partie supérieure d’un mât qui peut atteindre jusqu’à 150 m de hauteur. Le
vent fait tourner les pales d’un rotor qui entraîne une génératrice d’électricité, placée, elle
aussi, dans la nacelle au sommet du mât et capable de produire une puissance crête
12
(maximum) de l’ordre de 1 à 5 MW. Il est à noter que la puissance dépend de la vitesse du
vent au cube, une réduction de vitesse du vent d’un facteur 2 faisant donc chuter la puissance
d’un facteur 8.
Il s’agit d’une énergie qui, à l’exception de sa construction, ne crée pas de gaz à effet de
serre. Sur des terres agricoles, elle n’occupe que 2 % du sol, la surface restante étant
disponible. Elle engendre des ressources importantes pour les finances locales. Cependant,
l’implantation des grandes fermes éoliennes ne fait pas l’unanimité. Certains riverains se
plaignent d’une dégradation du paysage, du bruit des éoliennes, des interférences
électromagnétiques qu’elles provoquent et qui peuvent gêner la réception de la télévision et
des flashes très puissants qui sont émis toutes les cinq secondes au sommet des mâts pour
alerter les avions.
Ces dispositifs se sont néanmoins très fortement développés depuis 1995, et en particulier
ces toutes dernières années. Les statistiques mondiales les plus récentes indiquent qu’à la fin
de l’année 2010 la puissance crête installée totale était de 200 000 MW. La puissance totale
des machines, mises en place, pour l’instant, principalement en Europe et aux Etats-Unis,
avec un développement plus récent mais significatif en Asie et dans le Pacifique, connaît
actuellement et pour les prochaines années, un doublement tous les trois ans !
Le défaut majeur des éoliennes est l’intermittence du vent et de ce fait, leur production
peut varier d’un facteur 30 d’un jour à l’autre. Cette irrégularité en rend la connexion à un
réseau problématique. Pendant la canicule de 2003, un anticyclone bloquait tous les vents et la
production européenne d’électricité éolienne n’a pas atteint 5 % de la puissance théorique.
D’une façon générale, sous nos climats, la puissance produite en moyenne au cours d’une
année n’est que le quart environ de la puissance installée.
Le développement des « fermes » éoliennes en mer, actuellement en cours, présente deux
grands avantages : d’une part, des nuisances réduites pour les habitants et, d’autre part, la
chance de pouvoir bénéficier, en mer, de vents souvent forts et plus réguliers mais leur mise
en œuvre et leur maintenance sont difficiles.
17. Que pouvons espérer du soleil comme source d’énergie ?
Le Soleil éclaire notre Terre, en y apportant une très grande quantité de chaleur. Cette
puissance correspond, compte tenu de la température moyenne de la surface du soleil, estimée
à environ 5 750 K, à des rayonnements de courtes longueurs d’ondes proches de ce qu’on
appelle la lumière visible. Le système « Surface terrestre-atmosphère » (STA) atteint alors
une certaine température moyenne, correspondant à l’équilibre entre le flux solaire reçu et
absorbé dans ce système, reçu en « lumière visible », et celui émis par le système « STA » luimême, correspondant à des températures moyennes proches de 300 K, associées à ce qu’on
appelle l’infrarouge proche et lointain. Le flux d’énergie que nous recevons du Soleil, un
grand réacteur nucléaire, est sensiblement constant, avec de petites fluctuations, dans le
temps, la plus connue correspondant à une période d’une douzaine d’années.
Sur le flux solaire atteignant la Terre, une partie non négligeable ne participe pas à
l’équilibre thermique du système « STA » parce qu’elle est réfléchie (sur les glaciers par
exemple, ou les déserts) ou diffusée. Cette fraction, qu’on appelle l’albédo, bien connue parce
que mesurée régulièrement par satellite, est d’environ 30 à 31 %.
L’énergie totale provenant du Soleil interceptée par la Terre est, après déduction de
l’albédo qui ne participe pas à l’équilibre thermique du système « Surface terrestre–
atmosphère », d’environ sept mille fois plus grande que la consommation totale d’énergie
13
mondiale, dispersée il est vrai sur la surface totale de la Terre, y compris sur les mers et
océans qui occupent plus des 2/3 de la surface du globe. Ce gisement est donc « suffisant »
pour satisfaire tous les besoins de l’humanité. Encore faut-il pouvoir l’exploiter.
Le rayonnement solaire est, par exemple, directement absorbé par les matériaux des
bâtiments qui restituent la nuit la chaleur qu’ils ont emmagasinée pendant le jour. On peut de
même faire chauffer l’eau sanitaire grâce à des échangeurs thermiques et la stocker dans des
ballons convenablement isolés, capable d’empêcher le refroidissement pendant des durées de
l’ordre de la journée ; de tels dispositifs sont insuffisamment utilisés en France. En France
métropolitaine, une habitation individuelle répondant à une norme courante qui prescrit des
pertes thermiques allant de 100 à 120 kWh/m² par an, peut tirer du solaire le tiers de ses
besoins en chauffage et les deux tiers de ses besoins en eau sanitaire. On peut aller bien plus
loin dans des « maisons passives » de conception moderne qui ne perdent que 15 à 20
kWh/m² par an. On parle maintenant de bâtiments à énergie positive.
D’une manière plus générale, nul ne doit perdre de vue que le Soleil est notre source
d’énergie essentielle. Le charbon, le pétrole et le gaz ne sont que le résultat de la
décomposition de biomasses qui se sont développées sous l’influence du rayonnement solaire.
Ces produits sont en quelque sorte des « concentrés » de rayonnements solaires passés. Certes
on peut aussi compter sur quelques sources non solaires : la géothermie, l’énergie des marées
liées à l’attraction lunaire, l’uranium minerai essentiel à l’énergie nucléaire.
Pour le reste, nous pouvons bénéficier de ressources toutes renouvelables et d’origine
solaire : l’hydraulique, les vents, la houle et les courants marins, l’énergie solaire utilisée sous
forme thermique, l’énergie solaire exploitée par voie thermodynamique aux fins de
production d’électricité, les systèmes photovoltaïques enfin. À ces formes d’énergie il
convient d’ajouter bien sûr les biomasses de toutes origines.
Enfin, on ne perdra pas de vue qu’au-delà de ce qu’on pourrait appeler des énergies
explicites, fossiles et renouvelables, l’espèce humaine mobilise des consommations
implicites d’ampleur significative. Il s’agit, bien entendu de l’énergie solaire nécessaire à la
production des végétaux que l’Homme utilise pour son alimentation, nécessaire à
l’alimentation des animaux qui figurent à notre table, se nourrissant le plus souvent de
végétaux. C’est donc, la quasi-totalité de la ration alimentaire mondiale proche de 2 500
kcal/(hab.jour) soit 10 450 kJ/(hab.jour) qui participe à ces consommations implicites. Il s’agit
aussi, par exemple, des activités de séchage, souvent naturel, au soleil, de nombreux produits
alimentaires et des fourrages.
18. Le soleil source directe d’énergie : le photovoltaïque ?
Si les cellules photoélectriques sont connues et utilisées depuis longtemps, l’extension de
dispositifs les intégrant a été considérable au cours de ces dernières années. Il s’agit
actuellement du mode de production d’énergie qui a, dans le monde, le taux d’accroissement
annuel le plus important. On estime qu’au niveau mondial, à la fin de 2011, l’ensemble des
modules photovoltaïques correspondait à une production égale à environ 60 à 70 GWc, des
« watts-crête » qui correspondent à la conversion maximale dans la journée (la production
moyenne est donc plus modeste).
La transformation du rayonnement solaire en énergie électrique s’effectue grâce à des
cellules photoélectriques. Ces dernières sont constituées de semi-conducteurs, à base de
silicium monocristallin ou, le plus souvent, de silicium polycristallin. Beaucoup d’autres
matériaux, amorphes par exemple, peuvent être utilisés et les recherches sont nombreuses qui
conduisent à des améliorations régulières des rendements de conversion. Ces rendements, qui
14
représentent la quantité d’énergie électrique disponible aux bornes du système rapportée à
l’énergie reçue, se situent actuellement entre 10 et 20 %.
Les cellules photoélectriques font partie maintenant du quotidien, en particulier pour
l’alimentation de petits dispositifs et machines de la vie quotidienne, comme, par exemple,
les calculettes, les bornes d’appel de secours en bordure des autoroutes, l’éclairage de
certaines fractions de route, …. Les modules solaires ont dû également leur réputation à
l’usage qui en a été fait pour l’alimentation en électricité des satellites et autres modules
spatiaux.
Dans la perspective d’usages plus importants, pratiquement, les modules solaires peuvent
être utilisés dans des installations correspondant à des sites isolés : ils produisent alors du
courant continu et sont associés le plus souvent à des batteries de stockage. Si l’installation est
plus importante, on a recours à un onduleur pour transformer le courant continu produit en
courant alternatif, avant qu’il ne soit injecté dans le réseau électrique proche.
S’il existe des projets de très grande taille, mobilisant des surfaces importantes, dans des
zones désertiques notamment, l’extension la plus significative actuellement est liée à
l’équipement de nombreuses surfaces moyennes très courantes : toits de bâtiments
agricoles, tribunes de stades, locaux industriels.
19. Le stockage de l’électricité est-il possible à grande échelle ?
On distingue souvent en énergétique ce qu’on appelle des sources d’énergie d’une part et,
d’autre part, des vecteurs énergétiques. Par exemple, on pourra dire que le vent ou les
courants marins, ou les combustibles fossiles, sont des sources d’énergie possibles.
Parmi les vecteurs énergétiques, l’électricité joue un rôle tout à fait privilégié. Sa
souplesse et sa commodité d’usage en font un élément essentiel des modes de vie et le critère
d’accès à l’électricité est un élément important de développement des activités humaines. De
nombreuses fractions de la population, dans le monde, en sont encore privées.
Si la production d’électricité, comme son acheminement par des réseaux, reposent sur de
nombreuses technologies toujours en évolution, la difficulté principale d’usage de ce vecteur
réside dans le fait que l’électricité ne se stocke pas aussi facilement que le pétrole, le gaz,
ou bien d’autres sources ou vecteurs d’énergie. On va même parfois jusqu’à dire que
l’électricité ne se stocke pas, ce qui n’est heureusement que partiellement vrai.
Si depuis longtemps des piles et batteries de tous types sont utilisées pour des stockages
d’ampleurs plus ou moins grandes (usages domestiques, véhicules, systèmes de sécurité dans
l’industrie,…), ces démarches ne sont pas à la hauteur d’enjeux plus importants, liés à deux
éléments importants.
D’une part, la consommation d’électricité est très irrégulière, variant au cours du temps,
fortement, à chaque seconde selon les activités des uns et des autres, avec parfois des « pics »
de consommation importants – en France, comme dans beaucoup d’autres pays l’ampleur des
pics de consommation rencontrés chaque année croît plus vite que la consommation moyenne
elle-même. D’autre part, l’appel aux énergies renouvelables, particulièrement le
photovoltaïque et l’éolien, introduit des irrégularités fortes dans la production.
La gestion des irrégularités dans la consommation et des intermittences dans la production
repose sur les progrès considérables, en cours, sur la gestion des réseaux électriques, sur
15
leurs interconnexions, … (ce qu’on appelle parfois les « réseaux intelligents » ou, en anglais,
les smart grids).
Quant au stockage lui-même, plusieurs voies sont possibles. Tout d’abord, on peut profiter
d’excès instantanés d’électricité pour fabriquer des produits qui eux sont stockables, par
exemple dessaler de l’eau de mer et stocker de l'eau douce en vue d'une utilisation ultérieure à
la demande… On peut aussi imaginer que certaines productions renouvelables d’électricité
soient utilisées pour la production d’hydrogène, un vecteur d’énergie qui a un potentiel
encore à développer.
Le plus classique actuellement des procédés de stockage reste le stockage « gravitaire » :
l’excès de production d’électricité est mobilisé pour « recharger », par pompage, les stocks
d’eau de certains barrages hydroélectriques qui sont ensuite utilisés normalement pour faire
face aux pointes de consommation. On désigne ces systèmes sous le nom de stations de
transfert d’énergie par pompage ou STEP.
20. Quel avenir pour les centrales électriques « solaires à concentration » ?
Par le vocable « solaire à concentration » ou « solaire thermodynamique » on fait bien la
distinction entre le « solaire thermique », destiné à capter l’énergie thermique reçue
directement du soleil et à l’utiliser directement en quelque sorte (capteurs à eau chaude,
systèmes de séchage, …) et une mobilisation de l’énergie solaire aux fins de produire de
l’électricité. Il convient, alors, dans l’appréciation des performances des dispositifs de ne pas
perdre de vue la combinaison de deux « rendements » : d’une part, la fraction du flux solaire
incident réellement captée sous forme de chaleur, une sorte de « rendement de captation », et,
d’autre part, le rendement du système de production d’électricité, à partir de la vapeur d’eau
(rendement de Carnot).
L’élément clé de toute production d’électricité à partir du rayonnement solaire est bien sûr
la concentration d’une énergie reçue très dispersée par nature. Quatre types de dispositifs à
concentration sont actuellement testés et pratiquement utilisés, parfois à grande échelle : les
miroirs cylindro-paraboliques, les tours solaires à concentration, les miroirs paraboliques
combinés avec des moteurs Stirling et, enfin, les miroirs de Fresnel.
Les miroirs cylindro-paraboliques correspondent à des structures de type cylindre droit à
section droite parabolique. Ces structures, généralement orientables par rotation autour d’un
axe horizontal, le plus souvent fixe, sont disposées sur le sol, parallèlement les unes aux
autres, orientées pour recueillir un maximum d’énergie solaire.
Les rayons solaires sont concentrés sur un tube à double enceinte (métallique à l’intérieur,
type verre à l’extérieur pour profiter d’un effet de serre) disposé le long de la ligne focale du
miroir. Un fluide de travail, liquide organique ou plus souvent un sel fondu circule à
l’intérieur du tube. Chauffé à très hautes températures (150-350 °C, voire plus), il est utilisé
comme source de chaleur pour une production d’électricité. Il est à noter que, très souvent, un
réservoir de fluide chaud est intégré dans le dispositif pour permettre une production continue
d’électricité, par exemple. Assez souvent de plus, on complète la production électrique
nocturne, à partir du fluide stocké dans la journée, par des turbines à gaz.
Plusieurs installations, fonctionnant parfois depuis longtemps, sont représentatives de ce
type de système, qui est fortement majoritaire parmi les quatre voies possibles en solaire
thermodynamique. Plus d’une quarantaine sont actuellement opérationnelles. Les centrales en
construction correspondent à bien plus de 2 000 MW de puissance supplémentaire. L’une des
plus anciennes, parmi les installations de puissance est la centrale de Kramer Junction, en
16
Californie. Plus grande installation dans le monde, encore à ce jour, parmi les dispositifs à
concentration de tous types, construite en 1985, elle a commencé à fonctionner en 1987, avec
5 unités de 33 MW, chacune correspondant à une surface de captation d’environ 200 000 m2.
Une tour solaire, quant à elle, comporte deux éléments principaux : un réseau important
de miroirs plans orientables et une tour au sommet de laquelle se situe un dispositif de
collecte de l’énergie thermique. Le fluide de travail peut être stocké à haute température (5001 000 °C), ce qui est un atout en matière de production électrique continue. Quelques projets
ont recours à l’air comme fluide récepteur, sous pression, de l’énergie renvoyée par les
miroirs au sommet de la tour. Depuis la première installation (Albuquerque, aux États-Unis, 5
MW, 1976), jusqu’à la dernière inaugurée en Espagne (Andalousie, 20 MW, octobre 2011),
avec le statut de « centrale commerciale », une petite dizaine de centrales à tour ont été
construites dans le monde, avec des puissances unitaires de 5 à 20 MW, mais des projets de
plus grande puissance sont en cours d’étude.
Les miroirs paraboliques, associés à des moteurs Stirling, sont des combinaisons de
récepteurs d’énergie solaire et de dispositifs de production d’électricité par moteur Stirling. Le
fluide de travail est chauffé au foyer d’un miroir parabolique, orientable. Les températures au
niveau du récepteur sont comprises entre 250-700 °C. Ces dispositifs sont ceux qui ont le
meilleur rendement global parmi les dispositifs à concentration, en termes de production
électrique. D’autre part, leur caractère modulaire (un moteur Stirling associé à un capteur
parabolique, avec une puissance produite de 10 à 30 kW) permet une très bonne adaptation à
tel ou tel projet. Des projets regroupant, parfois en très grand nombre, de tels dispositifs sont
en cours de réalisation, avec des puissances totales très supérieures à la dizaine de mégawatts,
en particulier en Australie.
Encore marginales dans la filière « solaire thermodynamique », les centrales solaires à
miroir de Fresnel pourraient devenir plus compétitives que les systèmes utilisant des miroirs
plus conventionnels. Inventée par le physicien français A. Fresnel, la lentille de Fresnel a été
conçue initialement pour équiper le système optique des phares de signalisation marine. Le
système est aujourd’hui repris à grande échelle pour concentrer le rayonnement solaire sur un
tube horizontal. Le principe d’un tel concentrateur réside dans ses miroirs plans (plats)
horizontaux : chacun de ces miroirs peut pivoter autour d’un axe horizontal en suivant la
course du soleil pour rediriger et concentrer en permanence les rayons solaires vers un tube
absorbeur horizontal situé au-dessus des miroirs. Un fluide caloporteur est chauffé jusqu’à
500 °C en circulant dans ce tube horizontal. Cette énergie est transférée à un circuit d’eau, la
vapeur alors produite actionne une turbine qui produit de l’électricité.
Sur les quatre registres évoqués, l’ensemble des installations opérationnelles dans le
monde correspondent, en cumulé, pour la seule récupération d’énergie solaire, hors la
production électrique obtenue par la combustion du gaz, dans les centrales qui font appel à ce
complément (dans certains cas, d’ailleurs, la combustion du gaz est plus importante que la
collecte d’énergie solaire), à environ 1 000 à 2 000 MW. Si les pays les plus actifs sont, sans
aucun doute, les États-Unis et l’Espagne, on note des projets dans de nombreux autres pays.
Si on prend en compte, toutes les centrales solaires en construction dans le monde, on peut
facilement imaginer qu’au très court terme de deux à trois ans, la puissance totale disponible
par l’ensemble des centrales solaires thermodynamiques se situera entre 5 et 15 GW.
17
21. Utiliser le « chauffage central » de la Terre et faire appel à la
géothermie ?
Le cœur de la Terre est le siège de conditions thermodynamiques extraordinairement
sévères en termes de pression et température, liées à la chaleur d’accrétion initiale et à une
forte radioactivité. Sous une croûte terrestre solide relativement mince de l’ordre de
grandeur de la dizaine ou la vingtaine de kilomètres d’épaisseur (à l’exception notable des
volcans actifs), se trouve un manteau liquide qui fournit les laves des volcans et sur lequel se
déplacent les divers éléments de la croûte terrestre.
Le flux de chaleur géothermique, venant des profondeurs terrestres, par conduction à
travers les couches géologiques superficielles est très très faible en regard du flux reçu du
soleil et absorbé par le système « STA », en moyenne près de 10 000 fois moindre, à
l’exception bien sûr des zones à forte activité volcanique, où le magma est plus proche de la
surface.
Il n’en demeure pas moins qu’au fur et à mesure que l’on descend dans les profondeurs des
couches géologiques, la température s’élève, en moyenne de 3 °C par 100 m. Dans certaines
zones, cette élévation de température est plus forte ; il n’est pas rare alors que l’eau venant des
précipitations en surface pénètre la croûte terrestre à de grandes profondeurs. Qu’elle refasse
surface naturellement, comme une source artésienne d’eau chaude, ou qu’elle soit produite
par forage, l’eau joue alors le rôle d’un fluide caloporteur, permettant la récupération de
l’énergie accumulée dans les couches superficielles de la croûte terrestre.
On peut également imaginer forer assez profondément pour trouver des roches chaudes
sèches et créer une sorte d’échangeur où on peut injecter de l’eau froide et récupérer de la
vapeur, à condition que la roche soit suffisamment fracturée ; cette forme de géothermie,
onéreuse et complexe, n’a pas fait l’objet de projets réels, satisfaisants sur le plan
économique.
Selon les niveaux de température de l’eau chaude produite en surface, on parlera de haute
énergie, si elle conduit à la production d’électricité, d’énergie moyenne ou de basse énergie.
Pour la « haute énergie », lorsque la température est supérieure à 150 °C, voire beaucoup
plus, la production d’électricité est possible (par vaporisation de l’eau et passage à travers des
turbines). Ainsi, parmi les pays producteurs d’électricité « géothermique », on notera, dans
l’ordre décroissant les pays suivants : les États-Unis, Philippines, Mexique, Italie, Japon, ….
La plus ancienne des installations de grande puissance est celle de Larderello en Italie (1904)
qui a une production actuelle de plus de 500 MW, l’une des plus récentes a été inaugurée au
Kenya, en juillet 2012 (près de Nairobi : une eau à 300 °C à 2 000 m de profondeur, plusieurs
tranches prévues de 300 MW environ chacune). Sur le territoire national, on notera la centrale
de Bouillante en Guadeloupe.
En ce qui concerne la géothermie « basse énergie », elle est principalement dédiée au
chauffage des habitations et autres bâtiments, voire au chauffage de serre, de piscines, …
en Chine, aux États-Unis, en Islande, France, Japon, …, avec un très fort accroissement des
puissances mobilisées. Si toutes ces formes de géothermie sont favorisées actuellement, on
notera aussi, en moyenne et basse énergies, lorsque la situation s’y prête un renouveau des
« doublets géothermiques » pour le chauffage collectif de certains habitats ou ensemble de
bureaux. On parle de doublet quand, comme dans le cas de la région parisienne, l’eau chaude
produite (80 °C entre 800 et 1 500 m de profondeur), très salée, doit être réinjectée, froide,
dans la même couche géologique. Cette situation particulière mais assez fréquente (tel n’est
pas le cas pour le bassin aquitain où les eaux concernées sont douces et potables) justifie que
18
l’on ne classe pas systématiquement l’énergie géothermique dans les énergies renouvelables,
une mauvaise estimation des distances entre puits de soutirage et puits d’injection d’eau
pouvant conduire à l’échec par l’invasion du puits « producteur » par l’eau injectée, froide.
On ne perdra pas de vue également que le développement des techniques ayant recours au
sol peu profond comme élément de la thermique d’une habitation, une tendance qui
s’affirme, motivée qu’elle est par le coût croissant de l’énergie. Sous le nom de géothermie,
on retrouve alors des techniques d’échanges de chaleur entre le sol avoisinant une habitation,
source de chaleur l’hiver et source froide l’été, très couramment pratiquées maintenant (le
« puits canadien » relève par exemple de la même démarche). L’efficacité des dispositifs mis
en œuvre peut également être grandement améliorée par le recours, de plus en plus fréquent
aux pompes à chaleur.
22. Que pouvons-nous espérer de la mer : énergie mécanique, énergie
thermique ?
La première voie pour exploiter les ressources de l’océan a consisté à faire appel à
l’énergie mécanique des masses d’eau soumises aux effets de la marée. Il était tentant de
profiter des marées pour mouvoir des turbines. Dans le souci d’élaborer des installations de
grande puissance, l’attention s’est bien sûr portée sur des régions du globe où les amplitudes
des marées étaient particulièrement importantes L’énergie des marées sert à faire fonctionner
l’usine marémotrice de la Rance qui est unique en son genre à l’échelle mondiale.
Des dispositifs sont à l’étude pour utiliser l’énergie des vagues et celle des courants
marins. Nombreux sont les dispositifs en cours d’étude et/ou d’essais. On distingue des
systèmes destinés à capter l’énergie contenue dans les houles, dispositifs terrestres ou en
pleine mer, des hydroliennes, plus classiques, équivalentes en quelque sorte aux éoliennes.
Elles sont bien sûr d’une taille plus restreinte. En effet à vitesses équivalentes, l’énergie
cinétique contenue dans un volume d’eau liquide est nettement supérieure à celle contenue
dans un volume d’air, le rapport entre elles étant le rapport des masses volumiques entre eau
liquide et air à la pression atmosphérique qui est d’environ 800.
Une autre voie, enfin, évoquée depuis près d’un siècle, s’est intéressée à l’utilisation de la
différence de température qui existe entre les eaux de surface et les eaux profondes des mers
chaudes, parfois une vingtaine de degrés. La quantité d’énergie disponible, que l’on appelle
parfois « énergie thermique des mers », est considérable. La dimension des installations
nécessaires et la protection contre les agressions du milieu marin sont des obstacles qui,
jusqu’à aujourd’hui, se sont opposés à la concrétisation de projets opérationnels.
19