Une crise en physique

Transcription

Une crise en physique
Une crise en physique ?
Entre déterminisme et imprévisibilité
Roger Balian, Académie des Sciences,
Institut de Physique Théorique, Saclay
Le physicien à qui il est proposé de parler dans un cycle de conférences sur « La
Crise » est d’abord surpris. Même s’il constate que la physique, détrônée depuis un demi
siècle par la biologie, n’est plus la science reine, il est conscient des immenses progrès de
sa discipline, toujours très vivante, dont la précision des prévisions ne cesse de croître et
dont le champ ne cesse de s’élargir – de l’optique quantique aux particules élémentaires,
des nanosciences à la cosmologie, de l’instrumentation à la science des matériaux, de la
biophysique à la géophysique. Si crises il y a, c’est aux marges de la physique. Ce
foisonnement même, ainsi que la mathématisation croissante de la physique, rendent sa
vulgarisation de plus en plus difficile, ce qui contribue à une désaffection du grand public.
Nous parlerons ici d’une autre crise, plus spécifique et moins visible, qui touche à la
signification philosophique des assertions en physique.
Jusque vers la fin du XIXe siècle s’était forgée une vision déterministe pure et dure
de la physique. Selon cette conception, l’état d’un système est entièrement caractérisé à
chaque instant par la valeur d’un certain nombre de grandeurs ; ce sont par exemple les
positions et vitesses des corpuscules constituant le système, ou bien, lorsque celui-ci se
comporte comme un continuum, ce sont des variables définies en chaque point, comme la
pression locale d’un gaz ou l’intensité d’un champ magnétique. Il est admis que ces
grandeurs physiques peuvent prendre des valeurs bien définies, même si celles-ci ne sont
pas directement accessibles à l’expérience ; rien ne s’oppose théoriquement à ce qu’elles
soient déterminées avec une précision arbitrairement grande. L’évolution de ces variables
est régie par des principes ou des lois qui s’expriment par des équations comme celles de la
dynamique newtonienne, ou celles de la mécanique des fluides, ou celles de Maxwell pour
le champ électromagnétique. A partir de l’état du système à un instant t, les équations du
mouvement le déterminent alors parfaitement à un autre instant t', soit postérieur
(prédiction), soit antérieur (rétrodiction).
La physique contemporaine nous a forcés à abandonner ce rêve d’une description
déterministe parfaite. Certes, l’existence d’incertitudes expérimentales était depuis toujours
prise en compte, mais il nous faut désormais vivre avec d’inévitables incertitudes
théoriques. Nous évoquerons ci-dessous trois domaines de la physique où des limitations à
la possibilité de prévision ont rendu nécessaire d’incorporer l’incertitude au cœur même de
la théorie. L’activité quotidienne des chercheurs a ainsi profondément influencé leur vision
du monde : l’hypothèse prométhéenne selon laquelle la science constitue un moyen de se
rapprocher d’une connaissance totale a été invalidée par le caractère incontournable des
incertitudes.
Physique statistique. On peut considérer l’élaboration, dans la seconde moitié du
XIXe siècle, de la théorie cinétique des gaz (d’ailleurs sujet de controverses à l’époque)
comme la première étape de cette crise épistémologique. La théorie cinétique part d’un
constat, la simplicité de la nature d’un gaz à l’échelle microscopique : c’est une assemblée
de molécules quasi ponctuelles, pouvant subir de brèves collisions binaires selon une loi
mécanique connue, et se déplaçant librement entre collisions successives. On cherche à
déduire de cette structure les diverses propriétés du gaz observées à l’échelle
macroscopique (comme sa pression, sa température, sa chaleur spécifique ou sa viscosité).
Les équations différentielles régissant la dynamique des positions et vitesses des
constituants élémentaires s’écrivent formellement sans peine, mais elles sont inexploitables.
La difficulté réside dans le nombre gigantesque de variables : 1 mm3 d’air comporte 3.1016
molécules ! Une telle masse de données ne pourra jamais être manipulée, même à l’aide des
moyens informatiques les plus puissants, et il est totalement impensable de caractériser
dans quel état microscopique se trouve le gaz qui nous intéresse.
La description théorique détaillée d’un système individuel étant inaccessible, il reste
une échappatoire : étudier non pas un échantillon particulier de gaz, mais un ensemble
statistique d’échantillons, tous préparés dans des conditions macroscopiques similaires. Si
par exemple on ne se donne que le nombre de particules et leur énergie totale, les positions
et vitesses des molécules constitutives restent largement indéterminées ; on doit alors se
contenter d’une étude statistique. On abandonne ainsi une description déterministe
inaccessible au profit d’une description probabiliste, qui se révèle maîtrisable. Dans ce
cadre, rien a priori n’interdit à une grandeur collective macroscopique comme la pression
du gaz de faire l’objet de fluctuations statistiques : cette grandeur pourrait être mal définie,
varier dans l’espace ou dans le temps. Mais l’immensité du nombre de molécules, qui nous
avait interdit de concevoir une description détaillée du gaz, a une contrepartie favorable. En
théorie des probabilités, la loi mathématique des grands nombres permet de faire certaines
prévisions avec une quasi certitude malgré le caractère aléatoire des processus
élémentaires ; par exemple, lors d’un grand nombre N de lancers d’une pièce de monnaie, le
rapport entre les nombres de pile et de face sera presque toujours voisin de l’unité, à 1/√N
près. De même, malgré notre énorme incertitude sur les positions et vitesses des molécules
individuelles, les fluctuations statistiques de la pression sont négligeables grâce au grand
nombre de particules, de sorte que cette grandeur apparaît à notre échelle comme bien
définie, uniforme et constante dans le temps. Bien que la théorie parte d’une description
microscopique fortement aléatoire, elle permet d’établir un comportement macroscopique
bien déterminé, en accord avec l’observation.
Ce genre d’approche, où des systèmes formés d’un très grand nombre de
constituants élémentaires sont traités par des méthodes probabilistes, a connu tout au long
du XXe siècle des développements considérables, donnant naissance à l’une des branches le
plus vivantes de la physique théorique contemporaine, la physique statistique. A l’échelle
atomique, tous les matériaux ont une structure simple et universelle : ils sont constitués de
noyaux atomiques et d’électrons en interaction coulombienne. L’état d’un objet, caractérisé
à notre échelle par un nombre relativement faible de variables collectives, est décrit à
l’échelle microscopique par une loi de probabilité, et c’est de celle-ci que l’on cherche à
déduire le comportement macroscopique de l’objet. On a réussi ainsi à comprendre et
calculer les propriétés macroscopiques les plus diverses (mécaniques, thermiques,
électriques, optiques, magnétiques, dynamiques, etc.) de toutes sortes de matériaux. De
plus, on retrouve les « principes » de la thermodynamique comme de simples conséquences
des lois microscopiques. Un aspect remarquable de ce passage du microscopique au
macroscopique est l’émergence de phénomènes qualitativement nouveaux comme
l’irréversibilité ou les transitions de phase. Grâce à la loi des grands nombres, le caractère
aléatoire microscopique est masqué au profit d’un déterminisme macroscopique. La théorie
rend aussi compte des fluctuations statistiques, observables dans certaines circonstances.
Chaos déterministe. La dynamique des fluides peut exhiber à notre échelle un
caractère aléatoire d’un autre type, la turbulence. Dans un écoulement laminaire, comme
celui d’un ruisseau tranquille, on peut prévoir avec précision les trajectoires des éléments de
fluide ; deux bouchons flottants, initialement proches, restent proches. Au contraire, dans
l’écoulement turbulent d’un torrent, le mouvement est chaotique : les deux bouchons
s’écartent de manière imprévisible à long terme. Pourtant les équations du mouvement sont
les mêmes dans les deux cas. De façon semblable, les prévisions météorologiques sont plus
aléatoires dans la zone tempérée que dans les zones polaires ou tropicales, car la plus forte
turbulence réduit la durée de fiabilité des prévisions. Une petite perturbation, difficile à
détecter initialement, peut modifier radicalement l’évolution ultérieure : c’est le célèbre
« effet papillon ».
Ces phénomènes peuvent même concerner des systèmes dynamiques ne mettant en
jeu qu’un faible nombre de coordonnées. Considérons par exemple deux pendules couplés.
Leurs petites oscillations sont régulières, mais leurs mouvements de grande amplitude sont
chaotiques. L’un des pendules peut par exemple communiquer par intermittence une grande
partie de son énergie à l’autre, donnant l’impression d’un comportement aléatoire ; le
système bascule de manière inattendue d’un comportement à un autre. Pourtant, il est régi
par des lois dynamiques simples et connues. Si l’état initial est donné avec une précision
mathématique totale, l’état à tout instant ultérieur est en principe parfaitement déterminé
par ces équations du mouvement. Mais une déviation minime de l’état initial est amplifiée
exponentiellement au cours du temps, de sorte que le mouvement devient progressivement
de moins en moins prévisible. Cette extrême sensibilité aux petites perturbations est une
propriété mathématique, découverte par Poincaré, liée à la non linéarité des équations
dynamiques. L’évolution est déterministe, mais pratiquement imprévisible à long terme.
L’oxymore « chaos déterministe » désigne ce phénomène paradoxal.
Un autre exemple est fourni par la mécanique céleste où les trajectoires des planètes
sont gouvernées par les équations de Newton. Le mouvement d’une planète unique autour
de son étoile obéit aux lois de Kepler, et peut être prédit sur toute échelle de temps.
Cependant, dans le système solaire, les interactions entre planètes, quoique faibles,
perturbent leurs trajectoires. On peut calculer celles-ci avec précision, comme en témoigne
la découverte de Neptune en 1846 par Le Verrier sur la base d’observations des autres
planètes et de calculs. Mais la résolution des équations qui régissent le système solaire ne
permet pas de déterminer sa configuration au delà de 100 millions d’années. La dynamique
du système est chaotique ; un faible changement des positions pourrait par exemple aboutir
à l’éjection de Mercure en raison de son attraction par Jupiter.
Physique quantique. Le XXe siècle a vu la naissance et l’épanouissement de la
mécanique quantique, qui régit les objets à l’échelle microscopique. Base de la physique et
de la chimie, cette théorie fait encore intervenir des incertitudes, mais celles-ci ont ici une
nature fondamentale : c’est conceptuellement qu’on ne peut s’en affranchir. En physique
statistique comme pour le chaos déterministe, il n’était pas interdit d’imaginer l’existence
d’une description idéalement précise de l’objet considéré, même si une telle description
était inaccessible en pratique. Ici, même pour les objets les plus simples, la description la
plus détaillée possible reste toujours imparfaite.
Considérons par exemple une particule se déplaçant librement sur une droite. Deux
grandeurs physiques lui sont attachées, sa position x sur la droite et sa vitesse v. En
mécanique classique l’état de cette particule à un instant donné serait simplement
caractérisé par deux nombres déterminant ces grandeurs. En réalité, la particule obéit aux
lois de la mécanique quantique, qui ont modifié la notion même de grandeur physique afin
d’être en adéquation avec la réalité observée : les grandeurs ne sont plus représentées par de
simples nombres mais par des objets algébriques ressemblant à des variables aléatoires. On
n’a pas le droit d’imaginer qu’elles prennent une valeur bien définie ; la physique quantique
ne fournit que leur probabilité, avec une certaine incertitude nécessairement présente. Par
exemple, la position x et la vitesse v d’une particule de masse m présentent des fluctuations
statistiques ∆x et ∆v bornées inférieurement par l’inégalité de Heisenberg ∆x ∆v ≥ ћ/2m (où
ћ = 1,055 · 10–34 est la constante de Planck–Dirac). Elles ne sont donc jamais déterminées
avec une meilleure précision.
Bien que les règles de la physique quantique soient mathématiquement rigoureuses
et en accord avec l’expérience, elles portent seulement sur des probabilités, de sorte que la
nature même des concepts implique un certain flou, peu visible à notre échelle mais crucial
à l’échelle atomique. On vient de le voir avec la position et la vitesse d’une particule. De
même, dans la description d’un électron, ou dans celle de la lumière, les concepts d’onde et
de corpuscule coexistent mais ne sont pas nets ; le champ électrique et le champ
magnétique en un point ne peuvent être précisés parfaitement. Cependant, si à un instant
donné les incertitudes sont inévitables, la dynamique quantique est déterministe (et
réversible), comme l’illustre l’équation de Schrödinger qui régit l’évolution d’un objet.
Alors que notre connaissance de l’état initial est irréductiblement probabiliste, notre degré
d’incertitude sur le système à un instant ultérieur n’est pas modifié par la dynamique. Les
défauts de prévision ne tiennent qu’aux incertitudes sur les grandeurs physiques à l’instant
initial, et non à une perte d’information au cours de l’évolution.
En définitive, nous avons mis en évidence des jeux subtils entre déterminisme et
incertitude. En physique statistique, l’immense nombre de constituants nous condamne à
une description microscopique probabiliste, mais permet aussi aux grandeurs
macroscopiques de prendre des valeurs quasi certaines malgré notre méconnaissance sur les
constituants : le déterminisme émerge de l’aléatoire. Pour un phénomène chaotique, les
équations dynamiques sont connues et déterministes, mais le comportement à long terme
est imprévisible dès lors que la moindre incertitude existe sur l’état initial. Enfin, la
physique quantique est irréductiblement probabiliste ; elle allie un flou inhérent au concept
de grandeur physique au déterminisme de l’évolution. Il a donc fallu abandonner le
déterminisme strict tel qu’on le concevait au XIXe siècle. Un outil mathématique a
contribué à résoudre cette crise, la théorie des probabilités, qui permet malgré la présence
d’incertitudes de faire des prévisions et d’évaluer leur degré de fiabilité. Tout en ne
fournissant pas une connaissance absolue et définitive, la physique progresse ainsi en
rendant de mieux en mieux compte du réel. Cependant, la nécessité de l’emploi des
probabilités a des implications philosophiques. On décrit non des objets individuels, mais
des ensembles statistiques d’objets tous préparés dans des conditions semblables. De plus,
l’observateur n’est pas absent de la théorie, puisque les probabilités caractérisent non une
propriété intrinsèque d’un objet, mais la connaissance que nous en avons.
ENCADRÉ.
Laplace et le déterminisme. Lorsqu’on discute la conception déterministe de la
physique, il est traditionnel de citer les phrases de Laplace: « Nous devons donc envisager
l’état présent de l’univers comme l’effet de son état antérieur, et comme la cause de celui
qui va suivre. Une intelligence qui pour un instant donné connaîtrait toutes les forces dont
la nature est animée et la situation respective des êtres qui la composent, si d’ailleurs elle
était assez vaste pour soumettre ses données à l’analyse, embrasserait dans la même
formule les mouvements des plus grands corps de l’univers et ceux du plus léger atome :
rien ne serait incertain pour elle, et l’avenir, comme le passé, serait présent à ses yeux. »
Ce texte est souvent interprété comme une profession de foi du plus strict déterminisme. On
oublie cependant qu’il est extrait de l’introduction de l’« Essai philosophique sur les
probabilités ». Replacé dans son contexte, il exprime une conception nuancée de la
prévisibilité. L’« intelligence » dont il y est question n’est pas humaine : Laplace est tout à
fait conscient de ce que, sauf cas exceptionnels, le programme déterministe (que l’on
associe à son nom) est irréalisable. Ces phrases ne sont que le point de départ d’un
raisonnement démontrant la nécessité de la notion de probabilité. Un peu plus loin, on peut
lire : « La courbe décrite par une simple molécule d’air ou de vapeur est réglée d’une
manière aussi certaine que les orbites planétaires : il n’y a de différence entre elles que
celle qu’y met notre ignorance. La probabilité est relative en partie à cette ignorance, en
partie à nos connaissances ». L’allusion dès 1814 à un caractère aléatoire, mal connu, de la
trajectoire des molécules d’un gaz préfigure l’avènement, des décennies plus tard, de la
théorie cinétique. Il est remarquable que, constatant l’impossibilité pratique de mettre le
déterminisme en œuvre, Laplace a été conduit à souligner que « le système entier des
connaissances humaines se rattache à la théorie des probabilités ». Il ne serait pas surpris
de la place centrale qu’elles occupent dans la physique d’aujourd’hui.