Une crise en physique
Transcription
Une crise en physique
Une crise en physique ? Entre déterminisme et imprévisibilité Roger Balian, Académie des Sciences, Institut de Physique Théorique, Saclay Le physicien à qui il est proposé de parler dans un cycle de conférences sur « La Crise » est d’abord surpris. Même s’il constate que la physique, détrônée depuis un demi siècle par la biologie, n’est plus la science reine, il est conscient des immenses progrès de sa discipline, toujours très vivante, dont la précision des prévisions ne cesse de croître et dont le champ ne cesse de s’élargir – de l’optique quantique aux particules élémentaires, des nanosciences à la cosmologie, de l’instrumentation à la science des matériaux, de la biophysique à la géophysique. Si crises il y a, c’est aux marges de la physique. Ce foisonnement même, ainsi que la mathématisation croissante de la physique, rendent sa vulgarisation de plus en plus difficile, ce qui contribue à une désaffection du grand public. Nous parlerons ici d’une autre crise, plus spécifique et moins visible, qui touche à la signification philosophique des assertions en physique. Jusque vers la fin du XIXe siècle s’était forgée une vision déterministe pure et dure de la physique. Selon cette conception, l’état d’un système est entièrement caractérisé à chaque instant par la valeur d’un certain nombre de grandeurs ; ce sont par exemple les positions et vitesses des corpuscules constituant le système, ou bien, lorsque celui-ci se comporte comme un continuum, ce sont des variables définies en chaque point, comme la pression locale d’un gaz ou l’intensité d’un champ magnétique. Il est admis que ces grandeurs physiques peuvent prendre des valeurs bien définies, même si celles-ci ne sont pas directement accessibles à l’expérience ; rien ne s’oppose théoriquement à ce qu’elles soient déterminées avec une précision arbitrairement grande. L’évolution de ces variables est régie par des principes ou des lois qui s’expriment par des équations comme celles de la dynamique newtonienne, ou celles de la mécanique des fluides, ou celles de Maxwell pour le champ électromagnétique. A partir de l’état du système à un instant t, les équations du mouvement le déterminent alors parfaitement à un autre instant t', soit postérieur (prédiction), soit antérieur (rétrodiction). La physique contemporaine nous a forcés à abandonner ce rêve d’une description déterministe parfaite. Certes, l’existence d’incertitudes expérimentales était depuis toujours prise en compte, mais il nous faut désormais vivre avec d’inévitables incertitudes théoriques. Nous évoquerons ci-dessous trois domaines de la physique où des limitations à la possibilité de prévision ont rendu nécessaire d’incorporer l’incertitude au cœur même de la théorie. L’activité quotidienne des chercheurs a ainsi profondément influencé leur vision du monde : l’hypothèse prométhéenne selon laquelle la science constitue un moyen de se rapprocher d’une connaissance totale a été invalidée par le caractère incontournable des incertitudes. Physique statistique. On peut considérer l’élaboration, dans la seconde moitié du XIXe siècle, de la théorie cinétique des gaz (d’ailleurs sujet de controverses à l’époque) comme la première étape de cette crise épistémologique. La théorie cinétique part d’un constat, la simplicité de la nature d’un gaz à l’échelle microscopique : c’est une assemblée de molécules quasi ponctuelles, pouvant subir de brèves collisions binaires selon une loi mécanique connue, et se déplaçant librement entre collisions successives. On cherche à déduire de cette structure les diverses propriétés du gaz observées à l’échelle macroscopique (comme sa pression, sa température, sa chaleur spécifique ou sa viscosité). Les équations différentielles régissant la dynamique des positions et vitesses des constituants élémentaires s’écrivent formellement sans peine, mais elles sont inexploitables. La difficulté réside dans le nombre gigantesque de variables : 1 mm3 d’air comporte 3.1016 molécules ! Une telle masse de données ne pourra jamais être manipulée, même à l’aide des moyens informatiques les plus puissants, et il est totalement impensable de caractériser dans quel état microscopique se trouve le gaz qui nous intéresse. La description théorique détaillée d’un système individuel étant inaccessible, il reste une échappatoire : étudier non pas un échantillon particulier de gaz, mais un ensemble statistique d’échantillons, tous préparés dans des conditions macroscopiques similaires. Si par exemple on ne se donne que le nombre de particules et leur énergie totale, les positions et vitesses des molécules constitutives restent largement indéterminées ; on doit alors se contenter d’une étude statistique. On abandonne ainsi une description déterministe inaccessible au profit d’une description probabiliste, qui se révèle maîtrisable. Dans ce cadre, rien a priori n’interdit à une grandeur collective macroscopique comme la pression du gaz de faire l’objet de fluctuations statistiques : cette grandeur pourrait être mal définie, varier dans l’espace ou dans le temps. Mais l’immensité du nombre de molécules, qui nous avait interdit de concevoir une description détaillée du gaz, a une contrepartie favorable. En théorie des probabilités, la loi mathématique des grands nombres permet de faire certaines prévisions avec une quasi certitude malgré le caractère aléatoire des processus élémentaires ; par exemple, lors d’un grand nombre N de lancers d’une pièce de monnaie, le rapport entre les nombres de pile et de face sera presque toujours voisin de l’unité, à 1/√N près. De même, malgré notre énorme incertitude sur les positions et vitesses des molécules individuelles, les fluctuations statistiques de la pression sont négligeables grâce au grand nombre de particules, de sorte que cette grandeur apparaît à notre échelle comme bien définie, uniforme et constante dans le temps. Bien que la théorie parte d’une description microscopique fortement aléatoire, elle permet d’établir un comportement macroscopique bien déterminé, en accord avec l’observation. Ce genre d’approche, où des systèmes formés d’un très grand nombre de constituants élémentaires sont traités par des méthodes probabilistes, a connu tout au long du XXe siècle des développements considérables, donnant naissance à l’une des branches le plus vivantes de la physique théorique contemporaine, la physique statistique. A l’échelle atomique, tous les matériaux ont une structure simple et universelle : ils sont constitués de noyaux atomiques et d’électrons en interaction coulombienne. L’état d’un objet, caractérisé à notre échelle par un nombre relativement faible de variables collectives, est décrit à l’échelle microscopique par une loi de probabilité, et c’est de celle-ci que l’on cherche à déduire le comportement macroscopique de l’objet. On a réussi ainsi à comprendre et calculer les propriétés macroscopiques les plus diverses (mécaniques, thermiques, électriques, optiques, magnétiques, dynamiques, etc.) de toutes sortes de matériaux. De plus, on retrouve les « principes » de la thermodynamique comme de simples conséquences des lois microscopiques. Un aspect remarquable de ce passage du microscopique au macroscopique est l’émergence de phénomènes qualitativement nouveaux comme l’irréversibilité ou les transitions de phase. Grâce à la loi des grands nombres, le caractère aléatoire microscopique est masqué au profit d’un déterminisme macroscopique. La théorie rend aussi compte des fluctuations statistiques, observables dans certaines circonstances. Chaos déterministe. La dynamique des fluides peut exhiber à notre échelle un caractère aléatoire d’un autre type, la turbulence. Dans un écoulement laminaire, comme celui d’un ruisseau tranquille, on peut prévoir avec précision les trajectoires des éléments de fluide ; deux bouchons flottants, initialement proches, restent proches. Au contraire, dans l’écoulement turbulent d’un torrent, le mouvement est chaotique : les deux bouchons s’écartent de manière imprévisible à long terme. Pourtant les équations du mouvement sont les mêmes dans les deux cas. De façon semblable, les prévisions météorologiques sont plus aléatoires dans la zone tempérée que dans les zones polaires ou tropicales, car la plus forte turbulence réduit la durée de fiabilité des prévisions. Une petite perturbation, difficile à détecter initialement, peut modifier radicalement l’évolution ultérieure : c’est le célèbre « effet papillon ». Ces phénomènes peuvent même concerner des systèmes dynamiques ne mettant en jeu qu’un faible nombre de coordonnées. Considérons par exemple deux pendules couplés. Leurs petites oscillations sont régulières, mais leurs mouvements de grande amplitude sont chaotiques. L’un des pendules peut par exemple communiquer par intermittence une grande partie de son énergie à l’autre, donnant l’impression d’un comportement aléatoire ; le système bascule de manière inattendue d’un comportement à un autre. Pourtant, il est régi par des lois dynamiques simples et connues. Si l’état initial est donné avec une précision mathématique totale, l’état à tout instant ultérieur est en principe parfaitement déterminé par ces équations du mouvement. Mais une déviation minime de l’état initial est amplifiée exponentiellement au cours du temps, de sorte que le mouvement devient progressivement de moins en moins prévisible. Cette extrême sensibilité aux petites perturbations est une propriété mathématique, découverte par Poincaré, liée à la non linéarité des équations dynamiques. L’évolution est déterministe, mais pratiquement imprévisible à long terme. L’oxymore « chaos déterministe » désigne ce phénomène paradoxal. Un autre exemple est fourni par la mécanique céleste où les trajectoires des planètes sont gouvernées par les équations de Newton. Le mouvement d’une planète unique autour de son étoile obéit aux lois de Kepler, et peut être prédit sur toute échelle de temps. Cependant, dans le système solaire, les interactions entre planètes, quoique faibles, perturbent leurs trajectoires. On peut calculer celles-ci avec précision, comme en témoigne la découverte de Neptune en 1846 par Le Verrier sur la base d’observations des autres planètes et de calculs. Mais la résolution des équations qui régissent le système solaire ne permet pas de déterminer sa configuration au delà de 100 millions d’années. La dynamique du système est chaotique ; un faible changement des positions pourrait par exemple aboutir à l’éjection de Mercure en raison de son attraction par Jupiter. Physique quantique. Le XXe siècle a vu la naissance et l’épanouissement de la mécanique quantique, qui régit les objets à l’échelle microscopique. Base de la physique et de la chimie, cette théorie fait encore intervenir des incertitudes, mais celles-ci ont ici une nature fondamentale : c’est conceptuellement qu’on ne peut s’en affranchir. En physique statistique comme pour le chaos déterministe, il n’était pas interdit d’imaginer l’existence d’une description idéalement précise de l’objet considéré, même si une telle description était inaccessible en pratique. Ici, même pour les objets les plus simples, la description la plus détaillée possible reste toujours imparfaite. Considérons par exemple une particule se déplaçant librement sur une droite. Deux grandeurs physiques lui sont attachées, sa position x sur la droite et sa vitesse v. En mécanique classique l’état de cette particule à un instant donné serait simplement caractérisé par deux nombres déterminant ces grandeurs. En réalité, la particule obéit aux lois de la mécanique quantique, qui ont modifié la notion même de grandeur physique afin d’être en adéquation avec la réalité observée : les grandeurs ne sont plus représentées par de simples nombres mais par des objets algébriques ressemblant à des variables aléatoires. On n’a pas le droit d’imaginer qu’elles prennent une valeur bien définie ; la physique quantique ne fournit que leur probabilité, avec une certaine incertitude nécessairement présente. Par exemple, la position x et la vitesse v d’une particule de masse m présentent des fluctuations statistiques ∆x et ∆v bornées inférieurement par l’inégalité de Heisenberg ∆x ∆v ≥ ћ/2m (où ћ = 1,055 · 10–34 est la constante de Planck–Dirac). Elles ne sont donc jamais déterminées avec une meilleure précision. Bien que les règles de la physique quantique soient mathématiquement rigoureuses et en accord avec l’expérience, elles portent seulement sur des probabilités, de sorte que la nature même des concepts implique un certain flou, peu visible à notre échelle mais crucial à l’échelle atomique. On vient de le voir avec la position et la vitesse d’une particule. De même, dans la description d’un électron, ou dans celle de la lumière, les concepts d’onde et de corpuscule coexistent mais ne sont pas nets ; le champ électrique et le champ magnétique en un point ne peuvent être précisés parfaitement. Cependant, si à un instant donné les incertitudes sont inévitables, la dynamique quantique est déterministe (et réversible), comme l’illustre l’équation de Schrödinger qui régit l’évolution d’un objet. Alors que notre connaissance de l’état initial est irréductiblement probabiliste, notre degré d’incertitude sur le système à un instant ultérieur n’est pas modifié par la dynamique. Les défauts de prévision ne tiennent qu’aux incertitudes sur les grandeurs physiques à l’instant initial, et non à une perte d’information au cours de l’évolution. En définitive, nous avons mis en évidence des jeux subtils entre déterminisme et incertitude. En physique statistique, l’immense nombre de constituants nous condamne à une description microscopique probabiliste, mais permet aussi aux grandeurs macroscopiques de prendre des valeurs quasi certaines malgré notre méconnaissance sur les constituants : le déterminisme émerge de l’aléatoire. Pour un phénomène chaotique, les équations dynamiques sont connues et déterministes, mais le comportement à long terme est imprévisible dès lors que la moindre incertitude existe sur l’état initial. Enfin, la physique quantique est irréductiblement probabiliste ; elle allie un flou inhérent au concept de grandeur physique au déterminisme de l’évolution. Il a donc fallu abandonner le déterminisme strict tel qu’on le concevait au XIXe siècle. Un outil mathématique a contribué à résoudre cette crise, la théorie des probabilités, qui permet malgré la présence d’incertitudes de faire des prévisions et d’évaluer leur degré de fiabilité. Tout en ne fournissant pas une connaissance absolue et définitive, la physique progresse ainsi en rendant de mieux en mieux compte du réel. Cependant, la nécessité de l’emploi des probabilités a des implications philosophiques. On décrit non des objets individuels, mais des ensembles statistiques d’objets tous préparés dans des conditions semblables. De plus, l’observateur n’est pas absent de la théorie, puisque les probabilités caractérisent non une propriété intrinsèque d’un objet, mais la connaissance que nous en avons. ENCADRÉ. Laplace et le déterminisme. Lorsqu’on discute la conception déterministe de la physique, il est traditionnel de citer les phrases de Laplace: « Nous devons donc envisager l’état présent de l’univers comme l’effet de son état antérieur, et comme la cause de celui qui va suivre. Une intelligence qui pour un instant donné connaîtrait toutes les forces dont la nature est animée et la situation respective des êtres qui la composent, si d’ailleurs elle était assez vaste pour soumettre ses données à l’analyse, embrasserait dans la même formule les mouvements des plus grands corps de l’univers et ceux du plus léger atome : rien ne serait incertain pour elle, et l’avenir, comme le passé, serait présent à ses yeux. » Ce texte est souvent interprété comme une profession de foi du plus strict déterminisme. On oublie cependant qu’il est extrait de l’introduction de l’« Essai philosophique sur les probabilités ». Replacé dans son contexte, il exprime une conception nuancée de la prévisibilité. L’« intelligence » dont il y est question n’est pas humaine : Laplace est tout à fait conscient de ce que, sauf cas exceptionnels, le programme déterministe (que l’on associe à son nom) est irréalisable. Ces phrases ne sont que le point de départ d’un raisonnement démontrant la nécessité de la notion de probabilité. Un peu plus loin, on peut lire : « La courbe décrite par une simple molécule d’air ou de vapeur est réglée d’une manière aussi certaine que les orbites planétaires : il n’y a de différence entre elles que celle qu’y met notre ignorance. La probabilité est relative en partie à cette ignorance, en partie à nos connaissances ». L’allusion dès 1814 à un caractère aléatoire, mal connu, de la trajectoire des molécules d’un gaz préfigure l’avènement, des décennies plus tard, de la théorie cinétique. Il est remarquable que, constatant l’impossibilité pratique de mettre le déterminisme en œuvre, Laplace a été conduit à souligner que « le système entier des connaissances humaines se rattache à la théorie des probabilités ». Il ne serait pas surpris de la place centrale qu’elles occupent dans la physique d’aujourd’hui.