Les principes de la Relativité (exposé du 23 février 2016) Quels sont
Transcription
Les principes de la Relativité (exposé du 23 février 2016) Quels sont
Les principes de la Relativité (exposé du 23 février 2016) Quels sont les principes explicites ou implicites de la physique ? Dans le cas de la cosmologie, une première singularité saute aux yeux : l'univers est donné, et comme l'a dit Poincaré, il « n'est tiré qu'à un seul exemplaire » – à moins d'adhérer à l'interprétation d'Everett, où T. Damour voit « l'une des grandes avancées conceptuelles de la physique du XXe siècle »... mais qu'on n'urilise guère. Pas moyen, ici, de préparer des expériences. Le seul critère de vérité sera la cohérence globale de la théorie : « A perfect consistency can be nothing but an absolute truth » (1) Un premier principe est la constance des lois physiques dans l'espace-temps, sauf peut-être aux premiers instants du « big bang », où la gravitation quitterait peut-être son statut de métrique pour se fondre avec les autres interactions ; mais cette théorie reste à construire. On a envisagé que certaines « constantes » puissent ne pas en être. Dirac (1902-1984) avait été frappé par le fait que les rapports sans dimension que l'on rencontre sont soit de l'ordre de l'unité (comme la constante de structure fine) soit 1040 fois supérieurs, comme les rapports de la taille de l'électron à celle de l'univers, et des attractions électromagnétique et gravitationnelle s'exerçant sur deux électrons (2. 1040 et 3. 1041). Le sujet reste ouvert, quoique marginal, et donne lieu régulièrement à des publications (2). Pierre Curie (2 bis) a introduit un principe de symétrie selon lequel « lorsque certaines causes produisent certains effets, les éléments de symétrie des causes doivent se retrouver dans les effets produits. Il y a ensuite le principe d'équivalence, vérifié à 4 10-13 près expérimentalement, qui est bien sûr incorporé dans la structure de la RG et dont toute autre théorie concurrente doit rendre compte. La thermodynamique est invoquée aussi bien dans la description des premiers stades de l'univers que dans l'étude des trous noirs. Elle a un statut de méta-science, s'imposant tant en physique classique qu'en mécanique quantique, et peut-être en RG. Par ailleurs, les premier et second principes, qui disant que la chaleur et l'énergie sont de même nature, mais pas tout à fait, ont peut-être plus qu'une analogie de RG où le temps et l'espace sont aussi de même nature... mais pas tout à fait (3). La flèche du temps est la direction dans laquelle l'univers se dilate, l'entropie augmente et l'anti-matière disparaît plus vite. Quel est le rapport entre ces trois faits ? L'existence des trous noirs (→ annexe 1) semble chaque jour confirmée ; on a mal compris Hawking (qui y a mis du sien) quand il affirmait : “The absence of event horizons means that there are no black holes - in the sense of regimes from which light can’t escape to infinity”. L'emploi de la thermodynamique est incompatible avec le théorème baptisé par Wheeler « A Black Hole Has No Hair » ; dans les termes de Luminet « Un trou noir est, par sa simplicité, ou objet idéal... il suffit de connaître sa masse, son moment angulaire et sa charge pour le décrire entièrement » (3 bis). Mais si un trou noir n'a qu'un seul état possible, comment y introduire de la statistique ? La théorie quantique, qui reste à réconcilier avec la RG, est aussi invoquée dans ces deux contextes : « quantum theory tells us that information cannot disappear from the universe » (Michael Brooks, “PhD in quantum physics”, New Statesman, 3.9.2015). C'est ce qu'affirme aussi Luminet (loc. cit.) : “En absorbant la matière, [le trou noir] ne se contente donc pas de la soustraire de l'univers observable, il la dépouille aussi de son information. Ce qui contredit, au moins en apparence, les lois de la physique quantique.” A ce propos, on ne voit pas toujours s'il faut entendre l'information au sens de l'école de Copenhague ou au sens de Shannon, issu de la thermodynamique (information identifiée à néguentropie). Et on n'a pas la même simplicité qu'avec la thermodynamique et ses quatre principes au plus. Principes de la relativité générale. Il y a d'abord le principe d'équivalence, déjà mentionné. Ensuite le principe de conservation de l'énergie, historiquement à la base de la RG, puisqu'Einstein cherchait un tenseur conservatif déduit de la métrique ; Cartan a montré que le seule possibilité à l'ordre 1 était Rαβ - ½ gαβ (R + λ) (4). La constante cosmologique a donc d'emblée toute sa place, ce qui n'exclut pas que sa valeur numérique puisse être zéro. Ce serait un des nombreux miracles qui apparaissent dans les valeurs des constantes, avec la valeur de la densité de l'univers impliquant un espace plat, et les propriétés du noyau de carbone lui permettant d'être produit assez abondamment à partir de 3 noyaux d'hélium (Hoyle). Une valeur non nulle est tentante pour rendre compte de la « matière noire », introduite pour expliquer les déviations à la loi de Kepler dans les galaxies. Mais si cette constante a pour effet de rendre plus pesantes les galaxies, que devient la trajectoire de Mercure, premier succès de la RG ? Faut-il admette un soleil beaucoup plus léger qu'on ne croyait ? Il faut donc chercher quelle modification apporte à la solution de Schwarzschild une constante cosmologique λ ≠ 0 ( → annexe 4) que Schödinger interprétait dès 1918 comme une énergie répulsive (5). La valeur de cette constante pose problème : pour les cosmologistes, c'est 10-53 m-2, ou 10-35 s-2, ce qui donne pour λ-1/2 une valeur de l'ordre de 0,3 1018 s, voisine de H-1 estimée à 0,44 1018 . Cela ne risque pas d'influencer les révolutions de ☿, mais les spécialistes de physique trouvent ce vide bien faible, et multiplieraient bien cette valeur par10 40, voire 10120; Hobson voit là « la pire prédiction de l'histoire de la physique ». Le vide quantique n'a pas encore livré tous ses secrets. Faut-il garder la description de Lichnerowicz de l'univers : une variété C2, C4 par morceaux, la métrique g étant C 1, C3 p. m., ce qui laisse la possibilité d'avoir pour le tenseur de courbure des distributions de Dirac, point de vue développé par Taub ? Si le régularité ne pose pas trop de problèmes, la variété se réduit trop souvent à une seule carte, ce qui permet de faire l'impasse sur les nécessaires questions de topologie. On ne peut le reprocher aux précurseurs, car la notion de variété a mis du temps à se dégager, de Riemann à Weyl et Cartan ; il a fallu attendre Whitney et Ehresmann pour avoir une axiomatique précise. Une question : si la nature de l'univers a varié dans le temps, si on passe d'une solution des équations de Friedmann où le terme de rayonnement prédomine à une solution du type fluide parfait, comment raccorde-t-on ces solutions ? Je n'ai pas trouvé grand chose sur ce point. Les modèles cosmologiques supposent l'homogénéité et l'isotropie de l'univers, plus ou moins déduites des mesures de distance et l'étude du rayonnement électromagnétique. (→ Annexe 2 : les observations en cosmologie, inextricablement liées au choix d'un modèle ; Annexe 2 bis, l'expansion de l'univers) Le meilleur argument en faveur de l'homogénéité est tiré de l'étude des fluctuations du rayonnement primordial, qui ne dépassent pas 10-5. L'isotropie conduit à une collections de métriques de FriedmannLemaître-Robertson-Walker dépendant d'une fonction d'une variable réelle. (→ Annexe 3 : historique et dérivation des équations de Friedmann.) Il était alors naturel de postuler aussi l'invariance dans le temps, d'où le « principe cosmologique parfait » de la théorie de l'état stationnaire. Cette théorie a été abandonnée, d'abord pour de mauvaises raisons : la première objection était qu'aucun mécanisme connu ne permettait la création de baryons pour maintenir constante la densité malgré l'expansion. Il semble qu'on est moins sévère de nos jours avec la matière et l'énergie « noire », i. e. sans interactions autres que gravitationnelles, censées rendre compte des mouvements des galaxies. La matière noire pourrait être formée de WIMPs, ou d'axions, ou de neutrinos lourds, dont aucun n'a été observé à ce jour. A moins qu'il n'y ait là qu'un artefact de la constante cosmologique ? Ce point de vue implique l'abandon de la covariance généralisée, au profit de la nouvelle « sphère des fixes » matérialisée par les surfaces d'onde du rayonnement primitif. Peut-être traduit-elle l'influence de l'univers dans son ensemble que postulait Ernst Mach ? D'autant qu'il n'est pas impossible d'envisager, par une relecture de l'expérience de MichelsonMorley-Miller, le mouvement absolu de la terre par rapport à cette sphère, qui est de 370 km/s. « This makes the existence of a preferred reference frame more than a simple possibility » (6). La valeur de ce déplacement est faible ; si la Terre n'occupe pas de position privilégiée, et s'il en est de même des autres objets, est-ce que cela ne justifierait pas le fait que les divers effets de RG apparaissent indépendants les uns des autres ? On a aussi un temps privilégié, sinon absolu. Je me souviens d'un exposé ancien de Leutwyler, qui était en quelque sorte une défense de l'industrie horlogère suisse contre les empêcheurs de synchroniser à distance. Et maintenant personne ne s'étonne d'avoir des horloges assez corrélées pour voir si des ν se propagent à la vitesse de la lumière (même si dans ce cas un « bug » avait conduit à un résultat contestable), où si une onde de gravitation met le bon temps pour aller de Hanford (Washington) à Livingstone (Louisiane). A partir du moment où on a une décomposition de l'espace-temps en R⊕V, où V est à choisir entre seulement trois possibilités, on peut attribuer un sens physique à des intégrales sur la surface, donnant une base solide à la notion de masse de l'univers, qui va être le produit de la densité moyenne par le volume de l'univers, qui n'a aucune raison particulière d'être 4πR3. Les singularités, qui pourraient être aussi nombreuses que les trous noirs, semblent n'avoir aucune influence sur la structure globale. Je m'étonne toujours de ce résultat ; ce n'est que chez un original comme la relativité en inspire beaucoup que j'ai trouvé l'affirmation "the principle of superposition does not hold in GR". Or un traitement correct de la solution de Schwarzchild montre que le trou noir de prolonge par un trou blanc. Pourquoi « correct » ? parce que « la solution classique de Schwarzschild est incomplète, alors que la formulation de Kruskal, obtenue par un bon changement de coordonnées, est une extension maximale : toutes les géodésiques s'étendent désormais jusqu'à des valeurs infinies de leurs paramètres affines ou bien finissent à une singularité passée ou future. » (7) Cela autorise à poser des questions comme : si deux trous noirs sont voisins, est-ce que leur contreparties le seront dans l'espace (à définir...) où ils se situent ? Il y a une justification à cette attitude, la faiblesse de l'interaction gravitationnelle (→ annexe 5, le local et le global) 1. « Une parfaite consistance [sic] ne peut être qu'une vérité absolue » (Eurêka, in Œuvres en prose, Pléiade, p. 714) « Il faudra attendre les travaux de Friedmann et Lemaître dans la décennie 1920 et la lente acceptation des modèles de Big Bang pour que l’étrange cosmogonie d’Edgar Poe attire l’attention de quelques scientifiques. » (blog de Luminet). « Alexander Friedmann, the man credited with inferring the expansion of the universe from Einstein's theory, loved Poe.» (Emily Eakin, N. Y. Times, 2.11.2002). 2. depuis Dirac, Nature, 139, 1937, 323, jusqu'à Nassif et de Faria jr, article accepté par le Can. Jl. of Physics, sept. 2015. La réflexion de B. Carter Large number coïncidences and the anthropic principle (séminaire de cosmologie de Cracovie, 1973) l'a conduit au principe mentionné. 2 bis. Pierre Curie : Sur la symétrie..., Journal de Physique théorique et appliquée, 1894, 3, 1, p. 393-415 3. Voir Costa de Beauregard, Le second principe de la science du temps, Seuil, 1963. 3 bis . Le Monde, 23.12.2015. 4. Journal de mathématiques pures et appliquées, 1, 1922, 141-203 5. Physikalische Zeirschrift, 19, 19-22, 1918. 6. Consoli & al., CoB Radiation and « ether drift » experiments arXiv:160 1.06518 6 bis. Chang-Shuo Yan, Youjun Lu, Xinyu Dai and Qingjuan Hu : A probable Milli-Parsec Supermassive Binary Black Hole in the Nearest Quasar Mrk 231 arXiv:1508.06292v2 janvier 2016 7. Hobson, Efstathiou et Lasenby, Relativité générale, p. 261 sqq. de l'édition française. Annexe 1 : Les trous noirs La notion de trou noir remonte à Mitchell (1783) et Laplace (1796). Supposons le photon pesant : il ne pourra s'écapper dela surfaced'un objet de rayon r si le potentiel gravitationnel GMm/r vaut (ou excède) l'énergie cinétique mc2/2, donc si r ≤ 2GM/c2, le rayon de Schwarzschild. On pense qu'il y a deux catégories principales de trous noirs : les trous noirs sans moment cinétique (Schwarzschild) ou avec (Kerr), chacun d'eux possédant une variante chargée qui n'existe probablement pas dans la nature (Reissner-Nordström et Kerr-Newman). Leur description est issue de considérations mathématiques. Pour le trou noir sans rotation, on a interprété la solution de Schwarzschild extérieure (non raccordée à la solution intérieure) et Birkhoff a montré son unicité. La valeur zéro du moment cinétique est bien sûr improbable, mais il est souvent plus facile d'effectuer les premiers calculs dans le modèle de Schwarzschild. La masse est celle qui se déduit du coefficient g 00 qui est aussi g11-1, ou plus naïvement des trajectoires kepleriennes des étoiles autour du trou, ou du trou lui-même s'il a un compagnon. On peut en imaginer de toutes les masses (on se demandait si de petits trous noirs ne pourraient pas être créées au CERN, voire au GANIL). Ceux que l'on observe sont en général soit de l'ordre de grandeur du Soleil (disons 25 m ☼) soit beaucoup plus gros, comme le trou noir qui occupe le centre de notre galaxie (4 M m ☼), selon qu'ils résultent de l'effondrement d'une étoile ou d'une galaxie (ou d'une fusion de deux galaxies). Enfin la galaxie Markarian 231, distante de 600 M a-l, aurait un trou noir binaire (1) (4 et 150 M m ☼) et serait loin d'être la seule dans ce cas. On vient aussi d'en découvrir d'intermédiaires, disons de 500 m☼, comme M82 X1 , ou 5000m☼, comme NGC 1313 X1 (2). Le mathématicien néo-zélandais Roy Kerr a trouvé une autre solution des équations d'Einstein par une démarche purement mathématique, s'appuyant sur la classification de Petrov, qui se fonde sur la multiplicité des bivecteurs propres du tenseur de Weyl, tenseur sans trace qui a les mêmes symétries que le tenseur de Riemann et est invariant dans les transformations conformes. Elle a d'abord suscité de l'indifférence malgré le soutien de Papapetrou. Elle apparaissait comme une solution particulière parmi tant d'autres, la plupart rejetées par les physiciens (je pense notamment à la solution de de Sitter – un univers vide en expansion – ou celle de Gödel, qui fascinait Schrödinger) ; puis Brandon Carter a reconnu qu'elle était elle aussi essentiellement unique et décrivait de façon satisfaisante un trou noir doué de rotation (comme presque tout ce que l'on observe dans l'univers : comme le disait Gödel à Ruffini, « null rotation is a set of measure zero »). Mais là, la solution a conservé le nom de Kerr, bien qu'elle ait aussi été mentionnée dans la littérature comme la solution de Carter. Une particularité de la RG est que les champs forts s'y comportent au final comme des champs faibles (voir aussi l'annexe 5). Le trou noir de notre galaxie, situé dans la constellation du Sagittaire, aurait une masse de 3,7 ± 1,5 M de masses solaires, nombre résultant de l'étude des trajectoires képleriennes de quelques étoiles décrivant des révolutions autour de ce trou noir, la plus rapide mettant quinze ans. Le trou noir jour ici le rôle d'une étoile juste un peu plus grosse ; il n'avale pas tout ce qui l'entoure, du moins pas plus que ne le fait le Soleil. On dira un mot plus loin de la déviation du périhélie. On a annoncé le 11 février 2016 la détection d'ondes gravitationnelles par Ligo (Laser Interferometer Gravitational-Wave Observatory) ; deux trous noirs de 36 et 29 m☼ auraient fusionné il y a 1,3 Ga pour donner un trou de seulement 62 m☼ ; ces résultats se déduisent des calculs de 1995. La liste des signataires de l'article (3), appartenant à 133 laboratoires différents, remplit plus de deux pages ; parmi ceux-ci, Drever, Thorne et Weiss, qui sont ceux dont les noms sont les plus souvent cités pour un futur prix Nobel, ainsi qu'une une dizaine de Français. Ceux-ci sont associés au projet Virgo, situé à Pise, qui tire son nom de l'amas de la Vierge, proche de notre amas local. La mise en service de ce dernier appareil, en phase de réglages, est attendue avec impatience pour pouvoir faire de la triangulation d'ondes gravitationnelles. Selon Kip Thorne (qui s'intéresse à cette question depuis un demi siècle : voir son exposé à la conférence GR5, Tiflis, 1968) « The total power output during the collision was 50 times greater than all the power of all the stars in the universe put together » : on l'estime à 3,6 1049 W. Il semble qu'on ait du même coup trois résultats, outre la confirmation de l'existence de trous noirs et leur banalisation : la constatation directe des ondes gravitationnelles sous la forme d'une variation des distances terrestres, et non pas indirecte comme avec le pulsar ; une mesure de l'énergie cohérente avec les précédentes ; et enfin, la vitesse de propagation de ces ondes est bien c, ce qui était déjà évident pour Vessiot en 1918 (***) (1) Chang-Shuo Yan, Youjun Lou, Xinyu Dai & Qingjuan Yu, Astrophysical Journal, 809, 2, 117, 2015, ou arXiv:1508.06292. Voir aussi Science Daily, 27.8.2015 et passim. : on y trouve que cette observation “suggère que les trous noirs supermassifs réunissent leurs masses par des fusions violentes” (2) Nature, 4.9.2014 ; Astronomy now, 21.9.2015. (3) Abbott & al.: Observation of gravitational waves from a BBH merger, Physical Review Letters, 116, 061102 (4) C. R. A. S., 166, n°8, p. 349-351. Annexe 2 : Les mesures de distance La question de la distance est assez délicate, car l'observation par des moyens optiques ne nous fournit d'informations que sur les objets qui sont sur le cône isotrope, donc à distance nulle. Il faut ensuite en déduire une distance dans l'espace, qui devrait être (-∫ds2)1/2, l'intégrale étant prise sur la géodésique joignant notre position à celle de la galaxie « au même temps »... mais qui a beaucoup d'autres définitions. Les mesures effectives de distance impliquent une succession d'échelles. On commence par un peu de trigonométrie en mesurant le parallaxe des étoiles proches ; la base est l'orbite terrestre, que la lumière parcourt en environ un quart d'heure. Le satellite Hipparcos a pu mesurer la distance de 100 000 étoiles, jusqu'à 1000 pc. La seconde échelle est due à Henrietta Leavitt (1912) qui établit une relation entre la période et la luminosité d'un certain type d'étoile, les Céphéides. En comparant la luminosité apparente d'une céphéide de période donnée dans le Nuage de Magellan, on déduit la distance de cette galaxie. Ce n'est pas si facile – encore maintenant, cette distance n'est connue qu'avec une précision de 2,2% – et cela explique qu'on ait souvent reconsidéré les valeurs numériques obtenues. Pour aller plus loin, on considère la magnitude des supernovas, dont on postule qu'elles ont toute la même énergie, ayant les mêmes causes (explosion d'étoiles après un effondrement gravitationnel). « Dans les années 1990, les deux équipes travaillent sur les supernovae, des explosions d’étoiles très lointaines. Parmi ces supernovae, certaines d’entre elles sont surnommées les « chandelles standard » en raison de leur luminosité intrinsèque, qui est théoriquement toujours la même. Ce sont de bons outils de mesure de distance : en comparant leurs luminosités, théorique et apparente, on peut déterminer leur éloignement par rapport à la Terre. Si on considère un grand nombre de ces chandelles situées à différentes distances de la Terre, on peut déduire l’évolution de la vitesse d’expansion de l’Univers ». L'affirmation de l'accélération de l'expansion a été couronnée par le prix Nobel attribué en 2011 à Saul Perlmutter, Adam Riess et Brian Schmidt. Ces mesures peuvent être remises en cause quand on découvre, comme ce fut le cas en janvier 2016, des supernova d'une énergie supérieure à tout ce qu'on connaissait. Du coup, la constante de Hubble liant le décalage vers le rouge à la distance a beaucoup fluctué depuis la première estimation due en fait à Lemaître, et déjà implicite chez Friedmann ; Virginia Trimble a même publié un article montrant qu'au rythme de ces révisions, la constante de Hubble finirait par changer de signe et calculait la date (vers 1990) en utilisant une méthode de moindres carrés (*). Depuis, la constante semble s'être stabilisée à 67.8 ± 0,7 dans l'unité pratique (km/s/Mpc) que les astronomes préfèrent à la s -1, de la même façon que les physiciens délaissent parfois le J pour l'électron-volt, ou les marchands d'électroménager le watt pour le kWh/jour. Ou peut-être 67,15 (source : ESA, 21.3.2013) ou 67,3 ± 1,2 (thèse de Boucaud). Cette stabilisation n'est peut-être pas définitive, la nouvelle valeur étant en-dehors de la marge d'erreur de plusieurs résultats antérieurs, y compris les résultats de WMAP de 2010 : « These values arise from fitting a combination of WMAP and other cosmological data to the simplest version of the ΛCDM model. » L'interprétation des données expérimentales brutes passe en effet par un modèle, et nous voyons ici enfin une allusion à un modèle relativiste qui prendrait assez au sérieux la matière et l'énergie noire pour les admettre au second membre des équations d'Einstein, le modèle « Λ Cold Dark Matter », Λ désignant la constante cosmologique. Mais dans la pratique, les astrophysiciens utilisent plusieurs autres distances empiriques, dont le rapport à la vraie distance r(t)χ (qui n'intéresse presque personne) dépend de la connaissance du facteur R(t) du ds2 . Par exemple les distances angulaire et de luminosité, qui s'en déduisent par un facteur (1 + z)-1 et 1 = z (*) La Recherche, 4.10.2011 (**) The incredible shrinking constant, 1925-1965 Publications of the Astronomical Society of the Pacific, v.108, 1996, p.1073-1082. Annexe 2 bis : l'expansion de l'univers. Tout le monde a entendu parler du « Big Bang », cet état initial extrêmement dense dans lequel l'univers se serait trouvé il y a 14 milliards d'années (on précise même aujourd'hui 13.799±0.021 Ga. Depuis, l'univers est en expansion, peut-être même de plus en plus rapide. On associe souvent le nom de l'astronome américain Edwin Hubble (1889-1953) à cette découverte. S'il a été le premier à l'observer, il avait été précédé par trois théoriciens. Ceux-ci sont d'abord Einstein, qui a eu l'idée d'appliquer les équations de la Relativité générale, liant la courbure de l'espace à la distribution de matière, à l'univers dans son ensemble, il y a à peine un siècle, quand l'Académie de Berlin était encore royale (a). C'est l'article où il introduit la constante cosmologique de façon heuristique, avant qu'Élie Cartan n'en montre la caractère nécessaire (b). Viennent ensuite Alexander Friedmann (1888-1925), un brillant mathématicien russe, qui avait publié à l'âge de 18 ans un article dans les Mathematische Annalen. Le troisième est le chanoine belge Georges Lemaître (1894-1966). Friedmann a publié deux articles, non pas dans quelque obscure revue soviétique, mais dans la prestigieuse Zeitschrift für Physik (1922, 1924). Le premier, intitulé О кривизне простраства (Sur la courbure de l'espace) a été adressé à Ehrenfest et a été publié en allemand. Le second article s'intitule "Über die Möglichkeit einer Welt mit konstanter negativer Krümmung des Raumes" (Sur la possibilité d'un monde avec une courbure négative de l'espace). Cela revenait à envoyer ces articles à Einstein lui-même, car il était alors très proche d'Ehrenfest : ils publient ensemble dans cette même revue un article sur l'interprétation de l'expérience de Stern et Gerlach, une des expériences fondatrices de la mécanique quantique ; c'est Ehrenfest aussi qui mit en relation Einstein et Bohr. Einstein a d'abord cru le réfuter, puis a reconnu la validité des équations de Friedmann : « Ich halte Herr Friemanns Resultate für wichtig une aufklärend » (c) – on ne peut pas être plus élogieux. Pourquoi ces articles sont-ils tombés dans l'oubli ? Pour une fois, ce n'est pas la faute des soviets, dont la censure qui ne se fera vraiment sentir en matière scientifique que dans le début des années trente ; Friedmann a pu librement voyager à plusieurs reprises à l'étranger, et revoir notamment le mathématicien Hilbert. Et s'il est mort prématurément de la typhoïde, ce fut aussi le cas, la même année, en France, de Jacques Rivière. On ne peut que rêver quel aurait été, sinon, son destin : mandarin de l'académie des sciences, pensionnaire du Goulag – ou les deux ? En fait, la Relativité générale est très vite passée de mode ; Einstein, mondialement célèbre, a été vite marginalisé dans le monde scientifique, et la renaissance de cette discipline a attendu les colloques de Berne (1953), Chapel Hill (1956) et Royaumont (1959) pour sortir de son isolement. Et si la RG avait connu un brillant succès avec la prédiction de la déviation des rayons lumineux par un corps massif et l'anomalie de Mercure, il fallut attendre 1960 avec l'expérience de Pound et Rebka (changement de couleur d'un photon tombant dans un champ de gravitation) pour avoir un nouveau résultat expérimental. De plus, la cosmologie était volontiers considérée comme une vaine spéculation. Rappelez-vous déjà Voltaire dans Candide : « Pangloss enseignait la métaphysico-théologo-cosmolonigogologie » (et que dira-t-on quand un chanoine s'en mêlera !), ou Auguste Comte : « l'astronomie sera limitée au monde [entendez par là le système solaire] et ne s'étendra pas à l'univers » Il semble bien que Lemaître n'en ait pas eu connaissance des travaux de Friedmann et ait retrouvé par lui-même les équations et une solution représentant un univers en expansion. Il ne manquera pas de citer le premier article de Friedmann (en même temps que les deux notes d'Einstein) dans la deuxième version de son article dont il sera question plus loin. Il publie dans les Annales de la Société scientifique de Bruxelles un article Un univers homogène de masse constante et de rayon croissant. On nous dit maintenant que l'article était en français : « thus it was not broadcast (sic)», comme s'essaie à écrire un thésitif français. C'est projeter abusivement dans la passé la pratique actuelle. La vraie raison d'une certaine méconnaissance est que le journal n'était pas pas considéré comme un journal de premier plan. Pourtant, son image de « l'atome primitif » était très parlante, même si elle est contestable ; en fait, nous n'avons pas d'idée bien claire sur ce qu'ont pu être les tous premiers instants de l'univers ; la mécanique quantique doit intervenir, mais sans qu'on sache trop comment. Déjà Lemaître en était conscient : voir son article The Beginning of the World from the point of view of quantum theory (d). Il a été d'autre part le premier à établir de façon explicite la loi de Hubble, disant que la vitesse d'éloignement des galaxies est proportionnelle à leur distance ; en termes mathématiques, v = H d, où H est la constante de Hubble. Lemaître donnait comme valeur 600 km/s/Mpc, valeur trop élevée d'un ordre de grandeur. L'idée qui apparaît maintenant comme la principale est d'une simplicité géniale. Elle revient à projeter le film à l'envers : si les galaxies s'éloignent dans le futur, alors elles se rapprochent dans le passé; jusqu'où ? Une version ultérieure (e) a suscité des controverses. Virginia Trimble suggère l'influence de Hubble dans le nouveau titre (a post-Hubble English version called « the expanding universe », plus précisément A Homogeneous universe of Constant Mass and Increasing Radius Accounting for the Radial Velocity of Extra-galactic Nebulæ) (f) alors que plus récemment on a au contraire accusé Hubble d'avoir supprimé de cet article la partie sur l'expansion, ne retenant que les développements mathématiques. Mais c'est Lemaitre lui-même qui a préféré écarter ce qui était encore conjectural : « La plus grande partie de l'Univers est pour toujours hors de notre portée ». Voilà le genre d'affirmation dont il faut se méfier. En 1835 Auguste Comte affirmait: « Nous ne saurons jamais étudier par aucun moyen la composition chimique des étoiles » et 30 ans plus tard Bunsen et Kirchhoff lui donnaient tort ; leurs résultats sur la composition des étoiles sont justement à la base de la cosmologie moderne, qui rend compte de l'abondance des différents éléments. On affirmait de même dans les années 70 que les progrès de l'informatique ne permettraient jamais à une machine de battre un homme aux échecs. De plus, la valeur trop élevée de la constante conduisait au résultat paradoxal que l'univers était plus jeune que la Terre, celle-ci ayant 4,54±0,05 milliards d'années. La solution de Friedmann et Lemaître est maintenant celle qui a le faveur des scientifiques ; à ces deux noms, ils ajoutent souvent ceux de Robertson et de Walker, qui ont montré que cette solution est non seulement exacte mais nécessaire sous des hypothèses d'homogénéité et d'isotropie de l'espace... et oublient Lemaître ( sauf dans le cas où λ ≠ 0) quand ils parlent de métrique FRW, en application de la loi de Stigler : « Une découverte scientifique ne porte jamais le nom de son auteur. » a Kosmologische Betrachtungen zur allgemeinen Relativitätstheorie, Sitzungsb. der Königlich Preußischen Akademie der Wissenschaften(Berlin), 1917, p. 142-152. b Journal de mathématiques pures et appliquées, 1, 1922, 141-203 c Zeitschrift fûr Physik, vol. 16, cahier 3, p. 228. d Nature, 127, 1931, 706. e Monthly Notices of the Royal Astronomical Society, 91, mars 1931, p. 483-490. f Proceedings of the Astronomical Society of the Pacific, 108, dec. 1996, 1073-1082. Annexe 3 : dérivation des équations de Friedmann Nous partons des trois seuls ds2 compatibles avec les symétries postulées, à savoir une métrique diagonale de coefficients (en coordonnées t, r, θ, φ) : c2, -R(t)2/1 – kr2 , -R2r2, -R2r2sin2θ, où k prend les valeurs -1, 0 ou 1 selon le signe de la courbure On pourrait justifier plus complètement ce résultat très connu en partant des vecteurs de Killing du problème (∂/∂t et les vecteurs engendrant l'algèbre de Lie de la sphère, -sinφ ∂θ – cot θ cosφ∂φ, cosφ∂θ cotθ sinφ∂φ et ∂φ, avec les relations de commutation [L i , Lj] = - Lk pour toute permutation circulaire de (1, 2, 3). On peut se ramener à des formes un peu plus simples moyennant le changement de coordonnées r = sin χ ou χ ou shχ, selon que k est 1, 0 ou -1. Il n'y a alors que douze Γ non nuls. Toutefois, le calcul se fait le plus souvent sur la première forme, avec treize Γ non identiquement nuls, ce qui évite de préjuger de la topologie de l'espace. Il apparaît que le tenseur de Ricci n'a que les 4 termes diagonaux non nuls, et qu'il n'y a que deux équations indépendantes, à savoir Annexe 4 : Solution de Schwarzschild avec λ ≠ 0 (pour le moment sous forme manuscrite) Nous reprenons les notations et le calcul de Hobson. La métrique est diagonale en coordonnées t,r, θ, φ avec comme coefficients Annexe 5 : Le local et le global Comme nous l'avons vu, la non-linéarité des équations entraîne qu'il n'y a pas superposition. Or on fait appel à la relativité d'une part pour la solution décrivant l'univers dans son ensemble, et d'autre part pour des solutions particulières décrivant l'intérieur des étoiles, les masses ponctuelles, les trous noirs avec ou sans rotation, le problème des deux corps. Ces développements indépendants les uns des autres ne devraient pas pouvoir coexister ; or tous supportent la comparaison avec l'observation. Cela tient à la faiblesse de la gravitation qui fait que l'infini n'est jamais très loin. Si ce n'est pas à la porte du laboratoire, ce peut être pour nous à la limite du système solaire. C'est ce que confirme l'étude par T. Damour du pulsar double PSR B1913+16. Celui-ci a été découvert en 1974 par Hulse et Taylor en 1975, découverte couronnée par un prix Nobel en 1993. C'est un astre double ; un des deux est le pulsar proprement dit, une étoile à neutrons, terme final d'un type de supernova (celles qui ne produisent pas d'éléments lourds), animé d'une rotation très rapide et douée d'un moment magnétique, à l'origine d'une émission d'ondes électromagnétiques. En 1963 (donc bien avant cette découverte) Peter et Matthews (1) avaient prédit une décroissance de la période due à l'émission d'ondes gravitationnelles. Apparemment, nous ne quittons pas la mécanique newtonienne quand nous nous intéressons au mouvement relatif de deux étoiles massives (environ 1,4 M ʘ, d'un diamètre d'une vingtaine de km) et très voisines (distantes de 1 à 5 rayons solaires). En outre, l'avance du périastre de l'orbite serait de 4.22 degrés par an, ce qui est énorme comparé aux 43" par siècle du périhélie de Mercure. Mais comme c'est elle qui a permis l'estimation des masses des deux corps, ce n'est pas une vérification directe de la RG (2). La vitesse orbitale reste petite devant c : un malheureux 450 km/s, de l'ordre de 10-3. Mais on a aussi affaire à des distances proches du rayon de Schwarzschild : GM/c2r ~ 0,15 (3) alors que dans le cas de Mercure, on considérait la planète comme une particule de masse négligeable dans le champ du Soleil, dont le présence se manifeste par une métrique de Schwarzschild. L'énergie de radiation gravitationnelle a été estimée à 7.35 × 1024 watt, soit 1,9% du rayonnement électromagnétique solaire. C'est la valeur prédite par la théorie, à 1% près. Des approximations linéaires (ou d'un ordre fini un peu supérieur à 1... par exemple 2 ½ ) suffisent pour résoudre tous les problèmes. (*) Gravitational Radiation from Point Masses in a Keplerian Orbit, Phys. Rev. 131, 435. (2) Y. Choquet-Bruhat, General Relativity and the Einstein equations, Oxford, 2009. (3) Damour, Journées relativistes 1989 Advanced LIGO News On February 11, 2016, LIGO announced the detection of gravitational wave signals from the inspiral and merger of a pair of black holes. The detection occurred on September 14, 2015 at the beginning of LIGO's O1 data run. Displaying the expected "chirp" behavior, meaning that it swept upward in amplitude and frequency, the signal, labeled GW150914, appeared in the data streams of both detectors near 40 Hz and rose to roughly 250 Hz in less than 30 milliseconds. The time separation between the signal's arrival in the L1 and H1 detectors was 7 milliseconds. The event would not have registered in LIGO's first-generation detectors; the fact that it appeared with striking clarity in both L1 and H1 indicates the leap in detector performance that the Advanced LIGO program has produced. The LIGO-Virgo Collaboration celebrates this milestone in astronomy and looks forward to a rich future of new discoveries. Image: LIGO. Read more at the Laboratory and LIGO Scientific Collaboration websites. LIGO