Les principes de la Relativité (exposé du 23 février 2016) Quels sont

Transcription

Les principes de la Relativité (exposé du 23 février 2016) Quels sont
Les principes de la Relativité (exposé du 23 février 2016)
Quels sont les principes explicites ou implicites de la physique ?
Dans le cas de la cosmologie, une première singularité saute aux yeux :
l'univers est donné, et comme l'a dit Poincaré, il « n'est tiré qu'à un seul
exemplaire » – à moins d'adhérer à l'interprétation d'Everett, où T. Damour
voit « l'une des grandes avancées conceptuelles de la physique du XXe
siècle »... mais qu'on n'urilise guère. Pas moyen, ici, de préparer des
expériences. Le seul critère de vérité sera la cohérence globale de la
théorie : « A perfect consistency can be nothing but an absolute truth » (1)
Un premier principe est la constance des lois physiques dans
l'espace-temps, sauf peut-être aux premiers instants du « big bang », où la
gravitation quitterait peut-être son statut de métrique pour se fondre avec
les autres interactions ; mais cette théorie reste à construire. On a envisagé
que certaines « constantes » puissent ne pas en être. Dirac (1902-1984)
avait été frappé par le fait que les rapports sans dimension que l'on
rencontre sont soit de l'ordre de l'unité (comme la constante de structure
fine) soit 1040 fois supérieurs, comme les rapports de la taille de l'électron
à celle de l'univers, et des attractions électromagnétique et gravitationnelle
s'exerçant sur deux électrons (2. 1040 et 3. 1041). Le sujet reste ouvert,
quoique marginal, et donne lieu régulièrement à des publications (2).
Pierre Curie (2 bis) a introduit un principe de symétrie selon lequel
« lorsque certaines causes produisent certains effets, les éléments de
symétrie des causes doivent se retrouver dans les effets produits.
Il y a ensuite le principe d'équivalence, vérifié à 4 10-13 près
expérimentalement, qui est bien sûr incorporé dans la structure de la RG et
dont toute autre théorie concurrente doit rendre compte.
La thermodynamique est invoquée aussi bien dans la description
des premiers stades de l'univers que dans l'étude des trous noirs. Elle a un
statut de méta-science, s'imposant tant en physique classique qu'en
mécanique quantique, et peut-être en RG. Par ailleurs, les premier et
second principes, qui disant que la chaleur et l'énergie sont de même
nature, mais pas tout à fait, ont peut-être plus qu'une analogie de RG où le
temps et l'espace sont aussi de même nature... mais pas tout à fait (3). La
flèche du temps est la direction dans laquelle l'univers se dilate, l'entropie
augmente et l'anti-matière disparaît plus vite. Quel est le rapport entre ces
trois faits ?
L'existence des trous noirs (→ annexe 1) semble chaque jour
confirmée ; on a mal compris Hawking (qui y a mis du sien) quand il
affirmait : “The absence of event horizons means that there are no black
holes - in the sense of regimes from which light can’t escape to infinity”.
L'emploi de la thermodynamique est incompatible avec le théorème
baptisé par Wheeler « A Black Hole Has No Hair » ; dans les termes de
Luminet « Un trou noir est, par sa simplicité, ou objet idéal... il suffit de
connaître sa masse, son moment angulaire et sa charge pour le décrire
entièrement » (3 bis).
Mais si un trou noir n'a qu'un seul état possible, comment y
introduire de la statistique ?
La théorie quantique, qui reste à réconcilier avec la RG, est aussi
invoquée dans ces deux contextes : « quantum theory tells us that
information cannot disappear from the universe » (Michael Brooks, “PhD
in quantum physics”, New Statesman, 3.9.2015). C'est ce qu'affirme aussi
Luminet (loc. cit.) : “En absorbant la matière, [le trou noir] ne se contente
donc pas de la soustraire de l'univers observable, il la dépouille aussi de
son information. Ce qui contredit, au moins en apparence, les lois de la
physique quantique.” A ce propos, on ne voit pas toujours s'il faut entendre
l'information au sens de l'école de Copenhague ou au sens de Shannon,
issu de la thermodynamique (information identifiée à néguentropie). Et on
n'a pas la même simplicité qu'avec la thermodynamique et ses quatre
principes au plus.
Principes de la relativité générale. Il y a d'abord le principe
d'équivalence, déjà mentionné. Ensuite le principe de conservation de
l'énergie, historiquement à la base de la RG, puisqu'Einstein cherchait un
tenseur conservatif déduit de la métrique ; Cartan a montré que le seule
possibilité à l'ordre 1 était Rαβ - ½ gαβ (R + λ) (4). La constante
cosmologique a donc d'emblée toute sa place, ce qui n'exclut pas que sa
valeur numérique puisse être zéro. Ce serait un des nombreux miracles qui
apparaissent dans les valeurs des constantes, avec la valeur de la densité de
l'univers impliquant un espace plat, et les propriétés du noyau de carbone
lui permettant d'être produit assez abondamment à partir de 3 noyaux
d'hélium (Hoyle). Une valeur non nulle est tentante pour rendre compte de
la « matière noire », introduite pour expliquer les déviations à la loi de
Kepler dans les galaxies. Mais si cette constante a pour effet de rendre plus
pesantes les galaxies, que devient la trajectoire de Mercure, premier succès
de la RG ? Faut-il admette un soleil beaucoup plus léger qu'on ne croyait ?
Il faut donc chercher quelle modification apporte à la solution de
Schwarzschild une constante cosmologique λ ≠ 0 ( → annexe 4) que
Schödinger interprétait dès 1918 comme une énergie répulsive (5). La
valeur de cette constante pose problème : pour les cosmologistes, c'est
10-53 m-2, ou 10-35 s-2, ce qui donne pour λ-1/2 une valeur de l'ordre de 0,3
1018 s, voisine de H-1 estimée à 0,44 1018 . Cela ne risque pas d'influencer
les révolutions de ☿, mais les spécialistes de physique trouvent ce vide bien
faible, et multiplieraient bien cette valeur par10 40, voire 10120; Hobson voit
là « la pire prédiction de l'histoire de la physique ». Le vide quantique n'a
pas encore livré tous ses secrets.
Faut-il garder la description de Lichnerowicz de l'univers : une
variété C2, C4 par morceaux, la métrique g étant C 1, C3 p. m., ce qui laisse
la possibilité d'avoir pour le tenseur de courbure des distributions de Dirac,
point de vue développé par Taub ? Si le régularité ne pose pas trop de
problèmes, la variété se réduit trop souvent à une seule carte, ce qui permet
de faire l'impasse sur les nécessaires questions de topologie. On ne peut le
reprocher aux précurseurs, car la notion de variété a mis du temps à se
dégager, de Riemann à Weyl et Cartan ; il a fallu attendre Whitney et
Ehresmann pour avoir une axiomatique précise. Une question : si la nature
de l'univers a varié dans le temps, si on passe d'une solution des équations
de Friedmann où le terme de rayonnement prédomine à une solution du
type fluide parfait, comment raccorde-t-on ces solutions ? Je n'ai pas
trouvé grand chose sur ce point.
Les modèles cosmologiques supposent l'homogénéité et l'isotropie
de l'univers, plus ou moins déduites des mesures de distance et l'étude du
rayonnement électromagnétique. (→ Annexe 2 : les observations en
cosmologie, inextricablement liées au choix d'un modèle ; Annexe 2 bis,
l'expansion de l'univers)
Le meilleur argument en faveur de l'homogénéité est tiré de l'étude
des fluctuations du rayonnement primordial, qui ne dépassent pas 10-5.
L'isotropie conduit à une collections de métriques de FriedmannLemaître-Robertson-Walker dépendant d'une fonction d'une variable
réelle. (→ Annexe 3 : historique et dérivation des équations de Friedmann.)
Il était alors naturel de postuler aussi l'invariance dans le temps,
d'où le « principe cosmologique parfait » de la théorie de l'état stationnaire.
Cette théorie a été abandonnée, d'abord pour de mauvaises raisons : la
première objection était qu'aucun mécanisme connu ne permettait la
création de baryons pour maintenir constante la densité malgré l'expansion.
Il semble qu'on est moins sévère de nos jours avec la matière et l'énergie
« noire », i. e. sans interactions autres que gravitationnelles, censées rendre
compte des mouvements des galaxies. La matière noire pourrait être
formée de WIMPs, ou d'axions, ou de neutrinos lourds, dont aucun n'a été
observé à ce jour. A moins qu'il n'y ait là qu'un artefact de la constante
cosmologique ?
Ce point de vue implique l'abandon de la covariance généralisée, au
profit de la nouvelle « sphère des fixes » matérialisée par les surfaces
d'onde du rayonnement primitif. Peut-être traduit-elle l'influence de
l'univers dans son ensemble que postulait Ernst Mach ? D'autant qu'il n'est
pas impossible d'envisager, par une relecture de l'expérience de MichelsonMorley-Miller, le mouvement absolu de la terre par rapport à cette sphère,
qui est de 370 km/s. « This makes the existence of a preferred reference
frame more than a simple possibility » (6). La valeur de ce déplacement est
faible ; si la Terre n'occupe pas de position privilégiée, et s'il en est de
même des autres objets, est-ce que cela ne justifierait pas le fait que les
divers effets de RG apparaissent indépendants les uns des autres ?
On a aussi un temps privilégié, sinon absolu. Je me souviens d'un
exposé ancien de Leutwyler, qui était en quelque sorte une défense de
l'industrie horlogère suisse contre les empêcheurs de synchroniser à
distance. Et maintenant personne ne s'étonne d'avoir des horloges assez
corrélées pour voir si des ν se propagent à la vitesse de la lumière (même
si dans ce cas un « bug » avait conduit à un résultat contestable), où si une
onde de gravitation met le bon temps pour aller de Hanford (Washington) à
Livingstone (Louisiane).
A partir du moment où on a une décomposition de l'espace-temps en
R⊕V, où V est à choisir entre seulement trois possibilités, on peut attribuer
un sens physique à des intégrales sur la surface, donnant une base solide à
la notion de masse de l'univers, qui va être le produit de la densité
moyenne par le volume de l'univers, qui n'a aucune raison particulière
d'être 4πR3. Les singularités, qui pourraient être aussi nombreuses que les
trous noirs, semblent n'avoir aucune influence sur la structure globale. Je
m'étonne toujours de ce résultat ; ce n'est que chez un original comme la
relativité en inspire beaucoup que j'ai trouvé l'affirmation "the principle of
superposition does not hold in GR". Or un traitement correct de la solution
de Schwarzchild montre que le trou noir de prolonge par un trou blanc.
Pourquoi « correct » ? parce que « la solution classique de Schwarzschild
est incomplète, alors que la formulation de Kruskal, obtenue par un bon
changement de coordonnées, est une extension maximale : toutes les
géodésiques s'étendent désormais jusqu'à des valeurs infinies de leurs
paramètres affines ou bien finissent à une singularité passée ou future. »
(7) Cela autorise à poser des questions comme : si deux trous noirs sont
voisins, est-ce que leur contreparties le seront dans l'espace (à définir...) où
ils se situent ? Il y a une justification à cette attitude, la faiblesse de
l'interaction gravitationnelle (→ annexe 5, le local et le global)
1. « Une parfaite consistance [sic] ne peut être qu'une vérité absolue » (Eurêka,
in Œuvres en prose, Pléiade, p. 714) « Il faudra attendre les travaux de Friedmann et
Lemaître dans la décennie 1920 et la lente acceptation des modèles de Big Bang pour
que l’étrange cosmogonie d’Edgar Poe attire l’attention de quelques scientifiques. »
(blog de Luminet). « Alexander Friedmann, the man credited with inferring the
expansion of the universe from Einstein's theory, loved Poe.» (Emily Eakin, N. Y.
Times, 2.11.2002).
2. depuis Dirac, Nature, 139, 1937, 323, jusqu'à Nassif et de Faria jr, article
accepté par le Can. Jl. of Physics, sept. 2015. La réflexion de B. Carter Large number
coïncidences and the anthropic principle (séminaire de cosmologie de Cracovie,
1973) l'a conduit au principe mentionné.
2 bis. Pierre Curie : Sur la symétrie..., Journal de Physique théorique et
appliquée, 1894, 3, 1, p. 393-415
3. Voir Costa de Beauregard, Le second principe de la science du temps, Seuil,
1963.
3 bis . Le Monde, 23.12.2015.
4. Journal de mathématiques pures et appliquées, 1, 1922, 141-203
5. Physikalische Zeirschrift, 19, 19-22, 1918.
6. Consoli & al., CoB Radiation and « ether drift » experiments
arXiv:160
1.06518
6 bis. Chang-Shuo Yan, Youjun Lu, Xinyu Dai and Qingjuan Hu : A probable
Milli-Parsec Supermassive Binary Black Hole in the Nearest Quasar Mrk 231
arXiv:1508.06292v2 janvier 2016
7. Hobson, Efstathiou et Lasenby, Relativité générale, p. 261 sqq. de l'édition
française.
Annexe 1 : Les trous noirs
La notion de trou noir remonte à Mitchell (1783) et Laplace (1796).
Supposons le photon pesant : il ne pourra s'écapper dela surfaced'un objet de
rayon r si le potentiel gravitationnel GMm/r vaut (ou excède) l'énergie cinétique
mc2/2, donc si r ≤ 2GM/c2, le rayon de Schwarzschild.
On pense qu'il y a deux catégories principales de trous noirs : les trous
noirs sans moment cinétique (Schwarzschild) ou avec (Kerr), chacun d'eux
possédant une variante chargée qui n'existe probablement pas dans la nature
(Reissner-Nordström et Kerr-Newman). Leur description est issue de
considérations mathématiques. Pour le trou noir sans rotation, on a interprété la
solution de Schwarzschild extérieure (non raccordée à la solution intérieure) et
Birkhoff a montré son unicité. La valeur zéro du moment cinétique est bien sûr
improbable, mais il est souvent plus facile d'effectuer les premiers calculs dans
le modèle de Schwarzschild. La masse est celle qui se déduit du coefficient g 00
qui est aussi g11-1, ou plus naïvement des trajectoires kepleriennes des étoiles
autour du trou, ou du trou lui-même s'il a un compagnon. On peut en imaginer
de toutes les masses (on se demandait si de petits trous noirs ne pourraient pas
être créées au CERN, voire au GANIL). Ceux que l'on observe sont en général
soit de l'ordre de grandeur du Soleil (disons 25 m ☼) soit beaucoup plus gros,
comme le trou noir qui occupe le centre de notre galaxie (4 M m ☼), selon qu'ils
résultent de l'effondrement d'une étoile ou d'une galaxie (ou d'une fusion de
deux galaxies). Enfin la galaxie Markarian 231, distante de 600 M a-l, aurait un
trou noir binaire (1) (4 et 150 M m ☼) et serait loin d'être la seule dans ce cas. On
vient aussi d'en découvrir d'intermédiaires, disons de 500 m☼, comme M82 X1 ,
ou 5000m☼, comme NGC 1313 X1 (2).
Le mathématicien néo-zélandais Roy Kerr a trouvé une autre solution des
équations d'Einstein par une démarche purement mathématique, s'appuyant sur
la classification de Petrov, qui se fonde sur la multiplicité des bivecteurs propres
du tenseur de Weyl, tenseur sans trace qui a les mêmes symétries que le tenseur
de Riemann et est invariant dans les transformations conformes. Elle a d'abord
suscité de l'indifférence malgré le soutien de Papapetrou. Elle apparaissait
comme une solution particulière parmi tant d'autres, la plupart rejetées par les
physiciens (je pense notamment à la solution de de Sitter – un univers vide en
expansion – ou celle de Gödel, qui fascinait Schrödinger) ; puis Brandon Carter
a reconnu qu'elle était elle aussi essentiellement unique et décrivait de façon
satisfaisante un trou noir doué de rotation (comme presque tout ce que l'on
observe dans l'univers : comme le disait Gödel à Ruffini, « null rotation is a set
of measure zero »). Mais là, la solution a conservé le nom de Kerr, bien qu'elle
ait aussi été mentionnée dans la littérature comme la solution de Carter.
Une particularité de la RG est que les champs forts s'y comportent au
final comme des champs faibles (voir aussi l'annexe 5). Le trou noir de notre
galaxie, situé dans la constellation du Sagittaire, aurait une masse de 3,7 ± 1,5
M de masses solaires, nombre résultant de l'étude des trajectoires képleriennes
de quelques étoiles décrivant des révolutions autour de ce trou noir, la plus
rapide mettant quinze ans. Le trou noir jour ici le rôle d'une étoile juste un peu
plus grosse ; il n'avale pas tout ce qui l'entoure, du moins pas plus que ne le fait
le Soleil. On dira un mot plus loin de la déviation du périhélie.
On a annoncé le 11 février 2016 la détection d'ondes gravitationnelles
par Ligo (Laser Interferometer Gravitational-Wave Observatory) ; deux trous
noirs de 36 et 29 m☼ auraient fusionné il y a 1,3 Ga pour donner un trou de
seulement 62 m☼ ; ces résultats se déduisent des calculs de 1995. La liste des
signataires de l'article (3), appartenant à 133 laboratoires différents, remplit
plus de deux pages ; parmi ceux-ci, Drever, Thorne et Weiss, qui sont ceux dont
les noms sont les plus souvent cités pour un futur prix Nobel, ainsi qu'une une
dizaine de Français. Ceux-ci sont associés au projet Virgo, situé à Pise, qui tire
son nom de l'amas de la Vierge, proche de notre amas local. La mise en service
de ce dernier appareil, en phase de réglages, est attendue avec impatience pour
pouvoir faire de la triangulation d'ondes gravitationnelles. Selon Kip Thorne
(qui s'intéresse à cette question depuis un demi siècle : voir son exposé à la
conférence GR5, Tiflis, 1968) « The total power output during the collision was
50 times greater than all the power of all the stars in the universe put
together » : on l'estime à 3,6 1049 W. Il semble qu'on ait du même coup trois
résultats, outre la confirmation de l'existence de trous noirs et leur banalisation :
la constatation directe des ondes gravitationnelles sous la forme d'une variation
des distances terrestres, et non pas indirecte comme avec le pulsar ; une mesure
de l'énergie cohérente avec les précédentes ; et enfin, la vitesse de propagation
de ces ondes est bien c, ce qui était déjà évident pour Vessiot en 1918 (***)
(1) Chang-Shuo Yan, Youjun Lou, Xinyu Dai & Qingjuan Yu,
Astrophysical Journal, 809, 2, 117, 2015, ou arXiv:1508.06292. Voir aussi
Science Daily, 27.8.2015 et passim. : on y trouve que cette observation
“suggère que les trous noirs supermassifs réunissent leurs masses par des
fusions violentes”
(2) Nature, 4.9.2014 ; Astronomy now, 21.9.2015.
(3) Abbott & al.: Observation of gravitational waves from a BBH
merger, Physical Review Letters, 116, 061102
(4) C. R. A. S., 166, n°8, p. 349-351.
Annexe 2 : Les mesures de distance
La question de la distance est assez délicate, car l'observation par des
moyens optiques ne nous fournit d'informations que sur les objets qui sont sur le
cône isotrope, donc à distance nulle. Il faut ensuite en déduire une distance dans
l'espace, qui devrait être (-∫ds2)1/2, l'intégrale étant prise sur la géodésique
joignant notre position à celle de la galaxie « au même temps »... mais qui a
beaucoup d'autres définitions.
Les mesures effectives de distance impliquent une succession d'échelles.
On commence par un peu de trigonométrie en mesurant le parallaxe des étoiles
proches ; la base est l'orbite terrestre, que la lumière parcourt en environ un
quart d'heure. Le satellite Hipparcos a pu mesurer la distance de 100 000 étoiles,
jusqu'à 1000 pc. La seconde échelle est due à Henrietta Leavitt (1912) qui établit
une relation entre la période et la luminosité d'un certain type d'étoile, les
Céphéides. En comparant la luminosité apparente d'une céphéide de période
donnée dans le Nuage de Magellan, on déduit la distance de cette galaxie. Ce
n'est pas si facile – encore maintenant, cette distance n'est connue qu'avec une
précision de 2,2% – et cela explique qu'on ait souvent reconsidéré les valeurs
numériques obtenues. Pour aller plus loin, on considère la magnitude des
supernovas, dont on postule qu'elles ont toute la même énergie, ayant les mêmes
causes (explosion d'étoiles après un effondrement gravitationnel). « Dans les
années 1990, les deux équipes travaillent sur les supernovae, des explosions
d’étoiles très lointaines. Parmi ces supernovae, certaines d’entre elles sont
surnommées les « chandelles standard » en raison de leur luminosité intrinsèque,
qui est théoriquement toujours la même.
Ce sont de bons outils de mesure de distance : en comparant leurs
luminosités, théorique et apparente, on peut déterminer leur éloignement par
rapport à la Terre. Si on considère un grand nombre de ces chandelles situées à
différentes distances de la Terre, on peut déduire l’évolution de la vitesse
d’expansion de l’Univers ». L'affirmation de l'accélération de l'expansion a été
couronnée par le prix Nobel attribué en 2011 à Saul Perlmutter, Adam Riess et
Brian Schmidt. Ces mesures peuvent être remises en cause quand on découvre,
comme ce fut le cas en janvier 2016, des supernova d'une énergie supérieure à
tout ce qu'on connaissait.
Du coup, la constante de Hubble liant le décalage vers le rouge à la
distance a beaucoup fluctué depuis la première estimation due en fait à
Lemaître, et déjà implicite chez Friedmann ; Virginia Trimble a même publié un
article montrant qu'au rythme de ces révisions, la constante de Hubble finirait
par changer de signe et calculait la date (vers 1990) en utilisant une méthode de
moindres carrés (*). Depuis, la constante semble s'être stabilisée à 67.8 ± 0,7
dans l'unité pratique (km/s/Mpc) que les astronomes préfèrent à la s -1, de la
même façon que les physiciens délaissent parfois le J pour l'électron-volt, ou les
marchands d'électroménager le watt pour le kWh/jour. Ou peut-être 67,15
(source : ESA, 21.3.2013) ou 67,3 ± 1,2 (thèse de Boucaud). Cette stabilisation
n'est peut-être pas définitive, la nouvelle valeur étant en-dehors de la marge
d'erreur de plusieurs résultats antérieurs, y compris les résultats de WMAP de
2010 : « These values arise from fitting a combination of WMAP and other
cosmological data to the simplest version of the ΛCDM model. »
L'interprétation des données expérimentales brutes passe en effet par un
modèle, et nous voyons ici enfin une allusion à un modèle relativiste qui
prendrait assez au sérieux la matière et l'énergie noire pour les admettre au
second membre des équations d'Einstein, le modèle « Λ Cold Dark Matter », Λ
désignant la constante cosmologique.
Mais dans la pratique, les astrophysiciens utilisent plusieurs autres
distances empiriques, dont le rapport à la vraie distance r(t)χ (qui n'intéresse
presque personne) dépend de la connaissance du facteur R(t) du ds2 . Par
exemple les distances angulaire et de luminosité, qui s'en déduisent par un
facteur (1 + z)-1 et 1 = z
(*) La Recherche, 4.10.2011
(**) The incredible shrinking constant, 1925-1965 Publications of the
Astronomical Society of the Pacific, v.108, 1996, p.1073-1082.
Annexe 2 bis : l'expansion de l'univers.
Tout le monde a entendu parler du « Big Bang », cet état initial
extrêmement dense dans lequel l'univers se serait trouvé il y a 14 milliards
d'années (on précise même aujourd'hui 13.799±0.021 Ga. Depuis, l'univers est
en expansion, peut-être même de plus en plus rapide. On associe souvent le
nom de l'astronome américain Edwin Hubble (1889-1953) à cette découverte.
S'il a été le premier à l'observer, il avait été précédé par trois théoriciens.
Ceux-ci sont d'abord Einstein, qui a eu l'idée d'appliquer les équations de
la Relativité générale, liant la courbure de l'espace à la distribution de matière, à
l'univers dans son ensemble, il y a à peine un siècle, quand l'Académie de
Berlin était encore royale (a). C'est l'article où il introduit la constante
cosmologique de façon heuristique, avant qu'Élie Cartan n'en montre la
caractère nécessaire (b). Viennent ensuite Alexander Friedmann (1888-1925),
un brillant mathématicien russe, qui avait publié à l'âge de 18 ans un article
dans les Mathematische Annalen. Le troisième est le chanoine belge Georges
Lemaître (1894-1966).
Friedmann a publié deux articles, non pas dans quelque obscure revue
soviétique, mais dans la prestigieuse Zeitschrift für Physik (1922, 1924). Le
premier, intitulé О кривизне простраства (Sur la courbure de l'espace) a été
adressé à Ehrenfest et a été publié en allemand. Le second article s'intitule
"Über die Möglichkeit einer Welt mit konstanter negativer Krümmung des
Raumes" (Sur la possibilité d'un monde avec une courbure négative de
l'espace). Cela revenait à envoyer ces articles à Einstein lui-même, car il était
alors très proche d'Ehrenfest : ils publient ensemble dans cette même revue un
article sur l'interprétation de l'expérience de Stern et Gerlach, une des
expériences fondatrices de la mécanique quantique ; c'est Ehrenfest aussi qui
mit en relation Einstein et Bohr. Einstein a d'abord cru le réfuter, puis a reconnu
la validité des équations de Friedmann : « Ich halte Herr Friemanns Resultate
für wichtig une aufklärend » (c) – on ne peut pas être plus élogieux. Pourquoi
ces articles sont-ils tombés dans l'oubli ? Pour une fois, ce n'est pas la faute des
soviets, dont la censure qui ne se fera vraiment sentir en matière scientifique
que dans le début des années trente ; Friedmann a pu librement voyager à
plusieurs reprises à l'étranger, et revoir notamment le mathématicien Hilbert. Et
s'il est mort prématurément de la typhoïde, ce fut aussi le cas, la même année,
en France, de Jacques Rivière. On ne peut que rêver quel aurait été, sinon, son
destin : mandarin de l'académie des sciences, pensionnaire du Goulag – ou les
deux ? En fait, la Relativité générale est très vite passée de mode ; Einstein,
mondialement célèbre, a été vite marginalisé dans le monde scientifique, et la
renaissance de cette discipline a attendu les colloques de Berne (1953), Chapel
Hill (1956) et Royaumont (1959) pour sortir de son isolement. Et si la RG avait
connu un brillant succès avec la prédiction de la déviation des rayons lumineux
par un corps massif et l'anomalie de Mercure, il fallut attendre 1960 avec
l'expérience de Pound et Rebka (changement de couleur d'un photon tombant
dans un champ de gravitation) pour avoir un nouveau résultat expérimental. De
plus, la cosmologie était volontiers considérée comme une vaine spéculation.
Rappelez-vous déjà Voltaire dans Candide : « Pangloss enseignait la
métaphysico-théologo-cosmolonigogologie » (et que dira-t-on quand un
chanoine s'en mêlera !), ou Auguste Comte : « l'astronomie sera limitée au
monde [entendez par là le système solaire] et ne s'étendra pas à l'univers »
Il semble bien que Lemaître n'en ait pas eu connaissance des travaux de
Friedmann et ait retrouvé par lui-même les équations et une solution
représentant un univers en expansion. Il ne manquera pas de citer le premier
article de Friedmann (en même temps que les deux notes d'Einstein) dans la
deuxième version de son article dont il sera question plus loin. Il publie dans
les Annales de la Société scientifique de Bruxelles un article Un univers
homogène de masse constante et de rayon croissant. On nous dit maintenant
que l'article était en français : « thus it was not broadcast (sic)», comme s'essaie
à écrire un thésitif français. C'est projeter abusivement dans la passé la pratique
actuelle. La vraie raison d'une certaine méconnaissance est que le journal n'était
pas pas considéré comme un journal de premier plan. Pourtant, son image de
« l'atome primitif » était très parlante, même si elle est contestable ; en fait,
nous n'avons pas d'idée bien claire sur ce qu'ont pu être les tous premiers
instants de l'univers ; la mécanique quantique doit intervenir, mais sans qu'on
sache trop comment. Déjà Lemaître en était conscient : voir son article The
Beginning of the World from the point of view of quantum theory (d). Il a été
d'autre part le premier à établir de façon explicite la loi de Hubble, disant que la
vitesse d'éloignement des galaxies est proportionnelle à leur distance ; en
termes mathématiques, v = H d, où H est la constante de Hubble. Lemaître
donnait comme valeur 600 km/s/Mpc, valeur trop élevée d'un ordre de
grandeur. L'idée qui apparaît maintenant comme la principale est d'une
simplicité géniale. Elle revient à projeter le film à l'envers : si les galaxies
s'éloignent dans le futur, alors elles se rapprochent dans le passé; jusqu'où ?
Une version ultérieure (e) a suscité des controverses. Virginia Trimble
suggère l'influence de Hubble dans le nouveau titre (a post-Hubble English
version called « the expanding universe », plus précisément A Homogeneous
universe of Constant Mass and Increasing Radius Accounting for the Radial
Velocity of Extra-galactic Nebulæ) (f) alors que plus récemment on a au
contraire accusé Hubble d'avoir supprimé de cet article la partie sur
l'expansion, ne retenant que les développements mathématiques. Mais c'est
Lemaitre lui-même qui a préféré écarter ce qui était encore conjectural : « La
plus grande partie de l'Univers est pour toujours hors de notre portée ». Voilà le
genre d'affirmation dont il faut se méfier. En 1835 Auguste Comte affirmait:
« Nous ne saurons jamais étudier par aucun moyen la composition chimique
des étoiles » et 30 ans plus tard Bunsen et Kirchhoff lui donnaient tort ; leurs
résultats sur la composition des étoiles sont justement à la base de la
cosmologie moderne, qui rend compte de l'abondance des différents éléments.
On affirmait de même dans les années 70 que les progrès de l'informatique ne
permettraient jamais à une machine de battre un homme aux échecs. De plus, la
valeur trop élevée de la constante conduisait au résultat paradoxal que l'univers
était plus jeune que la Terre, celle-ci ayant 4,54±0,05 milliards d'années.
La solution de Friedmann et Lemaître est maintenant celle qui a le faveur
des scientifiques ; à ces deux noms, ils ajoutent souvent ceux de Robertson et
de Walker, qui ont montré que cette solution est non seulement exacte mais
nécessaire sous des hypothèses d'homogénéité et d'isotropie de l'espace... et
oublient Lemaître ( sauf dans le cas où λ ≠ 0) quand ils parlent de métrique
FRW, en application de la loi de Stigler : « Une découverte scientifique ne porte
jamais le nom de son auteur. »
a Kosmologische Betrachtungen zur allgemeinen Relativitätstheorie, Sitzungsb. der
Königlich Preußischen Akademie der Wissenschaften(Berlin), 1917, p. 142-152.
b Journal de mathématiques pures et appliquées, 1, 1922, 141-203
c Zeitschrift fûr Physik, vol. 16, cahier 3, p. 228.
d Nature, 127, 1931, 706.
e Monthly Notices of the Royal Astronomical Society, 91, mars 1931, p. 483-490.
f Proceedings of the Astronomical Society of the Pacific, 108, dec. 1996, 1073-1082.
Annexe 3 : dérivation des équations de Friedmann
Nous partons des trois seuls ds2 compatibles avec les symétries
postulées, à savoir une métrique diagonale de coefficients (en coordonnées
t, r, θ, φ) :
c2, -R(t)2/1 – kr2 , -R2r2, -R2r2sin2θ,
où k prend les valeurs -1, 0 ou 1 selon le signe de la courbure
On pourrait justifier plus complètement ce résultat très connu en
partant des vecteurs de Killing du problème (∂/∂t et les vecteurs
engendrant l'algèbre de Lie de la sphère, -sinφ ∂θ – cot θ cosφ∂φ, cosφ∂θ cotθ sinφ∂φ et ∂φ, avec les relations de commutation [L i , Lj] = - Lk pour
toute permutation circulaire de (1, 2, 3).
On peut se ramener à des formes un peu plus simples moyennant le
changement de coordonnées r = sin χ ou χ ou shχ, selon que k est 1, 0 ou
-1. Il n'y a alors que douze Γ non nuls.
Toutefois, le calcul se fait le plus souvent sur la première forme, avec
treize Γ non identiquement nuls, ce qui évite de préjuger de la topologie de
l'espace. Il apparaît que le tenseur de Ricci n'a que les 4 termes diagonaux
non nuls, et qu'il n'y a que deux équations indépendantes, à savoir
Annexe 4 : Solution de Schwarzschild avec λ ≠ 0
(pour le moment sous forme manuscrite)
Nous reprenons les notations et le calcul de Hobson. La métrique est
diagonale en coordonnées t,r, θ, φ avec comme coefficients
Annexe 5 : Le local et le global
Comme nous l'avons vu, la non-linéarité des équations entraîne qu'il n'y a pas
superposition. Or on fait appel à la relativité d'une part pour la solution décrivant
l'univers dans son ensemble, et d'autre part pour des solutions particulières décrivant
l'intérieur des étoiles, les masses ponctuelles, les trous noirs avec ou sans rotation, le
problème des deux corps.
Ces développements indépendants les uns des autres ne devraient pas pouvoir
coexister ; or tous supportent la comparaison avec l'observation.
Cela tient à la faiblesse de la gravitation qui fait que l'infini n'est jamais très
loin. Si ce n'est pas à la porte du laboratoire, ce peut être pour nous à la limite du
système solaire.
C'est ce que confirme l'étude par T. Damour du pulsar double PSR B1913+16.
Celui-ci a été découvert en 1974 par Hulse et Taylor en 1975, découverte couronnée
par un prix Nobel en 1993. C'est un astre double ; un des deux est le pulsar
proprement dit, une étoile à neutrons, terme final d'un type de supernova (celles qui
ne produisent pas d'éléments lourds), animé d'une rotation très rapide et douée d'un
moment magnétique, à l'origine d'une émission d'ondes électromagnétiques. En 1963
(donc bien avant cette découverte) Peter et Matthews (1) avaient prédit une
décroissance de la période due à l'émission d'ondes gravitationnelles. Apparemment,
nous ne quittons pas la mécanique newtonienne quand nous nous intéressons au
mouvement relatif de deux étoiles massives (environ 1,4 M ʘ, d'un diamètre d'une
vingtaine de km) et très voisines (distantes de 1 à 5 rayons solaires).
En outre, l'avance du périastre de l'orbite serait de 4.22 degrés par an, ce qui
est énorme comparé aux 43" par siècle du périhélie de Mercure. Mais comme c'est
elle qui a permis l'estimation des masses des deux corps, ce n'est pas une vérification
directe de la RG (2). La vitesse orbitale reste petite devant c : un malheureux 450
km/s, de l'ordre de 10-3. Mais on a aussi affaire à des distances proches du rayon de
Schwarzschild : GM/c2r ~ 0,15 (3) alors que dans le cas de Mercure, on considérait la
planète comme une particule de masse négligeable dans le champ du Soleil, dont le
présence se manifeste par une métrique de Schwarzschild. L'énergie de radiation
gravitationnelle a été estimée à 7.35 × 1024 watt, soit 1,9% du rayonnement
électromagnétique solaire. C'est la valeur prédite par la théorie, à 1% près.
Des approximations linéaires (ou d'un ordre fini un peu supérieur à 1... par
exemple 2 ½ ) suffisent pour résoudre tous les problèmes.
(*) Gravitational Radiation from Point Masses in a Keplerian Orbit, Phys.
Rev. 131, 435.
(2) Y. Choquet-Bruhat, General Relativity and the Einstein equations, Oxford,
2009.
(3) Damour, Journées relativistes 1989
Advanced LIGO News
On February 11, 2016, LIGO announced the detection of gravitational wave signals from the
inspiral and merger of a pair of black holes. The detection occurred on September 14, 2015 at the
beginning of LIGO's O1 data run. Displaying the expected "chirp" behavior, meaning that it swept
upward in amplitude and frequency, the signal, labeled GW150914, appeared in the data streams of
both detectors near 40 Hz and rose to roughly 250 Hz in less than 30 milliseconds. The time
separation between the signal's arrival in the L1 and H1 detectors was 7 milliseconds. The event
would not have registered in LIGO's first-generation detectors; the fact that it appeared with striking
clarity in both L1 and H1 indicates the leap in detector performance that the Advanced LIGO
program has produced. The LIGO-Virgo Collaboration celebrates this milestone in astronomy and
looks forward to a rich future of new discoveries. Image: LIGO.
Read more at the
Laboratory and LIGO Scientific Collaboration websites.
LIGO

Documents pareils