La theorie de la gravitation entropique informationnelle

Transcription

La theorie de la gravitation entropique informationnelle
Mail : [email protected]
Copyright©
Site : [email protected]
La gravitation, une force entropique et
informationnelle
Gorthol Adanedhel
Chercheur indépendant
1
Mail : [email protected]
Copyright©
Site : [email protected]
1 La relativité générale et la physique quantique, quelles problèmes ?
La relativité générale est une théorie de la gravitation : Ecrite par Einstein entre 1907 et 1915, elle
stipule que l’attraction gravitationnelle jusqu’alors connue par l’équation de Newton est en fait une
déformation de l’espace-temps provoquée par des masses. Elle est décrite, de façon simplifiée, par
cette équation :
Il s’agit d’une équation tensorielle.
correspond au coefficient d’élasticité de l’espacetemps, le tenseur
est le tenseur d’énergie impulsion relativiste (une matrice
) déduite du
tenseur énergie impulsion des gaz parfaits aussi appelé tenseur des contraintes (une matrice
),
noté :
Où la pression, la densité d’énergie,
un quadrivecteur, et
le tenseur métrique.
définit finalement la courbure que prend l’espace compte tenu du coefficient d’élasticité et du
tenseur énergie impulsion.
Il existe une solution particulière à l’Equation d’Einstein dans le cas d’un champ gravitationnel créée
par un astre à symétrique sphérique immobile et sans rotation, appelé métrique de Schwarzschild :
La physique quantique est radicalement différente de la physique classique ainsi que de la relativité.
En effet, elle est probabiliste : l’évolution d’un système physique est définie par la fonction d’onde
calculable à partir de l’équation de Schrödinger. Et l’un des principes fondamentaux de la physique
quantique est le suivant : tant qu’un système quantique n’a pas été mesuré, son état est indéfini.
L’équation de Schrödinger est définie ainsi :
Avec , l’opérateur Hamiltonien :
On remarque que l’Hamiltonien donne l’énergie total du système avec la constante de Planck
réduite correspondant à l’impulsion,
correspond donc à l’énergie cinétique,
à
l’énergie potentielle du système. Le delta ( ) est un Laplacien. Cette équation est une équation de
2
Mail : [email protected]
Copyright©
Site : [email protected]
premier ordre par rapport au temps. Donc si on connaît l’état du système à l’instant initial, on peut
connaître l’état du système à tout instant .
Enfin l’autre principe fondamental de la physique quantique, le principe d’incertitude de
Heisenberg :
Cette équation signifie simplement que l’on ne peut pas définir simultanément la position et
l’impulsion avec une infinie précision.
La question principale est donc de comprendre l’origine de la gravitation. En effet, des « infinies »
apparaissent à partir du moment où l’on veut formaliser la gravitation dans les équations
quantiques. Les théories quantiques de la gravitation sont donc non renormalisable. Alors, existe-t-il
un autre formalisme permettant de normaliser la gravitation dans les équations quantiques ? Ou la
gravitation est-elle tellement négligeable à l’échelle quantique qu’elle n’existe pas ? Et donc… quelle
est l’origine de la gravitation ? Est-elle émergeante ?
Il s’agirait en fait de définir une mécanique « d’échelle » et statistique. En fait, le but est de passer
d’un formalisme de très petite échelle (appelons-le l’échelle quantique), à un formalisme
macroscopique (échelle thermodynamique avec notamment l’étude des gaz parfaits) à enfin un
formalisme de grande échelle (l’échelle relativiste). Pour cela, un formalisme bien particulier sera
nécessaire. Nous aurons besoins des formules de base en théorie de l’information et en
thermodynamique.
La partie suivante traite le lien entre thermodynamique et gravitation. Un autre formalisme de la
gravitation pourra ainsi naître.
3
Mail : [email protected]
Copyright©
Site : [email protected]
2 Thermodynamique et gravitation : Vers une force de gravitation
entropique.
Eric Verlinde publie en avril 2011 un document de 29 pages intitulé « On the Origin of the Gravity
and The Laws of Newton (de l’origine de la gravité et des lois de Newton) ». Il fut le premier à dire
que la gravitation pouvait être décrite de façon entropique. Je vais détailler les calculs en prenant le
cas d’un gaz contenu dans une boîte fermée placé sur un piston mobile, en sachant que le système
est maintenu à une température T. Puisque la pression est la force exercée sur une surface, et en
supposant que le gaz est parfait, on peut écrire :
Avec la hauteur du piston. Le travail associé à une variation d’auteur
est
. Il s’ensuit alors,
compte-tenu du premier principe de thermodynamique que
avec S l’entropie du
système. On peut alors écrire l’égalité suivante
donnant finalement :
Mais où est la force de gravitation ? Eh bien la gravitation en relativité générale est en fait une force
de pression. Il s’agit d’une masse qui exerce une certaine « pression » sur une surface, l’espacetemps, entraînant ainsi sa courbure. Et puis rappelons un des principes de l’entropie : l’entropie
d’un système de deux particules est d’autant plus élevée que les particules sont proches. Cet
énoncé est semblable à celui de la force de la gravitation : plus deux objets sont proches, plus la
force de gravitation est forte. On en déduit alors, avec et deux masses distinctives, ainsi que
la distance séparant ces deux masses, la formule suivante :
Il existe une autre manière d’avoir ce même résultat en partant de l’équation de l’énergie cinétique
des gaz parfaits moyenne des molécules :
Si on écrit
, on obtient l’énergie potentielle de pesanteur sur Terre, soit :
Au final, en mettant h de l’autre côté, nous avons :
4
Mail : [email protected]
Copyright©
Site : [email protected]
Ce qui est très semblable au résultat d’Eric Verlinde.
Je souhaite aussi rappeler deux équations décrite par Eric Verlinde en thermodynamique. L’énergie
totale d’un système peut s’écrire ainsi :
Et la température peut s’écrire :
Ce qui est incroyable dans l’équation de Verlinde est que, en donnant une origine entropique à la
gravité, on peut déduire les forces gravitationnelles macroscopiques sans rien dire de ce qui se
passe à l’échelle microscopique. La parution de ce document a eu un grand émoi chez les
scientifiques et de vives critiques, autant positives que négatives.
Mais nous allons aller plus loin que cela. En effet, nous allons voir ce qu’est vraiment l’entropie. Il
existe diverses formes équationnelles de l’entropie, que nous allons voir tout de suite. La première
est l’entropie utilisée ci-dessous, l’entropie de Boltzmann, qui s’écrit :
Cette équation définit l'entropie microcanonique d'un système physique à l'équilibre
macroscopique, mais laissée libre d'évoluer à l'échelle microscopique entre Omega ( ) micro-états
différents (appelé aussi nombre de complexions, ou encore nombre de configuration du système).
L’unité est en Joule par Kelvin (J/K).
L’autre formule est la formule de Shannon. L'entropie de Shannon, due à Claude Shannon, est une
fonction mathématique qui correspond à la quantité d'information contenue ou délivrée par une
source d'information. Plus la source est redondante, moins elle contient d'information. L'entropie
est ainsi maximale pour une source dont tous les symboles sont équiprobables. L'entropie de
Shannon peut être vue comme mesurant la quantité d'incertitude liée à un événement aléatoire, ou
plus précisément à sa distribution. Généralement, le logarithme sera en base 2 (base binaire). Sa
formule est :
Maintenant que nous connaissons l’entropie de Boltzmann et l’entropie de Shannon, on peut
fusionner les deux ce qui donne l’entropie de Boltzmann-Shannon. Si on considère un système
thermodynamique qui peut se trouver dans plusieurs états microscopiques , de probabilités
respectives , l’entropie statistique s’écrit alors :
5
Mail : [email protected]
Copyright©
Site : [email protected]
Cette fonction est primordiale dans notre théorie, et ce sera celle-ci qui sera sans cesse utilisée dans
notre théorie de la gravitation entropique. Son unité est le binaire et Joule par Kelvin. Citons
quelques propriétés de cette fonction. On sait que l’entropie est maximale lorsque les nombres de
molécules dans chaque compartiment sont égaux. L’entropie est minimale si toutes les molécules
sont dans un seul compartiment. Elle vaut alors 0 puisque le nombre d’états microscopiques vaut 1.
Du point de vue de la théorie de l’information, le système thermodynamique se comporte comme
une source qui n’envoie aucun message. Ainsi, l’entropie mesure « l’information qui manque » au
récepteur (ou l’incertitude de la totalité de l’information).
Si l’entropie est maximale (les nombres de molécules dans chaque compartiment sont égaux)
l’information manquante est maximale. Si l’entropie est minimale (les nombres de molécules sont
dans un même compartiment), alors l’information qui manque est nul.
Au final, l’entropie de Shannon et l’entropie de Boltzmann représente le même concept qui est
juste sur des unités différentes : en théorie de l’information, notre équation ci-dessus permet
d’interpréter l’entropie d’un système comme l’information qui manque du fait d’une absence de
communication.
Pour mieux comprendre la nécessité de relier l’information à la thermodynamique, il faut bien
comprendre le champ d’influence de la théorie de l’information en physique et les problèmes qu’il
pourrait résoudre. En effet, un exemple fort est le paradoxe de l’information : du point de vue de la
relativité générale, une information peut totalement disparaître dans un trou noir. C’est un
phénomène non réversible. Or, en physique quantique, l’information doit toujours être préservé, et
elle est réversible (on peut connaître les états précédents).
C’est la raison pour laquelle la prochaine partie s’intitule « la théorie de l’information et la gravité
entropique ». Je vais vous montrer les principes de bases de la théorie de l’information, et ensuite,
nous verrons ces liens avec la gravité entropique.
6
Mail : [email protected]
Copyright©
Site : [email protected]
3 La théorie de l’information et la gravité entropique.
Pour calculer la quantité d’information (on l’appellera
) d’un système, on fait l’opération :
Cette fonction calcule la quantité de bit contenu dans un système. Je vais prendre de multiples
exemples. Prenons les lettres de l’alphabet « ABCDEFGHIJKLMONPQRSTUVWXYZ ». Il y a 26 lettres.
La quantité d’information est donc égale à
bit.
Pour mesurer son entropie, on utilise l’entropie de Shannon que l’on a vue ci-dessous :
Cette fonction permet de calculer la quantité d’incertitude liée à une variable aléatoire. Autrement
dit, elle mesure l’incertitude de l’information. Si on prend l’exemple précédent, l’entropie vaut
bit.
Au final, pour mesurer l’information auquel nous sommes certains (que l’on appellera
), nous
devons faire la différence entre la quantité d’information totale et l’incertitude de l’information.
Cela donne :
Avec l’exemple précédent, nous obtenons
bit. Par développement,
nous pouvons factoriser le tout, soit en fonction de la quantité d’information d’une part, soit en
fonction de l’entropie d’autre part :
De même manière, nous pouvons très bien définir l’entropie et la quantité d’information en
fonction de
:
7
Mail : [email protected]
Copyright©
Site : [email protected]
Venons-en maintenant à la gravitation. On a défini précédemment quelques propriétés de la
théorie de l’information. Pour avoir l’entropie statistique de Boltzmann-Shannon, il suffit de mettre
avant le grand opérateur somme la constante de Boltzmann . Cela veut dire que les lois de la
thermodynamique (en entropie statistique) suivent les mêmes principes que la théorie de
l’information.
On peut maintenant très bien écrire
,
,
en fonction aussi de la gravitation, et
inversement. Il suffit de revenir sur l’équation précédente :
On peut très bien écrire que :
On remplaçant le terme
par le terme ci-dessus, et en isolant l’entropie, nous avons :
Il est alors très facile de faire de même pour les autres termes
et
:
Ce que l’on remarque est que l’entropie (ainsi que les autres termes
et
) évoluent bien en
fonction de la force de gravitation de Newton ainsi que de la température. Et ce raisonnement peut
se faire inversement comme l’avait écrit Eric Verlinde : La gravitation suit les propriétés de
l’entropie.
Mais ce qui se distingue le plus est le fait que nous utilisons l’entropie statistique de BoltzmannShannon : la quantité d’information ainsi que son incertitude suit la force de gravitation. Comme on
l’avait écrit précédemment, plus grande est l’incertitude de l’information, plus le désordre
augmente, plus forte est la gravitation. Cela veut dire qu’à de grand système (échelle relativiste) le
désordre est très grand, donc la force de gravitation est très grande (par exemple Roger Penrose
estimait que l’entropie d’un trou noir était environ égale à
). Toutefois, au niveau
quantique, si on applique la même équation, l’entropie y est quasi nulle, et donc la force de
gravitation y est inexistante.
8
Mail : [email protected]
Copyright©
Site : [email protected]
Cela veut dire qu’à l’échelle relativiste,
est relativement faible (la quantité d’information
certaine est faible car l’incertitude d’information est grande). A contrario, à l’échelle quantique, vue
que l’entropie est quasi-nulle, la quantité
est égale à la quantité totale du système
.
Cela veut dire que toute l’information de l’univers est contenue à l’échelle quantique là où
l’entropie et l’incertitude est le plus bas. Plus on monte d’échelle, plus l’entropie augmente, plus la
gravitation apparaît et devient forte. A grande échelle, l’entropie (et donc la gravitation) apparaît à
partir des phénomènes macroscopiques.
On peut toujours toutefois définir une entropie en théorie quantique utilisée en cryptographie
quantique (avec les propriétés de l’intrication), appelé l’entropie de Von Neumann noté :
Avec
la matrice densité et
une base orthonormé :
L’entropie de Von Neumann est identique à celle de Shannon, sauf que celle-ci utilise la variable ,
une matrice densité. Comme l’écrit Serge Laroche, cette équation peut servir à calculer le degré
d’intrication de deux particules : si les deux particules ne sont pas intriquées, l’entropie est nulle. A
l’inverse, si l’intrication entre les deux particules est maximales, l’entropie y est maximale, comptetenu nous n’avons pas accès au sous-système. En mécanique classique une entropie nulle signifie
que les évènements sont certains (une seule possibilité) alors qu’en mécanique quantique cela
signifie que la matrice densité est un état pure de . Mais en physique quantique les mesures sont
en général non prévisible car la distribution de probabilité dépend de la fonction d’onde et de
l’observable.
Et ceci s’explique aussi grâce au principe d’incertitude de Heisenberg : en effet, si par exemple on
venait à avoir davantage d’information (donc moins d’entropie) sur l’impulsion de la particule, on a
moins d’information sur la position de celle-ci (plus d’entropie). Cela implique que la physique
quantique est toujours plongée dans l’entropie, même si cette entropique est faible.
9
Mail : [email protected]
Copyright©
Site : [email protected]
4 L’Equation d’Einstein modifiée : proposition d’une forme
thermodynamique compte tenu de la gravité entropique et de la
théorie de l’information.
Nous avions écrit plus haut l’Equation d’Einstein simplifiée. Dans cette partie, nous allons calculer
l’équation d’Einstein avec le tenseur énergie impulsion des fluides parfaits. Pour cela, il nous faudra
calculer deux éléments : la pression et la densité volumique.
La pression peut s’écrire :
La masse est égale à
si on regarde l’équation d’Eric Verlinde plus haut. Donc on peut
calculer facilement la densité énergétique :
La partie entre parenthèse du tenseur énergie impulsion des fluides parfaits devient facile à
résoudre :
Le tenseur énergie impulsion devient :
Il ne reste plus qu’à factoriser :
Au final, l’équation d’Einstein peut s’écrire :
Maintenant, nous pouvons l’écrire en fonction de l’entropie statistique de Boltzmann-Shannon, ce
qui donne :
10
Mail : [email protected]
Site : [email protected]
Copyright©
Ce que l’on remarque est que cette fois-ci, l’équation d’Einstein est décrite directement de façon
statistique par les lois de la thermodynamique. La gravitation redevient une force émergeante issue
de l’échelle macroscopique. On peut toujours faire le même constat que précédemment pour
l’échelle quantique : il existe toujours une entropie dû à l’incertitude de la mesure de la fonction
d’onde mais cette entropie est bien trop faible pour que la gravitation puisse exister à cette échelle.
Toutefois, toute la quantité d’information est contenue à l’espace quantique.
Pour bien vous le montrer, prenons une particule au repos (le quadrivecteur est donc nul et
)
avec un spin ½. La valeur du spin sera le paramètre permettant de calculer la quantité d’information
du système (
. On va considérer que le tenseur métrique est nul et on va aussi considérer
que les constantes sont égales à 1 (
). Nous avons :
De l’autre côté si on fait de même pour l’entropie :
Une petite remarque : cette équation est très proche de celle trouvée en théorie holographique :
On remarque dans notre équation que la quantité d’information est définie en fonction de la
courbure de l’espace-temps, de la température, mais aussi du volume ! Au final l’information d’un
système est contenue / enregistrée dans un volume, et non sur une surface comme le décrit les
équations de la théorie holographique ! Ceci règle le problème du paradoxe de l’information :
l’information est contenue dans un volume de l’espace-temps.
Mais attention, l’information est contenue dans un volume à l’échelle quantique. En effet, nous
avions dit que l’entropie est beaucoup plus faible à cette échelle. Nous retrouvons donc la formule
. La totalité de l’information du système est donc contenue à cette échelle.
On peut voir notre équation comme notre projection en 3 dimensions de l’espace-temps (compte
tenu du fait que l’entropie dépend de la courbure
, et donc du tenseur métrique
) et cela,
qu’importe le nombre de dimensions de l’espace-temps.
11
Mail : [email protected]
Copyright©
Site : [email protected]
5 Conclusion générale.
La gravitation est une force entropique émergeante et informationnelle. Elle est définie en fonction
de la température et de l’entropie. Plus l’entropie est grande, plus la force de gravitation est
grande. Cette entropie peut être définie en fonction de la quantité d’information du système
étudié. Plus l’incertitude est grande, plus grand est le désordre, plus grande est la force de
gravitation.
A grande échelle, l’entropie est très grande, ce qui explique pourquoi la force de gravitation est si
attractive à proximité d’un trou noir par exemple (l’entropie d’un trou noir, selon Roger Penrose est
de l’ordre de
). L’entropie, à grande échelle, émerge des phénomènes macroscopiques.
A l’échelle quantique, la gravitation n’existe pas et serait de toute façon impossible à déterminer : le
principe de Heisenberg indique qu’il n’est pas possible d’être sûr de l’impulsion et de la position de
la particule simultanément. De plus, en physique quantique, la mesure dépend autant de la fonction
d’onde que de l’observable.
Si on se penche sur l’équation d’Einstein en la résolvant avec le tenseur énergie impulsion des
fluides parfaits et en prenant en compte la thermodynamique et la théorie de l’information, on
remarque que l’information dépend de la température, de la courbure de l’espace-temps et du
volume. L’information est enregistrée dans un volume d’espace-temps réglant ainsi le problème du
paradoxe de l’information. Toute la quantité d’information d’un système est enregistrée à l’échelle
quantique du fait que l’entropie est faible (nous avons
).
La théorie holographique dit que nous serions une projection d’un espace en 2 dimensions (la
surface) en 3 dimensions. Je dirais plutôt, au sens de mon équation, que toute l’information se
conserve simplement dans l’espace, mais que cette conservation prend en compte la courbure de
l’espace-temps, la température auxquels sont soumis le système et le volume. Il serait plutôt juste
de dire que nous serions la projection en 3 dimensions de l’espace-temps. Cela est plus simple et
aussi plus général : au final, on peut très bien être la projection en 3 dimensions d’un espace qui en
fait 2 ou 3, ou 4 etc…
12
Mail : [email protected]
Copyright©
Site : [email protected]
6 Bibliographie.
[1]
Clément Baruteau – Introduction à la thermodynamique et à la physique statistique
[2]
Michel Le Bellac – La mécanique quantique
[3]
Michel Le Bellac – Introduction à l’information quantique
[4]
Richard Taillet – Podcast de l’université de Grenoble
[5]
Philipe Duchon – Théorie de l’information
[6]
Eric Verlinde – On the Origin of Gravity and the Laws of Newton
[7]
Eric Verlinde – Gravity is an emergent force
[8]
Science Etonnante – La gravité, une force émergeante d’origine entropique
[9]
Futura-Espace – L’entropie de l’univers – son désordre – revue à la hausse
[10]
José-Philipe Perez – L’entropie de Boltzmann et l’entropie de Shannon, même
concept ?
[11]
Serge Laroche – Mesure de l’intrication : Entropie de Shannon et de Von Neumann
[12]
Jean Zin – L’entropie, l’énergie et l’information
[13]
Bernard Guy – Relier la mécanique quantique et la relativité générale ? Réflexions et
propositions.
[14]
Eric Gourgoulhon – La thermodynamique des trous noirs
13