La theorie de la gravitation entropique informationnelle
Transcription
La theorie de la gravitation entropique informationnelle
Mail : [email protected] Copyright© Site : [email protected] La gravitation, une force entropique et informationnelle Gorthol Adanedhel Chercheur indépendant 1 Mail : [email protected] Copyright© Site : [email protected] 1 La relativité générale et la physique quantique, quelles problèmes ? La relativité générale est une théorie de la gravitation : Ecrite par Einstein entre 1907 et 1915, elle stipule que l’attraction gravitationnelle jusqu’alors connue par l’équation de Newton est en fait une déformation de l’espace-temps provoquée par des masses. Elle est décrite, de façon simplifiée, par cette équation : Il s’agit d’une équation tensorielle. correspond au coefficient d’élasticité de l’espacetemps, le tenseur est le tenseur d’énergie impulsion relativiste (une matrice ) déduite du tenseur énergie impulsion des gaz parfaits aussi appelé tenseur des contraintes (une matrice ), noté : Où la pression, la densité d’énergie, un quadrivecteur, et le tenseur métrique. définit finalement la courbure que prend l’espace compte tenu du coefficient d’élasticité et du tenseur énergie impulsion. Il existe une solution particulière à l’Equation d’Einstein dans le cas d’un champ gravitationnel créée par un astre à symétrique sphérique immobile et sans rotation, appelé métrique de Schwarzschild : La physique quantique est radicalement différente de la physique classique ainsi que de la relativité. En effet, elle est probabiliste : l’évolution d’un système physique est définie par la fonction d’onde calculable à partir de l’équation de Schrödinger. Et l’un des principes fondamentaux de la physique quantique est le suivant : tant qu’un système quantique n’a pas été mesuré, son état est indéfini. L’équation de Schrödinger est définie ainsi : Avec , l’opérateur Hamiltonien : On remarque que l’Hamiltonien donne l’énergie total du système avec la constante de Planck réduite correspondant à l’impulsion, correspond donc à l’énergie cinétique, à l’énergie potentielle du système. Le delta ( ) est un Laplacien. Cette équation est une équation de 2 Mail : [email protected] Copyright© Site : [email protected] premier ordre par rapport au temps. Donc si on connaît l’état du système à l’instant initial, on peut connaître l’état du système à tout instant . Enfin l’autre principe fondamental de la physique quantique, le principe d’incertitude de Heisenberg : Cette équation signifie simplement que l’on ne peut pas définir simultanément la position et l’impulsion avec une infinie précision. La question principale est donc de comprendre l’origine de la gravitation. En effet, des « infinies » apparaissent à partir du moment où l’on veut formaliser la gravitation dans les équations quantiques. Les théories quantiques de la gravitation sont donc non renormalisable. Alors, existe-t-il un autre formalisme permettant de normaliser la gravitation dans les équations quantiques ? Ou la gravitation est-elle tellement négligeable à l’échelle quantique qu’elle n’existe pas ? Et donc… quelle est l’origine de la gravitation ? Est-elle émergeante ? Il s’agirait en fait de définir une mécanique « d’échelle » et statistique. En fait, le but est de passer d’un formalisme de très petite échelle (appelons-le l’échelle quantique), à un formalisme macroscopique (échelle thermodynamique avec notamment l’étude des gaz parfaits) à enfin un formalisme de grande échelle (l’échelle relativiste). Pour cela, un formalisme bien particulier sera nécessaire. Nous aurons besoins des formules de base en théorie de l’information et en thermodynamique. La partie suivante traite le lien entre thermodynamique et gravitation. Un autre formalisme de la gravitation pourra ainsi naître. 3 Mail : [email protected] Copyright© Site : [email protected] 2 Thermodynamique et gravitation : Vers une force de gravitation entropique. Eric Verlinde publie en avril 2011 un document de 29 pages intitulé « On the Origin of the Gravity and The Laws of Newton (de l’origine de la gravité et des lois de Newton) ». Il fut le premier à dire que la gravitation pouvait être décrite de façon entropique. Je vais détailler les calculs en prenant le cas d’un gaz contenu dans une boîte fermée placé sur un piston mobile, en sachant que le système est maintenu à une température T. Puisque la pression est la force exercée sur une surface, et en supposant que le gaz est parfait, on peut écrire : Avec la hauteur du piston. Le travail associé à une variation d’auteur est . Il s’ensuit alors, compte-tenu du premier principe de thermodynamique que avec S l’entropie du système. On peut alors écrire l’égalité suivante donnant finalement : Mais où est la force de gravitation ? Eh bien la gravitation en relativité générale est en fait une force de pression. Il s’agit d’une masse qui exerce une certaine « pression » sur une surface, l’espacetemps, entraînant ainsi sa courbure. Et puis rappelons un des principes de l’entropie : l’entropie d’un système de deux particules est d’autant plus élevée que les particules sont proches. Cet énoncé est semblable à celui de la force de la gravitation : plus deux objets sont proches, plus la force de gravitation est forte. On en déduit alors, avec et deux masses distinctives, ainsi que la distance séparant ces deux masses, la formule suivante : Il existe une autre manière d’avoir ce même résultat en partant de l’équation de l’énergie cinétique des gaz parfaits moyenne des molécules : Si on écrit , on obtient l’énergie potentielle de pesanteur sur Terre, soit : Au final, en mettant h de l’autre côté, nous avons : 4 Mail : [email protected] Copyright© Site : [email protected] Ce qui est très semblable au résultat d’Eric Verlinde. Je souhaite aussi rappeler deux équations décrite par Eric Verlinde en thermodynamique. L’énergie totale d’un système peut s’écrire ainsi : Et la température peut s’écrire : Ce qui est incroyable dans l’équation de Verlinde est que, en donnant une origine entropique à la gravité, on peut déduire les forces gravitationnelles macroscopiques sans rien dire de ce qui se passe à l’échelle microscopique. La parution de ce document a eu un grand émoi chez les scientifiques et de vives critiques, autant positives que négatives. Mais nous allons aller plus loin que cela. En effet, nous allons voir ce qu’est vraiment l’entropie. Il existe diverses formes équationnelles de l’entropie, que nous allons voir tout de suite. La première est l’entropie utilisée ci-dessous, l’entropie de Boltzmann, qui s’écrit : Cette équation définit l'entropie microcanonique d'un système physique à l'équilibre macroscopique, mais laissée libre d'évoluer à l'échelle microscopique entre Omega ( ) micro-états différents (appelé aussi nombre de complexions, ou encore nombre de configuration du système). L’unité est en Joule par Kelvin (J/K). L’autre formule est la formule de Shannon. L'entropie de Shannon, due à Claude Shannon, est une fonction mathématique qui correspond à la quantité d'information contenue ou délivrée par une source d'information. Plus la source est redondante, moins elle contient d'information. L'entropie est ainsi maximale pour une source dont tous les symboles sont équiprobables. L'entropie de Shannon peut être vue comme mesurant la quantité d'incertitude liée à un événement aléatoire, ou plus précisément à sa distribution. Généralement, le logarithme sera en base 2 (base binaire). Sa formule est : Maintenant que nous connaissons l’entropie de Boltzmann et l’entropie de Shannon, on peut fusionner les deux ce qui donne l’entropie de Boltzmann-Shannon. Si on considère un système thermodynamique qui peut se trouver dans plusieurs états microscopiques , de probabilités respectives , l’entropie statistique s’écrit alors : 5 Mail : [email protected] Copyright© Site : [email protected] Cette fonction est primordiale dans notre théorie, et ce sera celle-ci qui sera sans cesse utilisée dans notre théorie de la gravitation entropique. Son unité est le binaire et Joule par Kelvin. Citons quelques propriétés de cette fonction. On sait que l’entropie est maximale lorsque les nombres de molécules dans chaque compartiment sont égaux. L’entropie est minimale si toutes les molécules sont dans un seul compartiment. Elle vaut alors 0 puisque le nombre d’états microscopiques vaut 1. Du point de vue de la théorie de l’information, le système thermodynamique se comporte comme une source qui n’envoie aucun message. Ainsi, l’entropie mesure « l’information qui manque » au récepteur (ou l’incertitude de la totalité de l’information). Si l’entropie est maximale (les nombres de molécules dans chaque compartiment sont égaux) l’information manquante est maximale. Si l’entropie est minimale (les nombres de molécules sont dans un même compartiment), alors l’information qui manque est nul. Au final, l’entropie de Shannon et l’entropie de Boltzmann représente le même concept qui est juste sur des unités différentes : en théorie de l’information, notre équation ci-dessus permet d’interpréter l’entropie d’un système comme l’information qui manque du fait d’une absence de communication. Pour mieux comprendre la nécessité de relier l’information à la thermodynamique, il faut bien comprendre le champ d’influence de la théorie de l’information en physique et les problèmes qu’il pourrait résoudre. En effet, un exemple fort est le paradoxe de l’information : du point de vue de la relativité générale, une information peut totalement disparaître dans un trou noir. C’est un phénomène non réversible. Or, en physique quantique, l’information doit toujours être préservé, et elle est réversible (on peut connaître les états précédents). C’est la raison pour laquelle la prochaine partie s’intitule « la théorie de l’information et la gravité entropique ». Je vais vous montrer les principes de bases de la théorie de l’information, et ensuite, nous verrons ces liens avec la gravité entropique. 6 Mail : [email protected] Copyright© Site : [email protected] 3 La théorie de l’information et la gravité entropique. Pour calculer la quantité d’information (on l’appellera ) d’un système, on fait l’opération : Cette fonction calcule la quantité de bit contenu dans un système. Je vais prendre de multiples exemples. Prenons les lettres de l’alphabet « ABCDEFGHIJKLMONPQRSTUVWXYZ ». Il y a 26 lettres. La quantité d’information est donc égale à bit. Pour mesurer son entropie, on utilise l’entropie de Shannon que l’on a vue ci-dessous : Cette fonction permet de calculer la quantité d’incertitude liée à une variable aléatoire. Autrement dit, elle mesure l’incertitude de l’information. Si on prend l’exemple précédent, l’entropie vaut bit. Au final, pour mesurer l’information auquel nous sommes certains (que l’on appellera ), nous devons faire la différence entre la quantité d’information totale et l’incertitude de l’information. Cela donne : Avec l’exemple précédent, nous obtenons bit. Par développement, nous pouvons factoriser le tout, soit en fonction de la quantité d’information d’une part, soit en fonction de l’entropie d’autre part : De même manière, nous pouvons très bien définir l’entropie et la quantité d’information en fonction de : 7 Mail : [email protected] Copyright© Site : [email protected] Venons-en maintenant à la gravitation. On a défini précédemment quelques propriétés de la théorie de l’information. Pour avoir l’entropie statistique de Boltzmann-Shannon, il suffit de mettre avant le grand opérateur somme la constante de Boltzmann . Cela veut dire que les lois de la thermodynamique (en entropie statistique) suivent les mêmes principes que la théorie de l’information. On peut maintenant très bien écrire , , en fonction aussi de la gravitation, et inversement. Il suffit de revenir sur l’équation précédente : On peut très bien écrire que : On remplaçant le terme par le terme ci-dessus, et en isolant l’entropie, nous avons : Il est alors très facile de faire de même pour les autres termes et : Ce que l’on remarque est que l’entropie (ainsi que les autres termes et ) évoluent bien en fonction de la force de gravitation de Newton ainsi que de la température. Et ce raisonnement peut se faire inversement comme l’avait écrit Eric Verlinde : La gravitation suit les propriétés de l’entropie. Mais ce qui se distingue le plus est le fait que nous utilisons l’entropie statistique de BoltzmannShannon : la quantité d’information ainsi que son incertitude suit la force de gravitation. Comme on l’avait écrit précédemment, plus grande est l’incertitude de l’information, plus le désordre augmente, plus forte est la gravitation. Cela veut dire qu’à de grand système (échelle relativiste) le désordre est très grand, donc la force de gravitation est très grande (par exemple Roger Penrose estimait que l’entropie d’un trou noir était environ égale à ). Toutefois, au niveau quantique, si on applique la même équation, l’entropie y est quasi nulle, et donc la force de gravitation y est inexistante. 8 Mail : [email protected] Copyright© Site : [email protected] Cela veut dire qu’à l’échelle relativiste, est relativement faible (la quantité d’information certaine est faible car l’incertitude d’information est grande). A contrario, à l’échelle quantique, vue que l’entropie est quasi-nulle, la quantité est égale à la quantité totale du système . Cela veut dire que toute l’information de l’univers est contenue à l’échelle quantique là où l’entropie et l’incertitude est le plus bas. Plus on monte d’échelle, plus l’entropie augmente, plus la gravitation apparaît et devient forte. A grande échelle, l’entropie (et donc la gravitation) apparaît à partir des phénomènes macroscopiques. On peut toujours toutefois définir une entropie en théorie quantique utilisée en cryptographie quantique (avec les propriétés de l’intrication), appelé l’entropie de Von Neumann noté : Avec la matrice densité et une base orthonormé : L’entropie de Von Neumann est identique à celle de Shannon, sauf que celle-ci utilise la variable , une matrice densité. Comme l’écrit Serge Laroche, cette équation peut servir à calculer le degré d’intrication de deux particules : si les deux particules ne sont pas intriquées, l’entropie est nulle. A l’inverse, si l’intrication entre les deux particules est maximales, l’entropie y est maximale, comptetenu nous n’avons pas accès au sous-système. En mécanique classique une entropie nulle signifie que les évènements sont certains (une seule possibilité) alors qu’en mécanique quantique cela signifie que la matrice densité est un état pure de . Mais en physique quantique les mesures sont en général non prévisible car la distribution de probabilité dépend de la fonction d’onde et de l’observable. Et ceci s’explique aussi grâce au principe d’incertitude de Heisenberg : en effet, si par exemple on venait à avoir davantage d’information (donc moins d’entropie) sur l’impulsion de la particule, on a moins d’information sur la position de celle-ci (plus d’entropie). Cela implique que la physique quantique est toujours plongée dans l’entropie, même si cette entropique est faible. 9 Mail : [email protected] Copyright© Site : [email protected] 4 L’Equation d’Einstein modifiée : proposition d’une forme thermodynamique compte tenu de la gravité entropique et de la théorie de l’information. Nous avions écrit plus haut l’Equation d’Einstein simplifiée. Dans cette partie, nous allons calculer l’équation d’Einstein avec le tenseur énergie impulsion des fluides parfaits. Pour cela, il nous faudra calculer deux éléments : la pression et la densité volumique. La pression peut s’écrire : La masse est égale à si on regarde l’équation d’Eric Verlinde plus haut. Donc on peut calculer facilement la densité énergétique : La partie entre parenthèse du tenseur énergie impulsion des fluides parfaits devient facile à résoudre : Le tenseur énergie impulsion devient : Il ne reste plus qu’à factoriser : Au final, l’équation d’Einstein peut s’écrire : Maintenant, nous pouvons l’écrire en fonction de l’entropie statistique de Boltzmann-Shannon, ce qui donne : 10 Mail : [email protected] Site : [email protected] Copyright© Ce que l’on remarque est que cette fois-ci, l’équation d’Einstein est décrite directement de façon statistique par les lois de la thermodynamique. La gravitation redevient une force émergeante issue de l’échelle macroscopique. On peut toujours faire le même constat que précédemment pour l’échelle quantique : il existe toujours une entropie dû à l’incertitude de la mesure de la fonction d’onde mais cette entropie est bien trop faible pour que la gravitation puisse exister à cette échelle. Toutefois, toute la quantité d’information est contenue à l’espace quantique. Pour bien vous le montrer, prenons une particule au repos (le quadrivecteur est donc nul et ) avec un spin ½. La valeur du spin sera le paramètre permettant de calculer la quantité d’information du système ( . On va considérer que le tenseur métrique est nul et on va aussi considérer que les constantes sont égales à 1 ( ). Nous avons : De l’autre côté si on fait de même pour l’entropie : Une petite remarque : cette équation est très proche de celle trouvée en théorie holographique : On remarque dans notre équation que la quantité d’information est définie en fonction de la courbure de l’espace-temps, de la température, mais aussi du volume ! Au final l’information d’un système est contenue / enregistrée dans un volume, et non sur une surface comme le décrit les équations de la théorie holographique ! Ceci règle le problème du paradoxe de l’information : l’information est contenue dans un volume de l’espace-temps. Mais attention, l’information est contenue dans un volume à l’échelle quantique. En effet, nous avions dit que l’entropie est beaucoup plus faible à cette échelle. Nous retrouvons donc la formule . La totalité de l’information du système est donc contenue à cette échelle. On peut voir notre équation comme notre projection en 3 dimensions de l’espace-temps (compte tenu du fait que l’entropie dépend de la courbure , et donc du tenseur métrique ) et cela, qu’importe le nombre de dimensions de l’espace-temps. 11 Mail : [email protected] Copyright© Site : [email protected] 5 Conclusion générale. La gravitation est une force entropique émergeante et informationnelle. Elle est définie en fonction de la température et de l’entropie. Plus l’entropie est grande, plus la force de gravitation est grande. Cette entropie peut être définie en fonction de la quantité d’information du système étudié. Plus l’incertitude est grande, plus grand est le désordre, plus grande est la force de gravitation. A grande échelle, l’entropie est très grande, ce qui explique pourquoi la force de gravitation est si attractive à proximité d’un trou noir par exemple (l’entropie d’un trou noir, selon Roger Penrose est de l’ordre de ). L’entropie, à grande échelle, émerge des phénomènes macroscopiques. A l’échelle quantique, la gravitation n’existe pas et serait de toute façon impossible à déterminer : le principe de Heisenberg indique qu’il n’est pas possible d’être sûr de l’impulsion et de la position de la particule simultanément. De plus, en physique quantique, la mesure dépend autant de la fonction d’onde que de l’observable. Si on se penche sur l’équation d’Einstein en la résolvant avec le tenseur énergie impulsion des fluides parfaits et en prenant en compte la thermodynamique et la théorie de l’information, on remarque que l’information dépend de la température, de la courbure de l’espace-temps et du volume. L’information est enregistrée dans un volume d’espace-temps réglant ainsi le problème du paradoxe de l’information. Toute la quantité d’information d’un système est enregistrée à l’échelle quantique du fait que l’entropie est faible (nous avons ). La théorie holographique dit que nous serions une projection d’un espace en 2 dimensions (la surface) en 3 dimensions. Je dirais plutôt, au sens de mon équation, que toute l’information se conserve simplement dans l’espace, mais que cette conservation prend en compte la courbure de l’espace-temps, la température auxquels sont soumis le système et le volume. Il serait plutôt juste de dire que nous serions la projection en 3 dimensions de l’espace-temps. Cela est plus simple et aussi plus général : au final, on peut très bien être la projection en 3 dimensions d’un espace qui en fait 2 ou 3, ou 4 etc… 12 Mail : [email protected] Copyright© Site : [email protected] 6 Bibliographie. [1] Clément Baruteau – Introduction à la thermodynamique et à la physique statistique [2] Michel Le Bellac – La mécanique quantique [3] Michel Le Bellac – Introduction à l’information quantique [4] Richard Taillet – Podcast de l’université de Grenoble [5] Philipe Duchon – Théorie de l’information [6] Eric Verlinde – On the Origin of Gravity and the Laws of Newton [7] Eric Verlinde – Gravity is an emergent force [8] Science Etonnante – La gravité, une force émergeante d’origine entropique [9] Futura-Espace – L’entropie de l’univers – son désordre – revue à la hausse [10] José-Philipe Perez – L’entropie de Boltzmann et l’entropie de Shannon, même concept ? [11] Serge Laroche – Mesure de l’intrication : Entropie de Shannon et de Von Neumann [12] Jean Zin – L’entropie, l’énergie et l’information [13] Bernard Guy – Relier la mécanique quantique et la relativité générale ? Réflexions et propositions. [14] Eric Gourgoulhon – La thermodynamique des trous noirs 13