la méthode de monte carlo metropolis
Transcription
la méthode de monte carlo metropolis
LA MÉTHODE DE MONTE CARLO METROPOLIS Marc Hayoun Laboratoire des Solides Irradiés CEA/DSM/DRECAM — CNRS UMR 7642 — École Polytechnique [email protected] École “Simulation Numérique en Matière Condensée” Jussieu, Paris, 29 au 31 mai 2002 La méthode de Monte Carlo (MC) Metropolis a été introduite en physique de la matière condensée par Metropolis et coll. en 1953 [Metr-53]. Elle porte ce nom parce qu’elle est basée sur l’utilisation de nombres aléatoires. Cette méthode permet l’estimation des moyennes de grandeurs physiques données par la formulation de Gibbs de la mécanique statistique sous la forme d’intégrales multidimensionnelles. La technique de MC est en effet particulièrement adaptée au calcul des intégrales de dimension supérieure à dix. Les premières simulations furent réalisées dans l’ensemble canonique (N, V et T constants), puis la technique fut étendue aux autres ensembles statistiques. On génère une séquence aléatoire d’états accessibles (chaîne de Markov) dans l’espace des configurations du système. On échantillonne en privilégiant les régions où le facteur de Boltzmann (exp(− U k B T) ), c’est-à-dire la densité de probabilité de l’ensemble canonique dans cet espace, est le plus élevé (algorithme de Metropolis). La probabilité d’une configuration particulière d’énergie potentielle Ui est alors proportionnelle à exp(− U i k B T) , autrement dit l’acceptation d’une configuration de la chaîne de Markov est pondérée par une fréquence proportionnelle au facteur de Boltzmann. Une propriété d’équilibre est alors obtenue comme une moyenne simple sur les configurations acceptées. Cette exploration de l’espace des configurations, en suivant l’algorithme de Metropolis, constitue le premier cas d’échantillonnage suivant l’importance en mécanique statistique. Elle est encore largement utilisée de nos jours parce qu’elle représente un moyen simple et relativement efficace d’obtenir des moyennes de grandeurs physiques dans un ensemble statistique. Il est important de noter que ces moyennes sont obtenues malgré l’incapacité de connaître explicitement la densité de probabilité normalisée de l’ensemble considéré. Les estimations directes de l’énergie libre (entropie, énergie libre de Helmholtz, enthalpie, enthalpie libre) sont donc impossibles alors que les différences d’énergies libres (correspondant à des rapports de densités de probabilité) sont accessibles et font l’objet de méthodes particulières. La méthode de MC est en général limitée au calcul des propriétés statiques puisque seule la partie configurationnelle de l’espace des phases est explorée et que le temps n’est pas une variable explicite. Les propriétés dynamiques sont inaccessibles et devront être obtenues par une autre technique. 1. INTRODUCTION Historique — Les travaux les plus anciens font état des premiers succès qui ont établi la simulation comme un outil majeur d’investigation de la physique de la matière condensée. La méthode de Monte Carlo (MC) fut développée par Von Neumann, Ulam et Metropolis, à la fin de la seconde guerre mondiale, pour l’étude de la diffusion des neutrons dans un matériau fissile. N. Metropolis, A. W. Rosenbluth, M. N. Rosenbluth, A. H. Teller et E. Teller [Metr-53] furent les pionniers de l’investigation de la matière par simulation à l’ordinateur. Ils réalisèrent la simulation d’un liquide simple (disques durs se déplaçant en deux dimensions) par la méthode de MC. Ils proposèrent ce qui porte désormais le nom de MC Metropolis et qui est devenu la base des simulations MC des systèmes de particules en interaction. D’autres pionniers, Alder et Wainwright [Alde-56-57], posèrent les bases de la Dynamique Moléculaire (DM) actuelle en réalisant une simulation de sphères dures. Ils s’intéressaient à la transition de phase solide-fluide. Le résultat marquant est que les propriétés convergent rapidement vers l’équilibre. Ce qui surprit les théoriciens de l’époque c’est le fait qu’un aussi petit nombre de degrés de liberté (100 sphères) permette de modéliser les propriétés macroscopiques complexes d’un système. Wood et Parker [Wood-57a] mirent en évidence une transition de phase solide-fluide à haute densité par MC. Il s’agissait d’un système de particules interagissant via un potentiel (énergie potentielle) de LennardJones (6-12) comme modèle de l’argon. Ceci permit une comparaison à l’expérience. Le bon accord 2 obtenu rendit ce potentiel très populaire. La même année, Wood et Jacobson [Wood-57b] réalisèrent une simulation MC sur le modèle utilisé par Alder et Wainwright. Ils ont obtenu les mêmes résultats, montrant ainsi l’équivalence des deux méthodes et que l’hypothèse ergodique d’équivalence des moyennes d’ensemble et temporelle était satisfaite pour ce système. Ce résultat était loin d’être évident à l’époque. Les deux principales techniques utilisées dans le domaine de la simulation en physique statistique de la matière condensée sont la DM et la méthode de MC. Ces simulations reposent sur une description moléculaire en termes de positions et quantités de mouvement d’un ensemble de particules qui constituent le système. L’approximation de Born-Oppenheimer est adoptée, c’est-àdire que l’on exprime le hamiltonien du système en fonction des variables nucléaires, le mouvement (rapide) des électrons ayant été moyenné. Faisant l’approximation supplémentaire qu’une description par la mécanique classique est adaptée, on peut écrire le hamiltonien, , du système comme la somme de l’énergie cinétique, K, et de l’énergie potentielle, U, de l’ensemble des coordonnées de position, ri, et des quantités de mouvement, pi, de chaque atome i. (r N ,pN ) = K(pN ) + U(r N ) (1) L’énergie cinétique a une expression bien établie alors que l’énergie potentielle qui décrit les interactions interatomiques est en général mal connue et constitue, de ce fait, une limitation importante de ces méthodes de simulation. La majorité des calculs réalisés repose sur cette description classique du système, mais l’incorporation de degrés de liberté électroniques est possible aussi bien pour la technique de la DM que pour la méthode de MC. L’énergie potentielle est l’ingrédient principal des simulations. On peut soit prendre un potentiel simple, afin de réaliser une investigation théorique ou une étude générique, soit rechercher un potentiel empirique plus réaliste pour modéliser les interactions du système réel et le valider sur certaines propriétés pertinentes. Dans ce dernier cas, on peut espérer faire des prédictions sur le système réel avec de bonnes chances de succès si l’on utilise le potentiel dans les conditions de sa validité. D’autre part, les calculs sont réalisés sur un nombre fini de molécules et afin d’éviter des effets de surface, on adopte en général des conditions aux limites périodiques (dites de Born-Von Kármán ) qui permettent de simuler un système infini d’images de la boîte de simulation de base. Les problèmes traités par les méthodes de Monte Carlo sont de deux natures très différentes. On les qualifie de probabilistes ou de déterministes selon qu’ils concernent directement ou non un comportement aléatoire. Dans le cas d’un problème probabiliste par essence, l’approche MC la plus simple consiste à observer le comportement de nombres aléatoires qui simulent directement les processus du problème initial et à en tirer la solution. On parle alors de simulation MC. Dans le cas d’un problème déterministe, l’état du système et son comportement sont parfaitement définis et l’on est en principe capable de prédire ce qui va se produire. C’est le cas d’un système de particules obéissant à la mécanique classique. Cependant, on peut traiter certains paramètres du problème comme s’il s’agissait de variables aléatoires. On transforme ainsi le problème déterministe en problème probabiliste et on le résout numériquement. Il s’agit d’une approche de MC élaboré, on parle alors d’estimation MC. Mais dans la pratique on confond les termes d’estimation et de simulation. Cette approche est intéressante notamment quand on ignore certains paramètres du problème ou lorsque le nombre de paramètres est excessivement grand : c’est le cas de l’estimation des grandeurs de la mécanique statistique qui est l’objet de ce cours. On considère un système composé d’un nombre N de particules classiques (non quantiques) occupant un volume V constant et en équilibre avec un thermostat à la température T. Dans ces conditions macroscopiques, l’ensemble canonique (mécanique statistique de Gibbs) est adapté à la description du système. Dans cet ensemble statistique, la densité de probabilité (non normalisée) dans l’espace des phases ( espace de dimension 6N défini par l’ensemble des coordonnées de position et des quantités de mouvement; chaque point de cet espace correspond à un état déterminé du système et réciproquement) vaut : 3 ρ NVT = exp( −β ) β = 1 k BT avec (2) La valeur moyenne d’équilibre d’une grandeur physique, A, peut s’écrire à l’aide d’une moyenne pondérée par la densité de probabilité ρ NVT : A NVT exp (−β =∫ A ) dr N dpN Q (3) Le dénominateur est la fonction de partition, Q, de l’ensemble canonique : [ ] Q(N,V,T) ≡ ∫ …∫ exp −β (rN ,pN ) dr N dpN (4) Généralement, les propriétés physiques ne dépendent pas explicitement des quantités de mouvement et l’on peut réécrire la valeur moyenne d’équilibre en séparant les intégrales sur les positions des intégrales sur les quantités de mouvement et ainsi éliminer les termes cinétiques : (exp[ −β U(r )]) dr ) N N A(r ) = ∫ …∫ A(r N N (5) Z où Z est appelée intégrale de configuration, car elle s’obtient dans l’espace des configurations (positions) de dimension 3N : Z= NVT [ ∫ …∫ ] exp −β U(r N ) dr N (6) La méthode de MC est une technique numérique qui permet notamment d’évaluer des intégrales multidimensionnelles comme celle de (5), mais pour l’illustrer de façon pédagogique nous commencerons par envisager un exemple simple et des intégrales à une dimension. 2. ESTIMATION DU NOMBRE π On peut introduire le principe de la méthode à l’aide d’une estimation de la valeur du nombre π par la technique de MC de type tirage par noir ou blanc. C’est la moins efficace mais la plus facile à comprendre. Cette estimation peut être réalisée en déterminant l’aire, , d’un cercle. Le cercle de rayon 12 centré à l’origine du repère des coordonnées est inscrit dans un carré de surface unité. π=4 1 — 2 (cercle ) (carré) (7) y succès + x 1 –— 2 1 — 2 + 1 –— 2 π = lim n→ ∞ échec 4 nS n Comment mesurer le rapport des aires ? On génère à l’ordinateur deux nombres aléatoires compris entre − 12 et 12 . On les utilise pour obtenir les coordonnées d’un point (x,y) situé dans le carré. Si la distance entre ce point et l’origine du repère est inférieure ou égale au rayon du cercle ( 12 ), le point se trouve à l’intérieur du cercle et l’on comptabilise un succès, autrement c’est un échec. Dans cette expérience, seul le hasard intervient. Le nombre de succès, nS, est proportionnel à l’aire du cercle, tandis que le nombre d’échecs, nE , est proportionnel à l’aire de la région du carré non recouverte par le cercle. π est alors donné par la relation : (8) 4 où n ≡ nS + nE est le nombre total d’essais. Un exemple de réalisation de cette estimation MC donne 3.12 pour n=100, 3.148 pour n=104 , 3.1411 pour n=106 et 3.14155 pour =108 , à comparer à la valeur exacte qui est 3.14159. La méthode converge lentement, mais on obtient une valeur approchée de π pour un nombre raisonnable d’itérations. Un autre exemple simple est fourni par l’expérience du Comte de Buffon qui est déjà mentionnée dans l’introduction générale de cette école. 3. ESTIMATION D’INTÉGRALES PAR MC Les intégrales multidimensionnelles comme l’intégrale de configuration ne peuvent pas, en général, être calculées analytiquement et par conséquent doivent être déterminées numériquement. Pour N particules, c’est-à-dire 3N coordonnées de position, si l’on utilisait une méthode numérique traditionnelle, comme la méthode des trapèzes ou la méthode de Simpson, avec seulement dix intervalles (ce qui serait insuffisant) il faudrait calculer 103N points (10300 pour 100 particules), ce qui serait infaisable ! C’est précisément dans le cas des intégrales multidimensionnelles que la méthode de MC se révèle particulièrement efficace, comparée aux méthodes numériques traditionnelles d’intégration. Afin d’alléger la présentation, nous traiterons le cas simple à une dimension qui permet de comprendre le principe des méthodes. 3.1. TIRAGE PAR NOIR OU BLANC On cherche une variable aléatoire, ζ, telle que son espérance mathématique soit précisément égale à la valeur de l’intégrale d’une fonction f(x), qui n’est rien d’autre que l’aire hachurée, : =∫ y b=1 a= 0 1 f(x) dx (9) Si l’on trouve cette variable aléatoire, on aura transformé le problème déterministe de l’intégration d’une fonction en un problème probabiliste. Il faudra ensuite le résoudre grâce à une estimation MC réalisée à l’aide de nombres aléatoires générés à l’ordinateur pour échantillonner au hasard des points de coordonnées (x,y). échec f(x) succès On s’appuie sur la constatation que est la proportion de la surface du carré située en dessous de la 0 0 1 x courbe. Soient x et y deux variables aléatoires indépendantes uniformément distribuées dans l’intervalle [0, 1]. Ceci veut dire que la densité de probabilité associée est constante et que toutes les valeurs prises dans l’intervalle sont équiprobables. Si le point (x,y) est situé dans l’aire hachurée, que l’on cherche à estimer, nous comptabiliserons un succès. Dans le cas contraire ce sera un échec. Définissons la variable aléatoire ζ de la façon suivante : ζ(x, y) ≡ 1 ζ(x, y) ≡ 0 si y ≤ f(x) (succès) si y > f(x) (échec ) (10) La probabilité d’obtenir un succès vaut : P(ζ(x,y) = 1) = P( y ≤ f(x)) = = (11) 1x1 On répète l’expérience n fois. La probabilité d’un nombre nS de succès, obtenus à partir de n essais, obéit à la loi binomiale. On construit alors la variable aléatoire ζ(n) : 5 ζ(n) = 1 n ∑ ζ (x, y) n k=1 k (12) où chaque ζk respecte la définition (10). L’espérance mathématique est alors égale à l’intégrale et l’on peut écrire : = 1 n n ∑ ζ(x i ,yi ) = S n i =1 n (13) Pour estimer l’intégrale, il suffit donc de générer des couples de nombres aléatoires (x,y) et de comptabiliser le nombre de succès obtenus. Il s’agit, comme dans l’estimation du nombre π, d’une méthode de MC de type tirage par noir ou blanc. 3.2. MC ÉLÉMENTAIRE Le problème de l’estimation d’une intégrale du type : b = ∫ f(x) dx (14) a que nous avons abordé précédemment peut être reformulé en termes de calcul d’une moyenne : b−a n b−a n ∑ f(xi ) ≅ ∑ f(x ) n i= 1 n i= 1 i n→ ∞ = (b − a) f(x) = lim (15) Dans la pratique, on génère n nombres aléatoires, xi, compris entre a et b et distribués suivant une densité de probabilité uniforme. Cette densité de probabilité est constante dans l’intervalle considéré, c’est-à-dire que toutes les valeurs comprises entre a et b sont équiprobables. On utilise ces nombres aléatoires pour le calcul de la valeur moyenne de f qui conduit à l’estimation de . L’échantillonnage utilisé est homogène. C’est-à-dire que l’on visite également toutes les régions comprises entre a et b. On qualifie cet échantillonnage de MC élémentaire (ou MC simple). Il constitue une amélioration par rapport au MC de type tirage par noir ou blanc. Le passage de l’échantillonnage de type noir ou blanc à l’échantillonnage élémentaire se traduit par le remplacement de ζ(x,y) par son espérance mathématique (sur y) f(x). C’est-à-dire que l’on remplace une estimation par une valeur exacte. Ceci est général pour les calculs par la méthode de MC : on a toujours intérêt à remplacer une estimation par une valeur exacte. On réduit ainsi l’erreur d’échantillonnage du résultat final. Si la fonction f est fortement inhomogène, l’estimation par la méthode de MC élémentaire est particulièrement inefficace. En effet, on échantillonne trop les régions où f(x) est faible et pas assez celles où elle est élevée, ce qui conduit à une convergence excessivement lente du calcul de l’intégrale. 3.3. ÉCHANTILLONNAGE SUIVANT L’IMPORTANCE Pour améliorer la convergence, on utilise une méthode légèrement différente. L’idée est de privilégier les régions où la fonction possède des valeurs élevées par rapport à celles où elle est proche de zéro. Plutôt que de générer des nombres aléatoires uniformément répartis, on tire ces nombres dans une distribution non uniforme qui échantillonne mieux les régions où l’intégrale est importante. Cette méthode, qui représente une amélioration par rapport à la méthode précédente, est appelée échantillonnage suivant l’importance. C’est une méthode de MC biaisé par opposition au MC élémentaire. On biaise par rapport à la distribution uniforme, mais évidemment le résultat n’est pas biaisé. 6 Considérons une densité de probabilité non uniforme, ρ(x), qui imite le comportement de f(x) et que l’on sait intégrer analytiquement. On la choisit normalisée dans l’intervalle [a,b] : b ∫a ρ(x) dx = 1 Réécrivons (16) sous la forme suivante : b f(x) =∫ ρ(x) dx a ρ(x) (17) On génère alors des nombres au hasard, zi, distribués non plus uniformément mais suivant ρ(z) et l’on évalue f(zi ) ρ(z i ). La valeur moyenne de la fonction f(z) peut alors être obtenue comme la moyenne de f ρ pondérée par ρ(z) : 1 n ′ f(z i ) 1 n ′ f(zi ) ∑ ≅ ∑ (18) n→ ∞ n i= 1 ρ(z i ) n i =1 ρ(z i ) Le symbole ′ dans ∑ ′ signifie que la somme est réalisée implicitement suivant une distribution non uniforme. L’intégrale recherchée est donnée par : f(z) = lim = b − a n ′ f(zi ) ∑ n i =1 ρ(z i ) (19) Si f est strictement positive, on peut choisir ρ proportionnelle à f : ρ(x) = c f(x) (20) C’est la fonction qui imite le mieux f. (16) implique que : 1 c= (21) Ce choix est inefficace puisque c dépend précisément de l’intégrale que l’on cherche à déterminer. Pour que la méthode soit utilisable et que la variance soit faible, ρ doit donc être proche de f (rapport f ρ aussi constant que possible) sans lui être proportionnelle. D’autre part, elle doit également être simple, afin que l’on puisse l’intégrer analytiquement. C’est un compromis entre ces deux exigences qui permettra de trouver une fonction adaptée à chaque cas particulier. 3.4. EXEMPLE Prenons un exemple pour illustrer les trois méthodes de MC que nous avons exposées. 2 ex − 1 f(x) = (22) e −1 L’intégration analytique de f(x), dans l’intervalle [0,1], conduit au résultat exact : ρ(x) 1 f( x) = 0.418 Pour l’échantillonnage suivant l’importance nous choisissons : f(x) ρ(x) ρ(z) = 2 z 0 0 x (23) 1 (24) qui est normalisée dans l’intervalle [0,1]. Le tableau qui suit donne le détail des calculs pour l’application des trois méthodes. xi, yi et z i sont des nombres pseudo-aléatoires compris entre 0 et 1. xi et yi sont échantillonnés suivant une distribution uniforme alors que zi est distribué suivant ρ(z) (24). 7 xi yi f(xi) ζ(xi,yi) z i = xi f(zi) ρ(zi) f(zi ) ρ(z i ) 0.96 0.28 0.21 0.94 0.35 0.40 0.10 0.52 0.18 0.08 0.50 0.83 0.73 0.25 0.33 0.34 0.44 0.21 0.48 0.04 0.76 0.94 0.51 0.58 0.10 0.72 0.69 0.64 0.12 0.81 0.94 0.55 0.938 0.188 0.136 0.908 0.244 0.286 0.061 0.397 0.115 0.048 0.378 0.753 0.626 0.165 0.228 0.236 1 0 0 1 0 0 0 0 1 0 0 1 1 0 0 0 0.98 0.53 0.46 0.97 0.59 0.63 0.32 0.72 0.42 0.28 0.71 0.91 0.85 0.50 0.57 0.58 0.969 0.407 0.340 0.953 0.468 0.511 0.219 0.614 0.304 0.188 0.602 0.864 0.780 0.378 0.447 0.457 1.96 1.06 0.92 1.94 1.18 1.26 0.64 1.44 0.84 0.56 1.42 1.82 1.70 1.00 1.14 1.16 0.494 0.384 0.370 0.491 0.397 0.406 0.342 0.426 0.362 0.336 0.424 0.475 0.459 0.378 0.392 0.394 Comment obtenir des nombres aléatoires, zi, distribués de façon non uniforme à partir de nombres aléatoires, xi, générés à partir d’une distribution uniforme ? Théorème — Soit x une variable aléatoire continue de densité de probabilité g(x). Soit alors une variable aléatoire continue z, définie en fonction de x telle qu’à chaque valeur de x ne correspond qu’une et une seule valeur de z et inversement. La densité de probabilité de z est donnée par : ρ(z) dz = g(x) dx (25) On utilise l’expression précédente pour trouver la relation qui existe entre z et x, les densités de probabilité ρ(z) et g(x) étant connues. Les variables aléatoires x et z sont comprises entre 0 et 1. ρ(z) est donnée par (24) et l’on prend la densité de probabilité uniforme pour g(x). Puisque x appartient à l’intervalle [0,1] et que g est normalisée : g(x) = 1. On a alors : 2 z dz = dx (26) Après intégration, on obtient z en fonction de x : z= x (27) Tirage par noir ou blanc n Formule utilisée Estimation Estimation − écart-type 16 nS 1 = n n nS n n ∑ ζ(x i ,yi ) i =1 = 0.313 0.115 0.116 MC élémentaire Échantillonnage suivant l’importance 16 1 n f = ∑ f(x i ) n i=1 16 1 n ′ f(z i ) f = ∑ n i=1 ρ(z i ) f = 0.357 f = 0.408 0.061 0.073 0.010 0.012 8 Le tableau précédent fournit une comparaison des résultats obtenus à l’aide des trois méthodes. La méthode de MC de type tirage par noir ou blanc est la moins précise, tandis que l’échantillonnage suivant l’importance est le plus efficace. 4. MÉTHODE DE METROPOLIS Dans la pratique, nous sommes incapables de déterminer directement la fonction de partition de l’ensemble canonique ou l’intégrale de configuration d’un système de N particules mais, par contre, nous sommes en mesure de calculer la moyenne canonique d’une grandeur physique A(rN ) : N A(r ) NVT ∫ ∫ = … e −β U(r ) N 1 n A(r ) dr = ∑ ρ {r N }i A {r N }i Z n i=1 N ρ NVT (r ) N N ( ) ( ) (28) où chaque configuration i fait référence à un état accessible de l’espace des configurations. C’est une moyenne pondérée par la densité de probabilité de l’espace des configurations (à 3N degrés de liberté) de l’ensemble canonique. Nous allons donc utiliser la méthode de MC avec échantillonnage suivant l’importance (§ 3.3) afin d’estimer cette intégrale : A = ( 1 n ′ ∑ A {r N }i n i=1 ) (29) Comment allons-nous générer les différentes configurations {r N }i , ou états i, utilisés pour calculer la moyenne canonique A ? On ne va pas générer des états {r N }i quelconques mais des états i distribués suivant la densité de probabilité non uniforme ρ NVT . Pour atteindre cet objectif, nous adopterons la méthode de Metropolis. Dans ce cas, contrairement à ce qui est fait en DM, les différents états successifs ne suivent pas une évolution temporelle régie par l’équation de Newton. On construit une chaîne de Markov, c’est-à-dire que chaque état ne dépend explicitement que de l’état précédent et {r }i+1 appartient à un ensemble fini d’états appelé espace des états : {1, 2, …, i, …, j, …, n}. L’ordre dans lequel les états se succèdent n’a aucune signification physique. La difficulté est de trouver {r N }i {r N }i+ 2 une méthode afin de générer ces états (aléatoires) de telle manière qu’à la fin de la simulation (c’est-à-dire à l’équilibre) chaque état soit produit avec la bonne probabilité. Il se trouve que ceci est réalisable sans jamais avoir besoin de calculer le facteur de normalisation de ρ NVT c’est-à-dire l’intégrale de configuration. N {r N }i+1 {r N }i+ 3 Dans le cas du calcul de la valeur moyenne A pour un système de N particules, on doit construire une matrice de transition de très grande taille qui est stochastique et ergodique. Une chaîne de Markov irréductible ou ergodique est une chaîne dans laquelle chaque état peut éventuellement être atteint à partir d’un autre état quelconque. On ne connaît pas les éléments de la matrice, mais la distribution limite de la chaîne de Markov, ρ , est connue. C’est un vecteur dont les éléments sont donnés par la densité de probabilité de l’ensemble canonique : N ρ i = ρ NVT ({r }i ) = [ exp −β U({r N }i ) ] (30) Z de chaque point (ou configuration) i de l’espace des configurations, {r N }i . Il est possible de déterminer les propriétés de la matrice Π . On générera à l’aide de Π une chaîne de Markov dont les points appartiennent à l’ensemble canonique. 9 On cherche à présent à déterminer les propriétés de la matrice Π . 1) La matrice de transition Π qui donne, par définition, les probabilités de transition d’une configuration i à une configuration j : {r N }i → {r N }j Π ij (31) est une matrice stochastique (de probabilités) : ∑ Πij = 1 (32) j 2) La matrice de transition ne doit pas détruire l’équilibre lorsqu’il est établi. La chaîne de Markov doit être ergodique : ρΠ =ρ i (33) j j j j que l’on peut formuler autrement : le nombre de déplacements acceptés quittant l’état i doit être exactement égal au nombre de déplacements conduisant à l’état i à partir de tous les autres états j. Ceci correspond à un état stationnaire. i ∑ ρi Π ij = ∑ ρ j Π ji (34) ρ i ∑ Π ij = ∑ ρ j Π ji (35) j j j j ρ i ∑ Π ij j j ∑ ρ j Π ji j ρ i = ∑ ρ j Π ji (36) j j 3) Il est commode d’imposer une condition plus forte que la précédente : à l’équilibre, le nombre moyen de déplacements acceptés à partir d’un quelconque état i vers n’importe quel état j est exactement égal au nombre moyen de déplacements inverses. C’est la condition de microréversibilité (ou du bilan détaillé) : ρ i Π ij = ρ j Π ji (37) On veut donc que la probabilité de passage de i à j soit la même que celle de passer de j à i, sinon on risquerait de rester piégé dans une région de l’espace des configurations et notre intégrale serait alors mal évaluée. La condition (37) est suffisante mais trop forte. C’est celle que Metropolis a choisie. (37) ⇒ (36) (38) 4) Examinons comment on procède : étape : on réalise un essai de déplacement aléatoire pour passer d’un état i à un état j. On note α ij l’élément de matrice stochastique correspondant à la tentative i → j. α est appelée matrice de base de la chaîne de Markov (underlying matrix of the Markov chain). 2de étape : on doit décider si l’on accepte ou pas le déplacement i → j. Appelons Pij la probabilité d’accepter l’essai de déplacement de i à j. Alors : 1ère Π ij = α ij Pij Il existe de nombreuses matrices α qui conviennent. 5) On choisit α symétrique : (39) 10 α ij = α ji (40) 6) On peut réécrire (37) : ρ i α/ ij Pij = ρ j α / ji Pji Pij Pji = ρj ρi = exp(−β U j) Z exp(−β Ui ) Z (41) = exp[−β (U j − Ui )] = exp(−β ∆Uij ) (42) ce qui est indépendant de Z ! 7) Il y a de nombreux choix possibles pour Pij qui satisfont cette condition (et la condition Pij ∈ [0,1]). Le choix de Metropolis est le suivant : ρ Pij = j et Pji = 1 ρi ρ Pij = 1 et Pji = i ρj si ρ j < ρ i si ρ j ≥ ρi ρ Π ij = α ij j et Π ji = α ji = α ij ρi ρ Π ij = α ij = α ji et Π ji = α ji i ρj Pii = 1 (43) (44) ∑ Πij = Π ii + ∑ Π ij = 1 (45) Π ii = 1 − ∑ Π ij (46) j j≠i j≠i Le système peut rester dans un même état i. Contrôle de la condition de microréversibilité — Nous devons à présent vérifier que le choix de Metropolis (43) satisfait dans tous les cas la condition de microréversibilité (37). 1er cas : 2d cas : ρ j > ρ i ρ < ρ i j ρ < ρi j ρ i > ρ j ρ j = ρ i ème 3 cas : ρ = ρj i Π ij = α ij ρi Π ij = ρ i α ij Π ji = α ji ρi ρj ⇒ ρi Π ij = ρ j Π ji CQFD ⇒ ρ i Πij = ρ j Π ji CQFD ⇒ ρ i Π ij = ρ j Π ji CQFD (47) ρ j Π ji = ρi α ij Π ij = α ij ρj ρi ρi Π ij = ρ j α ji Π ji = α ji (48) ρ j Π ji = ρ j α ji Π ij = α ij ρi Π ij = ρ i α ji Π ji = α ji (49) ρ j Π ji = ρi α ji La symétrie de la matrice α est essentielle pour satisfaire la condition de microréversibilité. Notons que nous n’avons pas donné α de façon explicite, nous avons simplement choisi qu’elle soit symétrique. Ceci reflète le fait qu’il y a une liberté importante dans le choix des essais de 11 déplacements d’un état i à un état j. Nous reviendrons sur ce point ultérieurement. 8) Algorithme de Metropolis — Nous allons à présent expliquer comment, dans la pratique, les tentatives (ou essais) de passage de l’état i à l’état j sont acceptées ou rejetées. a) proposition de passage de i à j (α ij ). b) Uj=i+1 > Ui (ρ j < ρi ) la tentative doit être acceptée avec une probabilité (voir (43)) : Pij = ρj ρi = exp[−β (U j − Ui )] (50) Pour décider, on génère un nombre aléatoire ξ dans l’intervalle [0,1] dans une distribution uniforme. La probabilité que ξ ≤ Pij est égale à Pij . Par conséquent : - on accepte si ξ ≤ Pij - on refuse si ξ >Pij Cette règle garantit que l’acceptation de la tentative i → j ait la probabilité Pij . c) Uj=i+1 ≤ Ui (ρ j > ρi ) on accepte toujours puisque dans ce cas Pij = 1 (voir (43)). exp(- β ∆U) 1 1 •ξ toujours accepté accepté 0 0 0 rejeté •ξ ∆U ∆Uij On doit préciser la matrice de base, α , générant la chaîne de Markov. Déplacements atomiques — Le passage de la configuration {r N }i à la configuration {r }j=i+1 sera obtenu en effectuant un déplacement au hasard d’une ou de toutes les particules (cela dépendra du système que l’on étudie, le seul critère étant l’efficacité de l’échantillonnage). Ce déplacement vaudra au maximum δrmax. Pour chaque particule : N rix+1 = rix + ( 2 ξ − 1) δrmax y y ri+1 = ri + ( 2 ξ − 1) δrmax rz = r z + 2 ξ − 1 δr ) max i+1 i ( (51) où ξ représente un nombre aléatoire distribué uniformément entre 0 et 1. α est bien symétrique, le déplacement inverse est équiprobable. Si δrmax était choisi trop grand, la tentative serait toujours refusée. En effet, ∆Uij serait très grand et par conséquent P ij proche de zéro. Par contre si δrmax etait pris trop petit, la nouvelle configuration aurait une énergie très voisine de la précédente et serait presque toujours acceptée. Mais l’échantillonnage de l’espace des configurations serait alors très lent. Le choix de δrmax est donc le résultat d’un compromis qui conduit à un échantillonnage satisfaisant. Le premier critère de choix est empirique et consiste à obtenir un taux d’acceptation 12 des configurations proposées de l’ordre de 50 %. Un second critère, plus rigoureux, consiste à 2 minimiser la variance, (A − A ) , de la grandeur physique dont on détermine la moyenne, A . Dans un solide, les atomes vibrent autour de leur position d’équilibre. En DM, on obtient ces vibrations grâce à l’équation de Newton. Les configurations successives décrivent alors les mouvements réels des atomes en fonction du temps. La méthode de MC permet de retrouver les différentes positions des atomes autour de leur position d’équilibre dans les configurations de la chaîne de Markov, mais générés dans un ordre différent. Les états successifs ne sont pas corrélés temporellement. L’ordre dans lequel on obtient ces états de la chaîne de Markov n’a aucune signification physique. Structure schématique en FORTRAN d’un programme de MC Metropolis Ensemble canonique C C C C C * * C C C C C C C C * * * * RX,RY,RZ : positions atomiques TEMP : température KB : constante de Boltzmann DRMAX : déplacement maximum U : énergie potentielle lecture des paramètres du programme lecture de la configuration initiale calcul de l’énergie initiale CALL ENERGY BETA = 1.0 / (KB * TEMP) boucle sur les itérations MC - chaîne de Markov DO ISTEP = 1, NSTEP boucle sur les atomes DO I = 1, NATOMS UOLD = U RXIOLD = RX(I) RYIOLD = RY(I) RZIOLD = RZ(I) déplacement de l’atome I RXINEW = RXIOLD + ( 2.0 * RANDOM ( ) - 1.0 ) * DRMAX RYINEW = RYIOLD + ( 2.0 * RANDOM ( ) - 1.0 ) * DRMAX RZINEW = RZIOLD + ( 2.0 * RANDOM ( ) - 1.0 ) * DRMAX application des conditions aux limites périodiques RXINEW = RXINEW - ANINT ( RXINEW / BOX ) * BOX RYINEW = RYINEW - ANINT ( RYINEW / BOX ) * BOX RZINEW = RZINEW - ANINT ( RZINEW / BOX ) * BOX RX(I) = RXINEW RY(I) = RYINEW RZ(I) = RZINEW calcul de l’énergie de la nouvelle configuration CALL ENERGY UNEW = U algorithme de Metropolis DELTU = UNEW - UOLD DELTUB = BETA * DELTU IF ( DELTU .GT. 0.0 ) THEN IF ( EXP ( - DELTVB ) .LT. RANDOM() ) THEN on refuse la nouvelle configuration U = UOLD RX(I) = RXIOLD RY(I) = RYIOLD RZ(I) = RZIOLD ENDIF ENDIF puis calcul des valeurs instantanées puis calcul des valeurs moyennes ENDDO ENDDO impression des résultats sauvegarde de la configuration finale Échanges d’atomes — On peut envisager d’autres simulations MC, toujours basées sur la méthode de Metropolis. Considérons un composé qui est ordonné à basse température comme CuZn, Cu3Au, … mais qui forme une solution solide désordonnée à haute température. À une 13 certaine température critique, Tc, il s’opère une transition de phase du premier (ou du second) ordre appelée transition ordre-désordre. Si l’on cherche des configurations d’équilibre de l’état désordonné, on ne les obtiendra pas par DM, même si l’on introduit des lacunes dans le système afin que la diffusion puisse se produire. En effet, l’échelle de temps accessible par la DM ne permet pas d’observer ce genre de phénomènes. Par contre, on peut envisager une simulation MC (sur réseau rigide par exemple, c’est-à-dire qu’on ne considère que les positions moyennes des atomes sur le réseau sans écart par rapport à ces positions moyennes de l’état ordonné). On échange alors deux atomes de natures différentes pris au hasard et l’on utilise l’algorithme de Metropolis pour accepter ou refuser cet échange. La matrice α a donc pour rôle de donner la probabilité d’échange de deux atomes permettant de passer d’un état i à un état j. L’algorithme de Metropolis fournit l’acceptation ou le refus de cet échange. On obtient alors des configurations d’équilibre représentatives de l’état d’ordre. L’algorithme de Metropolis interdira au composé de se désordonner pour des températures inférieures à la température critique associée au modèle énergétique, Tcmodèle , qui peut être différente de la valeur expérimentale, mais autorisera le système à se désordonner pour T > Tcmodèle . Paramètre d'ordre à grande distance 1.2 1 0.8 MC avec déplacements atomiques 0.6 MC sur réseau rigide 0.4 0.2 0 -0.2 0 200 400 600 Température (K) 800 1000 Cu3 Au — Paramètre d’ordre à grande distance en fonction de la température 1) calculé sur réseau rigide par MC d’échanges atomiques et 2) calculé par MC avec échanges et déplacements atomiques. La différence entre les deux simulations montre que la contribution de l’entropie de vibration à l’entropie globale de la transition ordre-désordre est importante. 5. COMPARAISON À LA DYNAMIQUE MOLÉCULAIRE La comparaison entre la méthode de MC et la méthode de la DM se fait en considérant l’efficacité relative de ces deux techniques en fonction du problème à traiter. Pour l’obtention des propriétés statiques d’équilibre des systèmes (quasi-)ergodiques, les deux méthodes sont équivalentes, car dans ce cas les moyennes temporelles et les moyennes d’ensemble fournissent les mêmes résultats. Il est alors préférable de choisir la méthode de la DM puisqu’elle fournit le mouvement réel des particules. En effet, elle permet ainsi d’atteindre en outre les propriétés dynamiques et de transport qui sont inaccessibles par la technique de MC. Le mouvement détaillé des atomes peut être analysé et conduire notamment à la connaissance des mécanismes précis des phénomènes physiques (e. g. diffusion dans les solides). D’autre part, la DM offre un échantillonnage plus efficace de l’espace des configurations quand il s’agit de traiter des transitions de phases structurales ou des changements conformationnels de grandes molécules. Dans ce cas, le chemin à parcourir d’une région de l’espace des phases à une autre requiert un réarrangement 14 collectif des coordonnées de nombreuses particules. La méthode de la DM permet alors de trouver des chemins plus directs que ceux générés par des mouvements MC aléatoires non corrélés et de ce fait moins efficaces. Par contre, la méthode de MC est plus facile à appliquer, et surtout plus intéressante, dans le cas d’une énergie potentielle mathématiquement compliquée, puisqu’on peut s’affranchir d’une évaluation explicite des forces alors difficile mais indispensable à la DM. Par ailleurs, une situation où la nature non réelle des mouvements MC peut être exploitée est celle des mélanges, notamment quand l’interdiffusion des espèces est trop lente pour être observée à l’échelle de temps de la DM. Enfin, de nombreuses techniques de MC ont été développées spécialement pour le calcul des énergies libres. 6. LIMITATIONS GÉNÉRALES Il y a essentiellement deux facteurs qui limitent le champ d’application de la méthode de MC Metropolis. Le premier est attribué aux modèles de cohésion utilisés, tandis que le second est inhérent à l’emploi des ordinateurs. La première limitation concerne le modèle énergétique que l’on adopte pour décrire les interactions. Qu’il s’agisse d’une énergie potentielle empirique ou bien d’une approche quantique plus sophistiquée, la description des interactions repose toujours sur des approximations importantes. Le second facteur est lié à la taille réduite du système que l’on peut simuler. Ce sont la capacité mémoire et la puissance des ordinateurs qui limitent cette taille. Même si la limite thermodynamique (théoriquement N → ∞ ) peut être atteinte pour des systèmes homogènes de petite taille, il existe de nombreuses propriétés qui sont difficiles ou impossibles à étudier sur des systèmes de taille réduite. D’une façon générale, le meilleur moyen de contrôler les effets de taille est de réaliser un ensemble de simulations pour des systèmes de différentes dimensions et d’extrapoler les résultats obtenus pour une taille infinie. Limitations de taille — Le nombre maximum de particules que l’on peut envisager est de l’ordre de quelques millions. Cette taille est exceptionnelle et supérieure, d’au moins deux ordres de grandeur, aux tailles des systèmes couramment simulés. Dans ces conditions de taille finie, toutes les longueurs d’onde supérieures aux dimensions de la boîte de simulation ne sont pas prises en compte. Corrélativement, les vecteurs d’onde de l’espace réciproque dont les valeurs sont inférieures à 2π L sont inaccessibles (L est la plus petite dimension de la boîte de simulation). Un spectre de phonons est donc limité aux valeurs du vecteur d’onde supérieures à 2π L . D’autre part, si l’on introduit par exemple un défaut ponctuel dans un cristal de N atomes, la fraction atomique (du défaut) la plus faible possible vaut 1 N . Ceci représente une concentration de défauts excessivement élevée par rapport à la réalité, et correspond typiquement à celle rencontrée au voisinage du point de fusion. De la même façon, si l’on considère un soluté dans un système à l’état solide ou liquide, le domaine des concentrations en soluté est restreint. Les systèmes très dilués sont inaccessibles. Un autre exemple est fourni par la densité de dislocations très élevée que l’on obtient avec une seule dislocation dans le système. Les situations que l’on sait traiter sont donc celles ou le cristal est fortement déformé. D’autre part, les champs de contraintes et de déformations posent d’autres problèmes à cause de leur longue portée. Les conditions aux limites périodiques génèrent des images de la dislocation qui interagissent toutes entre elles et, de ce fait, ne permettent pas d’étudier une dislocation isolée. On préfère alors abandonner les conditions aux limites périodiques et immerger le système dans un continuum élastique. Mais cette solution empêche l’étude de la dynamique du défaut. Cet exemple illustre le type de problèmes que l’on rencontre quand on s’intéresse aux propriétés des défauts étendus. Limitations du modèle énergétique — Une limitation importante concerne les systèmes que l’on peut étudier par cette technique. On ne peut simuler un système que si l’on dispose d’un modèle de potentiel (énergie potentielle) ou bien si l’on est capable d’en élaborer un. Les potentiels d’interaction sont en effet indispensables à la mise en œuvre des deux méthodes. D’ailleurs, leur choix constitue la seule approximation importante que l’on fasse en simulation. Ces potentiels sont soit des modèles théoriques, soit des potentiels empiriques d’expression plus ou moins arbitraire. Ils 15 sont tous deux limités par les approximations que l’on réalise pour les obtenir, et les seconds ne sont ajustés que pour reproduire certaines propriétés du système. Ce qui veut dire que ces potentiels empiriques sont restreints à la description d’une gamme limitée de propriétés. D’autre part, les potentiels de paires étaient souvent utilisés en simulation alors que l’approximation de l’interaction à deux corps est loin d’être toujours justifiée. En effet, beaucoup de systèmes nécessitent des potentiels d’interaction à n corps afin de reproduire correctement leurs propriétés (e. g. métaux de transition). Cependant, un potentiel de paires comme le potentiel de Lennard-Jones est adapté à l’étude des gaz rares et des propriétés génériques des systèmes modèles. Le diagramme de phases correspondant est bien connu et les multiples études qui ont déjà été réalisées à l’aide de ce potentiel fournissent de nombreux points de référence. En ce qui concerne les systèmes essentiellement ioniques, les métaux alcalins et les gaz rares, la modélisation des interactions est satisfaisante pour la description des propriétés de volume parce que les résultats sont en bon accord avec les expériences de laboratoire. Par contre, pour les systèmes covalents, les métaux de transition et tous les solides comportant des défauts, la description des interactions est moins bien établie et motive encore de nombreux travaux de recherche. 7. P ROPRIÉTÉS ACCESSIBLES ET INACCESSIBLES Les simulations habituelles par les méthodes de la DM et de MC fournissent des informations statistiques à propos de propriétés “mécaniques” du système. Le terme “mécanique” possède ici un sens particulier. Il est réservé aux fonctions explicites des coordonnées de l’espace des phases comme l’énergie potentielle d’une configuration donnée, le viriel des forces, … La connaissance des moyennes temporelles obtenues par DM ou des moyennes d’ensemble obtenues par MC pour de telles propriétés “mécaniques” permet de calculer un nombre important de grandeurs thermodynamiques d’équilibre qui sont des dérivées partielles d’une énergie libre comme l’énergie interne, la pression, la capacité calorifique, … Par contre, il n’est pas possible d’accéder directement, à partir de simulations traditionnelles, à des informations concernant des propriétés “thermiques” c’est-à-dire des énergies libres. L’expression “thermique” est utilisée pour désigner toutes les propriétés qui dépendent du volume total de l’espace des phases (ou du sous-espace des configurations) accessible au système, c’est-à-dire qui dépendent explicitement de la fonction de partition. Exemples de propriétés “thermiques” : l’entropie, l’énergie libre de Helmholtz, l’enthalpie, l’enthalpie libre, le potentiel chimique, … Pourquoi les propriétés “thermiques” ne peuvent-elles pas être obtenues de la même manière que les propriétés “mécaniques” ? Pour répondre à cette question, considérons une simulation MC dans l’ensemble canonique. Rappelons que, dans cet ensemble, la probabilité de trouver un système dans un volume de l’espace des configurations drN autour du point r N est donnée par : N N ρ(r ) dr = [ exp −β U(r N ) Z ] dr N (52) et que l’énergie libre de Helmholtz vaut : Z F = −k BT Log(Q) = −k BT Log 3N Λ N! (53) Dans une simulation MC, avec l’échantillonnage de Metropolis, le système parcourt au hasard l’espace des configurations avec une probabilité de visite du point r N proportionnelle à ρ(rN ) , mais à moins de réaliser des simulations astronomiquement longues (c’est-à-dire non réalisables dans la pratique) la constante de proportionnalité est inconnue. Pour donner une image du problème, il est commode de considérer les estimations de la profondeur moyenne d d’un lac, l’équivalent d’une propriété “mécanique”, et de l’aire de sa 16 surface, , l’équivalent d’une propriété “thermique”. Dans le cas de la mesure de la profondeur, l’échantillonnage MC consiste à faire un pas au hasard et à le rejeter s’il nous mène sur la berge et à l’accepter autrement. La moyenne est réalisée sur de nombreuses tentatives : 1 n ∑ di n→∞ n i d = lim (54) Dans la pratique, la condition “n → ∞ ” est remplacée par “n suffisamment grand” pour qu’une fraction représentative, même si elle est infinitésimale, du lac soit visitée. Il est important de remarquer que d, l’image de notre propriété “mécanique”, est une grandeur locale, ce qui signifie qu’elle possède une valeur en un point particulier de l’espace des phases. Par contre, il n’existe pas de telle procédure pour mesurer l’aire du lac parce que ce n’est pas une grandeur locale comme d. La seule façon de mesurer l’aire du lac, dans ce type d’expériences MC, est de déterminer le temps moyen de retour, c’est-à-dire le nombre de pas MC qui séparent en moyenne deux visites de la même aire élémentaire d située en un point donné. Dans les systèmes modèles de mécanique statistique, ce temps, qui est l’équivalent du temps de cycle de Poincaré, est véritablement astronomique, même pour les systèmes les plus petits. Le théorème de Poincaré exprime que le mouvement, dans l’espace des phases, d’un système mécanique est quasi-périodique en fonction du temps. Autrement dit, si à un instant t 0 , le système se trouve en un point donné de l’espace des phases, il existe un intervalle de temps fini au bout duquel le système reviendra au voisinage du point d’origine. Ce temps est fini mais astronomiquement grand et impossible à observer en DM. On est incapable de déterminer directement le volume de l’espace des phases accessible au système et, par conséquent, incapable de calculer directement des grandeurs comme l’énergie libre de Helmholtz (propriétés “thermiques”). Il existe, par contre, des méthodes adaptées au calcul des différences d’énergie libre, mais ceci est une autre histoire … 17 RÉFÉRENCES [Alde-56] B. J. Alder, T. Wainwright, dans Proceedings of the international symposium of pure and applied physics on Statistical mechanical theory of transport properties, Brussels, I. Prigogine, ed., 97 (Interscience Publishers inc., NewYork, 1956). Molecular Dynamics by electronic computers. [Alde-57] B. J. Alder, T. E. Wainwright, J. Chem. Phys. 27, 1208 (1957). Phase transition for a hard sphere system. [Alle-87] M. P. Allen, D. J. Tildesley, Computer simulation of liquids (Clarendon Press, Oxford, 1987). [Bern-77] B. J. Berne, ed., Statistical mechanics, Part A: Equilibrium techniques, (Plenum Press, New York, 1977). [Catl-90] C. R. A. Catlow, S. C. Parker, M. P. Allen, eds, Computer modelling of fluids, polymers and solids, Proceedings of the NATO advanced study institute (Kluwer Academic Publishers, Dordrecht, 1990). [Cicc-86] G. Ciccotti, W. G. Hoover, eds, Molecular Dynamics simulation of statistical-mechanical systems, Proceedings of the international school of physics “Enrico Fermi”, Course XCVII (North-Holland Physics Publishing, Amsterdam, 1986). [Cicc-87] G. Ciccotti, D. Frenkel, I. R. McDonald, Simulation of liquids and solids, MD and MC methods in statistical mechanics (North-Holland Physics Publishing, Amsterdam, 1987). [Diu-89] B. Diu, C. Guthmann, D. Lederer, B. Roulet, Physique statistique (Hermann, Paris, 1989). [Dume-94] C. Dumez, M. Hayoun, C. Rey Losada, V. Pontikis, Interface Science 2, 45 (1994). Thermodynamical properties and defect energetics of an n-body potential adapted to Cu3 Au. [Hamm-67] J. M. Hammersley, D. C. Handscomb, Monographies Dunod 65 (1967). Les méthodes de Monte Carlo. [Jame-80] F. James, Rep. Prog. Phys. 43, 1145 (1980). Monte Carlo theory and practice. [Metr-53] N. Metropolis, A. W. Rosenbluth, M. N. Rosenbluth, A. H. Teller, E. Teller, J. Chem. Phys. 21, 1087 (1953). Equation of state calculations by fast computing machines. [Meye-91] M. Meyer, V. Pontikis, eds, Computer simulation in materials science, Interatomic potentials, simulation techniques and applications, Proceedings of the NATO advanced study institute (Kluwer Academic Publishers, Dordrecht, 1991). [Ronc-91] M. Ronchetti, G. Jacucci, Simulation approach to solids (Kluwer Academic Publishers, 1991). [Spie-89] M. R. Spiegel, Probabilités et statistiques, Série Schaum (McGraw-Hill, Paris, 1989). [Wood-57a] W. W. Wood, F. R. Parker, J. Chem. Phys. 27, 720 (1957). Monte Carlo equation of state of molecules interacting with the Lennard-Jones potential. I. A supercritical isotherm at about twice the critical temperature. [Wood-57b] W. W. Wood, J. D. Jacobson, J. Chem. Phys. 27, 1207 (1957). Preliminary results from a recalculation of the Monte Carlo equation of state of hard spheres.