la méthode de monte carlo metropolis

Transcription

la méthode de monte carlo metropolis
LA MÉTHODE DE MONTE CARLO METROPOLIS
Marc Hayoun
Laboratoire des Solides Irradiés
CEA/DSM/DRECAM — CNRS UMR 7642 — École Polytechnique
[email protected]
École “Simulation Numérique en Matière Condensée”
Jussieu, Paris, 29 au 31 mai 2002
La méthode de Monte Carlo (MC) Metropolis a été introduite en physique de la matière condensée par
Metropolis et coll. en 1953 [Metr-53]. Elle porte ce nom parce qu’elle est basée sur l’utilisation de
nombres aléatoires. Cette méthode permet l’estimation des moyennes de grandeurs physiques données
par la formulation de Gibbs de la mécanique statistique sous la forme d’intégrales multidimensionnelles.
La technique de MC est en effet particulièrement adaptée au calcul des intégrales de dimension
supérieure à dix. Les premières simulations furent réalisées dans l’ensemble canonique (N, V et T
constants), puis la technique fut étendue aux autres ensembles statistiques. On génère une séquence
aléatoire d’états accessibles (chaîne de Markov) dans l’espace des configurations du système. On
échantillonne en privilégiant les régions où le facteur de Boltzmann (exp(− U k B T) ), c’est-à-dire la
densité de probabilité de l’ensemble canonique dans cet espace, est le plus élevé (algorithme de
Metropolis). La probabilité d’une configuration particulière d’énergie potentielle Ui est alors
proportionnelle à exp(− U i k B T) , autrement dit l’acceptation d’une configuration de la chaîne de
Markov est pondérée par une fréquence proportionnelle au facteur de Boltzmann. Une propriété
d’équilibre est alors obtenue comme une moyenne simple sur les configurations acceptées. Cette
exploration de l’espace des configurations, en suivant l’algorithme de Metropolis, constitue le premier
cas d’échantillonnage suivant l’importance en mécanique statistique. Elle est encore largement utilisée de
nos jours parce qu’elle représente un moyen simple et relativement efficace d’obtenir des moyennes de
grandeurs physiques dans un ensemble statistique. Il est important de noter que ces moyennes sont
obtenues malgré l’incapacité de connaître explicitement la densité de probabilité normalisée de
l’ensemble considéré. Les estimations directes de l’énergie libre (entropie, énergie libre de Helmholtz,
enthalpie, enthalpie libre) sont donc impossibles alors que les différences d’énergies libres (correspondant
à des rapports de densités de probabilité) sont accessibles et font l’objet de méthodes particulières. La
méthode de MC est en général limitée au calcul des propriétés statiques puisque seule la partie
configurationnelle de l’espace des phases est explorée et que le temps n’est pas une variable explicite.
Les propriétés dynamiques sont inaccessibles et devront être obtenues par une autre technique.
1.
INTRODUCTION
Historique — Les travaux les plus anciens font état des premiers succès qui ont établi la
simulation comme un outil majeur d’investigation de la physique de la matière condensée. La
méthode de Monte Carlo (MC) fut développée par Von Neumann, Ulam et Metropolis, à la fin de la
seconde guerre mondiale, pour l’étude de la diffusion des neutrons dans un matériau fissile.
N. Metropolis, A. W. Rosenbluth, M. N. Rosenbluth, A. H. Teller et E. Teller [Metr-53] furent les
pionniers de l’investigation de la matière par simulation à l’ordinateur. Ils réalisèrent la simulation
d’un liquide simple (disques durs se déplaçant en deux dimensions) par la méthode de MC. Ils
proposèrent ce qui porte désormais le nom de MC Metropolis et qui est devenu la base des
simulations MC des systèmes de particules en interaction. D’autres pionniers, Alder et Wainwright
[Alde-56-57], posèrent les bases de la Dynamique Moléculaire (DM) actuelle en réalisant une
simulation de sphères dures. Ils s’intéressaient à la transition de phase solide-fluide. Le résultat
marquant est que les propriétés convergent rapidement vers l’équilibre. Ce qui surprit les
théoriciens de l’époque c’est le fait qu’un aussi petit nombre de degrés de liberté (100 sphères)
permette de modéliser les propriétés macroscopiques complexes d’un système. Wood et Parker
[Wood-57a] mirent en évidence une transition de phase solide-fluide à haute densité par MC. Il
s’agissait d’un système de particules interagissant via un potentiel (énergie potentielle) de LennardJones (6-12) comme modèle de l’argon. Ceci permit une comparaison à l’expérience. Le bon accord
2
obtenu rendit ce potentiel très populaire. La même année, Wood et Jacobson [Wood-57b]
réalisèrent une simulation MC sur le modèle utilisé par Alder et Wainwright. Ils ont obtenu les
mêmes résultats, montrant ainsi l’équivalence des deux méthodes et que l’hypothèse ergodique
d’équivalence des moyennes d’ensemble et temporelle était satisfaite pour ce système. Ce résultat
était loin d’être évident à l’époque.
Les deux principales techniques utilisées dans le domaine de la simulation en physique
statistique de la matière condensée sont la DM et la méthode de MC. Ces simulations reposent sur
une description moléculaire en termes de positions et quantités de mouvement d’un ensemble de
particules qui constituent le système. L’approximation de Born-Oppenheimer est adoptée, c’est-àdire que l’on exprime le hamiltonien du système en fonction des variables nucléaires, le mouvement
(rapide) des électrons ayant été moyenné. Faisant l’approximation supplémentaire qu’une
description par la mécanique classique est adaptée, on peut écrire le hamiltonien,
, du système
comme la somme de l’énergie cinétique, K, et de l’énergie potentielle, U, de l’ensemble des
coordonnées de position, ri, et des quantités de mouvement, pi, de chaque atome i.
(r N ,pN ) = K(pN ) + U(r N )
(1)
L’énergie cinétique a une expression bien établie alors que l’énergie potentielle qui décrit les
interactions interatomiques est en général mal connue et constitue, de ce fait, une limitation
importante de ces méthodes de simulation. La majorité des calculs réalisés repose sur cette
description classique du système, mais l’incorporation de degrés de liberté électroniques est
possible aussi bien pour la technique de la DM que pour la méthode de MC.
L’énergie potentielle est l’ingrédient principal des simulations. On peut soit prendre un
potentiel simple, afin de réaliser une investigation théorique ou une étude générique, soit rechercher
un potentiel empirique plus réaliste pour modéliser les interactions du système réel et le valider sur
certaines propriétés pertinentes. Dans ce dernier cas, on peut espérer faire des prédictions sur le
système réel avec de bonnes chances de succès si l’on utilise le potentiel dans les conditions de sa
validité. D’autre part, les calculs sont réalisés sur un nombre fini de molécules et afin d’éviter des
effets de surface, on adopte en général des conditions aux limites périodiques (dites de Born-Von
Kármán ) qui permettent de simuler un système infini d’images de la boîte de simulation de base.
Les problèmes traités par les méthodes de Monte Carlo sont de deux natures très
différentes. On les qualifie de probabilistes ou de déterministes selon qu’ils concernent directement
ou non un comportement aléatoire. Dans le cas d’un problème probabiliste par essence, l’approche
MC la plus simple consiste à observer le comportement de nombres aléatoires qui simulent
directement les processus du problème initial et à en tirer la solution. On parle alors de simulation
MC. Dans le cas d’un problème déterministe, l’état du système et son comportement sont
parfaitement définis et l’on est en principe capable de prédire ce qui va se produire. C’est le cas
d’un système de particules obéissant à la mécanique classique. Cependant, on peut traiter certains
paramètres du problème comme s’il s’agissait de variables aléatoires. On transforme ainsi le
problème déterministe en problème probabiliste et on le résout numériquement. Il s’agit d’une
approche de MC élaboré, on parle alors d’estimation MC. Mais dans la pratique on confond les
termes d’estimation et de simulation. Cette approche est intéressante notamment quand on ignore
certains paramètres du problème ou lorsque le nombre de paramètres est excessivement grand :
c’est le cas de l’estimation des grandeurs de la mécanique statistique qui est l’objet de ce cours.
On considère un système composé d’un nombre N de particules classiques (non
quantiques) occupant un volume V constant et en équilibre avec un thermostat à la température T.
Dans ces conditions macroscopiques, l’ensemble canonique (mécanique statistique de Gibbs) est
adapté à la description du système. Dans cet ensemble statistique, la densité de probabilité (non
normalisée) dans l’espace des phases ( espace de dimension 6N défini par l’ensemble des coordonnées de
position et des quantités de mouvement; chaque point de cet espace correspond à un état déterminé du système et
réciproquement) vaut :
3
ρ NVT = exp( −β
)
β = 1 k BT
avec
(2)
La valeur moyenne d’équilibre d’une grandeur physique, A, peut s’écrire à l’aide d’une moyenne
pondérée par la densité de probabilité ρ NVT :
A
NVT
exp (−β
=∫ A
) dr N dpN
Q
(3)
Le dénominateur est la fonction de partition, Q, de l’ensemble canonique :
[
]
Q(N,V,T) ≡ ∫ …∫ exp −β
(rN ,pN ) dr N dpN
(4)
Généralement, les propriétés physiques ne dépendent pas explicitement des quantités de
mouvement et l’on peut réécrire la valeur moyenne d’équilibre en séparant les intégrales sur les
positions des intégrales sur les quantités de mouvement et ainsi éliminer les termes cinétiques :
(exp[ −β U(r )]) dr
)
N
N
A(r )
= ∫ …∫ A(r
N
N
(5)
Z
où Z est appelée intégrale de configuration, car elle s’obtient dans l’espace des configurations
(positions) de dimension 3N :
Z=
NVT
[
∫ …∫
]
exp −β U(r N ) dr N
(6)
La méthode de MC est une technique numérique qui permet notamment d’évaluer des
intégrales multidimensionnelles comme celle de (5), mais pour l’illustrer de façon pédagogique
nous commencerons par envisager un exemple simple et des intégrales à une dimension.
2.
ESTIMATION DU NOMBRE π
On peut introduire le principe de la méthode à l’aide d’une estimation de la valeur du
nombre π par la technique de MC de type tirage par noir ou blanc. C’est la moins efficace mais la
plus facile à comprendre.
Cette estimation peut être réalisée en déterminant l’aire, , d’un cercle. Le cercle de
rayon 12 centré à l’origine du repère des coordonnées est inscrit dans un carré de surface unité.
π=4
1
—
2
(cercle )
(carré)
(7)
y
succès
+
x
1
–—
2
1
—
2
+
1
–—
2
π = lim
n→ ∞
échec
4
nS
n
Comment mesurer le rapport des aires ? On
génère à l’ordinateur deux nombres aléatoires compris
entre − 12 et 12 . On les utilise pour obtenir les
coordonnées d’un point (x,y) situé dans le carré. Si la
distance entre ce point et l’origine du repère est
inférieure ou égale au rayon du cercle ( 12 ), le point se
trouve à l’intérieur du cercle et l’on comptabilise un
succès, autrement c’est un échec. Dans cette expérience,
seul le hasard intervient. Le nombre de succès, nS, est
proportionnel à l’aire du cercle, tandis que le nombre
d’échecs, nE , est proportionnel à l’aire de la région du
carré non recouverte par le cercle. π est alors donné par
la relation :
(8)
4
où n ≡ nS + nE est le nombre total d’essais. Un exemple de réalisation de cette estimation MC
donne 3.12 pour n=100, 3.148 pour n=104 , 3.1411 pour n=106 et 3.14155 pour =108 , à comparer à
la valeur exacte qui est 3.14159. La méthode converge lentement, mais on obtient une valeur
approchée de π pour un nombre raisonnable d’itérations.
Un autre exemple simple est fourni par l’expérience du Comte de Buffon qui est déjà
mentionnée dans l’introduction générale de cette école.
3.
ESTIMATION D’INTÉGRALES PAR MC
Les intégrales multidimensionnelles comme l’intégrale de configuration ne peuvent pas,
en général, être calculées analytiquement et par conséquent doivent être déterminées
numériquement. Pour N particules, c’est-à-dire 3N coordonnées de position, si l’on utilisait une
méthode numérique traditionnelle, comme la méthode des trapèzes ou la méthode de Simpson, avec
seulement dix intervalles (ce qui serait insuffisant) il faudrait calculer 103N points (10300 pour 100
particules), ce qui serait infaisable ! C’est précisément dans le cas des intégrales
multidimensionnelles que la méthode de MC se révèle particulièrement efficace, comparée aux
méthodes numériques traditionnelles d’intégration. Afin d’alléger la présentation, nous traiterons le
cas simple à une dimension qui permet de comprendre le principe des méthodes.
3.1. TIRAGE PAR NOIR OU BLANC
On cherche une variable aléatoire, ζ, telle que son espérance mathématique soit
précisément égale à la valeur de l’intégrale d’une fonction f(x), qui n’est rien d’autre que l’aire
hachurée,
:
=∫
y
b=1
a= 0
1
f(x) dx
(9)
Si l’on trouve cette variable aléatoire, on aura transformé le
problème déterministe de l’intégration d’une fonction en un
problème probabiliste. Il faudra ensuite le résoudre grâce à
une estimation MC réalisée à l’aide de nombres aléatoires
générés à l’ordinateur pour échantillonner au hasard des
points de coordonnées (x,y).
échec
f(x)
succès
On s’appuie sur la constatation que
est la
proportion
de
la
surface
du
carré
située
en
dessous
de la
0
0
1
x
courbe. Soient x et y deux variables aléatoires
indépendantes uniformément distribuées dans l’intervalle
[0, 1]. Ceci veut dire que la densité de probabilité associée est constante et que toutes les valeurs
prises dans l’intervalle sont équiprobables. Si le point (x,y) est situé dans l’aire hachurée, que l’on
cherche à estimer, nous comptabiliserons un succès. Dans le cas contraire ce sera un échec.
Définissons la variable aléatoire ζ de la façon suivante :
ζ(x, y) ≡ 1

ζ(x, y) ≡ 0
si y ≤ f(x)
(succès)
si y > f(x)
(échec )
(10)
La probabilité d’obtenir un succès vaut :
P(ζ(x,y) = 1) = P( y ≤ f(x)) =
=
(11)
1x1
On répète l’expérience n fois. La probabilité d’un nombre nS de succès, obtenus à partir de n essais,
obéit à la loi binomiale. On construit alors la variable aléatoire ζ(n) :
5
ζ(n) =
1 n
∑ ζ (x, y)
n k=1 k
(12)
où chaque ζk respecte la définition (10). L’espérance mathématique est alors égale à l’intégrale
et l’on peut écrire :
=
1 n
n
∑ ζ(x i ,yi ) = S
n i =1
n
(13)
Pour estimer l’intégrale, il suffit donc de générer des couples de nombres aléatoires (x,y) et de
comptabiliser le nombre de succès obtenus. Il s’agit, comme dans l’estimation du nombre π, d’une
méthode de MC de type tirage par noir ou blanc.
3.2. MC ÉLÉMENTAIRE
Le problème de l’estimation d’une intégrale du type :
b
= ∫ f(x) dx
(14)
a
que nous avons abordé précédemment peut être reformulé en termes de calcul d’une moyenne :
b−a n
b−a n
∑ f(xi ) ≅
∑ f(x )
n i= 1
n i= 1 i
n→ ∞
= (b − a) f(x) = lim
(15)
Dans la pratique, on génère n nombres aléatoires, xi, compris entre a et b et distribués
suivant une densité de probabilité uniforme. Cette densité de probabilité est constante dans
l’intervalle considéré, c’est-à-dire que toutes les valeurs comprises entre a et b sont équiprobables.
On utilise ces nombres aléatoires pour le calcul de la valeur moyenne de f qui conduit à l’estimation
de .
L’échantillonnage utilisé est homogène. C’est-à-dire que l’on visite également toutes les
régions comprises entre a et b. On qualifie cet échantillonnage de MC élémentaire (ou MC simple).
Il constitue une amélioration par rapport au MC de type tirage par noir ou blanc. Le passage de
l’échantillonnage de type noir ou blanc à l’échantillonnage élémentaire se traduit par le
remplacement de ζ(x,y) par son espérance mathématique (sur y) f(x). C’est-à-dire que l’on
remplace une estimation par une valeur exacte. Ceci est général pour les calculs par la méthode de
MC : on a toujours intérêt à remplacer une estimation par une valeur exacte. On réduit ainsi l’erreur
d’échantillonnage du résultat final.
Si la fonction f est fortement inhomogène, l’estimation par la méthode de MC
élémentaire est particulièrement inefficace. En effet, on échantillonne trop les régions où f(x) est
faible et pas assez celles où elle est élevée, ce qui conduit à une convergence excessivement lente
du calcul de l’intégrale.
3.3. ÉCHANTILLONNAGE SUIVANT L’IMPORTANCE
Pour améliorer la convergence, on utilise une méthode légèrement différente. L’idée est
de privilégier les régions où la fonction possède des valeurs élevées par rapport à celles où elle est
proche de zéro. Plutôt que de générer des nombres aléatoires uniformément répartis, on tire ces
nombres dans une distribution non uniforme qui échantillonne mieux les régions où l’intégrale est
importante. Cette méthode, qui représente une amélioration par rapport à la méthode précédente, est
appelée échantillonnage suivant l’importance. C’est une méthode de MC biaisé par opposition au
MC élémentaire. On biaise par rapport à la distribution uniforme, mais évidemment le résultat n’est
pas biaisé.
6
Considérons une densité de probabilité non uniforme, ρ(x), qui imite le comportement
de f(x) et que l’on sait intégrer analytiquement. On la choisit normalisée dans l’intervalle [a,b] :
b
∫a ρ(x) dx = 1
Réécrivons
(16)
sous la forme suivante :
b f(x)
=∫
ρ(x) dx
a ρ(x)
(17)
On génère alors des nombres au hasard, zi, distribués non plus uniformément mais suivant ρ(z) et
l’on évalue f(zi ) ρ(z i ). La valeur moyenne de la fonction f(z) peut alors être obtenue comme la
moyenne de f ρ pondérée par ρ(z) :
1 n ′ f(z i ) 1 n ′ f(zi )
∑
≅
∑
(18)
n→ ∞ n i= 1 ρ(z i ) n i =1 ρ(z i )
Le symbole ′ dans ∑ ′ signifie que la somme est réalisée implicitement suivant une distribution non
uniforme. L’intégrale recherchée est donnée par :
f(z) = lim
=
b − a n ′ f(zi )
∑
n i =1 ρ(z i )
(19)
Si f est strictement positive, on peut choisir ρ proportionnelle à f :
ρ(x) = c f(x)
(20)
C’est la fonction qui imite le mieux f. (16) implique que :
1
c=
(21)
Ce choix est inefficace puisque c dépend précisément de l’intégrale que l’on cherche à déterminer.
Pour que la méthode soit utilisable et que la variance soit faible, ρ doit donc être proche de f
(rapport f ρ aussi constant que possible) sans lui être proportionnelle. D’autre part, elle doit
également être simple, afin que l’on puisse l’intégrer analytiquement. C’est un compromis entre ces
deux exigences qui permettra de trouver une fonction adaptée à chaque cas particulier.
3.4. EXEMPLE
Prenons un exemple pour illustrer les trois
méthodes de MC que nous avons exposées.
2
ex − 1
f(x) =
(22)
e −1
L’intégration analytique de f(x), dans l’intervalle [0,1],
conduit au résultat exact :
ρ(x)
1
f( x)
= 0.418
Pour l’échantillonnage suivant l’importance nous
choisissons :
f(x) ρ(x)
ρ(z) = 2 z
0
0
x
(23)
1
(24)
qui est normalisée dans l’intervalle [0,1]. Le tableau
qui suit donne le détail des calculs pour l’application
des trois méthodes. xi, yi et z i sont des nombres pseudo-aléatoires compris entre 0 et 1. xi et yi sont
échantillonnés suivant une distribution uniforme alors que zi est distribué suivant ρ(z) (24).
7
xi
yi
f(xi)
ζ(xi,yi)
z i = xi
f(zi)
ρ(zi)
f(zi ) ρ(z i )
0.96
0.28
0.21
0.94
0.35
0.40
0.10
0.52
0.18
0.08
0.50
0.83
0.73
0.25
0.33
0.34
0.44
0.21
0.48
0.04
0.76
0.94
0.51
0.58
0.10
0.72
0.69
0.64
0.12
0.81
0.94
0.55
0.938
0.188
0.136
0.908
0.244
0.286
0.061
0.397
0.115
0.048
0.378
0.753
0.626
0.165
0.228
0.236
1
0
0
1
0
0
0
0
1
0
0
1
1
0
0
0
0.98
0.53
0.46
0.97
0.59
0.63
0.32
0.72
0.42
0.28
0.71
0.91
0.85
0.50
0.57
0.58
0.969
0.407
0.340
0.953
0.468
0.511
0.219
0.614
0.304
0.188
0.602
0.864
0.780
0.378
0.447
0.457
1.96
1.06
0.92
1.94
1.18
1.26
0.64
1.44
0.84
0.56
1.42
1.82
1.70
1.00
1.14
1.16
0.494
0.384
0.370
0.491
0.397
0.406
0.342
0.426
0.362
0.336
0.424
0.475
0.459
0.378
0.392
0.394
Comment obtenir des nombres aléatoires, zi, distribués de façon non uniforme à partir de nombres
aléatoires, xi, générés à partir d’une distribution uniforme ?
Théorème — Soit x une variable aléatoire continue de densité de probabilité g(x). Soit
alors une variable aléatoire continue z, définie en fonction de x telle qu’à chaque valeur de x ne
correspond qu’une et une seule valeur de z et inversement. La densité de probabilité de z est donnée
par :
ρ(z) dz = g(x) dx
(25)
On utilise l’expression précédente pour trouver la relation qui existe entre z et x, les
densités de probabilité ρ(z) et g(x) étant connues. Les variables aléatoires x et z sont comprises
entre 0 et 1. ρ(z) est donnée par (24) et l’on prend la densité de probabilité uniforme pour g(x).
Puisque x appartient à l’intervalle [0,1] et que g est normalisée : g(x) = 1. On a alors :
2 z dz = dx
(26)
Après intégration, on obtient z en fonction de x :
z= x
(27)
Tirage par
noir ou blanc
n
Formule utilisée
Estimation
Estimation −
écart-type
16
nS 1
=
n
n
nS
n
n
∑ ζ(x i ,yi )
i =1
= 0.313
0.115
0.116
MC élémentaire
Échantillonnage
suivant l’importance
16
1 n
f =
∑ f(x i )
n i=1
16
1 n ′ f(z i )
f =
∑
n i=1 ρ(z i )
f = 0.357
f = 0.408
0.061
0.073
0.010
0.012
8
Le tableau précédent fournit une comparaison des résultats obtenus à l’aide des trois
méthodes. La méthode de MC de type tirage par noir ou blanc est la moins précise, tandis que
l’échantillonnage suivant l’importance est le plus efficace.
4.
MÉTHODE DE METROPOLIS
Dans la pratique, nous sommes incapables de déterminer directement la fonction de
partition de l’ensemble canonique ou l’intégrale de configuration d’un système de N particules
mais, par contre, nous sommes en mesure de calculer la moyenne canonique d’une grandeur
physique A(rN ) :
N
A(r )
NVT
∫ ∫
= …
e −β U(r ) N 1 n
A(r )
dr =
∑ ρ {r N }i A {r N }i
Z
n i=1
N
ρ NVT (r )
N
N
(
) (
)
(28)
où chaque configuration i fait référence à un état accessible de l’espace des configurations. C’est
une moyenne pondérée par la densité de probabilité de l’espace des configurations (à 3N degrés de
liberté) de l’ensemble canonique. Nous allons donc utiliser la méthode de MC avec échantillonnage
suivant l’importance (§ 3.3) afin d’estimer cette intégrale :
A =
(
1 n ′
∑ A {r N }i
n i=1
)
(29)
Comment allons-nous générer les différentes configurations {r N }i , ou états i, utilisés
pour calculer la moyenne canonique A ? On ne va pas générer des états {r N }i quelconques mais
des états i distribués suivant la densité de probabilité non uniforme ρ NVT . Pour atteindre cet
objectif, nous adopterons la méthode de Metropolis. Dans ce cas, contrairement à ce qui est fait en
DM, les différents états successifs ne suivent pas une évolution temporelle régie par l’équation de
Newton.
On construit une chaîne de Markov, c’est-à-dire que
chaque
état
ne dépend explicitement que de l’état précédent et
{r }i+1
appartient à un ensemble fini d’états appelé espace des états : {1,
2, …, i, …, j, …, n}. L’ordre dans lequel les états se succèdent
n’a aucune signification physique. La difficulté est de trouver
{r N }i
{r N }i+ 2
une méthode afin de générer ces états (aléatoires) de telle
manière qu’à la fin de la simulation (c’est-à-dire à l’équilibre)
chaque état soit produit avec la bonne probabilité. Il se trouve que ceci est réalisable sans jamais
avoir besoin de calculer le facteur de normalisation de ρ NVT c’est-à-dire l’intégrale de
configuration.
N
{r N }i+1
{r N }i+ 3
Dans le cas du calcul de la valeur moyenne A pour un système de N particules, on
doit construire une matrice de transition de très grande taille qui est stochastique et ergodique. Une
chaîne de Markov irréductible ou ergodique est une chaîne dans laquelle chaque état peut
éventuellement être atteint à partir d’un autre état quelconque. On ne connaît pas les éléments de la
matrice, mais la distribution limite de la chaîne de Markov, ρ , est connue. C’est un vecteur dont les
éléments sont donnés par la densité de probabilité de l’ensemble canonique :
N
ρ i = ρ NVT ({r }i ) =
[
exp −β U({r N }i )
]
(30)
Z
de chaque point (ou configuration) i de l’espace des configurations, {r N }i . Il est possible de
déterminer les propriétés de la matrice Π . On générera à l’aide de Π une chaîne de Markov dont
les points appartiennent à l’ensemble canonique.
9
On cherche à présent à déterminer les propriétés de la matrice Π .
1) La matrice de transition Π qui donne, par définition, les probabilités de transition
d’une configuration i à une configuration j :
{r N }i 
→ {r N }j
Π
ij
(31)
est une matrice stochastique (de probabilités) :
∑ Πij = 1
(32)
j
2) La matrice de transition ne doit pas détruire l’équilibre lorsqu’il est établi. La chaîne
de Markov doit être ergodique :
ρΠ =ρ
i
(33)
j
j
j
j
que l’on peut formuler autrement : le nombre de
déplacements acceptés quittant l’état i doit être
exactement égal au nombre de déplacements
conduisant à l’état i à partir de tous les autres états
j. Ceci correspond à un état stationnaire.
i
∑ ρi Π ij = ∑ ρ j Π ji
(34)
ρ i ∑ Π ij = ∑ ρ j Π ji
(35)
j
j
j
j
ρ i ∑ Π ij
j
j
∑ ρ j Π ji
j
ρ i = ∑ ρ j Π ji
(36)
j
j
3) Il est commode d’imposer une
condition plus forte que la précédente : à l’équilibre, le nombre moyen de déplacements acceptés à
partir d’un quelconque état i vers n’importe quel état j est exactement égal au nombre moyen de
déplacements inverses. C’est la condition de microréversibilité (ou du bilan détaillé) :
ρ i Π ij = ρ j Π ji
(37)
On veut donc que la probabilité de passage de i à j soit la même que celle de passer de j à i, sinon on
risquerait de rester piégé dans une région de l’espace des configurations et notre intégrale serait
alors mal évaluée. La condition (37) est suffisante mais trop forte. C’est celle que Metropolis a
choisie.
(37) ⇒ (36)
(38)
4) Examinons comment on procède :
étape : on réalise un essai de déplacement aléatoire pour passer d’un état i à un état j. On note
α ij l’élément de matrice stochastique correspondant à la tentative i → j. α est appelée
matrice de base de la chaîne de Markov (underlying matrix of the Markov chain).
2de étape : on doit décider si l’on accepte ou pas le déplacement i → j. Appelons Pij la probabilité
d’accepter l’essai de déplacement de i à j.
Alors :
1ère
Π ij = α ij Pij
Il existe de nombreuses matrices α qui conviennent.
5) On choisit α symétrique :
(39)
10
α ij = α ji
(40)
6) On peut réécrire (37) :
ρ i α/ ij Pij = ρ j α
/ ji Pji
Pij
Pji
=
ρj
ρi
=
exp(−β U j) Z
exp(−β Ui ) Z
(41)
= exp[−β (U j − Ui )] = exp(−β ∆Uij )
(42)
ce qui est indépendant de Z !
7) Il y a de nombreux choix possibles pour Pij qui satisfont cette condition (et la
condition Pij ∈ [0,1]). Le choix de Metropolis est le suivant :
ρ
Pij = j et Pji = 1
ρi
ρ
Pij = 1 et Pji = i
ρj

si ρ j < ρ i

si ρ j ≥ ρi

ρ
Π ij = α ij j et Π ji = α ji = α ij
ρi
ρ
Π ij = α ij = α ji et Π ji = α ji i
ρj
Pii = 1
(43)
(44)
∑ Πij = Π ii + ∑ Π ij = 1
(45)
Π ii = 1 − ∑ Π ij
(46)
j
j≠i
j≠i
Le système peut rester dans un même état i.
Contrôle de la condition de microréversibilité — Nous devons à présent vérifier que le
choix de Metropolis (43) satisfait dans tous les cas la condition de microréversibilité (37).
1er cas :
2d cas :
ρ j > ρ i


ρ < ρ
i
j




ρ < ρi
 j


ρ i > ρ j


ρ j = ρ i

ème
3
cas : 
ρ = ρj
 i

Π ij = α ij
ρi Π ij = ρ i α ij
Π ji = α ji
ρi
ρj
⇒ ρi Π ij = ρ j Π ji
CQFD
⇒ ρ i Πij = ρ j Π ji
CQFD
⇒ ρ i Π ij = ρ j Π ji
CQFD
(47)
ρ j Π ji = ρi α ij
Π ij = α ij
ρj
ρi
ρi Π ij = ρ j α ji
Π ji = α ji
(48)
ρ j Π ji = ρ j α ji
Π ij = α ij
ρi Π ij = ρ i α ji
Π ji = α ji
(49)
ρ j Π ji = ρi α ji
La symétrie de la matrice α est essentielle pour satisfaire la condition de microréversibilité. Notons
que nous n’avons pas donné α de façon explicite, nous avons simplement choisi qu’elle soit
symétrique. Ceci reflète le fait qu’il y a une liberté importante dans le choix des essais de
11
déplacements d’un état i à un état j. Nous reviendrons sur ce point ultérieurement.
8) Algorithme de Metropolis — Nous allons à présent expliquer comment, dans la
pratique, les tentatives (ou essais) de passage de l’état i à l’état j sont acceptées ou rejetées.
a) proposition de passage de i à j (α ij ).
b) Uj=i+1 > Ui (ρ j < ρi ) la tentative doit être acceptée avec une probabilité (voir (43)) :
Pij =
ρj
ρi
= exp[−β (U j − Ui )]
(50)
Pour décider, on génère un nombre aléatoire ξ dans l’intervalle [0,1] dans une distribution
uniforme. La probabilité que ξ ≤ Pij est égale à Pij . Par conséquent :
- on accepte si ξ ≤ Pij
- on refuse
si ξ >Pij
Cette règle garantit que l’acceptation de la tentative i → j ait la probabilité Pij .
c) Uj=i+1 ≤ Ui (ρ j > ρi ) on accepte toujours puisque dans ce cas Pij = 1 (voir (43)).
exp(- β ∆U)
1
1
•ξ
toujours
accepté
accepté
0
0
0
rejeté
•ξ
∆U
∆Uij
On doit préciser la matrice de base, α , générant la chaîne de Markov.
Déplacements atomiques — Le passage de la configuration {r N }i à la configuration
{r }j=i+1 sera obtenu en effectuant un déplacement au hasard d’une ou de toutes les particules
(cela dépendra du système que l’on étudie, le seul critère étant l’efficacité de l’échantillonnage). Ce
déplacement vaudra au maximum δrmax. Pour chaque particule :
N
 rix+1 = rix + ( 2 ξ − 1) δrmax
 y
y
 ri+1 = ri + ( 2 ξ − 1) δrmax
 rz = r z + 2 ξ − 1 δr
) max
 i+1 i (
(51)
où ξ représente un nombre aléatoire distribué uniformément entre 0 et 1. α est bien symétrique, le
déplacement inverse est équiprobable. Si δrmax était choisi trop grand, la tentative serait toujours
refusée. En effet, ∆Uij serait très grand et par conséquent P ij proche de zéro. Par contre si δrmax
etait pris trop petit, la nouvelle configuration aurait une énergie très voisine de la précédente et
serait presque toujours acceptée. Mais l’échantillonnage de l’espace des configurations serait alors
très lent. Le choix de δrmax est donc le résultat d’un compromis qui conduit à un échantillonnage
satisfaisant. Le premier critère de choix est empirique et consiste à obtenir un taux d’acceptation
12
des configurations proposées de l’ordre de 50 %. Un second critère, plus rigoureux, consiste à
2
minimiser la variance, (A − A ) , de la grandeur physique dont on détermine la moyenne, A .
Dans un solide, les atomes vibrent autour de leur position d’équilibre. En DM, on
obtient ces vibrations grâce à l’équation de Newton. Les configurations successives décrivent alors
les mouvements réels des atomes en fonction du temps. La méthode de MC permet de retrouver les
différentes positions des atomes autour de leur position d’équilibre dans les configurations de la
chaîne de Markov, mais générés dans un ordre différent. Les états successifs ne sont pas corrélés
temporellement. L’ordre dans lequel on obtient ces états de la chaîne de Markov n’a aucune
signification physique.
Structure schématique en FORTRAN d’un programme de MC Metropolis
Ensemble canonique
C
C
C
C
C
*
*
C
C
C
C
C
C
C
C
*
*
*
*
RX,RY,RZ : positions atomiques
TEMP
: température
KB
: constante de Boltzmann
DRMAX
: déplacement maximum
U
: énergie potentielle
lecture des paramètres du programme
lecture de la configuration initiale
calcul de l’énergie initiale
CALL ENERGY
BETA
= 1.0 / (KB * TEMP)
boucle sur les itérations MC - chaîne de Markov
DO ISTEP = 1, NSTEP
boucle sur les atomes
DO I = 1, NATOMS
UOLD
= U
RXIOLD = RX(I)
RYIOLD = RY(I)
RZIOLD = RZ(I)
déplacement de l’atome I
RXINEW = RXIOLD + ( 2.0 * RANDOM ( ) - 1.0 ) * DRMAX
RYINEW = RYIOLD + ( 2.0 * RANDOM ( ) - 1.0 ) * DRMAX
RZINEW = RZIOLD + ( 2.0 * RANDOM ( ) - 1.0 ) * DRMAX
application des conditions aux limites périodiques
RXINEW = RXINEW - ANINT ( RXINEW / BOX ) * BOX
RYINEW = RYINEW - ANINT ( RYINEW / BOX ) * BOX
RZINEW = RZINEW - ANINT ( RZINEW / BOX ) * BOX
RX(I) = RXINEW
RY(I) = RYINEW
RZ(I) = RZINEW
calcul de l’énergie de la nouvelle configuration
CALL ENERGY
UNEW = U
algorithme de Metropolis
DELTU = UNEW - UOLD
DELTUB = BETA * DELTU
IF ( DELTU .GT. 0.0 ) THEN
IF ( EXP ( - DELTVB ) .LT. RANDOM() ) THEN
on refuse la nouvelle configuration
U
= UOLD
RX(I) = RXIOLD
RY(I) = RYIOLD
RZ(I) = RZIOLD
ENDIF
ENDIF
puis calcul des valeurs instantanées
puis calcul des valeurs moyennes
ENDDO
ENDDO
impression des résultats
sauvegarde de la configuration finale
Échanges d’atomes — On peut envisager d’autres simulations MC, toujours basées sur
la méthode de Metropolis. Considérons un composé qui est ordonné à basse température comme
CuZn, Cu3Au, … mais qui forme une solution solide désordonnée à haute température. À une
13
certaine température critique, Tc, il s’opère une transition de phase du premier (ou du second) ordre
appelée transition ordre-désordre. Si l’on cherche des configurations d’équilibre de l’état
désordonné, on ne les obtiendra pas par DM, même si l’on introduit des lacunes dans le système
afin que la diffusion puisse se produire. En effet, l’échelle de temps accessible par la DM ne permet
pas d’observer ce genre de phénomènes. Par contre, on peut envisager une simulation MC (sur
réseau rigide par exemple, c’est-à-dire qu’on ne considère que les positions moyennes des atomes
sur le réseau sans écart par rapport à ces positions moyennes de l’état ordonné). On échange alors
deux atomes de natures différentes pris au hasard et l’on utilise l’algorithme de Metropolis pour
accepter ou refuser cet échange. La matrice α a donc pour rôle de donner la probabilité d’échange
de deux atomes permettant de passer d’un état i à un état j. L’algorithme de Metropolis fournit
l’acceptation ou le refus de cet échange. On obtient alors des configurations d’équilibre
représentatives de l’état d’ordre. L’algorithme de Metropolis interdira au composé de se
désordonner pour des températures inférieures à la température critique associée au modèle
énergétique, Tcmodèle , qui peut être différente de la valeur expérimentale, mais autorisera le système
à se désordonner pour T > Tcmodèle .
Paramètre d'ordre à grande distance
1.2
1
0.8
MC avec
déplacements
atomiques
0.6
MC sur
réseau rigide
0.4
0.2
0
-0.2
0
200
400
600
Température (K)
800
1000
Cu3 Au — Paramètre d’ordre à grande distance en fonction de la température
1) calculé sur réseau rigide par MC d’échanges atomiques et 2) calculé par
MC avec échanges et déplacements atomiques. La différence entre les deux
simulations montre que la contribution de l’entropie de vibration à l’entropie
globale de la transition ordre-désordre est importante.
5.
COMPARAISON À LA DYNAMIQUE MOLÉCULAIRE
La comparaison entre la méthode de MC et la méthode de la DM se fait en considérant
l’efficacité relative de ces deux techniques en fonction du problème à traiter. Pour l’obtention des
propriétés statiques d’équilibre des systèmes (quasi-)ergodiques, les deux méthodes sont
équivalentes, car dans ce cas les moyennes temporelles et les moyennes d’ensemble fournissent les
mêmes résultats. Il est alors préférable de choisir la méthode de la DM puisqu’elle fournit le
mouvement réel des particules. En effet, elle permet ainsi d’atteindre en outre les propriétés
dynamiques et de transport qui sont inaccessibles par la technique de MC. Le mouvement détaillé
des atomes peut être analysé et conduire notamment à la connaissance des mécanismes précis des
phénomènes physiques (e. g. diffusion dans les solides). D’autre part, la DM offre un
échantillonnage plus efficace de l’espace des configurations quand il s’agit de traiter des transitions
de phases structurales ou des changements conformationnels de grandes molécules. Dans ce cas, le
chemin à parcourir d’une région de l’espace des phases à une autre requiert un réarrangement
14
collectif des coordonnées de nombreuses particules. La méthode de la DM permet alors de trouver
des chemins plus directs que ceux générés par des mouvements MC aléatoires non corrélés et de ce
fait moins efficaces. Par contre, la méthode de MC est plus facile à appliquer, et surtout plus
intéressante, dans le cas d’une énergie potentielle mathématiquement compliquée, puisqu’on peut
s’affranchir d’une évaluation explicite des forces alors difficile mais indispensable à la DM. Par
ailleurs, une situation où la nature non réelle des mouvements MC peut être exploitée est celle des
mélanges, notamment quand l’interdiffusion des espèces est trop lente pour être observée à l’échelle
de temps de la DM. Enfin, de nombreuses techniques de MC ont été développées spécialement pour
le calcul des énergies libres.
6.
LIMITATIONS GÉNÉRALES
Il y a essentiellement deux facteurs qui limitent le champ d’application de la méthode de
MC Metropolis. Le premier est attribué aux modèles de cohésion utilisés, tandis que le second est
inhérent à l’emploi des ordinateurs. La première limitation concerne le modèle énergétique que l’on
adopte pour décrire les interactions. Qu’il s’agisse d’une énergie potentielle empirique ou bien
d’une approche quantique plus sophistiquée, la description des interactions repose toujours sur des
approximations importantes. Le second facteur est lié à la taille réduite du système que l’on peut
simuler. Ce sont la capacité mémoire et la puissance des ordinateurs qui limitent cette taille. Même
si la limite thermodynamique (théoriquement N → ∞ ) peut être atteinte pour des systèmes
homogènes de petite taille, il existe de nombreuses propriétés qui sont difficiles ou impossibles à
étudier sur des systèmes de taille réduite. D’une façon générale, le meilleur moyen de contrôler les
effets de taille est de réaliser un ensemble de simulations pour des systèmes de différentes
dimensions et d’extrapoler les résultats obtenus pour une taille infinie.
Limitations de taille — Le nombre maximum de particules que l’on peut envisager est
de l’ordre de quelques millions. Cette taille est exceptionnelle et supérieure, d’au moins deux ordres
de grandeur, aux tailles des systèmes couramment simulés. Dans ces conditions de taille finie,
toutes les longueurs d’onde supérieures aux dimensions de la boîte de simulation ne sont pas prises
en compte. Corrélativement, les vecteurs d’onde de l’espace réciproque dont les valeurs sont
inférieures à 2π L sont inaccessibles (L est la plus petite dimension de la boîte de simulation). Un
spectre de phonons est donc limité aux valeurs du vecteur d’onde supérieures à 2π L . D’autre part,
si l’on introduit par exemple un défaut ponctuel dans un cristal de N atomes, la fraction atomique
(du défaut) la plus faible possible vaut 1 N . Ceci représente une concentration de défauts
excessivement élevée par rapport à la réalité, et correspond typiquement à celle rencontrée au
voisinage du point de fusion. De la même façon, si l’on considère un soluté dans un système à l’état
solide ou liquide, le domaine des concentrations en soluté est restreint. Les systèmes très dilués sont
inaccessibles. Un autre exemple est fourni par la densité de dislocations très élevée que l’on obtient
avec une seule dislocation dans le système. Les situations que l’on sait traiter sont donc celles ou le
cristal est fortement déformé. D’autre part, les champs de contraintes et de déformations posent
d’autres problèmes à cause de leur longue portée. Les conditions aux limites périodiques génèrent
des images de la dislocation qui interagissent toutes entre elles et, de ce fait, ne permettent pas
d’étudier une dislocation isolée. On préfère alors abandonner les conditions aux limites périodiques
et immerger le système dans un continuum élastique. Mais cette solution empêche l’étude de la
dynamique du défaut. Cet exemple illustre le type de problèmes que l’on rencontre quand on
s’intéresse aux propriétés des défauts étendus.
Limitations du modèle énergétique — Une limitation importante concerne les systèmes
que l’on peut étudier par cette technique. On ne peut simuler un système que si l’on dispose d’un
modèle de potentiel (énergie potentielle) ou bien si l’on est capable d’en élaborer un. Les potentiels
d’interaction sont en effet indispensables à la mise en œuvre des deux méthodes. D’ailleurs, leur
choix constitue la seule approximation importante que l’on fasse en simulation. Ces potentiels sont
soit des modèles théoriques, soit des potentiels empiriques d’expression plus ou moins arbitraire. Ils
15
sont tous deux limités par les approximations que l’on réalise pour les obtenir, et les seconds ne
sont ajustés que pour reproduire certaines propriétés du système. Ce qui veut dire que ces potentiels
empiriques sont restreints à la description d’une gamme limitée de propriétés. D’autre part, les
potentiels de paires étaient souvent utilisés en simulation alors que l’approximation de l’interaction
à deux corps est loin d’être toujours justifiée. En effet, beaucoup de systèmes nécessitent des
potentiels d’interaction à n corps afin de reproduire correctement leurs propriétés (e. g. métaux de
transition). Cependant, un potentiel de paires comme le potentiel de Lennard-Jones est adapté à
l’étude des gaz rares et des propriétés génériques des systèmes modèles. Le diagramme de phases
correspondant est bien connu et les multiples études qui ont déjà été réalisées à l’aide de ce
potentiel fournissent de nombreux points de référence. En ce qui concerne les systèmes
essentiellement ioniques, les métaux alcalins et les gaz rares, la modélisation des interactions est
satisfaisante pour la description des propriétés de volume parce que les résultats sont en bon accord
avec les expériences de laboratoire. Par contre, pour les systèmes covalents, les métaux de transition
et tous les solides comportant des défauts, la description des interactions est moins bien établie et
motive encore de nombreux travaux de recherche.
7.
P ROPRIÉTÉS ACCESSIBLES ET INACCESSIBLES
Les simulations habituelles par les méthodes de la DM et de MC fournissent des
informations statistiques à propos de propriétés “mécaniques” du système. Le terme “mécanique”
possède ici un sens particulier. Il est réservé aux fonctions explicites des coordonnées de l’espace
des phases comme l’énergie potentielle d’une configuration donnée, le viriel des forces, … La
connaissance des moyennes temporelles obtenues par DM ou des moyennes d’ensemble obtenues
par MC pour de telles propriétés “mécaniques” permet de calculer un nombre important de
grandeurs thermodynamiques d’équilibre qui sont des dérivées partielles d’une énergie libre
comme l’énergie interne, la pression, la capacité calorifique, … Par contre, il n’est pas possible
d’accéder directement, à partir de simulations traditionnelles, à des informations concernant des
propriétés “thermiques” c’est-à-dire des énergies libres. L’expression “thermique” est utilisée
pour désigner toutes les propriétés qui dépendent du volume total de l’espace des phases (ou du
sous-espace des configurations) accessible au système, c’est-à-dire qui dépendent explicitement de
la fonction de partition. Exemples de propriétés “thermiques” : l’entropie, l’énergie libre de
Helmholtz, l’enthalpie, l’enthalpie libre, le potentiel chimique, …
Pourquoi les propriétés “thermiques” ne peuvent-elles pas être obtenues de la même
manière que les propriétés “mécaniques” ? Pour répondre à cette question, considérons une
simulation MC dans l’ensemble canonique. Rappelons que, dans cet ensemble, la probabilité de
trouver un système dans un volume de l’espace des configurations drN autour du point r N est
donnée par :
N
N
ρ(r ) dr =
[
exp −β U(r N )
Z
]
dr N
(52)
et que l’énergie libre de Helmholtz vaut :
Z
F = −k BT Log(Q) = −k BT Log  3N 
 Λ N!
(53)
Dans une simulation MC, avec l’échantillonnage de Metropolis, le système parcourt au hasard
l’espace des configurations avec une probabilité de visite du point r N proportionnelle à ρ(rN ) , mais
à moins de réaliser des simulations astronomiquement longues (c’est-à-dire non réalisables dans la
pratique) la constante de proportionnalité est inconnue.
Pour donner une image du problème, il est commode de considérer les estimations de la
profondeur moyenne d d’un lac, l’équivalent d’une propriété “mécanique”, et de l’aire de sa
16
surface, , l’équivalent d’une propriété “thermique”. Dans le cas de la mesure de la profondeur,
l’échantillonnage MC consiste à faire un pas au hasard et à le rejeter s’il nous mène sur la berge et à
l’accepter autrement. La moyenne est réalisée sur de nombreuses tentatives :
1 n
∑ di
n→∞ n i
d = lim
(54)
Dans la pratique, la condition “n → ∞ ” est remplacée par “n suffisamment grand” pour qu’une
fraction représentative, même si elle est infinitésimale, du lac soit visitée. Il est important de
remarquer que d, l’image de notre propriété “mécanique”, est une grandeur locale, ce qui signifie
qu’elle possède une valeur en un point particulier de l’espace des phases. Par contre, il n’existe pas
de telle procédure pour mesurer l’aire du lac parce que ce n’est pas une grandeur locale comme d.
La seule façon de mesurer l’aire du lac, dans ce type d’expériences MC, est de
déterminer le temps moyen de retour, c’est-à-dire le nombre de pas MC qui séparent en moyenne
deux visites de la même aire élémentaire d située en un point donné. Dans les systèmes modèles
de mécanique statistique, ce temps, qui est l’équivalent du temps de cycle de Poincaré, est
véritablement astronomique, même pour les systèmes les plus petits.
Le théorème de Poincaré exprime que le mouvement, dans l’espace des phases, d’un
système mécanique est quasi-périodique en fonction du temps. Autrement dit, si à un instant t 0 , le
système se trouve en un point donné de l’espace des phases, il existe un intervalle de temps fini au
bout duquel le système reviendra au voisinage du point d’origine. Ce temps est fini mais
astronomiquement grand et impossible à observer en DM.
On est incapable de déterminer directement le volume de l’espace des phases accessible
au système et, par conséquent, incapable de calculer directement des grandeurs comme l’énergie
libre de Helmholtz (propriétés “thermiques”). Il existe, par contre, des méthodes adaptées au calcul
des différences d’énergie libre, mais ceci est une autre histoire …
17
RÉFÉRENCES
[Alde-56]
B. J. Alder, T. Wainwright,
dans Proceedings of the international symposium of pure and applied physics on Statistical mechanical
theory of transport properties, Brussels, I. Prigogine, ed., 97 (Interscience Publishers inc., NewYork,
1956).
Molecular Dynamics by electronic computers.
[Alde-57]
B. J. Alder, T. E. Wainwright,
J. Chem. Phys. 27, 1208 (1957).
Phase transition for a hard sphere system.
[Alle-87]
M. P. Allen, D. J. Tildesley,
Computer simulation of liquids (Clarendon Press, Oxford, 1987).
[Bern-77]
B. J. Berne, ed.,
Statistical mechanics, Part A: Equilibrium techniques, (Plenum Press, New York, 1977).
[Catl-90]
C. R. A. Catlow, S. C. Parker, M. P. Allen, eds,
Computer modelling of fluids, polymers and solids, Proceedings of the NATO advanced study institute
(Kluwer Academic Publishers, Dordrecht, 1990).
[Cicc-86]
G. Ciccotti, W. G. Hoover, eds,
Molecular Dynamics simulation of statistical-mechanical systems, Proceedings of the international
school of physics “Enrico Fermi”, Course XCVII (North-Holland Physics Publishing, Amsterdam, 1986).
[Cicc-87]
G. Ciccotti, D. Frenkel, I. R. McDonald,
Simulation of liquids and solids, MD and MC methods in statistical mechanics (North-Holland Physics
Publishing, Amsterdam, 1987).
[Diu-89]
B. Diu, C. Guthmann, D. Lederer, B. Roulet,
Physique statistique (Hermann, Paris, 1989).
[Dume-94]
C. Dumez, M. Hayoun, C. Rey Losada, V. Pontikis,
Interface Science 2, 45 (1994).
Thermodynamical properties and defect energetics of an n-body potential adapted to Cu3 Au.
[Hamm-67] J. M. Hammersley, D. C. Handscomb,
Monographies Dunod 65 (1967).
Les méthodes de Monte Carlo.
[Jame-80]
F. James,
Rep. Prog. Phys. 43, 1145 (1980).
Monte Carlo theory and practice.
[Metr-53]
N. Metropolis, A. W. Rosenbluth, M. N. Rosenbluth, A. H. Teller, E. Teller,
J. Chem. Phys. 21, 1087 (1953).
Equation of state calculations by fast computing machines.
[Meye-91]
M. Meyer, V. Pontikis, eds,
Computer simulation in materials science, Interatomic potentials, simulation techniques and applications,
Proceedings of the NATO advanced study institute (Kluwer Academic Publishers, Dordrecht, 1991).
[Ronc-91]
M. Ronchetti, G. Jacucci,
Simulation approach to solids (Kluwer Academic Publishers, 1991).
[Spie-89]
M. R. Spiegel,
Probabilités et statistiques, Série Schaum (McGraw-Hill, Paris, 1989).
[Wood-57a] W. W. Wood, F. R. Parker,
J. Chem. Phys. 27, 720 (1957).
Monte Carlo equation of state of molecules interacting with the Lennard-Jones potential. I. A supercritical
isotherm at about twice the critical temperature.
[Wood-57b] W. W. Wood, J. D. Jacobson,
J. Chem. Phys. 27, 1207 (1957).
Preliminary results from a recalculation of the Monte Carlo equation of state of hard spheres.

Documents pareils