MECANIQUE STATISTIQUE CLASSIQUE

Transcription

MECANIQUE STATISTIQUE CLASSIQUE
MECANIQUE STATISTIQUE CLASSIQUE
Département de Physique
Semestre d’automne
Enseignant : Prof. Yi-Cheng Zhang
Assistant : Dr. Matúš Medo
15 septembre 2009
Table des matières
1 MECANIQUE STATISTIQUE CLASSIQUE
1.1 Rappel de mécanique classique . . . . . . . . . . . . .
1.2 Le théorème de Liouville . . . . . . . . . . . . . . . . .
1.3 Le postulat fondamental . . . . . . . . . . . . . . . . .
1.4 L’entropie dans l’ensemble microcanonique . . . . . . .
1.5 Application au gaz parfait . . . . . . . . . . . . . . . .
1.6 L’ensemble canonique . . . . . . . . . . . . . . . . . .
1.7 Application à un système d’oscillateurs harmoniques .
1.8 Les théorèmes du viriel et de l’équipartition d’énergie
1.9 Gaz réels . . . . . . . . . . . . . . . . . . . . . . . . .
1.10 La structure des liquides . . . . . . . . . . . . . . . . .
2 ISING MODEL
2.1 Transition ordre-désordre dans un alliage :
2.2 L’approximation du champ moyen . . . .
2.3 Le modèle d’Ising à une dimension . . . .
2.4 La méthode du groupe de renormalisation
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
3
4
5
6
9
10
12
13
16
22
le modèle d’Ising
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
26
26
28
31
33
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Appendice A — High and low temperature series in Ising model
37
Appendice B — Monte Carlo, Metropolis algorithm, Simulated Annealing
41
Littérature
1. Walter Greiner, Ludwig Neise, Horst Stöcker, Thermodynamique et mecanique statistique (aussi en allemand et anglais)
2. Daniel J. Amit, Yosef Verbin, Rami Tzafriri, Statistical Physics : An Introductory
Course
1
MECANIQUE STATISTIQUE CLASSIQUE
La thermodynamique est un outil puissant pour décrire des systèmes macroscopiques
à l’aide d’un nombre très limité de variables si on connaı̂t la relation fondamentale, par
exemple U = U (S, V, N ). Nous avons réussi à déterminer cette relation pour le gaz idéal
à l’aide de l’équation de Boltzmann, mais pour des systèmes plus compliqués tels que les
gaz réels, les liquides, les vibrations d’un cristal ou les électrons dans un métal il faudra
développer des méthodes qui tiennent compte de la dynamique microscopique des particules.
Mais comme il s’agira d’un nombre immense de degrés de liberté (de l’ordre de 1023 ) il sera
impossible non seulement de résoudre les équations de mouvement mais aussi de déterminer
les conditions initiales. L’emploi des méthodes statistiques devient donc indispensable pour
aboutir à des résultats. Ceci dit, il va de soit que certaines hypothèses additionnelles devront
être introduites. Dans ce notes de cours nous partirons de la mécanique classique.
1.1
Rappel de mécanique classique
Considérons un système isolé de Na particules et supposons que les forces dérivent d’un
potentiel qui ne dépend pas explicitement du temps (système conservatif). Chaque état du
système est défini d’une façon unique par les variables canoniques q1 , . . . , qr , p1 , . . . , pr , où r est
le nombre de degrés de liberté (r = 3Na , s’il n’y a pas de contraintes ; s’il y a des contraintes,
celles-ci seront supposées holonomes et indépendantes du temps). Nous utiliserons parfois la
notation (q, p) pour l’ensemble des variables canoniques. Pour un tel système il existe une
fonction de Hamilton H(q, p), qui représente l’énergie totale du système, et la dynamique est
déterminée par les équations canoniques
∂H(q, p)
,
∂pi
∂H(q, p)
.
= −
∂qi
q̇i =
ṗi
(1)
Soit F (q, p, t) une grandeur dynamique quelquonque. Son évolution est déterminée par celles
des variables canoniques,
X ∂F
dF
∂F
∂F
=
q̇i +
ṗi +
dt
∂qi
∂pi
∂t
i
X ∂F ∂H
∂F ∂H
∂F
=
−
+
∂qi ∂pi
∂pi ∂qi
∂t
i
∂F
,
(2)
∂t
où le symbole {F, H} est connu comme crochet de Poisson. Pour la fonction de Hamilton, on
obtient immédiatement la conservation d’énergie
= {F, H} +
dH
= {H, H} = 0 .
(3)
dt
Les états du système q1 , ..., qr , p1 , ..., pr définissent un espace à 2r dimensions, l’espace des
phases Γ. Chaque état est un point dans Γ et l’évolution du système correspond à une courbe
dans Γ, décrite paramétriquement par qi (t), pi (t), i = 1, ..., r. Comme pour un point donné à
un certain instant l’évolution future (et passée) est déterminée uniquement par (1), les seules
possibilités sont des orbites fermées ou des courbes qui ne se croisent jamais.
3
n
σ
Fig. 1 – Volume τ dans l’espace des phases.
1.2
Le théorème de Liouville
Il existe un nombre infini d’états qui satisfont aux conditions macroscopiques imposées
(telles que le volume ou l’énergie). C’est pourquoi il est judicieux de ne pas considérer un seul
système mais une infinité de copies de ce système qui toutes contiennent le même nombre de
particules et satisfont aux mêmes conditions macroscopiques. Une telle collection est appelée
ensemble (une notion introduite par J.W. Gibbs). A un instant donné un tel ensemble est
représenté par une distribution de points dans l’espace des phases, c.-à-d. par une fonction
ρ(q, p, t) telle que ρ(q, p, t)dr q dr p est le nombre de points qui se trouvent dans l’élément de
volume dτ = dr q dr p au temps t.
Une propriété importante de cette fonction est qu’elle évolue comme la densité d’un fluide
incompressible (théorème de Liouville). Pour démontrer cette propriété, nous introduisons le
vecteur de “vitesse” dans l’espace des phases Γ,
~v = (q̇1 , ..., q̇r , ṗ1 , ..., ṗr ).
(4)
Soit τ un volume quelquonque et ~n le vecteur unité normal à la surface σ entourant le volume
τ.
Alors le nombre de points quittant le volume τ par unité de temps est égal au “courant”
traversant la surface σ,
Z
Z
d
−
dτ ρ =
dσ~n · ~v ρ .
(5)
dt τ
σ
A l’aide du théorème de Gauss, cette relation se transforme en
Z
∂ρ
dτ
+ ∇ · (~v ρ) = 0,
(6)
∂t
τ
où ∇ := ∂q∂1 , ..., ∂p∂ r . Mais comme le volume est arbitraire, nous trouvons l’équation de
continuité
0 =
=
∂ρ
+ ∇ · (~v ρ)
∂t
X ∂ρ
∂ρ X ∂ q̇i ∂ ṗi
∂ρ
+
+
ρ+
q̇i
+ ṗi
.
∂t
∂qi ∂pi
∂qi
∂pi
i
i
4
(7)
Mais d’autre part, les équations canoniques impliquent que ∂∂qq̇ii + ∂∂pṗii = 0, donc on a finalement,
à l’aide de (2),
∂ρ
+ {ρ, H} = 0 .
(8)
∂t
C’est l’équation de Liouville. A l’aide de (2), elle s’écrit aussi
dρ
=0.
dt
(9)
Le théorème de Liouville en découle alors facilement. Soit τ un volume quelquonque au temps
t. Les points contenus dans τ évolueront selon les équations canoniques et définiront un volume
τ 0 au temps t + dt. A cause de (9), la densité est inchangée. D’autre part, par construction, le
nombre de points dans τ est le même que celui dans τ 0. Nous concluons que les deux volumes
sont égaux,
τ = τ0 .
(10)
Les points dans l’espace des phases évoluent en effet comme un fluide incompressible.
Considérons le cas particulier d’une distribution ρ, qui à l’instant t = 0 ne dépend que de
l’énergie, ρ(q, p, 0) = ρ0 (H). La densité est donc la même pour tous les points de l’espace des
phases correspondant à la même énergie E ; ils se répartissent sur des hypersurfaces définies
par l’équation E = H(q, p). Alors il vient
{ρ, H} =
dρ0
{H, H} = 0 ,
dH
(11)
∂ρ
= 0.
∂t
(12)
et l’équation de Liouville (8) implique
Mais à l’aide de l’équation de Liouville on voit alors facilement que toutes les dérivées
supérieures sont aussi zéro pour t = 0. Une telle distribution ne change donc pas au cours du
temps ; il s’agit d’une distribution stationnaire.
1.3
Le postulat fondamental
Dans une expérience typique, des mesures sont faites à plusieurs instants et on présentera
comme résultat final la moyenne temporelle de ces mesures. L’idée de Gibbs était de remplacer
cette moyenne temporelle par une moyenne sur un ensemble ; pour un système en équilibre,
cet ensemble sera décrit par une fonction ρ(q, p). Le problème est alors de déterminer cette
fonction de sorte que la moyenne d’une observable sur l’ensemble des copies du système donne
la même valeur que la moyenne temporelle pour un seul système. Ce passage est loin d’être
trivial et il fait encore aujourd’hui l’objet de recherches intenses, dans le cadre de la “théorie
ergodique”.
Heureusement il existe une approche plus simple (mais moins rigoureuse), qui utilise des
arguments probabilistes. On postule que la probabilité de trouver un système dans un état
(microscopique) particulier est à priori la même que de le trouver dans un autre état, si
les deux états satisfont aux conditions macroscopiques. Ce postulat correspond au principe
d’indifférence dans la théorie des probabilités. Pour un système conservatif, fermé, mais autrement arbitraire, la seule chose qu’on sait est que l’énergie totale est constante, H(q, p) = E.
5
avant
après
Fig. 2 – Expérience de Joule.
Il résulte alors du postulat que tous les états (microscopiques) avec cette énergie ont la même
probabilité et que tous les états avec une autre énergie ont une probabilité zéro. On est amené
à l’ensemble microcanonique
ρ(q, p) = δ [E − H(q, p)] .
(13)
Si l’on admet une incertitude d’énergie δE, on peut définir cet ensemble aussi de la manière
suivante,
1 , E < H(q, p) < E + δE ,
ρ(q, p) =
(14)
0 , autrement .
1.4
L’entropie dans l’ensemble microcanonique
La quantité clef établissant le lien entre la thermodynamique macroscopique et la dynamique microscopique est sans doute l’entropie. Considérons l’expérience de Joule (fig. 2).
Un gaz qui occupe initialement le volume V est permis de pénétrer dans un espace vide.
Selon le deuxième axiome de la thermodynamique, l’entropie du nouvel état d’équlibre sera
plus grande que celle avant l’expansion. Du point de vue microscopique cette expansion correspond à une augmentation énorme de l’espace des phases disponible. Il est donc raisonnable
d’associer l’entropie au volume disponible dans l’espace des phases. Pour trouver une relation
quantitative entre les deux grandeurs nous considérons l’exemple des dés. Un dé a six états
différents (les nombres 1,2,3,4,5,6). Deux dés peuvent être dans 36 états différents (toutes les
paires (i, j), i = 1, ..., 6, j = 1, ..., 6), et n dés ont 6n états différents. D’autre part, l’entropie
est extensive, donc proportionnelle à n. Il est donc indiqué de choisir le logarithme du nombre
d’états disponibles comme définition de l’entropie.
Afin de transcrire cette définition dans l’espace des phases nous définissons le volume de
la superficie d’énergie
Z
Z
Γ=
dr q
dr p ρ(q, p),
où ρ(q, p) est l’ensemble microcanonique (14). Nous pouvons donc aussi écrire
Z
Z
r
Γ=
d q
dr p ,
|
{z
}
(15)
(16)
E<H(q,p)<E+δE
ce qui représente le volume de l’espace de phase disponible pour un système fermé (à une
incertitude d’énergie δE près). L’exemple des dés montre que le choix de Boltzmann pour la
définition statistique de l’entropie
S = kB log Γ
(17)
6
N1 V1
N2 V2
E1
E2
Γ1 (E1)
Γ2 (E-E 1)
Γ1 (E1) Γ2 (E-E 1)
E1
Fig. 3 – Comportement qualitatif de l’intégrand dans (19).
est judicieux. Au lieu du volume Γ nous choisirons plus tard le nombre de cellules de grandeur
hr dans l’espace des phases, où h a la dimension de la constante de Planck. Ceci revient à
diviser (16) par hr .
Est-ce que la définition (17) est en accord avec les axiomes de la thermodynamique ?
L’axiome 1 qui postule des états d’équilibre correspond au postulat fondamental de la mécanique statistique, c.-à-d. qu’il existe un ensemble d’équilibre ρ(q, p), l’ensemble microcanonique
dans le cas d’un système fermé. L’axiome 2, qui énonce que l’entropie ne peut pas décroı̂tre
si une contrainte est supprimée, correspond au fait que le volume disponible de l’espace des
phases ne peut pas diminuer dans ce cas. Pour démontrer l’additivité, requise selon l’axiome 3,
nous considérons un système composé de deux parties avec des nombres de particules N1 , N2 ,
des volumes V1 , V2 et des énergies E1 , E2 .
S’il n’y a pas d’échange d’énergie, l’entropie (17) sera la somme des entropies individuelles
Si (Ei , Vi , Ni ) = kB log Γi (Ei , Vi , Ni ),
i = 1, 2 .
(18)
Admettons maintenant la possibilité d’échange d’énergie entre les deux sous-systèmes. Les
particules du premier système sont limitées au volume V1 , celles du deuxième système au
volume V2 , mais les énergies peuvent varier. Fixons les minima d’énergie à zéro, alors on a
0 ≤ E1 ≤ E, 0 ≤ E2 = E − E1 ≤ E pour une énergie totale E fixée. Avec les éléments
de volume dτ1 , dτ2 des deux espaces de phase et l’ensemble microcanonique pour le système
7
composé, il vient
Z
Z
Γ(E, V, N ) = dτ1
dτ2 δ(E − H1 − H2 )
Z
Z
Z E
dE1
dτ1 δ(E1 − H1 )
dτ2 δ(E − E1 − H2 )
=
0
Z E
Z E
1
[S (E )+S (E−E1 )]
=
dE1 Γ1 (E1 ) Γ2 (E − E1 ) =
dE1 e kB 1 1 2
,
0
(19)
0
où V = V1 + V2 , N = N1 + N2 . Pour des systèmes tels que le gaz idéal, nous verrons que
Γi (Ei ) augmente très rapidement en fonction de Ei ; alors on s’attend à ce que l’intégrand
aura un maximum prononcé.
On utilise alors un résultat de “l’analyse asymptotique”. Soit f (x) une fonction avec un
(seul) maximum à x = x0 , alors on a
Z
∞
dx e
λf (x)
−∞
λ→∞
g
λf (x0 )
e
2π
λ|f 00 (x0 )|
1
2
.
(20)
Dans notre cas, le paramètre λ peut être identifié avec le nombre des particules et la formule
est valable si N devient très grand.
L’intégrale (19) est donc dominée par l’énergie E1 = Ē1 , où S1 (E1 ) + S2 (E − E1 ) est
maximal. Comme
d2
[S
(E
)
+
S
(E
−
E
)]
∝N ,
(21)
1
1
2
1
dE12
E1 =Ē1
l’application de (17) et (20) donne
S(E, V, N ) = S1 (Ē1 ) + S2 (E − Ē1 ) + O(log N ) .
(22)
Le terme 0(log N ) est négligeable dans la limite Ni → ∞, et l’entropie est additive. La
température, défini par
1
∂S
=
(23)
T
∂E
est positive, et les valeurs Ē1 , Ē2 correspondent aux énergies des deux sous-systèmes en
équilibre thermique. En effet, le maximum de Γ1 (E1 )Γ2 (E2 ), où E2 = E − E1 , correspond à
ou
1 ∂Γ2
1 ∂Γ1
=
Γ1 ∂E1
Γ2 ∂E2
(24)
∂S1
∂S2
=
,
∂E1
∂E2
(25)
donc on a égalité des températures, T1 = T2 . L’équation (17) donne la relation fondamentale
S = S(E, V, N ). Une fois celle-ci est déterminée, toute autre grandeur peut être dérivée à
l’aide des relations thermodynamiques.
8
1.5
Application au gaz parfait
Considérons N atomes sans interaction dans un volume V . La fonction d’Hamilton est
donnée par
N
X
xp2i
H=
.
(26)
2m
i=1
Alors nous écrivons le volume Γ(E, V, N )
Z
Z
Z
Z
1
3
3
3
d q1 ... d3 qN 3N
Γ =
d p1 ... d pN
h
{z
} |
{z
}
|
VN
E<H<E+δE
=
V
h3
N Z
Z
d3 p1 ...
|
{z
d3 pN .
}
(27)
E<H<E+δE
Avec R2 = 2mE et dp1x dp1y ...dpN z = dx1 dx2 ...dxn (n = 3N ) l’intégrale sur la superficie
d’énergie se calcule à l’aide du volume de la n- sphère
Z
Z
Ωn =
dx1 ... dxn = Cn Rn .
(28)
P
i
x2i <R2
Pour déterminer le coefficient Cn nous évaluons une autre intégrale
Z ∞
Z ∞
Z ∞
2
2
dx1
dx2 ...
dxn e−(x1 +...+xn ) = π n/2
−∞
−∞
Z ∞
Z−∞
Z
dΩn
2
−r2
−r2
dr e
= nCn
dr rn−1 e−r
=
dΩn e
=
dr
0
Z ∞
n
n
1
=
n Cn
dt t 2 −1 e−t =
! Cn .
2
2
0
|
{z
}
( n2 −1)!
Nous trouvons donc
(29)
n
π2
.
n
2 !
Cn =
(30)
Pour δE E le volume Γ (27) est
N
Z
Z
V
d
3
Γ ≈
δE
d p1 ... d3 pN
h3
dE
H<E
V
h3
N
3N
d =
δE
C3N [2mE] 2
dE
N
V
1
3N δE
3/2
=
(2πmE)
.
3N
3
h
2 E
2 !
(31)
Pour calculer l’entropie nous utilisons la relation de Stirling
log n! ' n log n − n
9
pour n → ∞ .
(32)
Alors nous avons
"
(
S = kB log Γ ≈ N kB log
4πmE
3N h2
)
3/2
V
3
+
2
#
= N kB log(V u3/2 ) + N s0
où nous avons négligé un terme de l’ordre 1 et introduit les notations u = E/N ,
4πm
3
.
s0 = kB 1 + log
2
3h2
(33)
(34)
Mis à part un terme −N kB log N (dû au “facteur de Gibbs”, voir plus loin), l’équation (33)
est la relation fondamentale du gaz parfait, dérivée à l’aide de l’ensemble microcanonique. Il
en résultent les équations d’état du gaz parfait :
1
∂S
31
=
= N kB
,
(35)
T
∂E V,N
2E
c.-à-d.
3
E = N kB T ,
2
∂S
= T N kB /V ,
p=T
∂V E,N
et
(36)
(37)
c.-à-d.
pV = N kB T .
1.6
(38)
L’ensemble canonique
Très souvent une expérience n’est pas faite avec un système fermé, mais plutôt avec un
système en équilibre thermique avec un réservoir de chaleur à température T . Considérons
un système 1 avec N1 particules en équilibre thermique avec un système 2 contenant N2
particules et supposons que les nombres N1 et N2 , tout en étant macroscopiques, diffèrent
considérablement, N2 N1 . Soit le système composé fermé, c.-à-d. l’énergie totale E fixée.
Nous utiliserons les résultats de la section 4.4, où nous avons vu qu’il existe deux énergies
dominantes Ē1 , Ē2 . La probabilité de trouver le système 1 dans l’élément de volume dτ1 , sans
que soit spécifié l’état du système 2, est proportionnelle à
dτ1 Γ2 (E2 ) , E2 = E − E1 .
(39)
Seules les valeurs de E1 près de Ē1 seront importantes, et on s’attend à ce que Ē1 est beaucoup
plus petit que Ē2 ou E. Donc nous développons
kB log Γ2 (E − E1 )
≈
∂ log Γ2 (E1 − Ē1 )
kB log Γ2 (Ē2 ) − kB
∂E2 E2 =Ē2
= kB log Γ2 (Ē2 ) −
E1 − Ē1
.
T
10
(40)
Comme Γ2 (Ē2 ) et Ē1 ne dépendent pas de l’état particulier q (1) , p(1) du système 1, nous
pouvons écrire
E1
BT
−k
Γ2 (E − E1 ) ≈ const
e
= const e
−
H(q (1) ,p(1) )
kB T
.
(41)
Les relations (39) et (41) nous amènent à introduire l’ensemble canonique
ρ(q, p) =
1 − H(q,p)
e kB T .
Z
(42)
D’une façon analogue à l’ensemble microcanonique, l’ensemble canonique pour N particules
définit un volume dans l’espace des phases
Z 3N 3N
d q d p −βH(q,p)
Z(N, V, T ) =
e
(43)
h3N N !
(β = kB1T ), appelée fonction de partition (nous avons tenu compte du “facteur de Gibbs”
N !). Comme les variables thermodynamiques de cette fonction sont N, V, T , on s’attend à
ce qu’elle est liée à l’énergie libre de Helmholtz F (N, V, T ). En fait nous vérifierons que la
relation cherchée est donnée par
F (N, V, T ) = −kB T log Z(N, V, T ).
(44)
Notons d’abord la relation
∂ log Z
−
∂β
Z
=
3N
d
qd
3N
−βH
Z
pH e
d3N q d3N p e−βH
= hHi = U ,
d’où
(45)
∂ log Z
1 ∂ log Z
U
=−
=
.
∂T
kB T 2 ∂β
kB T 2
(46)
∂F
F
U
=
− ,
∂T
T
T
(47)
∂F
,
∂T
(48)
Alors il résulte de (44)
c.-à-d.
F =U +T
en accord avec les relations thermodynamiques F = U − T S, , S = − ∂F
∂T . L’équation (44)
représente la relation fondamentale pour l’ensemble canonique, d’où on peut dériver n’importe
quelle grandeur thermodynamique. On peut arriver à (44) d’une façon plus directe. A l’aide
du volume
Z 3N 3N
d qd p
Γ(E) =
δ [E − H(q, p)] ,
(49)
h3N N !
et la relation (17) pour l’entropie, nous pouvons écrire
Z
Z
−βE
Z = dE e
Γ(E) = dE · e−β[E−T S(E)] .
(50)
Nous utilisons l’analyse asymptotique de la Section 4.4 pour obtenir
kB T log Z
Ng
→ ∞ Ē − T S(Ē) ,
11
(51)
où Ē correspond au minimum de E − T S(E), donc à l’énergie la plus probable dans la
distribution canonique. Le membre de droite est en effet l’énergie libre F si on identifie
l’énergie plus probable de l’ensemble canonique avec l’énergie moyenne U . Cette identification
se justifie à l’aide du théorème des grands nombres, selon lequel la distribution d’une somme
de N variables aléatoires √
indépendantes devient Gaussienne pour N → ∞ avec une largeur
de raie proportionnelle à N . Nous pouvons vérifier cette propriété directement pour notre
problème. A l’aide de (45) il vient
∂U
∂β
dτ H 2 e−βH
= − R
+
dτ e−βH
R
R
dτ H e−βH
R
dτ e−βH
2
= −hH 2 i + hHi2 = −h(H − U )2 i ,
(52)
où dτ := d3N q d3N p. D’autre part
∂U
∂U
= −kB T 2
= −kB T 2 Cv ,
∂β
∂T
donc l’écart quadratique de l’énergie est proportionnelle à la chaleur spécifique,
h(H − U )2 i = kB T 2 Cv ,
(53)
un résultat en soi très intéressant ! Comme Cv est une grandeur extensive, on trouve
*
+
H −U 2
1
→ 0 pour N → ∞ .
∼
N
N
(54)
Nous concluons que l’énergie la plus probable Ē peut être identifiée avec l’énergie moyenne
U dans la limite thermodynamique. Cette conclusion suit de la loi des grands nombres, selon laquelle la probabilité de trouver le système avec énergie E dans l’ensemble canonique
devient une distribution arbitrairement étroite pour N → ∞. Dans ce sens, les ensembles
microcanoniques et canoniques sont équivalentes dans la limite thermodynamique.
1.7
Application à un système d’oscillateurs harmoniques
Dans un crystal les atomes vibrent autour de leurs positions d’équilibre. Le modèle le plus
simple pour décrire la dynamique d’un tel réseau est une collection d’oscillateurs harmoniques
décrits par l’Hamiltonian
N 2
X
pi
mω02 qi2
H=
+
.
(55)
2m
2
i=1
La fonction de partition se factorise,
Z(N, T ) =
=
N Z
1 Y
h3N
d qi e
i=1
Z ∞
2N
(4π)
h3N
3
− β2 mω02 qi2
2
−
dq q e
0
Z
2 q2
βmω0
2
3
βp2
d pi e
Z
∞
− 2mi
2
2 − βp
2m
dp p e
N
.
0
(56)
12
Les intégrations sont élémentaires, et on trouve
Z(N, T ) =
où h̄ =
h
2π .
kB T
h̄ω0
3N
,
(57)
L’équation (44) donne l’énergie libre
F (N, T ) = −3N kB T log
kB T
h̄ω0
.
(58)
L’entropie est
∂F
kB T
S(N, T ) = −
+1 .
= 3N kB log
∂T
h̄ω0
(59)
La chaleur spécifique est alors donnée par
C=
∂U
∂S
=T
= 3N kB ,
∂T
∂T
(60)
ce qui représente la loi de Dulong-Petit. Ce traitement classique est seulement valable pour
kB T h̄ω0 ; à températures plus basses il faudra utiliser la mécanique statistique quantique.
Il est aussi facile de calculer les énergies cinétiques et potentielles moyennes d’une particule.
Comme la densité de probabilité est donnée par Z1 e−βH , nous avons
2
βp2
R 3
R 3
QN
pj
− β2 mω02 qi2
− 2mi
*
+
d qi e
d pi e
i=1
2m
p2j
=
βp2
R
R
QN
β
2m
3 q e− 2 mω02 qi2 d3 p e− 2mi
d
i
i
i=1
2
Z
p2j − βpj
2
d3 pj 2m
e 2m
∂
3
− βp
=
=−
log d p e 2m
βp2
R
∂β
− 2mj
3
d pj e
∂
3
3
= − (const − log β) = kB T .
∂β
2
2
R
De la même façon on trouve
Z
β
∂
1
3
2 2
mω02 qj2 = −
log d3 q e− 2 mω0 q = kB T.
2
∂β
2
(61)
(62)
Les énergies cinétiques et potentielles sont donc égales et contribuent individuellement 32 kB T
à l’énergie interne. Nous verrons dans la section suivante qu’il s’agit là d’un cas particulier
du théorème de l’équipartition d’énergie.
1.8
Les théorèmes du viriel et de l’équipartition d’énergie
Les résultats obtenus pour un système d’oscillateurs harmoniques peuvent être généralisés.
Pour simplifier la notation nous utiliserons la représentation symplectique (voir cours de mécanique classique)
xi = qi , xi+r = pi , i = 1, . . . , r,
(63)
13
où r est le nombre de degrés de liberté (r = 3N pour le gaz idéal ou pour N oscillateurs
harmoniques). L’Hamiltonien a donc la forme
H = H(x1 , ..., x2r )
(64)
et l’élément de volume dans l’espace de phase est donné par
dτ = dx1 ...dx2r .
(65)
Considérons la quantité
∂H
xk
∂xk
A l’aide de la relation
e−βH
il vient
R
=
∂H −βH
dτ xk ∂x
e
k
R
.
−βH
dτ e
∂H
1 ∂ −βH
=−
e
,
∂xk
β ∂xk
R
∂ −βH
1 dτ xk ∂xk e
∂H
R
=−
xk
.
∂xk
β
dτ e−βH
(66)
(67)
(68)
Nous supposerons que H → ∞ pour |xk | → ∞, ceci étant vrai pour les oscillateurs harmoniques aussi bien que pour un gaz enfermé dans une boı̂te (potentiel infini en dehors de la
boı̂te). L’intégration par parties donne
Z
Z
∂ −βH
e
= − dτ e−βH ,
(69)
dτ xk
∂xk
et alors nous trouvons le théorème du viriel :
∂H
xk
= kB T .
∂xk
(70)
En mots : La moyenne du produit d’une des variables canoniques et de la dérivée de l’Hamiltonien par rapport à cette variable est égale à kB T , indépendant de la forme de l’Hamiltonian
(pourvu que H → ∞ pour |xk | → ∞).
Choisissons comme premier exemple un gaz ou liquide représenté par l’Hamiltonien
N
X
p2i
H=
+ V (~r1 , ..., ~rN )
2m
(71)
i=1
sans spécifier la forme de l’énergie potentielle V (~r1 , ..., ~rN ). L’application du théorème du
viriel avec xk = pix donne
2 ∂H
pix
pix
=
= kB T ,
(72)
∂pix
m
et de même pour piy , piz . Nous trouvons alors de nouveau le résultat
2
3
pi
= kB T .
2m
2
(73)
Considérons le cas xk = riα . L’expression
∂H
∂V
=
= −Fiα , α = x, y, z
∂xk
∂riα
14
(74)
représente la composante α de la force agissant sur la particule i. La relation (70) implique
alors
D
E
− ~ri · F~i = 3kB T .
(75)
Cette grandeur est appelée le viriel (par particule).
Le théorème du viriel (70) a des conséquences intéressantes pour des Hamiltoniens de la
forme
2r
1X
H(x1 , ..., x2r ) =
λi x2i .
(76)
2
i=1
Plusieurs modèles importants appartiennent à cette classe. Un gaz idéal de N atomes correspond à r = 3N avec des coefficients
0 , 1≤i≤r
λi =
(77)
1
m , r < i ≤ 2r .
Un système de N oscillateurs harmoniques a des coefficients
mω02 , 1 ≤ i ≤ r
λi =
1
, r < i ≤ 2r .
m
(78)
Notons qu’un Hamiltonien de la forme
H(x1 , ..., x2r ) =
1X
ϕi,j xi xj
2
(79)
i,j
peut toujours être ramené à la forme (76) à l’aide d’une transformation orthogonale. A l’aide
du théorème du viriel (70) et de l’équation (76) on trouve pour λi 6= 0
∂H
2
= kB T .
(80)
λi hxi i = xi
∂xi
Ceci signifie que chaque terme (non-nul) dans (76) contribue 12 kB T à l’énergie interne. C’est
le théorème d’équipartition de l’énergie. Le modèle le plus simple d’un solide de N atomes
est le système de N oscillateurs harmoniques. Ceci donne une énergie interne
U = 3N kB T .
(81)
Ce résultat correspond à la loi de Dulong-Petit pour la chaleur spécifique molaire
Cv = 3R .
(82)
Pour tous ces exemples la chaleur spécifique est indépendante de la température. Ce résultat
est en contradiction avec les expériences qui montrent qu’en baissant la température, les
différents degrés de liberté gèlent peu à peu. Il est aussi en contradiction avec le postulat
de Nernst (voir section 1.8). Ces difficultés seront éliminées dans le cadre de la mécanique
statistique quantique. Pour des températures suffisamment élevées, l’approche classique sera
néanmoins applicable.
15
1.9
Gaz réels
Le modèle des gaz parfaits néglige l’interaction entre les molécules et n’est donc pas
capable de décrire la transition gaz-liquide et la thermodynamique d’un liquide. Pour des
fluides (une notion embrassant les états de la matière gazeux et liquides) constitués d’atomes
ou de molécules simples (non-polaires, sans liaisons hydrogène), l’interaction ne dépendra que
des distances entre les molécules.
Nous supposerons que la densité et la température sont telles qu’un traitement classique
est applicable, c.-à-d. que la condition (2.58) est satisfaite. L’énergie potentielle totale sera
représentée par une somme d’énergies potentielles de paires de molécules
V (~r1 , ..., ~rN ) =
1X
v(|~ri − ~rj |).
2 i,j
(83)
i6=j
C’est une hypothèse importante, qui sera justifiée à posteriori par l’expérience. La fonction
de partition s’écrit alors
Z
P p~2i
1
3
3
−β i 2m
d
p
...d
p
e
Z(T, V, N ) =
1
N
h3N N !
Z
× d3 r1 ...d3 rN e−βV (~r1 ,...,~rN )
=
1
N!
2πmkB T
h2
3N
2
Q(T, V, N ),
(84)
où la partie configurationnelle Q(T, V, N ) est définie par
Z
Z
3
Q(T, V, N ) = d r1 ... d3 rN e−βV (~r1 ,...,~rN ) .
(85)
En introduisant la fonction
ϕ(r) = e−βv(r)
(86)
et la notation rij = |~ri − ~rj | nous pouvons écrire
Z
Z
3
Q(T, V, N ) =
d r1 ... d3 rN ϕ(r12 ) ϕ(r13 )...ϕ(r1N )
ϕ(r23 )... ϕ(r2N )
...ϕ(rN −1,N ).
(87)
Avant de procéder, nous discutons le potentiel intermoléculaire v(r). Celui-ci est fortement
répulsif pour des distances petites (r < 2r0 où r0 est le “rayon” de la molécule) et attractif
pour des distances plus longues (forces de van der Waals). Le potentiel a donc qualitativement
la forme montrée dans la figure 4.
Limitons-nous dès lors au cas très dilué où la portée de l’interaction est beaucoup plus
petite que la distance moyenne entre les molécules. Alors nous pouvons négliger les corrélations
entre les différentes paires (i, j) et approximer (87) par
Z
Z
Q(T, V, N ) ≈ d3 r1 ... d3 rN < ϕ(r12 ) > ... < ϕ(rN −1,N ) > ,
(88)
16
v(r)
2r0
r
Fig. 4 – Energie potentielle de deux molécules en fonction de leur distance.
où
R
hϕ(rij )i =
R
d3 ri d3 rj ϕ(rij )
R
R
.
d3 ri d3 rj
(89)
Comme il y a 21 N (N − 1) de termes hϕ(rij )i, on obtient
Q(T, V, N ) ≈ V
N
1
V2
Z
3
d r1
Z
1 N (N −1)
2
d r2 ϕ(r12 )
.
3
(90)
Par cette approximation, nous avons négligé la modification de Q due aux configurations où
plus de deux particules se trouvent à l’intérieur d’une région avec une taille de l’ordre de la
portée de l’interaction. La contribution relative de ces configurations décroı̂tra évidemment
avec la dilution du gaz. On s’attend donc que l’expression (90) donnera la première correction
par rapport au gaz idéal dans une expansion en puissance de la densité. En fait, une telle
expansion systématique donne le développement du viriel pour l’équation d’état
B(T ) C(T )
pv = RT 1 +
+
+ ... ,
(91)
v
v2
où v est le volume molaire. Notre analyse basée sur l’équation (90) nous fournira le deuxième
coefficient du viriel B(T ).
Revenons donc à l’expression (90) et considérons l’intégrale
Z
Z
1
3
I= 2
d r1
d3 r2 [ϕ(r12 ) − 1] .
(92)
V
~ =
L’intégrand tend vers zéro pour r12 portée de l’interaction. Alors la transformation R
1
r1 + ~r2 ), ~r = ~r1 − ~r2 nous permet d’écrire
2 (~
Z
Z
1
4π ∞
I=
d3 r [ϕ(r) − 1] =
dr r2 [ϕ(r) − 1] .
(93)
V
V 0
La fonction ϕ(r) − 1 est montrée dans la figure 5 pour deux températures différentes. On voit
que la fonction est essentiellement égale à −1 pour r < 2r0 et positive pour r > 2r0 .
Définissons le coefficient
Z ∞
b(T ) = −2π
dr r2 [ϕ(r) − 1] .
(94)
0
17
φ(r)-1
T1 <T2
T2
-1
Fig. 5 – Fonction ϕ(r) − 1 pour deux températures différentes.
A l’aide de (90) et (92) à (94) on trouve
1
Q(T, V, N ) = V N (1 + I) 2 N (N −1)
1
2b(T ) 2 N (N −1)
N
= V
1−
V
! 1 N2
2
nN
b(T
)
N
≈ V
1− 1 2
,
2N
où n =
N
V
(95)
est la densité des molécules. La relation
lim
M →∞
1+
x M
= ex
M
si
x
=0
M →∞ M
lim
(96)
nous permet d’écrire
Q(T, V, N ) ≈ V N e−nN b(T ) .
(97)
L’énergie libre s’obtient à l’aide de (84) et (97),
F (T, V, N ) = F0 (T, V, N ) + nN kB T b(T ) ,
(98)
où F0 est l’énergie libre du gaz parfait. L’équation d’état s’ensuit facilement,
p=−
∂F
= n kB T [1 + nb(T )] .
∂V
(99)
A l’aide du volume molaire v = V NN0 et de la constante du gaz parfait R = N0 kB (où N0 est
le nombre d’Avogadro) cette relation s’écrit aussi
B(T )
pv = RT 1 +
,
(100)
v
où le deuxième coefficient du viriel est donné par
Z
B(T ) = N0 b(T ) = −2πN0
∞
dr r2 [ϕ(r) − 1] .
(101)
0
Ces deux relations ont une conséquence surprenante : elles correspondent approximativement
à l’équation d’état du gaz de van der Waals ! A l’aide de la figure 5 on note d’abord que le
18
maximum de ϕ(r) − 1 correspond au minimum du potentiel v(r), vmin . La valeur absolue de
vmin est l’énergie de liaison (classique) de deux molécules et donc de l’ordre de kB Tc . Pour
des températures supérieures à Tc , ϕ(r) − 1 sera donc inférieur à 1 et on pourra développer
l’exponentiel pour r > 2r0
ϕ(r) − 1 ≈ −βv(r) .
(102)
En posant ϕ(r) − 1 ≈ −1 pour r < 2r0 on obtient
Z 2r0
Z
2
dr r + β
B(T ) ≈ 2πN0
∞
dr r v(r) .
2
(103)
2r0
0
On voit que le potentiel doit tendre vers zéro plus rapidement que r−3 afinque la deuxième
intégrale converge. Définissons encore les constantes
1
4π
b0 = N0
(2r0 )3 ,
2
3
(104)
correspondant au “volume exclu” et
a0 = −2πN02
Z
∞
dr r2 v(r) ,
(105)
2r0
représentant l’attraction entre les molécules. Alors l’équation (103) devient
B(T ) = b0 −
a0
,
RT
(106)
et l’équation d’état (100) s’écrit
pv = RT
b0
a0
1+
−
.
v
v
(107)
En tenant compte de l’hypothèse d’un système dilué, c.-à-d. b0 v, nous retrouvons finalement l’équation d’état de van der Waals
p=
RT
a0
−
.
v − b0 v 2
(108)
On vérifie alors sans difficulté que l’énergie interne est donnée par
a0
3
U = RT −
.
2
v
(109)
Le deuxième coefficient du viriel pour des gaz a été obtenu à partir des mesures de densité en fonction de la température et de la pression en ajustant B(T ) dans l’équation (100)
de manière à ce que cette équation donne la meilleure représentation des expériences. Les
résultats expérimentaux sont montrés dans la figure 6 pour des gaz rares.
Ces mesures permettent de déterminer les paramètres de potentiels semi-empiriques tels
que le potentiel d’interaction de Lennard-Jones
r0 12 r0 6
v(r) = 4ε
−
,
(110)
r
r
19
Fig. 6 – Deuxième coefficient du viriel déterminé expérimentalement pour des gaz simples.
Fig. 7 – Potentiel d’interaction de Lennard-Jones pour des valeurs typiques des paramètres
ε, r0 .
20
qui consiste d’une partie attractive à longue distance correspondant à une interaction du type
van der Waals et une partie répulsive à courte distance ; ce terme est supposé empiriquement
en r12 . Le potentiel de Lennard-Jones est montré dans la figure 7.
Une fois que les constantes ε, r0 sont déterminées à partir des données expérimentales
pour B(T ), ce potentiel peut être utilisé aussi pour la phase liquide. Malheureusement, la
description statistique de la phase liquide demande en général de gros calculs numériques,
par exemple la “dynamique moléculaire”.
La figure 7 montre que le deuxième coefficient du viriel B(T ) est positif à hautes températures et négatif à basses températures. Il change de signe à une température spécifique, la
température de Boyle. Ce comportement s’explique facilement à l’aide du potentiel d’interaction avec une forte répulsion à courte distance et une faible attraction à longue distance.
A hautes températures la partie répulsive domine dans l’intégrale (101), tandisqu’à basses
températures c’est l’attraction qui domine.
La dépendance en température de B(T ) a une conséquence importante pour le refroidissement des gaz à l’aide de l’effet Joule-Thompson. Nous utilisons d’abord quelques relations
purement thermodynamiques pour le changement de température à enthalpie constante (voir
la section 3.4)
∂H
∂p
∂T
= − ∂H T ,
(111)
∂p H
∂T p
∂H
∂S
∂V
=T
+ V = −T
+V ,
(112)
∂p T
∂p T
∂T p
∂H
= Cp .
(113)
∂T p
On a donc la relation intéressante
#
" 1
∂T
∂V
=
−V .
T
∂p H
Cp
∂T p
(114)
On utilise alors l’équation d’état (100), en tenant compte du fait qu’elle n’est justifiée que
pour |B(T )| v, c.-à-d. on peut l’écrire comme
1
v
1
1
=
≈
[v − B(T )] .
B(T
)
p
RT 1 +
RT
v
Dérivons cette équation par rapport à la température à pression fixée,
"
#
1
1
∂v
dB
0=−
[v − B(T )] +
−
,
RT 2
RT
∂T p dT
d’où
T
∂v
∂T
= v − B(T ) + T
p
dB
dT
(115)
(116)
(117)
et, à l’aide de (114),
∂T
∂p
H
1
=
Cp
dB
−B + T
.
dT
21
(118)
La “température d’inversion”, où
∂T
∂p
H
change de signe, est donnée par la relation B/T =
dB/dT . A l’aide de (101) nous trouvons finalement
Z
v(r)
∂T
2πN0 ∞
−βv(r)
2
1−
e
dr r
−1 .
=
∂p H
Cp 0
kB T
(119)
On se convainc facilement que cette expression est négative pour des températures élevées et
positive pour des températures suffisamment basses. Dans ce dernier régime, où (∂T /∂p)H >
0, on peut abaisser la température à l’aide du processus Joule-Thompson.
1.10
La structure des liquides
Jusqu’à ce point, nous avons utilisé la mécanique statistique pour calculer des grandeurs
thermodynamiques telles que l’entropie, la pression d’un gaz, l’aimantation d’un ensemble
de moments magnétiques. D’autre part, la mécanique statistique permet de calculer des propriétés qui vont bien au-delà de la thermodynamique. Dans ce qui suit, nous allons démontrer
cette proposition pour le cas d’un liquide simple, mais elle s’applique en général.
Une quantité clef sera la fonction de distribution radiale g(r) qui est liée à la probabilité
de trouver deux particules à une distance r. Pour définir plus précisément cette grandeur,
nous supposerons le liquide enfermé dans un volume V et représenté par l’Hamiltonien (71).
On se convaincra facilement que la probabilité pN (~r1 , ..., ~rN ) de trouver la particule 1 à ~r1 , la
particule 2 à ~r2 , et ainsi de suite, sera donnée par
.
pN (~r1 , ..., ~rN ) = e−βV (~r1 ,...,~rN ) Q(T, V, N ) ,
(120)
où Q(T, V, N ) est la partie configurationnelle (85) de la fonction de partition. La probabilité
de trouver la particule 1 à ~r1 , la particule 2 à ~r2 et toutes les autres n’importe où dans le
volume V est alors
Z
Z
(1,2)
3
pN (~r1 , ~r2 ) = d r3 ... d3 rN pN (~r1 , ..., ~rN ) .
(121)
Mais cette distribution est trop spécifique, et on sera plutôt intéressé à la probabilité pN (~r1 , ~r2 )
de trouver une particule à ~r1 et une autre à ~r2 . Comme tous ces “évènements” (dans le sens
de la théorie des probabilités) s’excluent mutuellement (on ne peut pas avoir deux particules
au même endroit), la probabilité est additive
X (i,j)
pN (~r1 , ~r2 )
pN (~r1 , ~r2 ) =
i,j
i6=j
Z
d3 r3 ...
= N (N − 1)
Z
d3 rN pN (~r1 , ..., ~rN ) .
(122)
Pour un gaz parfait, on trouve immédiatement
pN (~r1 , ~r2 ) =
N (N − 1)
1
= n2 (1 − )
2
V
N
(123)
où n = N/V est la densité. On définit alors la fonction de distribution
gN (~r1 , ~r2 ) =
1
pN (~r1 , ~r2 ) .
n2
22
(124)
Pour un système isotrope et homogène tel que notre liquide simple, cette fonction ne dépendra
que de r = |~r1 −~r2 | et on parlera de la fonction radiale de distribution g(r). Pour des distances
beaucoup plus grandes que la portée de l’interaction, g(r) s’approche au comportement du
gaz parfait,
1
g(r) r→∞
g 1−
.
(125)
N
Cette fonction est importante pour deux raisons. Premièrement, pour des interactions de la
forme (83), elle détermine entièrement la thermodynamique. En fait, au vu de l’équation (73),
l’énergie interne est donnée par
3
U = N kB T + hV (~r1 , ..., ~rN )i,
2
(126)
où la moyenne de l’énergie potentielle s’écrit
Z
hV (~r1 , ..., ~rn )i =
3
Z
d r1 ...
d3 rN V (~r1 , ..., ~rN )
e−βV (~r1 ,...,~rN )
.
Q(T, V, N )
(127)
Avec un potentiel de la forme (83), il vient
hV (~r1 , ..., ~rN )i =
1X
2 i,j
Z
3
d r1 ...
Z
d3 rN v(rij )
e−βV (~r1 ,...,~rN )
Q(T, V, N )
i6=j
=
=
R 3
R
Z
Z
d r3 ... d3 rN e−βV (~r1 ,..,~rN )
1
3
3
N (N − 1) d r1
d r2 v(r12 )
2
Q(T, V, N )
Z
Z
1
d3 r1
d3 r2 v(r12 )pN (~r1 , ~r2 ) ,
(128)
2
où nous avons utilisé (120) et (122). Pour notre liquide homogène et isotrope, nous obtenons
~ = 1 (~r1 + ~r2 )
à l’aide de (124) et de la substitution ~r = ~r1 − ~r2 , R
2
Z ∞
hV (~r1 , ..., ~rN )i = 2πN n
dr r2 v(r)g(r) .
(129)
0
La deuxième raison est que la fonction de distribution g(r) peut être mesurée à l’aide de la
diffusion de neutrons ou de rayons X. Un exemple est montré dans la figure 8.
Comment interpréter cette figure ? Rappelons d’abord une proposition importante de la
théorie des probabilités. Soient x, y des variables aléatoires et p(x, y) la probabilité conjointe de
trouver x et y. Alors la probabilité conditionnelle de trouver y pour x donné est p(x, y)/p(x),
où p(x) est la probabilité de trouver x. Dans notre contexte, où la distribution de probabilité
pour trouver une particule à un certain point est simplement la densité n, la distribution
conditionnelle de probabilité de trouver une particule à ~r, pourvu qu’il y en ait une à l’origine,
est (voir (124))
1
pN (0, ~r) = ng(r).
(130)
n
On peut aussi affirmer que ng(r) représente la densité moyenne de particules à ~r pourvu qu’il
y ait une particule à l’origine. La situation est illustrée dans la figure 9 pour un liquide, où la
distance moyenne des particules est de l’ordre du diamètre d des particules, nd3 ∼ 1. Il y a
alors une forte probabilité de trouver des particules dans une première “couche de coordination
23
Fig. 8 – Fonction radiale de distribution, déterminée à l’aide de la diffusion de neutrons pour
le cas de l’argon liquide près du point triple (selon J.P. Hansen et I.R. Mc Donald, Theory of
Simple Liquids, Academic Press 1986).
Fig. 9 – Illustration de la structure d’un liquide (d’après D. Chandler, Introduction to Modern
Statistical Mechanics, Oxford University Press 1987, p. 198).
24
” à r ≈ d autour d’une particule au centre. Mais il existe une deuxième couche de coordination
à 2d, une troisième à 3d et ainsi de suite. Ces couches de coordination apparaissent comme
oscillations autour de la valuer 1 dans g(r), qui persistent jusqu’à une certaine “longueur de
corrélation”.
Il n’est donc pas difficile de comprendre qualitativement la structure d’un liquide définie
par la distribution de paires d’atomes. Mais comment calculer par exemple la fonction g(r)
pour un potentiel d’interaction v(r) donné ? Là on se heurte immédiatement à un problème
très difficile pour le cas d’un liquide. Pour un gaz on peut utiliser une expansion en puissances
de la densité, ou plutôt du paramètre nd3 1. Pour un solide, on partira de la structure
périodique et on admettra de petits déplacement ~ui des atomes par rapport à cette structure.
Il y aura alors de nouveau un petit paramètre hu2i i/d2 . Pour un liquide, où d’une part nd3 ∼
1, d’autre part les atomes diffusent (donc il n’y a pas de petits déplacements par rapport
à une structure d’équilibre), un tel paramètre d’expansion n’existe pas. Il sera donc très
difficile de développer une approche analytique sans faire des approximations non-contrôlées.
Heureusement, il existe maintenant des méthodes numériques qui permettent de simuler des
grandeurs telles que la fonction g(r) avec une grande précision, d’une part la dynamique
moléculaire, d’autre part les simulations du type Monte Carlo.
Dans la dynamique moléculaire un système de N particules est placé dans un volume V ,
et une distribution de vitesses initiales correspondant à une certaine température et à un
courant total zéro est attribuée à ces particules. Ensuite les trajectoires des particules sont
déterminées en résolvant les équations du mouvement. A la fin, les moyennes temporelles de
la grandeur considérée sont prises comme dans une expérience réelle.
La méthode Monte Carlo est une approche probabiliste dans l’espace des configurations
(~r1 , ..., ~rN ). On part d’une configuration initiale des positions, mais les vitesses n’interviendront pas. Une suite de configurations est alors générée à l’aide de déplacements aléatoires des
particules, mais un déplacement considéré n’est pas nécessairement exécuté. La décision d’accepter ou de rejeter un déplacement est faite de telle façon que finalement l’échantillonnage
(sampling) de l’espace des configurations est fait selon la distribution (120). La moyenne statistique d’une observable est alors simplement la moyenne non-pondérée des “mesures” que
l’on effectue durant la simulation.
25
2
ISING MODEL
Une manifestation particulière des phénomènes critiques a été découverte déjà il y a un
siècle. Il s’agit de l’opalescence critique, c.-à-d. d’une diffusion de la lumière accrue près du
point critique. Cette observation montre qu’il existe des fluctuations prononcées de longues
longueurs d’onde dans le système. Pour la transition liquide-gaz ces fluctuations sont associées à l’apparition de régions étendues de densité plus élevée alternant avec des régions
plus diluées. La longueur caractéristique de ces régions, la longueur de corrélation, joue
un rôle primordial dans les théories modernes des phénomènes critiques. Elle diverge au point
critique.
Un concept très utile, qui a déjà été mentionné dans le chapitre 5, est celui du paramètre
d’ordre qui distingue les deux phases. Il est facile de l’identifier pour une transition ferromagnétique où il s’agit simplement de l’aimantation spontanée : celle-ci est non-nulle audessous d’une température critique Tc et zéro au-delà de Tc .
On connaı̂t aujourd’hui une grande variété de phénomènes critiques. Les mieux étudiés
sont sans doute les transitions de phase magnétiques. Mentionnons aussi les transitions structurales dans les solides qui sont associées à un changement de symétrie (par exemple d’une
symétrie cubique à une symétrie tetragonale). Les alliages subissent des transitions ordredésordre, la plupart des métaux fait une transition à une phase supraconductrice à basse
température, l’hélium liquide devient superfluide. Récemment, la transition métal-isolant qui
peut avoir lieu en fonction de changements de température, pression ou composition d’un
matériau, a suscité un intérêt particulier.
Le concept de l’universalité implique que des modèles simples peuvent décrire les aspects
essentiels d’une transition du deuxième ordre. Néanmoins certaines propriétés pertinentes
doivent être représentées par ces modèles, en particulier la dimensionnalité spatiale (on peut
réaliser, au moins approximativement, des matériaux en couches ou même unidimensionnels, théoriquement on peut considérer des dimensions d = 4, 5, ...∞ ou même des valeurs
non-intégrales, d = 4 − ε par exemple), de la nature du paramètre d’ordre (scalaire pour la
transition liquide-gaz, vecteur pour le ferroaimant isotrope), de la symétrie (du réseau cristallin) et de la portée des forces (courte portée pour des potentiels du type sphères dures
ou Lennard-Jones ou échange, longue portée pour des forces dipolaires). C’est pourquoi des
modèles représentés en termes de “variables magnétiques” peuvent décrire parfaitement une
transition qui n’a rien à voir avec le magnétisme, telle que la transition ordre-désordre dans
un alliage.
2.1
Transition ordre-désordre dans un alliage : le modèle d’Ising
Considérons un alliage simple tel que CuZn qui a une structure bcc (cubique centré) ; à
basses températures la distribution des atomes est ordonnée (Fig. 10).
Dans le modèle le plus simple imaginable on associe à chaque paire de sites voisins une
énergie
UAA , si les deux atomes sont du type A ,
UBB , si les deux atomes sont du type B ,
UAB , un atome est du type A, l0 autre du type B .
L’énergie totale pour une configuration donnée est alors
E = NAA UAA + NBB UBB + NAB UAB ,
26
(131)
Fig. 10 – L’alliage CuZn à basses températures.
où NAA (NBB ) est le nombre de paires de type A(B) et NAB est le nombre de paires mixtes.
Comment paramétriser les différentes configurations ? Introduisons des “spins classiques” Si =
±1, où
+1 , si le site i est occupé par un atome A ,
Si =
−1 , si ce site est occupé par un atome B .
Il existe 2N configurations {S1 , ..., SN } pour un réseau avec N sites. On voit facilement que
les nombres NAA ,NBB et NAB sont donnés par
X 1
NAA =
(1 + Si )(1 + Sj )
4
<i,j>
X 1
(1 − Si )(1 − Sj )
NBB =
4
<i,j>
X 1
NAB =
[(1 + Si )(1 − Sj ) + (1 − Si )(1 + Sj )] ,
(132)
4
<i,j>
P
où la notation <i,j> signifie sommation sur toutes les paires de sites voisins. L’équation
(131) s’écrit alors
1 X
E({Si }) =
{UAA (1 + Si )(1 + Sj ) + UBB (1 − Si )(1 − Sj )
4
<i,j>
+UAB [(1 + Si )(1 − Sj ) + (1 − Si )(1 + Sj )]}
= N (UAA + UBB + 2UAB ) + 2(UAA − UBB )
X
Si
i
X
1
Si Sj .
+ (UAA + UBB − 2UAB )
4
(133)
<i,j>
Cette expression correspond au modèle d’Ising représenté par l’Hamiltonien
X
X
H = −J
Si Sj − h
Si .
<i,j>
(134)
i
Ce modèle a été introduit par Lenz en 1920 pour étudier l’ordre magnétique. En fait, pour
un système magnétique fortement anisotrope, c.-à-d. où les moments ont un axe préféré, ce
27
modèle peut être utilisé pour décrire les phénomènes du ferromagnétisme (J > 0) ou de
l’antiferromagnétisme (J < 0). Pour décrire l’alliage CuZn on aura besoin d’un paramètre
d’échange J “antiferromagnétique”
1
J = (2UAB − UAA − UBB ) < 0 .
4
(135)
C’était l’étudiant de Lenz, Ising, qui a résolu le modèle (134), mais malheureusement seulement en une dimension. Son résultat est assez décevant puisqu’aucun ordre magnétique
s’établit à température finie (voir plus bas). En 1944, Onsager a réussi à résoudre le modèle
d’Ising en deux dimensions où une transition de phase se produit à une température critique
Tc > 0. Onsager montrait que le comportement critique près de Tc déviait fortement des
résultats de théories approchées, en particulier de la théorie de Weiss. En trois dimensions,
la solution exacte n’est pas connue (et ne le sera peut-être jamais), mais la température critique Tc et le comportement près de Tc ont été calculés avec une haute précision à l’aide
d’expansions à hautes et basses températures (voir l’article de C. Domb dans C. Domb and
M.S. Green, eds., Phase Transitions and Critical Phenomena, Vol. 3), à l’aide du “groupe de
renormalisation” (voir par exemple la contribution de Th. Niemeijer et J.M.J. van Leeuwen
dans C. Domb and M.S. Green, eds., Phase Transitions and Critical Phenomena, Vol. 6) et
aussi à l’aide de simulations numériques (voir K.Binder et D.W. Heermann, Monte Carlo
Simulation in Statistical Physics, Springer 1988).
2.2
L’approximation du champ moyen
Dans la section 4.10 nous avons discuté la théorie de Langevin, développée en 1905 pour
un ensemble de moments magnétiques sans interaction. Peu de temps après (1907), elle était
suivie par la théorie de Weiss, qui étendait l’approche de Langevin à un ensemble de moments
magnétiques en interaction, sans pour autant la traiter explicitement. En effet, Weiss remplaçait le terme d’interaction par un champ effectif, appelé “champ moléculaire” ou “champ
moyen”. Comme le champ effectif interne agissant sur un moment donné provient de l’aimantation des autres moments du système, Weiss a simplement postulé
heff = h + λm ,
(136)
où m est l’aimantation par site et λ une constante (que nous allons déterminer plus tard pour
le modèle d’Ising). L’aimantation m est déterminée à l’aide de l’Hamiltonien de champ moyen
X
Hm = −heff
Si ,
(137)
i
et on trouve facilement
m = hSi i = tanh βheff ,
(138)
m = tanh β(h + λm) .
(139)
ou, à l’aide de (136)
Pour h = 0 on voit facilement (Fig. 11) qu’une solution m 6= 0 existe seulement pour βλ > 1,
d’où on obtient une température critique
kB Tc = λ .
28
(140)
m
Tc
T
Fig. 11 – Solution graphique de (6.36) pour h = 0 et x = βλm et aimantation en fonction de
la température.
La solution qualitative pour m(T ), le paramètre d’ordre, est montrée dans la Fig. 11.
Pour trouver le comportement près de la température critique, nous développons le membre de droite de (139) (pour h = 0)
1
2
m ≈ βλm 1 − (βλm) ,
(141)
3
d’où, à l’aide de (140),
m≈
√
3
Tc − T
Tc
1/2
.
(142)
Pour calculer la susceptibilité magnétique nous dérivons (139) par rapport à h,
χ=
∂m
= β(1 + λχ) sech2 β(h + λm).
∂h
(143)
sech2 βλm
.
kB T − λ sech2 βλm
(144)
Alors on a pour h = 0
χ=
Mais à l’aide de (139) on trouve pour h = 0
1 − m2 = sech2 βλm ,
(145)
donc à l’aide de (140)
χ=
1 − m2
.
kB (T − Tc + m2 Tc )
(146)
Pour T > Tc on obtient la loi de Curie-Weiss
χ=
1
.
kB (T − Tc )
(147)
Définissons l’exposant critique γ par
χ ∼ (T − Tc )−γ , T ↓ Tc .
29
(148)
On conclut alors que γ = 1 pour la théorie du champ moyen. Pour obtenir le comportement
pour T ↑ Tc , nous insérons l’équation (142) dans (146) et trouvons
χ∼
1
pour T ↑ Tc .
2kB (Tc − T )
(149)
La susceptibilité magnétique diverge à l’approche de Tc avec un exposant 1 des deux côtés de
Tc .
Un autre exposant, δ, est défini par le comportement de l’aimantation en fonction du
champ magnétique h à la température critique Tc ,
1
m ∼ hδ , h → 0 .
(150)
Pour calculer δ dans le cadre de la théorie du champ moyen, nous partons de l’équation (139)
avec β = βc ,
m = tanh (βc h + m) .
(151)
A l’aide de l’identité
tanh(x + y) =
nous avons
tanh βc h =
tanh x + tanh y
,
1 + tanh x tanh y
(152)
m − tanh m
.
1 − m tanh m
(153)
Développons en puissances de m et h,
1
βc h + O(h3 ) = m3 + O(m5 ) ,
3
d’où
1
1
m ∼ (3βc ) 3 h 3 pour h → 0 ,
(154)
(155)
c.-à-d. δ = 3.
Souvent la chaleur spécifique diverge pour T → Tc , ce qui définit l’exposant α
Ch ∼ |T − Tc |−α .
(156)
Pour calculer cet exposant il faudrait connaı̂tre l’énergie libre. Celle-ci s’obtient à l’aide d’un
principe variationnel (voir par exemple les références 5 et 12). On trouve que la chaleur
spécifique ne diverge pas, mais est discontinue à la température critique Tc . L’exposant critique
α défini par (156) est donc zéro.
Il nous reste à établir le lien avec le modèle d’Ising (134). Considérons la partie de l’Hamiltonien (134) dépendant du spin Si ,


X


Hi = −J
S j − h S i .
(157)
proches
voisins de i
Les spins des sites voisins agissent en effet comme un champ. L’approximation du champ
moyen consiste à remplacer ces variables Sj par leur moyenne,
Sj → hSj i = m .
30
(158)
On est donc ramené à la forme (137) avec
λ = zJ ,
(159)
où z est le nombre de proches voisins. La température critique (140) devient
kB Tc = zJ .
2.3
(160)
Le modèle d’Ising à une dimension
L’approximation du champ moyen est qualitativement correcte en deux et trois dimensions (seules les valeurs des exposants et de Tc sont fausses), mais qualitativement fausse
en une dimension. Considérons une chaı̂ne de N sites et des spins Si = ±1 à chaque site.
L’Hamiltonien d’Ising (pour h = 0) est
H=−
N
−1
X
Ji Si Si+1 ,
(161)
i=1
où nous avons généralisé le modèle en admettant des couplages Ji variables (plus tard nous
poserons Ji = J = constant). On calcule facilement la fonction de partition,
PN −1
X
ZN =
eβ i=1 Ji Si Si+1
S1 ,...,SN
=
X
eβ
PN −2
i=1
Ji Si Si+1
S1 ,...,SN −1
X
eβJN −1 SN −1 SN
S
|N
{z
2 cosh βJN −1
}
= ZN −1 2 cosh βJN −1
N
−1
Y
= 2N −1
cosh βJi .
(162)
i=1
Il est alors facile de calculer l’énergie libre
FN = −kB T log ZN
(163)
∂2
FN .
∂T 2
(164)
ou la chaleur spécifique
Ch = −T
Pour Ji = J = constant on trouve
Ch = (N − 1)kB (βJ)2 sech2 βJ .
(165)
Une grandeur plus intéressante est la fonction de corrélation
PN −1
X
1
hSi Si+r i =
Si Si+r eβ i=1 Ji Si Si+r
ZN
S1 ,...,SN
=
1
ZN
=
1
∂
∂
∂
...
ZN ,
ZN ∂(βJi ) (βJi+1 ) ∂(βJi+r−1 )
X
(Si Si+1 )(Si+1 Si+2 )...(Si+r−1 Si+r )eβ
PN −1
i=1
Ji Si Si+r
S1 ,...,SN
31
(166)
où nous avons utilisé la relation Sj2 = 1. A l’aide de (162) il vient
hSi Si+r i =
r−1
Y
tanh βJi+k ,
(167)
k=0
et, pour Jj = J = constant,
hSi Si+r i = (tanh βJ)r = er
log tanh βJ
.
(168)
Pour T → 0 on a
log tanh βJ ∼ log(1 − 2e−2βJ ) ∼ −2e−2βJ ,
(169)
hSi Si+r i ∼ e−r/ξ
(170)
1
ξ ∼ e2βJ pour T → 0 .
2
(171)
d’où
avec une longueur de corrélation
On s’aperçoit qu’à la température critique de l’approximation du champ moyen (kB Tc = 2J)
il ne se passe rien de particulier sauf que la longueur de corrélation ξ commence à croı̂tre
fortement. L’ordre à longue portée s’établit seulement pour T → 0, et il n’existe pas de
ferromagnétisme à T > 0 en une dimension.
Pour un champ magnétique fini, la fonction de partition peut se calculer à l’aide de la
matrice de transfert. On choisit des conditions au bord périodiques, SN +1 = S1 , et on
introduit les grandeurs
0 1
0
TSS 0 = eβJSS + 2 βh(S+S ) .
(172)
On s’apercevra que la fonction de partition peut être écrite
XX X
ZN =
...
TS1 S2 TS2 S3 ...TSN −1 SN TSN S1 .
S1
S2
(173)
SN
Les grandeurs TSS 0 peuvent être considérées comme éléments d’une matrice 2 × 2,
β(J+h) −βJ
e
e
T++ T+−
.
T =
=
T−+ T−−
e−βJ
eβ(J−h)
(174)
Alors on voit que la fonction de partition n’est rien d’autre que la trace du produit de ces
matrices,
X
ZN =
(T N )S1 S1 = tr T N .
(175)
S1
La matrice de transfert T est facilement diagonalisée. Les valeurs propres t± s’obtiennent à
l’aide de l’équation caractéristique
β(J+h)
e
− t ; e−βJ
= t2 − 2t eβJ cosh βh + e2βJ − e−2βJ = 0,
(176)
e−βJ
; eβ(J−h) − t d’où
t± = eβJ cosh βh ±
q
e2βJ sinh2 βh + e−2βJ .
32
(177)
Alors la fonction de partition est donnée par
"
N
N
= tN
+ + t− = t+ 1 +
ZN
t−
t+
N #
→ tN
+ pour N → ∞ .
(178)
FN = −N kB T log t+ .
(179)
L’énergie libre de Helmholtz est
La susceptibilité magnétique s’obtiendra à l’aide de la relation
χ=
∂2G
∂M
=− 2 .
∂h
∂h
(180)
Pour h → 0 on trouve
χ = N β e2βJ .
(181)
La susceptibilité diverge donc pour T → 0. Nous pouvons obtenir la même relation à partir
de la fonction de corrélation (168) pour une chaı̂ne de N sites (ouverte), en utilisant l’identité
(démontrée dans les exercices)
X
χ(h = 0) = β
hSi Sj i
ij
= β
X
(tanh βJ)|i−j| .
(182)
ij
En effet, avec x = tanh βJ, en regroupant les termes de cette somme selon la puissance |i − j|,
nous obtenons
χ(h = 0) = β N + 2(N − 1)x + 2(N − 2)x2 + ...
(
)
N
−1
X
k
= β N +2
(N − k)x
k=1
2x
2x(1 − xN )
= β N 1+
−
1−x
(1 − x)2
1+x
' (N 1) βN
,
1−x
(183)
ce qui redonne (181).
2.4
La méthode du groupe de renormalisation
L’exemple du modèle d’Ising à une dimension montre que les prédictions de l’approximation du champ moyen peuvent être complètement fausses. Une deuxième leçon de la solution
exacte de ce modèle est qu’à l’approche de la phase ordonnée - l’état fondamental à T = 0 dans
ce cas - les corrélations entre les spins augmentent fortement et la longueur de corrélation ξ
diverge. Ceci signifie que le nombre effectif de spins interagissants diverge et que l’approximation du champ moyen, où un seul spin est traité explicitement, ne peut pas être correcte. En
33
effet, les méthodes perturbatives traditionnelles, adaptées au cas de l’interaction d’un petit
nombre de degrés de liberté, ne fonctionnent plus dans ce cas.
Il existe plusieurs méthodes pour aborder le problème difficile de la région près d’un point
critique.
1. Résoudre le problème exactement. Malheureusement, il existe très peu de cas que l’on
sait traiter exactement, comme le modèle d’Ising à deux dimensions (voir R.J. Baxter,
Exactly Solved Models in Statistical Mechanics, Academic Press 1982).
2. Aborder numériquement le problème. Les approches du type Monte Carlo ont été appliquées avec un certain succès au problème des transitions de phases (voir par exemple
K. Binder et D.W. Heermann, Monte Carlo Simulation in Statistical Physics, Springer
Series in Solid-State Sciences 80, 1988). Mais comme on doit se limiter à un nombre fini
de sites, il ne sera pas possible de simuler une situation où la longueur de corrélation est
plus grande que la taille du système. La méthode souffre aussi du problème du “critical
slowing down”, c.-à-d. de la divergence du temps de relaxation nécessaire pour atteindre
l’équilibre près du point critique.
3. Utiliser des arguments de symétrie. Pour bien des problèmes en physique les arguments
de symétrie sont très puissants, permettant de répondre à beaucoup de questions sans
exiger de gros calculs explicites (symétrie de rotation en mécanique quantique, translations et théorème de Bloch en physique des solides, isospin en physique nucléaire). Le
groupe de renormalisation est une approche de ce type, cependant les transformations
ne sont en général pas définies avec la même précision comme une rotation, et il ne s’agit
pas d’un vrai groupe (la transformation inverse n’est pas définie). Il ne sera évidemment
pas possible de traiter ce sujet en détail ici (pour plus de détails voir, par exemple, S.-K.
Ma, Modern Theory of Critical Phenomena, Benjamin 1976 ; G. Toulouse et P. Pfeuty,
Introduction au groupe de renormalisation et à ses applications, Presses Universitaires
de Grenoble 1975 ; M. Le Bellac, Des phénomènes critiques aux champs de jauge ; R.J.
Creswick, H.A. Farach et C.P. Poole, Introduction to Renormalization Group Methods
in Physics, John Wiley 1992).
Les transformations du groupe de renormalisation concernent les distributions statistiques.
Pour l’ensemble canonique, celles-ci sont définies par l’Hamiltonien, pour le modèle d’Ising par
les paramètres J, h et la température, ou plutôt par J/(kB T ), h/(kB T ). L’idée est de prendre
une trace partielle sur certains degrés de liberté et de représenter le résultat de nouveau sous
forme canonique pour les degrés de liberté qui restent, symboliquement,
0
0
tr0 e−βH = e−β H .
(184)
La fonction de partition sera alors la trace sur le reste des variables. Il n’est cependant pas
garanti que le nouveau Hamiltonien H 0 aura la même forme que H. Plutôt on s’attend à
ce qu’il faudra ajouter d’autres termes - donc de nouveaux paramètres -, des interactions à
plus longue portée, des interactions à trois corps, ainsi de suite. Pour avoir une procédure
traitable, il faudra tronquer le nombre des paramètres. Les transformations du groupe de
renormalisation correspondront alors à des flux dans l’espace de ces paramètres. Au point
critique où la longueur de corrélation est infinie, on observe des fluctuations à toutes échelles.
Il n’est donc pas surprenant que le flux s’arrête et que l’on trouve un point fixe. L’expansion
dans l’espace des paramètres autour d’un point fixe permet alors de calculer les exposants
critiques.
34
Pour illustrer la méthode, nous considérons le modèle d’Ising à une dimension pour h = 0,
avec la fonction de partition
X
Z=
eK(S1 S2 +S2 S3 +... ) ,
(185)
S1 ,S2 ,...
où K = βJ. Exécutons la trace sur les sites pairs,
i h
i
X h
Z=
eK(S1 +S3 ) + e−K(S1 +S3 ) × eK(S3 +S5 ) + e−K(S3 +S5 ) . . .
(186)
S1 ,S3 ,S5 ,...
Cette expression se ramène à une forme canonique à l’aide de la relation
0
0
0
eK(S+S ) + e−K(S+S ) = f (K)eK SS
0
(187)
(transformation de Kadanoff), où K 0 et f (K) restent à déterminer. Ca implique
X
N
0
0
Z = [f (K)] 2
eK S1 S3 eK S3 S5 . . .
(188)
S1 S3 ...
L’équation (187) correspond aux deux relations
e2K + e−2K
= f (K) eK
2 = f (K) e
0
−K 0
(S = S 0 ) ,
(189)
0
(S = −S ) ,
(190)
avec la solution
p
f (K) = 2 cosh(2K) ,
1
log(cosh 2K) .
K0 =
2
(191)
(192)
Définissons encore
1
log Z ,
(193)
N
une fonction qui devrait être indépendante de la grandeur du système. Alors (188) implique
g(K) =
g(K) =
1
1
log f (K) + g(K 0 ) .
2
2
(194)
Les équations (191), (192) et (194) définissent la transformation du groupe de renormalisation.
Si g(K) - l’énergie libre par site à un facteur (−kB T ) près - est connu pour un certain K, cette
transformation nous permet de calculer cette fonction pour n’importe quelle autre valeur de
K. On notera que K 0 < K au vu de (192). On peut aussi inverser la transformation,
K =
g(K) =
1
0
Ar cosh e2K ,
2
1
log 2 + g(K 0 ) + K 0 .
2
(195)
(196)
Commençons l’itération avec une petite valeur de K 0 , K 0 = 0.01. Ca signifie que le couplage
entre spins et négligeable et que g(K 0 ) ≈ log 2. L’itération donne les valeurs de la Table 1 ;
35
K
Itération
Exact
0.01
0.100334
0.327447
0.636247
0.972710
1.316710
1.662637
2.009049
2.355582
2.702146
log 2
0.698147
0.745814
0.883204
1.106299
1.386078
1.697968
2.026876
2.364536
2.706633
0.693197
0.698172
0.745827
0.883210
1.106302
1.386080
1.697968
2.026877
2.364537
2.706634
Tab. 1 – Transformation du groupe de renormalisation pour le modèle d’Ising à une dimension.
elles s’approchent de plus en plus de la valeur exacte (dans la direction opposée on trouvera
l’effet contraire).
Ce qui importe ici, c’est qu’on ne trouve pas d’autres points fixes que K = 0 (correspondant à T = ∞) et K = ∞ (T = 0). A deux dimensions la procédure sera plus compliquée,
et il faudra tenir compte au moins des interactions entre seconds voisins. Mais dans ce cas
on trouvera un point fixe non-trivial, représentant une température critique. Déjà pour une
appro-ximation très simple celle-ci est en bon accord avec le résultat exact (voir D. Chandler,
Introduction to Modern Statistical Mechanics, Oxford Univ. Press 1987, section 5.7).
36
Appendice A — High and low temperature series in Ising model
So far we have seen both approximate and exact ways to treat the one-dimensional Ising
model. In the two-dimensional case, the analytical solution is much more demanding (it
was accomplished by Lars Onsager in 1944). In this section we derive to complementary
approximations which together give raise to the exact formula for the critical temperature Tc
of the 2D Ising model on a regular square lattice (without an external magnetic field). Only
the neighbouring spins are allowed to interact and the binding constant J is positive—spins
tend to be oriented in the same way.
The first approximation, known as a low-temperature series, is valid for low temperatures. The basic ingredient of this approximation is a ”frustrated link“—that is a link of the
underlying square lattice connecting two spins with opposite orientation.
Since the binding constant J is positive, neighbouring spins like to have the same orientation. The vague statement ”they like“ can be quantified by the increase of energy due to
a frustrated link. When two neighbouring spins have the same direction (Si Sj = +1), they
contribute to the total energy of the system by −JSi Sj = −J. When the link is frustrated,
Si Sj = −1 and the contribution of the link is +J. Thus, each frustrated link increases the
total energy by 2J. At zero temperature, the state with the lowest energy (E0 ) is reached
and all the spins are aligned at the same direction ; no frustrated links are present. As we
increase the temperature, due to the thermal noise the number of frustrated links f gradually
grows. In the limit T → ∞ orientation of each spin is random and does not depend on the
orientation of its neighbourgs.
Now we write the partition function of the system as
X
X
X
f (state)
ZLOW =
e−βE(state) = e−βE0
e−β∆E(state) = e−βE0
exp[−2βJ]
. (197)
states
states
states
Here β = 1/(kB T ) and ∆E(state) is the difference of the state energy and the lowest energy
E0 ; according to the previous discussion it is equal to 2Jf (state) (f (state) is the number
of frustrated links in the given state). Since the temperature T is small, β is large and thus
exp[−2βJ] := x is a small quantity. This small quantity we use to find the low-temperature
expansion. If we label the total number of spins as N , the lowest energy is E0 = −4N J (four
links, each with energy −2J, for each spin ; each link is shared by two spins).
When only one spin is directed in opposite way than other spins (we say it is flipped), the
number of frustrated links is f = 4 (all links starting at the flipped spin are frustrated) and
the energy is increased by 8J. When we flip two spins, the situation is more complicated—
when they are well separated, eight frustrated links are created, f = 8. However when the
flipped spins are neighbours, only six frustrated links emerge (draw it !). Thus to correctly
count the number of states with various values of f we need to draw all possible ”diagrams“
(schematic drawings how the flipped spins are organized) and count the number of ways in
which they can appear in the lattice, multiplicity. This is done in table 2.
Let’s explain the first line in detail. Only one spin is flipped and the diagram (dot) shows
this one spin. Since in this case f = 4, in the partition function the corresponding term is
proportional to xf = x4 and this is the expansion order to which this diagram contributes.
The multiplicity of such a configuration is simply N because any one of all N spins can be
flipped. Now let’s choose a more complicated line, e.g. the line 7. The diagram says that we
are interested in states with one single flipped spin and two neighbouring flipped spins. With
such a configuration, together 4 + 6 = 10 links are frustrated and thus the expansion order
37
diagram
multiplicity
expansion order
flipped spins
N
2N
N (N − 5)/2
4N
N
2N
2N (N − 8)
2N
8N
4N
8N
4N
2N
x4
x6
x8
x8
x8
x8
x10
x10
x10
x10
x10
x10
x10
1
2
2
3
4
3
3
3
4
4
5
4
6
Tab. 2 – The lowest order contributing diagrams of the low temperature expansion for the
2D Ising model on a square lattice.
is x1 0. The multiplicity combines the positioning of two neighbouring spins (N possibilities
for horizontal pairs and N possibilities for vertical pairs, together 2N possibilities) and the
positioning of single spin (N − 8 possibilities, here minus two comes to avoid the flipped pair
and minus six to avoid direct neighbourhood of the flipped pair).
By summing the diagrams shown above we obtain the first terms of the low-temperature
series
1
ZLOW = 2e−βE0 1 + N x4 + 2N x6 + N (N + 9)x8 + 2N (N + 6)x10 + . . . .
2
(198)
Here the factor two comes for an additional degeneration we haven’t included yet : in any
state, by reverting all spins we obtain an equivalent state with the same energy. Notice that
odd powers of x do not enter the expansion.
Now comes the high-temperature expansion. When the temperature is high, β = 1/(kB T
is small, and x = exp[−2βJ] is not a small quantity anymore. Therefore we have to find a
new small quantity in which we can make the expansion. We employ the following ”identity“
eff.
exp[−Si Sj βJ] = cosh(βJ) + Si Sj sinh(βJ) = cosh(βJ) 1 + Si Sj tanh(βJ)
(199)
which is valid while Si Sj is ±1 (this is exactly our case). When the temperature is big, βJ is
small and tanh(βJ) := v is a small quantity ; we can use it to obtain the high-temperature
expansion. Now we can write the partition function in the form (i ∼ j denotes neighbouring
pairs of spins)
X Y
M X Y
ZHIGH =
e−Si Sj βJ = cosh(βJ)
·
(1 + Si Sj v),
(200)
states
states i∼j
i∼j
Here we labeled with M the total number of neighbouring pairs in the lattice. Since we have
N spins, there are M = 2N pairs (again 4 pairs per spin but each pair is shared by two spins).
38
By expansion of the products in ZHIGH we obtain
X
XX
M X n
1+v
Si Sj + v 2
Si Sj Sk Sl +
ZHIGH = cosh(βJ)
·
states
+ v3
XX X
i∼j
(201)
i∼j k∼l
Si Sj Sk Sl Sm Sn + v 4
i∼j k∼l m∼n
XX X X
Si Sj Sk Sl Sm Sn Sp Sq + . . .
o
i∼j k∼l m∼n p∼q
|
{z
X
}
which looks rather complicated. Fortunately, the summations help us : since each spin value
Si can be either +1 and −1, by summing over all possible states each term proportional
to an odd power of Si cancels out. E.g. for the term S12 S23 by summing over S1 = ±1 and
S2 = ±1 we obtain zero. On the other hand, all terms with even powers of spin values are
equal to one. For this reason all summation terms proportional to v, v 2 , and v 3 vanish. With
the term labeled by X, a new situation can occur. When j = k, l = m, n = p, and q = i,
we obtain the term Si2 Sj2 Sl2 Sn2 = 1 which does not cancel out in the way described above.
Notice that the four equalities describe an elementary square of the lattice (this formation is
sometimes called plaquette). Since it is possible to place such a square in N different ways,
the term labeled by X finally gives the contribution N v 4 . After the summation over all states
(for N spins there are 2N states) we finally obtain the contribution 2N N v 4 from the simplest
diagram—elementary square of the lattice.
It is clear that all closed plaquettes give nonvanishing contributions to the high temperature expansion. Thus to find first terms of the expansion, we have to find simple plaquettes
and their multiplicity. The result is shown in table 3. Notice that the expansion order is given
by the number of edges in the diagram.
So far we have obtained low and high temperature expansions which can give us approximate equations for the partition function. An important connection of the two is still missing.
A close investigation of both tables reveal that each diagram in the low-temperature table has
its counterpart with the same multiplicity and the expansion order in the high-temperature
table. Even more, the corresponding diagrams are also graphically similar : if we replace every
edge in the diagram for high temperatures by a frustrated link, we obtain the corresponding
diagram of the low-temperature expansion (see the picture below). This relationship is called
duality of diagrams.
−→
high-T diagram
−→
frustrated links
low-T diagram
Due to the duality, both series contain the same terms and they differ only by the name of
variable (x vs. v) and by the multiplying factor in front of the expansion. As we increase the
temperature, in the low-temperature expansion x increases also and at some temperature T1
the series diverges. In the same way, as we decrease the temperature, in the high-temperature
expansion v increases and at some temperature T2 the series diverges. If the low-temperature
expansion diverges at x(T1 ) and the high temperature expansion at v(T2 ), since these two
expansion are so similar, x(T1 ) = v(T2 )—the divergence point is the same for both expansions.
If we now assume that our system has only one phase transition at some temperature Tc , the
divergences of both series has to correspond to this temperature Tc : T1 = T2 = Tc . Therefore
we have the equation
√ 1
(202)
x(Tc ) = v(Tc ) =⇒ tanh(βc J) = e−2Jβc =⇒ βc J = ln 1 + 2 .
2
39
diagram
expansion order
multiplicity
v4
N
v6
2N
v8
N (N − 5)/2
v8
4N
v8
v8
N
2N
v 10
v 10
2N (N − 8)
2N
v 10
8N
v 10
4N
v 10
8N
v 10
4N
v 10
2N
Tab. 3 – The lowest order contributing diagrams of the high temperature expansion for the
2D Ising model on a square lattice.
We obtained the exact formula for the critical temperature of the 2D Ising model on square
lattice. Notice that we did not prove the existence of a phase transition—we merely assumed
that there is one. The proof of existence is due to Onsager whom we mentioned at the
beginning of this section.
To appreciate the unique properties of the square lattice one can write down first terms of
the low and high temperature expansions on a triangular lattice (only the nearest neighbour
interactions). If we label exp[−2Jβ] := x and tanh(βJ) := v, we obtain
+
+
+
+
+
+
ZLOW =
=
n
o
= e3N Jβ 1 + N x6 + 3N x10 + 2N x12 + 12 N (N − 6)x12 + 3N x14 + 3N x14 + 6N x14 .
+
+
+
+
+
+
+
ZHIGH =
=
n
N
= 2 cosh3 (βJ)
1 + 2N v 3 + 3N v 4 + 6N v 5 + 2N v 6 + 12 N (N − 1)v 6 +
o
+ N (N − 1)v 6 + 12 N (N − 1)v 6 + 4N v 6 .
It is clear that these expansions are much different—thus to find the critical temperature on
the triangular lattice we cannot use the same trick as on the square lattice.
40
Appendice B — Monte Carlo, Metropolis algorithm, Simulated
annealing
In statistical physics, we deal with average values of physical quantities. For a system in
equilibrium at the absolute temperature T , the termal average of a quantity A is given by
Z
Z
1
hAi =
A(x)e−βE(x) dx, Z = e−βE(x) dx
(203)
Z
where x is a point in the continuous configuration space of the system, or
hAi =
1 X
A(x)e−βE(x) dx,
Z x
Z=
X
e−βE(x) dx
(204)
x
where x is a point in the discrete configuration space. Here β = 1/(kB T ) as usual.
For non-trivial systems with interacting particles, the averages (sums/integrals) written
above usually do not have an analytical solution. With a computer at hand, it is natural to
evaluate e.g. (204) numerically by the summation over all possible states. In most cases, this
is not feasible due to the enormous number of possible states. As an example we can take a
spin system where each spin can be either +1 or −1 : even for the small square lattice with
10
32 × 32 = 210 spins there are 22 ≈ 10308 configurations. The straightforward solution is to
replace the set of all states by a tractable subset of M states. Then hAi can be estimated by
the formula
PM
A(xi )e−βE(xi )
hAiest = i=1
(205)
PM −βE(x ) .
i
i=1 e
The accuracy of the estimate depends on the quality of the chosen subset. If we choose M
states randomly, most of them has the energy very different from the average energy of the
system at the given temperature T and thus contribute little to the real value of hAi. As a
result we obtain a poor estimate. This difficulty can be overcome by a clever choice of the
sampling points xi , which is in general called importance sampling. In particular, if we sample
xi according to the Boltzmann factor, P (xi ) = exp[−βE(xi )], we obtain
hAiest =
M
1 X
A(xi ).
M
(206)
i=1
Such numerical computations where random numbers are used to model complicated systems
are usually referred as Monte Carlo methods. In the following paragraph we illustrate it on
the example of Monte Carlo
integration.
R1
The integral hf i = 0 f (x)dx can be numerically evaluated as
hf iest =
M
1 X
f (xi )
M
(207)
i=1
where xi is uniformly distributed in the range [0; 1]. Often we face integrals with a probabilistic
distribution %(x) of the variable x
Z
∞
hf i =
f (x)%(x)dx =⇒ hf iest =
−∞
M
1 X
f (xi )%(xi ).
M
i=1
41
(208)
As with the Boltzmann factor before, the distribution %(x) can be sharply peaked at some
value x0 and as a consequence, most of the sample points xi bring only a neglible contribution
to the estimate. Thus it is more effective to sample the random numbers xi according to the
density %(x) and obtain the estimate as
hf iest =
M
1 X
f (xi ).
M
(209)
i=1
While the formula
R xis intuitively plausible, we can give a proof using the cumulative density
function F (x) = −∞ %(x0 )dx0 . Samples following %(x) can be generated as x = F −1 [ξ] where ξ
is uniformly distributed in the range [0; 1] ; such a choice is in agreement
with the “probability
1 P
conservation” formula f (x)dx = g(ξ)dξ (g(ξ) = 1). Now the sum M
xi f (xi ) is in the limit
R1
−1
M → ∞ equal to the integral 0 Rf [F (ξ)]dξ which is by the substitution x = F −1 (ξ)
∞
transformed to the desired integral −∞ f (x)%(x)dx.
While it is easy to generate uniformly or normally distributed random numbers, without
analytical form for the inverse F −1 (x) a numerical algorithm to generate xi has to be used.
One can say that the increased precision of the Monte Carlo estimate is repaid by problems
with random numbers generation. To follow the Boltzmann factor in (206) such an algorithm
is known as the Metropolis algorithm. Before we examine it in detail, let’s evaluate the ratio
of the probabilities of states A and B
P (A)
=
P (B)
1 −βEA
Ze
1 −βEB
Ze
= e−β(EA −EB ) .
(210)
Notice that the unknown proportionality constant Z has canceled out here. Thus the ratio of
the probabilities depends only on the temperature (via β = 1/(kB T ) and the energy difference
of the states EA − EB . The rules how to generate states are the following :
1. Starting from a configuration A with the energy EA , generate a new nearby configuration
B.
2. Compute the energy of the new configuration, EB .
3. If EB < EA , accept the new configuration for it has a lower energy (which is desirable).
4. If EB > EA , accept the new configuration with the probability PACCEPT = e−β(EA −EB ) ;
otherwise stay at the state A. This means that when the temperature is low, the chance
to accept a state with a higher energy is small and we preferably “walk downhill” to
reach the states with small values of energy. When the temperatrue is high, we jump
around the configuration space there and back without taking much care about the
energy.
Notice that if EB > EA and the new configuration is rejected, in the generated sequence there
is the state A doubled (or even tripled when such a rejection occurs two times, etc.). Also,
since we can start with an arbitrary unrepresentative configuration, it is a good idea to let
the algorithm “equilibrate” for a while and only afterwards use the produced configurations.
The tricky part of the algorithm implementation is how to generate “a new nearby configuration”. The answer depends on the problem, in the Ising model it can be done by flipping
one spin (or more, but anyway much less than the total number of spins N ) in the actual
configuration.
42
Closely related to the Metropolis algorithm is Simulated Annealing. Similarly to our previous discussions, in a configuration space with a few dimensions it is easy to find the global
minimum in a straightforward way. This approach fails with a high probability in a waste
space with 10 or more dimensions and for a function with several local minima. This can
be avoided by generating states using the Metropolis algorithm and gradually lowering the
temperature T which is at the beginning set to a high value (of course, what is a high temperature depends on the problem and the energy differences EA − EB typically encountered
in the generation of new states) ; we “anneal” the system. The meaning of such a procedure
is vivid : with a high temperature we jump around the configuration space and we fortget
the starting configuration soon. As we decrease the temperature slowly, we prefer walking
downhill but still there is a chance to escape from a local minima due to the point 4 of the
Metropolis algorithm.
There is also a similar nonrandom algorithm called “greedy” which differs by accepting
only states with a smaller energy. From a given starting point it ends always in the same local
(or even global) minimum. Simmulated Annealing is kind of an art, more about implementation details can be easily found on Internet.
43

Documents pareils