Interprétation statistique de l`entropie

Transcription

Interprétation statistique de l`entropie
Interprétation statistique de l'entropie
L’exemple de la détente de Joule-Gay-Lussac d’un gaz parfait permet de préciser, de
manière simple, l’interprétation statistique de l’entropie. Cette détente peut se réaliser
de la manière suivante (voir figure) : un récipient indéformable et adiabatique est divisé
en deux compartiments de volumes Vl et V2 par une plaque de
Electroaimant
verre. Le compartiment (1) contient n moles d'un gaz parfait à la
Bille
température Tl. Le compartiment (2) est vide. On coupe
l'électroaimant : la bille tombe et casse la paroi de verre. Le gaz
Gaz (V1,T1)
se détend alors dans le volume V = Vl + V2 qui lui est offert. A
Plaque de
verre
l'équilibre, l'état final du gaz est caractérisé par le volume V et
Vide (V2)
par la nouvelle température T2.
La détente de Joule-Gay-Lussac est un phénomène irréversible :
le gaz ne peut, sans intervention extérieure, occuper le
compartiment (1), en laissant (2) vide.
Calculs de ∆U et de ∆S :
Le gaz est isolé adiabatiquement et mécaniquement (parois rigides) de l'extérieur. Par
conséquent, le premier principe donne ∆U = 0 . Une détente de Joule-Gay-Lussac se fait
donc à énergie interne constante, autrement dit :
U (T1 , V1 ) = U (T2 , V1 + V2 )
Pour un gaz parfait, on déduit T1 = T2 , puisque l'énergie interne d'un gaz parfait ne
dépend que de la température.
L'entropie d'un gaz parfait s'écrit, en variables T et V (pour n moles) :
S (T , V ) = n ∫ CV (T )
dT
+ nR ln(V ) + cste
T
Par conséquent :
 V +V 
∆S = nR ln  1 2 
 V1 
On vérifie bien que ∆S > 0, puisque le gaz constitue un système isolé (principe
d’évolution, ∆S s’identifie à l’entropie de création).
Quelques définitions de physique statistique :
• Etat macroscopique (ou macro-état) : un état macroscopique d'un système est défini
par la connaissance de paramètres macroscopiques mesurables. Par exemple, l'état
macroscopique d'un gaz est défini par la donnée de deux paramètres (appelés variables
d’état), tels que pression, volume ou température.
• Etat microscopique (ou micro-état) : un état microscopique d'un système est défini par
la connaissance de la position, de la vitesse, de l’énergie, …, à un instant donné, de
toutes les particules constitutives du système (par exemple, les molécules d’un gaz).
• Etats accessibles : soit un système ayant une énergie interne et un volume constants.
Ce système doit être nécessairement dans un état microscopique compatible avec les
contraintes macroscopiques imposées au système (énergie interne et volume) : un tel
état microscopique est appelé état accessible.
• Postulat fondamental de la physique statistique : tous les états microscopiques
accessibles d'un système isolé à l'équilibre sont équiprobables.
Entropie statistique et désordre moléculaire :
La détente de Joule-Gay-Lussac d'un gaz parfait permet en effet, de manière simple,
d'aboutir à la définition statistique de l'entropie. Comme la température reste constante,
le nombre d'états microscopiques accessibles par le gaz subit une variation due
uniquement à la modification du volume occupé par le gaz.
Soit Ωi (V1 ) le nombre d'états microscopiques accessibles par le gaz, compte tenu des
contraintes macroscopiques V1 et T1, dans l'état initial (état (1) sur la figure ci-dessous).
Le nombre d'états microscopiques accessibles dans l'état final est noté Ω f (V1 + V2 ) (état
(2)). La contrainte due au volume étant moins restrictive dans l'état final que dans l'état
initial, on a certainement :
Ω f (V1 + V2 ) > Ωi (V1 )
V1
V1
V1 + V2
Vide (V2)
Vide (V2)
(2 bis)
(2)
(1)
Déterminons la probabilité P pour que le gaz parfait occupe spontanément la partie
supérieure du récipient (de volume V1) dans l'état final (état (2bis)). La probabilité a
priori pour qu'une particule se trouve dans le volume V1 est V1 / (V1 + V2 ) . Par
conséquent, si N est le nombre de particules (supposées indépendantes) :
 V1 
P=

 V1 + V2 
N
N est de l'ordre du nombre d'Avogadro (NA = 6,02.10 23 mol 1). Par conséquent,
P << 1 : le gaz a une probabilité pratiquement nulle de revenir dans son état initial (la
détente est irréversible).
La probabilité P peut s'exprimer en fonction du nombre d'états accessibles. Le postulat
fondamental de la physique statistique permet d'écrire que, dans l'état final, tous les états
accessibles sont équiprobables. Par conséquent, la probabilité de trouver le gaz dans
chacun de ses états accessibles vaut 1 / Ω f (V1 + V2 ) . Ainsi P, qui est également la
probabilité pour que le gaz occupe, dans l'état final, l'un de ses Ωi (V1 ) états accessibles
caractérisés par les paramètres macroscopiques V1 et T1, s'écrit :
P = Ωi (V1 )
Ωi (V1 )
1
=
Ω f (V1 + V2 ) Ω f (V1 + V2 )
Par conséquent :
2
 V1 
Ωi (V1 )
=

Ω f (V1 + V2 )  V1 + V2 
N
La variation d’entropie du gaz lors de la détente de Joule-Gay-Lussac, obtenue
classiquement au début de ce complément, peut s’écrire :
 V + V  NR  V1 + V2 
 V1 + V2 
∆S = nR ln  1 2  =
ln 
 = k ln 

 V1  N A  V1 
 V1 
N
où k = R / NA (où NA est le nombre d’Avogadro) est la constante de Boltzmann, égale à
 Ω f (V1 + V2 ) 
1,38.10 −23 J .K −1 , soit finalement sous la forme : ∆S = k ln 

 Ωi (V1 ) 
On définit alors l’entropie statistique par la relation :
S = k ln(Ω)
où Ω est le nombre d’états microscopiques accessibles à l’équilibre. Cette définition
introduite par Ludwig Boltzmann en 1876 et obtenue ici dans le cas particulier de la
détente de Joule-Gay-Lussac, est tout à fait générale. Elle permet de construire un pont
entre le monde microscopique (représenté par le nombre d’états microscopiques
accessibles Ω) et le monde macroscopique (représenté par la fonction entropie S,
préalablement définie notamment par l’étude des machines thermiques et, par exemple,
par l’impossibilité de transformer intégralement de la chaleur en travail dans une
machine thermique fonctionnant de manière cyclique).
L’entropie du bureau d’un étudiant se rapproche-t-elle plutôt de celle du
bureau de gauche ou de celle du bureau de droite ?
L’entropie apparaît ainsi, en quelque sorte, comme une mesure du degré de désordre
moléculaire (ou particulaire) d’un système. Ce système sera d’autant plus désordonné
(et donc son entropie d’autant plus élevée) que le nombre d’états microscopiques
accessibles sera grand ; autrement dit, plus l’entropie d’un système augmente et plus la
structure microscopique de celui-ci devient indéterminée.
Par ailleurs, le 2nd principe est un principe d’évolution : il stipule que la transformation
qui, pour un système isolé thermiquement, correspond au passage à un nouvel état
d’équilibre après suppression d’une contrainte, a pour effet d’augmenter l’entropie du
système et donc le désordre de celui-ci ( Ω f > Ωi ). On peut ainsi dire que les
transformations spontanées sont celles qui s’effectuent vers les états les plus probables,
même si, au niveau microscopique, aucune transformation inverse n’est impossible,
mais simplement franchement improbable !
3