Physique statistique

Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.

Certaines informations figurant dans cet article ou cette section devraient être mieux reliées aux sources mentionnées dans les sections « Bibliographie », « Sources » ou « Liens externes » ().

Vous pouvez améliorer la vérifiabilité en associant ces informations à des références à l'aide d'appels de notes.

Physique statistique
Mouvement brownien d'une particule.
Partie de
PhysiqueVoir et modifier les données sur Wikidata

modifier - modifier le code - modifier WikidataDocumentation du modèle

La physique statistique a pour objet d'expliquer le comportement et l'évolution de systèmes macroscopiques à partir des caractéristiques de leurs constituants microscopiques. Ces constituants peuvent être des atomes, des molécules, des ions, des électrons, des photons, des neutrinos, ou des particules élémentaires et sont généralement désignés sous le terme général de particules. La physique de ces particules[a] peut être décrite par des lois classiques ou quantiques selon les systèmes étudiés, mais la description macroscopique obtenue cherche généralement à s'accorder avec les observations de la thermodynamique classique. Pour cette raison, la physique statistique est parfois appelée thermodynamique statistique.

La physique statistique a d'abord été développée, notamment par Ludwig Boltzmann, pour comprendre les systèmes à l'équilibre, elle a ensuite été appliquée aux phénomènes se produisant hors de l'équilibre comme la nucléation.

Historique

La physique statistique fut introduite initialement sous la forme de la théorie cinétique des gaz à partir du milieu du XIXe siècle, principalement par James Clerk Maxwell[1] et Boltzmann[2]. Cette première approche visait à proposer un modèle simple de la matière à l'échelle atomique, et en particulier des collisions entre atomes ou molécules, pour reproduire le comportement de certaines quantités macroscopiques. C'est à cette époque que l'interprétation de la pression comme mesure de la quantité de mouvement des constituants d'un gaz a été formalisée.

La mécanique statistique fut formalisée en 1902 par Willard Gibbs[3],[4], son formalisme permettant de généraliser et de justifier a posteriori les principes de la thermodynamique d'équilibre.

Les premières extensions de la physique statistique, par rapport à la mécanique statistique, ont été l'introduction des propriétés électriques et magnétiques de la matière au sein des modèles, permettant la description des transitions de phase dans les matériaux magnétiques ou diélectriques, comme la transition ferromagnétique, notamment via l'introduction du modèle d'Ising.

Une autre étape importante fut la modification des formules statistiques, entre les années 1920 et 1930, pour tenir compte des effets de l'indiscernabilité des particules quantiques. Cette modification fut effectuée par Bose et Einstein pour les systèmes de particules de spin entier (bosons) et par Fermi et Dirac pour les systèmes de particules de spin demi-entier (fermions).

Introduction et généralités

Typiquement, à notre échelle, un système matériel à l'équilibre thermodynamique est décrit à l'aide d'un nombre restreint de paramètres dits macroscopiques caractérisant les valeurs de certaines grandeurs physiques macroscopiques ; par exemple, un volume de gaz à l'équilibre est caractérisé par sa densité μ, sa pression P, sa température T et son volume V. La physique statistique établit des liens statistiques entre ces grandeurs physiques macroscopiques et d'autres grandeurs microscopiques caractérisant les constituants élémentaires (atomes ou molécules) du système matériel.

Cette procédure est utile, car il est en pratique impossible de suivre l'évolution des constituants individuels du gaz. Par exemple, un litre d'air contient environ 3 × 1022 molécules (un nombre de l'ordre du nombre d'Avogadro). Même s'il était possible de suivre l'évolution individuelle de chacune d'elles, cela ne donnerait pas d'information pertinente sur le système. Le but de la physique statistique est de relier les quantités macroscopiques décrivant les systèmes aux quantités d'origine microscopiques qui décrivent les constituants du système, notamment via leurs propriétés statistiques. Par exemple, la température d'un gaz parfait est une mesure de l'énergie cinétique moyenne des particules qui le composent.

Une des raisons qui permet un passage du microscopique au macroscopique est en fait le nombre gigantesque des constituants du système. Pour cette raison, on parle de l'énergie cinétique E totale des molécules d'un gaz, car les fluctuations statistiques ΔE d'une telle quantité sont limitées par la relation issue de la loi de Poisson :

Δ E E 1 N {\displaystyle {\frac {\Delta E}{E}}\sim {\frac {1}{\sqrt {N}}}} ,

N est le nombre de molécules du volume de gaz considéré. Il est donc possible que l'énergie cinétique totale des molécules du gaz soit, dans une petite région, légèrement différente de la valeur moyenne attendue. Même pour des petits volumes, par exemple de l'ordre de 1 mm3 pour un gaz à température et pression normales, soit environ 3 × 1016 particules, les fluctuations de l'énergie cinétique totale sont inférieures à 10−8 et en pratique presque toujours négligeables.

Postulat fondamental

Énoncé

Le postulat fondamental de la physique statistique d'équilibre (aussi connu comme le postulat des probabilités a priori égales) est :

Étant donné un système isolé en équilibre, il se trouve avec probabilités égales dans chacun de ses micro-états accessibles.

Ce postulat est une hypothèse fondamentale en physique statistique : il signifie qu'un système n'a pas de préférence pour n'importe lequel de ses micro-états accessibles. Étant donnés Ω micro-états à énergie donnée, la probabilité que le système se trouve à un micro-état particulier est p = 1/Ω. Ce postulat, nécessaire, permet de conclure que pour un système à l'équilibre, l'état thermodynamique (le macro-état) qui peut résulter du plus grand nombre de micro-états est aussi le macro-état le plus probable du système.

Par rapport aux postulats sous-tendant la théorie cinétique des gaz, il s'agit d'un saut dans l'abstraction qui permet toutes les généralisations. Cet énoncé remplace avantageusement les modèles microscopiques à la fois simplistes et pourtant lourdement calculatoires par des incertitudes statistiques. Le modèle s'applique a priori à tout système possédant un mécanisme de redistribution statistique de l'énergie au niveau microscopique.

Origine : l'hypothèse ergodique

Dans le cadre naissant de la théorie cinétique des gaz, Boltzmann a formulé en 1871 une hypothèse, connue aujourd'hui sous le nom d'hypothèse ergodique : « Le point représentatif d'un système hamiltonien invariant par translation dans le temps passe au cours du temps par chaque point de l'hypersurface d'énergie constante. »

Il a été prouvé en 1910 que cette hypothèse était fausse, mais on a depuis démontré que certains systèmes physiques vérifient l'hypothèse quasi-ergodique :

Le point représentatif d'un système hamiltonien invariant par translation dans le temps passe au cours du temps aussi près que l'on veut de chaque point de l'hypersurface d'énergie constante.

Cependant, en dépit de progrès très importants réalisés en théorie ergodique et en théorie du chaos, l'utilisation de l'hypothèse quasi-ergodique pour justifier le postulat fondamental de la physique statistique reste à ce jour controversée[5].

Équiprobabilité et information

En théorie de l'information, l'information est l'opposée du logarithme de la probabilité : I = ln   p {\displaystyle I=-\ln \ p} .

Dans ce contexte, l'entropie est définie comme la moyenne de l'information contenue dans le système :

S   =     I     =   i   p i   ln p i {\displaystyle S\ =\ \langle \ I\ \rangle \ =\ -\sum _{i}\ p_{i}\ \ln p_{i}}

C'est une fonction continue de plusieurs variables, dont on peut montrer qu'elle admet un maximum global lorsque tous les p i {\displaystyle p_{i}} sont égaux. Ceci signifie qu'avec l'hypothèse d'équiprobabilité, S est maximale. On interprète cela en disant qu'on a alors un minimum d'information, ou encore un maximum d'incertitude, sur le système.

Par contre, quand l'un des évènements est certain, sa probabilité vaut 1 tandis que tous les autres p i {\displaystyle p_{i}} sont nuls. On connaît alors exactement la configuration du système et l'incertitude est nulle. Dans ce cas l'entropie admet sa valeur minimale, en l'occurrence 0.

Généralisations aux problèmes analogues

Les méthodes de description mathématique développées dans le cadre de la physique statistique ont trouvé des applications dans pratiquement tous les domaines de la physique moderne ou de la chimie, mais aussi en économie, dans les sciences humaines, etc.

Outils et procédés

La formulation moderne de cette théorie se fonde sur la description des systèmes physiques étudiés par le biais d'ensembles statistiques. De tels ensembles représentent la totalité des configurations possibles du système associées à leur probabilités de réalisation. À chaque ensemble est associée une fonction de partition qui, par manipulations mathématiques, permet d'extraire les grandeurs thermodynamiques du système. Selon les relations du système avec le reste de l'univers, on distingue généralement trois types d'ensemble, du plus simple au plus complexe :

  • l'ensemble microcanonique ;
  • l'ensemble canonique ;
  • l'ensemble grand canonique.
v · m
Ensembles en physique statistique
 MicrocanoniqueCanoniqueGrand-canoniqueT-p

Variables indépendantes

E, N, V ou B

T, N, V ou B

T, μ, V ou B

T, μ, p ou B

nombre des micro-états
Ω {\displaystyle \Omega }

Fonction de partition canonique
Z = k e β E k {\displaystyle Z=\sum _{k}e^{-\beta E_{k}}}

Fonction de partition grand-canonique
Ξ   =   i e β ( E i μ N i ) {\displaystyle \Xi \ =\ \sum _{i}e^{-\beta (E_{i}-\mu N_{i})}}

Fonction de partition T-p
Z T p = 0 + Z ( T , V ) e β p V d V {\displaystyle Z_{T-p}=\int _{0}^{+\infty }\scriptstyle {Z(T,V)}e^{-\beta pV}dV} avec Z ( T , V ) = ( ) e β E ( V ) {\displaystyle \scriptstyle {Z(T,V)}=\sum _{(\ell )}e^{-\beta E_{\ell }(V)}}

Entropie
S   =   k B   ln Ω {\displaystyle S\ =\ k_{B}\ \ln \Omega }

Energie libre
F   =     k B T   ln Z {\displaystyle F\ =\ -\ k_{B}T\ \ln Z}

Grand potentiel
Φ G =   k B T ln Ξ {\displaystyle \Phi _{G}=-\ k_{B}T\ln \Xi }

Enthalpie libre
G   =     k B T   ln Z T p {\displaystyle G\ =\ -\ k_{B}T\ \ln Z_{T-p}}

Ensemble microcanonique

Article détaillé : Ensemble microcanonique.

Cet ensemble décrit le cas idéal d'un système complètement isolé d'énergie E {\displaystyle E} constante, et n'échangeant donc ni particule, ni énergie, ni volume avec le reste de l'univers. L'intérêt de ce modèle est qu'il permet de définir l'entropie sous sa forme la plus simple.

Entropie microcanonique

Le système étant à l'équilibre macroscopique, mais libre d'évoluer à l'échelle microscopique entre Ω {\displaystyle \Omega } micro-états différents, son entropie est donnée par la formule de Boltzmann (1877) :

S   =   k B   ln Ω {\displaystyle S\ =\ k_{B}\ \ln \Omega }

k B {\displaystyle k_{B}} est la constante de Boltzmann. Cette définition correspond à l'entropie de Shannon :

S   =     k B i p i   ln p i {\displaystyle S\ =\ -\ k_{B}\sum _{i}p_{i}\ \ln p_{i}}

d'une configuration de Ω {\displaystyle \Omega } micro-états équiprobables :

p i   =   1 Ω {\displaystyle p_{i}\ =\ {\frac {1}{\Omega }}}

Extensivité de l'entropie

Article détaillé : Extensivité - intensivité.

L'énergie macroscopique totale E {\displaystyle E} du système isolé étudié est toujours supérieure ou égale à une certaine valeur E 0 {\displaystyle E_{0}} minimale, appelée énergie de l'état fondamental du système. De plus, le comptage du nombre Ω {\displaystyle \Omega } de micro-états du système fermé d'énergie totale E {\displaystyle E} nécessite[6] en général l'introduction d'une certaine incertitude Δ E {\displaystyle \Delta E} d'ordre mésoscopique.

On peut montrer que, pour un système « ordinaire »[7], le nombre Ω {\displaystyle \Omega } de micro-états est une fonction rapidement croissante de l'énergie de la forme :

Ω ( E , N )     ( E E 0 ) N {\displaystyle \Omega (E,N)\ \propto \ \left(E-E_{0}\right)^{N}}

N le nombre de degrés de liberté total du système, supposé très grand. Il est alors possible de montrer[8] que lorsque l'énergie totale E n'est pas trop proche de sa valeur minimale, l'entropie S(E,N) calculée par la formule de Boltzmann est :

  • de l'ordre de N, donc l'entropie microcanonique est bien extensive à la limite thermodynamique.
  • indépendante de la valeur exacte de l'incertitude Δ E {\displaystyle \Delta E} .

Ensemble canonique

Article détaillé : Ensemble canonique.

L'ensemble canonique décrit un système fermé en équilibre thermique avec un thermostat extérieur. Ce système fermé peut donc échanger de l'énergie sous forme de transfert thermique avec l'extérieur, à l'exclusion de toute autre quantité.

Fonction de partition canonique

Dans les conditions citées ci-dessus, on démontre que la probabilité p i {\displaystyle p_{i}} pour que le système fermé réalise un état i {\displaystyle i} d'énergie E i {\displaystyle E_{i}} est donnée par la formule de Boltzmann :

p i   =   e β E i Z {\displaystyle p_{i}\ =\ {\frac {e^{-\beta E_{i}}}{Z}}}

L'identification de l'entropie de la physique statistique à celle de la thermodynamique permet de relier β à la température thermodynamique T

k B β = 1 T {\displaystyle k_{B}\beta ={1 \over {T}}}

Le facteur de normalisation Z se calcule en écrivant la condition des probabilités totales :

i p i   =   1 {\displaystyle \sum _{i}p_{i}\ =\ 1}

Z est appelé la fonction de partition canonique du système fermé, et s'écrit explicitement :

Z   =   { k   a c c e s s i b l e } e β E k {\displaystyle Z\ =\ \sum _{\{k\ \mathrm {accessible} \}}e^{-\beta E_{k}}}

Cette fonction de partition permet de déduire toutes les grandeurs macroscopiques du système fermé comme moyennes des grandeurs microscopiques associées.

Observables macroscopiques

L'énergie interne U est la moyenne macroscopique de l'ensemble des énergies microscopiques E i {\displaystyle E_{i}}  :

U   =     E     =   { i   a c c e s s i b l e } p i   E i   =     1 Z   d Z d β   =     d ln Z d β {\displaystyle U\ =\ \langle \ E\ \rangle \ =\ \sum _{\{i\ \mathrm {accessible} \}}p_{i}\ E_{i}\ =\ -\ {\frac {1}{Z}}\ {\frac {dZ}{d\beta }}\ =\ -\ {\frac {d\ln Z}{d\beta }}}

De même, pour toute grandeur A prenant des valeurs A i {\displaystyle A_{i}} définies sur les micro-états i associés aux énergies E i {\displaystyle E_{i}} , on peut définir la valeur moyenne :

  A     =   { i   a c c e s s i b l e } p i   A i {\displaystyle \langle \ A\ \rangle \ =\ \sum _{\{i\ \mathrm {accessible} \}}p_{i}\ A_{i}}

Appliquons en particulier cette formule à l'entropie, en posant que les micro-états E i {\displaystyle E_{i}} définissent des systèmes représentables comme des ensembles microcanoniques, nous avons défini pour chaque micro-état i une entropie microcanonique :

S i   =   k B   ln Ω i   =     k B   ln p i {\displaystyle S_{i}\ =\ k_{B}\ \ln \Omega _{i}\ =\ -\ k_{B}\ \ln p_{i}}

L'entropie totale du système prend alors la forme :

S   =     S i     =   { i   a c c e s s i b l e } p i   S i {\displaystyle S\ =\ \langle \ S_{i}\ \rangle \ =\ \sum _{\{i\ \mathrm {accessible} \}}p_{i}\ S_{i}}
  =     { i   a c c e s s i b l e } k B   p i   ln p i {\displaystyle \ =\ -\ \sum _{\{i\ \mathrm {accessible} \}}k_{B}\ p_{i}\ \ln p_{i}}

Remplaçons la probabilité par son expression dans le logarithme :

S   =     k B   { i   a c c e s s i b l e }   p i   ×   ln ( e β E i / Z ) {\displaystyle S\ =\ -\ k_{B}\ \sum _{\{i\ \mathrm {accessible} \}}\ p_{i}\ \times \ \ln({e^{-\beta E_{i}}/Z})}
=   +   k B   { i   a c c e s s i b l e }   p i   ×   [   β E i + ln Z   ] {\displaystyle =\ +\ k_{B}\ \sum _{\{i\ \mathrm {accessible} \}}\ p_{i}\ \times \ \left[\ \beta E_{i}+\ln Z\ \right]}

D'après la définition de la température inverse, on a : k B β = 1 / T {\displaystyle k_{B}\beta =1/T} , d'où :

S   =   1 T   { i   a c c e s s i b l e }   p i   E i + k B   { i   a c c e s s i b l e }   p i   ln Z {\displaystyle S\ =\ {1 \over T}\ \sum _{\{i\ \mathrm {accessible} \}}\ p_{i}\ E_{i}\quad +\quad k_{B}\ \sum _{\{i\ \mathrm {accessible} \}}\ p_{i}\ \ln Z}

On reconnaît dans le premier terme la valeur moyenne de l'énergie. Par ailleurs, le logarithme de Z est indépendant de l'indice i. On obtient alors en utilisant la condition de normalisation des probabilités :

S   =     E   T   +   k B   ln Z   =   U T   +   k B   ln Z {\displaystyle S\ =\ {\langle \ E\ \rangle \over T}\ +\ k_{B}\ \ln Z\ =\ {U \over T}\ +\ k_{B}\ \ln Z}

En rapprochant cette formule de celle donnant l'énergie libre F en thermodynamique : F = U - T S, il vient naturellement :

F   =     k B T   ln Z {\displaystyle F\ =\ -\ k_{B}T\ \ln Z}

ou encore :

Z   =   e β F {\displaystyle Z\ =\ e^{-\beta F}}

Tableau récapitulatif

Les expressions de F, de U et de S sont suffisantes pour en déduire toutes les autres grandeurs thermodynamiques :

Nom Formule
Énergie libre de Helmholz F   =     ln Z β {\displaystyle F\ =\ -\ {\ln Z \over \beta }}
Énergie interne U   =     ( ln Z β ) N , V {\displaystyle U\ =\ -\ \left({\partial \ln Z \over \partial \beta }\right)_{N,V}}
Pression p   =     ( F V )   =   1 β   ( ln Z V ) N , T {\displaystyle p\ =\ -\ \left({\partial F \over \partial V}\right)\ =\ {1 \over \beta }\ \left({\partial \ln Z \over \partial V}\right)_{N,T}}
Entropie S   =   k B   ( ln Z + β U ) {\displaystyle S\ =\ k_{B}\ ({\ln Z+\beta \,U})\,}
Enthalpie libre de Gibbs G   =   F   +   p V   =     ln Z β   +   V β   ( ln Z V ) N , T {\displaystyle G\ =\ F\ +\ p\,V\ =\ -\ {\ln Z \over \beta }\ +\ {V \over \beta }\ \left({\partial \ln Z \over \partial V}\right)_{N,T}}
Enthalpie H   =   U   +   p V {\displaystyle H\ =\ U\ +\ p\,V\,}
Température 1 T = ( S U ) V , N {\displaystyle {\frac {1}{T}}={\biggl (}{\frac {\partial S}{\partial U}}{\biggr )}_{V,N}}
Chaleur spécifique à volume constant C V   =   ( U T ) N , V {\displaystyle C_{V}\ =\ \left({\partial U \over \partial T}\right)_{N,V}\,}
Chaleur spécifique à pression constante C p   =   ( H T ) N , p {\displaystyle C_{p}\ =\ \left({\partial H \over \partial T}\right)_{N,p}\,}
Potentiel chimique μ i   =     1 β   ( ln Z N i ) T , V , N {\displaystyle \mu _{i}\ =\ -\ {1 \over \beta }\ \left({\partial \ln Z \over \partial N_{i}}\right)_{T,V,N}}

Pour la dernière entrée, il ne s'agit pas de l'ensemble grand-canonique. Il est souvent utile de considérer que l'énergie d'une molécule donnée est distribuée entre plusieurs modes. Par exemple, l'énergie de translation est la partie de l'énergie relative au mouvement du centre de masse de la molécule. L'énergie de configuration se rapporte à la portion de l'énergie associée aux diverses forces attractives et répulsives entre les molécules du système. Les autres modes sont tous considérés comme internes aux molécules. Ils incluent les modes rotationnels, vibrationnels, électroniques et nucléaires. Si nous supposons que chaque mode est indépendant, l'énergie totale peut être exprimée comme la somme de la contribution de chaque composant :

E   =   E t   +   E c   +   E n   +   E e   +   E r   +   E v {\displaystyle E\ =\ E_{t}\ +\ E_{c}\ +\ E_{n}\ +\ E_{e}\ +\ E_{r}\ +\ E_{v}}

où les indices t, c, n, e, r et v correspondent aux énergies des modes de translation, de configuration, nucléaires, électroniques, rotationnels, et vibrationnels respectivement.

En substituant cette équation dans la toute première équation, nous obtenons :

Z   =   i j   n i v e a u   i n t e r n e   a   j   [   j { t , c , n , e , r , v }   exp   ( β E j i j )   ] {\displaystyle Z\ =\ \sum _{i_{j}\ \mathrm {niveau\ interne\ a} \ j}\ \left[\ \prod _{j\,\in \,\{\,t,c,n,e,r,v\,\}}\ \exp \ (\,-\,\beta \,E_{ji_{j}})\ \right]}

Grâce à l'indépendance des modes, on peut permuter la somme et le produit :

Z   =   j { t , c , n , e , r , v }   [   i j   n i v e a u   i n t e r n e   a   j   exp   ( β E j i j )   ] {\displaystyle Z\ =\ \prod _{j\,\in \,\{\,t,c,n,e,r,v\,\}}\ \left[\ \sum _{i_{j}\ \mathrm {niveau\ interne\ a} \ j}\ \exp \ (\,-\,\beta \,E_{ji_{j}})\ \right]}

Ainsi, pour chaque mode, on peut définir une fonction de partition associée, et on obtient la fonction de partition totale comme produit de ces fonctions de partition de modes :

Z   =   Z t   ×   Z c   ×   Z n   ×   Z e   ×   Z r   ×   Z v {\displaystyle Z\ =\ Z_{t}\ \times \ Z_{c}\ \times \ Z_{n}\ \times \ Z_{e}\ \times \ Z_{r}\ \times \ Z_{v}}

Des expressions simples en sont dérivées pour chacun des modes relatifs à des propriétés moléculaires, telles que les fréquences rotationnelles et vibrationnelles. Les expressions des diverses fonctions de partitions sont données dans la table suivante :

Type Formule
Nucléaire Z   =   1 ( T < 10 8 ) {\displaystyle Z\ =\ 1\quad (T<10^{8})}
Électronique Z 0   =   exp ( k B T D e + W 1 exp ( θ e 1 / T ) + . . . ) {\displaystyle Z_{0}\ =\ \exp(k_{B}TD_{e}+W1\exp(-\theta _{e1}/T)+...)\,}
Vibrationnel Z v   =   exp ( θ v j / 2 T ) 1 exp ( θ v j / T ) {\displaystyle Z_{v}\ =\ \prod {\exp({-\theta _{vj}/2T}) \over {1-\exp({-\theta _{vj}/T})}}}
Rotationnel (linéaire) Z r   =   T σ θ R {\displaystyle Z_{r}\ =\ {T \over \sigma }\theta _{R}}
Rotationnel (non linéaire) Z r   =   T σ π T 3 θ 1 θ 2 θ 3 {\displaystyle Z_{r}\ =\ {T \over \sigma }{\sqrt {\pi T^{3} \over \theta _{1}\theta _{2}\theta _{3}}}}
Translation Z t   =   ( 2 π m k B T ) 3 / 2 h 3 {\displaystyle Z_{t}\ =\ {(2\pi mk_{B}T)^{3/2} \over {h^{3}}}}
Configuration (gaz parfait) Z c   =   V {\displaystyle Z_{c}\ =\ V\,}

Ces équations peuvent être combinées avec celles de la première table pour déterminer la contribution d'un mode énergétique spécifique aux propriétés thermodynamiques. Par exemple, la « pression de rotation » peut être déterminée de cette manière. La pression totale peut être trouvée en sommant les contributions de pression de tous les modes individuels :

p   =   p t   +   p c   +   p n   +   p e   +   p r   +   p v {\displaystyle p\ =\ p_{t}\ +\ p_{c}\ +\ p_{n}\ +\ p_{e}\ +\ p_{r}\ +\ p_{v}}

Ensemble grand-canonique

Article détaillé : Ensemble grand-canonique.

Si le système est ouvert (c'est-à-dire s'il permet l'échange de particules avec l'extérieur), nous devons introduire les potentiels chimiques et remplacer la fonction de partition canonique par la fonction de partition grand-canonique :

Ξ ( V , T , μ ) = i exp ( β [ j = 1 n μ j N i j E i ] ) {\displaystyle \Xi (V,T,\mu )=\sum _{i}\exp \left(\beta [\sum _{j=1}^{n}\mu _{j}N_{ij}-E_{i}]\right)\,}

N i j {\displaystyle N_{ij}} est le nombre de particules de la j-ème espèce dans la i-ème configuration. Il peut arriver aussi que nous ayons d'autres variables à ajouter à la fonction de partition, une variable par quantité conservée. La plupart d'entre elles, cependant, peuvent sans problème être interprétées comme des potentiels chimiques. Dans la plupart des problèmes de matière condensée, les effets sont non relativistes et la masse est conservée. La masse est inversement reliée à la densité, qui est la variable conjuguée de la pression.

Dans le reste de l'article, nous ignorerons cette difficulté et supposerons que les potentiels chimiques ne changent rien. Examinons l'ensemble grand canonique.

Recalculons toutes les expressions en utilisant l'ensemble grand-canonique. Le volume est fixé et ne figure pas dans ce traitement. Comme précédemment, j est l'indice des particules de la j-ème espèce et i est l'indice du i-ème micro-état :

U = i E i exp ( β [ E i j = 1 μ j N i j ] ) Ξ {\displaystyle U=\sum _{i}{E_{i}\exp \left(-\beta [E_{i}-\sum _{j=1}\mu _{j}N_{ij}]\right) \over \Xi }\,}

N j = i N i j exp ( β [ E i j = 1 μ j N i j ] ) Ξ {\displaystyle N_{j}=\sum _{i}{N_{ij}\exp \left(-\beta [E_{i}-\sum _{j=1}\mu _{j}N_{ij}]\right) \over \Xi }\,}
Nom Formule
Grand potentiel Φ G = ln Ξ β {\displaystyle \Phi _{G}=-{\ln \Xi \over \beta }}
Énergie interne U = ( ln Ξ β ) μ + μ i β ( ln Ξ μ i ) β {\displaystyle U=-\left({\partial \ln \Xi \over \partial \beta }\right)_{\mu }+\sum {\mu _{i} \over \beta }\left({\partial \ln \Xi \over \partial \mu _{i}}\right)_{\beta }}
Nombre de particules N i = 1 β ( ln Ξ μ ) β {\displaystyle N_{i}={1 \over \beta }\left({\partial \ln \Xi \over \partial \mu }\right)_{\beta }}
Entropie S = k B ( ln Ξ + β U β i μ i N i ) {\displaystyle S=k_{B}\left(\ln \Xi +\beta U-\beta \sum _{i}\mu _{i}N_{i}\right)\,}
Énergie libre de Helmholtz F = Φ G + i μ i N i = ln Ξ β + μ i β ( ln Ξ μ i ) β {\displaystyle F=\Phi _{G}+\sum _{i}\mu _{i}N_{i}=-{\ln \Xi \over \beta }+\sum {\mu _{i} \over \beta }\left({\partial \ln \Xi \over \partial \mu _{i}}\right)_{\beta }\,}

Notes et références

Notes

  1. Ne pas confondre la physique de ces particules (où le mot particule Ce lien renvoie vers une page d'homonymie a un sens très général) avec la physique des particules qui concerne la nature et les propriétés des particules subatomiques.

Références

  1. (en) James Clerk Maxwell, « Illustrations of the dynamical theory of gases.—Part I. On the motions and collisions of perfectly elastic spheres », The London, Edinburgh, and Dublin Philosophical Magazine and Journal of Science, Taylor&Francis, vol. 19, no 124,‎ , p. 19--32 (DOI https://doi.org/10.1080/14786446008642818)
  2. (de) Ludwig Boltzmann, « Weitere studien über das Wärmegleichgewicht unter Gasmolekülen. », Sitzungsberichte der Kaiserlichen Akademie der Wissenschaften in Wien, mathematisch-naturwissenschaftliche Classe, no 66,‎ , p. 275–370.
  3. Josiah Willard Gibbs et Marcel Brillouin (Introduction) (trad. F. Cosserat), Principes élémentaires de mécanique statistique, Paris, Hermann, coll. « Actualités scientifiques et industrielles » (no 1440), , 195 p. (ISBN 978-2-7056-6341-4, OCLC 39142648, BNF 36703719).
  4. (en) Luis Navarro, « Gibbs, Einstein and the Foundations of Statistical Mechanics », Archive for History of Exact Sciences, vol. 53, no 2,‎ , p. 147–180 (ISSN 1432-0657, DOI 10.1007/s004070050025).
  5. Domokos Szász, « Boltzmann’s Ergodic Hypothesis, a Conjecture for Centuries? », dans Hard Ball Systems and the Lorentz Gas, vol. 101, Springer Berlin Heidelberg, , 421–446 p. (ISBN 978-3-642-08711-0, DOI 10.1007/978-3-662-04062-1_14, lire en ligne).
  6. Cf. Frederic Reif ; Physique Statistique, Cours de Physique de Berkeley (vol. 5), Armand Colin (1972), paragraphe 3.5
  7. Sont exclus par exemple certains systèmes de spins où l'énergie cinétique des particules serait ignorée. Cf. Reif, op. cit.
  8. Cf. Reif, op. cit.

Voir aussi

Sur les autres projets Wikimedia :

  • Thermodynamique statistique, sur Wikiversity

Bibliographie

Bibliothèque virtuelle

  • Roger Balian ; Physique fondamentale et énergétique : les multiples visages de l'énergie : cours donné par l'auteur (Service de Physique Théorique du CEA, Saclay) à la première École d'Eté « e2phy » : L'énergie sous toutes ses formes : données scientifiques, contraintes, enjeux, 27-, Site universitaire de Caen.
  • Roger Balian ; Entropie, information : un concept protéiforme : texte d'une conférence donnée par l'auteur (Service de Physique Théorique du CEA, Saclay) à l'Université de tous les savoirs (239me conférence : Les États de la matière, , Conservatoire National des Arts et Métiers, Paris). Publiée par Yves Michaud (éditeur) ; Université de tous les savoirs (Vol. 4), Odile Jacob (2001) pp. 947–959 / Repris en édition de poche : Université de tous les savoirs (Vol. 17), Poches Odile Jacob (2002) pp. 205–220
  • Roger Balian ; Le temps macroscopique : texte d'une conférence sur l'irréversibilité et l'entropie donnée par l'auteur (Service de Physique Théorique du CEA, Saclay) lors du premier colloques "Physique & Interrogations Fondamentales" : Le Temps et sa Flèche organisé par la Société Française de Physique le à Paris. Publié par : Étienne Klein & Michel Spiro (éditeurs) ; Le Temps et sa Flèche, Les Éditions Frontières (1994) pp. 155–211. Repris en poche par Flammarion, Collection Champs (1995).
  • Roger Balian ; Entropy, a Protean Concept : texte (en anglais) d'une conférence introductive donnée par l'auteur (Service de Physique Théorique du CEA, Saclay) au séminaire Poincaré du consacré à l'entropie. Publié dans : J. Dalibard, B. Duplantier et V. Rivasseau (eds.) ; Poincaré seminar 2003, Progress in Mathematical Physics 38, Birkhäuser (2004) 119-144, ISBN .
  • [PDF] Cours détaillé

Vulgarisation

  • Bernard Diu, Les atomes existent-ils vraiment ?, Odile Jacob (1997), (ISBN 9782738104212) .
  • Philippe Depondt, L’entropie et tout ça - Le roman de la thermodynamique, Cassini (2002), (ISBN 2842250443).
  • Peter W. Atkins, Chaleur & Désordre - Le deuxième Principe de la thermodynamique, Collection "L'univers des sciences", Belin/Pour La Science (1987) 216 p., (ISBN 2902918402). Ouvrage de vulgarisation de la thermodynamique des points de vue macroscopique et microscopique. Niveau premier cycle universitaire.

Ouvrages de référence

  • Georges Bruhat, Cours de Physique Générale - Thermodynamique, Masson (6e édition-1968) 912 pp. Ce cours de référence, devenu un "classique", est accessible à partir du premier cycle universitaire. Cette 6e édition a été revue et augmentée par Alfred Kastler.
  • Yves Rocard, Thermodynamique, Masson (2e édition-1967) 540 pp. Cet autre cours de référence, devenu également un "classique", est accessible à partir du premier cycle universitaire.

Initiation à la physique statistique

  • Frederick Reif (trad. Pierre Turon), Cours de Physique de Berkley, Volume 5 : Physique statistique [« Berkeley Physics Course, Volume 5: Statistical Physics »], DUNOD, , 397 p. (ISBN 978-2-10-004935-6). Ce célèbre cours des années 1960 est accessible à un étudiant du premier cycle universitaire.
  • Bernard Jancovici, Thermodynamique & Physique Statistique, Ediscience (1969) 186 pp. Réédité (sans les exercices) par Nathan Université dans sa collection "128 sciences" (1996) 128 pp. Ce petit ouvrage est un cours d'introduction à la thermodynamique via la physique statistique élémentaire. Niveau premier cycle universitaire.
  • Percy W. Bridgman, The Nature of Thermodynamics, Harvard University Press (1941) 230 pp. Réflexions sur le sens des deux principes de la thermodynamique. Ce livre contient quelques équations, accessible au niveau du premier cycle universitaire.
  • (en) Mark W. Zemansky et Richard H. Dittman, Heat and thermodynamics : an intermediate textbook, Auckland Singapore, McGraw-Hill, , 6e éd. (1re éd. 1937), 544 p. (ISBN 978-0-07-066647-4, OCLC 450205456). La première moitié de ce volume est un cours de thermodynamique purement macroscopique selon une approche expérimentale : le point de départ est le concept de température usuelle. Cette première partie de l'ouvrage est accessible au niveau du premier cycle universitaire. (La seconde moitié du livre est consacrée à l'approche de la thermodynamique via la physique statistique. Cette partie est plutôt du niveau du second cycle universitaire.)
  • (en) Herbert B. Callen, Thermodynamics and an introduction to thermostatistics, New York, John Wiley & Sons, , 2e éd., 493 p. (ISBN 978-0-471-86256-7 et 978-0-471-61056-4, OCLC 11916089, lire en ligne). Ce livre est le compagnon idéal de l'ouvrage précédent. En effet, la première partie (2/3) de ce volume est un cours de thermodynamique purement macroscopique selon une approche axiomatique : les postulats sont énoncés dès le premier chapitre, le concept de température en est déduit au chapitre suivant. Cette première partie de l'ouvrage est accessible au niveau du premier cycle universitaire, quoique certains développements formels soient d'un niveau plus élevé. (La seconde partie (1/3) du livre est consacrée à l'approche de la thermodynamique via la physique statistique. Cette partie est plutôt du niveau du second cycle universitaire.)
  • Ryogo Kubo, Thermodynamics, John Wiley & Sons (1960) pp. Ouvrage classique de thermodynamique. Niveau second cycle universitaire.
  • (en) Alfred Brian Pippard, Elements of classical thermodynamics : for advanced students of physics, Cambridge, Eng, Cambridge University Press, , 165 p. (ISBN 0-521-09101-2 et 978-0-521-09101-5, OCLC 22321936). Niveau second cycle universitaire.

Niveau second cycle universitaire

  • Bernard Diu, Claudine Guthmann, Danielle Lederer et Bernard Roulet, Éléments de physique statistique, [détail de l’édition].
  • Roger Balian et al., Du microscopique au macroscopique : cours de physique statistique de l'École polytechnique, Palaiseau Paris, École polytechnique Ellipses, , 639 p., 2 vol. (ISBN 978-2-7298-9000-1 et 978-2-729-89001-8, BNF 34724593).
    Un cours de physique statistique, qui s'appuie sur la connaissance préalable de la Mécanique Quantique.
  • (en) Frederic Reif, Fundamentals of statistical and thermal physics, New York, McGraw-Hill, , 651 p. (ISBN 978-0-07-051800-1)
    Ouvrage classique de physique statistique. Niveau second cycle universitaire.
  • (en) Linda E. Reichl, A modern course in statistical physics, New York, John Wiley & Sons, , 2e éd., 822 p. (ISBN 978-0-471-59520-5).
    Un ouvrage moderne déjà classique. Niveau second cycle universitaire.
  • (en) Kerson Huang (en), Statistical mechanics, New York, John Wiley & Sons, , 2e éd., 493 p. (ISBN 978-0-471-81518-1 et 978-0-471-85913-0).
    Ouvrage classique de physique statistique. Niveau second cycle universitaire.
  • (en) Ryōgo Kubo, Statistical Mechanics, John Wiley & Sons (1965) réédité par North-Holland 426 pages, (ISBN 0-444-87103-9).
    Ouvrage classique de physique statistique. Niveau second cycle universitaire.
  • (en) Alexandre Khintchine (trad. G. Gamow), Mathematical foundations of statistical mechanics [« Matematicheskie osnovanii︠a︡ statisticheskoĭ mekhaniki »], New York, Dover Publications,‎ , 179 p. (ISBN 978-0-486-60147-2, lire en ligne).
    Ouvrage classique sur les fondements de la physique statistique, notamment l'hypothèse ergodique. Niveau second cycle universitaire.

Aspects historiques

  • Robert Locqueneux, Préhistoire & Histoire de la thermodynamique Classique (Une histoire de la chaleur), Cahiers d'Histoire & de Philosophie des Sciences n°45, société Française d'Histoire des Sciences & des Techniques () 333 pp. (ISSN 0221-3664). Essai sur les théories de la chaleur aux XVIIIe et XIXe siècles. Niveau premier cycle universitaire.
  • Jean-Pierre Maury, Carnot et la machine à vapeur, Paris, Presses universitaires de France, coll. « Philosophies », , 127 p. (ISBN 978-2-13-039880-6, OCLC 416641388, BNF 34905835). Histoire du développement des machines à vapeur depuis leur naissance au XVIIe siècle jusqu'aux travaux théoriques de Carnot ("Réflexions sur la puissance motrice du feu" - 1824) qui posent les fondements de la thermodynamque. Niveau premier cycle universitaire.
  • Anouk Barberousse, La mécanique statistique : de Clausius à Gibbs, Paris, Belin, coll. « Histoire des sciences », , 239 p. (ISBN 978-2-7011-3073-6, BNF 38945668).Cette collection originale propose une histoire du développement de la théorie cinétique des gaz basée sur des extraits des grands textes fondateurs (traduits en français) mis en perspective contemporaine par une historienne des sciences. Accessible dès le niveau premier cycle universitaire.
  • (en) Stephen G. Brush (Book 1. Physics and the atomists --Book 2. Statistical physics and irreversible processes.), The kind of motion we call heat : a history of the kinetic theory of gases in the 19th century, Amsterdam New York New York, North-Holland Sole distributors for the U.S.A. and Canada, Elsevier Science Pub. Co, coll. « North-Holland personal library. », , 467 p., 2 volumes (ISBN 978-0-444-87008-7 et 978-0-444-87009-4). Histoire érudite du développement de la théorie cinétique des gaz, par un professeur de Mécanique des Fluides de l'Université du Maryland (U.S.A.). Après une courte introduction générale (partie A), le premier volume adopte ensuite une approche classée par auteur (partie B). Le second volume (partie C) discute plus spécifiquement certains problèmes, et se termine par une bibliographie (partie D) qui renvoie à la littérature originale. Accessible dès le niveau premier cycle universitaire.
  • Peter M. Harman, Energy, Force & Matter - The Conceptual Developpments of 19th Century Physics, Cambridge University Press (1982) pp. ISBN . Histoire du développement de la physique au XIXe siècle. Accessible dès le niveau premier cycle universitaire.
  • (en) P. M. Harman, The natural philosophy of James Clerk Maxwell, Cambridge, UK New York, Cambridge University Press, , 232 p. (ISBN 978-0-521-00585-2, lire en ligne). La philosophie naturelle du professeur Maxwell, fondateur de la théorie de l'électrodynamique et auteur d'importantes contributions en théorie cinétique des gaz. Accessible dès le niveau premier cycle universitaire.
  • (en) Carlo Cercignani, Ludwig Boltzmann : the man who trusted atoms, Oxford New York, Oxford University Press, , 329 p. (ISBN 978-0-19-850154-1 et 978-0-198-57064-6, OCLC 38910156, lire en ligne). Biographie scientifique de Ludwig Boltzmann, qui a porté la théorie cinétique des gaz à son acmé. Niveau plutôt second cycle universitaire.
  • (en) Paul Ehrenfest et Tatiana Ehrenfest, The conceptual foundations of the statistical approach in mechanics, New York, Dover Publications, coll. « Dover books on physics and chemistry », , 114 p. (ISBN 978-0-486-16314-7, lire en ligne). Réédition d'un article classique paru initialement en 1912 (en allemand). Niveau second cycle universitaire.

Applications

  • (en) Jingfang Fan, Jun Meng, Josef Ludescher, Xiaosong Chen, Yosef Ashkenazy et al., « Statistical physics approaches to the complex Earth system », Physics Reports, vol. 896,‎ , p. 1-84 (DOI 10.1016/j.physrep.2020.09.005)

Articles connexes

Physique statistique d'équilibre

Physique statistique hors d'équilibre

Conférence

  • Conférence-débat De la physique statistique à l’intelligence artificielle , avec Marc Mézard (Inférence statistique et transitions de phases), physicien, directeur de l’École normale supérieure, Paris ; Lenka Zdeborová (Statistical physics modelling of machine learning), physicienne, chercheuse à l’Institut de Physique Théorique, CEA Saclay ; Romain Couillet (Théorie des matrices aléatoires et intelligence artificielle), physicien, professeur à CentraleSupélec, université Paris Saclay et Stéphane Mallat (Réseaux de Neurones Profonds et Physique Statistique Multiéchelles), mathématicien, professeur au Collège de France, membre de l’Académie des sciences  ; Conférences de l'Académie des sciences
v · m
Physique statistique
Formalisme
Ensembles statistiques
Statistiques quantiques
Potentiel
Condensats
Modèles
Physiciens
v · m
Index du projet probabilités et statistiques
Théorie des probabilités
Bases théoriques
Principes généraux
Convergence de lois
Calcul stochastique
Lois de probabilité
Lois continues
Lois discrètes
Mélange entre statistiques et probabilités
Interprétations de la probabilité
Théorie des statistiques
Statistiques descriptives
Bases théoriques
Tableaux
Visualisation de données
Paramètres de position
Paramètres de dispersion
Paramètres de forme
Statistiques inductives
Bases théoriques
Tests paramétriques
Tests non-paramétriques
Application
v · m
Branches de la physique
Catégories
Champs et ondes
Énergie et mouvement
Spécialités
Autres sciences
  • icône décorative Portail de la physique
  • icône décorative Portail des probabilités et de la statistique