F

MENUCours de Physique statistique

On aborde ici les bases de la physique statistique. Pour la description des états microscopiques on adoptera le point de vue quantique qui a l’avantage de donner lieu à des états discrets et donc à une distribution discrète plus facilement compréhensible pour une première approche.

INTRODUCTION

Repères historiques

On peut dire que la physique statistique est née au milieu du 19ème siècle de l’hypothèse atomique et de la volonté d’expliquer les mystérieuses lois de la thermodynamique dans ce cadre. Parmi les physiciens du 19ème siècle, très peu d’entre-eux croient en cette hypothèse (contrairement aux chimistes). Clausius, Maxwell et Boltzmann font partie des rares physiciens acquis à cette cause.

Voici quelques repères historiques :

Quel est le propos de la physique statistique ?

La physique statistique est un des piliers de la physique moderne avec la mécanique quantique et la relativité. Son propos consiste à :

  1. Expliquer le comportement macroscopique à partir des propriétés microscopiques, lesquelles sont régies par les lois de la mécanique quantique. Nous verrons que la mécanique quantique se manifeste à notre échelle macroscopique de façon frappante par le biais de la physique statistique.
  2. Atteindre cet objectif par une approche statistique. Les concepts d’irréversibilité, d’entropie, de température, de pression, de potentiel chimique etc. sont en effet des propriétés émergentes de nature statistique.
  3. Donner un sens physique aux mystérieux principes de la thermodynamique.
  4. Faire des prévisions quantitatives. Contrairement à la thermodynamique (sans tables de valeurs expérimentales, la thermodynamique a un pouvoir prédictif essentiellement qualitatif), la physique statistique a un grand pouvoir prédictif.

En prime, la physique statistique utilise des concepts dont la portée dépasse le cadre de la physique : phénomènes collectifs, brisure de symétrie, transition de phase, marche aléatoire, simulation Monte-Carlo, ergodicité, groupe de renormalisation etc.

DESCRIPTION STATISTIQUE D’UN SYSTÈME ISOLÉ

Pourquoi une approche statistique ?

Considérons un système isolé et fermé contenant \(N\) molécules avec \(N\gg 1\). Pour décrire ce système on adopte un point de vue probabiliste pour plusieurs raisons :

  1. Il est impossible de résoudre les \(3N\) équations de Newton même avec un super-calculateur. À l’heure actuelle on sait faire de la Dynamique Moléculaire avec un maximum de \(N\sim 10^{11}\) particules.
  2. La thermodynamique nous enseigne que les propriétés macroscopiques ne dépendent que d’un petit jeu de variables (\(p\), \(V\), \(T\), \(N\), etc.). Les détails atomiques ont donc peu d’importance.
  3. Un système de \(N\) particules est un système chaotique extrêmement sensible aux conditions initiales de sorte qu’il est impossible de prévoir le futur de chaque particule au delà d’un horizon de prévisibilité \(\tau\ll 1\mu\)s pour un gaz dans les conditions standards. En d’autres termes, quand bien même on réussirait à résoudre les \(3N\) équations de Newton en temps réel il faudrait recommencer l’opération après quelques collisions moléculaires en ayant pris soin de mesurer les nouvelles conditions initiales. Finalement, cette sensibilité aux conditions initiales associée aux fluctuations extérieures rend le système amnésique : il perd la mémoire de son état initial ce qui rend caduque et sans intérêt une approche newtonienne (cf. [2]).

Toutes ces raisons nous poussent à adopter un traitement statistique.

Micro-états

Dans le cadre de la mécanique quantique, l’état d’un système isolé est décrit à l’aide d’une fonction d’onde \(\Psi\). L’état stationnaire est obtenu à l’aide de l’équation de Schrödinger : \[ \widehat{\mathrm{H}}\Psi=E\Psi \quad\text{avec}\quad \left\{ \begin{array}{rl} E &\text{Énergie du système} \\ \widehat{\mathrm{H}} & \text{Opérateur hamiltonien} \\ \Psi & \text{Fonction d'onde} \end{array}\right. \] Si le système présente \(\ell\) degrés de liberté, la fonction d’onde fera intervenir \(\ell\) nombres quantiques \((n_{1},n_{2},\ldots,n_{\ell})\). On notera \(\Psi_{\ell}\) un de ces états solution de l’équation de Schrödinger. Par définition, \(\Psi_{\ell}\) désigne un micro-état. On notera \(E_{\ell}\) l’énergie associée à \(\Psi_{\ell}\) qui dépendra des nombres quantiques.

Exemple 1 : particule dans une boite cubique

Considérons un atome de masse \(m\) dans une boite cubique d’arête \(a\). On montre en mécanique quantique que l’énergie est quantifiée et fait intervenir trois nombres quantiques (il y a trois degrés de liberté) : \[ E=\frac{h^{2}}{8ma^{2}}(n_{x}^{2}+n_{y}^{2}+n_{z}^{2}) \quad \text{avec} \quad (n_{x},n_{y},n_{z})\in \mathbb{N^*}^{3} \] Un micro-état est caractérisé par un triplet \((n_{x},n_{y},n_{z})\). On remarque ici qu’il existe différents micro-états pour lesquels l’énergie est la même. Par exemple les micro-états \(\Psi_{2,1,1}\), \(\Psi_{1,2,1}\) et \(\Psi_{1,1,2}\) correspondent à la même énergie \(3h^{2}/(4ma^{2})\). On dit que ce niveau d’énergie est dégénéré de dégénérescence \(g=3\).

Exemple 2 : Oscillateur à une dimension

On montre que l’état d’un oscillateur harmonique de fréquence propre \(\nu\) oscillant suivant une direction est décrit à l’aide d’un nombre quantique \(n\in \mathbb{N}\) (un seul degré de liberté). Son énergie est quantifiée et s’écrit : \[E_{n}=(n+1/2)h\nu \quad \text{avec} \quad h=6,626.10^{-34}\;\mathrm{J.s}\] Le niveau \(E_0\) représente le niveau fondamental de l’oscillateur. L’oscillateur est par exemple un bon modèle pour modéliser une liaison chimique.

Exemple 3 : particule de spin \(S\) dans un champ magnétique \(B\)

Plaçons une particule de spin \(S\) dans un champ magnétique \(\overrightarrow{B}\) suivant O\(z\). Rappelons que le spin est le moment cinétique propre de la particule et que sa composante axiale est quantifiée \[S_z=m_s\hbar\quad\text{avec}\quad m_s=-S,-S+1,...,S\] Le moment magnétique est relié au spin grâce au facteur gyromagnétique \[\mu_z=\gamma S_z\quad\text{avec}\quad \gamma=g\frac{e}{2m}\] où \(g\) désigne le facteur de Landé. Ainsi la particule possède une énergie magnétique \[E=-\overrightarrow{\mu}.\overrightarrow{B}=m_s \mu_0 B\] Par exemple, pour un électron, \(g\simeq 2\) et \(S=1/2\) de sorte que l’énergie d’un électron dans un champ magnétique dépend de l’état de spin (\(m_s=\pm 1/2\)) que l’on désigne par \(\uparrow\) ou \(\downarrow\).

Ordres de grandeur

Tous ces exemples montrent qu’à l’échelle microscopique, l’écart entre les différents niveaux d’énergie est extrêmement faible et qu’il est impossible –comme on le verra au § suivant– de contrôler l’énergie macroscopique à ce degré de précision.

Macro-états

Par définition, un macro-état est un état macroscopique défini par des contraintes externes définies à l’échelle macroscopique.

Exemple

Un système fermé isolé rigide est un système pour lequel l'énergie \(E\), le nombre de particules \(N\) et le volume \(V\) sont macroscopiquement fixés.

Fixer l’énergie, le volume, ou le nombre de particules avec une précision infinie n’a aucun sens :

Exemple

Une mouche se rapproche de l'infini à un mètre d'une bouteille d'eau de 1 L. Quel est l'ordre de grandeur de la variation d'énergie gravitationnelle produit sur le volume d'eau ?

L'eau perd une quantité d'énergie sous forme gravitationnelle \(\delta E=-\dfrac{\mathcal{G}m_{1}m_{2}}{r}\) avec \(m_{1}=1\) kg pour l'eau, \(m_{2}\sim 10^{-3}\) kg pour la mouche et \(\mathcal{G}\sim 10^{-10}\) [SI] d'où \[\delta E\sim -10^{-13}\;\mathrm{J}\] valeur négligeable à l'échelle macroscopique mais très importante à l'échelle microscopique.

À retenir

En conclusion on retiendra qu’un macro-état est toujours incomplètement préparé et qu’il existe toujours des fluctuations microscopiques qui échappent à toute modélisation.

Hypothèse ergodique

Ce dernier exemple montre que les fluctuations d’énergie \(\delta E\), négligeables à l’échelle macroscopique ne le sont pas du tout à l’échelle microscopique si on les compare à la discontinuité \(\epsilon\) : \[\delta E\gg \epsilon\] Ainsi, il existe de nombreux micro-états compatibles, dits micro-états accessibles, avec les contraintes macroscopiques. On conçoit alors que le système est le siège d’une dynamique très complexe et très rapide qui fait visiter au système, différents micro-états accessibles. L’information macroscopique étant de nature statistique, on cherchera à connaître la probabilité \(P_{\ell}\) pour que le système se trouve dans le micro-état \(\Psi_{\ell}\) compatible avec les contraintes macroscopiques.

Comment est défini \(P_{\ell}\) ? Imaginons que l’on suive en temps réel les explorations du système au sein des innombrables micro-état accessibles. Supposons que l’on puisse mesurer pendant un intervalle de temps \(\Delta t\) la durée \(\Delta t_{\ell}\) pendant laquelle le système s’est trouvé dans l’état \(\Psi_{\ell}\). Dans ce cas, \[P_{\ell}=\lim_{\Delta t\to \infty}\frac{\Delta t_{\ell}}{\Delta t}\]

On peut aussi raisonner en préparant \(\mathcal{N}\) systèmes identiques au niveau macroscopique. Au niveau microscopique, ils se trouvent, à un instant \(t\), dans des états quantiques différents. On compte le nombre \(\mathcal{N}_{\ell}\) de systèmes dans le micro-état \(\Psi_{\ell}\). On définit alors la probabilité \[P'_{\ell}=\lim_{\mathcal{N}\to \infty}\frac{\mathcal{N}_{\ell}}{\mathcal{N}}\] On dit qu’on fait une moyenne d’ensemble. Il est raisonnable de penser que les deux moyennes sont équivalentes ce qui revient à dire que le système visite au cours du temps tous les micro-états accessibles. Cette hypothèse que nous ferons par la suite est appelée hypothèse ergodique.

L’objet de la physique statistique est précisément de donner la loi de probabilité \(P_\ell\) en fonction des contraintes extérieures.

Dénombrement des micro-états

On considère un système fermé isolé indéformable (\(E\), \(N\) et \(V\) sont “fixés” à l’échelle macroscopique). On appelle \(\Omega\) le nombre de micro-états accessibles. Montrons sur l’exemple suivant quelques propriétés de \(\Omega\).

Exemple : Système de \(N\) spins discernables indépendants

Considérons un système isolé d’énergie \(E\), de \(N\) spins de moment magnétique \(\mu_{0}\) en présence d’un champ magnétique \(B\). Ici les paramètres d’état sont \(E\), \(N\) et \(B\). Notons \(n_{\uparrow}\) le nombre de spins \(\uparrow\) d’énergie \(-\mu_{0}B\) puis \(n_{\downarrow}\) celui de spins \(\downarrow\) d’énergie \(\mu_{0}B\) et supposons que l’énergie macroscopique soit fixée à \(E=n\mu_{0}B\). \[\left\{\begin{array}{rcl} n_{\downarrow}+n_{\uparrow} &=& N \\ E &=& \mu_{0}B(n_{\downarrow}-n_{\uparrow})=\mu_{0}B(2n_{\downarrow}-N) \end{array}\right.\] Par conséquent, fixer l’énergie revient à fixer \(n_{\downarrow}\). Le nombre de micro-états accessibles est donc le nombre de façons de choisir \(n_{\downarrow}\) spins parmi \(N\) spins : \[\Omega = C^{n_{\downarrow}}_{N} = \frac{N!}{n_{\downarrow}!(N-n_{\downarrow})!} = \frac{N!}{(N/2+E/(2\mu_{0}B))!(N/2-E/(2\mu_{0}B))!}\] On remarque que \(\Omega(E,N,B)\) est une fonction d’état c’est-à-dire fonction des contraintes macroscopiques extérieures. De plus, pour un système macroscopique (\(N\gg 1\)) avec un minimum de désordre (\(n_{\downarrow}\gg 1\) et \(n_{\uparrow}\gg 1\)), on a d’après l’approximation de Stirling \[\Omega\simeq 2^{N}e^{-\frac{n^{2}}{2N}}=2^{N}e^{-\frac{E^{2}}{2\mu_{0}^{2}B^{2}N}}\] de telle sorte que \[\ln \Omega=N\ln 2 - \frac{E^{2}}{2\mu_{0}^{2}B^{2}N}\] est une quantité extensive si \(E\) est extensive.

Remarque

En réalité, l'énergie \(E\) n'étant définie qu'à une incertitude \(\delta E\) près il faudrait calculer le nombre de micro-états accessibles \(\Omega\) en sommant sur tous les états possibles : \[ \Omega=\sum_{E<E_{\ell}<E+\delta E}\frac{N!}{(N/2+E_{\ell}/(2\mu_{0}B))!(N/2-E_{\ell}/(2\mu_{0}B))!} \] Le résultat dépend à priori de \(\delta E\), cependant —et il s'agit d'un résultat important— on peut montrer que pour un système macroscopique la quantité \(\ln \Omega\) est indépendante de \(\delta E\) (plus exactement, la dépendance en \(\delta E\) est négligeable) et reste toujours extensive. Autrement dit, les fluctuations microscopiques que nous ne contrôlons pas n'ont pas d'importance à l'échelle macroscopique.

À retenir

Pour la plupart des systèmes macroscopiques, la quantité \(\ln \Omega\) est une fonction d'état extensive. On dit que l'extensivité de \(\ln \Omega\) est une propriété émergente.

Postulat fondamental de la physique statistique

Énoncé

On a vu que dans un système isolé, les perturbations extérieures microscopiques imposent une dynamique chaotique qui fait passer très rapidement le système d’un état \(\Psi_{\{\ell_{1}\}}\) vers un état \(\Psi_{\{\ell_{2}\}}\). A priori, la transition \(\{\ell_{1}\}\to\{\ell_{2}\}\) est aussi probable que \(\{\ell_{2}\}\to\{\ell_{1}\}\). C’est pourquoi il est naturel de penser que le système explore tous les micro-états accessibles avec la même fréquence de telle sorte que la loi de distribution s’écrit \[P_{\ell}=C^{te}\] Étant donné qu’il y a \(\Omega\) micro-états accessibles et que \(\sum P_{\ell}=1\) on retiendra le principe suivant :

Postulat Fondamental

Tous les micro-états accessibles d'un système macroscopiquement isolé sont explorés avec la même probabilité \[P_{\ell}=\frac{1}{\Omega}\]

Entropie statistique

En 1877, Boltzmann a inventé une grandeur physique que nous noterons \(S\) :

Définition

\[ S\stackrel{\text{def}}= -k_{B}\sum_{\{\ell\}} P_{\ell}\ln P_{\ell} \]

avec \(k_B\) une constante, dite . \(S\) possède les propriétés suivantes :

  1. \(S\) est une grandeur positive.
  2. \(S=0\) quand \(P_{\ell}=1\) c’est-à-dire quand le système est figé dans un seul micro-état.
  3. Cette grandeur est –comme toute grandeur thermodynamique– une grandeur moyenne.
  4. Cette grandeur ne dépend que de la loi de distribution des micro-états \(P_{\ell}\). Au sens de la théorie de l’information, \(S\) est une mesure du manque d’information
  5. Lorsqu’on laisse évoluer un système isolé, Boltzmann a montré que \(S\) croît (théorème H).

Cette fonction est appelée entropie statistique et s’identifie à l’entropie thermodynamique lorsque \(N\to \infty\) à condition de poser \[ \fcolorbox{#FF9D00}{#FEF5EB}{\quad \(\displaystyle k_{B}=\frac{R}{N_\text{A}}\simeq 1,38.10^{-23}\;\mathrm{J.K^{-1}} \)\quad} \;\color{#FF9900}{\heartsuit} \]

Pour un système isolé, étant donné que \(P_{\ell}=\frac{1}{\Omega}\), la relation prend la forme célèbre (gravée sur la tombe de Boltzmann)

Entropie d'un système isolé

\[ S=k_{B}\ln\Omega \]

On voit donc que la fonction ainsi définie présente les mêmes propriétés que l’entropie thermodynamique, à savoir :

LA THERMODYNAMIQUE Revisitée

Voyons comment on peut justifier les lois de la thermodynamique à l’aide du concept d’entropie statistique.

Notion d’irréversibilité

Considérons un système isolé soumis à des contraintes macroscopiques \(E\), \(N\), \(V\), \(x\), où \(x\) désigne les autres contraintes éventuelles (champ magnétique, champ électrique, etc.). Le nombre de micro-états accessibles est, pour un système macroscopique fonction d’état : \[\Omega=\Omega(E,N,V,x)\] Supposons maintenant qu’on relâche une contrainte sans fournir de travail (le système reste donc isolé). Tous les états initialement accessibles le restent et de nouveaux micro-états deviennent accessibles. Ainsi si l’on note \(\Omega_{\text{i}}\) le nombre de micro-états initialement accessibles et \(\Omega_{\text{f}}\) le nombre de micro-état accessibles après le relâchement de la contrainte, on a : \[\Omega_{\text{f}}\geq \Omega_{\text{i}}\] Le système va donc explorer de nouveaux états jusqu’à les visiter de façon équiprobable : l’équilibre sera alors atteint. Notez que ce processus se fera sur une échelle de temps, qu’on appellera temps de relaxation, qui dépend du système considéré. Pour un gaz, ce temps est très court, de l’ordre de la nanoseconde. Ainsi à l’équilibre, on aura

Principe de l'entropie maximum

\[k_{B}\ln\Omega_{\text{f}}\geq k_{B}\ln\Omega_{\text{i}} \quad\Rightarrow\quad \Delta S=S_{\text{f}}-S_{\text{i}}\geq 0 \]

L'entropie d'un système isolé croît jusqu'à atteindre son maximum à l'équilibre.

Exemple : détente de Joule Gay-Lussac d'un gaz parfait

Considérons \(N\) atomes placés dans un volume \(V\) séparés d'un compartiment vide de même volume, par une séparation. Enlevons la séparation. Le volume disponible augmente alors (on relâche la contrainte sur le volume) sans varier l'énergie du système (pas de transfert mécanique ni thermique).

Détente de Joule-Gay Lussac
Détente de Joule Gay-Lussac

Pour simplifier, considérons que l'état d'une particule est décrit à l'aide de la variable \(x_{i}\) qui ne prend que deux valeurs suivant que la particule soit à gauche ou à droite : \[ \begin{cases} x_{i}=1 & \text{si la particule est à gauche }, \\ x_{i}=0 & \text{sinon}. \end{cases} \] L'ensemble \(\ell=(x_{1},x_{2},\ldots,x_{N})\) décrit un micro-état du système et tous ces micro-états sont équiprobables puisque chaque atome a autant de chance d'être à gauche qu'à droite. Le nombre de micro-états accessibles vaut \(\Omega_{\text{f}}=2^{N}\) alors qu'initialement il valait \(\Omega_{\text{i}}=1\) de sorte que l'entropie augmente de \[ \Delta S=Nk_{B}\ln 2=nR\ln 2 \] On retrouve le résultat prévu par la thermodynamique, à savoir \(\Delta S=nR\ln\frac{V_{\rm f}}{V_{\rm i}}=nR\ln 2\).

D’autre part, la probabilité que le système revienne dans son état initial vaut \(\Omega_{\text{i}}/\Omega_{\text{f}}\). Or, pour un système macroscopique, le relâchement d’une contrainte augmente le nombre de micro-états accessibles de façon gigantesque de sorte que \(\Omega_{\text{i}}/\Omega_{\text{f}}\simeq 0\) : l’évolution envisagée est si improbable qu’on peut la considérer impossible ; l’irréversibilité est de nature statistique !

Reprenons l'exemple précédent et calculons la probabilité pour que toutes les particules retournent à gauche : \[ P=\Omega_{\text{i}}/\Omega_{\text{f}}=2^{-N} \] Lorsque \(N=10^{23}\), on obtient \[ P=\frac{1}{2^{10^{23}}}=\frac{1}{1000000\ldots}\simeq 0 \] Pour apprécier combien \(2^{10^{23}}\) est un nombre extraordinairement grand, il suffit de se rendre compte que si l'on écrivait ce nombre en notation décimale à raison d'un chiffre tous les centimètres, on obtiendrait un nombre long d'environ trois millions d'année-lumière !!! C'est pourquoi, même si la transformation est statistiquement possible, elle est en réalité inobservable.

Notion de température

Equilibre thermique
Équilibre thermique

Considérons un système isolé A d’énergie \(E\) constitué de deux systèmes A\(_1\) et A\(_2\) en contact thermique, c’est-à-dire pouvant échanger de l’énergie non pas macroscopiquement mais via des échanges microscopiques (que nous appellerons transfert thermique \(Q\)). Ainsi les énergies \(E_1\) et \(E_2\) peuvent fluctuer librement, la seule contrainte étant que \(E=E_1+E_2\).

Remarque

La relation \(E=E_{1}+E_{2}\) suppose que A\(_{1}\) et A\(_{2}\) sont indépendants ce qui n'est pas le cas puisqu'il y a interaction au niveau de l'interface. Cette interaction concerne des particules situées au voisinage de l'interface dans une tranche d'épaisseur \(\xi\) où \(\xi\) désigne la longueur de corrélation. Ces particules sont en nombre négligeable devant \(N\) quand \(\xi\ll L\). Tout ce que l'on dira par la suite se placera dans ce contexte, que l'on appelle limite thermodynamique. On notera qu'en général cette condition est vérifiée à l'échelle macroscopique car \(\xi\) est de l'ordre de quelques distances inter-atomiques. Cependant, au voisinage d'un point critique d'une transition de phase, \(\xi\) diverge ce qui invalide l'approximation thermodynamique.

Cherchons la condition d’équilibre macroscopique. Le nombre de micro-états du système A s’écrit \[\Omega(E)=\sum_{E_1}\Omega_1(E_1)\times\Omega_2(E-E_1)\] Tous les micro-états de A étant équiprobables, la probabilité pour que le système A\(_1\) soit dans un état d’énergie \(E_1\) s’écrit \[P_1(E_1)=\frac{\Omega_1(E_1)\times\Omega_2(E-E_1)}{\Omega(E)}=C^{te}\Omega_1(E_1)\times\Omega_2(E-E_1)\]

Exemple : Système de cinq spins

Considérons un spin 1/2 \(\mathcal{S}_{1}\) en équilibre thermique avec un système \(\mathcal{S}_{2}\) de quatre spins indépendants le tout formant un système \(\mathcal{S}\) isolé et plongeant dans un champ magnétique \(B\) uniforme et constant. De plus les spins possèdent un moment magnétique identique \(\mu_{0}\). Supposons que l'énergie du système \(\mathcal{S}\) soit égal à \(E=-3\mu_{0}B\). Quelle est alors la probabilité pour que le spin \(\mathcal{S}_{1}\) soit dans un état d'énergie \(E_{1}=-\mu_{0}B\), c'est-à-dire possède un spin \(\uparrow\) ?
Listons tous les micro-états accessibles : \[ \left. \begin{array}{ccccccc} \color{red}{\uparrow} & | &\uparrow & \uparrow &\uparrow & \downarrow & \text{1er micro-état accessible}\\ \color{red}{\uparrow} & | &\uparrow & \uparrow & \downarrow & \uparrow & \text{2ème micro-état accessible}\\ \color{red}{\uparrow} & | &\uparrow & \downarrow & \uparrow &\uparrow & \text{3ème micro-état accessible}\\ \color{red}{\uparrow} & | & \downarrow &\uparrow & \uparrow &\uparrow & \text{4ème micro-état accessible}\\ \color{red}{\downarrow} & | &\uparrow & \uparrow &\uparrow & \uparrow & \text{5ème micro-état accessible}\\ \end{array} \right. \] D'après le principe fondamental de la physique statistique, tous ces micro-états sont équiprobables et l'on rencontre quatre configurations dans lesquelles le spin \(\mathcal{S}_{1}\) est dans l'état \(\uparrow\). On a donc \(P_{1}(E_{1})=4/5\). On a bien \[ P_{1}(E_{1})=\frac{\Omega_1(E_1)\times\Omega_2(E-E_1)}{\Omega(E)}=\frac{1\times 4}{5} \]

D’autre part, pour un système macroscopique, on sait que la fonction \(\Omega_1(E_1)\) est une fonction qui croit extrêmement rapidement et que la fonction \(\Omega_2(E-E_1)\) décroît elle aussi de façon extrêmement rapide de telle sorte que le produit donne une fonction extrêmement piquée, en réalité une gaussienne. L’état d’équilibre thermodynamique correspond aux états les plus probables, c’est-à-dire ceux pour lesquels \(\Omega_1(E_1)\times\Omega_2(E-E_1)\) est maximum. Dérivons donc \(k_{B}\ln(\Omega_1(E_1)\times\Omega_2(E-E_1))\) par rapport à \(E_1\) : \[\frac{\partial}{\partial E_1}\left(k_{B}\ln(\Omega_1(E_1)\times\Omega_2(E-E_1))\right)= \frac{\partial S_1}{\partial E_1}- \frac{\partial S_2}{\partial E_2}\] Ainsi la condition d’équilibre s’écrit \[\dfrac{\partial S_1}{\partial E_1} = \dfrac{\partial S_2}{\partial E_2}\] On définit alors la température statistique \(T\) par la relation

Définition de la température

\[ \frac{1}{T}\stackrel{\text{def}}=\frac{\partial S}{\partial E} \quad \Rightarrow \quad T_1=T_2 \quad \text{[équilibre thermique]} \]

On peut noter que :

  1. La température est une propriété intrinsèque à chaque système et est indépendante de l’environnement.
  2. Qu’il s’agit d’une grandeur moyenne puisque l’entropie est une grandeur moyenne. Contrairement à l’énergie, la température n’a aucun sens à l’échelle microscopique.
  3. On montrera que cette échelle se confond avec l'échelle des kelvins si l'on pose \(k_B=R/N_\text{A}\). Dans le nouveau SI (2018) la constante de Boltzmann est fixée : \[ k_B=1{,}380~649\cdot 10^{-23}\,\mathrm{J.K^{-1}} \]

Notion de pression

Equilibre mécanique
Équilibre mécanique et thermique.

Considérons un système isolé A d’énergie \(E\) constitué de deux systèmes A\(_1\) et A\(_2\) en contact thermique et mécanique, c’est-à-dire pouvant échanger de l’énergie macroscopique via un piston par exemple et de l’énergie microscopique (transfert thermique \(Q\)). Ainsi les énergies \(E_1\) et \(E_2\) ainsi que les volumes \(V_1\) et \(V_2\) peuvent fluctuer à condition de respecter les contraintes \(E=E_1+E_2\) et \(V_1+V_2=V\). Cherchons la condition d’équilibre macroscopique en procédant de la même façon que précédemment. Le nombre de micro-états du système A s’écrit \[\Omega=\sum_{E_1,V_1}\Omega_1(E_1,V_1)\times\Omega_2(E-E_1,V-V_1)\] Tous les micro-états de A étant équiprobables, la probabilité pour que le système A\(_1\) soit dans un état d’énergie \(E_1\) et de volume \(V_1\) s’écrit \[P_1(E_1,V_1) = \frac{\Omega_1(E_1,V_1)\times\Omega_2(E-E_1,V-V_1)}{\Omega} = C^{te}\Omega_1(E_1,V_1)\times\Omega_2(E-E_1,V-V_1)\] Là encore, du point de vue macroscopique, l’état observé est infiniment proche de l’état le plus probable obtenu en maximisant \(P_1\). En dérivant \(k_B\ln P_1\) par rapport à \(E_1\) et \(V_1\) on obtient \[\left\{\begin{array}{ccc} \dfrac{\partial}{\partial E_1}\left(k_{B}\ln(\Omega_1(E_1,V_1)\times\Omega_2(E_2,V_2))\right) &=& \dfrac{\partial S_1}{\partial E_1}- \dfrac{\partial S_2}{\partial E_2}=0 \\[4mm] \dfrac{\partial}{\partial V_1}\left(k_{B}\ln(\Omega_1(E_1,V_1)\times\Omega_2(E_2,V_2))\right) &=& \dfrac{\partial S_1}{\partial V_1}- \dfrac{\partial S_2}{\partial V_2}=0 \\ \end{array}\right.\] Ainsi la condition d’équilibre s’exprime \[\left\{\begin{array}{ccc} \dfrac{\partial S_1}{\partial E_1} &=& \dfrac{\partial S_2}{\partial E_2}\\[3mm] \dfrac{\partial S_1}{\partial V_1} &=& \dfrac{\partial S_2}{\partial V_2} \end{array}\right.\] On retrouve la condition d’égalité des températures (équilibre thermique) et on trouve une nouvelle condition qui correspond à l’équilibre mécanique. Une analyse dimensionnelle montre que \[\left[\frac{\partial S}{\partial V}\right]=\left[\frac{E}{TL^3}\right]= \left[\frac{F}{TL^2}\right]=\frac{\text{pression}}{\text{température}}\] C’est pourquoi, par définition, la pression d’équilibre \(p\) d’un système thermodynamique est donnée par

Définition de la pression

\[\frac{p}{T}\stackrel{\text{def}}=\frac{\partial S}{\partial V}\quad\Rightarrow\quad p_1=p_2 \quad \text{[équilibre mécanique]}\]

On peut faire les mêmes remarques que pour la température :

  1. L’équation précédente est une équation d’état caractéristique du système à l’équilibre quelque soit l’environnement.
  2. La pression est aussi une grandeur moyenne qui n’a aucun sens à l’échelle microscopique.

Identités thermodynamiques

Résumons ce que nous avons trouvé concernant les systèmes fermés constitués d’un nombre de particules fixé à l’équilibre dans la limite thermodynamique :

  1. Tout d’abord, l’entropie \(S(E,V,N)\) est une fonction d’état puisque \(\Omega\) en est une.
  2. Cette fonction d’état est extensive.
  3. Lorsque les paramètres d’état varient de façon l’entropie varie de \[\text{d}S(E,V) = \frac{\partial S}{\partial E}\text{d}E+\frac{\partial S}{\partial V}\text{d}V = \frac{1}{T}\text{d}E+\frac{p}{T}\text{d}V\] En d’autres termes, on retrouve la formulation différentielle du premier et du second principe : \[\text{d}E=T\text{d}S-p\text{d}V\]

Généralisation

Si le système contient des particules différentes dont le nombre peut fluctuer (à cause d’une réaction chimique par exemple), on obtient l’identité \[\text{d}S(E,V,N_{i})=\frac{1}{T}\text{d}E+\frac{p}{T}\text{d}V-\sum_{i}\frac{\mu_{i}}{T}\text{d}N_{i} \quad \text{avec} \quad \frac{\mu_i}{T}=-\left.\frac{\partial S}{\partial N_i}\right|_{E,V,N_{j\neq i}}\] D’où l’identité thermodynamique \[\text{d}E=T\text{d}S-P\text{d}V+\sum_i\mu_i\text{d}N_i\] avec \(\mu_{i}\) le potentiel chimique associé à chaque espèce chimique. On peut montrer que l’équilibre thermodynamique se caractérise aussi par l’égalité des potentiels chimiques.

Pour en savoir plus...

  1. B. Diu et al. Physique statistiqueHermann, 1989.
  2. R. Julien De la réversibilité microscopique à l'irréversibilité macroscopique : une expérience numérique illustrative BUP№768, nov. 1994.