F

MENUCours de Physique statistique

Dénombrement

Factorielle

La factorielle de l'entier \(n\) est noté \(n!\) et vaut \[ n!=n\times(n-1)\times(n-2)\times\ldots \times2\times1 \quad\text{avec par convention} \quad 0!=1 \] \(n!\) donne le nombre de permutations de \(n\) objets.

Exercice

Rép. — Combien y-a-t-il de façons de faire 421 avec trois dés ?

Il suffit de calculer le nombre de permutations de trois objets : 3!=6

Pour les grands nombres, il est possible d'approcher n! à l'aide de la formule de Stirling : \[ n!\mathop{\simeq}\limits_{n\to+\infty} \sqrt{2\pi n}\left(\frac{n}{e}\right)^{n} \quad \Rightarrow \quad \ln n! \mathop{\simeq}\limits_{n\to+\infty} n\ln n-n \]

Combinaison

Par définition, la combinaison de \(p\) parmi \(n\), notée \(C_{n}^{p}\) vaut \[ C_{n}^{p}=\frac{n!}{p!(n-p)!} \] Le nombre \(C_{n}^{p}\) donne le nombre de façons de prendre \(p\) objets parmi \(n\) (l'ordre des \(p\) éléments est sans importance.

Exercice

Quel est le nombre de façons de placer \(N\) billes indiscernables dans \(g\) boites ?

Rép. — Placer \(N\) billes dans \(g\) boites revient à former \(g-1\) séparations entre les billes. La question se reformule de la façon suivante : parmi les \(N+g-1\) objets (séparations + billes) combien y-a-t-il de manières d'en choisir \(N\) (billes) ? La réponse est alors évidente : \[\frac{(N+g-1)!}{N!(g-1)!} \]

Probabilités

Généralités

Dans de nombreux systèmes physiques, il est impossible de connaître avec une précision infinie le résultat d'une expérience. On peut citer différentes raisons :

On utilise alors la notion de probabilité.
Considérons une expérience dont le résultat n'est pas connu par manque d'information et que l'on peut répéter à l'identique \(N\) fois. Supposons que les résultats possibles fassent parti d'un ensemble d'événements \(\mathbb{E}=\{e_{1},e_{2},\ldots,e_{p}\}\). Si l'événement \(e_{i}\) se produit \(N_{i}\) fois après avoir réalisé \(N\) expériences identiques, on dit que l'événement \(e_{i}\) se produit avec une fréquence \(N_{i}/N\). Par définition, la probabilité que l'événement \(e_{i}\) se produise est la limite de la fréquence quand le nombre d'expériences tend vers l'infini : \[ P_{i}=\lim_{N\to \infty}\frac{N_{i}}{N}\quad\text{avec}\quad\left\{\begin{array}{cc} 0\leq P_{i}\leq 1 & \\ \displaystyle{\sum_{i}^{p} P_{i}}=1 &\text{(normalisation)} \\ \end{array}\right. \]

Lois de composition — La probabilité que l'un des deux événements \(e_{1}\) ou \(e_{2}\) se produisent lors d'une expérience vaut \[ P(e_{1} \cup e_{2})=P_{1}+P_{2}-P(e_{1}\cap e_{2}) \] De telle sorte que pour deux événements qui s'excluent mutuellement (événements disjoints ou incompatibles) on a \[ P(e_{1} \cup e_{2})=P_{1}+P_{2} \quad \text{si} \quad e_{1}\cap e_{2}=\{\emptyset\} \] La probabilité que deux événements \(e_{1}\) et \(e_2\) se produisent vaut \[ P(e_{1} \cap e_{2})=P(e_{1}|e_{2})P(e_{2}) \] où \(P(e_{1}|e_{2})\) désigne la probabilité conditionnelle de l'événement \(e_{1}\) sachant \(e_{2}\).

Exercice

Quelle est la probabilité P d'obtenir trois as en tirant trois cartes d'un jeu de trente deux cartes ?

Rép. — Appelons \(P_{1}\) la probabilité de tirer un as dans un jeu de 32 cartes, \(P_{2}\) la probabilité de tirer un as dans un jeu de 31 cartes sachant qu'un premier as a été tiré et enfin \(P_{3}\) la probabilité de tirer un as dans un jeu de 30 cartes sachant que deux as ont été tirés. D'après la loi ci-dessus, on a \[P=P_{1}P_{2}P_{3}\] Or, \(P_{1}=4/32\), \(P_{2}=3/31\) et \(P_{3}=2/30\), d'où \(P=\frac{1}{1240}\).

Pour deux événements indépendants on a \(P(e_{1}|e_{2})=P(e_{1})\) de telle sorte que \[ P(e_{1} \cap e_{2})=P_{1}\times P_{2} \]

Exercice

Quelle est la probabilité P d'obtenir un total de 5 en lançant deux dés indépendants ?

Rép. — On appelle \(e_{ij}\) l'événement associé au couple \((i,j)\) produit par le lancé de deux dés et \(e_{i}\) l'événement associé au fait de sortir le nombre \(i\) après le lancé d'un dé. On a \(P_{ij} = P_{i}P_{j} = \frac{1}{6}\times\frac{1}{6} = \frac{1}{36}\). Les événements pour lesquels le total vaut 5 sont \(e_{14}\), \(e_{41}\), \(e_{32}\) et \(e_{23}\). Ces quatre événements étant disjoints, on a \[ P=P_{14}+P_{41}+P_{23}+P_{32}=4\times\frac{1}{36}=1/9 \]

Enfin, si on connaît la probabilité d'un événement, on connaît alors la probabilité associée à l'événement complémentaire : \[P(\complement e_{1})=1-P_{1}\]

Variable aléatoire

On peut associer à un ensemble d'événements distincts des valeurs distinctes d'une variable aléatoire réelle \(x\) : \(\mathbb{E}\mapsto \mathbb{R} : e_{i}\mapsto x_{i}\). Par définition on notera \[P_{i}\stackrel{\text{def}}= P(x=x_{i})\] l'ensemble \((x,P(x))\) constitue la loi de probabilité et se représente à l'aide d'un histogramme. En physique, on a rarement accès à la loi de probabilité mais a des grandeurs qui sont liés à deux propriétés : la moyenne et l'écart-type.

Moyenne — Par définition, la moyenne (ou espérance) de la variable aléatoire \(x\) est notée \(\overline{x}\) et vaut

Espérance

\begin{equation} \overline{x}\stackrel{\text{def}}=\sum_{i}P_{i}x_{i} \end{equation}

De la même manière, la moyenne d'une fonction de la variable aléatoire \(x\) vaut

Moyenne d'une fonction

\begin{equation} \overline{f(x)}\stackrel{\text{def}}=\sum_{i}P_{i}f(x_{i}) \end{equation}

Écart-type — On quantifie la dispersion des tirages de \(x\) autour de la moyenne par l'écart-type \(\sigma_{x}\). L'écart-type est la racine carré de la variance \(\mathcal{V}(x)=\overline{(x-\overline{x})^{2}}=\overline{x^{2}}-\overline{x}^{2}\).

Ecart-type

\begin{equation} \sigma_{x}\stackrel{\text{def}}=\sqrt{\mathcal{V}(x)}= \sqrt{\overline{(x-\overline{x})}^{2}}= \sqrt{\overline{x^{2}}-\overline{x}^{2}} \end{equation}

Corrélations

Soient deux variables aléatoires \(x\) et \(y\). La probabilité pour que \(x=x_{i}\) et \(y=y_{j}\) vaut \[P(x_{i}\;\text{et}\;y_{j})=P(y_{j})\times P(x_{i}|y_{j})\] où \(P(x_{i}|y_{j})\) désigne la probabilité conditionnelle pour que \(x=x_{i}\) sachant que \(y=y_{j}\)

Variables indépendantes — Lorsque les variables sont indépendantes, \(P(x_{i}|y_{j})=P(x_{i})\). Comme conséquence on a par exemple \[ \overline{xy}= \sum_{i,j}P(x_{i})P(y_{j})x_{i}y_{j}=\sum_{i}P(x_{i})x_{i}\sum_{j}P(y_{j})y_{j}=\overline{x}.\overline{y} \] On dit alors que les variables \(x\) et \(y\) ne sont pas corrélées.

Exemple

Vitesses des particules dans un gaz parfait

Dans un gaz parfait, les particules étant indépendantes on peut affirmer que les vitesses de deux particules ne sont pas corrélées et donc que \[\overline{\overrightarrow{v_{i}}\cdot\overrightarrow{v_{j}}}= \overline{\overrightarrow{v_{i}}}\cdot\overline{\overrightarrow{v_{j}}}=0 \] par isotropie.

Variables corrélées — Lorsque \(\overline{xy}\neq\overline{x}.\overline{y}\) on dit que les variables sont . Pour mesurer le degré de corrélation, on définit la covariance : \[ \sigma_{xy}=\overline{xy}-\overline{x}.\overline{y} \]

Exemple

Interférences lumineuses

Si l'on reçoit sur un écran la lumière produite par deux sources, on obtient, en un point de l'écran une onde lumineuse d'amplitude complexe \(\Psi=\Psi_{1}+\Psi_{2}\) et donc un éclairement \(\mathcal{E}=\overline{\Psi\Psi^{\star}}\) (il s'agit ici d'une moyenne temporelle opérée par le détecteur). On obtient donc \[ \mathcal{E}=\mathcal{E}_{1}+\mathcal{E}_{2}+\overline{\Psi_{1}.\Psi_{2}^{\star}}+\overline{\Psi_{2}.\Psi_{1}^{\star}} \] Supposons que chaque source envoie des trains d'onde dont la phase varie de façon aléatoire sur une durée très petite devant le temps de réponse du détecteur. On peut donc écrire \(\overline{\Psi} = A\overline{e^{i\varphi}} = A(\overline{\cos\varphi}+i\overline{\sin\varphi})=0\) de telle sorte que :

Une figure d'interférence est donc la mesure d'une corrélation entre deux ou plusieurs sources qui seront alors dites cohérentes[1].

Somme de variables aléatoires

On est souvent confronté en physique statistique à des grandeurs qui résultent d'une somme de variables aléatoires microscopiques. Citons par exemple, l'énergie interne d'un gaz, l'aimantation d'un aimant, le déplacement d'un grain de pollen en suspension (mouvement brownien) etc. Considérons donc \[S=\sum_{i=1}^{N}x_{i}\] où les \(x_{i}\) sont des variables aléatoires. \(S\) est donc aussi une variable aléatoire pour laquelle on peut définir une loi de probabilité \(P(S)\), à priori nécessaire au calcul des grandeurs moyennes. Cependant, si les variables sont indépendantes, il suffit de connaître les lois de probabilité des \(x_{i}\). Par exemple, calculons la valeur moyenne \(\overline{S}\) et l'écart-type \(\sigma_{S}\) pour s'en convaincre. \[ \overline{S}=\overline{\sum_{i}x_{i}}=\sum_{i=1}^{N}\overline{x_{i}} \] car l'opération de moyenne est linéaire. Notons que cette relation est valide même si les variables sont dépendantes. Le calcul de la variance donne \[ \mathcal{V}(S)= \overline{S^{2}}-\overline{S}^{2}=\overline{\sum_{i,j}x_{i}x_{j}}-\left(\sum_{i=1}^{N}\overline{x_{i}}\right)^{2} \] D'une part, \[ \overline{\sum_{i,j}x_{i}x_{j}}=\sum_{i=1}^{N}\overline{x_{i}^{2}}+\sum_{i\neq j}\overline{x_{i}x_{j}} \] D'autre part, \[ \left(\sum_{i=1}^{N}\overline{x_{i}}\right)^{2}=\sum_{i=1}^{N}\overline{x_{i}}^{2}+\sum_{i\neq j} \overline{x_{i}}.\overline{x_{j}} \] Finalement, la variance de \(S\) est la somme des variances et des covariances : \[ \mathcal{V}(S)=\sum_{i}\sigma_{x_{i}}^{2}+\sum_{i\neq j}\sigma_{x_{i}x_{j}} \] On retiendra le cas particulier des variables indépendantes de même moyenne et de même écart-type :

À retenir

Si \(S\) est la somme de \(N\) variables aléatoires indépendantes de moyenne \(\overline{x}\) et d'écart-type \(\sigma\) on a : \[\begin{array}{ccc} \overline{S} &=& N\overline{x}\\ \sigma_{S} &=& \sqrt{N}\sigma \end{array} \] La variable \(S\) possède donc une dispersion relative qui tend vers 0 quand \(N\to\infty\) (si \(\overline{x}\neq 0\)) \[ \frac{\sigma_{S}}{\overline{S}}= \frac{\sigma/\overline{x}}{\sqrt{N}} \mathop{\longrightarrow}\limits_{N\to+\infty} 0 \quad\text{(loi des grands nombres)} \]

Les figures ci-dessous illustrent cette loi des grands nombres. On tire \(N\) fois une variable aléatoire à deux états équiprobables (\(x=0\) ou 1) puis on somme les valeurs. On répète l'expérience 100 fois et on trace l'évolution des résultats. On observe bien la décroissance de la dispersion relative autour de la moyenne lorsque \(N\) augmente.

Illustration de la loi des grands nombres
Tirage de 100 valeurs de la variable aléatoire \(S=\displaystyle{\sum_i^N x_i}\) avec $N=$ 10, 100 et 1000.

Théorème de la limite centrale — On dit qu'une variable \(x\) suit une loi gaussienne ou normale lorsque la loi de probabilité s'écrit \[P(x)=\frac{1}{\sigma \sqrt{2\pi}}e^{-\frac{(x-\overline{x})^{2}}{2\sigma^{2}}}\]

Théorème

La somme \(S\) de \(N\) variables aléatoires indépendantes de moyenne et variance finies suit une loi de probabilité qui tend, lorsque \(N\to \infty\), vers une distribution gaussienne de moyenne \(\overline{S}\) et d'écart-type \(\sigma_{S}\).

Ce théorème explique l'omniprésence de la loi gaussienne dans la nature : de nombreux phénomènes sont dus à l'addition d'un grand nombre de petites perturbations aléatoires (cf. figure ci-dessous).

Illustration du théorème de la limite centrale Illustration du théorème de la limite centrale
Théorème de la limite centrale : à gauche l’allure d’une gaussienne – à droite, l’illustration du théorème de la limite centrale sur l’exemple de la distribution binomiale.[cliquez pour agrandir]

Distribution binomiale

Considérons un jeu de pile ou face et notons \[ \begin{array}{lcr} p & = & \text{probabilité que pile sorte, } \\ q & = & \text{probabilité que face sorte.} \end{array} \quad\text{avec}\quad p+q=1 \] On joue \(N\) fois à ``pile ou face'' et l'on cherche la probabilité \(P(n,N)\) que pile sorte \(n\) fois. La probabilité de sortir \(n\) fois de suite ``pile'' puis de sortir \(N-n\) fois de suite ``face '' vaut \(p^{n}q^{N-n}\). Or il y a \(C_{N}^{n}\) façons de sortir \(n\) ``pile'' parmi les \(N\) lancés. Ainsi, la loi de distribution s'écrit

Distribution binomiale

\begin{equation} P(n,N)=\frac{N!}{n!(N-n)!}p^{n}q^{N-n} \end{equation}

On dit alors que \(n\) suit la loi binomiale (ou de Bernoulli) de paramètres \(N\) et \(P\).

Exercice

1000 personnes choisissent un nombre entier entre 1 et 100. Quel est la probabilité \(P\) pour qu'au moins deux personnes aient choisi le nombre 35 ?

Rép. — Notons \(P'\) la probabilité de l'événement complémentaire à savoir celle pour que 35 soit choisi par une personne au plus : \(P'=P(0,1000)+P(1,1000)\) avec \(p=1/100\) et \(q=99/100\). Ainsi \[ P'=p^{0}q^{1000}+1000pq^{999}=4,8.10^{-4} \quad\Rightarrow\quad P=99,95\% \]

On a bien \(\sum_{n}P(n,N)=1\) puisque \begin{equation} \sum_{n=0}^{N}C_{N}^{n}p^{n}q^{N-n}=(p+q)^{N}=1 \label{eq:1} \end{equation} Le nombre moyen \(\overline{n}\) se calcule comme suit \[ \overline{n}=\sum_{n=0}^{N}nP(n,N)=\sum_{n=0}^{N}nC_{N}^{n}p^{n}q^{N-n} \] Or en dérivant par rapport à \(p\) la relation \eqref{eq:1} on obtient \[ \begin{array}{ccc} \frac{\partial}{\partial p}\sum_{n}C_{N}^{n}p^{n}q^{N-n} &=& \frac{\partial}{\partial p}(p+q)^{N}\\ \sum_{n}nC_{N}^{n}p^{n-1}q^{N-n} & = & N(p+q)^{N-1} \\ \frac{1}{p}\sum_{n}nC_{N}^{n}p^{n}q^{N-n} & = & N \\ \end{array} \] On reconnaît dans le terme de gauche, \(\overline{n}/p\) d'où \[\overline{n}=Np\]

Distribution de poisson

La loi de Poisson est bien adaptée aux événements aléatoires et rares. On peut obtenir cette loi en considérant la distribution binomiale avec \(n \ll N\) grand et \(p\) très petit tout en gardant \(\overline{n}=Np\ll N\) fini non nul. Dans ce cas, on peut remplacer \(C_{N}^{n}\) par \[ C_{N}^{n}=\frac{N(N-1)(N-2)\cdots(N-n+1)}{n!}\simeq \frac{N^{n}}{n!} \quad\text{car}\quad n\ll N \] De plus, on a \[ \ln q^{N-n}=\ln(1-p)^{N-n}=(N-n)\ln(1-p)\simeq-Np \quad\text{car}\quad p\ll 1 \quad\text{et}\quad n\ll N \] Finalement la loi tend vers

Distribution de Poisson

\begin{equation} P_{\lambda}(n)=\frac{\lambda^{n}}{n!}e^{-\lambda} \quad\text{avec}\quad \lambda=\overline{n} \end{equation}

Exercice

La probabilité qu'un lapin soit albinos vaut \(p=1/1000\). Quelle est la probabilité \(P(3)\) de trouver 3 lapins dans un groupe de 1000 lapins ?

Rép. — Ici \(\lambda=1\) et donc \[ P_{1}(3)=\frac{1^{3}}{3!}e^{-1}\simeq 6\% \]

La loi de Poisson décrit bien les phénomènes de comptage lorsque :

Dans ce cas, la probabilité de détecter \(n\) événement vaut alors \[ P(n)=\frac{(t/\tau)^{n}}{n!}e^{-t/\tau} \]

Pour en savoir plus...

  1. J. Roussel Notion de cohérence[en ligne], 2019. Disponible sur femto-physique.fr