En mécanique, les problèmes que l’on peut résoudre exactement correspondent assez souvent à des phénomènes fortement idéalisés. Lorsque l’on cherche une description plus réaliste, on aboutit en général à un jeu d’équations non solubles analytiquement. Cependant, il n’est pas rare que parmi les effets physiques considérés, certains soient mineurs devant les autres. C’est le cas en mécanique céleste par exemple, où l’étude de la trajectoire d’une planète est essentiellement le résultat de l’attraction du Soleil, les autres astres jouant un rôle perturbateur. D’un point de vue mathématique, la formalisation du problème aboutit alors à une équation différentielle avec un ou plusieurs termes perturbateurs. Nous proposons ici d’introduire une méthode, dite méthode des perturbations, qui permet d’approcher analytiquement la solution dans ce contexte.
Principe général
Illustration sur un exemple
Pour illustrer notre propos, considérons le problème de la chute avec frottement quadratique. Depuis une hauteur \(h\), on lâche un corps de masse \(m\) dans le champ de pesanteur \(g\), ceci dans l'air qui offre une résistance que l'on modélise par une force \(f=\beta v^2\). Rappelons l’équation du mouvement :
\[
\frac{\text{d}v}{\text{d}t} = g-\frac{\beta}{m} v^{2}\quad \text{avec}\quad v(0) = 0
\]
où \(v\) est la vitesse du corps. Supposons de plus que la hauteur de chute \(h\) soit suffisamment petite pour que les forces de frottement soient faibles devant le poids. Le principe de la méthode consiste d’abord à négliger la perturbation et résoudre l’équation : on obtient une première solution \(v_0(t)\). Ensuite, on remplace dans le terme perturbateur, \(v\) par l’approximation \(v_0\). On admet alors que l’erreur produite dans cette opération, d’une part est atténuée car intervenant seulement dans le terme perturbateur
qui reste petit, et d’autre part a un effet petit sur le résultat. On résout à nouveau l’équation différentielle pour obtenir \(v_1\), solution perturbée d’ordre 1. On pourrait continuer l’opération plusieurs fois mais en général on s’arrête à l’ordre 1 ou 2. Voyons ici ce que donne un développement perturbatif à l’ordre 1 :
\[ \left\{\begin{array}{lcl}
\dfrac{\mathrm{d} v_0}{\mathrm{d} t} = g & \quad\Longrightarrow\quad & v_0(t)=gt \\[3mm]
\dfrac{\mathrm{d} v_1}{\mathrm{d} t} = g-\dfrac{\beta}{m} \left(v_0\right)^{2} & \quad\Longrightarrow\quad & v_1(t)=gt-\dfrac{\beta g^{2}}{3m}t^{3}
\end{array}\right.
\]
Ici on connaît la solution exacte[1], elle s'écrit \[ v(t)=\sqrt{\frac{mg}{\beta}}\tanh\left(\sqrt{\frac{\beta g}{m}}t\right) \] On remarque que la solution approchée \(v_1\) correspond au développement limité de la solution exacte à l'ordre 4 au voisinage de \(t=0\) : \[ v(t)=\sqrt{\frac{mg}{\beta}}\tanh\left(\sqrt{\frac{\beta g}{m}}t\right)=gt-\frac{\beta g^{2}}{3m}t^{3}+{\cal O}(t^{5}) \]
La solution approchée \(v_1(t)\) est donc à retenir tant que le terme d'ordre 5 est négligeable devant le terme d'ordre 3, c'est-à-dire tant que \(t^{2}\ll 5m/(2\beta g)\). En terme de hauteur ce la donne \(h\simeq 1/2 gt^{2}\ll 5m/(4\beta)\).
Méthode des perturbations à l'ordre un
La démarche précédente peut se généraliser à l'ordre \(n\) mais on retiendra le schéma général de la méthode des perturbations à l'ordre un :
Méthode des perturbations au premier ordre
Considérons une équation différentielle de la forme \[ \dot{y} = f(t,y(t))+\epsilon g(t,y(t)), \quad \text{avec}\quad y(0) = y_{0} \] où \(\epsilon\) est un paramètre suffisamment petit pour que l'on puisse considérer le terme \(\epsilon g(t,y(t))\) comme une perturbation. La méthode consiste à rechercher une solution de la forme \(y=y_0+\epsilon y_1\) et à remplacer \(y\) par \(y_0\) dans le terme perturbateur. On obtient alors : \[ \frac{\text{d}y_0}{\text{d}t}+\epsilon \frac{\text{d}y_1}{\text{d}t} = f(t,y_0+\epsilon y_1)+\epsilon g(t,y_0), \quad \text{avec}\quad y_0(0)+\epsilon y_1(0) = y_{0} \] Procédant à un développement de \(f\) à l'ordre 1 au voisinage de \(y_0\), on obtient \[ \frac{\text{d}y_0}{\text{d}t}+\epsilon \frac{\text{d}y_1}{\text{d}t} = f(t,y_0)+\epsilon y_1f'_{y}(t,y_0)+\epsilon g(t,y_0), \quad \text{avec}\quad y_0(0)+\epsilon y_1(0) = y_{0} \] équation qui doit être valable pour tout \(\epsilon\) proche de zéro. On obtient alors deux équations différentielles : \begin{align} \frac{\text{d}y_0}{\text{d}t} & = f(t,y_0(t)), & \text{avec} \quad y_0(0)=y_{0}\notag\\ \frac{\text{d}y_1}{\text{d}t} & = y_1f'_{y}(t,y_0)+ g(t,y_0), & \text{avec} \quad y_1(0) = 0 \notag \end{align} Si l'on sait résoudre la première équation (solution non perturbée), alors la deuxième équation est une équation différentielle linéaire avec second membre.
La méthode des perturbations est à utiliser avec précaution :
- À l'ordre 1, elle repose tout d'abord sur l'hypothèse \(\epsilon y_1(t)\ll y_0(t)\) qui n 'est en général pas vérifiée pour tout \(t\). La solution a donc un domaine de validité restreint que l'on peut estimer à l'aide d'arguments physiques ou mathématiques.
- Le développement perturbatif à l'ordre \(n\) (\(y=y_0+\epsilon y_1+...+\epsilon^{n}y_n\)) ne converge pas toujours lorsque \(n\to\infty\). Cependant, même dans ce cas, il peut donner d'excellents résultats si l'on se limite à un ordre petit; c'est ce qui fait toute la puissance de cette méthode. Par exemple, en théorie quantique des champs, le moment magnétique de l'électron a été déterminé avec une précision de \(10^{-11}\), par une méthode perturbative à l'ordre 3, en excellent accord avec l'expérience, alors même que la série perturbative diverge.
Cas des oscillateurs
Dans le cas des systèmes oscillants non linéaires, il arrive souvent que la méthode précédente fasse apparaître des phénomènes de résonance qui n'ont aucun sens physique. On utilise alors la méthode de Lindstedt.
Méthode de Lindstedt
Supposons que nous voulions résoudre analytiquement l'équation différentielle d'un oscillateur non linéaire contenant un terme anharmonique suffisamment petit pour le traiter comme une perturbation. La méthode des perturbations classique a cependant le défaut de produire des solutions divergentes lorsqu'il n'y a pas de terme dissipatif, à cause du phénomène de résonance. Pour éviter ces divergences sans aucun sens physique, Lindstedt a proposé la méthode perturbative suivante.
Méthode de Lindstedt
- Cherchant des solutions oscillantes, on définit une pulsation \(\omega=\omega_{0}+\epsilon \omega_{1}+\epsilon^{2}\omega_{2}\ldots\) où les \(\omega_{i}\) sont des paramètres à trouver.
- On remplace le temps \(t\) par la nouvelle variable \(\varphi=\omega t\).
- On cherche la solution sous la forme \(x(\varphi)=x_{0}(\varphi)+\epsilon x_{1}(\varphi)+\epsilon^{2} x_{2}(\varphi)+\ldots\), où les \(x_{i}(\varphi)\) sont des fonctions inconnues.
- Par substitution dans l'équation différentielle, on obtient \(n+1\) équations différentielles linéaires si l'on décide de faire un développement perturbatif à l'ordre \(n\).
- On résout chaque équation de manière itérative en commençant par la recherche de \(x_{0}(\varphi)\). Lors de cette résolution, les \(\omega_{i}\) sont choisis de façon à annuler les phénomènes de résonance.
Illustration avec l'oscillateur de Duffing
Prenons l'exemple de l'oscillateur de Duffing pour illustrer la méthode de Lindstedt. Cet oscillateur vérifie l'équation différentielle \[\ddot{x}+\omega_{0}^{2}x+\epsilon x^{3}=0 \quad\text{avec}\quad \left\{\begin{array}{ccc} x(0) & = & A\\ \dot{x}(0) & = & 0 \end{array}\right.\] où le terme non linéaire \(\epsilon x^{3}\) est suffisamment petit pour justifier l'emploi d'une méthode perturbative. Contentons nous d'un développement perturbatif à l'ordre un. On pose donc \[ \omega=\omega_{0}+\epsilon\omega_{1} \quad\text{puis}\quad \varphi=\omega t \] Sachant que \(\ddot{x}=\omega^{2}x''(\varphi)\), l'équation différentielle devient, en omettant les termes d'ordre supérieur à un : \[\left(\omega_{0}^{2}+2\epsilon\omega_{0}\omega_{1}\right)x''(\varphi)+\omega_{0}^{2}x(\varphi)+\epsilon x^{3}(\varphi)=0\] Cherchant la solution sous la forme du développement perturbatif \(x(\varphi)=x_{0}(\varphi)+\epsilon x_{1}(\varphi)\), on obtient, après substitution, deux équations différentielles :
L'équation différentielle (1) est celle d'un oscillateur harmonique : \[x_{0}(\varphi)=A\cos\varphi\] En utilisant ce résultat et l'identité \(\cos^{3}x=1/4\cos 3x+3/4\cos x\), l'équation (2) se réécrit \[x_{1}''(\varphi)+x_{1}(\varphi)=\cos\varphi\left(\frac{2\omega_{1}A}{\omega_{0}}-\frac{3A^{3}}{4\omega_{0}^{2}}\right)-\frac{A^{3}}{4\omega_{0}^{2}}\cos 3\varphi \] Il s'agit ici de l'équation d'un oscillateur harmonique soumis à une excitation périodique. Or, le terme \(\cos\varphi\left(2\omega_{1}A/\omega_{0}-3A^{3}/4\omega_{0}^{2}\right)\) est responsable d'une résonance qu'il faut éliminer si l'on veut éviter une solution divergente. On doit donc imposer \[\frac{2\omega_{1}}{\omega_{0}}A-\frac{3A^{3}}{4\omega_{0}^{2}}=0 \quad\Longrightarrow\quad \omega_{1}=\frac{3A^{2}}{8\omega_{0}} \] Ainsi, une fois les problèmes de divergence éliminés, l'équation \ref{eq:C6Lindstedt2} s'écrit \[ x_{1}''(\varphi)+x_{1}(\varphi)=-\frac{A^{3}}{4\omega_{0}^{2}}\cos 3\varphi \quad\text{avec}\quad \left\{\begin{array}{ccc} x_{1}(0) & = & 0\\ x'_{1}(0) & = & 0 \end{array}\right.\] Equation différentielle linéaire qui se résout sans difficulté[1] : \[x_{1}(\varphi)=\frac{A^{3}}{32\omega_{0}^{2}}(\cos 3\varphi-\cos\varphi)\] Finalement, la méthode des perturbation à l'ordre un donne comme résultat analytique :
Cette approximation est d'autant plus proche de la solution que le terme non linéaire est petit devant le terme harmonique, c'est-à-dire lorsque \(|\epsilon| A^{3}\ll \omega_{0}^{2}A\). La figure ci-dessous compare cette solution avec la solution numérique obtenue par la méthode d'Euler : on constate un désaccord de plus en plus prononcé au cours du temps, dû à l'erreur de troncature produite par l'approximation \(\omega\simeq\omega_{0}+\epsilon\omega_{1}\). Ce désaccord se prononce d'autant plus vite que \(\epsilon\) augmente.
Application : le pendule simple
Une application du calcul précédent est la détermination de la période du pendule simple en fonction de l'amplitude \(\theta_{\textrm{max}}\) des oscillations. En effet, pour les angles suffisamment petits, \(\sin(\theta)\simeq\theta-\theta^{3}/6\) de sorte que l'équation du pendule simple se ramène à l'équation de l'oscillateur de Duffing avec \(\epsilon=-\omega_{0}^{2}/6\;:\) \[\ddot{\theta}+\omega_{0}^{2}\theta-\frac{\omega_{0}^{2}}{6}\theta^{3}=0\] Le résultat de la méthode de Lindstedt à l'ordre un prévoit que \(\theta(t)\) oscille à la pulsation \[\omega=\omega_{0}+\epsilon\omega_{1}=\omega_{0}\left(1-\frac{\theta^{2}_{\textrm{max}}}{16}\right)\] ce qui donne une période des oscillations
Formule de Borda
\[ T\simeq T_{0}\left(1+\frac{\theta_{\textrm{max}}^{2}}{16}\right) \]On trouve ici la célèbre formule de Borda en l’honneur de Jean-Charles de Borda (1733–1799) qui l'obtint de manière empirique. On peut montrer qu'elle produit une erreur relative inférieure à \(10^{-3}\) si l'on impose \(\theta_{\textrm{max}}\) < 40°[2].
Pour en savoir plus...
- Résoudre une équation différentielle[En ligne], 2014. Disponible sur femto-physique.fr
- Période du pendule simple[en ligne], 2016. Disponible sur femto-physique.fr