$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Résumé de cours : Équations différentielles linéaires

Dans la suite, $I$ désigne un intervalle de $\mathbb R$, $E$ un espace vectoriel normé de dimension finie $n$ et $\mathbb K$ désigne $\mathbb R$ ou $\mathbb C.$

Généralités

On appelle équation différentielle linéaire du premier ordre une équation de la forme $$x'(t)+a(t)\big(x(t)\big)=b(t)$$ où $a:I\to\mathcal L(E)$ et $b:I\to E$ sont deux fonctions continues. Résoudre l'équation différentielle, c'est déterminer les fonctions $x:I\to E$ dérivables qui satisfont l'équation précédente. Une telle fonction s'appelle une solution de l'équation.

L'équation différentielle homogène associée à l'équation différentielle précédente est l'équation $$x'(t)+a(t)\big(x(t)\big)=0.$$

Si $x_1$ est une solution de $$x'(t)+a(t)\big(x(t)\big)=b_1(t)$$ et $x_2$ est une solution de $$x'(t)+a(t)\big(x(t)\big)=b_2(t),$$ alors $x_1+x_2$ est une solution de $$x'(t)+a(t)\big(x(t)\big)=b_1(t)+b_2(t).$$ C'est le principe de superposition des solutions.

Si on introduit une base $\mathcal B=(e_1,\dots,e_n)$ de $E$ et en posant $A(t)$, $B(t)$ et $X(t)$ les matrices respectives de $a(t)$, $b(t)$ et $x(t)$ dans $\mathcal B$, alors l'équation différentielle $x'(t)+a(t)\big(x(t)\big)=b(t)$ se réécrit sous la forme d'un système différentiel : $$X'(t)+A(t)X(t)=B(t).$$

Résolution des problèmes de Cauchy

Soit $(t_0,x_0)\in I\times E$ et $x'(t)+a(t)\big(x(t)\big)=b(t)$ une équation différentielle linéaire. On appelle problème de Cauchy associé la détermination des solutions de l'équation différentielle vérifiant de plus $x(t_0)=x_0$.

Proposition (mise sous forme intégrale du problème de Cauchy) : Soit $a:I\to\mathcal L(E)$ et $b:I\to E$ deux fonctions continues, $x:I\to E$ dérivable et $(t_0,x_0)\in I\times E$. Alors les assertions suivantes sont équivalentes :
  1. $x$ est solution du problème de Cauchy $$\left\{\begin{array}{rcl} x'(t)+a(t)\big(x(t)\big)&=&b(t)\\ x(t_0)&=&x_0. \end{array}\right.$$
  2. $x$ vérifie : pour tout $t\in I$, $$x(t)=x_0+\int_{t_0}^t \Big(-a(u)\big(x(u)\big)+b(u)\Big)du.$$
Théorème de Cauchy linéaire : Soit $a:I\to\mathcal L(E)$, $b:I\to E$ deux fonctions continues et $(t_0,x_0)\in I\times E$. Alors le problème de Cauchy $$\left\{\begin{array}{rcl} x'(t)+a(t)\big(x(t)\big)&=&b(t)\\ x(t_0)&=&x_0 \end{array}\right.$$ admet une solution unique définie sur $I$.
Théorème (structure de l'ensemble des solutions) : Soit $a:I\to\mathcal L(E)$, $b:I\to E$ deux fonctions continues. L'ensemble des solutions $\mathcal S$ de l'équation différentielle linéaire homogène $$x'(t)+a(t)\big(x(t)\big)=0$$ est un sous-espace vectoriel de $\mathcal C^1(I,E)$ de dimension $n=\dim(E)$. De plus, l'application $x\mapsto x(t_0)$ est un isomorphisme de $\mathcal S$ sur $E$.
L'ensemble des solutions de l'équation complète $$x'(t)+a(t)\big(x(t))=b(t)$$ est un sous-espace affine de dimension $n=\dim(E)$.
Corollaire : Soit $a:I\to\mathcal L(E)$ une application continue et $\mathcal S$ l'ensemble des solutions de l'équation homogène $$x'(t)+a(t)\big(x(t)\big)=0.$$ Si $x_1,\dots,x_n$ sont des éléments de $\mathcal S,$ alors les assertions suivantes sont équivalentes :
  • la famille $(x_1,\dots,x_n)$ est une base de $\mathcal S$ ;
  • il existe $t_0\in I$ tel que $(x_1(t_0),\dots,x_n(t_0))$ est une base de $E$ ;
  • pour tout $t\in I,$ $(x_1(t),\dots,x_n(t))$ est une base de $E.$
Exponentielle de matrice

Soit $u\in\mathcal L(E)$. Alors la série $\sum_{n\geq 0}\frac{u^n}{n!}$ converge absolument. Sa somme s'appelle l'exponentielle de $u$ et est notée $\exp(u)$ ou $e^u$. De même, si $A\in\mathcal M_n(\mathbb K)$, la série $\sum_{n\geq 0}\frac{A^n}{n!}$ converge absolument et sa somme est appellée exponentielle de $A$ et est notée $\exp(A)$ ou $e^A.$

Ces deux notions sont liées par le résultat suivant : si $\mathcal B$ est une base de $E$ et $A$ est la matrice de $a$ dans $\mathcal B,$ alors $\exp(A)$ est la matrice de $\exp(a)$ dans $\mathcal B.$

Exemple : Si $A$ est la matrice diagonale $\textrm{diag}(\lambda_1,\dots,\lambda_n)$, alors $\exp(A)$ est la matrice diagonale $\textrm{diag}(e^{\lambda_1},\dots,e^{\lambda_n})$.
Théorème : L'application exponentielle vérifie les propriétés suivantes :
  • $A\mapsto \exp(A)$ est une application continue de $\mathcal M_n(\mathbb K)$ dans $\mathcal M_n(\mathbb K)$.
  • Si $A,B\in\mathcal M_n(\mathbb K)$ sont tels que $AB=BA$, alors $\exp(A+B)=\exp(A)\exp(B)$.
  • Pour tout $A\in\mathcal M_n(K),\ $, $\exp(A)$ est inversible et $(\exp(A))^{-1}=\exp(-A).$
  • Pour tout $A\in\mathcal M_n(\mathbb K)$, l'application $t\mapsto \exp(tA)$ est dérivable, de dérivée $t\mapsto A\exp(tA)=\exp(tA)A$.

On a un résultat similaire pour les exponentielles d'endomorphismes.

Proposition : Soit $A\in\mathcal M_n(\mathbb C)$. Si les valeurs propres de $A,$ comptées avec leur ordre de multiplicité, sont $\lambda_1,\dots,\lambda_n,$ alors les valeurs propres de $\exp(A)$ sont $\exp(\lambda_1),\dots,\exp(\lambda_n)$.
Systèmes différentiels homogènes à coefficients constants
Théorème : Soit $a\in\mathcal L(E)$, $t_0\in\mathbb R$ et $x_0\in E$. L'unique solution au problème de Cauchy $$\left\{ \begin{array}{rcl} x'(t)&=&a\big(x(t)\big)\\ x(t_0)&=&x_0 \end{array}\right.$$ est la fonction $t\mapsto \exp\big((t-t_0)a\big)(x_0)$.
Corollaire : Soit $a\in\mathcal L(E)$ diagonalisable, $(x_1,\dots,x_n)$ une base de vecteurs propres de $a$ associés respectivement à $\lambda_1,\dots,\lambda_n$. Notons $\varphi_i(t)=e^{\lambda_i t}x_i$. Alors $(\varphi_1,\dots,\varphi_n)$ est une base de l'espace vectoriel des solutions de l'équation homogène $x'=ax$.
Cas des équations différentielles scalaires d'ordre $n$

On appelle équation différentielle linéaire scalaire d'ordre $n$ définie sur $I$ toute équation de la forme $$x^{(n)}(t)=a_{n-1}(t)x^{(n-1)}(t)+a_{n-2}(t)x^{(n-2)}(t)+\dots+a_0(t)x(t)+b(t)$$ avec $a_0,\dots,a_{n-1}$ et $b:I\to \mathbb K$ des fonctions continues et $x:I\to\mathbb K$ une fonction inconnue $n$ fois dérivable sur $I$.

Traduction matricielle : Notons $X$ le vecteur $$X(t)=\left(\begin{array}c x(t)\\ x'(t) \\ \vdots \\ x^{(n-1)}(t)\end{array}\right)$$ et $A$, $B$ les matrices $$A(t)=\left( \begin{array}{ccccc} 0&1&0&\dots&\dots\\ 0&0&1&\ddots&\vdots\\ \vdots&\vdots&\ddots&\ddots&\vdots\\ 0&0&\dots&\dots&1\\ a_0(t)&a_1(t)&\dots&\dots&a_{n-1}(t) \end{array}\right),\quad B(t)=\left( \begin{array}{c} 0\\ 0\\ \vdots\\ \vdots\\ 0\\ b(t) \end{array}\right),$$ l'équation différentielle scalaire d'ordre $n$ $$x^{(n)}(t)=a_{n-1}(t)x^{(n-1)}(t)+a_{n-2}(t)x^{(n-2)}(t)+\dots+a_0(t)x(t)+b(t)$$ est "équivalente" au système $X'(t)=A(t)X(t)+B(t)$ au sens où $x$ est solution de l'équation scalaire si et seulement si c'est la première coordonnée de $X$ solution de l'équation vectorielle.

Soit une équation différentielle linéaire scalaire d'ordre $n$ $$x^{(n)}(t)=a_{n-1}(t)x^{(n-1)}(t)+a_{n-2}(t)x^{(n-2)}(t)+\dots+a_0(t)x(t)+b(t).$$ Soit également $(t_0,x_0,\dots,x_{n-1})\in I\times \mathbb K^n$. On appelle problème de Cauchy associé la détermination des solutions de l'équation différentielle vérifiant de plus $x(t_0)=x_0,\ x'(t_0)=x_1,\dots,\ x^{(n-1)}(t_0)=x_{n-1}$.

Théorème : Si $a_0,\dots,a_{n-1}$ et $b:I\to \mathbb K$ sont des fonctions continues, le problème de Cauchy $$\left\{ \begin{array}{l} x^{(n)}(t)=a_{n-1}(t)x^{(n-1)}(t)+a_{n-2}(t)x^{(n-2)}(t)+\dots+a_0(t)x(t)+b(t)\\ x(t_0)=x_0,\ x'(t_0)=x_1,\dots,\ x^{(n-1)}(t_0)=x_{n-1} \end{array} \right.$$ admet une solution unique.
Corollaire : Si $a_0,\dots,a_{n-1}$ et $b:I\to \mathbb K$ sont des fonctions continues, l'ensemble $\mathcal S_0$ des solutions de l'équation différentielle linéaire scalaire homogène d'ordre $n$ $$x^{(n)}(t)=a_{n-1}(t)x^{(n-1)}(t)+a_{n-2}(t)x^{(n-2)}(t)+\dots+a_0(t)x(t)$$ est un sous-espace vectoriel de dimension $n$. De plus, pour tout $t_0\in I,$ l'application $$\begin{array}{rcl} \mathcal S_0&\to&\mathbb K^n\\ x&\mapsto&(x(t_0),\dots,x^{(n-1)}(t_0)) \end{array} $$ est un isomorphisme d'espace vectoriel.

L'ensemble des solutions de l'équation avec second membre $$x^{(n)}(t)=a_{n-1}(t)x^{(n-1)}(t)+a_{n-2}(t)x^{(n-2)}(t)+\dots+a_0(t)x(t)+b(t)$$ est un sous-espace affine de dimension $n$.
Cas particulier des équations différentielles scalaires d'ordre 2

On considère une équation différentielle linéaire scalaire d'ordre $2$ $$x''(t)=a(t)x'(t)+b(t)x(t)+c(t)$$ où $a,b,c:I\to\mathbb K$ sont continues.

Soit $f,g$ deux solutions de l'équation homogène. On appelle wronskien de ces deux solutions l'application $$W:t\in I\mapsto \left| \begin{array}{cc} f(t)&g(t)\\ f'(t)&g'(t)\\ \end{array}\right|.$$

Théorème : Soit $(f,g)$ deux solutions de l'équation homogène. Les assertions suivantes sont équivalentes :
  • $(f,g)$ est une base de l'espace vectoriel des solutions de l'équation homogène ;
  • Pour tout $t\in I$, $W(t)\neq 0$ ;
  • Il existe $t\in I$ tel que $W(t)\neq 0$.
Théorème (méthode de variation des constantes) : Soit $(f,g)$ une base de l'espace vectoriel des solutions de l'équation homogène. Les solutions de l'équation avec second membre sont les fonctions qui s'écrivent $\lambda f+\mu g$ où $\lambda,\mu:I\to\mathbb K$ sont les fonctions dérivables vérifiant $$\left\{ \begin{array}{rcl} \lambda'(t) f(t)+\mu'(t)g(t)&=&0\\ \lambda'(t) f'(t)+\mu'(t)g'(t)&=&c(t). \end{array} \right. $$

Cas des équations à coefficients constants : on suppose qu'on a une équation homogène $$x''=ax'+bx$$ à coefficients constants. On introduit l'équation caractéristique $$r^2=ar+b.$$

  • Résolution sur $\mathbb C$ :
    • si l'équation caractéristique admet deux racines $r_1$ et $r_2$, alors les solutions de l'équation homogène $y''+ay'+by=0$ sont les fonctions $$x\mapsto \lambda e^{r_1 x}+\mu e^{r_2 x}\quad\textrm{ avec }\lambda,\mu\in\mathbb C.$$
    • si l'équation caractéristique admet une racine double $r$, alors les solutions de l'équation homogène $y''+ay'+by=0$ sont les fonctions $$x\mapsto (\lambda x+\mu)e^{rx}\quad\textrm{ avec }\lambda,\mu\in\mathbb C.$$
  • Résolution sur $\mathbb R$ :
    • si l'équation caractéristique admet deux racines réelles $r_1$ et $r_2$, alors les solutions de l'équation homogène $y''+ay'+by=0$ sont les fonctions $$x\mapsto \lambda e^{r_1 x}+\mu e^{r_2 x}\quad\textrm{ avec }\lambda,\mu\in\mathbb R.$$
    • si l'équation caractéristique admet une racine double $r$, alors les solutions de l'équation homogène $y''+ay'+by=0$ sont les fonctions $$x\mapsto (\lambda x+\mu)e^{rx}\quad\textrm{ avec }\lambda,\mu\in\mathbb R.$$
    • si l'équation caractéristique admet deux racines complexes conjuguées, $\alpha\pm i\beta$, alors les solutions de l'équation homogène sont les fonctions $$x\mapsto \lambda e^{\alpha x}\cos(\beta x)+\mu e^{\alpha x}\sin(\beta x)\quad\textrm{ avec }\lambda,\mu\in\mathbb R.$$