$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Accélération de convergence

Soit une suite $(u_n)$ dont on a réussi à prouver la convergence vers une limite $\ell$. Bien souvent, il est important d'avoir une valeur approchée de cette limite $\ell$. On peut bien sûr l'obtenir avec la suite $(u_n)$, mais on va chercher à calculer le moins de termes possibles pour une approximation donnée afin :

  • d'éviter les erreurs d'arrondi de la calculatrice/ou de l'ordinateur.
  • d'avoir à effectuer moins de calculs.

Le procédé qui consiste à remplacer une suite $(u_n)$ qui converge vers $\ell$ par une autre suite $(v_n)$ qui converge toujours vers $\ell$, mais plus rapidement, s'appelle accélération de convergence. Nous allons présenter deux méthodes classiques d'accélération de convergence.

Méthode de Richardson

On suppose que la suite $(u_n)$ converge vers $\ell$ avec le développement limité suivant : $$u_n=\ell -ak^n +O(r^n)$$ avec $0<|r|<|k|$. L'idée est de poser $v_n=u_n+ak^n$ qui converge plus vite vers $\ell$.

Le problème est que souvent, la constante $a$ n'est pas connue (ou au moins on n'en connait pas de valeur exacte, juste une valeur approchée). L'idée de la méthode de Richardson est d'éliminer le $a$ non connu par une combinaison linéaire de $u_n$ et $u_{n+1}$. Concrètement, on pose $$v_n=\frac{u_{n+1}-ku_n}{1-k}.$$

Théorème : $(v_n)$ converge vers $\ell$ avec le développement limité $v_n=\ell+O(r^n)$.

Cette méthode s'applique notamment à la méthode des trapèzes pour calculer la valeur approchée d'une intégrale. Elle prend alors le nom de Romberg-Richardson, et est effectivement employée dans les logiciels comme Maple ou les calculatrices.

Méthode de Aitken

On suppose toujours que la suite $(u_n)$ converge vers $\ell$ avec le développement limité suivant : $$u_n=\ell -ak^n +O(r^n)$$ avec $0<|r|<|k|$, mais maintenant nous supposons que l'on ne connait pas la valeur exacte ni de $a$ ni de $k$. On pose alors $$v_n=\frac{u_n^2-u_{n+1}u_{n-1}}{2u_n-u_{n+1}-u_{n-1}}.$$

Théorème : $(v_n)$ converge vers $\ell$ avec le développement limité $v_n=\ell+O(r^n)$.
Recherche alphabétique
Recherche thématique