Méthode de Lagrange (ou fausse position)
La méthode de Lagrange, ou méthode de la fausse position, est une méthode pour trouver une valeur approchée de la solution d'une équation $f(x)=0$. Elle consiste en le principe suivant. On suppose que $f:[a,b]\to\mathbb R$ est continue, que $f(a)<0$ et que $f(b)>0$. On considère les points $A(a,f(a))$ et $B(b,f(b))$ situés sur la courbe représentative $\mathcal C$ de $f$. On construit une suite $(x_n)$ de réels à l'aide de points $A_n$ de $\mathcal C$. Pour cela, on pose $A_0=A$ et on construit $A_{n+1}$ en traçant la droite $(A_nB)$ qui rencontre l'axe $(Ox)$ en un point d'abscisse $x_n+1$. Le point $A_{n+1}$ est le point de $\mathcal C$ d'abscisse $x_{n+1}$ :
Autrement dit, la suite $(x_n)$ vérifie l'équation de récurrence $$x_{n+1}=x_n-\frac{b-x_n}{f(b)-f(x_n)}f(x_n).$$ Sous de bonnes hypothèses (par exemple, si $f$ est croissante convexe), on prouve que la suite $(x_n)$ converge vers une solution de $f(x)=0$ dans l'intervalle $[a,b]$, et que de plus la convergence est géométrique.
Ainsi présentée, cette méthode est mise en défaut si par exemple le réel $x_1$ est de l'autre côté de la racine. C'est le cas si on suppose que $f$ est croissante et concave. On peut adapter la méthode précédente pour qu'elle fonctionne même dans ce cas en procédant comme avec la méthode de dichotomie. Partant de deux points $A_n(a_n,f(a_n))$ et $B_n(b_n,f(b_n))$ avec $f(a_n)<0$ et $f(b_n)>0$, on construit le point d'intersection de la droite $(A_nB_n)$ et de l'axe des abscisses. Ce point a pour abscisse $c_n$ et on regarde la valeur de $f(c_n)$.
- si $f(c_n)<0$, alors on pose $A_{n+1}=(c_n,f(c_n))$ et $B_{n+1}=B_n$;
- si $f(c_n)>0$, alors on pose $A_{n+1}=A_n$ et $B_{n+1}=(c_n,f(c_n))$.
Sous des hypothèses assez faibles ($f$ strictement croissante et de classe $C^2$), on prouve la convergence de la suite $(x_n)$ vers l'unique solution notée $\alpha$ de $f(x)=0$. De plus, la convergence est très rapide. En notant $$\phi=\frac{1+\sqrt 5}2$$ le nombre d'or, alors on peut prouver que $$\lim_{n\to+\infty}\frac{|x_{n+1}-\alpha|}{|x_n-\alpha|^\phi}\textrm{ existe.}$$ C'est une convergence superlinéaire plus rapide que la convergence géométrique de la méthode de dichotomie, mais un peu moins rapide que la convergence quadratique de la méthode de Newton....