Démonstrations capes - les fonctions, continuité et dérivabilité
Théorème des valeurs intermédiaires
Soit $f:[a,b]\to\mathbb R$ une fonction continue telle que $f(a)\leq 0$ et $f(b)\geq 0$. Alors il existe $c\in [a,b]$ tel que $f(c)=0$.
Il est important de connaitre le principe de démonstration de ce théorème. Il repose sur la méthode de dichotomie. L'idée est de considérer le point $u=\frac{a+b}2$ milieu du segment $[a,b]$. Si $f(u)\geq 0$, alors on va chercher une solution dans l'intervalle $[a,u]$. Sinon, $f(u)<0$, et on va chercher une solution dans l'intervalle $[u,b]$. L'intervalle $[a,u]$ ou $[u,b]$ a une longueur moitié de l'intervalle initial. Répétant l'opération, on va encadrer de plus en plus finement une possible racine de l'équation $f(x)=0$. La continuité de $f$ va assurer qu'à la limite, on va effectivement trouver une racine.
Voici les détails. On définit deux suites $(a_n)$ et $(b_n)$ de la façon suivante :
pour $n=0$, on pose $a_0=a$ et $b_0=b$.
pour $n\geq 0$, on définit $a_{n+1}$ et $b_{n+1}$ à partir de $a_n$ et $b_n$ : posons $d_n=\frac{a_n+b_n}2$.
Si $f(d_n)\geq 0$, alors on pose $a_{n+1}=a_n$ et $b_{n+1}=d_n$. Sinon, on pose $a_{n+1}=d_n$ et $b_{n+1}=b_n$.
Prouvons par récurrence que pour tout $n\in\mathbb N$, la propriété $\mathcal P(n)$ suivante est vérifiée :
$$\mathcal P(n) : ``a\leq a_n\leq b_n\leq b,\ f(a_n)\leq 0,\ f(b_n)\geq 0, b_n-a_n=\frac{b-a}{2^n}''.$$
Initialisation : Il est clair que $\mathcal P(0)$ est vérifiée.
Hérédite : Soit maintenant $n\in\mathbb N$ tel que $\mathcal P(n)$ est vérifiée, et prouvons $\mathcal P(n+1)$. On distingue deux cas : si $f(d_n)\geq 0$, alors on a
$$a\leq a_n=a_{n+1}\leq d_n=b_{n+1}\leq b_n\leq b.$$
De plus, on a bien $f(a_{n+1})=f(a_n)\leq 0$ et $f(b_{n+1})=f(d_n)\geq 0$. Enfin,
$$b_{n+1}-a_{n+1}=\frac{a_n+b_n}2-a_n=\frac{b_n-a_n}2=\frac{b-a}{2^{n+1}}.$$
La preuve est totalement identique, et symétrique, si $f(d_n)<0$.
Ainsi, par le principe de récurrence, $\mathcal P(n)$ est vraie pour tout entier $n\in\mathbb N$.
Cette propriété montre que les suites $(a_n)$ et $(b_n)$ sont adjacentes. Elles convergent vers une limite commune $c$.
De plus, par continuité de $f$, on sait que $(f(a_n))$ et $(f(b_n))$ convergent vers $f(c)$. Passant à la limite dans l'inégalité
$$f(a_n)\leq 0\leq f(b_n)$$
on trouve $f(c)\leq 0\leq f(c)$, et donc $f(c)=0$.
Dans presque tous les cas, on va étudier la dérivabilité et calculer la dérivée à l'aide du taux d'accoissement.
Le cas le plus facile est celui de la fonction inverse. Pour $x\neq 0$ et $h\neq 0$ de sorte que $x+h\neq 0$, on a
$$\frac{\frac 1{x+h}-\frac1x}{h}=\frac{-1}{x(x+h)}\xrightarrow{h\to 0}\frac{-1}{x^2}.$$
La démonstration pour la racine carré n'est pas plus compliquée si on pense à utiliser la quantité conjuguée : soit $x>0$ et $h\neq 0$ tel que $x+h>0$. Alors
$$\frac{\sqrt{x+h}-\sqrt x}{h}=\frac{\big(\sqrt{x+h}-\sqrt x\big)\big(\sqrt{x+h}+\sqrt x\big)}{h\big(\sqrt{x+h}+\sqrt x\big)}=\frac{1}{\sqrt{x+h}+\sqrt x}\xrightarrow{h\to 0}\frac1{2\sqrt x}.$$
La dérivabilité de $x\mapsto x^n$ est plus délicate. On peut
utiliser la formule du binôme de Newton pour développer $(x+h)^n$;
factoriser $(x+h)^n-x^n$;
effectuer une démonstration par récurrence, en s'appuyant sur la dérivabilité d'un produit de deux fonctions dérivables.
Seule la dernière méthode est accessible au lycée, c'est celle que nous choisissons. Notons, pour $n\geq 1$,
$\mathcal P(n)$ la propriété suivante : "la fonction $f_n(x)=x^n$ est dérivable sur $\mathbb R$ et, pour tout $x\in\mathbb R$, $f_n'(x)=nx^{n-1}$".
Initialisation : pour $n=1$, la fonction $f_1$ est la fonction linéaire $f(x)=x$. Son taux d'accroissement en $x$ est
$$\frac{f_1(x+h)-f_1(x)}{h}=1$$
qui tend vers $1$ si $x$ tend vers $0$. Ainsi, $f_1$ est dérivable sur $\mathbb R$, et sa dérivée est la fonction constante
égale à $1$.
Hérédité : Soit ensuite $n\geq 1$ tel que $\mathcal P(n)$ est vraie. On remarque que $f_{n+1}=f_n\times f_1$. Ainsi, $f_{n+1}$ est dérivable sur $\mathbb R$ comme produit de deux fonctions dérivables, et pour tout $x\in\mathbb R$, on a
$$f_{n+1}'(x)=f_n'(x)f_1(x)+f_n(x)f_1'(x)=nx^{n-1}x+x^n=(n+1)x^n.$$
Ainsi, $\mathcal P(n+1)$ est vraie
Par le principe de récurrence, $\mathcal P(n)$ est vraie pour tout entier $n$.
La dérivabilité des fonctions trigonométriques est plus délicate (et admise au lycée).
Tout part de la dérivabilité de la fonction sinus en $0$. Il s'agit donc de prouver que $\lim_{h\to 0}\frac{\sin h}h=1$.
On part pour cela de la relation suivante : pour tout $x\in ]0,\pi/2[$, on a
$$\sin x\leq x\leq \tan x.$$
Cette inégalité se démontre géométriquement de la façon suivante : soit $B$ un point du cercle unité situé dans le premier quadrant.
Alors l'aire du triangle $ABC$
est inférieure ou égale à l'aire du secteur angulaire $BAC$ qui est elle-même inférieure ou égale à l'aire du triangle $AEC$. Si on note $x$
une mesure de l'angle $\widehat{BAD}$, alors les aires respectives du triangle $ABC$, du secteur angulaire $BAC$ et du triangle $AEC$ sont
$\frac 12\sin x$, $\frac x2$ et $\frac{1}2\tan x$. On trouve exactement l'inégalité annoncée.
Cette inégalité se réécrit en
$$x\cos x\leq \sin x\leq x\iff \cos x\leq\frac{\sin x}x\leq 1$$
(rappelons que $x>0$). Cette inégalité est aussi vraie si $x\in ]-\pi/2,0[$ (les fonctions qui interviennent sont paires). On déduit alors du théorème des gendarmes que $\frac{\sin x}x\xrightarrow{x\to 0}1$.
On prouve ensuite la dérivabilité de $\cos$ en $0$. On part de la formule
$$\cos(x)=1-2\sin^2(x/2)$$
qui donne
$$\frac{\cos x-\cos0}x=-\sin(x/2)\frac{\sin (x/2)}{x/2}.$$
Par la propriété précédemment démontrée, on en déduit que $\lim_{x\to 0 }\frac{\cos x-\cos0}x=0$.
Pour démontrer que $\sin$ est dérivable en $a\in\mathbb R$, il suffit maintenant d'utiliser des formules de trigonométrie. Écrivons en effet
$$\sin(a+h)=\sin(a)\cos(h)+\sin(h)\cos(a)$$
qui donne
$$\frac{\sin(a+h)-\sin(a)}h=\sin a\times\frac{\cos h-1}h+\cos(a)\times\frac{\sin h}h.$$
Lorsque $h$ tend vers $0$, ceci tend vers $\cos a$. La preuve est tout à fait similaire pour la dérivabilité de $\cos$ en $a$.
Opérations sur les dérivées
Soit $I$ un intervalle de $\mathbb R$, $a\in I$ et $u,v:I\to\mathbb R$ dérivables en a. Alors
$u+v$ est dérivable en $a$ et $(u+v)'(a)=u'(a)+v'(a)$;
$uv$ est dérivable en $a$ et $(uv)'(a)=u'(a)v(a)+u(a)v'(a)$;
Si $v$ ne s'annule pas en $a$, alors $\frac 1v$ est dérivable en $a$ et $\left(\frac1v\right)'(a)=\frac{-v'(a)}{v^2(a)}$.
Si $v$ ne s'annule pas en $a$, alors $\frac uv$ est dérivable en $a$ et $\left(\frac uv\right)'(a)=\frac{u'(a)v(a)-v'(a)u(a)}{v^2(a)}.$
Là encore, il faut revenir à la définition avec le taux d'accroissement. Pour $u+v$, c'est très facile : on a
$$\frac{(u+v)(a+h)-(u+v)(a)}h=\frac{u(a+h)-u(a)}h+\frac{v(a+h)-v(a)}h\xrightarrow{h\to 0}u'(a)+v'(a).$$
Pour le produit, c'est plus compliqué... On écrit d'abord que
$$u(a+h)v(a+h)-u(a)v(a)=u(a+h)v(a+h)-u(a+h)v(a)+u(a+h)v(a)-u(a)v(a)$$
soit
$$\frac{u(a+h)v(a+h)-u(a)v(a)}h=u(a+h)\frac{v(a+h)-v(a)}h+v(a)\frac{u(a+h)-u(a)}h\xrightarrow{h\to 0}u(a)v'(a)+u'(a)v(a).$$
Remarquons que cette démonstration utilise le fait qu'une fonction dérivable est continue. Pour le quotient, il suffit d'écrire que
$$\frac{\frac{1}{v(a+h)}-\frac 1{v(a)}}h=\frac{v(a)-v(a+h)}{h\big(v(a+h)v(a)\big)}\xrightarrow{h\to 0}\frac{-v'(a)}{v^2(a)}.$$
La dernière propriété est une conséquence des deux précédentes, en écrivant $\frac uv=u\times\frac 1v$.
Lien entre existence d'un extremum et annulation de la dérivée
Soit $I$ un intervalle de $\mathbb R$ et $f:I\to\mathbb R$, $a$ un point à l'intérieur de $I$
tel que $f$ admette un extrémum local en $a$. On suppose en outre que $f$ est dérivable en $a$. Alors $f'(a)=0$.
La preuve va consister en la démonstration que l'on a à la fois $f'(a)\geq 0$ et $f'(a)\leq 0$. Ces deux inégalités mises ensemble prouvent que $f'(a)=0$. On va les prouver en revenant à la définition de la dérivée comme limite du taux d'accroissement, et en distinguant les limites à droite et les limites à gauche. Supposons par exemple que $f$ admette un maximum local en $a$ et commençons par l'inégalité $f'(a)\leq 0$. Soit $h>0$ tel que $a+h\in I$. Alors, puisque $f$ admet un maximum local en $a$, si $h$ est assez petit, on a $f(a+h)\leq f(a)$. Puisque $h>0$, on a donc
$$\frac{f(a+h)-f(a)}{h}\leq 0.$$
Faisant tendre $h$ vers 0 par valeurs supérieures, on trouve que $f'(a)\leq 0$.
Considérons maintenant $h<0$. Toujours parce que $a$ est un maximum local pour $f$, on a $f(a+h)\leq f(a)$ si $|h|$ est assez petit. Mais puisque $h<0$, les inégalités changent de sens et on a cette fois
$$\frac{f(a+h)-f(a)}h\geq 0.$$
Faisant tendre $h$ vers 0 par valeurs inférieures, on trouve que $f'(a)\geq 0$.
Remarquons que la réciproque à ce théorème est fausse : penser à la fonction $x^3$.
Sens de variation d'une fonction et signe de la dérivée
Soit $I$ un intervalle de $\mathbb R$ et $f:I\to\mathbb R$ dérivable. Alors $f$ est croissante sur $I$ si
et seulement si, pour tout $x\in I$, $f'(x)\geq 0$.
Le sens direct est accessible à un élève du lycée. Fixons $f$ une fonction croissante, $x\in I$ (pour simplifier, $x$ ne pourra pas être une borne de l'intervalle) et on doit démontrer que $f'(x)\geq 0$. Pour cela, on va utiliser la définition de $f'(x)$ comme limite du taux d'accroissement. Considérons en effet $h>0$ tel que $x+h\in I$. Alors, puisque $f$ est croissante, on a $f(x+h)-f(x)\geq 0$ et donc $\frac{f(x+h)-f(x)}h\geq 0$. Passons à la limite quand $h$ tend vers $0$. On trouve bien que $f'(x)\geq 0$.
La réciproque (qui est le sens que l'on utilise le plus!) est plus délicate; elle utilise le théorème des accroissements finis. On suppose donc que $f'\geq 0$ sur $I$ et on doit prouver que pour tous $x,y\in I$ avec $x\leq y$, on a $f(x)\leq f(y)$. Pour cela, on sait d'après le théorème des accroissement finis (car $f$ est continue sur $[x,y]$ et dérivable sur $]x,y[$) qu'il existe $c\in ]x,y[$ tel que
$$f(y)-f(x)=f'(c)(y-x).$$
Tous les termes du membre de droite sont positifs, et donc on a bien $f(y)-f(x)\geq 0$ : $f$ est croissante.
Remarquons que le théorème devient faux si on ajoute des stricts : si $f'$ est strictement positive, alors $f$ est strictement croissante (même preuve). Mais si $f$ est strictement croissante, $f'$ n'est pas forcément strictement positive (penser à la fonction $x^3$ par exemple). Ceci est dû au fait que les inégalités strictes se transforment en inégalités larges quand on passe à la limite.