Autour de la limite
La notion de limite est le concept central en analyse. Elle intervient dès que l'on étudie les suites ou les fonctions. Elle est indispensable pour définir la dérivée ou la continuité. Plus tard, la limite se mue en topologie, se fait plus générale, plus abstraite. Définir et étudier les limites, c'est déjà travailler comme un vrai mathématicien!
Dire qu'une quantité "admet une limite" est quelque chose de très intuitif. Tellement intuitif que les mathématiciens n'avaient pas ressenti pendant plusieurs siècles le besoin de définir précisément ce dont il s'agissait. Ce n'est qu'au XIXième s. que Weierstrass, à la suite de travaux d'Euler et des siens sur des fonctions continues nulle part dérivables, en donne une définition correcte.
Avant de passer à des considérations plus terre à terre, voici comment le célèbre mathématicien du XXè s. Ian Stewart voit la définition : "$f$ admet $l$ comme limite en $a$" : " C'est un peu un jeu... Le joueur Epsilon indique quel écart maximum il accepte entre $f(x)$ et $l$ (c'est-à-dire qu'il impose $|f(x)-l|<\varepsilon$, où $\varepsilon>0$ est choisi par lui). Le joueur Delta essaie de faire ce qu'il faut pour le satisfaire (c'est-à-dire qu'il essaie de trouver $\delta>0$ tel que, si l'écart entre $x$ et $a$ est inférieur à $\delta$, alors $|f(x)-l|<\varepsilon$). Si, quel que soit le choix d'Epsilon, le joueur Delta a toujours une stratégie gagnante, alors $f(x)$ tend vers $l$ quand $x$ tend vers $a$".
Lorsqu'on étudie une suite $(u_n)$, on s'intéresse très souvent au comportement de $u_n$ lorsque $n$ est très grand. Prenons deux exemples simples : $u_n=1/n$, et $v_n=(-1)^n$. Dans le premier cas, si $n$ est très grand, $u_n$ prend des valeurs de plus en plus proches de 0, sans jamais atteindre ce nombre. Dans le second, $v_n$ oscille entre +1 et -1, sans jamais se stabiliser autour de l'un de ces deux nombres. Nous disons donc que $(u_n)$ admet 0 comme limite, tandis que $(v_n)$ n'admet pas de limite.
Mathématisons tout cela. Soit $l$ un réel. Dire qu'une suite tend vers $l$, c'est dire que pour $n$ assez grand, $u_n$ est aussi proche de $l$ que l'on souhaite. On pose alors la définition suivante :
On dit encore que $(u_n)$ admet $l$ comme limite, ou que $(u_n)$ tend vers $l$. Une telle suite est dite convergente. En revanche, une suite qui n'a pas de limite est divergente. Parmi les suites divergentes, certaines ont un mode de divergence particulièrement intéressant. Prenons la suite $u_n=3n$. $u_n$ devient très grand quand $n$ augmente. Plus précisément, $u_n$ est aussi grand qu'on veut dès que $n$ est choisi assez grand. Ou encore : $$\forall A>0,\ \exists n_0\in\mathbb N,\ \forall n\geq n_0,\ u_n\geq A.$$ On dit que $(u_n)$ tend vers $+\infty$.
De la même manière que pour une suite, on peut définir la limite d'une fonction en l'infini. On dit que $f$ tend vers $l$ en $+\infty$ si, pour $x$ assez grand, $f(x)$ est aussi proche de $l$ que l'on veut. Précisément : $$\forall \veps>0,\ \exists A\in\mathbb R,\ \forall x\geq A,\ |f(x)-l|<\veps.$$
Exemple : Posons pour $x>0$, $f(x)=3+\frac 1x$. La limite de $f$ en $+\infty$ est $3$.
Géométriquement, si $f$ tend vers $l$ en $+\infty$, la courbe représentative de $f$ admet la droite d'équation $y=l$ comme asymptote.
On définit de la même façon la limite en un point, sauf que cette fois $x$ peut s'approcher aussi près qu'on veut d'un réel $a$. On suppose donc qu'on a une fonction $f$ définie sur un intervalle $I$ de $\mathbb R$ et que $a$ est un élément de $I$, ou une borne de $I$. On dit que $f$ tend vers $l$ en $a$ si : $$\forall \veps>0, \exists \delta>0,\ \forall x\in I\cap ]a-\delta,a+\delta[,\ |f(x)-l|<\veps.$$ Si $f$ est définie en $a$, et si $f$ tend vers $l$ en $a$, alors nécessairement $f(a)=l$. On dit que $f$ est continue en $a$.
Parfois, $f$ n'admet pas de limite en $a$, mais admet deux limites différentes suivant que $x$ s'approche de $a$ en étant plus petit ou plus grand que $a$. On dit que $f$ admet $l$ comme limite à gauche en $a$ si la restriction de $f$ à $]-\infty,a[\cap I$ admet $l$ comme limite. De même pour la limite à droite en a avec la restriction de $f$ à $]a,+\infty[\cap I$.
Exemple :> on définit $f(x)=-x$ si $x<0$, et $f(x)=1+x^2$ si $x\geq 0$. Alors $f$ admet $0$ comme limite à gauche, et $1$ comme limite à droite.
Nous avons déjà défini la limite de fonctions qui vont de $\mathbb R$ dans $\mathbb R$. Il est naturel de chercher à généraliser cela. Cela se fait sans trop de problèmes si la fonction va de $\mathbb R$ dans $\mathbb R$, ou de $\mathbb C$ dans $\mathbb C$, en remplaçant partout les valeurs absolues par des modules. Mais cela se généralise aussi à des cas beaucoup plus abstraits, par exemple si la fonction $f$ va de $X$ dans $Y$, où $X$ et $Y$ sont des epaces vectoriels normés : on remplace partout les valeurs absolues par des normes. $X$ et $Y$ peuvent aussi être des espaces métriques : on remplace partout les normes par des distances. Et même, $X$ et $Y$ peuvent simplement être des espaces topologiques : on remplace les distances par des voisinages : la limite de $f$ en $a$ est $l$ si pour tout voisinage $V$ de $l$, il existe un voisinage $U$ de $a$ tel $f(U)$ est inclus dans $V$.