$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Résumé de cours : calcul différentiel

$E$ est un $\mathbb R$-espace vectoriel normé de dimension finie $p$, $F$ est un $\mathbb R$-espace vectoriel de dimension finie $n$ et $(e_1,\dots,e_p)$ est une base de $E$. Soit $\mathcal U$ un ouvert de $E$ et $f:\mathcal U\to F$.

Dérivées suivant un vecteur, dérivées partielles

Soit $v\in E$ et $a\in\mathcal U$. On dit que $f$ admet une dérivée suivant le vecteur $v$ en $a$ si l'application $t\mapsto f(a+tv)$ est dérivable en $0$. Dans ce cas, on note $$D_vf(a)=\lim_{t\to 0}\frac{f(a+tv)-f(a)}{t}$$ la dérivée de $f$ en $a$ suivant le vecteur $v$.

On appelle $i$-ème dérivée partielle, $1\leq i\leq p$ de $f$ en $a$ la dérivée suivant le vecteur $e_i$ de $f$ en $a$, et on note $$\frac{\partial f}{\partial x_i}(a)=\partial_i f(a)=\lim_{t\to 0}\frac{f(a+te_i)-f(a)}t.$$

Proposition : $f=(f_1,\dots,f_n)$ admet une dérivée par rapport à $v$ en $a$ si et seulement si tous les $f_i$, $1\leq i\leq n$, admettent une dérivée par rapport à $v$ en $a$. Dans ce cas, $$D_vf(a)=(D_vf_1(a),\dots,D_v f_n(a)).$$
Différentielle

On fixe $a\in\mathcal U$.

On dit que $f$ est différentiable en $a$ s'il existe un voisinage $V$ de $0$ dans $E$ et une application linéaire $L:E\to F$ et une application $\veps: V\to F$ vérifiant $\lim_{h\to 0}\veps(h)=0$ tels que, pour tout $h\in V$, $$f(a+h)=f(a)+L(h)+\|h\|\veps(h).$$ L'application $L$, si elle existe, est unique et s'appelle la différentielle de $f$ en $a$ (ou encore application linéaire tangente). On la note $df_a$ ou $df(a).$ On dit que $f$ est différentiable sur $\mathcal U$ si elle est différentiable en tout point de $\mathcal U.$

Remarque : On note souvent $o(h)$ pour désigner $\|h\|\veps(h).$

Proposition : Si $f$ est différentiable en $a$, alors $f$ est continue en $a$ et $f$ admet en $a$ une dérivée suivant tout vecteur $v\in E$. De plus, $$df(a)(v)=D_vf(a).$$
Proposition : Si $f$ est différentiable en $a$, alors les $p$ dérivées partielles de $f$ en $a$ existent. De plus, pour tout $h\in E$, on a $$df(a)(h)=\sum_{i=1}^p \frac{\partial f}{\partial x_i}(a)h_i.$$

Si $f$ est différentiable en $a$, et si on écrit $f=(f_1,\dots,f_n)$, alors on appelle matrice jacobienne de $f$ en $a$ la matrice $$J_a f=\left( \frac{\partial f_i}{\partial x_j}(a)\right)_{1\leq i\leq n,\ 1\leq j\leq p}.$$ Lorsque $n=p$, le déterminant de la matrice jacobienne s'appelle déterminant jacobien.

Exemples :

  • Si $f:E\to F$ est une application linéaire, elle est différentiable en tout point de $E$ et sa différentielle est constante égale à $f$.
  • Si $f:\mathcal U\to F$ est une application constante, elle est différentiable en point de $\mathcal U$ et sa différentielle est l'application identiquement nulle.
Proposition : Si $E=\mathbb R$, alors $f$ est différentiable en $a$ si et seulement si $f$ est dérivable en $a.$ Dans ce cas, on a $f'(a)=df(a)(1)$.
Théorème (inégalité des accroissements finis) : Soit $f:U\to F$ une application différentiable sur un ouvert convexe $U$. On suppose qu'il existe $M\geq 0$ tel que, pour tout $a\in U$, on a $\|df_a\|_{\textrm{op}}\leq M$. Alors, pour tous $x,y$ de $U$, on a $$\|f(x)-f(y)\|\leq M\|x-y\|.$$
Opérations sur les applications différentiable

Dans cette partie, $G$ et $H$ désignent des espaces vectoriels de dimension finie.

Proposition : Si $f:U\to F$ et $g:U\to F$ sont différentiables en $a\in U$, alors toute combinaison linéaire $\lambda f+\mu g$ est différentiable en $a$ et on a $$d(\lambda f+\mu g)(a)=\lambda df(a)+\mu dg(a).$$
Proposition : Si $f:U\to F$ et $g:U\to G$ sont différentiables en $a$ et si $B:F\times G\to H$ est bilinéaire, alors $B(f,g)$ est différentiable en $a$ et $$d(B(f,g))(a)=B(df(a),g)+B(f,dg(a)).$$
Composée de deux applications différentiables (règle de la chaîne) : Si $\mathcal V$ est un ouvert de $F$, $g:\mathcal V\to G$, $f(\mathcal U)\subset \mathcal V$, si $f$ est différentiable en $a$ et $g$ est différentiable en $f(a)$, alors $g\circ f$ est différentiable en $a$ et $$d(g\circ f)(a)=dg(f(a))\circ df(a).$$

Sur les matrices jacobiennes, l'égalité précédente se traduit par un produit de matrices : $$J_a (g\circ f)=J_{f(a)}g\times J_a f.$$

Corollaire : Si $\mathcal V$ est un ouvert de $F$, $g:\mathcal V\to G$, $f(\mathcal U)\subset \mathcal V$, si $f$ est différentiable en $a$ et $g$ est différentiable en $f(a)$, alors les dérivées partielles de $g\circ f$ en $a$ sont données par $$\frac{\partial g\circ f}{\partial x_i}(a)=\sum_{j=1}^n \frac{\partial g}{\partial y_j}(f(a))\frac{\partial f_j}{\partial x_i}(a).$$

En particulier, si $f$ est différentiable sur $\mathcal U$ et si $x_1,\dots,x_p:I\to \mathbb R$ sont dérivables sur $I$ et vérifient $(x_1(t),\dots,x_p(t))\in \mathcal U$ pour tout $t\in I$, la fonction $F(t)=f(x_1(t),\dots,x_p(t))$ est dérivable sur $I$ et vérifie $$F'(t)=\sum_{i=1}^p x_i'(t)\frac{\partial f}{\partial x_i}(x_1(t),\dots,x_p(t)).$$ Plus généralement, si $f$ est différentiable sur $\mathcal U,$ si $x_1,\dots,x_p:\mathcal V\to\mathbb R$ sont différentiables sur $\mathcal V$ et vérifient $(x_1(t_1,\dots,t_m),\dots,x_p(t_1,\dots,t_m))\in\mathcal U$ pour tout $(t_1,\dots,t_m)\in \mathcal V,$ alors la fonction $$F(t_1,\dots,t_m)=f(x_1(t_1,\dots,t_m),\dots,x_p(t_1,\dots,t_m))$$ est différentiable sur $\mathcal U$ et ses dérivées partielles vérifient $$\frac{\partial F}{\partial t_i}(t_1,\dots,t_m)=\sum_{j=1}^p \frac{\partial x_j}{\partial t_i}(t_1,\dots,t_m)\times \frac{\partial f}{\partial x_j}(x_1(t),\dots,x_m(t))$$ où on a noté $t=(t_1,\dots,t_m)$.

Dérivée le long d'un arc : Si $\gamma:I\to\mathcal U$ est une application définie sur un intervalle $I$ de $\mathbb R$, dérivable en $t$, si $f$ est différentiable en $\gamma(t)$, alors $f\circ \gamma$ est dérivable en $t$ et $$(f\circ \gamma)'(t)=df_{\gamma(t)}( \gamma'(t)).$$

Si on écrit $\gamma=(\gamma_1,\dots,\gamma_p),$ alors la relation précédente s'écrit $$(f\circ\gamma)'(t)=\sum_{k=1}^p \gamma_k'(t)\frac{\partial f}{\partial x_k}(\gamma(t)).$$

Applications de classe $C^k$, $k\geq 1$

On dit que $f$ est de classe $C^1$ sur $\mathcal U$ si $f$ est différentiable sur $\mathcal U$ et si l'application $\mathcal U\to\mathcal L(E,F),\ a\in \mathcal U\mapsto df(a) $ est continue.

Théorème : $f$ est de classe $C^1$ sur $\mathcal U$ si et seulement si toutes les dérivées partielles $\frac{\partial f}{\partial x_i}$ de $f$ existent sur $\mathcal U$ et si elles sont continues sur $\mathcal U$.

Opérations sur les fonctions de classe $C^1$ :

  • toute combinaison linéaire de deux fonctions de classe $C^1$ est de classe $C^1$.
  • la composée de deux fonctions de classe $C^1$ est de classe $C^1$.
  • si $B$ est une application bilinéaire et $f,g$ sont deux fonctions de classe $C^1$, alors $B(f,g)$ est de classe $C^1.$
Théorème : Si $U$ est connexe et si $f:U\to F$ est de classe $C^1$, $f$ est constante si et seulement si $df=0$ sur $U$.

Pour $k\geq 2$, on définit par récurrence les dérivées partielles d'ordre $k$ de $f$ comme les dérivées partielles des dérivées partielles d'ordre $k-1$ de $f$. Par exemple, les dérivées partielles d'ordre $2$ sont les fonctions $$\frac{\partial}{\partial x_i}\left(\frac{\partial f}{\partial x_j}\right)$$ avec $1\leq i,j\leq p$. On la note $\frac{\partial^2 f}{\partial x_i\partial x_j}$ ou encore $\partial_i\partial_j f.$ Plus généralement, pour tout $k$-uplet $(i_1,\dots,i_k)$ de $\{1,\dots,p\}^k$, $$\frac{\partial^k f}{\partial x_{i_1}\dots \partial x_{i_k}}=\frac{\partial}{\partial x_{i_1}} \left(\frac{\partial }{\partial x_{i_2}}\left(\cdots \left(\frac{\partial f}{\partial x_{i_k}}\right)\right)\right).$$

On dit que $f:U\to F$ est de classe $C^k$ sur $\mathcal U$ avec $k\geq 1$ si elle admet sur $\mathcal U$ toutes les dérivées partielles possibles jusqu'à l'ordre $k$ et si ces dérivées partielles sont continues sur $\mathcal U$.

Théorème de Schwarz : Si $f$ est de classe $C^2$ sur $\mathcal U$, alors pour tout $a\in \mathcal U$, pour tout $1\leq i,j\leq p,$ $$\frac{\partial^2 f}{\partial x_i\partial x_j}(a)=\frac{\partial^2 f}{\partial x_j \partial x_i}(a).$$

Plus généralement, si $f$ est de classe $C^k$ sur un ouvert $\mathcal U$, on peut calculer ses dérivées partielles dans n'importe quel ordre.

Opérations sur les fonctions de classe $C^k$ :

  • toute combinaison linéaire de deux fonctions de classe $C^k$ est de classe $C^k$.
  • la composée de deux fonctions de classe $C^k$ est de classe $C^k$.
  • si $B$ est une application bilinéaire et $f,g$ sont deux fonctions de classe $C^k$, alors $B(f,g)$ est de classe $C^k.$
Vecteur gradient

Dans cette partie, $E$ est un espace euclidien et $f$ est à valeurs dans $\mathbb R$. On rappelle que, pour tout forme linéaire $\varphi\in E^*$, il existe un unique $u\in E$ tel que, pour tout $x\in E,$ $\varphi(x)=\langle u,x\rangle.$

Théorème : Si $f$ est différentiable en $a$, alors il existe un unique vecteur $\nabla f(a)\in E$ tel que, pour tout $x\in E$, $df_a(x)=\langle \nabla f(a),x\rangle$. Le vecteur $\nabla f(a)$ s'appelle le vecteur gradient de $f$ en $a$.

Si $E$ est muni d'une base orthonormée $(e_1,\dots,e_p),$ alors le vecteur gradient s'écrit $$\nabla f(a)=\sum_{k=1}^p \frac{\partial f}{\partial x_k}(a)e_k.$$

Théorème : Si $f$ est différentiable en $a$ et si $\nabla f(a)\neq 0$, alors l'application $\{u\in E;\ \|u\|=1\}\to \mathbb R$, $u\mapsto D_u f(a)=df_a(u)$ admet un maximum en unique vecteur $u_0$ qui est le vecteur unitaire colinéaire et de même sens que $\nabla f(a)$.
Vecteur tangent

Soit $X$ une partie de $E$, $x$ un point de $X$ et $v$ un vecteur de $E$. On dit que $v$ est tangent à $X$ en $x$ s'il existe $\veps>0$ et un arc $\gamma:]-\veps,\veps[\to X$ dérivable en $0$ et tel que $\gamma(0)=x,\ \gamma'(0)=v$. On notera $T_x X$ l'ensemble des vecteurs tangents à $X.$

Théorème : Soit $g:\mathcal U\to\mathbb R$ de classe $C^1$ et soit $$X=\{x\in\mathcal U:\ g(x)=0\}.$$ Alors, pour tout $x\in X$ tel que $dg(x)\neq 0,$ on a $T_xX=\ker dg(x).$

En particulier, si $E$ est muni d'une structure euclidienne, $T_x X$ est le plan orthogonal à $\nabla g(x)$ : $$T_x X=\{y\in E:\ \langle y-x,\nabla g(x)\rangle=0\}.$$

Si $X$ est une partie de $E,$ $x$ un point de $X,$ on appelle espace tangent à $X$ en $x$ la partie $x+T_x X.$

Corollaire : Soit $f:\mathcal U\subset\mathbb R^2\to \mathbb R$ différentiable sur $\mathcal U$ et soit $$X=\{(x,y,z)\in\mathbb R^3;\ (x,y)\in \mathcal U,\ z=f(x,y)\}.$$ Soit enfin $(x_0,y_0,z_0)$ un point de $X$. Alors l'espace tangent à $X$ au point $(x_0,y_0,z_0)$ est le plan d'équation $$z-z_0=\frac{\partial f}{\partial x}(x_0,y_0)(x-x_0)+\frac{\partial f}{\partial y}(x_0,y_0)(y-y_0).$$
Optimisation - avec la différentielle

On dit que $f:\mathcal U\to\mathbb R$ admet un minimum global en $a\in \mathcal U$ si, pour tout $x\in \mathcal U$, $f(x)\geq f(a)$. On dit que $f$ admet un minimum local en $a$ s'il existe $r>0$ tel que, pour tout $x\in \mathcal U\cap B(a,r)$, on a $f(x)\geq f(a)$. Ce minimum local est strict s'il existe $r>0$ tel que, pour tout $x\in\mathcal U\cap B(a,r)$, $x\neq a$, on a $f(x)>f(a).$ On définit de la même façon maximum global, maximum local. Un extrémum est un maximum ou un minimum.

Si $f:\mathcal U\to\mathbb R$ est différentiable en $a\in\mathcal U$, on dit que $a$ est un point critique de $f$ si $df_a=0$.

Théorème : Si $f:\mathcal U\to\mathbb R$ admet un extrémum local en $a$ et si $f$ est différentiable en $a$, alors $a$ est un point critique de $f$.

On dispose aussi de résultats permettant d'étudier les extrema d'une restriction de $f$ à une partie $X$ de $\mathcal U.$

Proposition : Soit $X$ une partie non vide de $\mathcal U$ et soit $x\in X.$ Si $f:\mathcal U\to\mathbb R$ est de classe $\mathcal C^1$ et si $f_{|X}$ admet en $x$ un extrémum local, alors $df(x)$ s'annule en tout vecteur tangent à $X$ en $x.$
Théorème (optimisation sous contrainte) : Soit $f,g:\mathcal U\to\mathbb R$ de classe $\mathcal C^1$. On note $$X=\{x\in \mathcal U:\ g(x)=0\}.$$ Soit $x\in X$ tel que $dg(x)\neq 0$. Si $f_{|X}$ admet un extrémum local en $x,$ alors il existe $\lambda\in\mathbb R$ tel que $df(x)=\lambda dg(x).$

Le réel $\lambda$ s'appelle un multiplicateur de Lagrange associé à la contrainte $g(x)=0$.

Si $E$ est un espace euclidien, la condition nécessaire du théorème précédent exprime que $\nabla f(x)$ et $\nabla g(x)$ sont colinéaires. En particulier, $\nabla f(x)$ appartient à $(T_x X)^\perp$.

Optimisation - avec les dérivées secondes
Théorème (formule de Taylor-Young) : Soit $f:\mathcal U\subset\mathbb R^p\to\mathbb R$ de classe $\mathcal C^2$ et $a\in \mathcal U$. Alors, pour tout $h$ tel que $[a,a+h]\subset U$, on a $$f(a+h)=f(a)+\sum_{i=1}^p h_i\frac{\partial f}{\partial x_i}(a)+\frac 12\sum_{i,j=1}^p h_ih_j\frac{\partial^2 f}{\partial x_i\partial x_j}(a)+o(\|h\|^2).$$

Si $f:\mathcal U\subset\mathbb R^p\to\mathbb R$ est de classe $\mathcal C^2$ et si $a\in \mathcal U$, on appelle matrice hessienne de $f$ en $a,$ et on note $H_f(a),$ la matrice symétrique d'ordre $p$ $$\left(\frac{\partial^2 f}{\partial x_i\partial x_j}(a)\right)_{1\leq i,j\leq p}.$$ La formule de Taylor-Young peut alors se réécrire $$f(a+h)=f(a)+\langle \nabla f(x),h\rangle+\frac 12\langle H_f(x)\cdot h,h+o(\|h\|^2)$$ ou encore $$f(a+h)=f(a)+ \nabla f(x)^Th+\frac 12 h^T H_f(x) h,h\rangle+o(\|h\|^2).$$

Théorème (condition nécessaire du second ordre) : Soit $f:\mathcal U\subset\mathbb R^p\to \mathbb R$ de classe $\mathcal C^2$. Si $f$ admet un minimum local en $a,$ alors $Hf(a)$ est une matrice symétrique positive.

La condition peut encore se reformuler en disant que toutes les valeurs propres de $H_f(a)$ sont positives ou nulles. Si $f$ admet un maximum local en $a$, alors $H_f(a)$ est une matrice symétrique négative, c'est-à-dire que toutes ses valeurs propres sont négatives ou nulles.

Théorème (condition suffisante du second ordre) : Soit $f:\mathcal U\subset\mathbb R^p\to \mathbb R$ de classe $\mathcal C^2$ et soit $a\in\mathcal U.$ Si $a$ est un point critique de $f$ et si $H_f(a)$ est définie positive, alors $f$ admet un minimum local strict en $a.$

La condition peut encore se reformuler en disant que toutes les valeurs propres de $H_f(a)$ sont strictement positives. Si $a$ est un point critique de $f$ et si $H_f(a)$ est définie négative (c'est-à-dire que toutes ses valeurs propres sont strictement négatives), alors $f$ admet un maximum local strict en $a.$

Théorème (extrema des fonctions de deux variables) : Soit $f:U\subset\mathbb R^2\to\mathbb R$ de classe $\mathcal C^2$ et $a\in U$ tel que $df_a=0$. Posons $$r=\frac{\partial^2 f}{\partial x^2}(a),\quad s=\frac{\partial^2 f}{\partial x\partial y}(a),\quad t=\frac{\partial^2 f}{\partial y^2}(a).$$ Alors
  • si $rt-s^2>0$ et $r>0$, $f$ admet un minimum local en $a$;
  • si $rt-s^2>0$ et $r<0$, $f$ admet un maximum local en $a$;
  • si $rt-s^2<0$, $f$ n'admet pas d'extremum en $a$;
  • si $rt-s^2=0$, on ne peut pas conclure.
Difféomorphisme et théorème d'inversion locale
Théorème d'inversion locale : Soit $f:\mathcal U\subset\mathbb R^n\to \mathbb R^n$ de classe $C^1$. On suppose qu'il existe $a\in \mathcal U$ tel que $df_a$ soit inversible. Alors il existe un voisinage ouvert $V$ de $a$ et un voisinage ouvert $W$ de $f(a)$ tels que
  • la restriction $f_{|V}$ de $f$ à $V$ est une bijection de $V$ sur $W$;
  • l'application réciproque $g:W\to V$ est de classe $C^1$ et pour tout $x\in V$, $dg_{f(x)}=(df_x)^{-1}$.
De plus, si $f$ est $C^k,$ avec $k\geq 1,$ alors $g$ est $C^k$ également.

Par exemple, lorsque $n=1$, ceci signifie que si on a une fonction $f:I\to \mathbb R$ de classe $C^1$ avec $f'(a)\neq 0$, il existe un petit intervalle $J$ autour de $a$ où $f$ réalise une bijection de $J$ sur $K=f(J)$. De plus, $f^{-1}$ est de classe $C^1$ sur $K$ et $(f^{-1})'(f(x))=\frac 1{f'(x)}$ pour tout $x\in J$.

Corollaire : Soit $f:U\subset\mathbb R^n\to\mathbb R^n$ une application injective de classe $C^k$, $k\geq 1$, avec $U$ ouvert. Alors les assertions suivantes sont équivalentes :
  • pour tout $x\in U$, $df_x$ est inversible;
  • $V=f(U)$ est ouvert et $f$ est un $C^k$-difféomorphisme de $U$ sur $V$.
Théorème des fonctions implicites
Théorème : Soit $f$ une fonction de classe $C^k$ définie sur un ouvert $\Omega$ de $\mathbb R^p\times\mathbb R^q$, à valeurs dans $\mathbb R^q$. Soit $(a,b)\in \mathbb R^p\times\mathbb R^q$ tel que $f(a,b)=0$. On suppose que la matrice $$\left(\frac{\partial f_i}{\partial y_j}(a,b)\right)_{1\leq i\leq q,\ 1\leq j\leq q}$$ est inversible. Alors il existe un voisinage ouvert $U$ de $(a,b)$ dans $\mathbb R^p\times\mathbb R^q$, un voisinage $V$ de $a$ dans $\mathbb R^p$ et une fonction $g:V\to\mathbb R^q$ de classe $C^k$ tels que, pour tout $(x,y)\in U$, on a $$f(x,y)=0\iff y=g(x).$$ De plus, on a en tout point $(a,b)\in U$ tel que $f(a,b)=0$, $$\frac{\partial g}{\partial x_j}(a)=-\frac{\frac{\partial f}{\partial x_j}(a)}{J_y f(a,b)}$$ où $J_yf(a,b)$ désigne le déterminant de la matrice précédente.

Le théorème des fonctions implicites peut être compris comme un outil qui permet d'exprimer localement des courbes ayant une équation implicite $f(x,y)=0$ par des graphes du type $y=g(x)$. On peut par exemple penser au cercle unité, d'équation $x^2+y^2-1=0$, qui s'exprime localement dans le quart de plan $y=\sqrt{1-x^2}$.

Si $f$ est défini sur un ouvert de $\mathbb R^2$, le théorème des fonctions implicites a l'expression plus simple suivante :

Théorème : Soit f une fonction de classe $C^k$ définie sur un ouvert $\Omega$ de $\mathbb R^2$, à valeurs dans $\mathbb R$. Soit $(a,b)\in \Omega$ tel que $f(a,b)=0$. On suppose que la dérivée partielle de $f$ par rapport à la seconde variable est non nulle en $(a,b)$ : $$\frac{\partial f}{\partial y}(a,b)\neq 0.$$ Alors il existe un voisinage ouvert $U$ de $(a,b)$ dans $\mathbb R^2$, un intervalle ouvert $I$ de $\mathbb R$ contenant $a$ et une fonction $g:I\to\mathbb R$ de classe $C^k$ telle que, pour tout $(x,y)\in U$ on ait : $$f(x,y)=0\iff y=g(x).$$