$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Formulaire de Mathématiques : Espérance,variance, covariance

Espérance
  • Définition :
    • Si $X$ est une variable aléatoire discrète, qui prend les valeurs $\{x_1,\dots,x_k\}$, l'espérance de $X$ est définie par : $$E(X)=\sum_{i=1}^k x_i P(X=x_i).$$
    • Si $X$ est une variable aléatoire admettant une densité $f,$ l'espérance de $X$ est définie par : $$E(X)=\int_{-\infty}^{+\infty}xf(x)dx,$$ sous réserve que cette intégrale soit absolument convergente.
  • Linéarité : si $X$ et $Y$ sont des variables aléatoires et $a$ est un réel, $$E(aX+Y)=aE(X)+E(Y).$$
  • Cas de deux variables aléatoires $X$ et $Y$ indépendantes : $$E(XY)=E(X)E(Y).$$
Variance
  • Définition : $$V(X)=E\big((X-E(X))^2\big).$$
  • Ecart-type : $$\sigma(X)=\sqrt{V(X)}.$$
  • Formule de Koenig : $$V(X)=E(X^2)-(E(X))^2.$$
  • Autres formules : $$V(aX+b)=a^2 V(X).$$ Si $X_1,\dots,X_n$ sont indépendantes, $$V(X_1+\cdots+X_n)=V(X_1)+\cdots+V(X_n).$$
Covariance
  • Définition : $$\textrm{cov}(X,Y)=E\big( (X-E(X))(Y-E(Y))\big).$$
  • Propriétés :
    1. $\textrm{cov}(X,Y)=\textrm{cov}(Y,X).$
    2. $\textrm{cov}(X,Y)=E(XY)-E(X)E(Y).$
    3. $\textrm{cov}(aX+b,cY+d)=ac\textrm{cov}(X,Y).$
    4. Si $X$ et $Y$ sont indépendants, alors $\textrm{cov}(X,Y)=0$, la réciproque étant fausse.
    5. $$V(X_1+\dots+X_n)=V(X_1)+\cdots+V(X_n)+2\sum_{1\leq i < j\leq m}\textrm{cov}(X_i,X_j).$$
Corrélation linéaire
  • Définition : $$\rho(X,Y)=\frac{\textrm{cov}(X,Y)}{\sqrt{V(X)V(Y)}}=\frac{\textrm{cov}(X,Y)}{\sigma(X)\sigma(Y)}\in[-1,1].$$
  • Propriétés : Le coefficient de corrélation linéaire mesure la dépendance affine de $X$ et $Y.$ Ainsi, si $|\rho(X,Y)|=1,$ il existe des réels $a$ et $b$ tels que $Y=aX+b.$ A l'autre bout de l'échelle, si $X$ et $Y$ sont indépendantes, $\rho(X,Y)=0,$ la réciproque étant fausse.