$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Résumé de cours : Variables aléatoires finies

Dans toute la suite, $\Omega$ est un univers fini muni d'une probabilité $P$.

Variables aléatoires

On appelle variable aléatoire toute application $X$ définie sur $\Omega$ à valeurs dans un ensemble $E$. La variable aléatoire est dite réelle lorsque $E$ est une partie de $\mathbb R$.

Pour toute partie $A$ de $\mathbb R$, l'événement $X^{-1}(A)$ est noté $\{X\in A\}$ ou simplement $(X\in A)$ : $$X^{-1}(A)=(X\in A)=\{\omega\in\Omega:\ X(\omega)\in A\}.$$ Lorsque $A=\{x\}$, on note plus simplement l'événement $X^{-1}(\{x\})$ sous la forme $(X=x)$ : $$(X=x)=\{\omega\in\Omega:\ X(\omega)=x\}.$$ Enfin, si $X$ est à valeurs dans $\mathbb R$, on note aussi \begin{align*} (X\leq x)&=X^{-1}(]-\infty,x])=\{\omega\in\Omega:\ X(\omega)\leq x\}\\ (X\geq x)&=X^{-1}([x,+\infty[)=\{\omega\in\Omega:\ X(\omega)\geq x\}. \end{align*}

Théorème et définition : Soit $X$ une variable aléatoire sur $(\Omega,P)$ à valeurs dans $E$. Alors l'application $P_X$ définie sur $\mathcal P(E)$ par $$\forall A\subset E,\ P_X(A)=P(X\in A)=P(X^{-1}(A))=P(\{\omega\in \Omega;\ X(\omega)\in A\})$$ est une probabilité sur $E$. $P_X$ s'appelle la loi de $X$.

Remarquons que la probabilité $P_X$ est uniquement déterminée par la distribution de probabilité $(P(X=x))_{x\in E}$.

On dit que deux variables aléatoires $X$ et $Y$ suivent la même loi si $P_X=P_Y$, et on note alors $X\sim Y$.

Si $X:\Omega\to E$ est une variable aléatoire et si $f:E\to F$, l'application $Y=f\circ X:\Omega\to F$ est une variable aléatoire sur $\Omega$ appelée variable aléatoire image de $X$ par $f$, et notée $f(X)$. La loi de $f(X)$ s'appelle la loi image de $X$ par $f$.

Proposition : Soit $X,Y:\Omega\to E$ deux variables aléatoires et soit $f:E\to F$. Alors, si $X\sim Y$, on a $f(X)\sim f(Y)$.

Si $A\subset\Omega$ est un événement de probabilité non-nulle et si $X:\Omega\to E$ est une variable aléatoire, on appelle loi conditionnelle de $X$ sachant $A$ la probabilité $P_X(\cdot|A)$ définie sur $E$ par $P_X(\{x\}|A)=P(X=x|A)$.

Lois usuelles

On dit qu'une variable aléatoire $X$ suit une loi de Bernoulli de paramètre $p\in [0,1]$ lorsque $X$ est à valeurs dans $\{0,1\}$ avec $P(X=0)=1-p$ et $P(X=1)=p$. On note alors $X\sim \mathcal B(p)$. La loi de Bernoulli intervient naturellement dans le contexte suivant. Une épreuve de Bernoulli est une expérience aléatoire à deux issues désignées "succès" et "échec". La variable aléatoire $X$ tel que $X(\textrm{"succès"})=1$ et $X(\textrm{"échec"})=0$ suit une loi de Bernoulli de paramètre $p=P(\textrm{"succès"})$.

On dit qu'une variable aléatoire $X$ suit une loi binomiale de paramètres $n\in\mathbb N^*$ et $p\in [0,1]$ lorsque $X$ est à valeurs dans $\{0,\dots,n\}$ avec, pour tout $k\in\{0,\dots,n\}$, $$P(X=k)=\binom nk p^k(1-p)^{n-k}.$$ On note alors $X\sim \mathcal B(n,p)$. La loi binomiale intervient naturellement dans le contexte suivant : lorsqu'on répète $n$ fois indépendamment une épreuve de Bernoulli avec probabilité $p$ de succès, alors la variable aléatoire qui compte le nombre de succès de l'expérience suit une loi binomiale $\mathcal B(n,p)$.

On dit que $X$ suit une loi uniforme sur un ensemble fini $E$ lorsque $X$ prend toutes ses valeurs dans $E$ et que, pour chaque $x\in E$, $$P(X=x)=\frac{1}{\card(E)}.$$ On note alors $X\sim \mathcal U(E)$.

Couple de variables aléatoires finies

Soit $X:\Omega\to E$ et $Y:\Omega\to F$ deux variables aléatoires. Alors $(X,Y):\Omega\to\mathbb E\times F,\ \omega\mapsto \big(X(\omega),Y(\omega)\big)$ est une variable aléatoire à valeurs dans $\mathbb R^2$, qu'on appelle couple de variables aléatoires. La loi du couple $(X,Y)$ est alors appelée loi conjointe de $(X,Y)$. Les lois marginales du couple $(X,Y)$ sont la loi de $X$ et la loi de $Y$.

La loi conjointe de $(X,Y)$ est alors entièrement déterminée par la distribution de probabilité $(P(X=x\textrm{ et }Y=y))_{(x,y)\in (X\times Y)(\Omega)}.$ On note en général $$P\big((X,Y)=(x,y)\big)=P(X=x\textrm{ et }Y=y).$$ Par la formule des probabilités totales, on peut toujours retrouver les lois marginales à partir de la loi conjointe :

Proposition : Soit $(X,Y)$ un couple de variables aléatoires définies sur $(\Omega,P)$. Alors, pour tout $x\in X(\Omega)$ $$P(X=x)=\sum_{y\in Y(\Omega)} P\big( (X,Y)=(x,y)\big).$$

En revanche, pour retrouver la loi conjointe de $(X,Y)$, il faut non seulement connaitre les lois marginales de $X$ et de $Y$, mais aussi connaitre les liens entre ces variables.

Indépendance de variables aléatoires

On dit que deux variables aléatoires $X$ et $Y$ sont indépendantes si, pour tout couple $(x,y)$ de $X(\Omega)\times Y(\Omega)$, on a $$P\big ( (X,Y)=(x,y)\big)=P(X=x)P(Y=y).$$ Ceci entraîne que, pour tout $A\subset X(\Omega)$ et tout $B\subset Y(\Omega)$, on a $$P\big( (X,Y)\in A\times B\big)=P(X\in A)P(Y\in B).$$ On note alors $X \perp\!\!\!\perp Y$.

Plus généralement, si $X_1,\dots,X_n$ sont $n$ variables aléatoires définies sur $\Omega$, on dit qu'elles sont mutuellement indépendantes si, pour tout $(x_1,\dots,x_n)\in \prod_{i=1}^n X_i(\Omega)$, on a $$P\big( (X_1,\dots,X_n)=(x_1,\dots,x_n)\big) = \prod_{i=1}^n P(X_i=x_i).$$ Si $X_1,\dots,X_n$ sont mutuellement indépendantes, alors quelque soit $(A_1,\dots,A_n)\in\prod_{i=1}^n\mathcal P(X_i(\Omega))$, les événements $X_i\in A_i$ sont mutuellement indépendants.

Proposition : Si $X_1,\dots,X_n$ sont $n$ variables aléatoires indépendantes définies sur le même univers $\Omega$ suivant toutes une loi de Bernoulli $\mathcal B( p)$, alors $X_1+\dots+X_n$ suit une loi binomiale $\mathcal B(n,p)$.
Proposition : Soit $X,Y:\Omega\to E$ deux variables aléatoires et soit $f:E\to F$. Si $X$ et $Y$ sont indépendantes, alors $f(X)$ et $f(Y)$ sont indépendantes.

L'énoncé se généralise au cas de familles de variables aléatoires.

Lemme des coalitions : Soit $X_1,\dots,X_n$ des variables aléatoires définies sur $\Omega$ à valeurs dans $E$, $1< m< n$, $f:E^m\to F$, $g:E^{n-m}\to G$ des fonctions. Alors si $X_1,\dots,X_n$ sont indépendantes, alors $f(X_1,\dots,X_m)$ et $g(X_{m+1},\dots,X_n)$ sont indépendantes.
Espérance, variance, covariance

Si $X$ est une variable aléatoire réelle prenant les valeurs $x_1,\dots,x_n$, on appelle espérance de $X$ le réel $$E(X)=\sum_{i=1}^n x_i P(X=x_i).$$ L'espérance est ainsi définie comme une moyenne sur les valeurs prises par $X$. On peut aussi utiliser une moyenne sur les issues de l'expérience aléatoire. En effet, si $\Omega=\{\omega_1,\dots,\omega_p\}$, l'espérance vérifie aussi $$E(X)=\sum_{j=1}^p X(\omega_j)P(\{\omega_j\}).$$

On dit que $X$ est centrée si l'espérance de $X$ est nulle.

Proposition : L'espérance vérifie les propriétés suivantes :
  • elle est linéaire : $E(aX+Y)=aE(X)+E(Y)$;
  • elle est positive : si $X\geq 0$, alors $E(X)\geq 0$;
  • elle est croissante : si $X\leq Y$, alors $E(X)\leq E(Y)$;
Formule de transfert : Si $X$ est une variable aléatoire définie sur $\Omega$ et à valeurs dans $E$ et si $f:E\to\mathbb R$, alors $$E(f(X))=\sum_{x\in X(\Omega)}P(X=x)f(x).$$

En particulier, il suffit de connaitre la loi de $X$ pour connaitre l'espérance de $f(X)$ (on n'a pas besoin de connaitre la loi de $f(X)$).

Proposition : Si $X$ et $Y$ sont indépendantes, alors $E(XY)=E(X)E(Y)$.

La réciproque est fausse en général.

On appelle variance de la variable aléatoire réelle $X$ la quantité $$V(X)=E\Big(\big (X-E(X)\big)^2\Big)$$ et écart-type de $X$ la quantité $\sigma(X)=\sqrt{V(X)}$. On dit que $X$ est réduite si sa variance vaut $1$.

Proposition : La variance vérifie les relations suivantes : $$V(X)=E(X^2)-\big(E(X)\big)^2;$$ $$V(aX+b)=a^2 V(X).$$

En particulier, si $X$ n'est pas de variance nulle, alors la variable aléatoire $\frac{X-E(X)}{\sigma(X)}$ est centrée réduite.

On appelle covariance des deux variables aléatoires réelles la quantité $$Cov(X,Y)=E(XY)-E(X)E(Y).$$ Lorsque $Cov(X,Y)=0$, on dit que $X$ et $Y$ sont décorrélées. En particulier, deux variables aléatoires indépendantes sont décorrélées, mais la réciproque est fausse.

Variance d'une somme : On a $$V(X+Y)=V(X)+V(Y)+2Cov(X,Y).$$ En particulier, si $X$ et $Y$ sont indépendantes, $$V(X+Y)=V(X)+V(Y).$$ Plus généralement, si $X_1,\dots,X_n$ sont $n$ variables aléatoires réelles, alors $$V(X_1+\dots+X_n)=V(X_1)+\dots+V(X_n)+2\sum_{i<j}Cov(X_i,X_j).$$ Si les variables sont deux à deux indépendantes, alors $$V(X_1+\dots+X_n)=V(X_1)+\dots+V(X_n).$$
Espérance et variance des lois usuelles
Proposition : Si $X$ suit une loi de Bernoulli de paramètre $p$, $X\sim\mathcal B(p)$, alors $$E(X)=p,\ V(X)=p(1-p).$$ Si $X$ suit une loi binomiale de paramètres $n$ et $p$, $X\sim\mathcal B(n,p)$, alors $$E(X)=np,\ V(X)=np(1-p).$$
Inégalités probabilistes - Estimation

L'inégalité de Markov donne une majoration de la probabilité qu'une variable aléatoire $X$ prenne de grandes valeurs.

Inégalité de Markov : Soit $X$ une variable aléatoire réelle et soit $t>0$. Alors $$P(|X|\geq t)\leq \frac{|E(X)|}t.$$

L'inégalité de Bienaymé-Tchebychev donne une majoration de la probabilité qu'une variable aléatoire $X$ s'écarte de sa moyenne.

Inégalité de Bienaymé-Tchebychev : Soit $X$ une variable aléatoire réelle et soit $\veps>0$. Alors $$P(|X-E(X)|\geq \veps)\leq \frac{V(X)}{\veps^2}.$$
Inégalité de concentration et loi faible des grands nombres Soit $X_1,\dots,X_n$ des variables aléatoires indépendantes et suivant la même loi. Soit $m$ l'espérance commune de ces variables aléatoires et $V$ leur variance commune. Alors pour tout $\varepsilon>0$, $$P\left(\left|\frac{X_1+\cdots+X_n}n-m\right|>\varepsilon\right)\leq \frac{V}{n\varepsilon^2}.$$ En particulier, si $(X_n)_{n\geq 1}$ est une suite de variables aléatoires indépendantes, de même loi, et d'espérance commune $m,$ alors pour tout $\veps>0$ on a $$\lim_{n\to+\infty}P\left(\left|\frac{X_1+\cdots+X_n}n-m\right|>\varepsilon\right)=0.$$