Résumé de cours : variables aléatoires discrètes
Dans ce cours, $(\Omega,\mathcal T,P)$ désigne un espace probabilisé et $E$ un ensemble.
Soit $X:\Omega\to E$ une application. On dit que $X$ est une variable aléatoire discrète si :
- $X(\Omega)$ est fini ou dénombrable
- pour tout $x\in X(\Omega)$, $X^{-1}(\{x\})\in \mathcal T$.
Lorsque $E=\mathbb R,$ la variable aléatoire $X$ est dite réelle. Elle est dite finie si $X(\Omega)$ est finie.
Notations :
- L'événément $X^{-1}(A)$ est aussi noté $\{X\in A\}$ ou $(X\in A).$
- En particulier, pour tout $x\in E,$ l'événement $X^{-1}(x)$ est noté $\{X=x\}$ ou $(X=x).$
- Si $X$ est à valeurs réelles, pour tout $x\in \mathbb R,$ l'événement $X^{-1}([x,+\infty[)$ est noté $(X\leq x)$ ou $\{X\leq x\}$. On utilise des notations similaires pour les autres types d'intervalles non bornés de $\mathbb R.$
Si $X$ et $Y$ sont deux variables aléatoires discrètes telles que $P_X=P_Y,$ on note $X\sim Y.$ Cette notation ne suppose pas que $X$ et $Y$ sont définies sur le même espace probabilisé.
Ainsi, lorsqu'on demande de déterminer la loi d'une variable aléatoire $X,$ on demande de déterminer $P(X=x)$ pour tout $x\in X(\Omega).$
Soit $X$ une variable aléatoire discrète sur $(\Omega,\mathcal T,P)$ et soit $B\in \mathcal T$ tel que $P(B)>0.$ On appelle loi conditionnelle de $X$ sachant $B$ l'application \begin{eqnarray*} \mathcal P(X(\Omega))&\to&[0,1]\\ A&\mapsto&P_B(X\in A)=P(X\in A|B). \end{eqnarray*} Elle est donc déterminée par la donnée, pour tout $x\in X(\Omega),$ de $$P_A(X=x)=P(X=x|A).$$ Le plus souvent, $A$ sera un événement de la forme $(Y=y)$ où $Y$ est une autre variable aléatoire définie sur le même espace probabilisé.
On dit qu'une variable aléatoire finie $X$ suit une loi de Bernoulli de paramètre $p\in [0,1]$ lorsque $X$ est à valeurs dans $\{0,1\}$ et que $$P(X=1)=p\textrm{ et }P(X=0)=1-p.$$
On dit qu'une variable aléatoire finie $X$ suit une loi binomiale de paramètres $n\in\mathbb N^*$ et $p\in [0,1]$, ce que l'on note $X\sim \mathcal B( n,p)$, lorsque $X$ est à valeurs dans $\{0,\dots,n\}$ et que, pour tout $k\in\{0,\dots,n\}$, $$P(X=k)=\binom nk p^k(1-p)^{n-k}.$$
Soit $p\in ]0,1[$. On dit qu'une variable aléatoire discrète $X$ suit une loi géométrique de paramètre $p,$ ce que l'on note $X\sim \mathcal G(p),$ si elle est à valeurs dans $\mathbb N^*$ et si, pour tout $n\geq 1$, $$P(X=n)=p(1-p)^{n-1}.$$
Exemple : on considère un jeu de pile ou face infini avec des lancers indépendants et la probabilité d'obtenir pile à chaque lancer égale à $p\in]0,1[.$ On note $T$ le nombre d'essais nécessaires avant d'obtenir un pile. Alors $T$ est à valeurs dans $\mathbb N^*\cup\{+\infty\}$. De plus, $P(T=+\infty)=0$ et $P(T=n)=p(1-p)^{n-1}$ pour tout $n\in\mathbb N^*.$ Ainsi, $T\sim\mathcal G(p).$
Soit $\lambda>0$. On dit qu'une variable aléatoire discrète $X$ suit une loi de Poisson de paramètre $\lambda,$ ce que l'on note $X\sim \mathcal P(\lambda),$ si elle est à valeurs dans $\mathbb N$ et si, pour tout $n\in \mathbb N$, $$P(X=n)=\frac{e^{-\lambda}\lambda^n}{n!}.$$
Ainsi, si la variable aléatoire $X$ suit une loi binomiale $\mathcal B(n,p)$ avec $n$ grand et $p$ petit, elle suit approximativement une loi de Poisson de paramètre $\lambda=np.$ On dit que la loi de Poisson est la loi des événements rares.
Si $X$ et $Y$ sont deux variables aléatoires discrètes sur un même espace probabilisé $(\Omega,\mathcal T,P)$, la variable aléatoire $(X,Y):\omega\in\Omega\mapsto (X(\omega),Y(\omega))$ est appelée couple de variables aléatoires discrètes. C'est également une variable aléatoire discrète sur $(\Omega,\mathcal T,P).$ La loi conjointe de $X$ et $Y$ est la loi du couple $(X,Y).$ Autrement dit, la loi conjointe est la donnée de toutes les valeurs de $P(X=x,Y=y)$ pour $(x,y)\in X(\Omega)\times Y(\Omega),$ où on a noté $P(X=x,Y=y)$ pour $P((X,Y)=(x,y)).$ Les lois de $X$ et de $Y$ sont appelées les lois marginales du couple $(X,Y).$
Le résultat suivant indique qu'il est toujours possible de retrouver les lois marginales connaissant la loi conjointe. En revanche, pour déterminer la loi conjointe de $(X,Y)$ à partir des lois marginales, il faut des informations supplémentaires sur la dépendance entre $X$ et $Y$.
Ces définitions se généralisent à des $n$-uplets de variables aléatoires discrètes. Si $X_1,\dots,X_n$ sont $n$ variables aléatoires discrètes sur le même espace probabilisé, $(X_1,\dots,X_n)$ s'appelle un vecteur aléatoire discret.
Deux variables aléatoires discrètes $X$ et $Y$ sur $(\Omega,\mathcal T,P)$ sont dites indépendantes si, pour tout $x\in X(\Omega)$ et tout $y\in Y(\Omega)$, on a $$P(X=x,Y=y)=P(X=x)P(Y=y).$$ On note $X\perp\!\!\!\perp Y.$
Soit $(X_i)_{i\in I}$ une famille de variables aléatoires. On dit que les variables aléatoires $(X_i)_{i\in I}$ sont mutuellement indépendantes lorsque, pour toute partie finie $J=\{i_1,\dots,i_p\}\subset I$, pour tout $(x_{i_1},\dots,x_{i_p})\in X_{i_1}(\Omega)\times\dots\times X_{i_p}(\Omega)$, on a $$P(X_{i_1}=x_{i_1},\dots,X_{i_p}=x_{i_p})=P(X_{i_1}=x_{i_1})\cdots P(X_{i_p}=x_{i_p}).$$
L'indépendance est préservée par un certain nombre d'opérations.
Ce résultat peut se généraliser à une famille quelconque de variables aléatoires : si $(X_i)_{i\in I}$ est une famille de variables aléatoires mutuellement indépendantes et si $(f_i)_{i\in I}$ est une famille d'applications telle que, pour tout $i\in I,$ $f_i$ est définie sur $X_i(\Omega),$ alors $(f_i(X_i))_{i\in I}$ est une famille de variables mutuellement indépendantes.
De la même façon, ce résultat se généralise à un nombre quelconque de fonctions : si $(X_i)_{i\in I}$ est une famille de variables aléatoires indépendantes, si $(I_j)_{j\in I}$ est une partition de $I$, et si pour tout $j\in J,$ $f_j$ est une fonction définie sur $\prod_{i\in I_j}X_i(\Omega)$, alors $(f_j((X_i)_{i\in I_j}))_{j\in J}$ est une famille de variables aléatoires mutuellement indépendantes.
Dans cette partie, les variables aléatoires discrètes sont définies sur $(\Omega,\mathcal T,P).$
Soit $X$ une variable aléatoire discrète à valeurs dans $\mathbb R_+\cup\{+\infty\}.$ L'espérance de $X,$ notée $E(X)$, est la somme dans $[0,+\infty]$ de la famille $(xP(X=x))_{x\in X(\Omega)}$ : $$E(X)=\sum_{x\in X(\Omega)}xP(X=x).$$
Soit $X$ une variable aléatoire discrète à valeurs dans $\mathbb C$. On dit que $X$ est d'espérance finie si la famille $(xP(X=x))_{x\in X(\Omega)}$ est sommable. Dans ce cas, l'espérance de $X$, notée $E(X),$ est la somme de cette famille : $$E(X)=\sum_{x\in X(\Omega)}xP(X=x).$$ En particulier, l'espérance de $X$ ne dépend que de la loi de $X.$
On note $L^1(\Omega,\mathcal T,P)$ ou plus simplement $L^1$ l'ensemble des variables aléatoires discrètes sur $(\Omega,\mathcal T,P)$ d'espérance finie. On dit que $X\in L^1$ est centrée si $E(X)=0.$
Exemples :
- Si $X\sim \mathcal G(p)$ avec $p\in ]0,1[,$ $E(X)=\frac 1p.$
- Si $X\sim \mathcal P(\lambda)$ avec $\lambda>0,$ alors $E(X)=\lambda.$
En particulier, pour déterminer l'espérance de $f(X),$ il n'est pas nécessaire de connaître la loi de $f(X),$ on peut se contenter de connaître la loi de $X.$
- Linéarité : si $X$ et $Y$ sont d'espérance finie et $\lambda\in\mathbb C,$ alors $\lambda X+Y$ est d'espérance finie et $E(\lambda X+Y)=\lambda E(X)+E(Y)$.
- Positivité : si $X\geq 0,$ alors $E(X)\geq 0$.
- Croissance : si $X\leq Y$ et $X$ et $Y$ sont d'espérance finie, alors $E(X)\leq E(Y).$
- Inégalité triangulaire : $X$ est d'espérance finie si et seulement si $|X|$ est d'espérance finie, et alors $|E(X)|\leq E(|X|).$
En particulier, $L^1(\Omega,\mathcal T,P)$ est un espace vectoriel.
Cette propriété se généralise au produit d'un nombre quelconque de variables aléatoires indépendantes : si $X_1,\dots,X_n$ sont des variables aléatoires mutuellement indépendantes (à valeurs dans $\mathbb C$) admettant une espérance finie, alors $X_1\cdots X_n$ est d'espérance finie et $$E(X_1\cdots X_n)=E(X_1)\cdots E(X_n).$$
On note $L^2(\Omega,\mathcal T,P)$ ou plus simplement $L^2$ l'ensemble des variables aléatoires discrètes sur $(\Omega,\mathcal T,P)$ à valeurs dans $\mathbb R$ telles que $X^2$ est d'espérance finie.
Soit $X\in L^2.$ On appelle variance de $X$ le réel $$V(X)=E\big( (X-E(X))^2\big)=E(X^2)-\big(E(X)\big)^2$$ et écart-type de $X$ le réel $$\sigma(X)=\sqrt{V(X)}.$$
- $V(aX+b)=a^2V(X)$.
- $V(X)=E(X^2)-E(X)^2$ (formule de Koenig-Huyghens).
Une variable aléatoire $X\in L^2$ est dite réduite si $V(X)=1.$ Si $X\in L^2$ est telle que $V(X)\neq 0,$ alors la variable aléatoire $\displaystyle \frac{X-E(X)}{\sigma(X)}$ est centrée et réduite.
Exemples :
- Si $X\sim \mathcal G(p)$ avec $p\in ]0,1[,$ $V(X)=\frac {1-p}{p^2}.$
- Si $X\sim \mathcal P(\lambda)$ avec $\lambda>0,$ alors $V(X)=\lambda.$
Si $X$ et $Y$ sont dans $L^2,$ on appelle covariance de $X$ et de $Y$ le réel $$\textrm{Cov}(X,Y)=E\big((X-E(X))(Y-E(Y))\big)=E(XY)-E(X)E(Y).$$ En particulier, si $X$ et $Y$ sont indépendantes, on a $\textrm{Cov}(X,Y)=0.$
Soit $X$ une variable aléatoire à valeurs dans $\mathbb N$. On appelle fonction génératrice de $X$ la série entière suivante : $$G_X(t)=\sum_{n=0}^{+\infty}P(X=n)t^n.$$ Le rayon de convergence de cette série entière est supérieur ou égal à $1$. $G_X$ définit donc une fonction de classe $\mathcal C^\infty$ sur $]-1,1[$. Elle est en fait continue sur l'intervalle fermé $[-1,1]$.
Exemples :
- Si $X$ suit une loi de Bernoulli de paramètre $p$, alors $$G_X(t)=(1-p)+pt.$$
- Si $X$ suit une loi binomiale de paramètres $n,p$, alors $$G_X(t)=\big((1-p)+pt)^n.$$
- Si $X$ suit une loi géométrique de paramètre $p\in ]0,1[$, alors $$G_X(t)=\frac{pt}{1-(1-p)t}.$$
- Si $X$ suit une loi de Poisson de paramètre $\lambda>0$, alors $$G_X(t)=e^{-\lambda}e^{\lambda t}.$$
La fonction génératrice caractérise la loi d'une variable aléatoire :
La fonction génératrice permet également de retrouver la loi de la somme de deux variables aléatoires indépendantes :
La fonction génératrice permet de retrouver l'espérance et la variance d'une variable aléatoire :
- $X$ admet une espérance finie si et seulement si $G_X$ est dérivable en $1$. Dans ce cas, $G_X'(1)=E(X)$;
- Si $G_X$ est deux fois dérivable en $1$, alors $X\in L^2$ et $V(X)=G_X''(1)+G_X'(1)-\big(G_X'(1)\big)^2.$