Résumé de cours : Variables aléatoires finies
Dans toute la suite, $\Omega$ est un univers fini muni d'une probabilité $P$.
On appelle variable aléatoire toute application $X$ définie sur $\Omega$ à valeurs dans un ensemble $E$. La variable aléatoire est dite réelle lorsque $E$ est une partie de $\mathbb R$.
Pour toute partie $A$ de $\mathbb R$, l'événement $X^{-1}(A)$ est noté $\{X\in A\}$ ou simplement $(X\in A)$ : $$X^{-1}(A)=(X\in A)=\{\omega\in\Omega:\ X(\omega)\in A\}.$$ Lorsque $A=\{x\}$, on note plus simplement l'événement $X^{-1}(\{x\})$ sous la forme $(X=x)$ : $$(X=x)=\{\omega\in\Omega:\ X(\omega)=x\}.$$ Enfin, si $X$ est à valeurs dans $\mathbb R$, on note aussi \begin{align*} (X\leq x)&=X^{-1}(]-\infty,x])=\{\omega\in\Omega:\ X(\omega)\leq x\}\\ (X\geq x)&=X^{-1}([x,+\infty[)=\{\omega\in\Omega:\ X(\omega)\geq x\}. \end{align*}
Remarquons que la probabilité $P_X$ est uniquement déterminée par la distribution de probabilité $(P(X=x))_{x\in E}$.
On dit que deux variables aléatoires $X$ et $Y$ suivent la même loi si $P_X=P_Y$, et on note alors $X\sim Y$.
Si $X:\Omega\to E$ est une variable aléatoire et si $f:E\to F$, l'application $Y=f\circ X:\Omega\to F$ est une variable aléatoire sur $\Omega$ appelée variable aléatoire image de $X$ par $f$, et notée $f(X)$. La loi de $f(X)$ s'appelle la loi image de $X$ par $f$.
Si $A\subset\Omega$ est un événement de probabilité non-nulle et si $X:\Omega\to E$ est une variable aléatoire, on appelle loi conditionnelle de $X$ sachant $A$ la probabilité $P_X(\cdot|A)$ définie sur $E$ par $P_X(\{x\}|A)=P(X=x|A)$.
On dit qu'une variable aléatoire $X$ suit une loi de Bernoulli de paramètre $p\in [0,1]$ lorsque $X$ est à valeurs dans $\{0,1\}$ avec $P(X=0)=1-p$ et $P(X=1)=p$. On note alors $X\sim \mathcal B(p)$. La loi de Bernoulli intervient naturellement dans le contexte suivant. Une épreuve de Bernoulli est une expérience aléatoire à deux issues désignées "succès" et "échec". La variable aléatoire $X$ tel que $X(\textrm{"succès"})=1$ et $X(\textrm{"échec"})=0$ suit une loi de Bernoulli de paramètre $p=P(\textrm{"succès"})$.
On dit qu'une variable aléatoire $X$ suit une loi binomiale de paramètres $n\in\mathbb N^*$ et $p\in [0,1]$ lorsque $X$ est à valeurs dans $\{0,\dots,n\}$ avec, pour tout $k\in\{0,\dots,n\}$, $$P(X=k)=\binom nk p^k(1-p)^{n-k}.$$ On note alors $X\sim \mathcal B(n,p)$. La loi binomiale intervient naturellement dans le contexte suivant : lorsqu'on répète $n$ fois indépendamment une épreuve de Bernoulli avec probabilité $p$ de succès, alors la variable aléatoire qui compte le nombre de succès de l'expérience suit une loi binomiale $\mathcal B(n,p)$.
On dit que $X$ suit une loi uniforme sur un ensemble fini $E$ lorsque $X$ prend toutes ses valeurs dans $E$ et que, pour chaque $x\in E$, $$P(X=x)=\frac{1}{\card(E)}.$$ On note alors $X\sim \mathcal U(E)$.
Soit $X:\Omega\to E$ et $Y:\Omega\to F$ deux variables aléatoires. Alors $(X,Y):\Omega\to\mathbb E\times F,\ \omega\mapsto \big(X(\omega),Y(\omega)\big)$ est une variable aléatoire à valeurs dans $\mathbb R^2$, qu'on appelle couple de variables aléatoires. La loi du couple $(X,Y)$ est alors appelée loi conjointe de $(X,Y)$. Les lois marginales du couple $(X,Y)$ sont la loi de $X$ et la loi de $Y$.
La loi conjointe de $(X,Y)$ est alors entièrement déterminée par la distribution de probabilité $(P(X=x\textrm{ et }Y=y))_{(x,y)\in (X\times Y)(\Omega)}.$ On note en général $$P\big((X,Y)=(x,y)\big)=P(X=x\textrm{ et }Y=y).$$ Par la formule des probabilités totales, on peut toujours retrouver les lois marginales à partir de la loi conjointe :
En revanche, pour retrouver la loi conjointe de $(X,Y)$, il faut non seulement connaitre les lois marginales de $X$ et de $Y$, mais aussi connaitre les liens entre ces variables.
On dit que deux variables aléatoires $X$ et $Y$ sont indépendantes si, pour tout couple $(x,y)$ de $X(\Omega)\times Y(\Omega)$, on a $$P\big ( (X,Y)=(x,y)\big)=P(X=x)P(Y=y).$$ Ceci entraîne que, pour tout $A\subset X(\Omega)$ et tout $B\subset Y(\Omega)$, on a $$P\big( (X,Y)\in A\times B\big)=P(X\in A)P(Y\in B).$$ On note alors $X \perp\!\!\!\perp Y$.
Plus généralement, si $X_1,\dots,X_n$ sont $n$ variables aléatoires définies sur $\Omega$, on dit qu'elles sont mutuellement indépendantes si, pour tout $(x_1,\dots,x_n)\in \prod_{i=1}^n X_i(\Omega)$, on a $$P\big( (X_1,\dots,X_n)=(x_1,\dots,x_n)\big) = \prod_{i=1}^n P(X_i=x_i).$$ Si $X_1,\dots,X_n$ sont mutuellement indépendantes, alors quelque soit $(A_1,\dots,A_n)\in\prod_{i=1}^n\mathcal P(X_i(\Omega))$, les événements $X_i\in A_i$ sont mutuellement indépendants.
L'énoncé se généralise au cas de familles de variables aléatoires.
Si $X$ est une variable aléatoire réelle prenant les valeurs $x_1,\dots,x_n$, on appelle espérance de $X$ le réel $$E(X)=\sum_{i=1}^n x_i P(X=x_i).$$ L'espérance est ainsi définie comme une moyenne sur les valeurs prises par $X$. On peut aussi utiliser une moyenne sur les issues de l'expérience aléatoire. En effet, si $\Omega=\{\omega_1,\dots,\omega_p\}$, l'espérance vérifie aussi $$E(X)=\sum_{j=1}^p X(\omega_j)P(\{\omega_j\}).$$
On dit que $X$ est centrée si l'espérance de $X$ est nulle.
- elle est linéaire : $E(aX+Y)=aE(X)+E(Y)$;
- elle est positive : si $X\geq 0$, alors $E(X)\geq 0$;
- elle est croissante : si $X\leq Y$, alors $E(X)\leq E(Y)$;
En particulier, il suffit de connaitre la loi de $X$ pour connaitre l'espérance de $f(X)$ (on n'a pas besoin de connaitre la loi de $f(X)$).
La réciproque est fausse en général.
On appelle variance de la variable aléatoire réelle $X$ la quantité $$V(X)=E\Big(\big (X-E(X)\big)^2\Big)$$ et écart-type de $X$ la quantité $\sigma(X)=\sqrt{V(X)}$. On dit que $X$ est réduite si sa variance vaut $1$.
En particulier, si $X$ n'est pas de variance nulle, alors la variable aléatoire $\frac{X-E(X)}{\sigma(X)}$ est centrée réduite.
On appelle covariance des deux variables aléatoires réelles la quantité $$Cov(X,Y)=E(XY)-E(X)E(Y).$$ Lorsque $Cov(X,Y)=0$, on dit que $X$ et $Y$ sont décorrélées. En particulier, deux variables aléatoires indépendantes sont décorrélées, mais la réciproque est fausse.
L'inégalité de Markov donne une majoration de la probabilité qu'une variable aléatoire $X$ prenne de grandes valeurs.
L'inégalité de Bienaymé-Tchebychev donne une majoration de la probabilité qu'une variable aléatoire $X$ s'écarte de sa moyenne.