Indépendance en probabilités
Dans toute la suite, $(\Omega,\mathcal A,P)$ désigne un espace de probabilité.
Deux événements $A$ et $B$ sont dits indépendants (par rapport à $P$) si $P(A\cap B)=P(A)P(B),$ ce qui peut encore s'écrire, si $P(A)\neq 0$, $P(B|A)=P(B)$. Dire que $A$ et $B$ sont indépendants signifie donc qu'avoir des informations concernant la réalisation de $A$ ne renseigne pas sur la réalisation de $B.$
Exemple :
- On lance un dé à 6 faces et on note $A$ l'événement "Obtenir un nombre pair", et $B$ l'événément "Obtenir un multiple de 3". On a : $$P(A)=1/2,\ P(B)=1/3,\ P(A\cap B)=1/6=P(A)P(B).$$ Les événements $A$ et $B$ sont indépendants.
- On lance deux dés rouges et verts, et on note $A$ l'événement "La somme des numéros fait 6" et $B$ l'événement "Sur le dé rouge, on obtient un nombre pair". Un petit dénombrement de tous les cas possibles montre que : $$P(A)=5/36,\ P(B)=18/36,\ P(A\cap B)=2/36\neq P(A)P(B).$$ Les événements $A$ et $B$ ne sont pas indépendants.
- Un sac contient deux boules noires et deux boules blanches. On tire une boule, on la remet dans le sac, puis on tire encore une boule dans le sac. On note $A$ l'événement "le premier tirage donne une boule blanche" et $B$ l'événement "le deuxième tirage donne une boule blanche". Alors $A$ et $B$ sont indépendants. C'est plutôt clair intuitivement (le résultat du premier tirage n'influence pas le résultat du deuxième tirage) et on peut le vérifier par le calcul : $$P(A)=P(B)=\frac 12,\ P(A\cap B)=\frac 14.$$
- Un sac contient deux boules noires et deux boules blanches. On tire une boule puis, sans la remettre dans le sac, on tire encore une boule. On note $A$ l'événement "le premier tirage donne une boule blanche" et $B$ l'événement "le deuxième tirage donne une boule blanche". Alors $A$ et $B$ ne sont pas indépendants. C'est plutôt clair intuitivement (le résultat du premier tirage influence clairement celui du deuxième) et on peut le vérifier par la définition, même si c'est un peu plus dur de faire les calculs : $$P(A)=\frac 12,\ P(B)=\frac 12,\ P(A\cap B)=\frac 16$$ (pour ce dernier calcul, on utilise $P(B|A)=\frac 13$).
Si on considère $m$ événements $A_1,\dots,A_m$, il y a deux façons de définir leur indépendance :
- On dit que $A_1,\dots,A_m$ sont mutuellement indépendants si, pour toute partie $J=\{j_1,\dots,j_p\}\subset\{1,...,m\},$ on a $$P(A_{j_1}\cap\cdots\cap A_{j_p})=P(A_{j_1})\times\cdots\times P(A_{j_p}).$$
- On dit que $A_1,\dots,A_m$ sont deux à deux indépendants si, pour tous $i$ et $j$ de $\{1,...,m\},$ $$P(A_i\cap A_j)=P(A_i)P(A_j).$$
Ces définitions s'étendent à des familles quelconques $(A_i)_{i\in I}$ d'événements, avec $I$ non nécessairement finie, en considérant uniquement les parties finies $J$ contenues dans $I$.
Par exemple, trois événements $A$, $B$ et $C$ sont :
- mutuellement indépendants lorsque : $$P(A\cap B)=P(A)P(B),P(A\cap C)=P(A)P(C),\ P(B\cap C)=P(B)P(C)$$ $$P(A\cap B\cap C)=P(A)P(B)P(C).$$
- indépendants deux à deux lorsque $$P(A\cap B)=P(A)P(B),P(A\cap C)=P(A)P(C),\ P(B\cap C)=P(B)P(C)$$
Bien sûr, des événements mutuellement indépendants sont indépendants deux à deux, la réciproque est fausse comme le prouve l'exemple suivant :
Exemple : On lance 2 fois une pièce de monnaie. On considère les événements suivants : $$\begin{align*} A&=\{\textrm{On obtient pile au 1er lancer}\}\\ B&=\{\textrm{On obtient face au 2ème lancer}\}\\ C&=\{\textrm{On obtient la même chose aux 2 lancers}\}. \end{align*} $$ Très facilement, on prouve que $$\begin{array}{lll} P(A)=1/2&P(B)=1/2&P(C)=1/2\\ P(A\cap B)=1/4&P(A\cap C)=1/4&P(B\cap C)=1/4\\ P(A\cap B\cap C)=0. \end{array}$$ Les événements $A$, $B$ et $C$ sont donc 2 à 2 indépendants, mais ne sont pas mutuellement indépendants.
Deux variables aléatoires $X$ et $Y$ sont dites indépendantes si, pour tous intervalles $A$ et $B$ de $\mathbb R$ $$P(X\in A,\ Y\in B)=P(X\in A)P(Y\in B).$$ Si $(X_1,\dots,X_n)$ est une famille de $n$ variables aléatoires définies sur le même espace $(\Omega,\mathcal A,\mathbb P)$, alors on dit que les variables aléatoires sont mutuellement indépendantes si, pour tous intervalles $A_1,\dots,A_n$ de $\mathbb R$, on a $$P\big((X_1\in A_1)\cap\cdots\cap(X_n\in A_n)\big)=P(X_1\in A_1)\times\cdots\times P(X_n\in A_n).$$ Si $X_1,\dots,X_n$ sont des variables aléatoires discrètes, alors $(X_1,\dots,X_n)$ sont mutuellement indépendantes si, pour tous $x_1,\dots,x_n\in X_1(\Omega)\times\cdots\times X_n(\Omega)$, on a $$P\big((X_1=x_1)\cap\cdots \cap(X_n=x_n)\big)=P(X_1=x_1)\times \cdots\times P(X_n=x_n).$$
Exemple : On lance 3 dés. On note $X$ la valeur du chiffre indiqué par le premier dé, $Y$ la valeur du chiffre indiqué par le deuxième, et $Z$ la valeur du chiffre indiqué par le troisième. Alors $(X,Y,Z)$ sont des variables aléatoires mutuellement indépendantes.
On dit que les tribus $\tau_1,\dots,\tau_n$ sont indépendantes si : $$\forall (A_1,\dots,A_n)\in \tau_1\times\dots\times\tau_n,\ P(A_1\cap\dots\cap A_n)=\prod_{i=1}^n P(A_i).$$ Une suite de tribus est dite indépendante si toute sous-famille finie l'est.








