Indépendance en probabilités
Dans toute la suite, $(\Omega,\mathcal A,P)$ désigne un espace de probabilité.
Deux événements $A$ et $B$ sont dits indépendants (par rapport à $P$) si $P(A\cap B)=P(A)P(B),$ ce qui peut encore s'écrire, si $P(A)\neq 0$, $P(B|A)=P(B)$. Dire que $A$ et $B$ sont indépendants signifie donc qu'avoir des informations concernant la réalisation de $A$ ne renseigne pas sur la réalisation de $B.$
Exemple :
- On lance un dé à 6 faces et on note $A$ l'événement "Obtenir un nombre pair", et $B$ l'événément "Obtenir un multiple de 3". On a : $$P(A)=1/2,\ P(B)=1/3,\ P(A\cap B)=1/6=P(A)P(B).$$ Les événements $A$ et $B$ sont indépendants.
- On lance deux dés rouges et verts, et on note $A$ l'événement "La somme des numéros fait 6" et $B$ l'événement "Sur le dé rouge, on obtient un nombre pair". Un petit dénombrement de tous les cas possibles montre que : $$P(A)=5/36,\ P(B)=18/36,\ P(A\cap B)=2/36\neq P(A)P(B).$$ Les événements $A$ et $B$ ne sont pas indépendants.
Si on considère $m$ événements $A_1,\dots,A_m$, il y a deux façons de définir leur indépendance :
- On dit que $A_1,\dots,A_m$ sont mutuellement indépendants si, pour toute partie $J=\{j_1,\dots,j_p\}\subset\{1,...,m\},$ on a $$P(A_{j_1}\cap\cdots\cap A_{j_p})=P(A_{j_1})\times\cdots\times P(A_{j_p}).$$
- On dit que $A_1,\dots,A_m$ sont deux à deux indépendants si, pour tous $i$ et $j$ de $\{1,...,m\},$ $$P(A_i\cap A_j)=P(A_i)P(A_j).$$
Ces définitions s'étendent à des familles quelconques $(A_i)_{i\in I}$ d'événements, avec $I$ non nécessairement finie, en considérant uniquement les parties finies $J$ contenues dans $I$.
Par exemple, trois événements $A$, $B$ et $C$ sont :
- mutuellement indépendants lorsque : $$P(A\cap B)=P(A)P(B),P(A\cap C)=P(A)P(C),\ P(B\cap C)=P(B)P(C)$$ $$P(A\cap B\cap C)=P(A)P(B)P(C).$$
- indépendants deux à deux lorsque $$P(A\cap B)=P(A)P(B),P(A\cap C)=P(A)P(C),\ P(B\cap C)=P(B)P(C)$$
Bien sûr, des événements mutuellement indépendants sont indépendants deux à deux, la réciproque est fausse comme le prouve l'exemple suivant :
Exemple : On lance 2 fois une pièce de monnaie. On considère les événements suivants : $$\begin{align*} A&=\{\textrm{On obtient pile au 1er lancer}\}\\ B&=\{\textrm{On obtient face au 2ème lancer}\}\\ C&=\{\textrm{On obtient la même chose aux 2 lancers}\}. \end{align*} $$ Très facilement, on prouve que $$\begin{array}{lll} P(A)=1/2&P(B)=1/2&P(C)=1/2\\ P(A\cap B)=1/4&P(A\cap C)=1/4&P(B\cap C)=1/4\\ P(A\cap B\cap C)=0. \end{array}$$ Les événements $A$, $B$ et $C$ sont donc 2 à 2 indépendants, mais ne sont pas mutuellement indépendants.
Deux variables aléatoires $X$ et $Y$ sont dites indépendantes si, pour tous intervalles $A$ et $B$ de $\mathbb R$ $$P(X\in A,\ Y\in B)=P(X\in A)P(Y\in B).$$ Si $(X_1,\dots,X_n)$ est une famille de $n$ variables aléatoires définies sur le même espace $(\Omega,\mathcal A,\mathbb P)$, alors on dit que les variables aléatoires sont mutuellement indépendantes si, pour tous intervalles $A_1,\dots,A_n$ de $\mathbb R$, on a $$P\big((X_1\in A_1)\cap\cdots\cap(X_n\in A_n)\big)=P(X_1\in A_1)\times\cdots\times P(X_n\in A_n).$$ Si $X_1,\dots,X_n$ sont des variables aléatoires discrètes, alors $(X_1,\dots,X_n)$ sont mutuellement indépendantes si, pour tous $x_1,\dots,x_n\in X_1(\Omega)\times\cdots\times X_n(\Omega)$, on a $$P\big((X_1=x_1)\cap\cdots \cap(X_n=x_n)\big)=P(X_1=x_1)\times \cdots\times P(X_n=x_n).$$
Exemple : On lance 3 dés. On note $X$ la valeur du chiffre indiqué par le premier dé, $Y$ la valeur du chiffre indiqué par le deuxième, et $Z$ la valeur du chiffre indiqué par le troisième. Alors $(X,Y,Z)$ sont des variables aléatoires mutuellement indépendantes.
On dit que les tribus $\tau_1,\dots,\tau_n$ sont indépendantes si : $$\forall (A_1,\dots,A_n)\in \tau_1\times\dots\times\tau_n,\ P(A_1\cap\dots\cap A_n)=\prod_{i=1}^n P(A_i).$$ Une suite de tribus est dite indépendante si toute sous-famille finie l'est.