Résumé de cours : espaces probabilisés dénombrables
On considère une expérience aléatoire d'univers $\Omega$, c'est-à-dire que $\Omega$ est l'ensemble des résultats possibles de l'expérience aléatoire.
Une tribu (ou $\sigma$-algèbre) sur $\Omega$ est une partie $\mathcal T$ de l'ensemble des parties de $\Omega$ telle que
- $\Omega\in\mathcal T$;
- Pour tout $A\in\mathcal T$, son complémentaire $\bar A$ est élément de $\mathcal T$;
- Si $(A_n)_{n\in\mathbb N}$ est une suite d'éléments de $\mathcal T$, la réunion $\bigcup_{n=0}^{+\infty} A_n$ est élément de $\mathcal T$.
Exemples : La tribu triviale $\{\varnothing,\Omega\}$ est une tribu, l'ensemble des parties $\mathcal P(\Omega)$ est aussi une tribu.
- $\varnothing\in\mathcal T$;
- toute réunion finie ou dénombrable d'éléments de $\mathcal T$ est un élément de $\mathcal T$;
- toute intersection finie ou dénombrable d'éléments de $\mathcal T$ est un élément de $\mathcal T$.
Si $\mathcal T$ est une tribu, le couple $(\Omega,\mathcal T)$ s'appelle espace probabilisable. Les éléments de $\mathcal T$ sont appelés les événements. $\Omega$ est l'événement certain et $\varnothing$ est l'événement impossible.
Deux événements $A$ et $B$ sont incompatibles si $A\cap B=\varnothing$.
On appelle système complet d'événements une famille finie ou dénombrable $(A_i)_{i\in I}$ d'événements deux à deux incompatibles et dont la réunion est l'événement certain $\Omega$.
Dans cette partie, $(\Omega,\mathcal T)$ désigne un espace probabilisable.
On appelle probabilité sur $(\Omega,\mathcal T)$ une application $P$ définie sur $\mathcal T$, à valeurs dans $[0,1]$ et vérifiant :
- $P(\Omega)=1$;
- Pour toute suite $(A_n)_{n\in\mathbb N}$ d'événements deux à deux incompatibles, la série $\sum_n P(A_n)$ converge et $$P\left(\bigcup_{n=0}^{+\infty}A_n\right)=\sum_{n=0}^{+\infty}P(A_n)$$ (on appelle cette propriété la $\sigma$-additivité ou additivité dénombrable.
Exemple : si $\Omega=\{\omega_1,\dots,\omega_n\}$ est fini et $\mathcal T=\mathcal P(\Omega)$, on définit une probabilité sur $\Omega$ par la donnée d'une suite finie $(p_1,\dots,p_n)$ de réels strictement positifs et de somme 1 en posant, pour $A\subset\Omega,$ $$P(A)=\sum_{i:\ \omega_i\in A}p_i.$$
- $P(\varnothing)=0$;
- Pour tout $A\in\mathcal T$, $P(\bar A)=1-P(A)$;
- Pour tous $A,B\in\mathcal P(\Omega)$, $A\subset B\implies P(A)\leq P(B)$;
- Pour tous $A,B\in\mathcal P(\Omega)$, $P(A\cup B)=P(A)+P(B)-P(A\cap B)$.
Exemples : Dans un jeu de pile ou face infini, notons $F_n$ l'événement "obtenir face au $n$-ème tirage" et $A$ l'événément "obtenir uniquement des faces". Alors $A=\bigcap_{n\geq 1}F_n$. De plus, si on note $E_n=\bigcap_{k=1}^n F_k,$ alors $P(E_n)=2^{-n}$. On en déduit que $P(A)=0.$
Un événement $A$ est dit négligeable si $P(A)=0$. Un événement $A$ est dit presque sûr si $P(A)=1$.
On appelle système quasi-complet d'événements d'un espace probabilisé $(\Omega,\mathcal T,P)$ toute famille finie ou dénombrable $(A_i)_{i\in I}$ d'événements deux à deux incompatibles tels que $P\left(\bigcup_{i\in I}A_i\right)=1.$ Un système complet d'événements est en particulier quasi-complet.
On appelle distribution de probabilités discrète sur un ensemble $\Omega$ une famille $(p_\omega)_{\omega\in\Omega}$ sommable et de somme $1.$ Le support de $(p_\omega)_{\omega\in\Omega}$ est $\{\omega\in\Omega:\ p_\omega\neq 0\}.$ C'est toujours une partie au plus dénombrable de $\Omega.$
- Soit $(p_\omega)_{\omega\in\Omega}$ une distribution de probabilités discrète. Alors il existe une unique probabilité $P$ sur $(\Omega,\mathcal P(\Omega))$ telle que $P(\{\omega\})=p_\omega$ pour tout $\omega\in\Omega.$
- On suppose de plus que $\Omega$ est au plus dénombrable et soit $P$ une probabilité sur $(\Omega,\mathcal P(\Omega)).$ Alors la famille $(P(\{\omega\}))_{\omega\in\Omega}$ est une distribution de probabilités discrète.
Un espace probabilisé $(\Omega,\mathcal P(\Omega),P)$ où $P$ est la probabilité associée à une distribution de probabilité discrète sur $\Omega$ est appelé espace probabilisé discret.
On dit que deux événements $A$ et $B$ sont indépendants si $P(A\cap B)=P(A)P(B)$.
Soit $(A_i)_{i\in I}$ une famille d'événements. On dit que les $(A_i)_{i\in I}$ sont mutuellement indépendants si, pour toute partie finie $J$ de $I$, on a
$$P\left(\bigcap_{j\in J}A_j\right)=\prod_{j\in J}P(A_j).$$ Des événements d'une famille peuvent être
deux à deux indépendants sans être mutuellement indépendants. Par exemple, si on considère l'expérience
aléatoire consistant à lancer deux dés parfaitement équilibrés, et les événements suivants : Alors les événements $A,B$ et $C$ sont deux à deux indépendants
sans être mutuellement indépendants.
Soit $A$ et $B$ deux événements tels que $P(B)>0$. On appelle probabilité conditionnelle de $A$ sachant $B$ le réel
$$P(A|B)=P_B(A)=\frac{P(A\cap B)}{P(B)}.$$
$P_B$ est une probabilité sur $\Omega$.
Comme conséquence de la définition des probabilités conditionnelles, on peut observer que
si $A$ et $B$ sont deux
événements tels que $P(B)>0,$ alors $A$ et $B$ sont indépendants si et seulement si $P(A|B)=P(A)$.
En particulier, on retrouve la formule des probabilités totales pour un nombre fini d'événements : soit $A_1,\dots,A_n$ un système complet d'événements, tous de probabilité non nulle. Soit $B$ un événement. Alors :
$$P(B)=\sum_{i=1}^n P(A_i)P(B|A_i).$$
En particulier, on retrouve la formule de Bayes pour deux événements : si $A$ et $B$ sont deux événements de probabilité non nulle, alors
$$P(A|B)=\frac{P(B|A)P(A)}{P(B)}.$$