$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Résumé de cours : espaces probabilisés dénombrables

On considère une expérience aléatoire d'univers $\Omega$, c'est-à-dire que $\Omega$ est l'ensemble des résultats possibles de l'expérience aléatoire.

Langage des probabilités

Une tribu (ou $\sigma$-algèbre) sur $\Omega$ est une partie $\mathcal T$ de l'ensemble des parties de $\Omega$ telle que

  • $\Omega\in\mathcal T$;
  • Pour tout $A\in\mathcal T$, son complémentaire $\bar A$ est élément de $\mathcal T$;
  • Si $(A_n)_{n\in\mathbb N}$ est une suite d'éléments de $\mathcal T$, la réunion $\bigcup_{n=0}^{+\infty} A_n$ est élément de $\mathcal T$.

Exemples : La tribu triviale $\{\varnothing,\Omega\}$ est une tribu, l'ensemble des parties $\mathcal P(\Omega)$ est aussi une tribu.

Proposition : Soit $\mathcal T$ une tribu. Alors
  • $\varnothing\in\mathcal T$;
  • toute réunion finie ou dénombrable d'éléments de $\mathcal T$ est un élément de $\mathcal T$;
  • toute intersection finie ou dénombrable d'éléments de $\mathcal T$ est un élément de $\mathcal T$.

Si $\mathcal T$ est une tribu, le couple $(\Omega,\mathcal T)$ s'appelle espace probabilisable. Les éléments de $\mathcal T$ sont appelés les événements. $\Omega$ est l'événement certain et $\varnothing$ est l'événement impossible.

Deux événements $A$ et $B$ sont incompatibles si $A\cap B=\varnothing$.

On appelle système complet d'événements une famille finie ou dénombrable $(A_i)_{i\in I}$ d'événements deux à deux incompatibles et dont la réunion est l'événement certain $\Omega$.

Probabilités

Dans cette partie, $(\Omega,\mathcal T)$ désigne un espace probabilisable.

On appelle probabilité sur $(\Omega,\mathcal T)$ une application $P$ définie sur $\mathcal T$, à valeurs dans $[0,1]$ et vérifiant :

  • $P(\Omega)=1$;
  • Pour toute suite $(A_n)_{n\in\mathbb N}$ d'événements deux à deux incompatibles, la série $\sum_n P(A_n)$ converge et $$P\left(\bigcup_{n=0}^{+\infty}A_n\right)=\sum_{n=0}^{+\infty}P(A_n)$$ (on appelle cette propriété la $\sigma$-additivité ou additivité dénombrable.
Le triplet $(\Omega,\mathcal T,P)$ s'appelle alors espace probabilisé.

Exemple : si $\Omega=\{\omega_1,\dots,\omega_n\}$ est fini et $\mathcal T=\mathcal P(\Omega)$, on définit une probabilité sur $\Omega$ par la donnée d'une suite finie $(p_1,\dots,p_n)$ de réels strictement positifs et de somme 1 en posant, pour $A\subset\Omega,$ $$P(A)=\sum_{i:\ \omega_i\in A}p_i.$$

Propriétés des probabilités : Soit $(\Omega,\mathcal T,P)$ un espace probabilisé. Alors :
  • $P(\varnothing)=0$;
  • Pour tout $A\in\mathcal T$, $P(\bar A)=1-P(A)$;
  • Pour tous $A,B\in\mathcal P(\Omega)$, $A\subset B\implies P(A)\leq P(B)$;
  • Pour tous $A,B\in\mathcal P(\Omega)$, $P(A\cup B)=P(A)+P(B)-P(A\cap B)$.
Proposition (continuité croissante) : Si $(A_n)_{n\in\mathbb N}$ est une suite d'événements croissante pour l'inclusion, c'est-à-dire si $A_n\subset A_{n+1}$ pour tout entier $n$, alors $$\lim_{n\to+\infty}P(A_n)=P\left(\bigcup_{n=0}^{+\infty}A_n\right).$$
Proposition (continuité décroissante) : Si $(A_n)_{n\in\mathbb N}$ est une suite d'événements décroissante pour l'inclusion, c'est-à-dire si $A_n\supset A_{n+1}$ pour tout entier $n$, alors $$\lim_{n\to+\infty}P(A_n)=P\left(\bigcap_{n=0}^{+\infty}A_n\right).$$
Corollaire : Si $(A_n)_{n\in\mathbb N}$ est une suite d'événements, alors $$P\left(\bigcup_{n=0}^{+\infty}A_n\right)=\lim_{N\to+\infty}P\left(\bigcup_{n=0}^N A_n\right)\textrm{ et } P\left(\bigcap_{n=0}^{+\infty}A_n\right)=\lim_{N\to+\infty}P\left(\bigcap_{n=0}^N A_n\right) .$$

Exemples : Dans un jeu de pile ou face infini, notons $F_n$ l'événement "obtenir face au $n$-ème tirage" et $A$ l'événément "obtenir uniquement des faces". Alors $A=\bigcap_{n\geq 1}F_n$. De plus, si on note $E_n=\bigcap_{k=1}^n F_k,$ alors $P(E_n)=2^{-n}$. On en déduit que $P(A)=0.$

Proposition (sous-additivité) : Si $(A_n)_{n\in\mathbb N}$ est une suite d'événements telle que $\sum_{n=0}^{+\infty}P(A_n)$ converge, alors $$P\left(\bigcup_{n=0}^{+\infty}A_n\right)\leq \sum_{n=0}^{+\infty}P(A_n).$$

Un événement $A$ est dit négligeable si $P(A)=0$. Un événement $A$ est dit presque sûr si $P(A)=1$.

Proposition : Toute réunion au plus dénombrable d'événements négligeables est un événement négligeable. Toute intersection au plus dénombrable d'événements presque sûrs est un événement presque sûr.

On appelle système quasi-complet d'événements d'un espace probabilisé $(\Omega,\mathcal T,P)$ toute famille finie ou dénombrable $(A_i)_{i\in I}$ d'événements deux à deux incompatibles tels que $P\left(\bigcup_{i\in I}A_i\right)=1.$ Un système complet d'événements est en particulier quasi-complet.

Espaces probabilisés discrets

On appelle distribution de probabilités discrète sur un ensemble $\Omega$ une famille $(p_\omega)_{\omega\in\Omega}$ sommable et de somme $1.$ Le support de $(p_\omega)_{\omega\in\Omega}$ est $\{\omega\in\Omega:\ p_\omega\neq 0\}.$ C'est toujours une partie au plus dénombrable de $\Omega.$

Théorème : Soit $\Omega$ un ensemble.
  • Soit $(p_\omega)_{\omega\in\Omega}$ une distribution de probabilités discrète. Alors il existe une unique probabilité $P$ sur $(\Omega,\mathcal P(\Omega))$ telle que $P(\{\omega\})=p_\omega$ pour tout $\omega\in\Omega.$
  • On suppose de plus que $\Omega$ est au plus dénombrable et soit $P$ une probabilité sur $(\Omega,\mathcal P(\Omega)).$ Alors la famille $(P(\{\omega\}))_{\omega\in\Omega}$ est une distribution de probabilités discrète.

Un espace probabilisé $(\Omega,\mathcal P(\Omega),P)$ où $P$ est la probabilité associée à une distribution de probabilité discrète sur $\Omega$ est appelé espace probabilisé discret.

Probabilités conditionnelles et indépendance

On dit que deux événements $A$ et $B$ sont indépendants si $P(A\cap B)=P(A)P(B)$.

Soit $(A_i)_{i\in I}$ une famille d'événements. On dit que les $(A_i)_{i\in I}$ sont mutuellement indépendants si, pour toute partie finie $J$ de $I$, on a $$P\left(\bigcap_{j\in J}A_j\right)=\prod_{j\in J}P(A_j).$$

Des événements d'une famille peuvent être deux à deux indépendants sans être mutuellement indépendants. Par exemple, si on considère l'expérience aléatoire consistant à lancer deux dés parfaitement équilibrés, et les événements suivants :

  • A : "le résultat du premier dé est pair"
  • B : "le résultat du deuxième dé est pair"
  • C : "la somme des résultats des deux dés est pair".

Alors les événements $A,B$ et $C$ sont deux à deux indépendants sans être mutuellement indépendants.

Proposition :
  • si $A$ et $B$ sont deux événements indépendants, alors $\bar A$ et $B$ sont indépendants.
  • si $(A_i)_{i\in I}$ est une famille d'événements mutuellement indépendants, et si pour tout $i\in I,$ $B_i=A_i$ ou $\overline{A_i},$ alors $(B_i)_{i\in I}$ est une famille d'événements mutuellement indépendants.

Soit $A$ et $B$ deux événements tels que $P(B)>0$. On appelle probabilité conditionnelle de $A$ sachant $B$ le réel $$P(A|B)=P_B(A)=\frac{P(A\cap B)}{P(B)}.$$ $P_B$ est une probabilité sur $\Omega$.

Comme conséquence de la définition des probabilités conditionnelles, on peut observer que si $A$ et $B$ sont deux événements tels que $P(B)>0,$ alors $A$ et $B$ sont indépendants si et seulement si $P(A|B)=P(A)$.

Formule des probabilités composées : Soient $A_1,\dots,A_m$ des événements tels que $P(A_1\cap\dots\cap A_{m-1})\neq 0$. Alors : $$P(A_1\cap\dots\cap A_m)=P(A_1)P(A_2|A_1)P(A_3|A_1\cap A_2)\cdots P(A_m|A_1\cap \dots\cap A_{m-1}).$$
Formule des probabilités totales : Soit $(A_n)_{n\in\mathbb N}$ un système quasi-complet d'événements, tous de probabilité non nulle. Soit $B$ un événement. Alors la série $\sum_n P(B\cap A_n)$ converge et on a : $$P(B)=\sum_{n=0}^{+\infty}P(B\cap A_n)=\sum_{n=0}^{+\infty} P(A_n)P(B|A_n).$$

En particulier, on retrouve la formule des probabilités totales pour un nombre fini d'événements : soit $A_1,\dots,A_n$ un système complet d'événements, tous de probabilité non nulle. Soit $B$ un événement. Alors : $$P(B)=\sum_{i=1}^n P(A_i)P(B|A_i).$$

Formule de Bayes : Si $I$ est un ensemble fini ou dénombrable, et si $(A_i)$ est un système quasi-complet d'événéments dont aucun n'est négligeable, alors pour tout événement $B$ non négligeable et pour tout $k\in I$, on a : $$P(A_k|B)=\frac{P(A_k)P(B|A_k)}{\sum_{i\in I}P(A_i)P(B|A_i)}.$$

En particulier, on retrouve la formule de Bayes pour deux événements : si $A$ et $B$ sont deux événements de probabilité non nulle, alors $$P(A|B)=\frac{P(B|A)P(A)}{P(B)}.$$