$$\newcommand{\mtn}{\mathbb{N}}\newcommand{\mtns}{\mathbb{N}^*}\newcommand{\mtz}{\mathbb{Z}}\newcommand{\mtr}{\mathbb{R}}\newcommand{\mtk}{\mathbb{K}}\newcommand{\mtq}{\mathbb{Q}}\newcommand{\mtc}{\mathbb{C}}\newcommand{\mch}{\mathcal{H}}\newcommand{\mcp}{\mathcal{P}}\newcommand{\mcb}{\mathcal{B}}\newcommand{\mcl}{\mathcal{L}} \newcommand{\mcm}{\mathcal{M}}\newcommand{\mcc}{\mathcal{C}} \newcommand{\mcmn}{\mathcal{M}}\newcommand{\mcmnr}{\mathcal{M}_n(\mtr)} \newcommand{\mcmnk}{\mathcal{M}_n(\mtk)}\newcommand{\mcsn}{\mathcal{S}_n} \newcommand{\mcs}{\mathcal{S}}\newcommand{\mcd}{\mathcal{D}} \newcommand{\mcsns}{\mathcal{S}_n^{++}}\newcommand{\glnk}{GL_n(\mtk)} \newcommand{\mnr}{\mathcal{M}_n(\mtr)}\DeclareMathOperator{\ch}{ch} \DeclareMathOperator{\sh}{sh}\DeclareMathOperator{\th}{th} \DeclareMathOperator{\vect}{vect}\DeclareMathOperator{\card}{card} \DeclareMathOperator{\comat}{comat}\DeclareMathOperator{\imv}{Im} \DeclareMathOperator{\rang}{rg}\DeclareMathOperator{\Fr}{Fr} \DeclareMathOperator{\diam}{diam}\DeclareMathOperator{\supp}{supp} \newcommand{\veps}{\varepsilon}\newcommand{\mcu}{\mathcal{U}} \newcommand{\mcun}{\mcu_n}\newcommand{\dis}{\displaystyle} \newcommand{\croouv}{[\![}\newcommand{\crofer}{]\!]} \newcommand{\rab}{\mathcal{R}(a,b)}\newcommand{\pss}[2]{\langle #1,#2\rangle} $$
Bibm@th

Méthodes : variables aléatoires finies

Déterminer la loi d'une variable aléatoire $X$

Pour déterminer la loi d'une variable aléatoire $X$,

  • on peut essayer de voir si on n'est pas dans une situation amenant à une loi connue, le plus souvent, une loi binomiale ou une loi géométrique (voir cet exercice). Dans ce cas, il faut justifier précisément pourquoi on utilise cette loi. Si on veut prouver que $X$ suit une loi binomiale de paramètres $n$ et $p,$ il faut écrire que $X$ compte le nombre de succès (c'est-à-dire ....) dans la répétition de $n$ expériences de Bernoulli indépendantes dont la probabilité de succès de chacune vaut $p$. Si on veut prouver que $X$ suit une loi géométrique de paramètre $p$, il faut écrire que $X$ désigne le rang du premier succès (c'est-à-dire ....) dans la répétition de $n$ expériences de Bernoulli indépendantes dont la probabilité de succès de chacune vaut $p$.
  • sinon, on détermine les valeurs prises par la variable aléatoire, et on calcule la probabilité de chaque valeur prise en utilisant toutes les techniques usuelles de calcul de probabilités (voir cet exercice ou cet exercice);
  • si la variable aléatoire $X$ est à valeurs dans $\mathbb N^*$ et que l'énoncé nous a fait calculer $P(X>k)$ pour tout $k\in\mathbb N,$ on peut utiliser le fait que $$(X>k-1)=(X=k)\cup(X>k)$$ et que cette réunion est disjointe pour en déduire que $$P(X=k)=P(X>k-1)-P(X>k)$$ (voir cet exercice).
  • si on connait la loi d'un couple $(X,Y)$, on peut retrouver la loi de $X$ comme loi marginale du couple, c'est-à-dire écrire que $$P(X=i)=\sum_{j=1}^n P\big ( (X,Y)=(i,j)\big)$$ (voir cet exercice).
Déterminer la loi du minimum de variables aléatoires

Si $X$ et $Y$ sont deux variables aléatoires indépendantes à valeurs dans $\mathbb Z$, pour déterminer la loi de $Z=\min(X,Y)$, on écrit que, pour tout $k\in\mathbb Z$, on a $$Z\geq k\iff (X\geq k)\textrm{ et }(Y\geq k)$$ puis, en utilisant que $X$ et $Y$ sont indépendantes, $$P(Z\geq k)=P(X\geq k)\times P(Y\geq k).$$ On retrouve la loi de $Z$ par la formule $P(Z=k)=P(Z\geq k)-P(Z\geq k+1)$.

Cette méthode peut être adaptée au minimum d'un nombre fini de variables aléatoires indépendantes (voir cet exercice).

Déterminer la loi du maximum de variables aléatoires

Si $X$ et $Y$ sont deux variables aléatoires indépendantes à valeurs dans $\mathbb Z$, pour déterminer la loi de $Z=\max(X,Y)$, on écrit que, pour tout $k\in\mathbb Z$, on a $$Z\leq k\iff (X\leq k)\textrm{ et }(Y\leq k)$$ puis, en utilisant que $X$ et $Y$ sont indépendantes, $$P(Z\leq k)=P(X\leq k)\times P(Y\leq k).$$ On retrouve la loi de $Z$ par la formule $P(Z=k)=P(Z\leq k)-P(Z\leq k-1)$.

Cette méthode peut être adaptée au maximum d'un nombre fini de variables aléatoires indépendantes.

Déterminer la loi d'une somme $X+Y$

Pour déterminer la loi d'une somme $X+Y$,

  • on détermine la loi conjointe du couple $(X,Y)$, c'est-à-dire que l'on calcule $P\big ( (X,Y)=(i,j)\big)$ pour tous les couples possibles $(i,j)$;
  • on écrit que $$P(X+Y=k)=\sum_{i+j=k}P\big( (X,Y)=(i,j)\big)=\sum_{i=0}^k P\big( (X,Y)=(i,k-i)\big)$$
(voir cet exercice).
Étudier si deux variables aléatoires sont indépendantes

Pour déterminer si deux variables aléatoires sont indépendantes, ou pas, on peut

  • calculer les différentes valeurs de $P\big((X=i),(Y=j)\big)$ et vérifier si pour tous les couples $(i,j)$, cela est égal à $P(X=i)\times P(X=j)$ (voir cet exercice).;
  • calculer la covariance de $(X,Y)$. Si elle n'est pas nulle, les variables aléatoires ne sont pas indépendantes (voir cet exercice). Attention, la réciproque est fausse!
Calculer $P(X=Y)$ où $X$ et $Y$ sont deux variables aléatoires

Pour calculer $P(X=Y)$ pour $X$ et $Y$ deux variables définies sur le même univers fini $\Omega$, on commence par identifier $X(\Omega)\cap Y(\Omega)=\{z_1,\dots,z_N\}$, c'est-à-dire les valeurs qui peuvent être prises par $X$ et par $Y$. On utilise ensuite que $$P(X=Y)=\sum_{k=1}^N P((X=z_k)\cap (Y=z_k))$$ et on calcule chacune de ces probabilités, ce qui est facile si on sait que ces variables aléatoires sont indépendantes (voir cet exercice).

Calculer la probabilité d'un événement lié à deux variables aléatoires $X$ et $Y$

Pour calculer la probabilité d'un événement lié à deux variables aléatoires $X$ et $Y$ (par exemple, $X=Y$ ou $X\leq Y$), on peut

  • calculer la loi du couple $(X,Y)$;
  • déterminer pour quels couples $(i,j)$ l'événement est réalisé;
  • sommer les probabilités $P\big( (X,Y)=(i,j)\big)$ pour tous ces couples.
Obtenir des inégalités faisant intervenir des probabilités et des variables aléatoires

Dans ce cas, on pensera aux inégalités de Markov et de Bienaymé-Tchebychev (voir cet exercice).