Conditionnement et indépendance
Définition : Probabilité conditionnelle, indépendance
Soit $A$ et $B$ deux événements d'un même espace probabilisé $(\Omega,\mathcal{A},\mathbb{P})$.
- On suppose que $\mathbb{P}(A)\ne0$. On appelle probabilité de l'événement $B$ conditionnée par l'événement $A$ le réel :
$$\ds\mathbb{P}_{A}(B)=\frac{\mathbb{P}(B\cap A)}{\mathbb{P}(A)}$$ - Les deux événements $A$ et $B$ sont dits indépendants pour $\mathbb{P}$ lorsque :
$$\ds\mathbb{P}(A\cap B)=\mathbb{P}(A)\mathbb{P}(B)$$ - Une famille est constituée d'événements mutuellement indépendants lorsque :
- Famille finie $(A_{i})_{i\in\llbracket1,n\rrbracket}$ :
$$\ds\forall k\in\llbracket2,n\rrbracket,\;\forall(i_{1},\dots,i_{k})\in\N^{k},\;1\leqslant i_{1}<\dots<i_{k}\leqslant n\;\implies\;\mathbb{P}(A_{i_{1}}\cap\dots\cap A_{i_{k}})=\mathbb{P}A_{i_{1}})\times\dots\times\mathbb{P}(A_{i_{k}})$$ - Famille infinie $(A_{i})_{i\in\N}$ :
$$\ds\forall k\in\N,\;\forall(i_{1},\dots,i_{k})\in\N^{k},\;0\leqslant i_{1}<\dots<i_{k}\;\implies\;\mathbb{P}(A_{i_{1}}\cap\dots\cap A_{i_{k}})=\mathbb{P}(A_{i_{1}})\times\dots\times\mathbb{P}(A_{i_{k}})$$
Théorème
Soit $A$ un événement de probabilité non nulle d'un espace probabilisé $(\Omega,\mathcal{A},\mathbb{P})$.
- Alors $(\Omega,\mathcal{A},\mathbb{P}_{A})$ est un espace probabilisé (c'est le même lorsque $A=\Omega$).
- Soit $B$ un événement quelconque. Alors, $A$ et $B$ sont indépendants si et seulement si $\mathbb{P}_{A}(B)=\mathbb{P}(B)$.
Exemples
- On lance un dé cubique équilibré. Soit $A$ l'événement « le numéro obtenu est pair » et $B$ l'événement « le numéro obtenu est divisible par 3 ». Montrer que les événements $A$ et $B$ sont indépendants.
- Soit $(A_{n})_{n\in\N}$ des événements d'un espace probabilisé $(\Omega,\mathcal{A},\mathbb{P})$ tels que, pour tout entier $i\in\N$, l'événement $A_{i}$ est indépendant de chaque événement de la forme $B_{1}\cap\dots\cap B_{i-1}$ où $B_{k}=A_{k}$ ou bien $B_{k}=\bar{A_{k}}$. Montrer que les événements $(A_{n})_{n\in\N}$ sont mutuellement indépendants.
Théorème : Formule des probabilités composées
Soit $(B_{1},\dots,B_{n})$ une famille d'événements d'un espace probabilisé $(\Omega,\mathcal{A},\mathbb{P})$.
- Si $\mathbb{P}(B_{1}\cap\dots\cap B_{n-1})\neq0$ alors :
$$\ds\mathbb{P}(B_{1}\cap\dots\cap B_{n})=\mathbb{P}(B_{1})\times\mathbb{P}_{B_{1}}(B_{2})\times\dots\times\mathbb{P}_{B_{1}\cap\dots\cap B_{n-1}}(B_{n})$$ - Dans le cas où les événements sont mutuellement indépendants, la formule se simplifie en une partie de la définition :
$$\ds\mathbb{P}(B_{1}\cap\dots\cap B_{n})=\mathbb{P}(B_{1})\times\mathbb{P}(B_{2})\times\dots\times\mathbb{P}(B_{n})$$
Théorème : Formule des probabilités totales
Soit $(A_{k})_{k\in\N}$ une famille d'événements d'un espace probabilisé $(\Omega,\mathcal{A},\mathbb{P})$. Soit $B$ un événement.
- Si $n\geqslant1$ et si $(A_{1},\dots,A_{n})$ est un système complet d'événements (tous de probabilité non nulle pour la seconde égalité) alors :
$$\ds\mathbb{P}(B)=\sum_{k=1}^{n}{\mathbb{P}(A_{k}\cap B})=\sum_{k=1}^{n}{\mathbb{P}(A_{k})\mathbb{P}_{A_{k}}(B)}$$ - Si $(A_{k})_{k\in\N}$ est un système (quasi) complet d'événements (tous de probabilité non nulle pour la seconde égalité) alors :
$$\ds\mathbb{P}(B)=\sum_{k=1}^{+\infty}{\mathbb{P}(A_{k}\cap B})=\sum_{k=1}^{+\infty}{\mathbb{P}(A_{k})\mathbb{P}_{A_{k}}(B)}$$
Théorème : Formule de Bayes
Soit $(A_{k})_{k\in\N}$ une famille d'événements d'un espace probabilisé $(\Omega,\mathcal{A},\mathbb{P})$. Soit $B$ un événement.
- Si $n\geqslant1$ et si $(A_{1},\dots,A_{n})$ est un système complet d'événements (tous de probabilité non nulle pour la seconde égalité) alors :
$$\ds\mathbb{P}_{B}(A_i)=\frac{\mathbb{P}(A_i \cap B)}{\mathbb{P}(B)}=\frac{\mathbb{P}(A_i \cap B)}{\ds\sum_{k=1}^{n}{\mathbb{P}(A_{k}\cap B})}$$ - Si $(A_{k})_{k\in\N}$ est un système (quasi) complet d'événements (tous de probabilité non nulle pour la seconde égalité) alors :
$$\ds\mathbb{P}_{B}(A_i)=\frac{\mathbb{P}(A_i \cap B)}{\mathbb{P}(B)}=\frac{\mathbb{P}(A_i \cap B)}{\ds\sum_{k=1}^{+\infty}{\mathbb{P}(A_{k}\cap B})}$$
Théorème : Substitution par des événements contraires
Soit $(\Omega,\mathcal{A},\mathbb{P})$ un espace probabilisé. Soit $(A_{k})_{k\in\N}$ une famille d'événements. Pour tout entier $k\in\N$, on pose: $B_{k}=A_{k}$ ou bien $B_{k}=\bar{A}_{k}$. On a :
- si $n\geqslant1$ et si $(A_{1},\dots,A_{n})$ est une famille d'événements mutuellement indépendants alors $(B_{1},\dots,B_{n})$ est une famille d'événements mutuellement indépendants.
- si $(A_{k})_{k\in\N}$ est une famille d'événements mutuellement indépendants alors la famille $(B_{k})_{k\in\N}$ est une famille d'événements mutuellement indépendants.
Exemple
On dispose d'une pièce de monnaie truquée de sorte que le côté pile a une probabilité d'apparition de $\ds\frac{2}{3}$ ainsi que de deux urnes : l'urne A contient deux boules rouges et trois boules vertes et l'urne B contient trois boules rouges et deux boules bleues. On lance la pièce. On pioche alors successivement et avec remise deux boules dans l'urne A si le côté pile apparaît ou bien dans l'urne B si le côté face apparaît.
- Donner un espace probabilisé $(\Omega,\mathcal{A},\mathbb{P})$ modélisant cette expérience aléatoire.
- Soit $E_{k}$ l'événement « on obtient exactement $k$ boules rouges » pour chaque $k\in\{0,1,2\}$. Calculer $\mathbb{P}(E_{k})$.
- On note $R_{i}$ (pour $i\in\{1,2\}$) l'événement « le i-ème tirage amène une boule rouge ». Ces deux événements sont-ils $\mathbb{P}$-indépendants ?
- Calculer la probabilité que les tirages aient été effectués dans l'urne A sachant que l'on a obtenu :
- deux boules rouges,
- exactement une boule rouge,
- aucune boule rouge,
- au moins une boule rouge.
Remarque
Autant l'incompatibilité est une notion ensembliste, autant l'indépendance n'est pas du tout une notion ensembliste mais une notion probabiliste: deux événements peuvent être indépendants pour une certaine probabilité $\mathbb{P}$ et non indépendants pour une autre probabilité $\mathbb{P}'$. L'indépendance dépend donc du modèle choisi.
Définition : Indépendance de tribus
Soit $(\Omega,\mathcal{A},\mathbb{P})$ un espace probabilisé.
- Deux sous-tribus $\mathcal{A}_{1}$ et $\mathcal{A}_{2}$ d'éléments de la tribu $\mathcal{A}$ sont dites indépendantes si et seulement si :
$$\ds\forall(A_{1},A_{2})\in\mathcal{A}_{1}\times\mathcal{A}_{2},\;\mathbb{P}(A_{1}\cap A_{2})=\mathbb{P}(A_{1})\times\mathbb{P}(A_{2})$$ - On peut généraliser à l'indépendance mutuelle d'une famille finie ou dénombrable de tribus.
Théorème : Cas d'indépendance (admis)
Soit $(\Omega,\mathcal{A},\mathbb{P})$ un espace probabilisé. Soit $(A_{n})_{n\in\N}$ et $(B_{n})_{n\in\N}$ deux familles d'événements telles que, pour tout couple $(i,j)$ d'entiers naturels, l'événement $A_{i}$ est indépendant de l'événement $B_{j}$. Alors la tribu engendrée par la famille $(A_{n})_{n\in\N}$ et la tribu engendrée par la famille $(B_{n})_{n\in\N}$ sont indépendantes.