V.A.R.D. > Esp prob Cond, indép Var aléa discr Espé, var Lois usuelles Espé condi

Conditionnement et indépendance

Définition : Probabilité conditionnelle, indépendance

Soit $A$ et $B$ deux événements d'un même espace probabilisé $(\Omega,\mathcal{A},\mathbb{P})$.

  • On suppose que $\mathbb{P}(A)\ne0$. On appelle probabilité de l'événement $B$ conditionnée par l'événement $A$ le réel :
    $$\ds\mathbb{P}_{A}(B)=\frac{\mathbb{P}(B\cap A)}{\mathbb{P}(A)}$$
  • Les deux événements $A$ et $B$ sont dits indépendants pour $\mathbb{P}$ lorsque :
    $$\ds\mathbb{P}(A\cap B)=\mathbb{P}(A)\mathbb{P}(B)$$
  • Une famille est constituée d'événements mutuellement indépendants lorsque :
    • Famille finie $(A_{i})_{i\in\llbracket1,n\rrbracket}$ :
      $$\ds\forall k\in\llbracket2,n\rrbracket,\;\forall(i_{1},\dots,i_{k})\in\N^{k},\;1\leqslant i_{1}<\dots<i_{k}\leqslant n\;\implies\;\mathbb{P}(A_{i_{1}}\cap\dots\cap A_{i_{k}})=\mathbb{P}A_{i_{1}})\times\dots\times\mathbb{P}(A_{i_{k}})$$
    • Famille infinie $(A_{i})_{i\in\N}$ :
      $$\ds\forall k\in\N,\;\forall(i_{1},\dots,i_{k})\in\N^{k},\;0\leqslant i_{1}<\dots<i_{k}\;\implies\;\mathbb{P}(A_{i_{1}}\cap\dots\cap A_{i_{k}})=\mathbb{P}(A_{i_{1}})\times\dots\times\mathbb{P}(A_{i_{k}})$$

Théorème

Soit $A$ un événement de probabilité non nulle d'un espace probabilisé $(\Omega,\mathcal{A},\mathbb{P})$.

  • Alors $(\Omega,\mathcal{A},\mathbb{P}_{A})$ est un espace probabilisé (c'est le même lorsque $A=\Omega$).
  • Soit $B$ un événement quelconque. Alors, $A$ et $B$ sont indépendants si et seulement si $\mathbb{P}_{A}(B)=\mathbb{P}(B)$.

Exemples

  1. On lance un dé cubique équilibré. Soit $A$ l'événement « le numéro obtenu est pair » et $B$ l'événement « le numéro obtenu est divisible par 3 ». Montrer que les événements $A$ et $B$ sont indépendants.
  2. Soit $(A_{n})_{n\in\N}$ des événements d'un espace probabilisé $(\Omega,\mathcal{A},\mathbb{P})$ tels que, pour tout entier $i\in\N$, l'événement $A_{i}$ est indépendant de chaque événement de la forme $B_{1}\cap\dots\cap B_{i-1}$ où $B_{k}=A_{k}$ ou bien $B_{k}=\bar{A_{k}}$. Montrer que les événements $(A_{n})_{n\in\N}$ sont mutuellement indépendants.

Théorème : Formule des probabilités composées

Soit $(B_{1},\dots,B_{n})$ une famille d'événements d'un espace probabilisé $(\Omega,\mathcal{A},\mathbb{P})$.

  • Si $\mathbb{P}(B_{1}\cap\dots\cap B_{n-1})\neq0$ alors :
    $$\ds\mathbb{P}(B_{1}\cap\dots\cap B_{n})=\mathbb{P}(B_{1})\times\mathbb{P}_{B_{1}}(B_{2})\times\dots\times\mathbb{P}_{B_{1}\cap\dots\cap B_{n-1}}(B_{n})$$
  • Dans le cas où les événements sont mutuellement indépendants, la formule se simplifie en une partie de la définition :
    $$\ds\mathbb{P}(B_{1}\cap\dots\cap B_{n})=\mathbb{P}(B_{1})\times\mathbb{P}(B_{2})\times\dots\times\mathbb{P}(B_{n})$$

Théorème : Formule des probabilités totales

Soit $(A_{k})_{k\in\N}$ une famille d'événements d'un espace probabilisé $(\Omega,\mathcal{A},\mathbb{P})$. Soit $B$ un événement.

  • Si $n\geqslant1$ et si $(A_{1},\dots,A_{n})$ est un système complet d'événements (tous de probabilité non nulle pour la seconde égalité) alors :
    $$\ds\mathbb{P}(B)=\sum_{k=1}^{n}{\mathbb{P}(A_{k}\cap B})=\sum_{k=1}^{n}{\mathbb{P}(A_{k})\mathbb{P}_{A_{k}}(B)}$$
  • Si $(A_{k})_{k\in\N}$ est un système (quasi) complet d'événements (tous de probabilité non nulle pour la seconde égalité) alors :
    $$\ds\mathbb{P}(B)=\sum_{k=1}^{+\infty}{\mathbb{P}(A_{k}\cap B})=\sum_{k=1}^{+\infty}{\mathbb{P}(A_{k})\mathbb{P}_{A_{k}}(B)}$$

Théorème : Formule de Bayes

Soit $(A_{k})_{k\in\N}$ une famille d'événements d'un espace probabilisé $(\Omega,\mathcal{A},\mathbb{P})$. Soit $B$ un événement.

  • Si $n\geqslant1$ et si $(A_{1},\dots,A_{n})$ est un système complet d'événements (tous de probabilité non nulle pour la seconde égalité) alors :
    $$\ds\mathbb{P}_{B}(A_i)=\frac{\mathbb{P}(A_i \cap B)}{\mathbb{P}(B)}=\frac{\mathbb{P}(A_i \cap B)}{\ds\sum_{k=1}^{n}{\mathbb{P}(A_{k}\cap B})}$$
  • Si $(A_{k})_{k\in\N}$ est un système (quasi) complet d'événements (tous de probabilité non nulle pour la seconde égalité) alors :
    $$\ds\mathbb{P}_{B}(A_i)=\frac{\mathbb{P}(A_i \cap B)}{\mathbb{P}(B)}=\frac{\mathbb{P}(A_i \cap B)}{\ds\sum_{k=1}^{+\infty}{\mathbb{P}(A_{k}\cap B})}$$

Théorème : Substitution par des événements contraires

Soit $(\Omega,\mathcal{A},\mathbb{P})$ un espace probabilisé. Soit $(A_{k})_{k\in\N}$ une famille d'événements. Pour tout entier $k\in\N$, on pose: $B_{k}=A_{k}$ ou bien $B_{k}=\bar{A}_{k}$. On a :

  • si $n\geqslant1$ et si $(A_{1},\dots,A_{n})$ est une famille d'événements mutuellement indépendants alors $(B_{1},\dots,B_{n})$ est une famille d'événements mutuellement indépendants.
  • si $(A_{k})_{k\in\N}$ est une famille d'événements mutuellement indépendants alors la famille $(B_{k})_{k\in\N}$ est une famille d'événements mutuellement indépendants.

Exemple
On dispose d'une pièce de monnaie truquée de sorte que le côté pile a une probabilité d'apparition de $\ds\frac{2}{3}$ ainsi que de deux urnes : l'urne A contient deux boules rouges et trois boules vertes et l'urne B contient trois boules rouges et deux boules bleues. On lance la pièce. On pioche alors successivement et avec remise deux boules dans l'urne A si le côté pile apparaît ou bien dans l'urne B si le côté face apparaît.

  1. Donner un espace probabilisé $(\Omega,\mathcal{A},\mathbb{P})$ modélisant cette expérience aléatoire.
  2. Soit $E_{k}$ l'événement « on obtient exactement $k$ boules rouges » pour chaque $k\in\{0,1,2\}$. Calculer $\mathbb{P}(E_{k})$.
  3. On note $R_{i}$ (pour $i\in\{1,2\}$) l'événement « le i-ème tirage amène une boule rouge ». Ces deux événements sont-ils $\mathbb{P}$-indépendants ?
  4. Calculer la probabilité que les tirages aient été effectués dans l'urne A sachant que l'on a obtenu :
    1. deux boules rouges,
    2. exactement une boule rouge,
    3. aucune boule rouge,
    4. au moins une boule rouge.

Remarque
Autant l'incompatibilité est une notion ensembliste, autant l'indépendance n'est pas du tout une notion ensembliste mais une notion probabiliste: deux événements peuvent être indépendants pour une certaine probabilité $\mathbb{P}$ et non indépendants pour une autre probabilité $\mathbb{P}'$. L'indépendance dépend donc du modèle choisi.

Définition : Indépendance de tribus

Soit $(\Omega,\mathcal{A},\mathbb{P})$ un espace probabilisé.

  • Deux sous-tribus $\mathcal{A}_{1}$ et $\mathcal{A}_{2}$ d'éléments de la tribu $\mathcal{A}$ sont dites indépendantes si et seulement si :
    $$\ds\forall(A_{1},A_{2})\in\mathcal{A}_{1}\times\mathcal{A}_{2},\;\mathbb{P}(A_{1}\cap A_{2})=\mathbb{P}(A_{1})\times\mathbb{P}(A_{2})$$
  • On peut généraliser à l'indépendance mutuelle d'une famille finie ou dénombrable de tribus.

Théorème : Cas d'indépendance (admis)

Soit $(\Omega,\mathcal{A},\mathbb{P})$ un espace probabilisé. Soit $(A_{n})_{n\in\N}$ et $(B_{n})_{n\in\N}$ deux familles d'événements telles que, pour tout couple $(i,j)$ d'entiers naturels, l'événement $A_{i}$ est indépendant de l'événement $B_{j}$. Alors la tribu engendrée par la famille $(A_{n})_{n\in\N}$ et la tribu engendrée par la famille $(B_{n})_{n\in\N}$ sont indépendantes.