Outils pour utilisateurs

Outils du site


math:2:independance_mutuelle

Ceci est une ancienne révision du document !


Indépendance mutuelle

Définition : Indépendance de n variables aléatoires

Soit $X_{1},\dots,X_{n}$ des variables aléatoires (discrètes, à densité ou non) de $(\Omega,\mathcal{A},\mathbb{P})$. On dit que les variables aléatoires $X_{1},\dots,X_{n}$ sont mutuellement indépendantes si et seulement si :
$$\forall(x_{1},\dots,x_{n})\in\R^{n},\; F_{(X_{1},\dots,X_{n})}(x_{1},\dots,x_{n})=F_{X_{1}}(x_{1})\times\dots\times F_{X_{n}}(x_{n})$$c'est à dire :
$$\forall(x_{1},\dots,x_{n})\in\R^{n},\;\mathbb{P}([X_{1}\leqslant x_{1}]\cap\dots\cap[X_{n}\leqslant x_{n}])=\mathbb{P}(X_{1}\leqslant x_{1})\times\dots\times\mathbb{P}(X_{n}\leqslant x_{n})$$

Théorème : Caractérisations de l'indépendance

Soit $X_{1},\dots,X_{n}$ des variables aléatoires (discrètes, à densité ou non) de $(\Omega,\mathcal{A},\mathbb{P})$.

  • $X_{1},\dots,X_{n}$ sont mutuellement indépendantes si et seulement si pour tous intervalles $I_{1},\dots,I_{n}$ de $\R$ :
    $$\mathbb{P}(\left[X_{1}\in I_{1}\right]\cap\dots\cap\left[X_{n}\in I_{n}\right])=\mathbb{P}(X_{1}\in I_{1})\times\dots\times\mathbb{P}(X_{n}\in I_{n})$$
  • $X_{1},\dots,X_{n}$ sont mutuellement indépendantes si et seulement si pour tous les événements $A_{1}\in\mathcal{A}_{X_{1}},\dots,A_{n}\in\mathcal{A}_{X_{n}}$ :
    $$\mathbb{P}(A_{1}\cap\dots\cap A_{n})=\mathbb{P}(A_{1})\times\dots\times\mathbb{P}(A_{n})$$
  • Lorsque les variables aléatoires $X_{1},\dots,X_{n}$ sont discrètes, elles sont mutuellement indépendantes si et seulement si pour tout $(x_{1},\dots,x_{n})\in X_{1}(\Omega)\times\dots\times X_{n}(\Omega)$ :
    $$\mathbb{P}([X_{1}=x_{1}]\cap\dots\cap[X_{n}=x_{n}])=\mathbb{P}(X_{1}=x_{1})\times\dots\times\mathbb{P}(X_{n}=x_{n})$$

Exemples

  1. Soit $n\in\N$ tel que $n\geqslant2$. Soit $(X_{1,},\dots,X_{n})$ des variables aléatoires mutuellement indépendantes suivant la même loi $\mathcal{U}([a,b])$. On pose : $S_{n}=\max(X_{1},\dots,X_{n})$. Déterminer la loi de $S_{n}$. En déduire que $S_{n}$ est une variable à densité et préciser l'une de ses densités. Montrer que $S_{n}$ admet une espérance et une variance que l'on déterminera.
  2. Soit $n\in\N$ tel que $n\geqslant2$. Soit $(X_{1,},\dots,X_{n})$ des variables aléatoires mutuellement indépendantes suivant la même loi $\mathcal{G}(p)$. On pose : $I_{n}=\min(X_{1},\dots,X_{n})$. Déterminer la loi de $I_{n}$, son espérance et sa variance.

Théorème : Lemme des coalitions (admis)

Soit $X_{1},\dots,X_{n}$ des variables aléatoires (discrètes, à densité ou non) mutuellement indépendantes de $(\Omega,\mathcal{A},\mathbb{P})$. Soit $p\in\llbracket1,n-1\rrbracket$, $g\colon\R^{p}\to\R$ et $h\colon\R^{n-p}\to\R$. Alors, les variables aléatoires $g(X_{1},\dots,X_{p})$ et $h(X_{p+1},\dots,X_{n})$ sont indépendantes.

Théorème : Stabilité par somme indépendante

Soit un entier $n\geqslant2$. Soit $X_{1},\dots X_{n}$ des variables aléatoires mutuellement indépendantes de $(\Omega,\mathcal{A},\mathbb{P})$. Alors :
$$\left[\forall i\in\llbracket1,n\rrbracket,\; X_{i}\hookrightarrow\mathcal{B}(1,p)\right] \implies X_{1}+\dots+X_{n}\hookrightarrow\mathcal{B}(n,p)$$$$\left[\forall i\in\llbracket1,n\rrbracket,\; X_{i}\hookrightarrow\mathcal{B}(m_{i},p)\right] \implies X_{1}+\dots+X_{n}\hookrightarrow\mathcal{B}(m_{1}+\dots+m_{n},p)$$$$\left[\forall i\in\llbracket1,n\rrbracket,\; X_{i}\hookrightarrow\mathcal{P}(\lambda_{i})\right] \implies X_{1}+\dots+X_{n}\hookrightarrow\mathcal{P}(\lambda_{1}+\dots+\lambda_{n})$$$$\left[\forall i\in\llbracket1,n\rrbracket,\; X_{i}\hookrightarrow\mathcal{\gamma}(\nu_{i})\right] \implies X_{1}+\dots+X_{n}\hookrightarrow\mathcal{\gamma}(\nu_{1}+\dots+\nu_{n})$$$$\left[\forall i\in\llbracket1,n\rrbracket,\; X_{i}\hookrightarrow\mathcal{N}(m_{i},\sigma_{i}^{2})\right] \implies X_{1}+\dots+X_{n}\hookrightarrow\mathcal{N}(m_{1}+\dots+m_{n},\sigma_{1}^{2}+\dots+\sigma_{n}^{2})$$ </box> __**Exemples**__ - Soit $X_{1},\dots,X_{n}$ des variables aléatoires mutuellement indépendantes suivant toutes la loi $\mathcal{E}(1)$. Quelle est la loi de $X_{1}+\dots+X_{n}$ ?

  1. [QC] Soit $X_{1},\dots,X_{n}$ des variables aléatoires mutuellement indépendantes suivant toutes la loi $\mathcal{E}(\lambda)$. Quelle est la loi de $X_{1}+\dots+X_{n}$ ?
  2. Soit $n$ un entier supérieur ou égal à 2. Pour tout $i\in\llbracket1,n\rrbracket$, $X_{i}$ est une variable aléatoire suivant la loi $\mathcal{N}(m_{i},\sigma_{i}^{2})$ où $\sigma_{i}>0$. On suppose que ces variables aléatoires sont définies sur le même espace probabilisé et qu'elles sont indépendantes. Quelle est la loi de $a_{1}X_{1}+\dots+a_{n}X_{n}$ où $(a_{1},\dots,a_{n})\in\R^{n}$ ?

Définition

Soit $(X_{n})_{n\in\N}$ une suite de variables aléatoires de $(\Omega,\mathcal{A},\mathbb{P})$. On dit que cette suite est mutuellement indépendante si et seulement si toute famille finie extraite de la suite est mutuellement indépendante.

Exemple

Soit $(X_{n})_{n\geqslant1}$ une suite de variables aléatoires mutuellement indépendantes suivant la même loi $\mathcal{U}([a,b])$. Soit $N$ une variable aléatoire indépendantes des variables $X_{n}$ et dont la loi de probabilité est la loi $\mathcal{G}(p)$. On pose : $S=\max(X_{1},\dots,X_{N})$. Déterminer la loi de $S$. Montrer que $S$ est une variable aléatoire à densité. Admet-elle une espérance ? La calculer le cas échéant.

Théorème : Caractérisation de l'indépendance dans le cas discret (admis)

Soit $(X_{n})_{n\in\N}$ une suite de variables aléatoires discrètes de $(\Omega,\mathcal{A},\mathbb{P})$. Cette suite est mutuellement indépendante si et seulement si, pour tout tout entier $n\geqslant2$, pour toute liste $k_{1}<k_{2}<\dots<k_{n}$ d'entiers naturels, pour tout $n$-uplet $(x_{1},\dots,x_{n})\in X_{k_{1}}(\Omega)\times\dots\times X_{k_{n}}(\Omega)$, on a :
$$\mathbb{P}(\left[X_{k_{1}}=x_{1}\right]\cap\dots\cap\left[X_{k_{n}}=x_{n}\right])=\mathbb{P}(X_{k_{1}}=x_{1})\times\dots\times\mathbb{P}(X_{k_{n}}=x_{n})$$

Exemples

  1. Soit $(X_{n})_{n\in\N^*}$ une suite de variables aléatoires discrètes mutuellement indépendantes et suivant toutes la même loi. On suppose que cette loi admet une espérance. Soit $N$ une variable aléatoire à valeurs dans $\N^*$ admettant une espérance et indépendante de la suite $(X_{n})_{n\in\N^*}$. On définit la variable aléatoire $S$ par :
    $$\forall\omega\in\Omega,\; S(\omega)=X_{1}(\omega)+\dots+X_{N(\omega)}(\omega)$$Pour tout entier $n\in\N$, que vaut $\mathbb{E}(S\mid[N=n])$ ? En déduire que : $\mathbb{E}(S)=\mathbb{E}(N)\mathbb{E}(X_{1})$.
  2. Soit $(X_{n})_{n\geqslant1}$ une suite de variables aléatoires mutuellement indépendantes suivant la même loi $\mathcal{G}(p)$. Soit $N$ une variable aléatoire indépendantes des variables $X_{n}$ et dont la loi de probabilité est la loi $\mathcal{G}(p)$. On pose : $S=\max(X_{1},\dots,X_{N})$. Déterminer la loi de $S$. La variable aléatoire $S$ admet-elle une espérance ?
math/2/independance_mutuelle.1589138356.txt.gz · Dernière modification : 2020/05/10 21:19 de 127.0.0.1