Définition : Indépendance de n variables aléatoires
Soit $X_{1},\dots,X_{n}$ des variables aléatoires (discrètes, à densité ou non) de $(\Omega,\mathcal{A},\mathbb{P})$. On dit que les variables aléatoires $X_{1},\dots,X_{n}$ sont mutuellement indépendantes si et seulement si :
$$\forall(x_{1},\dots,x_{n})\in\R^{n},\; F_{(X_{1},\dots,X_{n})}(x_{1},\dots,x_{n})=F_{X_{1}}(x_{1})\times\dots\times F_{X_{n}}(x_{n})$$c'est à dire :
$$\forall(x_{1},\dots,x_{n})\in\R^{n},\;\mathbb{P}([X_{1}\leqslant x_{1}]\cap\dots\cap[X_{n}\leqslant x_{n}])=\mathbb{P}(X_{1}\leqslant x_{1})\times\dots\times\mathbb{P}(X_{n}\leqslant x_{n})$$
Théorème : Caractérisations de l'indépendance
Soit $X_{1},\dots,X_{n}$ des variables aléatoires (discrètes, à densité ou non) de $(\Omega,\mathcal{A},\mathbb{P})$.
Exemples
Théorème : Lemme des coalitions (admis)
Soit $X_{1},\dots,X_{n}$ des variables aléatoires (discrètes, à densité ou non) mutuellement indépendantes de $(\Omega,\mathcal{A},\mathbb{P})$. Soit $p\in\llbracket1,n-1\rrbracket$, $g\colon\R^{p}\to\R$ et $h\colon\R^{n-p}\to\R$. Alors, les variables aléatoires $g(X_{1},\dots,X_{p})$ et $h(X_{p+1},\dots,X_{n})$ sont indépendantes.
Théorème : Stabilité par somme indépendante
Soit un entier $n\geqslant2$. Soit $X_{1},\dots X_{n}$ des variables aléatoires mutuellement indépendantes de $(\Omega,\mathcal{A},\mathbb{P})$. Alors : $$\left[\forall i\in\llbracket1,n\rrbracket,\; X_{i}\hookrightarrow\mathcal{B}(1,p)\right] \implies X_{1}+\dots+X_{n}\hookrightarrow\mathcal{B}(n,p)$$ $$\left[\forall i\in\llbracket1,n\rrbracket,\; X_{i}\hookrightarrow\mathcal{B}(m_{i},p)\right] \implies X_{1}+\dots+X_{n}\hookrightarrow\mathcal{B}(m_{1}+\dots+m_{n},p)$$ $$\left[\forall i\in\llbracket1,n\rrbracket,\; X_{i}\hookrightarrow\mathcal{P}(\lambda_{i})\right] \implies X_{1}+\dots+X_{n}\hookrightarrow\mathcal{P}(\lambda_{1}+\dots+\lambda_{n})$$ $$\left[\forall i\in\llbracket1,n\rrbracket,\; X_{i}\hookrightarrow\mathcal{\gamma}(\nu_{i})\right] \implies X_{1}+\dots+X_{n}\hookrightarrow\mathcal{\gamma}(\nu_{1}+\dots+\nu_{n})$$ $$\left[\forall i\in\llbracket1,n\rrbracket,\; X_{i}\hookrightarrow\mathcal{N}(m_{i},\sigma_{i}^{2})\right] \implies X_{1}+\dots+X_{n}\hookrightarrow\mathcal{N}(m_{1}+\dots+m_{n},\sigma_{1}^{2}+\dots+\sigma_{n}^{2})$$
Exemples
Définition
Soit $(X_{n})_{n\in\N}$ une suite de variables aléatoires de $(\Omega,\mathcal{A},\mathbb{P})$. On dit que cette suite est mutuellement indépendante si et seulement si toute famille finie extraite de la suite est mutuellement indépendante.
Exemple
Soit $(X_{n})_{n\geqslant1}$ une suite de variables aléatoires mutuellement indépendantes suivant la même loi $\mathcal{U}([a,b])$. Soit $N$ une variable aléatoire indépendantes des variables $X_{n}$ et dont la loi de probabilité est la loi $\mathcal{G}(p)$. On pose : $S=\max(X_{1},\dots,X_{N})$. Déterminer la loi de $S$. Montrer que $S$ est une variable aléatoire à densité. Admet-elle une espérance ? La calculer le cas échéant.
Théorème : Caractérisation de l'indépendance dans le cas discret (admis)
Soit $(X_{n})_{n\in\N}$ une suite de variables aléatoires discrètes de $(\Omega,\mathcal{A},\mathbb{P})$. Cette suite est mutuellement indépendante si et seulement si, pour tout tout entier $n\geqslant2$, pour toute liste $k_{1}<k_{2}<\dots<k_{n}$ d'entiers naturels, pour tout $n$-uplet $(x_{1},\dots,x_{n})\in X_{k_{1}}(\Omega)\times\dots\times X_{k_{n}}(\Omega)$, on a : $$\mathbb{P}(\left[X_{k_{1}}=x_{1}\right]\cap\dots\cap\left[X_{k_{n}}=x_{n}\right])=\mathbb{P}(X_{k_{1}}=x_{1})\times\dots\times\mathbb{P}(X_{k_{n}}=x_{n})$$
Exemples