Espérance et variance
Théorème : Linéarité de l'espérance (admis)
- Soit $X$ et $Y$ deux variables aléatoires (discrètes, à densité ou non) admettant une espérance. Alors, pour tout couple $(\lambda,\mu)$ de réels, la variable aléatoire $\lambda X+\mu Y$ admet une espérance et on a :
$$\mathbb{E}(\lambda X+\mu Y)=\lambda\mathbb{E}(X)+\mu\mathbb{E}(Y)$$ - Soit $X_{1},\dots,X_{n}$ des variables aléatoires (discrètes, à densité ou non) admettant une espérance. Alors, pour tout $n$-uplet $(\lambda_{1},\dots,\lambda_{n})$ de réels, la variable aléatoire $\lambda_{1}X_{1}+\dots+\lambda_{n}X_{n}$ admet une espérance et on a :
$$\mathbb{E}(\lambda_{1}X_{1}+\dots+\lambda_{n}X_{n})=\lambda_{1}\mathbb{E}(X_{1})+\dots+\lambda_{n}\mathbb{E}(X_{n})$$
Théorème : Positivité et croissance de l'espérance (admis)
- Si $X$ est une variable aléatoire (discrètes, à densité ou non) admettant une espérance et telle que $X(\Omega)\subset\R^{+}$ p.s. alors :
$$\mathbb{E}(X)\geqslant0$$ - Soit $X$ et $Y$ deux variables aléatoires (discrètes, à densité ou non) une espérance. Si $\mathbb{P}(X\leqslant Y)=1$ (c'est à dire que l'événement $[X\leqslant Y]$ se réalise presque sûrement) alors :
$$\mathbb{E}(X)\leqslant\mathbb{E}(Y)$$
Théorème : Existence de l'espérance par domination (admis)
Soit $X$ et $Y$ deux variables aléatoires (discrètes, à densité ou non) telles que $\mathbb{P}(0\leqslant\left|X\right|\leqslant Y)=1$ (autrement dit : $\forall\omega\in\Omega,\;\left|X(\omega)\right|\leqslant Y(\omega)$ presque sûrement). Si $Y$ admet une espérance alors $X$ admet aussi une espérance et on a :
$$\left|\mathbb{E}(X)\right|\leqslant\mathbb{E}(Y)$$
Théorème : Espérance du produit (admis)
- Soit $X$ et $Y$ deux variables aléatoires (discrètes, à densité ou non) indépendantes et admettant une espérance. Alors la variable aléatoire $XY$ admet une espérance et on a :
$$\mathbb{E}(XY)=\mathbb{E}(X)\mathbb{E}(Y)$$ - Soit $X_{1},\dots,X_{n}$ des variables aléatoires (discrètes, à densité ou non) mutuellement indépendantes et admettant une espérance. Alors la variable aléatoire $X_{1}\dots X_{n}$ admet une espérance et on a :
$$\mathbb{E}(X_{1}\dots X_{n})=\mathbb{E}(X_{1})\dots\mathbb{E}(X_{n})$$
Exemple
Soit $X_{1},\dots,X_{n}$ des variables aléatoires mutuellement indépendantes suivant la même loi $\mathcal{E}(\lambda)$.
- Pour quelles valeurs du réel $a$, la variable aléatoire $a^{X_{1}}$ admet-elle une espérance ?
Calculer cette espérance. - Soit $a$ un tel réel. Justifier que la variable aléatoire $a^{X_{1}+\dots+X_{n}}$ admet une espérance et la calculer.
Théorème : Variance de la somme (admis)
- Soit $X$ et $Y$ deux variables aléatoires (discrètes, à densité ou non) indépendantes et admettant une variance. Alors la variable aléatoire $X+Y$ admet une variance et on a :
$$\mathbb{V}(X+Y)=\mathbb{V}(X)+\mathbb{V}(Y)$$ - Soit $X_{1},\dots,X_{n}$ des variables aléatoires (discrètes, à densité ou non) mutuellement indépendantes et admettant une variance. Alors la variable aléatoire $X_{1}+\dots+X_{n}$ admet une variance et on a :
$$\mathbb{V}(X_{1}+\dots+X_{n})=\mathbb{V}(X_{1})+\dots+\mathbb{V}(X_{n})$$
Théorème : Cas discret et non indépendant
- Soit $X$ et $Y$ deux variables aléatoires discrètes admettant une variance. Alors la variable aléatoire $X+Y$ admet une variance et on a :
$$\mathbb{V}(X+Y)=\mathbb{V}(X)+\mathbb{V}(Y)+2\mathrm{Cov}(X,Y)$$ - [HP?] Soit $X_{1},\dots,X_{n}$ des variables aléatoires discrètes admettant une variance. Alors la variable aléatoire $X_{1}+\dots+X_{n}$ admet une variance et on a :
$$\ds\mathbb{V}(X_{1}+\dots+X_{n})=\sum_{i=1}^{n}{\mathbb{V}(X_{i})}+2\sum_{1\leqslant i<j\leqslant n}{\mathrm{Cov}(X_{i},X_{j})}$$
Exemples
- Soit $X_{1},\dots,X_{n}$ des variables aléatoires discrètes d'un même espace probabilisé $(\Omega,\mathcal{A},\mathbb{P})$. On suppose qu'elles admettent toutes une variance. Soit $(\alpha_{1},\dots,\alpha_{n})\in\R^{n}$.
- Justifier que $\alpha_{1}X_{1}+\dots+\alpha_{n}X_{n}$ admet une variance et la préciser.
- On pose : $U=\begin{pmatrix} \alpha_{1} \\ \vdots \\ \alpha_{n} \end{pmatrix}$, $X=\begin{pmatrix} X_{1} \\ \vdots \\ X_{n} \end{pmatrix}$, $V=\begin{pmatrix}\mathrm{Cov}(X_{i},X_{j}\end{pmatrix}_{\substack{1\leqslant i\leqslant n\\1\leqslant j\leqslant n}}\in\mathcal{M}_{n}(\R)$. Vérifier que : $\mathbb{V}({}^{t}UX)={}^{t}UVU$.(La matrice $V$ est appelée matrice de variance-covariance du vecteur aléatoire $(X_{1},\dots,X_{n})$).
- Une urne contient $r$ boules rouges et $v$ boules vertes. On tire successivement et sans remise $n$ boules (une par une) où $n\in\llbracket1,r+v\rrbracket$. Pour tout entier $i\in\llbracket1,n\rrbracket$, on note $X_{i}$ la variable aléatoire qui prend la valeur 1 si le $i$-ème tirage amène une boule rouge et la valeur 0 dans le cas contraire.
- Soit $i\in\llbracket1,n\rrbracket$. Déterminer la loi de $X_{i}$, son espérance et sa variance.
- Soit $(i,j)\in\llbracket1,n\rrbracket^{2}$ tel que $i<j$. Déterminer la valeur de $\mathrm{Cov}(X_{i},X_{j})$.
- Les variables aléatoires $X_{1},\dots,X_{n}$ sont-elles indépendantes ?
- On note $X=X_{1}+\dots+X_{n}$.
- Que compte $X$ ?
- Déduire de ce qui précède l'espérance et la variance de $X$.
- Déterminer la loi de $X$.
- On recommence l'expérience aléatoire en ajoutant préalablement dans l'urne $b$ boules bleues. On tire successivement et sans remise entre les tirages $n$ boules dans l'urne ($n\leqslant r+v+b$). On note $R$ (resp. $V$, $B$) la variable aléatoire égale au nombre de boules rouges (resp. vertes, bleues) tirées.
- Préciser les lois de $R$, $V$, $B$.
- Quelle est la loi de $R+V$ ?