Outils pour utilisateurs

Outils du site


Action disabled: source
math:2:esperance_variance_somme_variables

Espérance et variance

Théorème : Linéarité de l'espérance (admis)

  • Soit $X$ et $Y$ deux variables aléatoires (discrètes, à densité ou non) admettant une espérance. Alors, pour tout couple $(\lambda,\mu)$ de réels, la variable aléatoire $\lambda X+\mu Y$ admet une espérance et on a :
    $$\mathbb{E}(\lambda X+\mu Y)=\lambda\mathbb{E}(X)+\mu\mathbb{E}(Y)$$
  • Soit $X_{1},\dots,X_{n}$ des variables aléatoires (discrètes, à densité ou non) admettant une espérance. Alors, pour tout $n$-uplet $(\lambda_{1},\dots,\lambda_{n})$ de réels, la variable aléatoire $\lambda_{1}X_{1}+\dots+\lambda_{n}X_{n}$ admet une espérance et on a :
    $$\mathbb{E}(\lambda_{1}X_{1}+\dots+\lambda_{n}X_{n})=\lambda_{1}\mathbb{E}(X_{1})+\dots+\lambda_{n}\mathbb{E}(X_{n})$$

Théorème : Positivité et croissance de l'espérance (admis)

  • Si $X$ est une variable aléatoire (discrètes, à densité ou non) admettant une espérance et telle que $X(\Omega)\subset\R^{+}$ p.s. alors :
    $$\mathbb{E}(X)\geqslant0$$
  • Soit $X$ et $Y$ deux variables aléatoires (discrètes, à densité ou non) une espérance. Si $\mathbb{P}(X\leqslant Y)=1$ (c'est à dire que l'événement $[X\leqslant Y]$ se réalise presque sûrement) alors :
    $$\mathbb{E}(X)\leqslant\mathbb{E}(Y)$$

Théorème : Existence de l'espérance par domination (admis)

Soit $X$ et $Y$ deux variables aléatoires (discrètes, à densité ou non) telles que $\mathbb{P}(0\leqslant\left|X\right|\leqslant Y)=1$ (autrement dit : $\forall\omega\in\Omega,\;\left|X(\omega)\right|\leqslant Y(\omega)$ presque sûrement). Si $Y$ admet une espérance alors $X$ admet aussi une espérance et on a :
$$\left|\mathbb{E}(X)\right|\leqslant\mathbb{E}(Y)$$

Théorème : Espérance du produit (admis)

  • Soit $X$ et $Y$ deux variables aléatoires (discrètes, à densité ou non) indépendantes et admettant une espérance. Alors la variable aléatoire $XY$ admet une espérance et on a :
    $$\mathbb{E}(XY)=\mathbb{E}(X)\mathbb{E}(Y)$$
  • Soit $X_{1},\dots,X_{n}$ des variables aléatoires (discrètes, à densité ou non) mutuellement indépendantes et admettant une espérance. Alors la variable aléatoire $X_{1}\dots X_{n}$ admet une espérance et on a :
    $$\mathbb{E}(X_{1}\dots X_{n})=\mathbb{E}(X_{1})\dots\mathbb{E}(X_{n})$$

Exemple

Soit $X_{1},\dots,X_{n}$ des variables aléatoires mutuellement indépendantes suivant la même loi $\mathcal{E}(\lambda)$.

  1. Pour quelles valeurs du réel $a$, la variable aléatoire $a^{X_{1}}$ admet-elle une espérance ?
    Calculer cette espérance.
  2. Soit $a$ un tel réel. Justifier que la variable aléatoire $a^{X_{1}+\dots+X_{n}}$ admet une espérance et la calculer.

Théorème : Variance de la somme (admis)

  • Soit $X$ et $Y$ deux variables aléatoires (discrètes, à densité ou non) indépendantes et admettant une variance. Alors la variable aléatoire $X+Y$ admet une variance et on a :
    $$\mathbb{V}(X+Y)=\mathbb{V}(X)+\mathbb{V}(Y)$$
  • Soit $X_{1},\dots,X_{n}$ des variables aléatoires (discrètes, à densité ou non) mutuellement indépendantes et admettant une variance. Alors la variable aléatoire $X_{1}+\dots+X_{n}$ admet une variance et on a :
    $$\mathbb{V}(X_{1}+\dots+X_{n})=\mathbb{V}(X_{1})+\dots+\mathbb{V}(X_{n})$$

Théorème : Cas discret et non indépendant

  • Soit $X$ et $Y$ deux variables aléatoires discrètes admettant une variance. Alors la variable aléatoire $X+Y$ admet une variance et on a :
    $$\mathbb{V}(X+Y)=\mathbb{V}(X)+\mathbb{V}(Y)+2\mathrm{Cov}(X,Y)$$
  • [HP?] Soit $X_{1},\dots,X_{n}$ des variables aléatoires discrètes admettant une variance. Alors la variable aléatoire $X_{1}+\dots+X_{n}$ admet une variance et on a :
    $$\ds\mathbb{V}(X_{1}+\dots+X_{n})=\sum_{i=1}^{n}{\mathbb{V}(X_{i})}+2\sum_{1\leqslant i<j\leqslant n}{\mathrm{Cov}(X_{i},X_{j})}$$

Exemples

  1. Soit $X_{1},\dots,X_{n}$ des variables aléatoires discrètes d'un même espace probabilisé $(\Omega,\mathcal{A},\mathbb{P})$. On suppose qu'elles admettent toutes une variance. Soit $(\alpha_{1},\dots,\alpha_{n})\in\R^{n}$.
    1. Justifier que $\alpha_{1}X_{1}+\dots+\alpha_{n}X_{n}$ admet une variance et la préciser.
    2. On pose : $U=\begin{pmatrix} \alpha_{1} \\ \vdots \\ \alpha_{n} \end{pmatrix}$, $X=\begin{pmatrix} X_{1} \\ \vdots \\ X_{n} \end{pmatrix}$, $V=\begin{pmatrix}\mathrm{Cov}(X_{i},X_{j}\end{pmatrix}_{\substack{1\leqslant i\leqslant n\\1\leqslant j\leqslant n}}\in\mathcal{M}_{n}(\R)$. Vérifier que : $\mathbb{V}({}^{t}UX)={}^{t}UVU$.(La matrice $V$ est appelée matrice de variance-covariance du vecteur aléatoire $(X_{1},\dots,X_{n})$).
  2. Une urne contient $r$ boules rouges et $v$ boules vertes. On tire successivement et sans remise $n$ boules (une par une) où $n\in\llbracket1,r+v\rrbracket$. Pour tout entier $i\in\llbracket1,n\rrbracket$, on note $X_{i}$ la variable aléatoire qui prend la valeur 1 si le $i$-ème tirage amène une boule rouge et la valeur 0 dans le cas contraire.
      1. Soit $i\in\llbracket1,n\rrbracket$. Déterminer la loi de $X_{i}$, son espérance et sa variance.
      2. Soit $(i,j)\in\llbracket1,n\rrbracket^{2}$ tel que $i<j$. Déterminer la valeur de $\mathrm{Cov}(X_{i},X_{j})$.
      3. Les variables aléatoires $X_{1},\dots,X_{n}$ sont-elles indépendantes ?
    1. On note $X=X_{1}+\dots+X_{n}$.
      1. Que compte $X$ ?
      2. Déduire de ce qui précède l'espérance et la variance de $X$.
      3. Déterminer la loi de $X$.
    2. On recommence l'expérience aléatoire en ajoutant préalablement dans l'urne $b$ boules bleues. On tire successivement et sans remise entre les tirages $n$ boules dans l'urne ($n\leqslant r+v+b$). On note $R$ (resp. $V$, $B$) la variable aléatoire égale au nombre de boules rouges (resp. vertes, bleues) tirées.
      1. Préciser les lois de $R$, $V$, $B$.
      2. Quelle est la loi de $R+V$ ?
math/2/esperance_variance_somme_variables.txt · Dernière modification : 2020/05/10 21:19 de 127.0.0.1