Outils pour utilisateurs

Outils du site


math:2:esperance_variance

Espérance et variance

Définition

  • On appelle moment (resp. moment centré) d'ordre $r\in\N^{*}$ de la variable aléatoire $X$ le réel :
    $$\ds m_{r}(X)=\sum_{x\in X(\Omega)}{x^{r}\mathbb{P}(X=x)}$$sous réserve de convergence absolue de cette série lorsque $X(\Omega)$ est dénombrable.
    Le moment d'ordre 1 est aussi appelé espérance de $X$ et on le note $\mathbb{E}(X)$.
    Une variable aléatoire est dite centrée lorsque son espérance est nulle.
  • On appelle moment centré d'ordre $r\in\N^{*}$ de la variable aléatoire $X$ le réel :
    $$\ds\mu_{r}(X)=\sum_{x\in X(\Omega)}{(x-\mathbb{E}(X))^{r}\mathbb{P}(X=x)}$$sous réserve d'existence de l'espérance lorsque $X(\Omega)$ est dénombrable.
    Le moment centré d'ordre 2 est aussi appelé variance de $X$ et on le note $\mathbb{P}(X)$.
  • On appelle écart type de la variable aléatoire $X$ le réel :
    $$\ds\sigma(X)=\sqrt{\mathbb{V}(X)}$$sous réserve d'existence de la variance.
    Une variable aléatoire est dite réduite lorsque son écart type vaut 1.

Remarque
La convergence doit être absolue afin que la somme de la série soit indépendante de l'ordre de numérotation des éléments de $X(\Omega)$.

Théorème

Soit $X$ une variable aléatoire discrète infinie admettant un moment d'ordre $k\in\N^{*}$. Alors elle admet un moment pour tous les ordres inférieurs à $k$ c'est à dire à tous les ordres $r$ tels que $r\in\llbracket1,k\rrbracket$.

Théorème : Théorème de transfert (2nde partie)

Soit $X$ une variable aléatoire discrète et $f\colon I\to\R$ où $I$ est un intervalle de $\R$ contenant $X(\Omega)$. On pose $Y=f\circ X$. Alors, il n'est pas nécessaire de connaître la loi de $Y$ pour calculer son espérance :
$$\ds\mathbb{E}(Y)=\sum_{x\in X(\Omega)}{f(x)\mathbb{P}(X=x)}$$sous réserve de convergence absolue de cette série lorsque $X(\Omega)$ est dénombrable.

Remarque
Soit $X$ une variable aléatoire discrète et $r$ un réel strictement positif. Sous réserve d'existence, on a :
$$\ds m_{r}(X)=\mathbb{E}(X^{r})\qquad\text{et}\qquad\mu_{r}(X)=\mathbb{E}((X-\mathbb{E}(X))^{r})$$

Théorème : Propriétés de l'espérance et de la variance

Soit $X$ une variable aléatoire discrète sur un espace probabilisé $(\Omega,\mathcal{A},\mathbb{P})$.

  • Si $X$ admet une espérance alors, pour tout couple $(a,b)$ de réels, la variable aléatoire $aX+b$ admet une espérance et on a :
    $$\mathbb{E}(aX+b)=a\mathbb{E}(X)+b$$
  • Si $X$ admet une variance alors, pour tout couple $(a,b)$ de réels, la variable aléatoire $aX+b$ admet une variance et on a :
    $$\mathbb{V}(aX+b)=a^{2}\mathbb{V}(X)$$$$\sigma(aX+b)=|a|\cdot\sigma(X)$$En conséquence, la variable aléatoire $\ds X^{*}=\frac{X-\mathbb{E}(X)}{\sigma(X)}$ est centrée et réduite (pourvu que sa variance ne soit pas nulle).
  • Si $X$ admet une variance alors :
    $$\mathbb{V}(X)=0\;\iff\;\mathbb{P}(X=\mathbb{E}(X))=1\;\iff\; X=\mathbb{E}(X)1\!\!1_{\Omega}$$
  • Formule de Koenig-Huygens. $X$ admet une variance si et seulement si $X^{2}$ admet une espérance et on a :
    $$\mathbb{V}(X)=\mathbb{E}(X^{2})-\mathbb{E}(X)^{2}$$

Exemple : Fonction génératrice

Soit $(\Omega,\mathcal{A},\mathbb{P})$ un espace probabilisé. Pour toute variable aléatoire $X$ à valeurs dans $\N$, on appelle fonction génératrice de $X$ la fonction $G_{X}$ définie sur $[0,1]$ par :
$$\ds G_{X}(t)=\sum_{k=0}^{+\infty}{t^{k}\mathbb{P}(X=k)}$$

  1. Justifier l'existence de cette fonction $G_X$.
  2. Soit $X$ une variable aléatoire à valeurs dans $\llbracket0,n\rrbracket$.
    1. Établir le tableau des variations de $G_{X}$ sur $[0,1]$. Que vaut $G_{X}(1)$ ?
    2. Montrer que $\mathbb{E}(X)=G_{X}'(1)$ puis que $\mathbb{V}(X)=G_{X}''(1)+G_{X}'(1)-G_{X}'(1)^{2}$.
    3. Justifier que : $\forall t\in\left]0,1\right],\; G_{X}(t)=\mathbb{E}(t^{X})$.
  3. Soit $X$ et $Y$ deux variables aléatoires discrètes finies à valeurs respectives dans $\llbracket0,n\rrbracket$ et $\llbracket0,m\rrbracket$, avec $(m,n)\in\N^{2}$. Montrer que $X$ et $Y$ suivent la même loi de probabilité si et seulement si $G_{X}=G_{Y}$.

Théorème (admis)

Soit $(\Omega,\mathcal{A},\mathbb{P})$ un espace probabilisé.

  • Existence de l'espérance par domination. Soit $X$ et $Y$ deux variables aléatoires telles que $\mathbb{P}(0\leqslant\left|X\right|\leqslant Y)=1$ (autrement dit : $\forall\omega\in\Omega,\;\left|X(\omega)\right|\leqslant Y(\omega)$ presque sûrement). Si $Y$ admet une espérance alors $X$ admet aussi une espérance et on a : $$\left|\mathbb{E}(X)\right|\leqslant\mathbb{E}(\left|X\right|)\leqslant\mathbb{E}(Y)$$
  • Croissance de l'espérance. Soit $X$ et $Y$ deux variables aléatoires admettant une espérance et telles que $\mathbb{P}(X\leqslant Y)=1$ (autrement dit : $\forall\omega\in\Omega,\; X(\omega)\leqslant Y(\omega)$ presque sûrement). Alors : $$\mathbb{E}(X)\leqslant\mathbb{E}(Y)$$
math/2/esperance_variance.txt · Dernière modification : 2020/05/14 14:43 de Alain Guichet