Outils pour utilisateurs

Outils du site


Action disabled: source
math:2:problematique_estimation

Position du problème de l'estimation

Définition

Soit $\Theta$ une partie de $\R$ (éventuellement $\R^{2}$).

On considère une famille de lois de probabilités $(\mu_{\theta})_{\theta\in\Theta}$. Soit $g\colon\Theta\to\R$ de sorte que $g(\theta)$ représente une caractéristique de la loi $\mu_{\theta}$ comme son espérance, sa variance, son étendue, … (souvent, $g$ est l'application identique).

On considère une variable aléatoire $X$ dont la loi est l'une des lois $\mu_{\theta}$ mais dont on ne connaît pas précisément le paramètre $\theta$ (on peut toutefois en avoir un encadrement grossier).

On dispose d'un échantillon de résultats $(x_{1},\dots,x_{n})$ de cette variable aléatoire et on cherche, à partir de ce seul échantillon, à estimer la valeur de $g(\theta)$.

Pour chaque $\theta\in\Theta$, on définit l'univers $\Omega_{\theta}=\{(t_{k})_{k\geqslant1}\mid\forall k\in\N^{*},\,t_{k}\in X(\Omega)\}$ que l'on munit d'une probabilité $\mathbb{P}_{\theta}$ telle que :

  • pour tout entier $i\geqslant1$, l'application $X_{i}\colon\Omega_{\theta}\to\R,\,(t_{k})_{k\geqslant1}\mapsto t_{i}$ est une variable aléatoire suivant la loi $\mu_{\theta}$,
  • la suite $(X_{i})_{i\geqslant1}$ est une famille de variables aléatoires mutuellement indépendantes pour la probabilité $\mathbb{P}_{\theta}$.

Soit $\theta\in\Theta$ et $n\in\N^{*}$.

  • La famille de variables aléatoires $(X_{1},\dots,X_{n})$ est appelée $\boldsymbol{n}$-échantillon indépendant et identiquement distribué (iid) de la loi $\boldsymbol{\mu_{\theta}}$.
  • Soit $\omega\in\Omega_{\theta}$. Le $n$-uplet $(X_{1}(\omega),\dots,X_{n}(\omega))$ est appelé $\boldsymbol{n}$-échantillon observé de la loi $\boldsymbol{\mu_{\theta}}$. On dit aussi que c'est une réalisation du $n$-échantillon $(X_{1},\dots,X_{n})$. En général, on considère $\omega$ tel que $(X_{1}(\omega),\dots,X_{n}(\omega))$ coïncide avec l'échantillon de résultats $(x_{1},\dots,x_{n})$.
  • Soit $\varphi_{n}\colon\R^{n}\to\R$ sans rapport avec $\theta$. On dit que $\varphi_{n}$ est une statistique sur le $n$-échantillon $(X_{1},\dots,X_{n})$ si et seulement si $\varphi_{n}(X_{1},\dots,X_{n})$ est une variable aléatoire de l'espace probabilisé $(\Omega_{\theta},\mathcal{A}_{\theta},\mathbb{P}_{\theta})$.

Exemples

  1. Le premier exemple ci-dessus correspond à la situation : $$\ds\Theta=\left]0,1\right[\subset\R$$ $$\mu_{\theta}=\mathcal{B}(1,\theta)$$ $$g(\theta)=\theta$$ $$\Omega_{\theta}=\left\{ 0,1\right\} ^{\N^{*}}$$ $$\forall k\in\N^{*},\;\mathbb{P}_{\theta}(X_{k}=1)=\theta,\;\mathbb{P}_{\theta}(X_{k}=0)=1-\theta$$
    1. Moyenne empirique : $$\ds\varphi_{n}(x_{1},\dots,x_{n})=\frac{x_{1}+\dots+x_{n}}{n}$$ $$\ds\bar{X}_{n}=\varphi_{n}(X_{1},\dots,X_{n})=\frac{1}{n}\left(X_{1}+\dots+X_{n}\right)$$
    2. Variance empirique : $$\ds\varphi_{n}(x_{1},\dots,x_{n})=\frac{1}{n}\left(x_{1}^{2}+\dots+x_{n}^{2}\right)-\left[\frac{1}{n}\left(x_{1}+\dots+x_{n}\right)\right]^{2}$$ $$\ds\bar{V}_{n}=\varphi_{n}(X_{1},\dots,X_{n})$$
  2. Le second exemple ci-dessus correspond à la situation : $$\Theta=\left\{ (a,b)\in\R^{2}\mid a<b\right\} \subset\R^{2}$$ $$\mu_{(a,b)}=\mathcal{U}([a,b])$$ $$g(a,b)=b-a$$ $$\Omega_{(a,b)}=\left[a,b\right]^{\N^{*}}$$ $$\ds\forall x\in\R,\forall k\in\N^{*},\;\mathbb{P}_{(a,b)}(X_{k}\leqslant x)=\frac{x-a}{b-a}1\!\!1_{[a,b]}(x)+1\!\!1_{[b,+\infty[}$$
    1. Minimum empirique : $$\varphi_{n}(x_{1},\dots,x_{n})=\min\{x_{1},\dots,x_{n}\}$$ $$\bar{I}_{n}=\varphi_{n}(X_{1},\dots,X_{n})=\min\{X_{1},\dots,X_{n}\}$$
    2. Maximum empirique : $$\varphi_{n}(x_{1},\dots,x_{n})=\max\{x_{1},\dots,x_{n}\}$$ $$\bar{S}_{n}=\varphi_{n}(X_{1},\dots,X_{n})=\max\{X_{1},\dots,X_{n}\}$$
    3. Étendue empirique : $$\varphi_{n}(x_{1},\dots,x_{n})=\max\{x_{1},\dots,x_{n}\}-\min\{x_{1},\dots,x_{n}\}$$ $$\bar{E}_{n}=\varphi_{n}(X_{1},\dots,X_{n})=\bar{S}_{n}-\bar{I}_{n}$$

Remarque

L'objectif de l'estimation est de localiser la valeur de $g(\theta)$ grâce à l'unique donnée de $(x_{1},\dots,x_{n})$, réalisation d'un $n$-échantillon. On définira aussi des outils pour mesurer la pertinence de l'estimation.

math/2/problematique_estimation.txt · Dernière modification : 2020/05/25 10:48 de Alain Guichet