Définition
Soit $\theta\in\Theta$ et $n\in\N^{*}$.
Exemples
Les deux qualités attendues d'un estimateur d'une certaine valeur inconnue sont :
Définition
Soit $(X_{n})_{n\in\N^{*}}$ une suite de variables aléatoires iid. Pour tout $n\in\N^{*}$, on considère une variable aléatoire $T_{n}=\varphi_{n}(X_{1},\dots,X_{n})$ où $\varphi_{n}$ ne dépend que de $n$ et de ses $n$ variables.
Théorème
Exemples
Nous allons maintenant voir comment ces outils servent à mesurer la qualité d'un estimateur ou d'une suite d'estimateurs.
Définition
Soit $(X_{n})_{n\in\N^{*}}$ une suite de variables aléatoires iid. Pour tout $n\in\N^{*}$, on considère une variable aléatoire $T_{n}=\varphi_{n}(X_{1},\dots,X_{n})$ où $\varphi_{n}$ ne dépend que de $n$ et de ses $n$ variables et on suppose que $T_{n}$ admet une espérance ou une variance, selon la nécessité, pour la probabilité $\mathbb{P}_{\theta}$ pour tout $\theta\in\Theta$.
Remarque (À savoir démontrer rapidement)
D'après l'exemple du paragraphe ci-dessus, si les lois $\mu_{\theta}$ admettent une variance alors la moyenne empirique est un estimateur sans biais convergent de l'espérance de $\mu_{\theta}$.
Exemple
Soit $T_{1}$ et $T_{2}$ deux estimateurs sans biais de $\theta$, indépendants et de variances respectives $\sigma^{2}$ et $\tau^{2}$.
Théorème
Soit $(T_{n})_{n\in\N^{*}}$ une suite d'estimateurs de $g(\theta)$. Si $\ds\lim_{n\to+\infty}{r_{\theta}(T_{n})}=0$ alors la suite est un estimateur convergent de $g(\theta)$.
Remarque
L'inégalité de Markov est donc l'outil privilégié pour établir la convergence d'une suite d'estimateurs.
Exemples
Théorème
Soit $(T_{n})_{n\in\N^{*}}$ une suite convergente d'estimateurs de $g(\theta)$. Si $f\colon\R\to\R$ est une fonction continue sur $\R$ alors $(f(T_{n}))_{n\in\N^{*}}$ est une suite convergente d'estimateurs de $f(g(\theta))$.
Exemples