<html><a name=“markov”></a></html>
Théorème : Inégalités de Markov et de Bienaymé-Tchebychev
Soit $X$ une variable aléatoire discrète ou à densité.
Remarque
Le caractère très général (valable pour tout type de lois, qu'elles soient discrètes ou à densité ou ni l'un ni l'autre) de ces inégalités les rend particulièrement peu précises. Comparer ainsi les inégalités de Markov et Bienaymé-Tchebychev pour $X\hookrightarrow\mathcal{U}([0,1])$ avec $a>1$ puis pour $\ds X\hookrightarrow\mathcal{G}\left(\frac{2}{3}\right)$ avec $a>100$.
Définition
On dit que la suite de variables aléatoires $(X_{n})_{n\in\N}$ converge en probabilité vers la variable aléatoire $X$ et on note $X_{n}\xrightarrow{\mathcal{P}}X$ si et seulement si :
$$\ds\forall\varepsilon>0,\;\lim_{n\to+\infty}{\mathbb{P}\left(|X_{n}-X|>\varepsilon\right)}=0$$
Remarques
Exemples
epsilon=input("epsilon=") ; m=10000 p=rand() ; Z=zeros(1,m) for n=[10,100,1000,10000,100000] X=grand(1,m,"bin",n,p)/n pr=length(find(abs(X-p)>epsilon))/m disp(pr) end
Résultat d'une exécution du script :
epsilon=0.01 1. 0.829 0.5027 0.0322 0.
Remarques
Théorème (admis)
Si $X_{n}\xrightarrow{\mathcal{P}}X$ et si $f\colon\R\to\R$ est continue sur $\R$ alors $f(X_{n})\xrightarrow{\mathcal{P}}f(X)$.
Exemple
Introduction
On lance une pièce de monnaie une infinité de fois. À chaque lancer, la probabilité d'apparition de son côté pile est $p$ où $0<p<1$, inconnu a priori. Déterminer le nombre $n$ de lancers à effectuer pour que la fréquence d'apparition de pile soit une valeur approchée de $p$ à $10^{-8}$ près avec une probabilité d'au moins 0,99. Que cela change-t-il si on sait que $p=0,1$ ?
<html><a name=“loi_faible_grands_nombres”></a></html>
Théorème : Loi faible des grands nombres
Soit $m\in\R$ et $\sigma\in\R^{+}$. On suppose que les $X_{n}$ sont mutuellement indépendantes (ou même seulement deux à deux non corrélées dans le cas discret), admettent toutes le réel $m$ pour espérance et le réel $\sigma^{2}$ pour variance. Alors :
$$\ds\frac{1}{n}(X_{1}+\dots+X_{n})\xrightarrow{\mathcal{P}}m1\!\!1_{\Omega}$$
p=input("Donner p : ") q=1-p i=0 for n=[1,2,5,10,20,50,100,200,500] i=i+1 subplot(3,3,i) plot2d([-0.5,0],[0,0],5) plot2d([1,1.5],[1,1],5) x=[0:1/n:1] S=[0:n] liste_nb_tirages=n*ones(x) liste_proba_succes=p*ones(x) liste_proba_echec=q*ones(x) [P,Q]=cdfbin("PQ",S,liste_nb_tirages,liste_proba_succes,liste_proba_echec) for k=[1:n] plot2d([x(k),x(k+1)],[P(k),P(k)],5) end end
Avec des lois de Bernoulli de paramètre p=0.3
Exemple
On définit une suite de variables aléatoires indépendantes $(X_{n})_{n\geqslant1}$ sur le même espace probabilisé par : $$\ds\forall n\in\N^{*},\; X_{n}\hookrightarrow\mathcal{E}(1)$$ Montrer de deux façons différentes que la suite $(\bar{X}_{n})_{n\geqslant1}$, définie par $\ds\bar{X}_{n}=\frac{1}{n}\sum_{k=1}^{n}{X_{k}}$, converge en probabilité vers une variable aléatoire que l'on précisera.
Remarques