Définition
On dit que la suite de variables aléatoires $(X_{n})_{n\in\N}$ converge en loi vers la variable aléatoire $X$ et on note $X_{n}\xrightarrow{\mathcal{L}}X$ si et seulement si :
$$\ds\forall x\in\mathcal{D}_{X},\;\lim_{n\to+\infty}{F_{X_{n}}(x)}=F_{X}(x)$$où $\mathcal{D}_{X}$ désigne l'ensemble des points de continuité de la fonction de répartition $F_{X}$ de $X$.
Exemples
plot2d([-0.5,0],[0,0],5) for n=[1,2,5,10,20,50,100] x=[0:1/n:1] for k=[1:n] ; plot2d([x(k),x(k+1)],[x(k),x(k)],2+floor(2*log(n))) ; end end plot2d([1,1.5],[1,1],5)
Remarques
Théorème : Lien entre les deux notions de convergence (HP)
Si $X_{n}\xrightarrow{\mathbb{P}}X$ alors $X_{n}\xrightarrow{\mathcal{L}}X$. La réciproque est fausse.
Exemple et contre exemple
Remarques
Exemples
Théorème (admis)
Si $X_{n}\xrightarrow{\mathcal{L}}X$ et si $f\colon\R\to\R$ est continue sur $\R$ alors $f(X_{n})\xrightarrow{\mathcal{L}}f(X)$.
Théorème : Théorème de Slutsky (admis)
Si $X_{n}\xrightarrow{\mathcal{L}}X$ et $Y_{n}\xrightarrow{\mathcal{P}}c1\!\!1_{\Omega}$ (convergence en loi pour la première suite, en probabilité pour la seconde) alors :
$$\ds X_{n}+Y_{n}\xrightarrow{\mathcal{L}}X+c$$et :
$$\ds X_{n}Y_{n}\xrightarrow{\mathcal{L}}cX$$
<html><a name=“convergence_loi_variables_valeurs_dans_z”></a></html>
<html><a name=“approximation_loi_binomiale_par_loi_poisson”></a></html>
Théorème : Approximation 1
// Convergence en loi d'une loi binomiale vers une loi de Poisson lambda=input("Donner le paramètre lambda : ") for k=1:10 n=10*k bin=[binomial(lambda/n,n) zeros(1,101-n)] ; bin=bin(1:31) poi=[0:30] ; poi=exp(-lambda)*(lambda.^poi)./gamma(poi+1) subplot(5,2,k) ; bar([0:30]',[bin;poi]') end
Cas $\lambda=10$ avec $n\in\{10,20,30,40,50,60,70,80,90,100\}$
Cas $\lambda=5$ avec $n\in\{10,20,30,40,50,60,70,80,90,100\}$
Exemple
Un pisciculteur possède, dans un même bassin, 1000 saumons et 9000 truites. Il attrape successivement et avec remise 100 poissons. Soit $X$ le nombre de saumons pêchés.
Remarque
Bien qu'une loi de Poisson ne corresponde à aucune expérience aléatoire élémentaire, elle correspond en fait à une loi limite que l'on retrouve dans de nombreuse situations d'où son importance.
<html><a name=“theoreme_limite_centree”></a></html>
Théorème : Théorème de la limite centrée (admis, “preuve” dans un cas particulier)
On suppose que les $X_{n}$ sont mutuellement indépendantes, admettent la même loi et que cette loi admet une espérance $m$ et une variance $\sigma^{2}$ non nulle ($\sigma>0$). Soit $X\hookrightarrow\mathcal{N}(0,1)$ de fonction de répartition $\Phi$. On pose : $$\ds\forall n\in\N^{*},\;\bar{X}_{n}=\frac{1}{n}\left(X_{1}+\dots+X_{n}\right)$$ $$\ds\bar{X}_{n}^{*}=\sqrt{n}\frac{\bar{X}_{n}-m}{\sigma}$$ Alors, la suite $\ds\left(\bar{X}_{n}^{*}\right)_{n\geqslant1}$ converge en loi vers la variable aléatoire $X$. Autrement dit, on a : $$\ds\forall x\in\R,\;\lim_{n\to+\infty}{F_{\bar{X}_{n}^{*}}(x)}=\Phi(x)$$ ou encore, pour tout couple $(a,b)$ de réels tel que $a<b$, on a :
$$\ds \lim_{n\to+\infty}{\mathbb{P}\left(a\leqslant\bar{X}_{n}^{*}\leqslant b\right)}=\Phi(b)-\Phi(a)=\int_{a}^{b}{\frac{1}{\sqrt{2\pi}}\mathrm{e}^{-\frac{t^{2}}{2}}\mathrm{d} t}$$
# Loi faible des grands nombres et théorème central limite # sur une suite de variables de Bernoulli iid import numpy as np ; import numpy.random as rd import matplotlib.pyplot as plt p=0.4 ; N=10**5 ; K=np.arange(1,5) ; a=np.size(K) for k in K : n=10**k ; X=rd.binomial(1,p,size=(N,n)) Xbarre=np.mean(X,axis=1) plt.subplot(a,2,2*k-1) ; plt.hist(Xbarre,np.arange(0,1,0.005)) XbarreEtoile=(Xbarre-p)/np.sqrt(p*(1-p))*np.sqrt(n) x=np.arange(-3,3,0.01) plt.subplot(a,2,2*k) ; plt.hist(XbarreEtoile,x) plt.show()
// Comparatif des répartitions : // loi N(0,1) // somme centrée réduite de lois E(lambda) // somme centrée réduite de lois G(p) n=input("n=") ; lambda=input("lambda=") ; p=input("p=") m=10000 ; Y=zeros(1,m) ; Z=zeros(1,m) for k=1:m X=grand(1,n,"exp",1/lambda) Y(k)=sqrt(n)*(mean(X)-1/lambda)*lambda X=grand(1,n,"geom",p) Z(k)=sqrt(n)*(mean(X)-1/p)/(sqrt(1-p)/p) end abscisses=[-5:0.1:5]' FY=zeros(abscisses) ; FZ=zeros(abscisses) [Phi,Psi]=cdfnor("PQ",abscisses,zeros(abscisses),ones(abscisses)) for k=1:length(abscisses) FY(k)=length(find(Y<=abscisses(k)))/m FZ(k)=length(find(Z<=abscisses(k)))/m end plot2d(abscisses,[FY,FZ,Phi],[5,2,3]) // 5->rouge, 2->bleu 3->vert
// comparatif de convergence entre // - loi faible des grands nombres (bleu) --> valeur de la limite // - théorème de la limite centrée (rouge) --> étalement des résultats autour de la limite // pour une même suite de loi exponentielles de paramètre 1 N=1d4 ; nmax=1d3 ; m=1 ; s=1 X=grand(N,nmax,"exp",m) liste_n=[5,10,20,50,100,nmax] r=length(liste_n) for i=1:r n=liste_n(i) Z=mean(X(:,1:n),'c') Y=(Z-m)/s*sqrt(n) subplot(2,r,i) histplot([-5:0.01:5],Y,5,leg="X"+string(n)+"Barre*") subplot(2,r,i+r) histplot([-5:0.01:5],Z,2,leg="X"+string(n)+"Barre") end
Exemples
<html><a name=“approximation_loi_binomiale_par_loi_normale”></a></html>
Théorème : Approximation 2
<html><a name=“approximation_loi_poisson_par_loi_normale”></a></html>
Théorème : Approximation 3
Exemple
Un pisciculteur possède, dans un même bassin, 3000 saumons et 7000 truites. Il attrape successivement et avec remise 100 poissons. Soit $X$ le nombre de saumons pêchés. En procédant à une approximation successive, déterminer une valeur approchée de $\mathbb{P}\left(20\leqslant X\leqslant40\right)$.