Commençons par quelques résultats intermédiaires utiles pour la suite.
Lemme 1 : Pour tout $\lambda\in\R$, on a : $T_{n}\xrightarrow{\mathcal{P}}\lambda\iff T_{n}\xrightarrow{\mathcal{L}}\lambda$.
Preuve :
Supposons que $T_{n}\xrightarrow{\mathcal{P}}\lambda$. Soit $x\in\R$ tel que $x\ne\lambda$. Si $x>\lambda$ alors, en posant $\ds\varepsilon=\frac{x-\lambda}{2}>0$, on a :
$$\ds1\geqslant F_{T_{n}}(x)=\mathbb{P}\left(T_{n}\leqslant x\right)\geqslant\mathbb{P}\left(T_{n}\leqslant\lambda+\varepsilon\right)\geqslant\mathbb{P}\left(\lambda-\varepsilon\leqslant T_{n}\leqslant\lambda+\varepsilon\right)\xrightarrow[n\to+\infty]{}1$$donc $F_{T_{n}}(x)\xrightarrow[n\to+\infty]{}1$.
Si $x<\lambda$ alors, en posant $\ds\varepsilon=\frac{\lambda-x}{2}>0$, on a :
$$\ds0\leqslant F_{T_{n}}(x)=\mathbb{P}\left(T_{n}\leqslant x\right)\leqslant\mathbb{P}\left(T_{n}\leqslant\lambda-\varepsilon\right)\leqslant\mathbb{P}\left(\left|T_{n}-\lambda\right|\geqslant\varepsilon\right)\xrightarrow[n\to+\infty]{}0$$donc $F_{T_{n}}(x)\xrightarrow[n\to+\infty]{}0$. On en déduit que : $\ds T_{n}\xrightarrow{\mathcal{L}}\lambda$.
Réciproquement, supposons que $T_{n}\xrightarrow{\mathcal{L}}\lambda$. Soit $\varepsilon>0$. Pour tout entier $n\geqslant0$, on a :
$$\ds\mathbb{P}\left(\left|T_{n}-\lambda\right|\leqslant\varepsilon\right)=F_{T_{n}}(\lambda+\varepsilon)-F_{T_{n}}(\lambda-\varepsilon)+\mathbb{P}\left(T_{n}=\lambda-\varepsilon\right)\xrightarrow[n\to+\infty]{}1-0+0=1$$Ainsi : $\ds T_{n}\xrightarrow{\mathcal{P}}\lambda$.
Lemme 2 : Soit $f\colon I\to\R$ continue sur $I$ intervalle de $\R$. On suppose que $\lambda\in I$ et que $T_n \xrightarrow[n\to+\infty]{\mathcal{P}}\lambda$. Alors : $f(T_n)\xrightarrow[n\to+\infty]{\mathcal{P}}f(\lambda)$.
Preuve :
Soit $\varepsilon>0$. Par continuité en $\lambda$ de la fonction $f$, on a :
$$\exists \alpha\in\R\;/\;\forall x\in[\lambda-\alpha,\lambda+\alpha]\cap I,\;|f(x)-f(\lambda)|\leqslant\varepsilon$$Par convergence en probabilité vers la variable certaine égale à $\lambda$, on a :
$$\forall\eta>0,\;\exists n_0\in\N\;/\;\forall n\geqslant n_0,\;\mathbb{P}(|T_n-\lambda|\leqslant\alpha)\geqslant1-\eta$$Mais on a aussi :
$$\left[|T_n-\lambda|\leqslant\alpha\right]\subset\left[|f(T_n)-f(\lambda)|\leqslant\varepsilon\right]$$d'où l'on déduit que :
$$\forall\eta>0,\;\exists n_0\in\N\;/\;\forall n\geqslant n_0,\;\mathbb{P}(|f(T_n)-f(\lambda)|\leqslant\varepsilon)\geqslant\mathbb{P}(|T_n-\lambda|\leqslant\alpha)\geqslant1-\eta$$Ainsi :
$$\ds\lim_{n\to+\infty}{\mathbb{P}(|f(T_n)-f(\lambda)|\leqslant\varepsilon)}=1$$ce qui prouve que : $f(T_n)\xrightarrow[n\to+\infty]{\mathcal{P}}f(\lambda)$.
(le théorème au programme n'est pas totalement satisfaisant ici d'où cette version qui ne nécessite pas la continuité sur $\R$ tout entier mais seulement sur un intervalle $I$ et dont la preuve se réalise assez aisément pour une variable certaine comme limite.)
Attaquons maintenant le théorème proprement dit.
D'après le théorème de loi faible des grands nombres, on a :
$$\ds\bar{X}_{n}\xrightarrow{\mathcal{P}}m$$Par composition avec la fonction $x\mapsto-x^{2}$ qui est continue sur $\R$, on en déduit que :
$$-\bar{X}_{n}^{2}\xrightarrow{\mathcal{P}}-m^{2}$$Les variables aléatoires $X_{k}^{2}$ sont indépendantes, de même espérance :
$$\mathbb{E}(X_{k}^{2})=\mathbb{V}(X_{k})+\mathbb{E}(X_{k})^{2}=\sigma^{2}+m^{2}$$et de même variance puisque $X_{k}$ admet un moment d'ordre 4 donc $X_{k}^{2}$ admet un moment d'ordre 2 :
$$\mathbb{V}(X_{k}^{2})=\mathbb{E}((X_{k}^{2})^{2})-\mathbb{E}(X_{k}^{2})^{2}=m_{4}-(m^{2}+\sigma^{2})^{2}$$Par théorème de loi faible des grands nombres, on a :
$$\ds\frac{1}{n}\sum_{k=1}^{n}{X_{k}^{2}}\xrightarrow{\mathcal{P}}m^{2}+\sigma^{2}$$D'après le lemme 1 (implication directe), on a donc :
$$\ds\frac{1}{n}\sum_{k=1}^{n}{X_{k}^{2}}\xrightarrow{\mathcal{L}}m^{2}+\sigma^{2}$$Alors, par théorème de Slutsky, on en déduit que :
$$\ds\frac{1}{n}\sum_{k=1}^{n}{X_{k}^{2}}-\bar{X}_{n}^{2}\xrightarrow{\mathcal{L}}m^{2}+\sigma^{2}-m^{2}=\sigma^{2}$$À nouveau d'après le lemme 1 (réciproque), on en déduit que :
$$\ds\bar{E}_{n}^{2}\xrightarrow{\mathcal{P}}\sigma^{2}$$Enfin, d'après le lemme 2 avec la fonction racine carrée, on en conclut que :
$$\ds\bar{E}_{n}\xrightarrow{\mathcal{P}}\sigma$$
D'après le lemme 2 avec la fonction $\ds x\mapsto\frac{\sigma}{x}$ qui est continue sur $]0,+\infty[$, avec $\sigma\in\left]0,+\infty\right[$ et avec le résultat établi ci-dessus, on a :
$$\ds\frac{\sigma}{\bar{E}_{n}}\xrightarrow{\mathcal{P}}1$$Soit $N$ une variable aléatoire suivant la loi $\mathcal{N}(0,1)$. D'après le théorème de Slutsky et le théorème de la limite centrée, on a alors :
$$\ds\sqrt{n}\frac{\bar{X}_{n}-m}{\bar{E}_{n}}=\sqrt{n}\frac{\bar{X}_{n}-m}{\sigma}\times\frac{\sigma}{\bar{E}_{n}}\xrightarrow{\mathcal{L}}N\times1=N$$Ainsi, on a :
$$\ds\mathbb{P}\left(\left|\sqrt{n}\frac{\bar{X}_{n}-m}{\bar{E}_{n}}\right|\leqslant t_{\alpha}\right)\xrightarrow[n\to+\infty]{}\mathbb{P}\left(\left|N\right|\leqslant t_{\alpha}\right)=\Phi(t_{\alpha})-\Phi(-t_{\alpha})=2\Phi(t_{\alpha})-1=2\left(1-\frac{\alpha}{2}\right)-1=1-\alpha$$donc :
$$\ds\lim_{n\to+\infty}{\mathbb{P}\left(\left|\bar{X}_{n}-m\right|\leqslant\frac{t_{\alpha}}{\sqrt{n}}\bar{E}_{n}\right)}=\lim_{n\to+\infty}{\mathbb{P}\left(\left|\sqrt{n}\frac{\bar{X}_{n}-m}{\bar{E}_{n}}\right|\leqslant t_{\alpha}\right)}=1-\alpha$$
Conclusion : $\ds\left[\bar{X}_{n}-t_{\alpha}\frac{\bar{E}_{n}}{\sqrt{n}},\bar{X}_{n}+t_{\alpha}\frac{\bar{E}_{n}}{\sqrt{n}}\right]$ est un intervalle aléatoire de confiance asymptotique au niveau de confiance $1-\alpha$.