Outils pour utilisateurs

Outils du site


No renderer 'pdf' found for mode 'pdf'
math:2:lois_discretes_usuelles

Ceci est une ancienne révision du document !


Lois discrètes usuelles

Définition : Lois discrètes finies usuelles

  • Loi uniforme : Soit $(a,b)\in\Z^{2}$ tel que $a\leqslant b$. $X\hookrightarrow\mathcal{U}(\llbracket a,b\rrbracket)$ si et seulement si : $$\ds X(\Omega)=\llbracket a,b\rrbracket$$ $$\ds\forall k\in X(\Omega),\;\mathbb{P}(X=k)=\frac{1}{b-a+1}$$
  • Loi de Bernoulli : Soit $p\in\left]0,1\right[$. $X\hookrightarrow\mathcal{B}(1,p)$ si et seulement si : $$\ds X(\Omega)=\llbracket0,1\rrbracket$$ $$\ds\mathbb{P}(X=0)=1-p\quad\mathbb{P}(X=1)=p$$
  • Loi binomiale : Soit $n\in\N^{*}$ et $p\in\left]0,1\right[$. $X\hookrightarrow\mathcal{B}(n,p)$ si et seulement si : $$\ds X(\Omega)=\llbracket0,n\rrbracket$$ $$\ds\forall k\in X(\Omega),\;\mathbb{P}(X=k)=\binom{n}{k}p^{k}(1-p)^{n-k}$$
  • [HP] Loi hypergéométrique : Soit $(n,N)\in\N^{*2}$ tel que $n\leqslant N$ et soit $p\in\left]0,1\right[$ tel que $Np\in\N$. $X\hookrightarrow\mathcal{H}(N,n,p)$ si et seulement si : $$\ds X(\Omega)=\llbracket\max\{0,n-N(1-p)\},\min\{n,Np\}\rrbracket$$ $$\forall k\in X(\Omega),\;\mathbb{P}(X=k)=\frac{\ds\binom{Np}{k}\binom{N-Np}{n-k}}{\ds\binom{N}{n}}$$

Remarques
On utilise ces différentes lois dans les cas suivant :

  • Loi uniforme $\mathcal{U}(\llbracket a,b\rrbracket)$ : un tirage aléatoire dont tous les résultats possibles $\{a,a+1,\dots,b\}$ sont équiprobables, la variable aléatoire prenant la valeur du résultat obtenu.
  • Loi binomiale $\mathcal{B}(n,p)$ : $n$ tirages successifs indépendants (avec remise par exemple) à deux issues possibles (ou bien une issue observée et plusieurs autres mutualisées) et on compte le nombre d'occurrences au cours des $n$ tirages de l'un des résultats, celui (ou l'un de ceux) dont la probabilité est $p$. La loi de Bernoulli en est un cas particulier ($n=1$).
  • Loi hypergéométrique $\mathcal{H}(N,n,p)$ : $n$ tirages successifs non indépendants (sans remise ou bien simultanés par exemple) parmi $N$ objets de deux natures différentes et on compte le nombre d'occurrences au cours des $n$ tirages de l'un des résultats, celui dont la proportion initiale vaut $p$.

Théorème : Espérance et variance

  • Si $X\hookrightarrow\mathcal{U}(\llbracket1,n\rrbracket)$ alors :
    $$\ds\mathbb{E}(X)=\frac{n+1}{2}\qquad\text{et}\qquad\mathbb{V}(X)=\frac{n^{2}-1}{12}$$
  • Si $X\hookrightarrow\mathcal{B}(1,p)$ alors :
    $$\mathbb{E}(X)=p\qquad\text{et}\qquad\mathbb{V}(X)=p(1-p)$$
  • Si $X\hookrightarrow\mathcal{B}(n,p)$ alors :
    $$\mathbb{E}(X)=np\qquad\text{et}\qquad\mathbb{V}(X)=np(1-p)$$
  • Si $X\hookrightarrow\mathcal{H}(N,n,p)$ alors :
    $$\ds\mathbb{E}(X)=np\qquad\text{et}\qquad\mathbb{V}(X)=np(1-p)\frac{N-n}{N-1}$$

Exemples

  1. Soit $(a,b)\in\Z^{2}$ tel que $a\leqslant b$. Soit $U\hookrightarrow\mathcal{U}(\llbracket a,b\rrbracket)$. Calculer $\mathbb{E}(U)$ et $\mathbb{V}(U)$.
  2. Une urne contient $n$ jetons blancs et $2n$ jetons noirs. On tire successivement et sans remise tous les jetons.
    1. Quelle est la probabilité $p_{n}$ que les $n$ derniers jetons tirés soient noirs ?
    2. On admet que : $\ds n!\underset{n\to+\infty}{\sim}\left(\frac{n}{\mathrm{e}}\right)^{n}\sqrt{2\pi n}$. Calculer $\ds\lim_{n\to+\infty}p_{n}$.

Définition : Lois discrètes infinies usuelles

  • Loi géométrique : Soit $p\in\left]0,1\right[$. $X\hookrightarrow\mathcal{G}(p)$ si et seulement si : $$X(\Omega)=\N^{*}\qquad\text{et}\qquad\forall n\in\N^{*},\;\mathbb{P}(X=n)=p(1-p)^{n-1}$$
  • Loi de Poisson : Soit $\lambda\in\left]0,+\infty\right[$. $X\hookrightarrow\mathcal{P}(\lambda)$ si et seulement si : $$X(\Omega)=\N\qquad\text{et}\qquad\ds\forall n\in\N,\;\mathbb{P}(X=n)=\mathrm{e}^{-\lambda}\frac{\lambda^{n}}{n!}$$

Remarques

  • La loi de Poisson ne correspond à aucun modèle concret, c'est une loi limite (voir quelques chapitres plus loin)
  • La loi géométrique correspond au rang du premier succès lors d'une succession infinie d'une même épreuve de Bernoulli.

Théorème : Espérance et variance

  • Si $X\hookrightarrow\mathcal{G}(p)$ alors $X$ admet une variance (donc une espérance) et on a : $$\ds\mathbb{E}(X)=\frac{1}{p}\qquad\text{et}\qquad\ds\mathbb{V}(X)=\frac{1-p}{p^{2}}$$
  • Si $X\hookrightarrow\mathcal{P}(\lambda)$ alors $X$ admet variance (donc une espérance) et on a : $$\mathbb{E}(X)=\lambda\qquad\text{et}\qquad\mathbb{V}(X)=\lambda$$
math/2/lois_discretes_usuelles.1589408572.txt.gz · Dernière modification : 2020/05/14 00:22 de Alain Guichet