Loi Binomiale


Loi Binomiale

Loi binomiale

Binomiale
Densité de probabilité / Fonction de masse
Distribution de probabilité pour la loi binomiale
Fonction de répartition
Fonction de répartition pour la loi binomiale
Paramètres n \geq 0 nombre d'épreuves (entier)
0\leq p \leq 1 probabilité de succès (réel)
q = 1 − p
Support k \in \{0,\dots,n\}\!
Densité de probabilité (fonction de masse) {n\choose k} p^k q^{n-k} \!
Fonction de répartition I_{1-p}(n-\lfloor k\rfloor, 1+\lfloor k\rfloor) \!
Espérance np\!
Médiane (centre) un des \{\lfloor np\rfloor, \lceil np \rceil\}[1]
Mode \lfloor (n+1)\,p\rfloor\!
Variance npq\!
Asymétrie (statistique) \frac{1-2p}{\sqrt{npq}}\!
Kurtosis (non-normalisé) \frac{1-6pq}{npq}\!
Entropie  \frac{1}{2} \ln \left( 2 \pi n e p q \right) + O \left( \frac{1}{n} \right)
Fonction génératrice des moments (q + pe^t)^n \!
Fonction caractéristique (q + pe^{it})^n \!

En mathématiques, une loi binomiale de paramètres n et p est une loi de probabilité qui correspond à l'expérience suivante :

On renouvelle n fois de manière indépendante une épreuve de Bernoulli de paramètre p (expérience aléatoire à deux issues possibles, généralement dénommées respectivement « succès » et « échec », la probabilité d'un succès étant p, celle d'un échec étant q = (1 − p)). On compte alors le nombre de succès obtenus à l'issue des n épreuves et on appelle X la variable aléatoire correspondant à ce nombre de succès.

L'univers X(\Omega )~ désigne l'ensemble des entiers naturels de 0 à n.

La variable aléatoire suit une loi de probabilité définie par :

p(k) = P(X = k)= {n \choose k} \, p^k q^{n-k}

Cette formule fait intervenir le nombre des combinaisons de k éléments parmi n qui se note désormais {n\choose k} même si la notation \mathrm{C}_{n}^{k} a été longtemps utilisée mais n'est plus reconnue. Notons que ce nombre de combinaisons se distingue du nombre des arrangements de k éléments parmi n \,,A^k_n = \dfrac{n!}{(n-k)!}\,, du fait que dans une combinaison l'ordre des éléments n'importe pas. Et comme il y a k! (prononcer factorielle k) façons d'ordonner k éléments, le nombre des combinaisons se déduit du nombre des arrangements par la simple division \dfrac{A^k_n}{k!}\, et on obtient :

{n\choose k} =\frac{n!}{k!(n-k)!}

Cette loi de probabilité s'appelle la loi binomiale de paramètre (n ; p) et se note B(n ; p).

Sommaire

Calcul de p(k)

Une épreuve de Bernoulli conduit à la création d'un univers Ω = {S ; E}, (S pour Succès et E pour Echec).

n épreuves de Bernoulli indépendantes conduisent à la création d'un univers Ωn constitué de n-uplets d'éléments de Ω, sur lequel peut se définir une probabilité produit. La probabilité de l'éventualité (S, S, ..., S, E, E, ..., E) avec k succès et n - k échecs a donc pour valeur pkqn-k.

Plus généralement, tout n-uplet formé de k succès et de n-k échecs aura pour probabilité pkqn-k quel que soit l'ordre d'apparition des S et des E.

L'évènement « X = k » est formé de tous les n-uplets comportant k succès et n - k échecs. La combinatoire permet de déterminer le nombre de n-uplets de ce type : il y en a autant que de parties à k éléments d'un ensemble à n éléments ; or chaque partie correspond à une façon de placer les k succès parmi les n places du n-uplet. Il y a donc {n \choose k} n-uplets, chacun ayant une probabilité égale à pkqn-k.

Donc P(X = k) = {n \choose k} \, p^k (1-p)^{n-k} = {n \choose k} \, p^k q^{n-k}.

Espérance, variance, écart type

X est la somme de n variables aléatoires indépendantes suivant toutes la (même) loi de Bernoulli de paramètre p, prenant la valeur 1 en cas de succès (probabilité p) et 0 en cas d'échec (probabilité (1-p)) ; ces variables aléatoires ont pour espérance p et pour variance p(1-p).

  • E(X) est donc la somme des espérances, soit np
  • V(X) est la somme des variances, soit np(1-p)
  • \sigma_{X} = \sqrt{np(1-p)}

Convergence

Pour de grandes valeurs de n, le calcul de {n \choose k} \, p^k q^{n-k} devient vite pratiquement impossible, sauf si l'on cherche à calculer le logarithme de cette expression au lieu de l'expression elle-même (et à condition d'utiliser l'approximation des factorielles par la formule de Stirling). On distingue deux cas :

  • Lorsque n tend vers l'infini et que p tend vers 0 avec np = a, la loi binomiale converge vers une loi de Poisson de paramètre a. En pratique, on remplace la loi binomiale par une loi de Poisson dès que n > 30 et np < 5 ou dès que n > 50 et p < 0.1.
  • Lorsque n tend vers l'infini et que p et q sont de même ordre de grandeur, la loi binomiale converge vers une loi normale d'espérance np et de variance npq. En pratique, on remplace une loi binomiale par une loi normale dès que n > 30, np > 5 et nq > 5



Loi des grands nombres

La loi binomiale, son espérance et sa variance, ainsi que l'inégalité de Bienaymé-Tchebychev permettent de démontrer une version simple de la loi des grands nombres.

Références

  1. Hamza, K. (1995). The smallest uniform upper bound on the distance between the mean and the median of the binomial and Poisson distributions. Statist. Probab. Lett. 23 21–25.

Voir aussi

Lien externe

  • Portail des probabilités et des statistiques Portail des probabilités et des statistiques
Ce document provient de « Loi binomiale ».

Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Loi Binomiale de Wikipédia en français (auteurs)

Regardez d'autres dictionnaires:

  • Loi binomiale — Binomiale Densité de probabilité / Fonction de masse Fonction de répartition …   Wikipédia en Français

  • Loi binômiale — Loi binomiale Binomiale Densité de probabilité / Fonction de masse Fonction de répartition …   Wikipédia en Français

  • Loi binomiale — ● Loi binomiale loi théorique de distribution statistique telle que les fréquences soient égales aux coefficients binominaux …   Encyclopédie Universelle

  • Loi binomiale négative — Binomiale négative Densité de probabilité / Fonction de masse La ligne rouge représente la moyenne et la ligne verte a pour longueur approximativement 2σ. Paramètres (réel) …   Wikipédia en Français

  • Loi Normale — Distribution gaussienne Densité de probabilité / Fonction de masse La courbe rouge représente la fonction φ (voir texte), densité de probabilité d une variable suivant une loi normale centrée réduite Fonction de répartition …   Wikipédia en Français

  • Loi Normale Reduite — Loi normale Distribution gaussienne Densité de probabilité / Fonction de masse La courbe rouge représente la fonction φ (voir texte), densité de probabilité d une variable suivant une loi normale centrée réduite Fonction de répartition …   Wikipédia en Français

  • Loi de Gauss — Loi normale Distribution gaussienne Densité de probabilité / Fonction de masse La courbe rouge représente la fonction φ (voir texte), densité de probabilité d une variable suivant une loi normale centrée réduite Fonction de répartition …   Wikipédia en Français

  • Loi de Laplace-Gauss — Loi normale Distribution gaussienne Densité de probabilité / Fonction de masse La courbe rouge représente la fonction φ (voir texte), densité de probabilité d une variable suivant une loi normale centrée réduite Fonction de répartition …   Wikipédia en Français

  • Loi gaussienne — Loi normale Distribution gaussienne Densité de probabilité / Fonction de masse La courbe rouge représente la fonction φ (voir texte), densité de probabilité d une variable suivant une loi normale centrée réduite Fonction de répartition …   Wikipédia en Français

  • Loi normale gaussienne — Loi normale Distribution gaussienne Densité de probabilité / Fonction de masse La courbe rouge représente la fonction φ (voir texte), densité de probabilité d une variable suivant une loi normale centrée réduite Fonction de répartition …   Wikipédia en Français