Loi multinomiale - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Introduction

Multinomiale
Paramètres n > 0 nombre d'épreuves (entier)
p_1, \ldots p_m probabilités des événements (Σpi = 1)
Support N_i \in \{1,\dots,m\}
\Sigma N_i = n\!
Densité de probabilité (fonction de masse) \frac{n!}{n_1!\cdots n_m!} p_1^{n_1} \cdots p_m^{n_m}
Espérance E{Xi} = npi
Variance Var(Xi) = npi(1 − pi)
Cov(Xi,Xj) = − npipj ( i\neq j )
Fonction génératrice des moments \left( \sum_{i=1}^m p_i e^{t_i} \right)^n

La loi binomiale concerne le nombre de succès dans n épreuves de Bernoulli indépendantes donnant chacune un résultat binaire, comme dans le jeu de pile ou face. La loi multinomiale est une généralisation de celle-ci, applicable par exemple à n jets d'un dé à six faces. Contrairement à ces exemples simples, les différentes possibilités ne sont généralement pas équiprobables.

Autre présentation de la loi binomiale

La fonction de probabilité de la variable aléatoire binomiale X\, qui s'écrit

\mathcal{P}(X=x) = \frac{n!} {x! (n-x)!} p^x (1-p)^{n-x}

peut se réécrire de manière symétrique en faisant intervenir deux variables dont la somme est égale à n :

N_1 = X \quad N_2 = n-X \quad p_1 = p \quad p_2 = 1-p
\mathcal{P}(N_1 = n_1,N_2 = n_2) = \frac{n!} {n_1! n_2!} p_1^{n_1} p_2^{n_2}

Approximation

Lorsque la variable aléatoire N_i\, devient assez grande, le théorème de la limite centrale montre qu'elle est raisonnablement approchée par une variable normale à laquelle correspond la variable centrée réduite .

Si ces variables étaient indépendantes, \sum_{i=1}^m \frac {(N_i - n p_i)^2} {np_i(1-p_i)} suivrait une loi du \chi^2\, à m\, degrés de liberté.

Du fait de la contrainte linéaire qui s'applique, la variable \sum_{i=1}^m \frac {(N_i - n p_i)^2} {n p_i} suit une loi du \chi^2\, à (m-1)\, degrés de liberté.

Cette dernière remarque est à la base du test du χ².

Généralisation

Dans le cas multinomial à m\, résultats possibles au lieu de 2, les variables deviennent N_i\, , i=\{1,\ldots,m\}\, et correspondent aux probabilités p_i\, , i=\{1,\ldots,m\}\, avec les contraintes

\sum_{i=1}^m N_i = n \quad \sum_{i=1}^m p_i = 1

La fonction de probabilité s'écrit alors, sous la condition portant sur la somme des variables :

\mathcal{P}(N_1 = n_1,\ldots N_m = n_m) = \frac{n!} {n_1! \ldots n_m!} p_1^{n_1}\ldots p_m^{n_m}

Chacune des variables reste une variable binomiale dont la moyenne et la variance sont

E[N_i] = n p_i \quad var[N_i] = n p_i (1-p_i)

tandis que les covariances s'écrivent

cov[N_i,N_j] = -n p_i p_j\,
Page générée en 0.101 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales
Version anglaise | Version allemande | Version espagnole | Version portugaise