Loi normale multidimensionnelle - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Introduction

Distribution normale multidimensionnelle
Paramètres \mu = [\mu_1, \dots, \mu_N]^\top moyenne (vecteur réel)
Σ matrice de variance-covariance (matrice définie positive réelle N \times N )
Support x \in \mathbb{R}^N
Densité de probabilité (fonction de masse) \frac {1} {(2\pi)^{N/2} \left|\Sigma\right|^{1/2}} e^{-\frac{1}{2}( x - \mu)^\top \Sigma^{-1} (x - \mu)}
Espérance μ
Médiane (centre) μ
Mode μ
Variance Σ
Asymétrie (statistique) 0
Entropie \ln\left(\sqrt{(2\,\pi\,e)^N \left| \Sigma \right|}\right)\!
Fonction génératrice des moments M_X(t)= \exp\left( \mu^\top t + \frac{1}{2} t^\top \Sigma t\right)
Fonction caractéristique \phi_X(t;\mu,\Sigma)=\exp\left( i \mu^\top t - \frac{1}{2} t^\top \Sigma t\right)

On appelle loi normale multidimensionnelle, ou loi multinormale ou loi de Gauss à plusieurs variables, une loi de probabilité qui est la généralisation multidimensionnelle de la loi normale.

Alors que la loi normale classique est paramétrée par un scalaire μ correspondant à sa moyenne et un second scalaire σ2 correspondant à sa variance, la loi multinormale est paramétrée par un vecteur \boldsymbol{\mu} de \mathbb{R}^N représentant son centre et une matrice semi-définie positive \boldsymbol{\Sigma} de qui est sa matrice de variance-covariance.

Dans le cas non dégénéré où Σ est définie positive, donc inversible, la loi normale multidimensionnelle admet une densité de probabilité f_\theta :\mathbb{R}^N \to \R définie de la manière suivante :

pour un vecteur \boldsymbol{x} de \mathbb{R}^N , en notant \boldsymbol{\theta}=\left(\boldsymbol{\mu},\boldsymbol{\Sigma}\right) et  \left| \boldsymbol{\Sigma}\right| le déterminant de  \boldsymbol{\Sigma}  :

 f_\theta\left(\boldsymbol{x}\right)= \frac{1} {(2\pi)^{N/2} \left| \boldsymbol{\Sigma}\right|^{1/2}}e^{ -\frac{1}{2}\left(\boldsymbol{x}-\boldsymbol{\mu}\right)^T\boldsymbol{\Sigma}^{-1}\left(\boldsymbol{x}-\boldsymbol{\mu}\right) }.

Cette loi est habituellement notée \mathcal{N}(\mu,\, \Sigma) par analogie avec la loi normale unidimensionnelle.

Loi non dégénérée

Cette section s'intéresse à la construction de la loi normale multidimensionnelle dans le cas non dégénéré où la matrice de variance-covariance Σ est définie positive.

Rappel sur la loi normale unidimensionnelle

Le théorème de la limite centrale fait apparaître une variable U\, de Gauss centrée réduite (moyenne nulle, variance unité) :

E[U] = 0 \qquad E[U^2] = 1
p_U(u) = \frac {1} {\sqrt{2 \pi}} e^{-\frac{1}{2}u^2}\,

On passe à la variable de Gauss générale par le changement de variable

X = \sigma U + \mu \,

qui conduit à

E[X] = \mu \qquad E[(X-\mu)^2] = \sigma^2
p_X(x) = \frac {1} {\sigma \sqrt{2 \pi}} e^{-{(x-\mu)^2} \over {2 \sigma^2}}

Cette loi est caractérisée par une exponentielle comportant un exposant du second degré.

Loi unitaire à plusieurs variables

Étant données N variables aléatoires indépendantes de même loi de Gauss centrée réduite, leur densité de probabilité jointe s'écrit :

p_{U_1...U_N}(u_1,...,u_N) = \frac {1} {{(2 \pi)}^{N/2}} e^{-{1 \over 2} \sum_{j=1}^N u_j^2}

C'est la loi qui est à la base de la loi du χ².

Elle peut être synthétisée dans des formules matricielles. On définit d'abord le vecteur aléatoire \boldsymbol{U}\, qui a pour composantes les N variables et le vecteur d'état \boldsymbol{u}\, qui a pour composantes leurs valeurs numériques.

On peut associer au vecteur d'état le vecteur moyenne qui a pour composantes les moyennes des composantes, c'est-à-dire, dans ce cas, le vecteur nul :

E[\boldsymbol{U}] = \boldsymbol{0}\,

La matrice de covariance possède des éléments diagonaux (les variances) qui sont égaux à 1 tandis que les éléments non diagonaux (les covariances au sens strict) sont nuls : c'est la matrice unité. Elle peut s'écrire en utilisant la transposition :

E[\boldsymbol{U} \boldsymbol{U}^T] = \boldsymbol{I}\,

Enfin, la densité de probabilité s'écrit :

p_\boldsymbol{U}(\boldsymbol{u}) = \frac {1} {{(2 \pi)}^{N/2}} e^{-{1 \over 2} \boldsymbol{u}^T \boldsymbol{u}}

Loi générale à plusieurs variables

Elle s'obtient à partir d'un changement de variable linéaire

\boldsymbol{X} = \boldsymbol{a} \boldsymbol{U} + \boldsymbol{\mu}

Le problème sera limité au cas d'une matrice \boldsymbol{a} carrée (même nombre de variables en sortie) et régulière. L'opérateur espérance vectoriel étant linéaire, on obtient le vecteur moyen

E[\boldsymbol{X}] = \boldsymbol{a} E[\boldsymbol{U}] + \boldsymbol{\mu} = \boldsymbol{\mu}\,

et la matrice de covariance

E[\boldsymbol{(X-\mu)} \boldsymbol{(X-\mu)}^T] = E[\boldsymbol{a} \boldsymbol{U} \boldsymbol{U}^T \boldsymbol{a}^T] = \boldsymbol{a}\boldsymbol{a}^T= \boldsymbol{\Sigma}\,

La densité de probabilité s'écrit

p_\boldsymbol{X}(\boldsymbol{x}) = \frac {1} {{(2 \pi)}^{N/2} \left| \boldsymbol{\Sigma} \right|^{1/2} } e^{-{1 \over 2} \boldsymbol{(x-\mu)}^T  \boldsymbol{\Sigma}^{-1} \boldsymbol{(x-\mu)}}

Remarques diverses

  • Un nouveau changement de variables linéaire appliqué à \boldsymbol{X}\, aboutit à une densité de probabilité qui a la même forme mathématique :
\boldsymbol{Y} = \boldsymbol{b} \boldsymbol{X} + \boldsymbol{\nu} = \boldsymbol{b} \boldsymbol{a} \boldsymbol{U} + \boldsymbol{b} \boldsymbol{\mu} + \boldsymbol{\nu}
  • Les formules essentielles, obtenues commodément à partir du calcul matriciel, se traduisent en termes scalaires :
X_k = \sum_{j=1}^N {a_{kj}U_j}\,(k=1,N)\,
p_{X_1...X_N}(x_1,...x_N) = \frac {1} {{(2 \pi)}^{N/2} \left| \boldsymbol{\Sigma} \right|^{1/2}} e^{-{1 \over 2} \sum_{j=1}^N \sum_{k=1}^N t_{jk} (x_j - \mu_j) (x_k - \mu_k)}

les t_{jk}\, étant les coefficients de l'inverse de la matrice de covariance.

  • L'exposant dans la formule qui précède est du second degré par rapport à toutes les variables. On vérifie qu'une intégration par rapport à l'une d'entre elles donne un résultat analogue. (N-1) intégrations successives aboutissent à une loi de probabilité marginale munie d'un exposant quadratique : chaque variable est gaussienne, ce qui n'était pas évident a priori.
  • En combinant les remarques précédentes, on aboutit au résultat selon lequel toute combinaison linéaire des composantes d'un vecteur gaussien est une variable gaussienne.
  • Dans cette loi de probabilité jointe, à tout couple de variables décorrélées correspond une matrice de covariance diagonale, ce qui assure leur indépendance. En effet, le couple est lui-même gaussien, et sa densité jointe est le produit des densités de ses deux composantes.
  • Le terme présent dans l'exponentielle \left(\boldsymbol{x}-\boldsymbol{\mu}\right)'\boldsymbol{\Sigma}^{-1}\left(\boldsymbol{x}-\boldsymbol{\mu}\right) est le carré de la distance de Mahalanobis.
Page générée en 0.226 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales | Partenaire: HD-Numérique
Version anglaise | Version allemande | Version espagnole | Version portugaise