Matrice de variance-covariance - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Introduction

Une matrice de variance-covariance est une matrice carrée caractérisant les interactions (linéaires) entre p variables aléatoires X_1,\dots,X_p\, .

Définition

La matrice de variance-covariance (ou simplement matrice de covariance) d'un vecteur de p variables aléatoires \vec X=\begin{pmatrix} X_1  \\ \vdots\\ X_p \end{pmatrix} dont chacune a une variance (finie) est la matrice carrée dont le terme générique est donné par:

a_{i,j}=\textrm{cov}\left(X_i,X_j\right)


La matrice de variance-covariance, notée parfois \boldsymbol\Sigma , est donc définie comme:

Définition —  \Sigma_X\equiv\operatorname{var}(\vec X) \equiv \operatorname{E}((\vec X-\operatorname{E}(\vec X))(\vec X-\operatorname{E}(\vec X))^T)

En développant les termes:

\Sigma_X=\operatorname{var}(\vec X) = \operatorname{var}\begin{pmatrix} X_1  \\ \vdots\\ X_p \end{pmatrix} = \begin{pmatrix}  \operatorname{var}(X_1) & \operatorname{cov}(X_{1}X_{2}) &  \cdots & \operatorname{cov}(X_{1}X_{p}) \\ \operatorname{cov}(X_{1}X_{2}) & \ddots & \cdots & \vdots\\ \vdots & \vdots & \ddots & \vdots\\ \operatorname{cov}(X_{1}X_{p}) & \cdots & \cdots&  \operatorname{var}(X_p)  \end{pmatrix} = \begin{pmatrix}  \sigma^2_{x_1} & \sigma_{x_{1}x_{2}} &  \cdots & \sigma_{x_{1}x_{p}} \\ \sigma_{x_{1}x_{2}} & \ddots & \cdots & \vdots\\ \vdots & \vdots & \ddots & \vdots\\ \sigma_{x_{1}x_{p}} & \cdots & \cdots&  \sigma^2_{x_p}  \end{pmatrix}

Estimation

Un estimateur non-biaisé de la matrice de variance-covariance peut être obtenu par:

\operatorname{\widehat {var}}(\vec X)= {1 \over {n-1}}\sum_{i=1}^n (\vec X_i-\overline{\vec{X}})(\vec X_i-\overline{\vec{X}})^T
\overline{\vec X}={1 \over {n}}\sum_{i=1}^n \vec X_i est le vecteur des moyennes empiriques.

L'estimateur du maximum de vraisemblance, sous l'hypothèse que X suit une loi normale multidimensionnelle, vaut par contre:

\operatorname{\widehat {var}}(\vec X)={1 \over n}\sum_{i=1}^n (\vec X_i-\overline{\vec X})(\vec X_i-\overline{\vec X})^T.

Dans le cas où les données sont générées par une loi normale multidimensionnelle, l'estimateur du maximum de vraisemblance suit une loi de Wishart (en)

Propriétés

  • La matrice est symétrique, étant donné la propriété que \operatorname{cov}(X, Y) = \operatorname{cov}(Y, X) , .
  • Ses valeurs propres sont positives ou nulles. Lorsqu'il n'existe aucune relation affine presque sûre entre les composantes du vecteur aléatoire, la matrice \boldsymbol{\Sigma} est à valeurs propres strictement positives : elle est définie positive.
  • Les éléments de sa diagonale représentent la variance de chaque variable, étant donné la propriété que: \operatorname{cov}(X, X) = \operatorname{var}(X)
  • Les éléments en dehors de la diagonale représentent la covariance entre les variables i et j quand  \quad i \neq j .

Test sur la matrice de variance-covariance

Le test de sphéricité de Bartlett permet de déterminer si les composantes hors de la diagonale de la matrice sont différentes de zéro, i.e. si il y a une relation entre les différentes variables prises en considération.

Utilisation en statistique

La matrice de variance-covariance est un outil essentiel pour l'analyse multivariée:

Page générée en 0.132 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales | Partenaire: HD-Numérique
Version anglaise | Version allemande | Version espagnole | Version portugaise