Indépendance (probabilités) - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Introduction

L'indépendance est une notion probabiliste qualifiant de manière intuitive des événements aléatoires n'ayant aucune influence l'un sur l'autre. Il s'agit d'une notion très importante en statistique et calcul de probabilités.

Par exemple, la valeur d'un premier lancer de dés n'a aucune influence sur la valeur du second lancer. De même, pour un lancer, le fait d'obtenir une valeur inférieure ou égale à quatre n'influe en rien sur la probabilité que le résultat soit pair ou impair : les deux événements sont dits indépendants.

L'indépendance ou non de deux événements n'est pas toujours facile à établir.

Indépendance de deux évènements

La définition mathématique de l'indépendance de deux évènements est la suivante :

Définition — A et B sont indépendants  \Leftrightarrow \mathbb{P}(A \cap B) = \mathbb{P}(A) \cdot \mathbb{P}(B).

La définition mathématique ci-dessus est assez peu parlante. Le lien entre le concept intuitif d'indépendance et la "formule produit" ci-dessus apparaît plus clairement si l'on introduit la notion de probabilité conditionnelle :

Définition — Si \scriptstyle\ \mathbb{P}(B) \neq 0, la probabilité conditionnelle de A sachant B, notée \scriptstyle\ \mathbb{P}(A\mid B),\ est définie par la relation ci-dessous :

\mathbb{P}(A\mid B)={\mathbb{P}(A \cap B) \over \mathbb{P}(B)}.

En excluant les cas particuliers peu intéressants où B est impossible, et où B est certain, on peut alors reformuler la définition de l'indépendance de la manière suivante

Définition — Lorsque la probabilité de B n'est ni nulle, ni égale à 1, A et B sont indépendants si l'une des conditions suivantes, toutes équivalentes, est remplie :

\begin{align}\mathbb{P}(A\mid B)\ &=\ \mathbb{P}(A),\\\mathbb{P}(A\mid \overline{B})\ &=\ \mathbb{P}(A),\\\mathbb{P}(A\mid B)\ &=\ \mathbb{P}(A\mid \overline{B}).\end{align}

Ainsi les évènements A et B sont dits indépendants si notre pronostic sur l'évènement A est le même :

  • si on sait que l'évènement B s'est produit (pronostic \scriptstyle\ \mathbb{P}(A\mid B)\ ),
  • si on sait que l'évènement B ne s'est pas produit (pronostic \scriptstyle\ \mathbb{P}(A\mid \overline{B})\ ),
  • si on ne sait rien sur le statut de l'évènement B (pronostic \scriptstyle\ \mathbb{P}(A)\ ).

Autrement dit, A est dit indépendant de B si notre pronostic sur l'évènement A n'est affecté par aucune information concernant B, ni par l'absence d'information concernant B. On peut échanger les rôles de A et de B dans la définition utilisant les probabilités conditionnelles, à condition bien sûr d'exclure les cas particuliers peu intéressants où A est impossible, et où A est certain.

Bien que la définition utilisant les probabilités conditionnelles soit plus intuitive, elle a l'inconvénient d'être moins générale, et de ne pas faire jouer un rôle symétrique aux deux événements A et B.

Notons par ailleurs qu'un évènement certain A est indépendant de tout évènement B quel qu'il soit. Un évènement impossible est également indépendant de tout autre évènement. En particulier, un événement A est indépendant de lui-même à la condition que A soit soit certain, soit impossible. En effet, si l'événement A est indépendant de lui-même, on peut écrire :

\mathbb{P}(A) = \mathbb{P}(A \cap A) = \mathbb{P}(A)\mathbb{P}(A),\,

et on en déduit que la probabilité de l'événement A vaut soit 0, soit 1.

Indépendance des variables aléatoires

Définitions

Il y a plusieurs définitions équivalentes de l'indépendance d'une famille finie de variables aléatoires. On peut en particulier définir l'indépendance d'une famille de tribus, et voir ensuite l'indépendance des évènements et l'indépendance des variables aléatoires comme des cas particuliers de l'indépendance des tribus. Cela permet de démontrer certains résultats généraux sur l'indépendance une seule fois, pour les tribus, puis d'en déduire la version "évènements" et la version "variables aléatoires" de ce résultat général immédiatement (un exemple est le lemme de regroupement). Cependant, il est peut-être préférable de donner d'abord deux définitions de l'indépendance des variables aléatoires qui soient opératoires pour les applications, et quelques critères commodes. Dans ce qui suit on considère une suite \scriptstyle\ (X_1, X_2, \dots,X_n) de variables aléatoires définies sur le même espace de probabilité \scriptstyle\ (\Omega, \mathcal{A}, \mathbb{P}) , mais éventuellement à valeurs dans des espaces différents : \scriptstyle\ X_i\ :\ (\Omega, \mathcal{A}, \mathbb{P})\ \rightarrow\ (E_i,\mathcal{E}_i),\quad 1\le i\le n.

Définition —  \scriptstyle\ (X_1, X_2, \dots,X_n) est une famille de variables aléatoires indépendantes si l'une des deux conditions suivantes est remplie :

  • \forall (A_1,\dots,A_n)\in\mathcal{E}_1\times\dots\times\mathcal{E}_n,\quad\mathbb{P}(X_1\in A_1\text{ et }X_2\in A_2\text{ et }\dots\text{ et }X_n\in A_n)\ =\  \prod_{i=1}^n\mathbb{P}(X_i\in A_i),
  • on a l'égalité
\mathbb{E}\left[\prod_{i=1}^n\ \varphi_i(X_i)\right]\ =\  \prod_{i=1}^n\mathbb{E}\left[\varphi_i(X_i)\right],
pour n'importe quelle suite de fonctions \scriptstyle\ \phi_i définies sur \scriptstyle\ (E_i,\mathcal{E}_i), à valeurs dans \scriptstyle\ \R,\ dès que les espérances ci-dessus ont un sens.

Les espérances ci-dessus ont un sens si les \scriptstyle\ \varphi_i\ sont mesurables, et si \scriptstyle\ \prod_{i=1}^n\ \varphi_i(X_i)\ est intégrable, ou si les \scriptstyle\ \varphi_i\ sont positives ou nulles. Typiquement, dans les applications, \scriptstyle\ (E_i,\mathcal{E}_i)=(\mathbb{R}^{d_i},\mathcal{B}(\mathbb{R}^{d_i})). Dans le cas de deux variables aléatoires réelles cela donne :

Définition — Deux variables aléatoires réelles X et Y sont indépendantes si l'une des deux conditions suivantes est remplie :

  • \forall (A,B)\in\mathcal{B}(\mathbb{R})^{2},\quad\mathbb{P}(X\in A\text{ et }Y\in B)\ =\  \mathbb{P}(X\in A)\ \mathbb{P}(Y\in B),
  • on a
\mathbb{E}\left[g(X)\cdot h(Y)\right] = \mathbb{E}[g(X)]\cdot \mathbb{E}[h(Y)]
pour tout couple de fonctions boréliennes \scriptstyle\ g et \scriptstyle\ h,\ dès que les espérances ci-dessus ont un sens.

Les définitions précédentes traitent de familles finies de variables aléatoires, numérotées de 1 à n par commodité, sans que cela restreigne la généralité des énoncés : en effet, on peut toujours numéroter de 1 à n les éléments d'une famille finie de variables aléatoires. De plus, les définitions font jouer des rôles symétriques à chaque élément de la famille, si bien que le choix d'une numérotation ou d'une autre est sans effet sur la vérification de la définition.

L'indépendance d'une famille quelconque (éventuellement infinie) de variables aléatoires est la suivante :

Définition — Une famille quelconque \scriptstyle\ (X_{j})_{j\in J}\ de variables aléatoires définies sur \scriptstyle\ (\Omega,\mathcal{A},\mathbb{P})\ est une famille de variables aléatoires indépendantes si et seulement si toute sous famille finie de \scriptstyle\ (X_{j})_{j\in J}\ est une famille de variables aléatoires indépendantes (c'est-à dire, si et seulement si, pour toute partie finie I de J, \scriptstyle\ (X_{i})_{i\in I}\ est une famille de variables aléatoires indépendantes).

Cas des variables aléatoires à densité

Soit une suite \scriptstyle\ X=(X_1, X_2, \dots,X_n) de variables aléatoires réelles définies sur le même espace de probabilité \scriptstyle\ (\Omega, \mathcal{A}, \mathbb{P}).\

Théorème — 

  • Si \scriptstyle\ X\ possède une densité de probabilité \scriptstyle\ f:\R^n\rightarrow [0,+\infty[\ qui s'écrit sous forme "produit" :
\forall x=(x_1,\dots,x_n)\in\R^n,\qquad f(x)\ =\  \prod_{i=1}^ng_i(x_i),
où les fonctions \scriptstyle\ g_i\ sont boréliennes et positives ou nulles, alors \scriptstyle\ X\ est une suite de variables indépendantes. De plus, la fonction \scriptstyle\ f_i\ définie par
f_i(x)\ =\  \frac{g_i(x)}{\int_{\R}g_i(u)du}
est une densité de probabilité de la variable aléatoire \scriptstyle\ X_i.\
  • Réciproquement, si \scriptstyle\ X\ est une suite de variables aléatoires réelles indépendantes de densités de probabilité respectives \scriptstyle\ f_i,\ alors \scriptstyle\ X\ possède une densité de probabilité, et la fonction \scriptstyle\ f\ définie par
\forall (x_1,\dots,x_n)\in\R^n,\qquad f(x_1,\dots,x_n)\ =\  \prod_{i=1}^nf_i(x_i),
est une densité de probabilité de \scriptstyle\ X.\

Cas des variables discrètes

Dans le cas des variables discrètes, un critère d'indépendance utile est le suivant :

Cas discret — Soit X=(X1, X2, ... , Xn ) une suite de variables aléatoires discrètes, et soit (S1, S2, ... , Sn ) une suite d'ensembles finis ou dénombrables tels que, pour tout i≤n, \scriptstyle\ \mathbb{P}(X_i\in S_i)=1.\ Alors la famille (X1, X2, ... , Xn ) est une suite de variables aléatoires indépendantes si, pour tout \scriptstyle\ x=(x_1,x_2, \dots, x_n)\in \prod_{i=1}^n\,S_i,\

 \mathbb{P}\left(X= x\right)\ =\ \prod_{i=1}^n\,\mathbb{P}\left(X_i= x_i\right).
Loi uniforme sur un produit cartésien  :
  • Soit (E1, E2, ... , En) une suite d'ensembles finis, de cardinaux respectifs #Ei , et soit X=(X1, X2, ... , Xn ) une variable aléatoire uniforme à valeurs dans le produit cartésien :
 E\ =\ E_1\times E_2\times E_3\times\ \dots\ \times E_n.
Alors la suite X est une suite de variables aléatoires indépendantes, et, pour chaque i, la variable aléatoire Xi suit la loi uniforme sur Ei . En effet, considérons une suite Y=(Yi )1≤i≤n de variables aléatoires indépendantes, chaque Yi étant uniforme sur l'ensemble Ei correspondant. Alors, pour tout élément x=(x1, x2, ... , xn ) de E,
 \begin{align}\mathbb{P}\left(X= x\right)&=\frac1{\# E}\\ &=\prod_{i=1}^n\frac1{\# E_i}\\ &=\prod_{i=1}^n\,\mathbb{P}\left(Y_i= x_i\right)\\ &= \mathbb{P}\left(Y= x\right),\end{align}
la deuxième égalité résultant de la formule donnant le nombre d'éléments d'un produit cartésien d'ensembles, la 4ème de l'indépendance des Yi , les autres égalités résultant de la définition de la loi uniforme. Ainsi les suites X et Y ont même loi, ce qui entraîne bien que X est une suite de variables aléatoires indépendantes dont les composantes suivent des lois uniformes.

Autres critères d'indépendance

Par exemple,

Critères — Soit X et Y deux variables aléatoires réelles définies sur un espace probabilisé \scriptstyle\ (\Omega,\mathcal{A},\mathbb{P}).\

  • Si, pour tout couple (x,y) de nombres réels,
 \mathbb{P}\left(X\le x\text{ et }Y\le y\right)\ =\ \mathbb{P}\left(X\le x\right)\times\mathbb{P}\left(Y\le y\right),
alors X et Y sont indépendantes.
  • Si Y est à valeurs dans \scriptstyle\ \mathbb{N},\ et si, pour tout couple \scriptstyle\ (x,n)\in\mathbb{R}\times\mathbb{N},\
 \mathbb{P}\left(X\le x\text{ et }Y=n\right)\ =\ \mathbb{P}\left(X\le x\right)\times\mathbb{P}\left(Y=n\right),
alors X et Y sont indépendantes.
  • Bien sûr, si X et Y sont à valeurs dans \scriptstyle\ \mathbb{N},\ et si, pour tout couple \scriptstyle\ (m,n)\in\mathbb{N}^2,\
 \mathbb{P}\left(X=m\text{ et }Y=n\right)\ =\ \mathbb{P}\left(X=m\right)\times\mathbb{P}\left(Y=n\right),
alors X et Y sont indépendantes.

Par exemple, on peut utiliser le deuxième critère pour démontrer que dans la méthode de rejet, le nombre d'itérations est indépendant de l'objet aléatoire (souvent un nombre aléatoire) engendré au terme de ces itérations.

On peut généraliser ces critères d'indépendance à des familles finies quelconques de variables aléatoires réelles, dont certaines, éventuellement, sont des variables discrètes, à valeurs dans des parties finies ou dénombrables de \scriptstyle\ \mathbb{R},\ éventuellement différentes de \scriptstyle\ \mathbb{N}.\ La démonstration de ces critères se trouve à la page "Lemme de classe monotone".

Indépendance et corrélation

L'indépendance implique que la covariance, et donc la corrélation, entre les deux variables est nulle:

Théorème — X et Y sont indépendantes \Rightarrow \operatorname{Cov}(X,Y)=\operatorname{Corr}(X,Y)=0

La réciproque du théorème est fausse, comme le montre l'exemple suivant:

Exemple  :

Cet exemple est tiré de Ross (2004, p. 306)

  • Soit X une variable aléatoire discrète telle que  \mathbb{P}(X=0)=\mathbb{P}(X=1)=\mathbb{P}(X=-1)=\frac{1}{3} .
  • Définissons Y en relation avec X :  \begin{cases}  0 & \text{si } X\neq 0\\ 1 & \text{si } X= 0\\ \end{cases}
  • On calcule \operatorname{E}[XY]= \frac{1}{3}(0\cdot 1)+\frac{1}{3}(1\cdot 0)+\frac{1}{3}(-1\cdot 0)=0 .
  • On voit aussi que \operatorname{E}[X]= \frac{1}{3}(0)+\frac{1}{3}(1)+\frac{1}{3}(-1)=0+1-1=0 .
  • donc: \operatorname{cov}(X, Y) = \operatorname{E}(X Y) - \operatorname{E}(X)\operatorname{E}(Y)=0-0=0 .
  • Pourtant les deux variables ne sont bien évidemment pas indépendantes!

La non-corrélation entre X et Y est une propriété plus faible que l'indépendance. En fait l'indépendance entre X et Y est équivalente à la non-corrélation de φ(X) et de ψ(Y) pour tout choix de φ et de ψ (tels que la covariance de φ(X) avec ψ(Y) soit définie ...).

Page générée en 0.292 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales | Partenaire: HD-Numérique
Version anglaise | Version allemande | Version espagnole | Version portugaise