Indépendance en probabilité élémentaire
Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.
image:icone_math_élém.jpg
Cet article fait partie de la série
Mathématiques élémentaires
Algèbre
Analyse
Arithmétique
Géométrie
Logique (La logique (du grec logikê, dérivé de logos (λόγος), terme inventé par Xénocrate signifiant à la fois...)
Probabilité (La probabilité (du latin probabilitas) est une évaluation du caractère probable d'un évènement. En mathématiques, l'étude des probabilités est un...)
Statistique (Une statistique est, au premier abord, un nombre calculé à propos d'un échantillon. D'une façon générale, c'est le résultat...)

L'étude de l'indépendance d'événements ou d'expériences consiste à chercher si les événements ou les expériences sont liées ou se produisent indépendamment l'une de l'autre (On peut raisonnablement penser que le fait de boire de l'alcool et celui de provoquer un accident ne sont pas indépendants l'un de l'autre). Les probabilités ont construit leur définition (Une définition est un discours qui dit ce qu'est une chose ou ce que signifie un nom. D'où la division entre les définitions réelles et les définitions nominales.) de l'indépendance à partir de la notion d'indépendance en statistique: un caractère statistique est indépendant du sexe (Le mot sexe désigne souvent l'appareil reproducteur, ou l’acte sexuel et la sexualité dans un sens plus global, mais se réfère aussi aux différences physiques distinguant les hommes...), par exemple, si la distribution du caractère est identique, que l'on prenne la population totale, la population masculine ou la population féminine.

Indépendance d'événements

Si A et B sont deux événements de probabilité non nulle, on dit que A et B sont indépendants si

p(B) = pA(B) (la distribution de B dans l'univers (L'Univers est l'ensemble de tout ce qui existe et les lois qui le régissent.) entier est identique à celle de B dans le sous-univers A)

La définition de la probabilité conditionnelle (La notion de probabilité conditionnelle permet de tenir compte dans une prévision d'une information complémentaire. Par exemple, si je tire au hasard une carte d'un jeu,...) de B sachant A : p_A(B) = \frac{p(B\cap A)}{p(A)} induit (L'induit est un organe généralement électromagnétique utilisé en électrotechnique chargé de recevoir l'induction de l'inducteur et de la transformer en...) immédiatement deux autres définitions équivalentes de l'indépendance :

  • p(A\cap B)=p(A).p(B)
  • p(A) = pB(A)

Remarque : La probabilité de A sachant B peut également s'écrire p(A|B)

Exemple 1: Dans le lancer d'un dé équilibré, les événements A="obtenir un numéro pair" et B = " obtenir un multiple de 3 " sont des événements indépendants. En effet, la répartition des nombres pairs dans l'univers Ω={1 ; 2 ; 3; 4 ; 5 ; 6} est identique à celle des nombres pairs dans B = {3 ; 6}.

Traduit sous forme de probabilité, cela donne p(A) = pB(A) = 1 / 2.

On aurait pu aussi tout (Le tout compris comme ensemble de ce qui existe est souvent interprété comme le monde ou l'univers.) simplement observer que p(A) = 1/2, p(B) = 1/3 et que p(A \cap B) = p(6) = 1/6 = p(A).p(B).

D'autre part, les événements A = " obtenir un nombre (La notion de nombre en linguistique est traitée à l’article « Nombre grammatical ».) pair " et C = " obtenir au moins 4 " = {4 ; 5 ; 6} ne sont pas indépendants car la répartition des nombres pairs dans l'univers de départ est de 1/2 et la répartition dans le sous-univers C est de 2/3.

On pouvait aussi tout simplement observer que p(A \cap C) = p({4,6}) = 2/6 \neq p(A).p(C)

Exemple 2 : Deux événements incompatibles, de probabilité non nulle ne sont jamais indépendants. En effet, leur intersection étant vide (Le vide est ordinairement défini comme l'absence de matière dans une zone spatiale.), la probabilité de l'intersection est nulle alors que ni p(A), ni p(B) n'est nul.

Exemple 3: Si deux événements A et B sont indépendants alors A et \overline{B} sont aussi indépendants. En effet,

p(A \cap \overline{B})=p(A) - p(A \cap B)
p(A \cap \overline{B})= p(A) -p(A).p(B)
p(A \cap \overline{B})= p(A) (1-p(B)) = p(A).p(\overline{B})

Indépendance d'expériences

On considère une expérience 1 conduisant la création d'un univers Ω1 muni d'une probabilité p1, suivi d'une expérience 2 conduisant à la création d'un univers Ω2 muni d'une probabilité p2. La succession des deux expériences conduit à la création d'un univers Ω formé de couples d'éléments de Ω1 et Ω2, cet univers se note Ω1 × Ω2. On dira que les expériences sont indépendantes si on peut créer sur Ω une probabilité p produit des deux précédentes telle que p(A × B) = p1(A).p2(B) pour tout événement A de Ω1 et B de Ω2.

Exemples: La succession de deux tirages avec remise dans une urne constitue deux expériences indépendantes identiques. Le lancer successif d'un pièce et d'un dé constitue deux expériences indépendantes. La succession de deux tirages successifs sans remise ne constitue pas deux expériences indépendantes, le deuxième univers changeant en fonction du résultat du premier tirage.

Le cas le plus classique de successions d'expériences indépendantes identiques est la succession de n expériences de Bernoulli conduisant à la création de la loi binomiale (En mathématiques, une loi binomiale de paramètres n et p correspond au modèle suivant :).

Dans la loi des grands nombres (La loi des grands nombres a été formalisée au XVIIe siècle lors de la découverte de nouveaux langages mathématiques.), on considère aussi la succession de n expériences indépendantes.

Indépendances de variables aléatoires

Dans le cas de variables aléatoires X et Y définies sur un univers Ω fini, on dira que les variables aléatoires X et Y sont indépendantes si les événements " X=xi " et " Y=yj " sont indépendants pour tout xi de X(Ω) et tout yj de Y(Ω) .

L'indépendance de variables aléatoires X et Y continues sort du cadre des mathématiques élémentaires (Les mathématiques élémentaires regroupent les mathématiques abordées et abordables dans l'enseignement primaire et secondaire. Une page méta est dédiée à ce...). Deux variables aléatoires X et Y continues sont indépendantes lorsque

P[X \le x\ \ et Y \le y] = P[X \le x] . P[Y \le y]

c'est-à-dire

F_{X+Y}(x,y)=F_{X}(x).F_{Y}(y)\,.

On démontre que lorsque les variables aléatoires sont indépendantes, la covariance (Pour le principe physique, voir Principe de covariance générale.) de (X ,Y) est nulle et V(X + Y) = V(X) + V(Y).

Page générée en 0.062 seconde(s) - site hébergé chez Amen
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
Ce site est édité par Techno-Science.net - A propos - Informations légales
Partenaire: HD-Numérique