Loi des grands nombres
Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

La loi des grands nombres a été formalisée au XVIIe siècle lors de la découverte de nouveaux langages mathématiques.

Essentiellement, la loi des grands nombres indique que lorsque l'on fait un tirage aléatoire dans une série de grande taille, plus on augmente la taille de l'échantillon (De manière générale, un échantillon est une petite quantité d'une matière, d'information, ou d'une solution. Le mot est utilisé dans différents domaines :), plus les caractéristiques statistiques du tirage (l'échantillon) se rapprochent des caractéristiques statistiques de la population. Mais il est intéressant de noter que la taille de l'échantillon à prendre pour approcher les caractéristiques de la population initiale ne dépend que faiblement voire pas du tout (Le tout compris comme ensemble de ce qui existe est souvent interprété comme le monde ou l'univers.) de la taille de la série initiale : pour un sondage ( Un sondage peut désigner une technique d'exploration locale d'un milieu particulier. Un sondage peut également être une méthode statistique d'analyse d'une population...) au Luxembourg ou aux États-Unis, il suffit, pour obtenir une précision égale de prendre un échantillon de même taille.

C'est sur cette loi que reposent la plupart des sondages [1]. Ils interrogent un nombre (La notion de nombre en linguistique est traitée à l’article « Nombre grammatical ».) suffisamment important de personnes pour connaître l'opinion (probable) de la population entière. De même, sans la formalisation de la loi des grands nombres (La loi des grands nombres a été formalisée au XVIIe siècle lors de la découverte de nouveaux langages mathématiques.), l'assurance n'aurait jamais pu se développer avec un tel essor. En effet, cette loi permet aux assureurs de déterminer les probabilités que les sinistres dont ils sont garants se réaliseront ou non.

La loi des grands nombres sert aussi en statistique inférentielle (L'inférence statistique consiste à induire les caractéristiques inconnues d'une population à partir d'un échantillon issu de cette population. Les...), pour déterminer une loi de probabilité (La probabilité (du latin probabilitas) est une évaluation du caractère probable d'un évènement. En mathématiques, l'étude des...) à partir d'une série d'expériences.

Les mathématiciens distinguent deux énoncés, appelés respectivement loi faible des grands nombres et loi forte des grands nombres.

Il est intéressant de noter que la loi des grands nombres soulève une question d'ordre métaphysique : personne ne s'étonne que des événements considérés de façon isolée soient soumis au hasard (Dans le langage ordinaire, le mot hasard est utilisé pour exprimer un manque efficient, sinon de causes, au moins d'une reconnaissance de cause à effet d'un...) (il n'est pas impossible d'obtenir 1000 fois pile en lançant une pièce de monnaie 1000 fois...). Et pourtant, si l'on fait l'expérience, on constate qu'il n'y a pas de hasard global (en gros on obtient 50% de pile et 50% de face...), comme s'il existait une loi d'équilibre naturelle, comme si le chaos était impossible et les catastrophes improbables...

Il ne faut toutefois pas confondre la moyenne (La moyenne est une mesure statistique caractérisant les éléments d'un ensemble de quantités : elle exprime la grandeur...) des gains et le gain absolu. Si deux joueurs jouent très longtemps à pile ou face, celui qui perd donnant un Euro à celui qui gagne, la moyenne des gains de chaque joueur tendra effectivement vers 0 (la moyenne étant définie comme : le gain divisé par le nombre de parties jouées), mais le gain de chaque joueur passera alternativement par des hauts et des bas d'amplitude (Dans cette simple équation d’onde :) croissante.

  1. ceux qui n'utilisent pas spécifiquement la règle des quotas

Loi faible des grands nombres

La loi faible des grands nombres est également appelée théorème (Un théorème est une proposition qui peut être mathématiquement démontrée, c'est-à-dire une assertion qui peut être établie comme vraie au travers d'un raisonnement logique construit à partir d'axiomes. Un théorème est à...) de Khintchine (rarement utilisé).

Si l'on considère n variables aléatoires indépendantes qui suivent la même loi de probabilité, de variance ( En statistique et en probabilité, variance En thermodynamique, variance ) finie et dont l'espérance est E(X), la loi faible des grands nombres stipule (En botanique, les stipules sont des pièces foliaires, au nombre de deux, en forme de feuilles réduites située de part et d'autre du pétiole, à sa base, au point d'insertion sur la tige.) que, pour tout réel ε strictement positif, la probabilité que la moyenne empirique Y_n = \frac{X_1+X_2+...+X_n}{n} s'éloigne de l'espérance de plus de ε, tend vers 0 pour les grandes valeurs de n.

\lim_{n \to +\infty} P\left(\left|\frac{X_1+X_2+...+X_n}{n} -E(X)\right| \geq \epsilon\right) = 0

Elle se démontre en utilisant l'inégalité de Tchebychev :

P(|Y - E(Y)|\geq \epsilon) \leq \frac{V(Y)}{\epsilon^2}

Et en remarquant que la variable (En mathématiques et en logique, une variable est représentée par un symbole. Elle est utilisée pour marquer un rôle dans une formule, un prédicat ou un algorithme. En...) Y_n = \frac{X_1+X_2+...+X_n}{n} a pour espérance E(X) et pour variance \frac{V(X)}{n} donc

P\left(\left|\frac{X_1+X_2+...+X_n}{n} -E(X)\right| \geq \epsilon\right) \leq \frac{V(X)}{n\epsilon^2}

On dit aussi que Yn converge en probabilité vers E(X)

Loi forte des grands nombres

Considèrons n variables aléatoires indépendantes qui suivent la même loi de probabilité, intégrables (i.e. E(|X|)<\infty). En reprenant les notations ci-dessus, la loi forte des grands nombres précise que Y_n\, converge vers E(X)presque sûrement ".

C’est-à-dire que :

P\left(\lim_{n \to +\infty} Y_n(\omega) = E(X)\right)=1

Convergence (Le terme de convergence est utilisé dans de nombreux domaines :) vers une loi de probabilité

La même loi des grands nombres permet de dire que la répartition de la population de l'échantillon peut être approchée par la loi de probabilité de X pour n assez grand.

Pour prouver que la fréquence (En physique, la fréquence désigne en général la mesure du nombre de fois qu'un phénomène périodique se reproduit par unité de...) fn(i) de la valeur xi converge vers la probabilité pi, il suffit d'utiliser la variable aléatoire (Une variable aléatoire est une fonction définie sur l'ensemble des résultats possibles d'une expérience aléatoire, telle qu'il soit possible de déterminer la probabilité pour qu'elle prenne une valeur...) qui prend la valeur 1 si X(ω) = xi et la valeur 0 sinon.

Cette variable aléatoire a pour espérance pi.

La fréquence fn(i) converge alors en probabilité et aussi presque sûrement, vers pi

Page générée en 0.380 seconde(s) - site hébergé chez Amen
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
Ce site est édité par Techno-Science.net - A propos - Informations légales
Partenaire: HD-Numérique