Recherchez sur tout Techno-Science.net
       
Techno-Science.net : Suivez l'actualité des sciences et des technologies, découvrez, commentez
 A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z | +
Théorème de la limite centrale

Le théorème de la limite centrale (ou : de la limite centrée ; on trouve en franglais l'appellation fréquente de théorème central limite) est un ensemble de résultats sur la convergence faible d'une suite de variables aléatoires en probabilité. Intuitivement, d'après ces résultats, toute somme de variables aléatoires indépendantes et identiquement distribuées tend vers une certaine variable (En mathématiques et en logique, une variable est représentée par un symbole. Elle est utilisée pour marquer un rôle dans une formule, un...) aléatoire. Le résultat le plus connu et le plus important est simplement appelé « théorème de la limite centrale » qui concerne une somme de variables aléatoires dont le nombre (La notion de nombre en linguistique est traitée à l’article « Nombre grammatical ».) tend vers l'infini (Le mot « infini » (-e, -s ; du latin finitus, « limité »), est un adjectif servant à qualifier quelque chose...).

Dans le cas le plus simple, considéré ci-dessous pour la démonstration du théorème, ces variables sont indépendantes et possèdent la même moyenne (La moyenne est une mesure statistique caractérisant les éléments d'un ensemble de quantités : elle exprime la grandeur qu'auraient chacun des membres de l'ensemble s'ils étaient...) et la même variance ( En statistique et en probabilité, variance En thermodynamique, variance ). En général, la somme croît indéfiniment en même temps (Le temps est un concept développé par l'être humain pour appréhender le changement dans le monde.) que le nombre de termes. Pour tenter d'obtenir un résultat fini, il faut centrer cette somme en lui soustrayant sa moyenne et la réduire en la divisant par son écart-type. Sous des conditions assez larges, la loi de probabilité converge alors vers une loi normale unitaire. L'omniprésence de la loi normale s'explique par le fait que de nombreux phénomènes considérés comme aléatoires sont dus à la superposition (En mécanique quantique, le principe de superposition stipule qu'un même état quantique peut possèder plusieurs valeurs pour une certaine...) de causes nombreuses.

La convergence (Le terme de convergence est utilisé dans de nombreux domaines :) est assurée dans ce cas simple par l'existence du moment d'ordre 3. Il existe plusieurs généralisations qui ne nécessitent pas des lois identiques mais font appel à des conditions qui assurent qu'aucune des variables n'exerce une influence significativement plus importante que les autres. Telles sont la condition de Lindeberg et la condition de Liapounov. D'autres généralisations autorisent même une dépendance «faible». De plus, une généralisation due à Gnedenko et Kolmogorov stipule (En botanique, les stipules sont des pièces foliaires, au nombre de deux, en forme de feuilles réduites située de part et d'autre du pétiole,...) que la somme d'un certain nombre de variables aléatoires avec une queue de distribution décroissante selon 1/|x|α+1 avec 0 < α < 2 (ayant donc une variance infinie) tend vers une loi de Lévy symétrique et stable quand le nombre de variables augmente. Cet article se limitera au théorème de la limite centrale concernant les lois à variance finie.

« Le » théorème de la limite centrale

Soit X1, X2... un ensemble (En théorie des ensembles, un ensemble désigne intuitivement une collection d’objets (les éléments de l'ensemble), « une multitude qui peut...) de variables aléatoires définies sur le même espace de probabilité, suivant la même loi D et indépendantes. Supposons que l'espérance μ et l'écart-type σ de D existent et soient finis (\sigma \neq 0).

Considérons la somme Sn = X1 + ... + Xn. Alors l'espérance de Sn est nμ et son écart-type vaut σ n½. De plus, pour parler de manière informelle, la loi de Sn tend vers la loi normale N(nμ,σ2n) quand n tend vers l'infini.

Afin de clarifier cette idée de convergence, nous allons poser

Z_n = \frac{S_n - n \mu}{\sigma \sqrt{n}}.

de sorte que l'espérance et l'écart-type de Zn valent respectivement 0 et 1.

Alors la loi de Zn converge vers la loi normale centrée réduite N(0,1) lorsque n tend vers l'infini (il s'agit de la convergence en loi). Cela signifie que si Φ est la fonction de répartition de N(0,1), alors pour tout (Le tout compris comme ensemble de ce qui existe est souvent interprété comme le monde ou l'univers.) réel z :

\lim_{n \to \infty} \mbox{P}(Z_n \le z) = \Phi(z),

ou, de façon équivalente :

\lim_{n\to\infty}\mbox{P}\left(\frac{\overline{X}_n-\mu}{\sigma/\sqrt{n}}\leq z\right)=\Phi(z)

\overline{X}_n=S_n/n=(X_1+\cdots+X_n)/n

Démonstration du théorème de la limite centrale

Pour un théorème d'une telle importance en statistiques et en probabilité appliquée, il existe une démonstration particulièrement simple utilisant les fonctions caractéristiques. Cette démonstration ressemble à celle d'une des lois des grands nombres. Pour une variable aléatoire Y d'espérance 0 et de variance 1, la fonction caractéristique de Y admet le développement limité :

\varphi_Y(t) = 1 - {t^2 \over 2} + o(t^2), \quad t \rightarrow 0.

Si Yi vaut \frac{X_i - \mu}{\sigma}, il est facile de voir que la moyenne centrée réduite des observations (L’observation est l’action de suivi attentif des phénomènes, sans volonté de les modifier, à l’aide de moyens d’enquête et d’étude...) X1, X2, ..., Xn est simplement :

Z_n = \frac{\overline{X}_n-\mu}{\sigma/\sqrt{n}} = \sum_{i=1}^n {Y_i \over \sqrt{n}}.

D'après les propriétés élémentaires des fonctions caractéristiques, la fonction caractéristique de Zn est

\left[\varphi_Y\left({t \over \sqrt{n}}\right)\right]^n = \left[ 1 - {t^2  \over 2n} + o\left({t^2 \over n}\right) \right]^n \, \rightarrow \, e^{-t^2/2} lorsque n \to +\infty.

Mais cette limite est la fonction caractéristique de la loi normale centrée réduite N(0,1), d'où l'on déduit le théorème de la limite centrale grâce au théorème de continuité de Lévy, qui affirme que la convergence des fonctions caractéristiques implique la convergence en loi.

Convergence vers la limite

Si le moment d'ordre 3 E[(X - μ)3] existe et est fini, alors la convergence est uniforme et la vitesse (On distingue :) de convergence est au moins d'ordre 1/n½ (voir le théorème de Berry-Esseen).

Images d'une loi lissées par sommation qui montrent la distribution de la loi originale et trois sommations successives (obtenues par convolution) :

Dans les applications pratiques, ce théorème permet en particulier de remplacer une somme de variables aléatoires en nombre assez grand mais fini par une approximation (Une approximation est une représentation grossière c'est-à-dire manquant de précision et d'exactitude, de quelque chose, mais encore...) normale, généralement plus facile à manipuler. Il est donc intéressant de voir comment la somme s'approche de la limite. Les termes utilisés sont expliqués dans Variable aléatoire.

Une somme de variables continues est une variable continue dont on peut comparer la densité de probabilité à celle de la limite normale.

Avec une somme de variables discrètes, il est parfois commode de définir une pseudo-densité de probabilité mais l'outil (Un outil est un objet finalisé utilisé par un être vivant dans le but d'augmenter son efficacité naturelle dans l'action. Cette augmentation se traduit par la simplification des...) le plus efficace est la fonction de probabilité représentée par un diagramme (Un diagramme est une représentation visuelle simplifiée et structurée des concepts, des idées, des constructions, des relations, des données statistiques, de l'anatomie etc. employé dans...) en bâtons. On peut constater graphiquement une certaine cohérence entre les deux diagrammes, difficile à interpréter. Dans ce cas, il est plus efficace de comparer les fonctions de répartition.

D'autre part, l'approximation normale est particulièrement efficace au voisinage (La notion de voisinage correspond à une approche axiomatique équivalente à celle de la topologie. La topologie traite plus naturellement les notions globales comme la continuité qui s'entend ici comme la...) des valeurs centrales. Certains disent même qu'en matière de convergence vers la loi normale, l'infini commence souvent à six.

La précision se dégrade à mesure qu'on s'éloigne de ces valeurs centrales. C'est particulièrement vrai pour une somme de variables positives par nature : la loi normale fait toujours apparaître des valeurs négatives avec des probabilités faibles mais non nulles. Même si c'est moins choquant, cela reste vrai en toutes circonstances : alors que toute grandeur physique (Une grandeur physique est un ensemble d'unités de mesure, de variables, d'ordres de grandeur et de méthodes de mesure (qui sont l'objet de la métrologie)...) est nécessairement bornée, la loi normale qui couvre un intervalle infini n'est qu'une approximation utile.

Enfin, pour un nombre donné de termes de la somme, l'approximation normale est d'autant meilleure que la distribution est plus symétrique.

Application à la statistique (La statistique est à la fois une science formelle, une méthode et une technique. Elle comprend la collecte, l'analyse, l'interprétation de données...) mathématique

Ce théorème de probabilités possède une interprétation en statistique (Une statistique est, au premier abord, un nombre calculé à propos d'un échantillon. D'une façon générale, c'est le résultat de l'application d'une méthode statistique à un ensemble de...) mathématique. Cette dernière associe une loi de probabilité à une population. Chaque élément extrait de la population est donc considéré comme une variable aléatoire et, en réunissant un nombre n de ces variables supposées indépendantes, on obtient un échantillon. La somme de ces variables aléatoires divisée par n donne une nouvelle variable nommée la moyenne empirique. Celle-ci, une fois réduite, tend vers une variable normale réduite lorsque n tend vers l'infini.

Autres formulations du théorème

Densités de probabilité

La densité de probabilité de la somme de plusieurs variables indépendantes s'obtient par convolution de leurs densités (si celles-ci existent). Ainsi on peut interpréter le théorème de la limite centrale comme une formulation (La formulation est une activité industrielle consistant à fabriquer des produits homogènes, stables et possédant des propriétés spécifiques, en mélangeant différentes matières...) des propriétés des densités de probabilité soumises à une convolution : sous les conditions établies précédemment, la convolée d'un certain nombre de densités de probabilité tend vers la densité normale lorsque leur nombre croît indéfiniment.

Comme la fonction caractéristique d'une convolution est le produit des fonctions caractéristiques des variables en cause, le théorème de la limite centrale peut se formuler d'une manière différente : sous les conditions précédentes, le produit des fonctions caractéristiques de plusieurs densités de probabilité tend vers la fonction caractéristique de la loi normale lorsque le nombre de variables croît indéfiniment.

Produits de variables aléatoires

Le théorème de la limite centrale nous dit à quoi il faut s'attendre en matière de sommes de variables aléatoires indépendantes ; mais qu'en est-il des produits ? Eh bien, le logarithme (En mathématiques, une fonction logarithme est une fonction définie sur à valeurs dans , continue et transformant un produit en somme. Le logarithme de base a où a...) d'un produit n'est que la somme des logarithmes des facteurs, de sorte que le logarithme d'un produit de variables aléatoires tend vers une loi normale, ce qui entraîne une loi log-normale pour le produit lui-même. Bon nombre de grandeurs physiques (en particulier la masse (Le terme masse est utilisé pour désigner deux grandeurs attachées à un corps : l'une quantifie l'inertie du corps (la masse inerte) et l'autre la contribution du corps à la force...) et la longueur (La longueur d’un objet est la distance entre ses deux extrémités les plus éloignées. Lorsque l’objet est filiforme ou en forme de lacet, sa longueur est celle de...), c'est une question de dimension (Dans le sens commun, la notion de dimension renvoie à la taille ; les dimensions d'une pièce sont sa longueur, sa largeur et sa profondeur/son épaisseur, ou bien son diamètre si c'est une pièce de...), ne peuvent être négatives) sont le produit de différents facteurs aléatoires, de sorte qu'elles suivent une loi log-normale.

Les théorèmes de la limite centrale

Condition de Liapounov

Soit Xn une séquence de variables définies sur le même espace de probabilité. Supposons que Xn ait une espérance finie μn et un écart-type fini σn. Nous définirons

s_n^2 = \sum_{i = 1}^n \sigma_i^2.

Supposons que les moments centrés d'ordre 3

r_n^3 = \sum_{i = 1}^n \mbox{E}\left({\left| X_i - \mu_i \right|}^3 \right)

soient finis pour tout n et que

\lim_{n \to \infty} \frac{r_n}{s_n} = 0.

(C'est la condition de Liapounov ).

Considérons de nouveau la somme Sn=X1+...+Xn. L'espérance mathématique de Sn est mn = ∑i=1..nμi et son écart-type sn. Si nous normalisons Sn en posant

Z_n = \frac{S_n - m_n}{s_n}

alors la loi de Zn converge vers la loi normale centrée réduite N(0,1) comme ci-dessus.

Condition de Lindeberg

Avec les mêmes définitions et les mêmes notations que précédemment, nous pouvons remplacer la condition de Liapounov par la suivante qui est plus faible (Lindeberg 1920). Pour tout ε > 0

\lim_{n \to \infty} \sum_{i = 1}^{n} \mbox{E}\left(     \frac{(X_i - \mu_i)^2}{s_n^2}     :     \left| X_i - \mu_i \right| > \epsilon s_n   \right) = 0

où E( U : V > c) représente l'espérance conditionnelle : l'espérance de U sous la condition V > c. Alors la loi de Zn converge vers la loi normale centrée réduite N(0,1).

Cas des variables dépendantes

Il existe quelques théorèmes qui traitent le cas de sommes de variables dépendantes, par exemple le théorème de la limite centrale m-dépendante, le théorème de la limite centrale des martingales et le théorème de la limite centrale pour les processus de mélange.

Intérêt de ce théorème

On peut parfois lire dans la presse générale que la courbe (En géométrie, le mot courbe, ou ligne courbe désigne certains sous-ensembles du plan, de l'espace usuels. Par exemple, les droites, les segments, les lignes polygonales et les cercles sont des courbes.) en cloche représente la loi du hasard (Dans le langage ordinaire, le mot hasard est utilisé pour exprimer un manque efficient, sinon de causes, au moins d'une reconnaissance de cause à effet d'un...), ce qui n'a pas grande signification. Le succès sans égal de la loi de Gauss est la conséquence directe du théorème de la limite centrale et il est renforcé par la commodité relative d'utilisation de cette loi.

En elle-même, la convergence vers la loi normale de nombreuses sommes de variables aléatoires lorsque leur nombre tend vers l'infini n'intéresse que le mathématicien. Pour le praticien, il est intéressant de s'arrêter un peu avant la limite : la somme d'un grand nombre de ces variables est presque gaussienne, ce qui fournit une approximation souvent plus facilement utilisable que la loi exacte.

En s'éloignant encore plus de la théorie, on peut dire que bon nombre de phénomènes naturels sont dus à la superposition de causes nombreuses, plus ou moins indépendantes. Il en résulte que la loi normale les représente de manière raisonnablement efficace.

A l'inverse (En mathématiques, l'inverse d'un élément x d'un ensemble muni d'une loi de composition interne · notée multiplicativement, est un élément y...), on peut dire qu'aucun phénomène concret n'est vraiment gaussien car il ne peut dépasser certaines limites (en particulier s'il est à valeurs positives).

Source: Wikipédia publiée sous licence CC-BY-SA 3.0.

Vous pouvez soumettre une modification à cette définition sur cette page. La liste des auteurs de cet article est disponible ici.
Samedi 13 Janvier 2018 à 12:00:17 - Physique - 0 commentaire
» Structures organométalliques et zéolithes