Théorie des probabilités - Définition et Explications

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs est disponible ici.
Courbes de probabilité.
Courbes de probabilité.

La Théorie des probabilités est l'étude mathématique des phénomènes caractérisés par le hasard et l'incertitude. Les objets centraux de la théorie des probabilités sont les variables aléatoires, les processus stochastiques, et les évènements: ils traduisent de manière abstraite des évènements non déterministes ou des quantités mesurées qui peuvent parfois évoluer dans le temps (Le temps est un concept développé par l'être humain pour appréhender le...) d'une manière apparemment aléatoire. En tant que fondement mathématique (Les mathématiques constituent un domaine de connaissances abstraites construites à l'aide...) des statistiques, la théorie des probabilités (La théorie des probabilités est l'étude mathématique des phénomènes...) est essentielle à la plupart des activités humaines qui nécessitent une analyse quantitative d'un grand nombre (La notion de nombre en linguistique est traitée à l’article « Nombre...) de mesures. Les méthodes de la théorie (Le mot théorie vient du mot grec theorein, qui signifie « contempler, observer,...) des probabilités s'appliquent également à la description de systèmes complexes dont on ne connait qu'en partie l'état, comme en mécanique (Dans le langage courant, la mécanique est le domaine des machines, moteurs, véhicules, organes...) statistique (La statistique est à la fois une science formelle, une méthode et une technique. Elle...). Une grande découverte de la physique (La physique (du grec φυσις, la nature) est étymologiquement la...) du vingtième siècle (Un siècle est maintenant une période de cent années. Le mot vient du latin saeculum, i, qui...) fut la nature probabiliste de phénomènes physiques à une échelle microscopique, décrite par la mécanique quantique (La mécanique quantique est la branche de la physique qui a pour but d'étudier et de...).

Historique

La théorie mathématique des probabilités trouve ses origines dans l'analyse de jeux de hasard (Dans le langage ordinaire, le mot hasard est utilisé pour exprimer un manque efficient, sinon...) par Gerolamo Cardano (Gerolamo Cardano parfois nommé Girolamo Cardano ou encore Jérôme Cardan (1501, Pavie - 1576,...) au seizième siècle, et par Pierre de Fermat (Pierre de Fermat, né dans la première décennie du XVIIe siècle, à...) et Blaise Pascal (Blaise Pascal, né le 19 juin 1623 à Clairmont (aujourd'hui Clermont-Ferrand),...) au dix-septième siècle. Bien qu'un simple pile ou face ou un lancer de dès soit un évènement aléatoire, en les répétant de nombreuses fois on obtient une série de résultats qui va posséder certaines propriétés statistiques, que l'on peut étudier et prévoir. Deux résultats mathématiques fondamentaux à ce propos sont la loi des grands nombres (La loi des grands nombres a été formalisée au XVIIe siècle lors de la découverte de...) et le théorème central limite (Le théorème central limite (parfois appelé théorème de la limite centrale)...).

Initialement, la théorie des probabilités considérait surtout les évènements discrets, et ses méthodes étaient principalement combinatoires. Mais des considérations analytiques ont forcé l'introduction de variables aléatoires continues dans la théorie. Cette idée prend tout (Le tout compris comme ensemble de ce qui existe est souvent interprété comme le monde ou...) son essor dans la théorie moderne des probabilités, dont les fondations (Les fondations d'un ouvrage assurent la transmission et la répartition des charges (poids propre...) ont été posées par Andreï Nikolaevich Kolmogorov. Kolmogorov combina la notion d'univers (L'Univers est l'ensemble de tout ce qui existe et les lois qui le régissent.), introduite par Richard von Mises (Richard Edler von Mises (Lemberg 19 avril 1883 - Boston, 14 juillet 1953) était un savant et...) et la théorie de la mesure pour présenter son système d'axiomes pour la théorie des probabilités en 1933. Très vite, son approche devint la base incontestée des probabilités modernes.

Théorie des probabilités discrète

La théorie discrète des probabilités s'occupe d'évènements dans le cadre d'un univers dénombrable.

Exemples: Lancer de dés, expériences avec des paquets de cartes, et marche aléatoire (En mathématiques et en physique théorique, une marche au hasard est un modèle...).

Définition (Une définition est un discours qui dit ce qu'est une chose ou ce que signifie un nom. D'où la...) classique: Initialement, la probabilité (La probabilité (du latin probabilitas) est une évaluation du caractère probable d'un...) d'un évènement était définie comme le nombre de cas favorables pour l'évènement, divisé par le nombre total ( Total est la qualité de ce qui est complet, sans exception. D'un point de vue comptable, un...) d'issues possibles à l'expérience aléatoire.

Par exemple, si l'évènement est obtenir un nombre pair en lançant le dès, sa probabilité est donnée (Dans les technologies de l'information, une donnée est une description élémentaire,...) par \tfrac{3}{6}=\tfrac{1}{2}, puisque trois faces sur six ont un nombre pair.

Définition moderne : La définition moderne commence par un ensemble (En théorie des ensembles, un ensemble désigne intuitivement une collection...) appelé univers, qui correspond à l'ensemble des issues possibles à l'expérience dans la définition classique. Il est noté \Omega=\left \{ x_1,x_2,\dots\right \}. Ensuite, on a besoin (Les besoins se situent au niveau de l'interaction entre l'individu et l'environnement. Il est...) d'une fonction f définie sur Ω, qui va associer à chaque élément de Ω sa probabilité, satisfaisant donc les propriétés suivantes :

  1. f(x)\in[0,1]\mbox{ pour tout }x\in \Omega
  2. \sum_{x\in \Omega} f(x) = 1

On définit ensuite un évènement comme un ensemble d'issues, c'est à dire un sous-ensemble (En mathématiques, un ensemble A est un sous-ensemble ou une partie d’un ensemble B, ou...) de Ω. La probabilité d'un évènement E est alors définie de manière naturelle par :

P(E)=\sum_{x\in E} f(x)\,

Ainsi, la probabilité de l'univers est 1, et la probabilité de l'évènement nul (l'ensemble vide) est 0.

Pour revenir à l'exemple du lancer dès, on peut modéliser cette expérience en se donnant un univers Ω = {1;2;3;4;5;6} correspondant aux valeurs possibles du dé, et une fonction f qui à chaque i\in\Omega associe f(i)=\tfrac{1}{6}.

Théorie des probabilités continue

La théorie des probabilités continue s'occupe des évènements qui se produisent dans un univers continu (par exemple la droite réelle).

Définition classique: La définition classique est mise en échec lorsqu'elle est confrontée au cas continu (cf. paradoxe (Un paradoxe est une proposition qui contient ou semble contenir une contradiction logique, ou un...) de Bertrand).

Définition moderne Si l'univers est la droite réelle \mathbb{R}, alors on assume l'existence d'une fonction appelée fonction de répartition (En théorie des probabilités ou en statistiques, la fonction de répartition d'une...) F\,, qui donne P(X\le x) =  F(x)\, pour une variable aléatoire (Une variable aléatoire est une fonction définie sur l'ensemble des résultats possibles d'une...) X. Autrement dit, F(x) retourne la probabilité que X soit inférieur ou égal à x.

La fonction de répartition doit satisfaire les propriétés suivantes :

  1. F\, est une fonction croissante et continue à droite.
  2. \lim_{x\rightarrow -\infty} F(x)=0
  3. \lim_{x\rightarrow \infty} F(x)=1

Si F\, est dérivable, alors on dit que la variable (En mathématiques et en logique, une variable est représentée par un symbole. Elle...) aléatoire X a une densité de probabilité (En théorie des probabilités ou en statistiques, une densité de probabilité est...) f(x)=\frac{dF(x)}{dx}\,.

Pour un ensemble E \subseteq \mathbb{R}, la probabilité que la variable aléatoire X soit dans E\, est définie comme :

P(X\in E) = \int_{x\in E} dF(x)\,

Si la densité (La densité ou densité relative d'un corps est le rapport de sa masse volumique à la...) de probabilité existe, on peut alors la réécrire :

P(X\in E) = \int_{x\in E} f(x)\,dx

Tandis que la densité de probabilité n'existe que pour les variables aléatoires continues, la fonction de répartition existe pour toute variable aléatoire (y compris les variables discrètes) à valeur dans \mathbb{R}.

Ces concepts peuvent être généralisés dans les cas multidimensionnel sur \mathbb{R}^n et d'autres univers continus.

La théorie des probabilités aujourd'hui

Certaines distributions peuvent être un mélange (Un mélange est une association de deux ou plusieurs substances solides, liquides ou gazeuses...) de distributions discrètes et continues, et donc n'avoir ni densité de probabilité ni fonction de masse (Le terme masse est utilisé pour désigner deux grandeurs attachées à un...). La distribution de Cantor constitue un tel exemple. L'approche moderne des probabilités résout ces problèmes par l'utilisation de la théorie de la mesure pour définir un espace probabilisé (Un espace probabilisé est un triplet formé d'un ensemble Ω, d'une tribu ou...):

Étant donné un ensemble \Omega\, (appelé aussi univers) muni d'une σ-algèbre \mathcal{F}\,, une mesure \mu\, est appelée mesure de probabilité si:

  1. \mu\, est une mesure positive
  2. \mu(\Omega)=1\,

Pour chaque fonction de répartition il existe une unique mesure de probabilité sur les boréliens, et vice versa. La mesure correspondant à une fonction de répartition est dite induite par la fonction. Dans le cas continu, cette mesure coïncide avec la mesure fdλ avec λ la mesure de Lebesgue (La mesure de Lebesgue doit son nom au mathématicien français Henri Léon Lebesgue. Elle est d'une...) si f est la densité de probabilité associée à la fonction de répartition (qui n'existe pas forcément) tandis que dans le cas discret, elle coïncide avec la fonction f définie précédemment.

En plus de permettre une meilleure compréhension et une unification (Le concept d'unification est une notion centrale de la logique des prédicats ainsi que...) des théories discrètes et continues des probabilités, l'approche de la théorie de la mesure nous permet aussi de parler de probabilités en dehors de \mathbb{R}^n, notamment dans la théorie des processus stochastiques. Par exemple pour l'étude du mouvement brownien (Le mouvement brownien, ou processus de Wiener est une description mathématique du mouvement...), la probabilité est définie sur un espace de fonctions.

Lois de probabilité

Certaines variables aléatoires sont fréquemment rencontrées en théorie des probabilités car on les retrouve dans de nombreux processus naturels. Leur loi ont donc une importance particulière. Les lois discrètes les plus fréquentes sont la loi uniforme discrète, la loi de Bernoulli (En mathématiques, la distribution de Bernoulli ou loi de Bernoulli, du nom du...), ainsi que les lois binomiale, de Poisson (Dans la classification classique, les poissons sont des animaux vertébrés aquatiques...) et géométriques. Les lois uniforme continue, normale, exponentielle (La fonction exponentielle est l'une des applications les plus importantes en analyse, ou plus...) et gamma sont parmis les plus importantes lois continues.

Convergence de variables aléatoires (Dans la théorie des probabilités, il existe différentes notions de convergence de...)

En théorie des probabilités, il y a plusieurs notions de convergence (Le terme de convergence est utilisé dans de nombreux domaines :) pour les variable aléatoire. En voici la liste:

Convergence en loi: une suite de variables aléatoires (X_n)_{n\in\mathbb{N}} converge en loi vers la variable aléatoire X\, si et seulement si la suite des mesures images (\mu_{X_n})_n\in\mathbb{N} converge étroitement vers la mesure image μX. En particulier dans le cas réel, il suffit que les fonctions de répartitions convergent ( en astronautique, convergent en mathématiques, suite convergente série convergente ...) simplement vers la fonction de répartition de X.
Convergence en probabilités: (X_n)_{n\in\mathbb{N}} converge en probabilités vers X\, ssi \forall \epsilon >0, \lim_{n\rightarrow\infty}P\left(\left|X_n-X\right|\geq\varepsilon\right)=0. Cette convergence implique la convergence en loi.
Convergence presque sûre: (X_n)_{n\in\mathbb{N}} converge presque sûrement vers X\, ssi P(\{\omega/\lim_{n\rightarrow\infty} X_n(\omega)=X(\omega)\})=1.. Elle implique la convergence en probabilités, donc la convergence en loi.
Convergence dans \mathcal{L}^1: (X_n)_{n\in\mathbb{N}} converge dans \mathcal{L}^1 vers X\, ssi \lim_{n\rightarrow\infty}E(|X_n-X|)=0. Elle implique aussi la convergence en probabilités.
Cet article vous a plu ? Partagez-le sur les réseaux sociaux avec vos amis !
Page générée en 0.017 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
Ce site est édité par Techno-Science.net - A propos - Informations légales
Partenaire: HD-Numérique