Théorie des probabilités
Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.
Courbes de probabilité.
Courbes de probabilité.

La Théorie des probabilités est l'étude mathématique des phénomènes caractérisés par le hasard et l'incertitude. Les objets centraux de la théorie des probabilités sont les variables aléatoires, les processus stochastiques, et les évènements: ils traduisent de manière abstraite des évènements non déterministes ou des quantités mesurées qui peuvent parfois évoluer dans le temps (Le temps est un concept développé par l'être humain pour appréhender le changement dans le monde.) d'une manière apparemment aléatoire. En tant que fondement mathématique (Les mathématiques constituent un domaine de connaissances abstraites construites à l'aide de raisonnements logiques sur des concepts tels que les nombres, les...) des statistiques, la théorie des probabilités (La Théorie des probabilités est l'étude mathématique des phénomènes caractérisés par le hasard et l'incertitude. Les objets centraux de la théorie des probabilités sont les variables...) est essentielle à la plupart des activités humaines qui nécessitent une analyse quantitative d'un grand nombre (La notion de nombre en linguistique est traitée à l’article « Nombre grammatical ».) de mesures. Les méthodes de la théorie (Le mot théorie vient du mot grec theorein, qui signifie « contempler, observer, examiner ». Dans le langage courant, une théorie est une idée ou une connaissance...) des probabilités s'appliquent également à la description de systèmes complexes dont on ne connait qu'en partie l'état, comme en mécanique (Dans le langage courant, la mécanique est le domaine des machines, moteurs, véhicules, organes (engrenages, poulies, courroies, vilebrequins, arbres de transmission, pistons, ...),...) statistique (La statistique est à la fois une science formelle, une méthode et une technique. Elle comprend la collecte, l'analyse, l'interprétation de données ainsi que la présentation de ces ressources afin de les rendre...). Une grande découverte de la physique (La physique (du grec φυσις, la nature) est étymologiquement la « science de la nature ». Dans un sens...) du vingtième siècle (Un siècle est maintenant une période de cent années. Le mot vient du latin saeculum, i, qui signifiait race, génération. Il a ensuite indiqué la durée d'une génération humaine et faisait 33 ans 4 mois (d'où...) fut la nature probabiliste de phénomènes physiques à une échelle microscopique, décrite par la mécanique quantique (Fille de l'ancienne théorie des quanta, la mécanique quantique constitue le pilier d'un ensemble de théories physiques qu'on regroupe sous l'appellation générale de physique quantique. Cette...).

Historique

La théorie mathématique des probabilités trouve ses origines dans l'analyse de jeux de hasard (Dans le langage ordinaire, le mot hasard est utilisé pour exprimer un manque efficient, sinon de causes, au moins d'une reconnaissance de cause à effet d'un...) par Gerolamo Cardano (Gerolamo Cardano parfois nommé Girolamo Cardano ou encore Jérôme Cardan (1501, Pavie - 1576, Rome) était un mathématicien, philosophe et médecin italien.) au seizième siècle, et par Pierre de Fermat (Pierre de Fermat, né le 20 août 1601, à Beaumont-de-Lomagne, près de Montauban, et décédé le 12 janvier 1665 à Castres, était un juriste et mathématicien...) et Blaise Pascal (Blaise Pascal (19 juin 1623, Clermont (Auvergne) - 19 août 1662, Paris) est un mathématicien et physicien, philosophe, moraliste et théologien français.) au dix-septième siècle. Bien qu'un simple pile ou face ou un lancer de dès soit un évènement aléatoire, en les répétant de nombreuses fois on obtient une série de résultats qui va posséder certaines propriétés statistiques, que l'on peut étudier et prévoir. Deux résultats mathématiques fondamentaux à ce propos sont la loi des grands nombres (La loi des grands nombres a été formalisée au XVIIe siècle lors de la découverte de nouveaux langages mathématiques.) et le théorème (Un théorème est une proposition qui peut être mathématiquement démontrée, c'est-à-dire une assertion qui peut être établie comme vraie au travers d'un...) central limite.

Initialement, la théorie des probabilités considérait surtout les évènements discrets, et ses méthodes étaient principalement combinatoires. Mais des considérations analytiques ont forcé l'introduction de variables aléatoires continues dans la théorie. Cette idée prend tout (Le tout compris comme ensemble de ce qui existe est souvent interprété comme le monde ou l'univers.) son essor dans la théorie moderne des probabilités, dont les fondations (Les fondations d'un ouvrage assurent la transmission et la répartition des charges (poids propre et surcharges climatiques et d'utilisation) de cet ouvrage sur le sol. Le mode de fondation sera...) ont été posées par Andreï Nikolaevich Kolmogorov. Kolmogorov combina la notion d'univers (L'Univers est l'ensemble de tout ce qui existe et les lois qui le régissent.), introduite par Richard von Mises et la théorie de la mesure pour présenter son système d'axiomes pour la théorie des probabilités en 1933. Très vite, son approche devint la base incontestée des probabilités modernes.

Théorie des probabilités discrète

La théorie discrète des probabilités s'occupe d'évènements dans le cadre d'un univers dénombrable.

Exemples: Lancer de dés, expériences avec des paquets de cartes, et marche (La marche (le pléonasme marche à pied est également souvent utilisé) est un mode de locomotion naturel. Il consiste en un déplacement en appui alternatif...) aléatoire.

Définition (Une définition est un discours qui dit ce qu'est une chose ou ce que signifie un nom. D'où la division entre les définitions réelles et les définitions nominales.) classique: Initialement, la probabilité (La probabilité (du latin probabilitas) est une évaluation du caractère probable d'un évènement. En mathématiques, l'étude des probabilités est un sujet de grande importance donnant...) d'un évènement était définie comme le nombre de cas favorables pour l'évènement, divisé par le nombre total ( Total est la qualité de ce qui est complet, sans exception. D'un point de vue comptable, un total est le résultat d'une addition, c'est-à-dire une somme. Exemple : "Le total des dettes". En physique le...) d'issues possibles à l'expérience aléatoire.

Par exemple, si l'évènement est obtenir un nombre pair en lançant le dès, sa probabilité est donnée (Dans les technologies de l'information, une donnée est une description élémentaire, souvent codée, d'une chose, d'une transaction, d'un...) par \tfrac{3}{6}=\tfrac{1}{2}, puisque trois faces sur six ont un nombre pair.

Définition moderne : La définition moderne commence par un ensemble (En théorie des ensembles, un ensemble désigne intuitivement une collection d’objets (les éléments de l'ensemble), « une multitude qui peut être comprise comme un...) appelé univers, qui correspond à l'ensemble des issues possibles à l'expérience dans la définition classique. Il est noté \Omega=\left \{ x_1,x_2,\dots\right \}. Ensuite, on a besoin (Les besoins se situent au niveau de l'interaction entre l'individu et l'environnement. Il est souvent fait un classement des besoins humains en trois grandes catégories :...) d'une fonction f définie sur Ω, qui va associer à chaque élément de Ω sa probabilité, satisfaisant donc les propriétés suivantes :

  1. f(x)\in[0,1]\mbox{ pour tout }x\in \Omega
  2. \sum_{x\in \Omega} f(x) = 1

On définit ensuite un évènement comme un ensemble d'issues, c'est à dire un sous-ensemble (En mathématiques, un ensemble A est un sous-ensemble ou une partie d’un ensemble B, ou encore B est sur-ensemble de A, si tout élément du sous-ensemble A est aussi élément du sur-ensemble B. Il peut par contre y avoir des...) de Ω. La probabilité d'un évènement E est alors définie de manière naturelle par :

P(E)=\sum_{x\in E} f(x)\,

Ainsi, la probabilité de l'univers est 1, et la probabilité de l'évènement nul (l'ensemble vide) est 0.

Pour revenir à l'exemple du lancer dès, on peut modéliser cette expérience en se donnant un univers Ω = {1;2;3;4;5;6} correspondant aux valeurs possibles du dé, et une fonction f qui à chaque i\in\Omega associe f(i)=\tfrac{1}{6}.

Théorie des probabilités continue

La théorie des probabilités continue s'occupe des évènements qui se produisent dans un univers continu (par exemple la droite réelle).

Définition classique: La définition classique est mise en échec lorsqu'elle est confrontée au cas continu (cf. paradoxe (Un paradoxe est une proposition qui contient ou semble contenir une contradiction logique, ou un raisonnement qui, bien que sans faille apparente, aboutit à une absurdité, ou encore, une situation qui contredit...) de Bertrand).

Définition moderne Si l'univers est la droite réelle \mathbb{R}, alors on assume l'existence d'une fonction appelée fonction de répartition (En probabilité, la fonction de répartition d'une variable aléatoire X est la fonction qui à tout réel x associe) F\,, qui donne P(X\le x) =  F(x)\, pour une variable aléatoire (Une variable aléatoire est une fonction définie sur l'ensemble des résultats possibles d'une expérience aléatoire, telle qu'il soit possible de déterminer la probabilité pour qu'elle prenne une valeur donnée ou qu'elle prenne une...) X. Autrement dit, F(x) retourne la probabilité que X soit inférieur ou égal à x.

La fonction de répartition doit satisfaire les propriétés suivantes :

  1. F\, est une fonction croissante et continue à droite.
  2. \lim_{x\rightarrow -\infty} F(x)=0
  3. \lim_{x\rightarrow \infty} F(x)=1

Si F\, est dérivable, alors on dit que la variable (En mathématiques et en logique, une variable est représentée par un symbole. Elle est utilisée pour marquer un rôle dans une formule, un...) aléatoire X a une densité de probabilité (En mathématiques statistiques, on appelle densité de probabilité d'une variable aléatoire X réelle continue une fonction f) f(x)=\frac{dF(x)}{dx}\,.

Pour un ensemble E \subseteq \mathbb{R}, la probabilité que la variable aléatoire X soit dans E\, est définie comme :

P(X\in E) = \int_{x\in E} dF(x)\,

Si la densité (La densité ou densité relative d'un corps est le rapport de sa masse volumique à la masse volumique d'un corps pris comme référence. Le corps de référence est l'eau...) de probabilité existe, on peut alors la réécrire :

P(X\in E) = \int_{x\in E} f(x)\,dx

Tandis que la densité de probabilité n'existe que pour les variables aléatoires continues, la fonction de répartition existe pour toute variable aléatoire (y compris les variables discrètes) à valeur dans \mathbb{R}.

Ces concepts peuvent être généralisés dans les cas multidimensionnel sur \mathbb{R}^n et d'autres univers continus.

La théorie des probabilités aujourd'hui

Certaines distributions peuvent être un mélange (Un mélange est une association de deux ou plusieurs substances solides, liquides ou gazeuses qui n'interagissent pas chimiquement. Le résultat de l'opération est une préparation aussi...) de distributions discrètes et continues, et donc n'avoir ni densité de probabilité ni fonction de masse (Le terme masse est utilisé pour désigner deux grandeurs attachées à un corps : l'une quantifie l'inertie du corps (la masse inerte) et l'autre la contribution du corps...). La distribution de Cantor constitue un tel exemple. L'approche moderne des probabilités résout ces problèmes par l'utilisation de la théorie de la mesure pour définir un espace probabilisé (Un espace probabilisé est un triplet formé d'un ensemble Ω, d'une tribu ou σ-algèbre sur Ω et d'une mesure P sur cette σ-algèbre telle que P(Ω) = 1.):

Étant donné un ensemble \Omega\, (appelé aussi univers) muni d'une σ-algèbre \mathcal{F}\,, une mesure \mu\, est appelée mesure de probabilité si:

  1. \mu\, est une mesure positive
  2. \mu(\Omega)=1\,

Pour chaque fonction de répartition il existe une unique mesure de probabilité sur les boréliens, et vice versa. La mesure correspondant à une fonction de répartition est dite induite par la fonction. Dans le cas continu, cette mesure coïncide avec la mesure fdλ avec λ la mesure de Lebesgue (La mesure de Lebesgue doit son nom au mathématicien français Henri Léon Lebesgue. Elle est d'une importance capitale en théorie de l'intégration.) si f est la densité de probabilité associée à la fonction de répartition (qui n'existe pas forcément) tandis que dans le cas discret, elle coïncide avec la fonction f définie précédemment.

En plus de permettre une meilleure compréhension et une unification (Le concept d'unification est une notion centrale de la logique des prédicats ainsi que d'autres systèmes de logique et est sans doute ce qui distingue le plus Prolog des autres...) des théories discrètes et continues des probabilités, l'approche de la théorie de la mesure nous permet aussi de parler de probabilités en dehors de \mathbb{R}^n, notamment dans la théorie des processus stochastiques. Par exemple pour l'étude du mouvement brownien, la probabilité est définie sur un espace de fonctions.

Lois de probabilité

Certaines variables aléatoires sont fréquemment rencontrées en théorie des probabilités car on les retrouve dans de nombreux processus naturels. Leur loi ont donc une importance particulière. Les lois discrètes les plus fréquentes sont la loi uniforme discrète, la loi de Bernoulli (En mathématiques, la distribution de Bernoulli ou loi de Bernoulli, du nom du mathématicien suisse Jacques Bernoulli, est une distribution discrète...), ainsi que les lois binomiale, de Poisson (Dans la classification classique, les poissons sont des animaux vertébrés aquatiques à branchies, pourvus de nageoires et dont le corps est le plus souvent couvert d'écailles. On les...) et géométriques. Les lois uniforme continue, normale, exponentielle (La fonction exponentielle est l'une des applications les plus importantes en analyse, ou plus généralement en mathématiques et dans ses domaines d'applications. Il existe plusieurs...) et gamma sont parmis les plus importantes lois continues.

Convergence (Le terme de convergence est utilisé dans de nombreux domaines :) de variables aléatoires

En théorie des probabilités, il y a plusieurs notions de convergence pour les variable aléatoire. En voici la liste:

Convergence en loi: une suite de variables aléatoires (X_n)_{n\in\mathbb{N}} converge en loi vers la variable aléatoire X\, si et seulement si la suite des mesures images (\mu_{X_n})_n\in\mathbb{N} converge étroitement vers la mesure image μX. En particulier dans le cas réel, il suffit que les fonctions de répartitions convergent ( en astronautique, convergent en mathématiques, suite convergente série convergente ) simplement vers la fonction de répartition de X.
Convergence en probabilités: (X_n)_{n\in\mathbb{N}} converge en probabilités vers X\, ssi \forall \epsilon >0, \lim_{n\rightarrow\infty}P\left(\left|X_n-X\right|\geq\varepsilon\right)=0. Cette convergence implique la convergence en loi.
Convergence presque sûre: (X_n)_{n\in\mathbb{N}} converge presque sûrement vers X\, ssi P(\{\omega/\lim_{n\rightarrow\infty} X_n(\omega)=X(\omega)\})=1.. Elle implique la convergence en probabilités, donc la convergence en loi.
Convergence dans \mathcal{L}^1: (X_n)_{n\in\mathbb{N}} converge dans \mathcal{L}^1 vers X\, ssi \lim_{n\rightarrow\infty}E(|X_n-X|)=0. Elle implique aussi la convergence en probabilités.
Page générée en 0.097 seconde(s) - site hébergé chez Amen
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
Ce site est édité par Techno-Science.net - A propos - Informations légales
Partenaire: HD-Numérique