Probabilité - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs est disponible ici.

Probabilité vient du latin probare (prouver, ou tester). Le mot probable signifie " qui peut se produire " dans le cas de futures éventualités, ou " certainement vrai ", " vraisemblable " dans le cas d'inférences de l'évidence. (Voir également la théorie des probabilités)

Ce que les mathématiciens appellent probabilité est une des théories mathématiques que nous utilisons pour décrire et quantifier l'incertain. Dans un plus large contexte, (voir les interprétations de la probabilité) le mot probabilité est utilisé avec d'autres soucis à l'esprit.

Probabilité et incertitude

L'incertitude peut naître de notre ignorance, être due à un embrouillement ou une incompréhension, ou provoquée par l'aspect aléatoire essentiel de la nature. Dans tous les cas, nous mesurons l'incertitude des évènements sur une échelle de zéro (pour les évènements impossibles) à un (pour les évènements certains).

Les axiomes des probabilités forment les fondements de la théorie des probabilités. Le calcul d'une probabilité peut souvent être déterminé par l'utilisation de la combinatoire ou en appliquant directement les axiomes. Les applications des probabilités incluent aussi les statistiques, qui sont habituellement basées sur l'idée de distribution de probabilité et le théorème de la limite centrale, ainsi que la théorie de la décision, les stratégies mixtes en théorie des jeux, et le très vaste domaine de l'estimation optimale par usage de la loi de Bayes, qui sert de fondement à une grande partie des applications de décision automatique (imagerie médicale et astronomique, reconnaissance de caractères, filtres anti-pourriel).

Interprétations

Il existe deux façons de considérer les probabilités. La première historiquement a consisté à effectuer des calculs combinatoires dans le cas de jeux de hasard (Pascal, Bernoulli, Pólya…). La seconde, qui a commencé à se répandre vers 1974, est plus générale et fondée sur le Théorème de Cox-Jaynes, qui démontre sous des hypothèses raisonnables que tout mécanisme d'apprentissage est soit isomorphe à la théorie des probabilités, soit inconsistant. Dans cette seconde approche, la probabilité est considérée comme la traduction numérique d'un état de connaissance et donc une valeur subjective (mais néanmoins obtenue par un processus rationnel ; la subjectivité s'explique par le fait que le contexte d'interprétation d'un évènement diffère chez chacun. C'est l'école bayésienne (I.J. Good, Myron Tribus, E.T. Jaynes…).

L'idée de probabilité est le plus souvent séparée en deux concepts:

  1. la probabilité de l'aléatoire, qui représente la probabilité d'évènements futurs dont la réalisation dépend de quelques phénomènes physiques aléatoires, comme obtenir un as en lançant un dé ou obtenir un certain nombre en tournant une roue ;
  2. la probabilité de l'épistémé, qui représente l'incertitude que nous avons devant des affirmations, lorsque nous ne disposons pas de la connaissance complète des circonstances et des causalités. De telles propositions peuvent avoir été vérifiées sur des évènements passés ou seront peut-être vraies dans le futur, mais ne se vérifient pas. Quelques exemples de probabilités de l'épistémé sont :
  • Assigner une probabilité à l'affirmation qu'une loi proposée de la physique est vraie,
  • Déterminer comment il est " probable " qu'un suspect ait commis un crime, en se basant sur les preuves présentées.

Une probabilité est-elle réductible à notre incapacité à prédire précisément quelles sont les forces qui pourraient affecter un phénomène, ou fait-elle partie de la nature de la réalité elle-même ainsi que le suggère la mécanique quantique ? La question reste à ce jour ouverte (voir aussi Principe d'incertitude).

Bien que les mêmes règles mathématiques s'appliquent indépendamment de l'interprétation choisie, le choix a des implications philosophiques importantes : parlons-nous jamais du monde réel (et a-t-on le droit d'en parler ?) ou bien simplement des représentations que nous en avons ? Ne pouvant par définition différencier le " monde réel " de ce que nous connaissons, il est bien entendu impossible de trancher de notre point de vue : la question est pour nous, par nature, subjective (voir aussi libre arbitre).

Probabilité en mathématiques

L'existence de jeux de hasard motiva depuis la nuit des temps et jusque de nos jours l'intérêt d'estimer aussi précisément que possible une probabilité (un Centralien, Patrice des Moutis, défraya la chronique dans les années 60-70 pour arriver à s'enrichir régulièrement au PMU en utilisant des modèles bayésiens ; il ne s'agissait nullement d'une martingale, mais tout simplement d'arriver à modéliser les probabilités en fonction des informations connues un peu plus précisément que les autres joueurs travaillant simplement " au flair "). Des descriptions mathématiques rigoureuses de ce type de problèmes ne virent le jour que récemment, en particulier depuis

Pour donner un sens mathématique possible, et par ailleurs réducteur, à une probabilité, considérez une pièce de monnaie que vous lancez. Intuitivement, nous considérons la probabilité d'obtenir face à n'importe quel lancer de la pièce égale à 1/2; mais que signifie opérationnellement cette phrase ? Si nous lançons la pièce 9 fois de suite, la pièce ne pourra évidemment pas tomber " quatre fois et demie " de chaque côté (!) ; il est même possible d'obtenir 6 " face " et 3 " pile ", voire 9 " face " de suite. Que signifie dans ce cas le rapport 1/2 dans ce contexte et que pouvons-nous exactement en faire ?

Approche fréquenciste

Une approche initiale a été d'utiliser ce qui sera plus tard formalisé sous le nom de loi des grands nombres : nous supposons alors que nous effectuons un certain nombre de lancers d'une pièce, chaque lancer de la pièce étant indépendant - ce qui signifie que l'issue de chaque lancer n'est pas affectée par le lancer précédent. C'est ce que l'on nomme le modèle fréquenciste.

Si nous effectuons N lancers de la pièce et que NF représente le nombre de fois où la pièce donne face, alors nous pouvons, pour n'importe quel N, considérer la proportion NF/N.

À mesure que N devient de plus en plus grand, nous nous attendons dans notre exemple à ce que le rapport NF/N devienne de plus en plus proche de 1/2. Cela nous suggère de définir la probabilité P(F) d'obtenir face comme étant la limite, quand N tend vers l'infini, de la suite des proportions :

P(F) = \lim_{N \to \infty}{N_F \over N}

Dans la pratique, nous ne pouvons bien sûr pas lancer une pièce une infinité de fois ; aussi en général cette formule s'applique aux situations dans lesquelles nous avons a priori déjà assigné, à une issue particulière, une probabilité (dans ce cas, nous avons supposé que la pièce " était honnête " et donc que la probabilité d'obtenir face devait être égale à 1/2). La loi des grands nombres dit alors que, pour une probabilité P(F) donnée, et n'importe quel réel strictement positif ε arbitrairement petit, il existe un nombre n tel que pour tout N > n on ait,

\left| P(F) - {N_F \over N}\right| < \varepsilon

En d'autres termes, en disant que " la probabilité d'obtenir face est égale à 1/2 ", nous voulons dire que, si nous lançons notre pièce assez souvent, au final le rapport du nombre de faces par le nombre total de lancers deviendra arbitrairement proche de 1/2 ; et restera au moins aussi proche de 1/2 aussi longtemps que nous continuerons à effectuer des lancers supplémentaires de la pièce. Remarquons que la convergence ne s'effectue que de façon relative. L'écart absolu entre le nombre de " pile " et le nombre de " face " ne fait qu'augmenter à mesure du passage du temps.

Dans son ouvrage Les certitudes du hasard, le professeur Marcel Boll mentionne le résultat contre-intuitif suivant : si un million de Parisiens avait décidé de jouer à pile ou face en 1789 jusqu'à ce qu'ils aient eu un nombre égal de " pile " et de " face ", à raison d'un lancer par seconde, 500 000 d'entre eux auraient cessé de jouer dès la deuxième seconde, mais… plusieurs seraient encore en train de jouer aujourd'hui !

L'aspect de cette approche intuitive de la probabilité est parfois troublant quand il est appliqué à des situations du monde réel. Par exemple, dans la pièce Rosencrantz and Guildenstern are Dead de Tom Stoppard, un acteur lance une pièce qui donne répétitivement face maintes et maintes fois, disons une centaine de fois. Il n'arrive pas à décider si cet évènement est seulement le fruit du hasard - après tout, il est possible (bien que peu probable) qu'une pièce " honnête " donne ce résultat - ou s'il doit en conclure que la pièce est truquée.

La possibilité néanmoins de tirer de l'observation une modification parfaitement objective de nos probabilités a priori (qui restent dans l'affaire le seul élément subjectif) est établie par la relation de Bayes, en particulier quand on l'exprime sous la forme que I. J. Good nomme weight of evidence : Ev(p) = ln(p/(1-p)). La relation de Bayes devient alors additive, le facteur à ajouter ne dépend plus des probabilités a priori, et toute observation apporte une information objective et quantifiable commune à tous les observateurs.

Les weights of evidence varient de moins l'infini à plus l'infini, contrairement aux probabilités qui sont représentées par des nombres entre 0 et 1 et qui permettent très mal de distinguer des nombres proches de ces bornes (qui voit bien clairement, par exemple, la différence entre une probabilité de 0,999 et celle 0,9999 ?). Pourtant, on voit très bien si l'on considère les complémentaires que 0,001 est dix fois plus grand que 0,0001. Le passage par la notation ln (p/(1-p)) élimine cette asymétrie gênante et permet de traiter beaucoup plus commodément, en théorie de la fiabilité, les très petites probabilités. On exprime alors celles-ci en decibels (dB, comme en acoustique), qui se traitent de façon additive. L'idée en a été suggérée pour la première fois par le mathématicien britannique Alan Turing.

Limites de l'approche fréquenciste

Cette ancienne approche " fréquenciste " pose deux types de problème :

Restriction aux phénomènes répétables

Supposons une pièce ou un dé réalisés en glace : on attribue à " pile " dans un cas, à l'as dans l'autre, une probabilité respective de 1/2 et 1/6ème. On ne peut pourtant espérer les lancer, en tout cas à température ambiante, qu'un nombre très limité de fois, et il est exclu d'espérer faire quelque observation dessus avec la loi des grands nombres. Devons nous pour autant nous priver dans leur cas d'utiliser les probabilités ?

Certes, on peut imaginer des lancers avec des milliers d'autres pièces ou dés similaires pour retrouver des grands nombres, mais puisqu'ils n'existent que dans notre représentation mentale, ce sont bien des états de connaissance.

Il est clair qu'on a le droit en fiabilité de parler d'une probabilité de 10^-9 sans pour autant effectuer un milliard d'essais. Cela ne veut pas dire qu'il n'y aura pas défaillance dès le deuxième ou troisième essai... le sens de la probabilité, dans ce cas, pose problème.

Idée erronée qu'une probabilité est nécessairement objective

Cela est illustré par le paradoxe des camions prospecteurs :

Un forage pétrolier coûtant cher, on se livre au préalable à des campagnes de prospection estimant une probabilité de trouver du pétrole ou non en forant à un endroit donné. Cette probabilité conduira en fonction de sa valeur, des coûts, et des réserves estimées (en probabilité elles aussi) à la décision de forer ou non.

Imaginons deux camions prospecteurs l'un travaillant pour l'entreprise A et en début de campagne de mesure. Il estime la probabilité de présence de pétrole à 57%. Un autre juste en face travaillant pour l'entreprise B et en fin de campagne de mesure a ramené en fin de compte cette probabilité à 24 %. Tous les deux ont raison en fonction des mesures dont ils disposent.

Quant au pétrole, il y en a, ou il n'y en a pas. Du point de vue de la roche, la " probabilité " est 1 ou 0, rien d'autre.

C'est ainsi que des vérités multiples coexistent, parfois entre individus, parfois aussi chez le même individu.

Cela explique le paradoxe invoqué par Auguste Detoeuf :

J'ai souvent vu des experts être d'avis contraires. Je n'en ai jamais vu aucun avoir tort " (Propos de O.L. Barenton, confiseur, 1951).

Le Théorème de Cox-Jaynes conduit à considérer en fait toute probabilité comme subjective, ou plus exactement propre au vécu personnel de l'observateur, et qui évolue à mesure que ses connaissances se raffinent.

Cas du continu

Les probabilités peuvent ne pas concerner que des résultats discrets comme dans le jeu de pile ou face, mais également des résultats continus.

En théorie des probabilités, un évènement se décrit comme un sous-ensemble " mesurable " d'un " univers " (ou ensemble des " possibles "). Les " évènements " sont des objets auxquels sont associées des probabilités. On nomme alors probabilité une application d'un ensemble d'évènements à valeurs dans le segment [0, 1], et l'image par cette application d'un évènement est appelée probabilité de l'évènement. Dans cette optique, des probabilités doivent être associées aux évènements de telle manière que pour des évènements deux à deux disjoints (c'est-à-dire, d'intersection deux à deux vide) A1, A2, A3…, la probabilité de leur union apparaît comme la somme de leurs probabilités, ou, avec les notations mathématiques,

P\left(A_1\cup A_2\cup A_3\cup\cdots\right) =P(A_1)+P(A_2)+P(A_3)+\cdots.

Dans le cas particulier d'une " loi de probabilité discrète " l'univers est considéré comme un ensemble fini ou dénombrable \left\{\,x_1,x_2,x_3,\dots\,\right\} de résultats à chacun desquels un nombre positif est associé en tant que sa probabilité. Les singletons \{\,x_i\,\} sont des " évènements élémentaires ". L'un des univers discrets les plus simples est un ensemble fini \{\,x_1,x_2,x_3,\dots,x_n\,\} à chaque élément duquel la même probabilité 1/n est associée. Un exemple d'univers qui n'est pas discret est le segment [ 0, 1 ]. À tout sous-intervalle ]a,b[ de [0, 1] la longueur de ]a, b[ est associée comme probabilité de ce sous-intervalle. La probabilité associée à n'importe quel singleton est dans ce cas 0.

Représentation et interprétation des valeurs de probabilité

Nous comprenons généralement que la valeur 0 représente des évènements pratiquement considérés comme impossibles (en toute rigueur, la définition de la probabilité par l'intégrale de Lebesgue rend théoriquement possible un évènement de probabilité zéro, par exemple celle qu'un nombre réel pris au hasard se trouve être un entier !) tandis que le nombre 1 représente au contraire des évènements pratiquement certains (bien qu'il y ait des interprétations plus avancées de la probabilité qui emploient des définitions plus précises). Les valeurs entre 0 et 1 sont des mesures de la probabilité de la réalisation, dans l'état de connaissance de l'observateur, de quelques évènements.

En langage courant, ces nombres sont souvent exprimés comme des fractions ou pourcentages, et doivent être convertis sous forme de nombres à virgule, afin d'effectuer des calculs avec ceux-ci. Par exemple, si deux évènements sont tous deux équiprobables, comme obtenir pile, ou obtenir face en lançant une pièce de monnaie, nous exprimons la probabilité de chaque évènement comme étant " 1 sur 2 " ou " 50% " ou encore " 1/2 ", où le numérateur de la fraction est le nombre de réalisations de l'évènement cible et le dénominateur est le nombre total des possibles relatifs à tous les évènements. Pour déterminer la probabilité, nous devons effectuer une division et l'écrire sous la forme " 0,5 ".

D'autres façons pour exprimer les probabilités utilisent le mot " chance "; il y a plusieurs formulations qui font intervenir la chance :

  • avec deux nombres qui représentent le nombre de réalisations de l'évènement cible et le nombre total de résultats possibles. Par exemple, il y a une chance sur deux pour que l'on obtienne face en lançant un pièce de monnaie.
  • ou avec deux nombres qui représentent le nombre de réalisations d'un évènement et le nombre de réalisations de son contraire. Cela permet de comparer les chances de réalisation à celles de non réalisation. On a une chance contre une d'obtenir face en lançant une pièce de monnaie. Pour convertir en probabilité, on calcule la somme des deux nombres pour la placer au dénominateur d'une fraction, ici 1 contre 1 s'écrit 1/2 ; 3 contre 2 donnera une probabilité égale à 3/5 soit 0,6.

Lois (ou distributions) de probabilité

Une des notions les plus importantes en probabilité est celle de variable aléatoire. Une variable aléatoire est une application qui à un résultat possible de l'expérience associe une valeur. Une variable aléatoire va donc prendre telle ou telle valeur suivant le résultat obtenu; et ce ne sont pas les valeurs possibles de la variable, ni la valeur qu'elle prend une fois que l'on connaît le résultat de l'expérience qui sont aléatoires, mais la valeur qu'elle va prendre avant d'avoir effectué l'expérience. Les variables aléatoires furent introduites à l'origine pour représenter un gain. Par exemple effectuons l'expérience suivante, lançons une pièce de monnaie et suivant que le résultat est pile nous gagnons dix euros, ou face nous perdons un euro. Soit G la variable aléatoire qui prend la valeur 10 lorsque nous obtenons pile et la valeur -1 lorsque nous obtenons face. G représente le gain à l'issue d'un lancer de la pièce.

La somme des probabilités de toutes les valeurs possibles d'une variable aléatoire valant un, ces probabilités sont en quelque sorte réparties sur ces différentes valeurs. On peut représenter cette répartition par un diagramme en bâton. Toute relation qui établit correspondance entre les valeurs prises par une variable et leur probabilité s'appelle une loi (ou distribution) de probabilité. Il y a plusieurs lois discrètes importantes, telles que la loi uniforme discrète, la loi binomiale, la loi de Poisson, la loi géométrique, la loi binomiale négative et la loi de Maxwell-Boltzmann.

Voir l'article loi de probabilité

Remarques sur les calculs de probabilité

Plusieurs problèmes de probabilités se ramènent à un calcul de dénombrement. La difficulté pour calculer des probabilités réside alors uniquement dans la détermination du nombre de cas possibles, du nombre de cas favorables à la réalisation d'un évènement ou du nombre de réalisations d'un évènement.

Il peut être aussi particulièrement difficile de tirer des conclusions significatives à partir des probabilités calculées. Une énigme amusante de probabilité, le problème de Monty Hall met en évidence certains pièges.

Pour en apprendre plus sur les fondements de la théorie des probabilités, voyez l'article sur les axiomes des probabilités et les articles sur le théorème de Cox-Jaynes et surtout le théorème de Bayes, qui expliquent l'utilisation des probabilités conditionnelles et des probabilités dites jadis subjectives (en fait, toute probabilité est de facto conditionnelle, ainsi que subjective).

Morphologie mathématique

On nomme morphologie mathématique l'étude des fonctions aléatoires (une fonction aléatoire se définit comme l'association à tout point d'un espace à 1, 2, 3 dimensions ou plus d'une variable aléatoire - voir aussi Processus stochastiques) et la possibilité d'estimer au mieux ces fonctions aléatoires à partir de mesures (c'est-à-dire de réalisations de la fonction aléatoire). L'usage des corrélations permet d'extraire beaucoup plus d'information des mesures (voir krigeage) qu'un usage des probabilités en se privant de l'information spatiale. Cette branche des probabilités a été créée par le professeur Jean Serra de l'École des Mines de Paris et est maintenant largement utilisée pour attaquer tous les problèmes où interviennent à la fois des probabilités et des coordonnées spatiales. Elle a suscité un appareil industriel nommé l'analyseur de texture qui établit par traitement d'image les corrélations dont elle a besoin.

Page générée en 0.377 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales | Partenaire: HD-Numérique
Version anglaise | Version allemande | Version espagnole | Version portugaise