Recherchez sur tout Techno-Science.net
       
Techno-Science.net : Suivez l'actualité des sciences et des technologies, découvrez, commentez
Catégories
Techniques
Sciences
Encore plus...
Techno-Science.net
Partenaires
Organismes
 CEA
 ESA
Sites Web
Photo Mystérieuse

Que représente
cette image ?
 A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z | +
Probabilité

Probabilité vient du latin probare (prouver, ou tester). Le mot probable signifie " qui peut se produire " dans le cas de futures éventualités, ou " certainement vrai ", " vraisemblable " dans le cas d'inférences de l'évidence. (Voir également la théorie (Le mot théorie vient du mot grec theorein, qui signifie « contempler, observer, examiner ». Dans le langage courant, une théorie est une idée ou une...) des probabilités)

Ce que les mathématiciens appellent probabilité est une des théories mathématiques que nous utilisons pour décrire et quantifier l'incertain. Dans un plus large contexte (Le contexte d'un évènement inclut les circonstances et conditions qui l'entourent; le contexte d'un mot, d'une phrase ou d'un texte inclut les mots qui l'entourent. Le concept de contexte issu...), (voir les interprétations de la probabilité) le mot probabilité est utilisé avec d'autres soucis à l'esprit.

Probabilité et incertitude

L'incertitude peut naître de notre ignorance, être due à un embrouillement ou une incompréhension, ou provoquée par l'aspect aléatoire essentiel de la nature. Dans tous les cas, nous mesurons l'incertitude des évènements sur une échelle de zéro (Le chiffre zéro (de l’italien zero, dérivé de l’arabe sifr, d’abord transcrit zefiro en italien) est un symbole marquant une position vide dans l’écriture des...) (pour les évènements impossibles) à un (pour les évènements certains).

Les axiomes des probabilités (Commençons par donner une définition simple d'une probabilité. Considérons une expérience aléatoire (ou épreuve aléatoire), et l'univers associée à cette expérience...) forment les fondements de la théorie des probabilités (La Théorie des probabilités est l'étude mathématique des phénomènes caractérisés par le hasard et l'incertitude. Les objets centraux de la théorie des...). Le calcul d'une probabilité peut souvent être déterminé par l'utilisation de la combinatoire (En mathématiques, la combinatoire, appelée aussi analyse combinatoire, étudie les configurations de collections finies d'objets ou les combinaisons d'ensembles finis, et les dénombrements.) ou en appliquant directement les axiomes. Les applications des probabilités incluent aussi les statistiques (La statistique est à la fois une science formelle, une méthode et une technique. Elle comprend la collecte, l'analyse, l'interprétation de données ainsi que la...), qui sont habituellement basées sur l'idée de distribution de probabilité et le théorème (Un théorème est une proposition qui peut être mathématiquement démontrée, c'est-à-dire une assertion qui peut être établie comme vraie au travers d'un raisonnement logique construit à partir d'axiomes. Un...) de la limite centrale, ainsi que la théorie de la décision, les stratégies mixtes en théorie des jeux (La théorie des jeux constitue une approche mathématique de problèmes de stratégie tels qu’on en trouve en recherche opérationnelle et en économie. Elle étudie les...), et le très vaste domaine de l'estimation optimale par usage (L’usage est l'action de se servir de quelque chose.) de la loi de Bayes, qui sert de fondement à une grande partie des applications de décision automatique (L'automatique fait partie des sciences de l'ingénieur. Cette discipline traite de la modélisation, de l'analyse, de la commande et, de la régulation des systèmes dynamiques....) (imagerie médicale et astronomique, reconnaissance de caractères, filtres anti-pourriel).

Interprétations

Il existe deux façons de considérer les probabilités. La première historiquement a consisté à effectuer des calculs combinatoires dans le cas de jeux de hasard (Dans le langage ordinaire, le mot hasard est utilisé pour exprimer un manque efficient, sinon de causes, au moins d'une reconnaissance de cause à effet d'un...) (Pascal, Bernoulli, Pólya…). La seconde ( Seconde est le féminin de l'adjectif second, qui vient immédiatement après le premier ou qui s'ajoute à quelque chose de nature identique. La seconde est une unité de mesure du temps. La seconde d'arc est...), qui a commencé à se répandre vers 1974, est plus générale et fondée sur le Théorème de Cox-Jaynes (Le théorème de Cox-Jaynes (1946), dû dans sa version originale au physicien Richard Cox, est une codification des processus d'apprentissage à partir d'un certain ensemble de postulats. Cette codification se trouve coïncider au...), qui démontre sous des hypothèses raisonnables que tout mécanisme d'apprentissage (L’apprentissage est l'acquisition de savoir-faire, c'est-à-dire le processus d’acquisition de pratiques, de connaissances, compétences, d'attitudes ou de valeurs culturelles, par...) est soit isomorphe à la théorie des probabilités, soit inconsistant. Dans cette seconde approche, la probabilité est considérée comme la traduction numérique d'un état de connaissance et donc une valeur subjective (mais néanmoins obtenue par un processus rationnel ; la subjectivité s'explique par le fait que le contexte d'interprétation d'un évènement diffère chez chacun. C'est l'école bayésienne (I.J. Good, Myron Tribus, E.T. Jaynes…).

L'idée de probabilité est le plus souvent séparée en deux concepts:

  1. la probabilité de l'aléatoire, qui représente la probabilité d'évènements futurs dont la réalisation dépend de quelques phénomènes physiques aléatoires, comme obtenir un as en lançant un dé ou obtenir un certain nombre (La notion de nombre en linguistique est traitée à l’article « Nombre grammatical ».) en tournant une roue ;
  2. la probabilité de l'épistémé, qui représente l'incertitude que nous avons devant des affirmations, lorsque nous ne disposons pas de la connaissance complète des circonstances et des causalités. De telles propositions peuvent avoir été vérifiées sur des évènements passés ou seront peut-être vraies dans le futur (Futurs est une collection de science-fiction des Éditions de l'Aurore.), mais ne se vérifient pas. Quelques exemples de probabilités de l'épistémé sont :
  • Assigner une probabilité à l'affirmation qu'une loi proposée de la physique (La physique (du grec φυσις, la nature) est étymologiquement la « science de la nature ». Dans un sens général...) est vraie,
  • Déterminer comment il est " probable " qu'un suspect ait commis un crime, en se basant sur les preuves présentées.

Une probabilité est-elle réductible à notre incapacité à prédire précisément quelles sont les forces qui pourraient affecter un phénomène, ou fait-elle partie de la nature de la réalité elle-même ainsi que le suggère la mécanique (Dans le langage courant, la mécanique est le domaine des machines, moteurs, véhicules, organes (engrenages, poulies, courroies, vilebrequins, arbres de transmission, pistons, ...), bref, de tout ce qui produit ou transmet un...) quantique ? La question reste à ce jour (Le jour ou la journée est l'intervalle qui sépare le lever du coucher du Soleil ; c'est la période entre deux nuits, pendant laquelle les rayons du Soleil éclairent le ciel. Son début (par rapport à minuit heure locale) et...) ouverte (voir aussi Principe d'incertitude).

Bien que les mêmes règles mathématiques s'appliquent indépendamment de l'interprétation choisie, le choix a des implications philosophiques importantes : parlons-nous jamais du monde réel (et a-t-on le droit d'en parler ?) ou bien simplement des représentations que nous en avons ? Ne pouvant par définition (Une définition est un discours qui dit ce qu'est une chose ou ce que signifie un nom. D'où la division entre les définitions réelles et les définitions nominales.) différencier le " monde réel " de ce que nous connaissons, il est bien entendu impossible de trancher de notre point (Graphie) de vue : la question est pour nous, par nature, subjective (voir aussi libre arbitre).

Probabilité en mathématiques

L'existence de jeux de hasard motiva depuis la nuit des temps (Le temps est un concept développé par l'être humain pour appréhender le changement dans le monde.) et jusque de nos jours l'intérêt d'estimer aussi précisément que possible une probabilité (un Centralien, Patrice des Moutis, défraya la chronique dans les années 60-70 pour arriver à s'enrichir régulièrement au PMU en utilisant des modèles bayésiens ; il ne s'agissait nullement d'une martingale (Une martingale est une technique permettant d'augmenter les chances de gain aux jeux de hasard tout en respectant les règles de jeu. Le principe dépend complètement du type de jeu qui en est la cible, mais le...), mais tout simplement d'arriver à modéliser les probabilités en fonction des informations connues un peu plus précisément que les autres joueurs travaillant simplement " au flair "). Des descriptions mathématiques rigoureuses de ce type de problèmes ne virent le jour (Le jour ou la journée est l'intervalle qui sépare le lever du coucher du Soleil ; c'est la période entre deux nuits, pendant laquelle les rayons du Soleil éclairent le ciel. Son début (par rapport à...) que récemment, en particulier depuis

  • Blaise Pascal (Blaise Pascal (19 juin 1623, Clermont (Auvergne) - 19 août 1662, Paris) est un mathématicien et physicien, philosophe, moraliste et théologien français.) au XVIIe siècle pour le déductif,
  • Thomas Bayes et Pierre-Simon Laplace (Pierre-Simon Laplace, né le 23 mars 1749 à Beaumont-en-Auge (Calvados), mort le 5 mars 1827 à Paris, était un mathématicien, astronome et physicien français particulièrement célèbre par son ouvrage en cinq volumes Mécanique...) au XVIIIe siècle pour l'inductif.

Pour donner un sens (SENS (Strategies for Engineered Negligible Senescence) est un projet scientifique qui a pour but l'extension radicale de l'espérance de vie humaine. Par une évolution progressive allant du ralentissement du vieillissement, suivi de...) mathématique (Les mathématiques constituent un domaine de connaissances abstraites construites à l'aide de raisonnements logiques sur des concepts tels que les nombres, les figures, les structures et les transformations. Les mathématiques...) possible, et par ailleurs réducteur, à une probabilité, considérez une pièce de monnaie que vous lancez. Intuitivement, nous considérons la probabilité d'obtenir face à n'importe quel lancer de la pièce égale à 1/2; mais que signifie opérationnellement cette phrase ? Si nous lançons la pièce 9 fois de suite, la pièce ne pourra évidemment pas tomber " quatre fois et demie " de chaque côté (!) ; il est même possible d'obtenir 6 " face " et 3 " pile ", voire 9 " face " de suite. Que signifie dans ce cas le rapport 1/2 dans ce contexte et que pouvons-nous exactement en faire ?

Approche fréquenciste

Une approche initiale a été d'utiliser ce qui sera plus tard formalisé sous le nom de loi des grands nombres : nous supposons alors que nous effectuons un certain nombre de lancers d'une pièce, chaque lancer de la pièce étant indépendant - ce qui signifie que l'issue de chaque lancer n'est pas affectée par le lancer précédent. C'est ce que l'on nomme le modèle fréquenciste.

Si nous effectuons N lancers de la pièce et que NF représente le nombre de fois où la pièce donne face, alors nous pouvons, pour n'importe quel N, considérer la proportion NF/N.

À mesure que N devient de plus en plus grand, nous nous attendons dans notre exemple à ce que le rapport NF/N devienne de plus en plus proche de 1/2. Cela nous suggère de définir la probabilité P(F) d'obtenir face comme étant la limite, quand N tend vers l'infini (Le mot « infini » (-e, -s ; du latin finitus, « limité »), est un adjectif servant à qualifier quelque chose...), de la suite des proportions :

P(F) = \lim_{N \to \infty}{N_F \over N}

Dans la pratique, nous ne pouvons bien sûr pas lancer une pièce une infinité de fois ; aussi en général cette formule s'applique aux situations dans lesquelles nous avons a priori déjà assigné, à une issue particulière, une probabilité (dans ce cas, nous avons supposé que la pièce " était honnête " et donc que la probabilité d'obtenir face devait être égale à 1/2). La loi des grands nombres (La loi des grands nombres a été formalisée au XVIIe siècle lors de la découverte de nouveaux langages mathématiques.) dit alors que, pour une probabilité P(F) donnée (Dans les technologies de l'information, une donnée est une description élémentaire, souvent codée, d'une chose, d'une transaction, d'un événement, etc.), et n'importe quel réel strictement positif ε arbitrairement petit, il existe un nombre n tel que pour tout N > n on ait,

\left| P(F) - {N_F \over N}\right| < \varepsilon

En d'autres termes, en disant que " la probabilité d'obtenir face est égale à 1/2 ", nous voulons dire que, si nous lançons notre pièce assez souvent, au final le rapport du nombre de faces par le nombre total ( Total est la qualité de ce qui est complet, sans exception. D'un point de vue comptable, un total est le résultat d'une addition, c'est-à-dire une somme. Exemple : "Le total des dettes". En physique le...) de lancers deviendra arbitrairement proche de 1/2 ; et restera au moins aussi proche de 1/2 aussi longtemps que nous continuerons à effectuer des lancers supplémentaires de la pièce. Remarquons que la convergence (Le terme de convergence est utilisé dans de nombreux domaines :) ne s'effectue que de façon relative. L'écart absolu entre le nombre de " pile " et le nombre de " face " ne fait qu'augmenter à mesure du passage du temps.

Dans son ouvrage Les certitudes du hasard, le professeur Marcel Boll mentionne le résultat contre-intuitif suivant : si un million (Un million (1 000 000) est l'entier naturel qui suit neuf cent quatre-vingt-dix-neuf mille neuf cent quatre-vingt-dix-neuf (999 999) et qui précède un million un (1 000 001). Il vaut un...) de Parisiens avait décidé de jouer à pile ou face en 1789 jusqu'à ce qu'ils aient eu un nombre égal de " pile " et de " face ", à raison d'un lancer par seconde, 500 000 d'entre eux auraient cessé de jouer dès la deuxième seconde, mais… plusieurs seraient encore en train (Un train est un véhicule guidé circulant sur des rails. Un train est composé de plusieurs voitures (pour transporter des personnes) et/ou de plusieurs wagons (pour transporter des marchandises),...) de jouer aujourd'hui !

L'aspect de cette approche intuitive de la probabilité est parfois troublant quand il est appliqué à des situations du monde réel. Par exemple, dans la pièce Rosencrantz and Guildenstern are Dead de Tom Stoppard, un acteur (Un acteur est un artiste qui incarne un personnage dans un film, dans une pièce de théâtre, à la télévision, à la radio, ou même dans des spectacles de rue. En plus de l'interprétation proprement dite, un...) lance une pièce qui donne répétitivement face maintes et maintes fois, disons une centaine de fois. Il n'arrive pas à décider si cet évènement est seulement le fruit (En botanique, le fruit est l'organe végétal protégeant la graine. Caractéristique des Angiospermes, il succède à la fleur par transformation du pistil. La paroi de l'ovaire forme le...) du hasard - après tout, il est possible (bien que peu probable) qu'une pièce " honnête " donne ce résultat - ou s'il doit en conclure que la pièce est truquée.

La possibilité néanmoins de tirer de l'observation (L’observation est l’action de suivi attentif des phénomènes, sans volonté de les modifier, à l’aide de moyens d’enquête et...) une modification parfaitement objective de nos probabilités a priori (qui restent dans l'affaire le seul élément subjectif) est établie par la relation de Bayes, en particulier quand on l'exprime sous la forme que I. J. Good nomme weight of evidence : Ev(p) = ln(p/(1-p)). La relation de Bayes devient alors additive, le facteur à ajouter ne dépend plus des probabilités a priori, et toute observation apporte une information objective et quantifiable commune à tous les observateurs.

Les weights of evidence varient de moins l'infini à plus l'infini, contrairement aux probabilités qui sont représentées par des nombres entre 0 et 1 et qui permettent très mal de distinguer des nombres proches de ces bornes (qui voit bien clairement, par exemple, la différence entre une probabilité de 0,999 et celle 0,9999 ?). Pourtant, on voit très bien si l'on considère les complémentaires que 0,001 est dix fois plus grand que 0,0001. Le passage par la notation ln (p/(1-p)) élimine cette asymétrie gênante et permet de traiter beaucoup plus commodément, en théorie de la fiabilité (Un système est fiable lorsque la probabilité de remplir sa mission sur une durée donnée correspond à celle spécifiée dans le cahier des charges.), les très petites probabilités. On exprime alors celles-ci en decibels (dB, comme en acoustique), qui se traitent de façon additive. L'idée en a été suggérée pour la première fois par le mathématicien (Un mathématicien est au sens restreint un chercheur en mathématiques, par extension toute personne faisant des mathématiques la base de son activité...) britannique Alan Turing.

Limites de l'approche fréquenciste

Cette ancienne approche " fréquenciste " pose deux types de problème :

Restriction aux phénomènes répétables

Supposons une pièce ou un dé réalisés en glace : on attribue à " pile " dans un cas, à l'as dans l'autre, une probabilité respective de 1/2 et 1/6ème. On ne peut pourtant espérer les lancer, en tout cas à température (La température est une grandeur physique mesurée à l'aide d'un thermomètre et étudiée en thermométrie. Dans la vie courante,...) ambiante, qu'un nombre très limité de fois, et il est exclu d'espérer faire quelque observation dessus avec la loi des grands nombres. Devons nous pour autant nous priver dans leur cas d'utiliser les probabilités ?

Certes, on peut imaginer des lancers avec des milliers d'autres pièces ou dés similaires pour retrouver des grands nombres, mais puisqu'ils n'existent que dans notre représentation mentale, ce sont bien des états de connaissance.

Il est clair qu'on a le droit en fiabilité de parler d'une probabilité de 10^-9 sans pour autant effectuer un milliard (Un milliard (1 000 000 000) est l'entier naturel qui suit neuf cent quatre-vingt-dix-neuf millions neuf cent quatre-vingt-dix-neuf mille neuf cent quatre-vingt-dix-neuf (999 999 999) et...) d'essais. Cela ne veut pas dire qu'il n'y aura pas défaillance dès le deuxième ou troisième essai... le sens de la probabilité, dans ce cas, pose problème.

Idée erronée qu'une probabilité est nécessairement objective

Cela est illustré par le paradoxe des camions (Le camion est un véhicule automobile à roues destiné à transporter des marchandises. Le routier (routière) ou camionneur (camionneuse) a pour...) prospecteurs :

Un forage pétrolier (Un pétrolier est un navire citerne servant à transporter le pétrole ainsi que ses dérivés (essence). Pour le transport d'autres liquides, les navires ont d'autres...) coûtant cher, on se livre au préalable à des campagnes de prospection estimant une probabilité de trouver du pétrole (Le pétrole est une roche liquide carbonée, ou huile minérale. L'exploitation de cette énergie fossile est l’un des piliers de l’économie industrielle contemporaine, car...) ou non en forant à un endroit donné. Cette probabilité conduira en fonction de sa valeur, des coûts, et des réserves estimées (en probabilité elles aussi) à la décision de forer ou non.

Imaginons deux camions prospecteurs l'un travaillant pour l'entreprise A et en début de campagne (La campagne, aussi appelée milieu rural désigne l'ensemble des espaces cultivés habités, elle s'oppose aux concepts de ville,...) de mesure. Il estime la probabilité de présence de pétrole à 57%. Un autre juste en face travaillant pour l'entreprise B et en fin de campagne de mesure a ramené en fin de compte cette probabilité à 24 %. Tous les deux ont raison en fonction des mesures dont ils disposent.

Quant au pétrole, il y en a, ou il n'y en a pas. Du point de vue (La vue est le sens qui permet d'observer et d'analyser l'environnement par la réception et l'interprétation des rayonnements lumineux.) de la roche (La roche, du latin populaire rocca, désigne tout matériau constitutif de l'écorce terrestre. Tout matériau entrant dans la composition du sous-sol est...), la " probabilité " est 1 ou 0, rien d'autre.

C'est ainsi que des vérités multiples coexistent, parfois entre individus, parfois aussi chez le même individu (Le Wiktionnaire est un projet de dictionnaire libre et gratuit similaire à Wikipédia (tous deux sont soutenus par la fondation Wikimedia).).

Cela explique le paradoxe invoqué par Auguste Detoeuf :

J'ai souvent vu des experts être d'avis (Anderlik-Varga-Iskola-Sport (Anderlik-Varga-Ecole-Sport) fut utilisé pour désigner un projet hongrois de monoplace de sport derrière lequel se cachait en fait un monoplace de chasse...) contraires. Je n'en ai jamais vu aucun avoir tort " (Propos de O.L. Barenton, confiseur, 1951).

Le Théorème de Cox-Jaynes conduit à considérer en fait toute probabilité comme subjective, ou plus exactement propre au vécu personnel de l'observateur, et qui évolue à mesure que ses connaissances se raffinent.

Cas du continu

Les probabilités peuvent ne pas concerner que des résultats discrets comme dans le jeu de pile ou face, mais également des résultats continus.

En théorie des probabilités, un évènement se décrit comme un sous-ensemble (En mathématiques, un ensemble A est un sous-ensemble ou une partie d’un ensemble B, ou encore B est sur-ensemble de A, si tout élément du sous-ensemble A est aussi élément du...) " mesurable " d'un " univers " (ou ensemble (En théorie des ensembles, un ensemble désigne intuitivement une collection d’objets (les éléments de l'ensemble), « une multitude qui peut...) des " possibles "). Les " évènements " sont des objets auxquels sont associées des probabilités. On nomme alors probabilité une application d'un ensemble d'évènements à valeurs dans le segment [0, 1], et l'image par cette application d'un évènement est appelée probabilité de l'évènement. Dans cette optique (L'optique est la branche de la physique qui traite de la lumière, du rayonnement électromagnétique et de ses relations avec la vision.), des probabilités doivent être associées aux évènements de telle manière que pour des évènements deux à deux disjoints (c'est-à-dire, d'intersection deux à deux vide) A1, A2, A3…, la probabilité de leur union apparaît comme la somme de leurs probabilités, ou, avec les notations mathématiques,

P\left(A_1\cup A_2\cup A_3\cup\cdots\right) =P(A_1)+P(A_2)+P(A_3)+\cdots.

Dans le cas particulier d'une " loi de probabilité discrète " l'univers (L'Univers est l'ensemble de tout ce qui existe et les lois qui le régissent.) est considéré comme un ensemble fini (En mathématiques, un ensemble E est dit fini si et seulement si E est vide ou s'il existe un entier n et une bijection de E dans l'ensemble des n premiers entiers naturels.) ou dénombrable \left\{\,x_1,x_2,x_3,\dots\,\right\} de résultats à chacun desquels un nombre positif est associé en tant que sa probabilité. Les singletons \{\,x_i\,\} sont des " évènements élémentaires ". L'un des univers discrets les plus simples est un ensemble fini \{\,x_1,x_2,x_3,\dots,x_n\,\} à chaque élément duquel la même probabilité 1/n est associée. Un exemple d'univers qui n'est pas discret est le segment [ 0, 1 ]. À tout sous-intervalle ]a,b[ de [0, 1] la longueur (La longueur d’un objet est la distance entre ses deux extrémités les plus éloignées. Lorsque l’objet est filiforme ou en forme de lacet, sa longueur est celle de l’objet...) de ]a, b[ est associée comme probabilité de ce sous-intervalle. La probabilité associée à n'importe quel singleton est dans ce cas 0.

Représentation et interprétation des valeurs de probabilité

Nous comprenons généralement que la valeur 0 représente des évènements pratiquement considérés comme impossibles (en toute rigueur, la définition de la probabilité par l'intégrale de Lebesgue (En mathématiques dans la branche de l'analyse réelle, l'intégrale de Lebesgue est une intégrale représentative d'une théorie qui étend la notion d'intégrale...) rend théoriquement possible un évènement de probabilité zéro, par exemple celle qu'un nombre réel pris au hasard se trouve être un entier !) tandis que le nombre 1 représente au contraire des évènements pratiquement certains (bien qu'il y ait des interprétations plus avancées de la probabilité qui emploient des définitions plus précises). Les valeurs entre 0 et 1 sont des mesures de la probabilité de la réalisation, dans l'état de connaissance de l'observateur, de quelques évènements.

En langage courant, ces nombres sont souvent exprimés comme des fractions ou pourcentages, et doivent être convertis sous forme de nombres à virgule, afin d'effectuer des calculs avec ceux-ci. Par exemple, si deux évènements sont tous deux équiprobables, comme obtenir pile, ou obtenir face en lançant une pièce de monnaie, nous exprimons la probabilité de chaque évènement comme étant " 1 sur 2 " ou " 50% " ou encore " 1/2 ", où le numérateur de la fraction est le nombre de réalisations de l'évènement cible et le dénominateur est le nombre total des possibles relatifs à tous les évènements. Pour déterminer la probabilité, nous devons effectuer une division (La division est une loi de composition qui à deux nombres associe le produit du premier par l'inverse du second. Si un nombre est non nul, la fonction...) et l'écrire sous la forme " 0,5 ".

D'autres façons pour exprimer les probabilités utilisent le mot " chance "; il y a plusieurs formulations qui font intervenir la chance :

  • avec deux nombres qui représentent le nombre de réalisations de l'évènement cible et le nombre total de résultats possibles. Par exemple, il y a une chance sur deux pour que l'on obtienne face en lançant un pièce de monnaie.
  • ou avec deux nombres qui représentent le nombre de réalisations d'un évènement et le nombre de réalisations de son contraire. Cela permet de comparer les chances de réalisation à celles de non réalisation. On a une chance contre une d'obtenir face en lançant une pièce de monnaie. Pour convertir en probabilité, on calcule la somme des deux nombres pour la placer au dénominateur d'une fraction, ici 1 contre 1 s'écrit 1/2 ; 3 contre 2 donnera une probabilité égale à 3/5 soit 0,6.

Lois (ou distributions) de probabilité

Une des notions les plus importantes en probabilité est celle de variable aléatoire (Une variable aléatoire est une fonction définie sur l'ensemble des résultats possibles d'une expérience aléatoire, telle qu'il soit possible de déterminer la probabilité pour...). Une variable (En mathématiques et en logique, une variable est représentée par un symbole. Elle est utilisée pour marquer un rôle dans une formule,...) aléatoire est une application qui à un résultat possible de l'expérience associe une valeur. Une variable aléatoire va donc prendre telle ou telle valeur suivant le résultat obtenu; et ce ne sont pas les valeurs possibles de la variable, ni la valeur qu'elle prend une fois que l'on connaît le résultat de l'expérience qui sont aléatoires, mais la valeur qu'elle va prendre avant d'avoir effectué l'expérience. Les variables aléatoires furent introduites à l'origine pour représenter un gain. Par exemple effectuons l'expérience suivante, lançons une pièce de monnaie et suivant que le résultat est pile nous gagnons dix euros, ou face nous perdons un euro. Soit G la variable aléatoire qui prend la valeur 10 lorsque nous obtenons pile et la valeur -1 lorsque nous obtenons face. G représente le gain à l'issue d'un lancer de la pièce.

La somme des probabilités de toutes les valeurs possibles d'une variable aléatoire valant un, ces probabilités sont en quelque sorte réparties sur ces différentes valeurs. On peut représenter cette répartition par un diagramme (Un diagramme est une représentation visuelle simplifiée et structurée des concepts, des idées, des constructions, des relations, des données statistiques, de l'anatomie etc. employé...) en bâton. Toute relation qui établit correspondance (La correspondance est un échange de courrier généralement prolongé sur une longue période. Le terme désigne des échanges de courrier personnels plutôt qu'administratifs.) entre les valeurs prises par une variable et leur probabilité s'appelle une loi (ou distribution) de probabilité. Il y a plusieurs lois discrètes importantes, telles que la loi uniforme discrète, la loi binomiale (En mathématiques, une loi binomiale de paramètres n et p correspond au modèle suivant :), la loi de Poisson (En statistique, la loi de Poisson de paramètre λ, ou loi des événements rares, correspond au modèle suivant:), la loi géométrique, la loi binomiale négative et la loi de Maxwell-Boltzmann.

Voir l'article loi de probabilité

Remarques sur les calculs de probabilité

Plusieurs problèmes de probabilités se ramènent à un calcul de dénombrement. La difficulté pour calculer des probabilités réside alors uniquement dans la détermination du nombre de cas possibles, du nombre de cas favorables à la réalisation d'un évènement ou du nombre de réalisations d'un évènement.

Il peut être aussi particulièrement difficile de tirer des conclusions significatives à partir des probabilités calculées. Une énigme amusante de probabilité, le problème de Monty Hall met en évidence certains pièges.

Pour en apprendre plus sur les fondements de la théorie des probabilités, voyez l'article sur les axiomes des probabilités et les articles sur le théorème de Cox-Jaynes et surtout le théorème de Bayes (Le théorème de Bayes est un résultat de base en théorie des probabilités, issu des travaux du révérend Thomas Bayes et retrouvé ensuite indépendamment par Laplace. Dans son unique article, Bayes...), qui expliquent l'utilisation des probabilités conditionnelles et des probabilités dites jadis subjectives (en fait, toute probabilité est de facto conditionnelle, ainsi que subjective).

Morphologie mathématique (Fonction associant à chaque résultat d'une expérience aléatoire une valeur réelle, et telle qu'on puisse attribuer une probabilité à chaque intervalle de valeurs de...)

On nomme morphologie mathématique l'étude des fonctions aléatoires (une fonction aléatoire se définit comme l'association à tout point d'un espace à 1, 2, 3 dimensions (Dans le sens commun, la notion de dimension renvoie à la taille ; les dimensions d'une pièce sont sa longueur, sa largeur et sa profondeur/son épaisseur, ou bien son diamètre si c'est une pièce...) ou plus d'une variable aléatoire - voir aussi Processus stochastiques) et la possibilité d'estimer au mieux ces fonctions aléatoires à partir de mesures (c'est-à-dire de réalisations de la fonction aléatoire). L'usage des corrélations permet d'extraire beaucoup plus d'information des mesures (voir krigeage) qu'un usage des probabilités en se privant de l'information spatiale. Cette branche des probabilités a été créée par le professeur Jean Serra de l'École des Mines de Paris (Paris est une ville française, capitale de la France et le chef-lieu de la région d’Île-de-France. Cette ville est construite sur une boucle de la Seine, au centre du bassin parisien, entre les confluents de la...) et est maintenant largement utilisée pour attaquer tous les problèmes où interviennent à la fois des probabilités et des coordonnées spatiales. Elle a suscité un appareil industriel nommé l'analyseur de texture qui établit par traitement d'image les corrélations dont elle a besoin (Les besoins se situent au niveau de l'interaction entre l'individu et l'environnement. Il est souvent fait un classement des besoins humains en trois grandes catégories : les besoins primaires, les besoins...).

Source: Wikipédia publiée sous licence CC-BY-SA 3.0.

Vous pouvez soumettre une modification à cette définition sur cette page. La liste des auteurs de cet article est disponible ici.