Page d'accueil encyclopedie-enligne.com en page d'accueil
Liste Articles: [0-A] [A-C] [C-F] [F-J] [J-M] [M-P] [P-S] [S-Z] | Liste Catégories | Une page au hasard | Pages liées

Probabilité


Probabilité vient du latin probare (prouver, ou tester). Le mot probable signifie « qui peut se produire » dans le cas de futures éventualités, ou « certainement vrai », « vraisemblable » dans le cas d'inférences de l'évidence. (Voir également la théorie des probabilités)


Ce que les mathématiciens appellent probabilité est la théorie mathématique que nous utilisons pour décrire et quantifier l'incertain. Dans un plus large contexte, (voir les interprétations de la probabilité) le mot probabilité est utilisé avec d'autres soucis à l'esprit.

L'incertitude peut naître de notre ignorance, être due à un embrouillement ou une incompréhension, ou provoquée par l'aspect aléatoire essentiel de la nature. Dans tous les cas, nous mesurons l'incertitude des événements sur une échelle de zéro (pour les événements impossibles) à un (pour les événements certains).

Les axiomes des probabilités forment les fondements de la théorie des probabilités. Le calcul d'une probabilité peut souvent être déterminé par l'utilisation de la combinatoire ou en appliquant directement les axiomes. Les applications des probabilités incluent aussi les statistiques, qui sont habituellement basées sur l'idée de distribution de probabilité et le théorème de la limite centrale, ainsi que la théorie de la décision, les stratégies mixtes en théorie des jeux, et le très vaste domaine de l'estimation optimale par usage de la loi de Bayes, qui sert de fondement à une grande partie des applications de décision automatique (imagerie médicale et astronomique, reconnaissance de caractères, filtres anti-pourriel).

Il existe deux façons de considérer les probabilités. La première historiquement a consisté à effectuer des calculs combinatoires dans le cas de jeux de hasard (Pascal, Bernoulli, Polya...). La seconde, qui a commencé à se répandre vers 1974, est plus générale et fondée sur le Théorème de Cox-Jaynes, qui démontre sous des hypothèses raisonnables que tout mécanisme d'apprentissage est soit isomorphe à la théorie des probabilités, soit inconsistant. Dans cette seconde approche, la probabilité est considérée comme la traduction numérique d'un état de connaissance et donc une valeur subjective (mais néanmoins obtenue par un processus rationnel ; la subjectivité s'explique par le fait que le contexte d'interprétation d'un événement diffère chez chacun. C'est l'école bayésienne (I.J. Good, Myron Tribus, E.T. Jaynes...). Dans la pratique, seule l'interprétation change et les calculs sont bien entendu les mêmes.

L'idée de probabilité est le plus souvent séparée en deux concepts:

  1. la probabilité de l'aléatoire, qui représente la probabilité d'événements futurs dont la réalisation dépend de quelques phénomènes physiques aléatoires, comme obtenir un as en lançant un ou obtenir un certain nombre en tournant une roue ;
  2. la probabilité de l'épistémé, qui représente l'incertitude que nous avons devant des affirmations, lorsque nous ne disposons pas de la connaissance complète des circonstances et des causalités. De telles propositions peuvent avoir été vérifiées sur des événements passés ou seront peut-être vraies dans le futur, mais ne se vérifient pas. Quelques exemples de probabilités de l'épistémé sont :

Une probabilité est-elle réductible à notre incapacité à prédire précisément quelles sont les forces qui pourraient affecter un phénomène, ou font-elles partie de la nature de la réalité elle-même (ou plus précisément de notre perception de celle-ci), ainsi que le suggère la mécanique quantique ? La question reste à ce jour ouverte (voir aussi inégalités de Heisenberg).

Bien que les mêmes règles mathématiques s'appliquent indépendamment de l'interprétation choisie, le choix a des implications philosophiques importantes : parlons-nous jamais du monde réel (et a-t-on le droit d'en parler ?) ou bien simplement des représentations que nous en avons ? Ne pouvant par définition différencier le « monde réel » de ce que nous connaissons, il est bien entendu impossible de trancher de notre point de vue : la question est pour nous, par nature, subjective (voir aussi libre arbitre).

Sommaire

Probabilité en mathématiques

L'existence de jeux de hasard motiva depuis la nuit des temps et jusque de nos jours l'intérêt d'estimer aussi précisément que possible une probabilité (un Centralien, Patrice des Moutis, défraya la chronique dans les années 60-70 pour arriver à s'enrichir régulièrement au PMU en utilisant des modèles bayésiens ; il ne s'agissait nullement d'une martingale, mais tout simplement d'arriver à modéliser les probabilités en fonction des informations connues un peu plus précisément que les autres joueurs travaillant simplement « au flair »). En revanche, des descriptions mathématiques rigoureuses de ce type de problèmes ne virent le jour que récemment, en particulier depuis

Pour donner un sens mathématique possible, et par ailleurs réducteur, à une probabilité, considérez une pièce de monnaie que vous lancez. Intuitivement, nous considérons la probabilité d'obtenir face à n'importe quel lancer de la pièce égale à 1/2; mais que signifie opérationnellement cette phrase ? Si nous lançons la pièce 9 fois de suite, la pièce ne pourra évidemment pas tomber « quatre fois et demie » de chaque côté (!) ; il est même possible d'obtenir 6 « face » et 3 « pile », voire 9 « face » de suite. Que signifie dans ce cas le rapport 1/2 dans ce contexte et que pouvons-nous exactement en faire ?

Approche fréquentiste

Une approche initiale a été d'utiliser ce qui sera plus tard formalisé sous le nom de loi des grands nombres : nous supposons alors que nous effectuons un certain nombre de lancers d'une pièce, chaque lancer de la pièce étant indépendant - ce qui signifie que l'issue de chaque lancer n'est pas affectée par le lancer précédent. C'est ce que l'on nomme le modèle fréquentiste.

Si nous effectuons N lancers de la pièce et que NF représente le nombre de fois où la pièce donne face, alors nous pouvons, pour n'importe quel N, considérer la proportion NF/N.

À mesure que N devient de plus en plus grand, nous nous attendons dans notre exemple à ce que le rapport NF/N devienne de plus en plus proche de 1/2. Cela nous suggère de définir la probabilité P(F) d'obtenir face comme étant la limite, quand N tend vers l'infini, de la suite des proportions :

P(F) = \lim_{N \to \infty}{N_F \over N}

Dans la pratique, nous ne pouvons bien sûr pas lancer une pièce une infinité de fois ; aussi en général cette formule s'applique aux situations dans lesquelles nous avons a priori déjà assigné, à une issue particulière, une probabilité (dans ce cas, nous avons supposé que la pièce « était honnête » et donc que la probabilité d'obtenir face devait être égale à 1/2). La loi des grands nombres dit alors que, pour une probabilité P(F) donnée, et n'importe quel réel strictement positif ε arbitrairement petit, il existe un nombre n tel que pour tout N> n on ait,

\left| P(F) - {N_F \over N}\right| < \epsilon

En d'autres termes, en disant que « la probabilité d'obtenir face est égale à 1/2 », nous voulons dire que, si nous lançons notre pièce assez souvent, au final le rapport du nombre de faces par le nombre total de lancers deviendra arbitrairement proche de 1/2 ; et restera au moins aussi proche de 1/2 aussi longtemps que nous continuerons à effectuer des lancers supplémentaires de la pièce. Remarquons que la convergence ne s'effectue que de façon relative. L'écart absolu entre le nombre de « pile » et le nombre de « face » ne fait qu'augmenter à mesure du passage du temps.

Dans son ouvrage Les certitudes du hasard, le professseur Marcel Boll mentionne le résultat contre-intuitif suivant : si un million de Parisiens avait décidé de jouer à pile ou face en 1789 jusqu'à ce qu'ils aient eu un nombre égal de « pile » et de « face », à raison d'un lancer par seconde, 500 000 d'entre eux auraient cessé de jouer dès la deuxième seconde, mais... plusieurs seraient encore en train de jouer aujourd'hui !

L'aspect de cette approche intuitive de la probabilité est parfois troublant quand il est appliqué à des situations du monde réel. Par exemple, dans la pièce Rosencrantz and Guildenstern are Dead de Tom Stoppard, un acteur lance une pièce qui donne répétitivement face maintes et maintes fois, disons une centaine de fois. Il n'arrive pas à décider si cet événement est seulement le fruit du hasard - après tout, cela est possible (bien que peu probable) qu'une pièce « honnête » donne ce résultat - ou s'il doit en conclure que la pièce est truquée.

La possibilité néanmoins de tirer de l'observation une modification parfaitement objective de nos probabilités a priori (qui restent dans l'affaire le seul élément subjectif) est établie par la relation de Bayes, en particulier quand on l'exprime sous la forme que I. J. Good nomme weight of evidence : Ev(p) = ln(p/(1-p)). La relation de Bayes devient alors additive, le facteur à ajouter ne dépend plus des probabilités a priori, et toute observation apporte une information objective et quantifiable commune à tous les observateurs.

Les weights of evidence varient de moins l'infini à plus l'infini, contrairement aux probabilités qui sont représentées par des nombres entre 0 et 1 et qui permettent très mal de distinguer des nombres proches de ces bornes (qui voit bien clairement, par exemple, la différence entre une probabilité de 0,999 et celle 0,9999 ?). Pourtant, on voit très bien si l'on considère les complémentaires que 0,001 est dix fois plus grand que 0,0001. Le passage par la notation ln (p/(1-p)) élimine cette asymétrie gênante et permet de traiter beaucoup plus commodément, en théorie de la fiabilité, les très petites probabilités. On exprime alors celles-ci en decibels (dB, comme en acoustique), qui se traitent de façon additive. L'idée en a été suggérée pour la première fois par le mathématicien britannique Alan Turing.

Limites de l'approche fréquentiste

Cette ancienne approche « fréquentiste » pose deux types de problème :

Restriction aux phénomènes répétables

Supposons une pièce ou un dé réalisés en glace : on attribue à « pile » dans un cas, à l'as dans l'autre, une probabilité respective de 1/2 et 1/6ème. On ne peut pourtant espérer les lancer, en tout cas à température ambiante, qu'un nombre très limité de fois, et il est exclu d'espérer faire quelque observation dessus avec la loi des grands nombres. Devons nous pour autant nous priver dans leur cas d'utiliser les probabilités ?

Certes, on peut imaginer des lancers avec des milliers d'autres pièces ou dés similaires pour retrouver des grands nombres, mais puisqu'ils n'existent que dans notre représentation mentale, ce sont bien des états de connaissance.

Il est clair qu'on a le droit en fiabilité de parler d'une probabilité de 10^-12 sans pour autant effectuer mille milliards d'essais.

Idée erronée qu'une probabilité est nécessairement objective

Cela est illustré par le paradoxe des camions prospecteurs :

Un forage pétrolier coûtant cher, on se livre au préalable à des campagnes de prospection estimant une probabilité de trouver du pétrole ou non en forant à un endroit donné. Cette probabilité conduira en fonction de sa valeur, des coûts, et des réserves estimées (en probabilité elles aussi) à la décision de forer ou non.

Imaginons deux camions prospecteurs l'un travaillant pour l'entreprise A et en début de campagne de mesure. Il estime la probabilité de présence de pétrole à 57%. Un autre juste en face travaillant pour l'entreprise B et en fin de campagne de mesure (secret professionnel : des camions de la compagnie C œuvrant pour des clients différents ne se communiquent pas leurs résultats) a ramené en fin de compte cette probabilité à 24 %. Tous les deux ont raison en fonction des mesures dont ils disposent.

Quant au pétrole, il y en a, ou il n'y en a pas. Du point de vue de la roche, la « probabilité » est 1 ou 0, rien d'autre.

C'est ainsi que des vérités multiples coexistent, parfois entre individus, parfois aussi chez le même individu.

Cela explique le paradoxe invoqué par Auguste Detoeuf :

« J'ai souvent vu des experts être d'avis contraires. Je n'en ai jamais vu aucun avoir tort » (Propos de O.L. Barenton, confiseur, 1951).

Le Théorème de Cox-Jaynes conduit à considérer en fait toute probabilité comme subjective, ou plus exactement propre au vécu personnel de l'observateur, et qui évolue à mesure que ses connaissances se raffinent.

Cas du continu

Les probabilités peuvent ne pas concerner que des résultats discrets comme dans le jeu de pile ou face, mais également des résultats continus.

En théorie des probabilités, un événement se décrit comme un sous-ensemble « mesurable » d'un « univers » (ou ensemble des « possibles »). Les « événements » sont des objets auxquels sont associées des probabilités. On nomme alors probabilité une application d'un ensemble d'événements à valeurs dans le segment [0, 1], et l'image par cette application d'un événement est appelée probabilité de l'événement. Dans cette optique, des probabilités doivent être associées aux événements de telle manière que pour des événements deux à deux disjoints (c'est-à-dire, d'intersection deux à deux vide) A1, A2, A3 ..., la probabilité de leur union apparaît comme la somme de leurs probabilités, ou, avec les notations mathématiques,

P\left(A_1\cup A_2\cup A_3\cup\cdots\right) =P(A_1)+P(A_2)+P(A_3)+\cdots.

Dans le cas particulier d'une « distribution de probabilité discrète » l'univers est considéré comme un ensemble \left\{\,x_1,x_2,x_3,...\,\right\} de résultats à chacun desquels un nombre positif est associé en tant que sa probabilité. Les singletons \{\,x_i\,\} sont des « événements élémentaires ». Un des plus simples univers discrets est un ensemble fini \{\,x_1,x_2,x_3,...,x_n\,\}, à chaque élément duquel, la même probabilité 1/n est associée. Un exemple d'univers qui n'est pas discret est le segment [ 0, 1 ]. À tout sous-intervalle ]a,b[ de [0, 1] la longueur de ]a, b[ est associée comme probabilité de ce sous-intervalle. La probabilité associée à n'importe quel singleton est dans ce cas 0.

Représentation et interprétation des valeurs de probabilité

Nous comprenons généralement que la valeur 0 représente des événements pratiquement considérés comme impossibles (en toute rigueur, la définition de la probabilité par l'intégrale de Lebesgue rend théoriquement possible un événement de probabilité zéro, par exemple celle qu'un nombre réel pris au hasard se trouve être un entier !) tandis que le nombre 1 représente au contraire des événements pratiquement certains (bien qu'il y ait des interprétations plus avancées de la probabilité qui emploient des définitions plus précises). Les valeurs entre 0 et 1 sont des mesures de la probabilité de la réalisation, dans l'état de connaisance de l'observateur, de quelques événements.

En langage courant, ces nombres sont souvent exprimés comme des fractions ou pourcentages, et doivent être convertis sous forme de nombres à virgule, afin d'effectuer des calculs avec ceux-ci. Par exemple, si deux événements sont tous deux équiprobables, comme obtenir pile, ou obtenir face en lançant une pièce de monnaie, nous exprimons la probabilité de chaque événement comme étant « 1 sur 2 » ou « 50% » ou encore « 1/2 », où le numérateur de la fraction est le nombre de réalisations de l'événement cible et le dénominateur est le nombre total des possibles relatifs à tous les événements. Pour déterminer la probabilité, nous devons effectuer une division et l'écrire sous la forme « 0,5 ».

D'autres façons pour exprimer les probabilités utilisent le mot « chance »; il y a plusieurs formulations qui font intervenir la chance :


Distributions, lois

Une des notions les plus importantes en probabilité est celle de variable aléatoire. Une variable aléatoire est une application qui à un résultat possible de l'expérience associe une valeur. Une variable aléatoire va donc prendre telle ou telle valeur suivant le résultat obtenu; et ce ne sont pas les valeurs possibles de la variable, ni la valeur qu'elle prend une fois que l'on connaît le résultat de l'expérience qui sont aléatoires, mais la valeur qu'elle va prendre avant d'avoir effectué l'expérience. Les variables aléatoires furent introduites à l'origine pour représenter un gain. Par exemple effectuons l'expérience suivante, lançons une pièce de monnaie et suivant que le résultat est pile nous gagnons dix euros, ou face nous perdons un euro. Soit G la variable aléatoire qui prend la valeur 10 lorsque nous obtenons pile et la valeur 1 lorsque nous obtenons face. G représente le gain à l'issue d'un lancer de la pièce.

La somme des probabilités de toutes les valeurs possibles d'une variable aléatoire valant un, ces probabilités sont en quelque sorte réparties sur ces différentes valeurs. On peut représenter cette répartition par un diagramme en bâton. Toute relation qui établit correspondance entre les valeurs prises par une variable et leur probabilité s'appelle une distribution de probabilité. Il y a plusieurs distributions discrètes importantes, telles que la distribution uniforme discrète, la distribution de Poisson, la distribution binomiale, la distribution binomiale négative et la distribution de Maxwell-Boltzmann.

Voir l'article loi de probabilité

Remarques sur les calculs de probabilité

Plusieurs problèmes de probabilités se ramènent à un calcul de dénombrement. La difficulté pour calculer des probabilités se situe alors uniquement dans la détermination du nombre de cas possibles, du nombre de cas favorables à la réalisation d'un événement ou du nombre de réalisations d'un événement.

Il peut être aussi particulièrement difficile de tirer des conclusions signicatives à partir des probabilités calculées. Une énigme amusante de probabilité, le problème de Monty Hall met en evidence certains pièges.

Pour en apprendre plus sur les fondements de la théorie des probabilités, voyez l'article sur les axiomes des probabilités et les articles sur le théorème de Cox-Jaynes et surtout le théorème de Bayes, qui expliquent l'utilisation des probabilités conditionnelles et des probabilités dites jadis subjectives (en fait, toute probabilité est de facto conditionnelle, ainsi que subjective).

Morphologie mathématique

On nomme morphologie mathématique l'étude des fonctions aléatoires (une fonction aléatoire se définit comme l'association à tout point d'un espace à 1, 2, 3 dimensions ou plus d'une variable aléatoire) et la possibilité d'estimer au mieux ces fonctions aléatoires à partir de mesures (c'est-à-dire de réalisations de la fonction aléatoire). L'usage des corrélations permet d'extraire beaucoup plus d'information des mesures (voir krigeage) qu'un usage des probabilités en se privant de l'information spatiale. Cette branche des probabilités a été créée par le professeur Jean Serra de l'École des Mines de Paris et est maintenant largement utilisée pour attaquer tous les problèmes où interviennent à la fois des probabilités et des coordonnées spatiales. Elle a suscité un appareil industriel nommé l'analyseur de texture qui établit par traitement d'image les corrélations dont elle a besoin.

Voir aussi



This site support the Wikimedia Foundation. This Article originally from Wikipedia. All text is available under the terms of the GNU Free Documentation License Page HistoryOriginal ArticleWikipedia