Théorème de Bayes

Le théorème de Bayes est un résultat de base en théorie des probabilités, issu des travaux du révérend Thomas Bayes et retrouvé ensuite indépendamment par Laplace.



Catégories :

Probabilités - Statistiques - Théorème de mathématiques

Recherche sur Google Images :


Source image : unige.ch
Cette image est un résultat de recherche de Google Image. Elle est peut-être réduite par rapport à l'originale et/ou protégée par des droits d'auteur.

Page(s) en rapport avec ce sujet :

  • En gros l'application du théorème permet d'établir que la probabilité... l'application du théorème de Bayes est monnaie courante. Comme les tests médicaux... (source : er.uqam)
  • Un corollaire au théorème des probabilités totales est connu sous le nom de ... L'application du théorème de Bayes est à la base de toute une branche de la... (source : mathsv.univ-lyon1)
  • ... Le théorème de Bayes est utilisé en sciences forensiques comme règle... représenté par des distributions de probabilité – que l'autorité... (source : doping.chuv)

Le théorème de Bayes est un résultat de base en théorie des probabilités, issu des travaux du révérend Thomas Bayes et retrouvé ensuite indépendamment par Laplace. Dans son unique article, Bayes cherchait à déterminer ce qu'on appellerait aujourd'hui la distribution a posteriori de la probabilité p d'une loi binomiale. Ses travaux ont été édités et présentés à titre posthume (1763) par son ami Richard Price dans Un essai pour résoudre un problème dans la théorie des risques (An Essay towards solving a Problem in the Doctrine of Chances). Les résultats de Bayes ont été repris et étendus par le mathématicien français Laplace dans un essai de 1774, lequel n'était apparemment pas au fait du travail de Bayes.

Le résultat principal (la Proposition 9 de l'essai) obtenu par Bayes est le suivant : en considérant une distribution uniforme du paramètre binomial p et une observation m d'une loi binomiale {\mathcal B}(n+m,p), où m est par conséquent le nombre d'issues positives observées et n le nombre d'échecs observés, la probabilité que p soit entre a et b sachant m vaut :

 
\frac {\displaystyle{\int_aˆb C_{n+m}ˆm \,pˆm (1-p)ˆn\,dp}}
      {\displaystyle{\int_0ˆ1 C_{n+m}ˆm \,pˆm (1-p)ˆn\,dp}}

Ses résultats préliminaires, surtout les propositions 3, 4 et 5 impliquent le résultat qu'on nomme théorème de Bayes (énoncé plus bas) mais il ne semble pas que Bayes se soit concentré ou ait insisté sur ce résultat.

Ce qui est «bayésien» (au sens actuel du mot) dans la Proposition 9, c'est que Bayes ait présenté cela comme une probabilité sur le paramètre p. Cela revient à dire qu'on peut déterminer, non seulement des probabilités à partir d'observations des issues d'une expérience, mais également les paramètres relatifs à ces probabilités. C'est le même type de calcul analytique qui sert à déterminer par inférence les deux. Par contre, si on en croit une interprétation fréquentiste, il ne peut pas exister de probabilité de distribution du paramètre p et donc, on ne peut raisonner sur p qu'avec un raisonnement d'inférence non-probabiliste.

Le théorème de Bayes en Statistique

Le théorème de Bayes est utilisé dans l'inférence statistique pour mettre à jour ou actualiser les estimations d'une probabilité ou d'un paramètre quelconque, à partir des observations et des lois de probabilité de ces observations. Il y a une version discrète et une version continue du théorème.

En théorie des probabilités, le théorème de Bayes décrit des probabilités conditionnelles : étant donné deux évènements A et B, le théorème de Bayes sert à déterminer la probabilité de A sachant B, si on connaît les probabilités :

Ce théorème élémentaire (initialement appelé «de probabilité des causes») a des applications énormes.

Pour aboutir au théorème de Bayes, on part d'une des définitions de la probabilité conditionnelle :

 P(A\vert B) P(B) = P(A\cap B) = P(B\vert A) P(A)

en notant P(A\cap B) la probabilité que A et B aient l'ensemble des deux lieu. En divisant de part et d'autre par P (B), on obtient :

P(A|B) = \frac{P(B | A) P(A)}{P(B)}

soit le théorème de Bayes.

Chaque terme du théorème de Bayes a une appellation usuelle.

Le terme P (A) est la probabilité a priori de A. Elle est «antérieure» au sens qu'elle précède toute information sur B. P (A) est aussi nommée la probabilité marginale de A. Le terme P (A|B) est nommée la probabilité a posteriori de A sachant B (ou encore de A sous condition B). Elle est «postérieure», au sens qu'elle dépend directement de B. Le terme P (B|A), pour un B connu, est nommé la fonction de vraisemblance de A. De même, le terme P (B) est nommé la probabilité marginale ou a priori de B.

Autres écritures du théorème de Bayes

On perfectionne quelquefois le théorème de Bayes en remarquant que

P(B) = P(A\cap B) + P(AˆC \cap B) = P(B|A) P(A) + P(B|AˆC) P(AˆC)

pour réécrire le théorème ainsi :

P(A|B) = \frac{P(B | A) P(A)}{P(B|A)P(A) + P(B|AˆC)P(AˆC)}

AC est le complémentaire de A. D'une façon plus générale, si {Ai} est une partition de la totalité des envisageables,

P(A_i|B) = \frac{P(B | A_i) P(A_i)}{\sum_j P(B|A_j)P(A_j)}\, ,

pour tout Ai de la partition.

Voyez aussi le théorème des probabilités totales.

La démarche d'I. J. Good

I. J. Good reprend une idée d'Alan Turing : les probabilités deviennent plus faciles à manier si au lieu de raisonner sur une probabilité p, on travaille sur une quantité construite de la façon suivante :

Ev (p) = ln (p/ (1-p) ) ou Ev (p) = log (p/ (1-p) )

qu'il appelle weight of evidence, terme auquel on peut donner différentes traductions : «poids de témoignage», «valeur de plausibilité», etc. Ce qui est intéressant à en retenir est ceci :

En calculs de fiabilité, où il faut manier des probabilités particulièrement grandes (1-ε) et particulièrement petites (ε), travailler en termes d'evidences permet une visualisation énormément plus claire des classes de sécurité : une évidence de -70 dB correspond à une probabilité de 10-7, etc. On peut aussi travailler en gardant en toutes circonstances le même nombre de décimales et sans manipuler d'exposants, ce qui perfectionne la lisibilité des calculs.

Théorème de Bayes pour des densités de probabilité

Il existe aussi une version du théorème pour les distributions continues, qui se déduit simplement de la densité jointe des observations et des paramètres, produit de la vraisemblance par la densité a priori sur les paramètres, par application de la définition des lois et des densités conditionnelles.

La forme continue du théorème de Bayes peut aussi s'interpréter comme indiquant que la distribution a posteriori s'obtient en multipliant la distribution a priori, par la vraisemblance, et en effectuant une normalisation (du fait qu'il s'agit d'une densité de probabilité). En calcul bayésien, on prend par conséquent l'habitude de travailler avec des signes de proportionnalité plutôt que des égalités pour diminuer la complexité des expressions puisque les constantes manquantes se retrouvent par intégration (en principe). Les techniques de simulation de type Monte Carlo et MCMC n'utilisent d'ailleurs pas ces constantes de normalisation.

Exemple 1 :

L'exemple le plus connu est le suivant : si on observe K numéros de séries d'appareils, que le plus grand est S, et qu'on les suppose numérotés à partir de 1, quelle est la meilleure estimation du nombre N d'appareils existants ? On démontre que le meilleur estimateur simple est N = S. (K − 1) / (K − 2) , et en particulier que la précision de cette estimation croît particulièrement vite, même avec de petites valeurs de K.


Exemple 2 :

Autre exemple envisageable : supposons qu'une proportion p inconnue d'électeurs vote «oui» avec p ∈ [0, 1]. On tire de la population un échantillon de n électeurs parmi lesquels un nombre x a voté «oui». La fonction de vraisemblance vaut donc :

L(p) = \text{(constante a) } \times pˆ{x} (1-p)ˆ{n-x}

En multipliant cela par la fonction de densité de probabilité a priori de p et en normalisant, on calcule la distribution de probabilité a posteriori de p, ce qui injecte l'information des nouvelles données du sondage. Ainsi, si la probabilité a priori de p est uniforme sur l'intervalle [0, 1], alors la probabilité a posteriori aura la forme d'une fonction bêta.

f(p|x)=\text{(constante b) } \times pˆ{x} (1-p)ˆ{n-x}

la constante étant différente de celle de la fonction de vraisemblance.

La fonction bêta se retrouve avec une grande régularité dans ces questions d'estimation. Le calcul de la variation d'entropie entre l'ancienne et la nouvelle distribution sert à quantifier précisément, en bits, l'information obtenue.

Voir aussi l'article Plan d'expérience et le problème dit du bandit manchot.

Inférence bayésienne

Article détaillé : Inférence bayésienne.

Les règles de la théorie mathématique des probabilités s'appliquent à des probabilités comme telles, pas seulement à leur application comme fréquences relatives d'évènements aléatoires. On peut décider de les appliquer à des degrés de croyance en certaines propositions. Ces degrés de croyance s'affinent au regard d'expériences en appliquant le théorème de Bayes.

Le Théorème de Cox-Jaynes justifie actuellement particulièrement bien cette approche, qui n'eut longtemps que des fondements intuitifs et empiriques.

Exemples

De quelle urne vient la boule ?

À titre d'exemple, imaginons deux urnes remplies de boules. La première contient dix (10) boules noires et trente (30) blanches ; la seconde en a vingt (20) de chaque. On tire sans prédilection spécifique une des urnes au hasard et dans cette urne, on tire une boule au hasard. La boule est blanche. Quelle est la probabilité qu'on ait tiré cette boule dans la première urne sachant qu'elle est blanche?

Intuitivement, on comprend quoiqu'il est plus probable que cette boule provienne de la première urne, que de la seconde. Donc, cette probabilité devrait être supérieure à 50 %. La réponse exacte vient du théorème de Bayes.

Soit H1 l'hypothèse «On tire dans la première urne.» et H2 l'hypothèse «On tire dans la seconde urne.». Comme on tire sans prédilection spécifique, P (H1) = P (H2)  ; qui plus est , comme on a sans doute tiré dans une des deux urnes, la somme des deux probabilités vaut 1 : chacune vaut 50 %.

Notons'D'l'information donnée «On tire une boule blanche.» Comme on tire une boule au hasard dans une des urnes, la probabilité de D sachant/sous l'hypothèse H1 vaut :

P(D | H_1) = \frac{30}{40} = 75\,\%

De même si on considère H2,

P(D | H_2) = \frac{20}{40} = 50\,\%

La formule de Bayes dans le cas discret nous donne par conséquent.


\begin{matrix} P(H_1 | D) &=&
\frac{P(H_1) \cdot P(D | H_1)}{P(H_1) \cdot P(D | H_1) + P(H_2) \cdot P(D | H_2)}
\\  \\  \ & =&
\frac{50\% \cdot 75\%}{50\% \cdot 75\% + 50\% \cdot 50\%}
\\  \\  \ & =& 60\%
\end{matrix}

Avant qu'on regarde la couleur de la boule, la probabilité d'avoir choisi la première urne est une probabilité a-priori, P (H1) soit 50 %. Après avoir regardé la boule, on révise notre jugement et on considère P (H1|D), soit 60 %, ce qui confirme notre intuition première.

Pronostics contradictoires

Qui croire, et avec quelle probabilité?

Cette approche bayésienne est utilisée par les centres anti-poison pour détecter le plus vite envisageable et avec le maximum de précision le type d'empoisonnement dont souffre certainement un patient.

Aspects sociaux, juridiques et politiques

Un problème régulièrement soulevé par l'approche bayésienne est le suivant : si une probabilité de comportement (délinquance, par exemple) est fortement dépendante de certains facteurs sociaux, culturels ou héréditaires, alors :

«Faux positifs» médicaux

Article détaillé : Faux positif.

Les faux positifs sont une difficulté inhérente à l'ensemble des tests : aucun test n'est parfait. Quelquefois, le résultat sera positif à tort, ce qu'on appelle quelquefois risque du premier ordre ou risque alpha.

A titre d'exemple, lorsque on teste une personne pour savoir si elle est infectée par une maladie, il y a un risque le plus souvent infime que le résultat soit positif tandis que le patient n'a pas contracté la maladie. Le problème alors n'est pas de mesurer ce risque dans l'absolu (avant de procéder au test ), il faut toujours déterminer la probabilité qu'un test positif le soit à tort. Nous allons montrer comment, dans le cas d'une maladie particulièrement rare, le même test d'autre part particulièrement fiable peut aboutir à une nette majorité de positifs illégitimes.

Imaginons un test extrêmement fiable :

Imaginons que la maladie ne touche qu'une personne sur mille, soit avec une probabilité 0, 001. Cela peut paraître peu mais dans le cas d'une maladie mortelle, c'est énorme. Nous avons l'ensemble des informations nécessaires pour déterminer la probabilité qu'un test soit positif à tort, ce qui peut causer un surdiagnostic.

Désignons par A l'évènement «Le patient a contracté la maladie» et par B l'évènement «Le test est positif». La seconde forme du théorème de Bayes dans le cas discret donne alors :


\begin{matrix}
P(A|B) &= &
\frac{0,99 \times 0,001}{0,99\times 0,001 + 0,05\times 0,999}\, ,\\ \\ &\approx &0,019\,
\end{matrix}

Sachant que le test est positif, la probabilité que le patient soit sain vaut par conséquent environ : (1 − 0, 019) = 0, 981. Du fait du particulièrement petit nombre de malades,

Si le traitement est particulièrement lourd, coûteux ou dangereux pour un patient sain, il peut être alors inadequat de traiter l'ensemble des patients positifs sans risque avec un test complémentaire (qui sera probablement plus précis et plus coûteux, le premier test n'ayant servi qu'à écarter les cas les plus évidents).

On a tout de même réussi avec le premier test à isoler une population vingt fois moindre qui contient quasiment l'ensemble des malades. En procédant à d'autres tests, on peut espérer perfectionner la fiabilité du test . Le théorème de Bayes nous montre que dans le cas d'une probabilité faible de la maladie recherchée, le risque d'être déclaré positif à tort a un impact particulièrement fort sur la fiabilité. Le dépistage d'une maladie rare telle que le cancer peut causer le surdiagnostic.

Références

Différentes versions de l'essai original, en anglais

Commentaires en anglais

Autres références

Recherche sur Amazone (livres) :



Ce texte est issu de l'encyclopédie Wikipedia. Vous pouvez consulter sa version originale dans cette encyclopédie à l'adresse http://fr.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_de_Bayes.
Voir la liste des contributeurs.
La version présentée ici à été extraite depuis cette source le 10/03/2010.
Ce texte est disponible sous les termes de la licence de documentation libre GNU (GFDL).
La liste des définitions proposées en tête de page est une sélection parmi les résultats obtenus à l'aide de la commande "define:" de Google.
Cette page fait partie du projet Wikibis.
Accueil Recherche Aller au contenuDébut page
ContactContact ImprimerImprimer liens d'évitement et raccourcis clavierAccessibilité
Aller au menu