Probabilités, diagnostic et inférence bayésienne

icône de pdf
Signaler
Dans cette leçon, tu vas apprendre à utiliser les probabilités pour raisonner face à l’incertitude, en particulier grâce au théorème de Bayes. Tu découvriras comment mettre à jour une estimation initiale à partir d’une nouvelle information, pour affiner un diagnostic ou une prédiction. Mots-clés : probabilités, théorème de Bayes, inférence bayésienne, probabilité conditionnelle, diagnostic, raisonnement statistique.

Introduction

Les probabilités sont un outil fondamental pour raisonner dans l’incertitude. Elles permettent d’évaluer des risques, de prendre des décisions et de mettre à jour des estimations en fonction de nouvelles informations. Dans de nombreux domaines comme la médecine, la justice ou l’intelligence artificielle, elles sont utilisées pour effectuer des diagnostics, formuler des prédictions ou ajuster des conclusions à partir de données.

Parmi les approches probabilistes, l’inférence bayésienne occupe une place centrale : elle permet d’actualiser une probabilité initiale (appelée *a priori*) en tenant compte d’un élément nouveau (appelé donnée ou information). Cette mise à jour produit une probabilité révisée, dite *a posteriori*.

Cette leçon explore les fondements des probabilités, la logique des raisonnements diagnostiques, et l’usage du théorème de Bayes dans une perspective accessible mais rigoureuse.

Les probabilités : notions de base

Définition et cadre discret

Dans un cadre discret (où l’on considère un nombre fini d’événements possibles), la probabilité d’un événement est un nombre compris entre 00 et 11. Elle mesure la chance qu’un événement se produise :

  • P=0P = 0 signifie que l’événement est considéré comme impossible dans le modèle.

  • P=1P = 1 signifie que l’événement est considéré comme certain.

Remarque : dans des modèles continus plus avancés (non abordés ici), un événement de probabilité 0 peut parfois se produire. Nous restons ici dans le cadre des situations discrètes classiques du secondaire.

Exemples :

  • Lancer une pièce équilibrée → P(Pile)=1/2P(Pile) = 1/2.

  • Tirer un roi dans un jeu de 5252 cartes → P(Roi)=4/52=1/13P(Roi) = 4/52 = 1/13.

Événements et probabilités conditionnelles

L’intersection (ou conjonction) de deux événements A et B, notée A ∩ B, correspond à la situation où les deux événements ont lieu simultanément.

Si A et B sont indépendants :

P(AB)=P(A)×P(B)P(A ∩ B) = P(A) × P(B)

La probabilité conditionnelle exprime la probabilité d’un événement sachant qu’un autre s’est produit :

P(AB)=P(AB)/P(B)P(A | B) = P(A ∩ B) / P(B)

Elle permet de modéliser les situations où les événements sont liés.

Le théorème de Bayes : principe et usage

Intuition du théorème

Le théorème de Bayes permet de réviser une probabilité à la lumière d’une information nouvelle. Il permet de calculer une probabilité conditionnelle dans l’autre sens : au lieu de connaître la probabilité de B sachant A, on déduit celle de A sachant B.

P(AB)=[P(BA)×P(A)]/P(B)P(A | B) = [P(B | A) × P(A)] / P(B)

Cette formule permet de repasser d’un sens de conditionnement à l’autre, ce qui est indispensable en diagnostic.

Exemple général

  • A : l’événement « une personne est malade ».

  • B : l’événement « le test est positif ».

On veut connaître P(A | B), la probabilité qu’une personne soit malade sachant que son test est positif.

Or on connaît généralement :

  • P(BA)P(B | A) : probabilité d’avoir un test positif quand on est malade (sensibilité).

  • P(A)P(A) : probabilité d’être malade dans la population (*a priori*).

  • P(B)P(B) : probabilité totale d’un test positif.

La formule de Bayes permet alors de calculer la probabilité a posteriori P(A | B), c’est-à-dire l’estimation révisée après observation du test.

Diagnostic médical : un exemple concret

Cadre et données

Imaginons un test pour une maladie rare :

  • P(Malade)=0,01P(Malade) = 0,0111 % des personnes sont malades.

  • P(Test+Malade)=0,95P(Test + | Malade) = 0,95 → sensibilité.

  • P(Test+Nonmalade)=0,10P(Test + | Non malade) = 0,10 → faux positifs.

On cherche P(MaladeTest+)P(Malade | Test +), la probabilité que la personne soit effectivement malade sachant que le test est positif.

Formule complète

Dénominateur :

P(Test+)=0,95×0,01+0,10×0,99=0,0095+0,099=0,1085P(Test +) = 0,95 × 0,01 + 0,10 × 0,99 = 0,0095 + 0,099 = 0,1085

Application de Bayes :

P(MaladeTest+)=0,0095/0,10850,0876P(Malade | Test +) = 0,0095 / 0,1085 ≈ 0,0876

Donc : même avec un test positif, la probabilité que la personne soit malade n’est que de 8,768,76 %. Cela s’explique par la faible fréquence de la maladie.

À retenir

Le théorème de Bayes permet de réévaluer une estimation a priori en fonction d’un test ou d’une observation. Cette probabilité révisée est appelée probabilité a posteriori.

L’inférence bayésienne : une méthode de mise à jour

Estimer avant, corriger après

L’inférence bayésienne est une méthode de raisonnement qui permet de réviser une estimation a priori en fonction d’une donnée nouvelle, pour produire une probabilité a posteriori.

Trois éléments interviennent :

  • P(H)P(H) : probabilité a priori de l’hypothèse H.

  • P(DH)P(D | H) : vraisemblance.

  • P(HD)P(H | D) : probabilité a posteriori après l’observation.

Formule :

P(HD)=[P(DH)×P(H)]/P(D)P(H | D) = [P(D | H) × P(H)] / P(D)

Usages concrets

L’inférence bayésienne est utilisée dans de nombreux domaines :

  • Médecine (interpréter un test).

  • Sécurité (filtrage d’emails, détection de fraudes).

  • Justice (mise à jour après une preuve).

  • IA (apprentissage dynamique).

Elle permet de combiner rigoureusement une estimation initiale et une donnée nouvelle, et de procéder à des ajustements progressifs.

À retenir

L’inférence bayésienne repose sur la mise à jour mathématique d’une probabilité initiale à la lumière de nouvelles informations, en produisant une estimation révisée.

Conclusion

Les probabilités permettent de raisonner face à l’incertitude. Dans un cadre de diagnostic, elles permettent d’interpréter les résultats avec précision. Le théorème de Bayes est l’outil central pour effectuer ces révisions : il relie une probabilité a priori (estimation initiale) à une probabilité a posteriori (estimation révisée) après observation.

Cette logique constitue le cœur de l’inférence bayésienne, un raisonnement probabiliste rigoureux applicable à de nombreux domaines : médecine, intelligence artificielle, justice, sciences sociales.

Maîtriser cette approche, c’est acquérir une capacité à penser en termes de révision d’estimations, à interpréter prudemment les données, et à prendre des décisions éclairées dans l’incertitude.