Introduction
Les probabilités sont un outil fondamental pour raisonner dans l’incertitude. Elles permettent d’évaluer des risques, de prendre des décisions et de mettre à jour des estimations en fonction de nouvelles informations. Dans de nombreux domaines comme la médecine, la justice ou l’intelligence artificielle, elles sont utilisées pour effectuer des diagnostics, formuler des prédictions ou ajuster des conclusions à partir de données.
Parmi les approches probabilistes, l’inférence bayésienne occupe une place centrale : elle permet d’actualiser une probabilité initiale (appelée *a priori*) en tenant compte d’un élément nouveau (appelé donnée ou information). Cette mise à jour produit une probabilité révisée, dite *a posteriori*.
Cette leçon explore les fondements des probabilités, la logique des raisonnements diagnostiques, et l’usage du théorème de Bayes dans une perspective accessible mais rigoureuse.
Les probabilités : notions de base
Définition et cadre discret
Dans un cadre discret (où l’on considère un nombre fini d’événements possibles), la probabilité d’un événement est un nombre compris entre et . Elle mesure la chance qu’un événement se produise :
signifie que l’événement est considéré comme impossible dans le modèle.
signifie que l’événement est considéré comme certain.
Remarque : dans des modèles continus plus avancés (non abordés ici), un événement de probabilité 0 peut parfois se produire. Nous restons ici dans le cadre des situations discrètes classiques du secondaire.
Exemples :
Lancer une pièce équilibrée → .
Tirer un roi dans un jeu de cartes → .
Événements et probabilités conditionnelles
L’intersection (ou conjonction) de deux événements A et B, notée A ∩ B, correspond à la situation où les deux événements ont lieu simultanément.
Si A et B sont indépendants :
La probabilité conditionnelle exprime la probabilité d’un événement sachant qu’un autre s’est produit :
Elle permet de modéliser les situations où les événements sont liés.
Le théorème de Bayes : principe et usage
Intuition du théorème
Le théorème de Bayes permet de réviser une probabilité à la lumière d’une information nouvelle. Il permet de calculer une probabilité conditionnelle dans l’autre sens : au lieu de connaître la probabilité de B sachant A, on déduit celle de A sachant B.
Cette formule permet de repasser d’un sens de conditionnement à l’autre, ce qui est indispensable en diagnostic.
Exemple général
A : l’événement « une personne est malade ».
B : l’événement « le test est positif ».
On veut connaître P(A | B), la probabilité qu’une personne soit malade sachant que son test est positif.
Or on connaît généralement :
: probabilité d’avoir un test positif quand on est malade (sensibilité).
: probabilité d’être malade dans la population (*a priori*).
: probabilité totale d’un test positif.
La formule de Bayes permet alors de calculer la probabilité a posteriori P(A | B), c’est-à-dire l’estimation révisée après observation du test.
Diagnostic médical : un exemple concret
Cadre et données
Imaginons un test pour une maladie rare :
→ des personnes sont malades.
→ sensibilité.
→ faux positifs.
On cherche , la probabilité que la personne soit effectivement malade sachant que le test est positif.
Formule complète
Dénominateur :
Application de Bayes :
Donc : même avec un test positif, la probabilité que la personne soit malade n’est que de . Cela s’explique par la faible fréquence de la maladie.
À retenir
Le théorème de Bayes permet de réévaluer une estimation a priori en fonction d’un test ou d’une observation. Cette probabilité révisée est appelée probabilité a posteriori.
L’inférence bayésienne : une méthode de mise à jour
Estimer avant, corriger après
L’inférence bayésienne est une méthode de raisonnement qui permet de réviser une estimation a priori en fonction d’une donnée nouvelle, pour produire une probabilité a posteriori.
Trois éléments interviennent :
: probabilité a priori de l’hypothèse H.
: vraisemblance.
: probabilité a posteriori après l’observation.
Formule :
Usages concrets
L’inférence bayésienne est utilisée dans de nombreux domaines :
Médecine (interpréter un test).
Sécurité (filtrage d’emails, détection de fraudes).
Justice (mise à jour après une preuve).
IA (apprentissage dynamique).
Elle permet de combiner rigoureusement une estimation initiale et une donnée nouvelle, et de procéder à des ajustements progressifs.
À retenir
L’inférence bayésienne repose sur la mise à jour mathématique d’une probabilité initiale à la lumière de nouvelles informations, en produisant une estimation révisée.
Conclusion
Les probabilités permettent de raisonner face à l’incertitude. Dans un cadre de diagnostic, elles permettent d’interpréter les résultats avec précision. Le théorème de Bayes est l’outil central pour effectuer ces révisions : il relie une probabilité a priori (estimation initiale) à une probabilité a posteriori (estimation révisée) après observation.
Cette logique constitue le cœur de l’inférence bayésienne, un raisonnement probabiliste rigoureux applicable à de nombreux domaines : médecine, intelligence artificielle, justice, sciences sociales.
Maîtriser cette approche, c’est acquérir une capacité à penser en termes de révision d’estimations, à interpréter prudemment les données, et à prendre des décisions éclairées dans l’incertitude.
