Une chaîne de Markov est un processus qui passe par différents états, où la probabilité de passer à un état futur dépend uniquement de l'état présent et non des états précédents
Dans cette fiche, nous parlerons de Chaîne de Markov à deux ou trois États.
I. Le vocabulaire
États : Les états représentent les différentes situations possibles dans le système modélisé.
Distribution initiale : La distribution initiale est une matrice ligne qui représente la probabilité de se trouver dans chaque état au début du processus.
Matrice de transition (P) : La matrice de transition est une matrice carrée où chaque élément représente la probabilité de passer de l'état à l'état en une étape.
Graphe Pondéré Associé : pour une chaîne de Markov, le graphe pondéré associé est un graphe orienté où les sommets représentent les états, et les arêtes pondérées représentent les probabilités de transition entre les états.
Interprétation du coefficient (i,j) de : dans la matrice , le coefficient représente la probabilité de passer de l'état à l'état en exactement étapes.
Distribution après n transitions : La distribution après transitions est obtenue en multipliant la distribution initiale par la matrice . Cela donne la probabilité de se trouver dans chaque état après étapes.
Distribution invariante : Une distribution invariante est une distribution qui reste inchangée après une transition. Elle satisfait l'équation . Pour une chaîne de Markov, la distribution invariante représente l'état d'équilibre du système.
II. Chaîne de Markov
Définition :
Une chaîne de Markov est un processus dans lequel l’état futur ne dépend que de l’état actuel, et pas du passé. On parle de propriété de Markov.
Dans une chaîne à 2 ou 3 états, on considère un ensemble fini d’états, par exemple :
Pour 2 états : et
Pour 3 états : , , et
Les probabilités de transition entre ces états sont regroupées dans une matrice de transition .
Exemple 1 :
Considérons une chaîne de Markov à deux états et avec la matrice de transition suivante :
et une distribution initiale
La distribution après 2 Transitions est
La distribution invariante s'obtient en résolvant l'équation pour trouver .
Solution :
1. Distribution après 2 transitions
On calcule puis :
Résultat obtenu :
Cela signifie qu’après deux transitions, la probabilité d’être en état est environ et en état environ .
2. Distribution invariante
On cherche une distribution telle que :
La solution de ce système donne :
C’est la distribution invariante : si la chaîne commence avec cette répartition, elle reste stable à chaque transition.Dans cet exemple précis, la chaîne de Markov converge très rapidement vers sa distribution invariante. Résultat :
Autrement dit :
Mais ce n’est pas une généralité. En réalité :
→ dépend de l’état initial.
vérifie l’équation → ne dépend que de .
Exemple 2 : Comportement d’un étudiant face à un devoir
Un étudiant peut être dans l’un des trois états suivants chaque jour :
: Il travaille sérieusement
: Il procrastine
: Il ne fait rien du tout
Matrice de transition
L’étudiant change (ou pas) d’état chaque jour selon les probabilités suivantes :
Ligne 1 : s’il travaille sérieusement un jour (), le lendemain il a 60% de chances de continuer (), 30% de procrastiner (), 10% de ne rien faire ().
Ligne 2 : s’il procrastine (), il a 30% de chances de se mettre au travail, 40% de rester en procrastination, etc.
Ligne 3 : s’il ne fait rien (), il y a 20% de chances qu’il se remette à bosser, 40% de rester inactif, etc.
Distribution initiale
On suppose qu’au départ (jour 0), l’étudiant est motivé :
Questions qu’on peut poser :
À long terme, quelle est la répartition stable entre les 3 comportements ?
Cela revient à déterminer la distribution invariante telle que
Distribution invariante :
On considère la matrice de transition
Nous cherchons à calculer , c'est-à-dire le produit .
Calcul ligne par colonne :
Ce qui donne :
On vérifie que est bien une matrice de transition :
les lignes ont pour somme :
Ligne 1 :
Ligne 2 :
Ligne 3 :
On cherche maintenant le vecteur stationnaire tel que
et
Cela revient à résoudre le système suivant :
On simplifie :
Résolution numérique du système :
Ce vecteur stationnaire signifie qu’à long terme, l'étudiant passera environ :
34.8 % du temps dans l’état 1
37.0 % dans l’état 2
28.2 % dans l’état 3