Chaîne de Markov

Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.

Cet article ne cite pas suffisamment ses sources ().

Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références ».

En pratique : Quelles sources sont attendues ? Comment ajouter mes sources ?

Exemple élémentaire de chaîne de Markov, à deux états A et E. Les flèches indiquent les probabilités de transition d'un état à un autre.

En mathématiques, une chaîne de Markov est un processus de Markov à temps discret, ou à temps continu et à espace d'états discret. Un processus de Markov est un processus stochastique possédant la propriété de Markov : l'information utile pour la prédiction du futur est entièrement contenue dans l'état présent du processus et n'est pas dépendante des états antérieurs (le système n'a pas de « mémoire »). Les processus de Markov portent le nom de leur inventeur, Andreï Markov.

Un processus de Markov à temps discret est une séquence X 0 , {\displaystyle X_{0},} X 1 , {\displaystyle X_{1},} X 2 , {\displaystyle X_{2},} X 3 ,   {\displaystyle X_{3},\ \dots } de variables aléatoires à valeurs dans l’espace des états, qu'on notera E {\displaystyle E} dans la suite. La valeur X n {\displaystyle X_{n}} est l'état du processus à l'instant n . {\displaystyle n.} Les applications où l'espace d'états E {\displaystyle E} est fini ou dénombrable sont innombrables : on parle alors de chaîne de Markov ou de chaînes de Markov à espace d'états discret. Les propriétés essentielles des processus de Markov généraux, par exemple les propriétés de récurrence et d'ergodicité, s'énoncent ou se démontrent plus simplement dans le cas des chaînes de Markov à espace d'états discret. Cet article concerne précisément les chaînes de Markov à espace d'états discret.

Andreï Markov a publié les premiers résultats sur les chaînes de Markov à espace d'états fini en 1906. Une généralisation à un espace d'états infini dénombrable a été publiée par Kolmogorov en 1936. Les processus de Markov sont liés au mouvement brownien et à l'hypothèse ergodique, deux sujets de physique statistique qui ont été très importants au début du XXe siècle.

Propriété de Markov faible

Article détaillé : Propriété de Markov.

Définitions

C'est la propriété caractéristique d'une chaîne de Markov : la prédiction du futur à partir du présent n'est pas rendue plus précise par des éléments d'information supplémentaires concernant le passé, car toute l'information utile pour la prédiction du futur est contenue dans l'état présent du processus. La propriété de Markov faible possède plusieurs formes équivalentes qui reviennent toutes à constater que la loi conditionnelle de X n + 1 {\displaystyle X_{n+1}} sachant le passé, c'est-à-dire sachant ( X k ) 0 k n , {\displaystyle \left(X_{k}\right)_{0\leq k\leq n},} est une fonction de X n {\displaystyle X_{n}} seul : n 0 , ( i 0 , , i n 1 , i , j ) E n + 2   tel que   P ( X 0 = i 0 , X 1 = i 1 , , X n 1 = i n 1 , X n = i ) > 0 , P ( X n + 1 = j X 0 = i 0 , X 1 = i 1 , , X n 1 = i n 1 , X n = i ) = P ( X n + 1 = j X n = i ) . {\displaystyle {\begin{aligned}\forall n\geq 0,\forall (i_{0},\ldots ,i_{n-1},i,j)&\in E^{n+2}\ {\text{tel que}}\ \mathbb {P} {\Big (}X_{0}=i_{0},X_{1}=i_{1},\ldots ,X_{n-1}=i_{n-1},X_{n}=i{\Big )}>0,\\\mathbb {P} {\Big (}X_{n+1}=j&\mid \,X_{0}=i_{0},X_{1}=i_{1},\ldots ,X_{n-1}=i_{n-1},X_{n}=i{\Big )}=\mathbb {P} \left(X_{n+1}=j\mid X_{n}=i\right).\end{aligned}}}

Une variante courante des chaînes de Markov est la chaîne de Markov homogène, pour laquelle la probabilité de transition est indépendante de n {\displaystyle n}  : n 1 , ( i , j ) E 2 , P ( X n + 1 = j X n = i ) = P ( X n = j X n 1 = i ) {\displaystyle \forall n\geq 1,\forall (i,j)\in E^{2},\quad \mathbb {P} (X_{n+1}=j\mid X_{n}=i)=\mathbb {P} (X_{n}=j\mid X_{n-1}=i)}

Dans la suite de l'article on ne considèrera que des chaînes de Markov homogènes. Pour une application intéressante des chaînes de Markov non homogènes à l'optimisation combinatoire, voir l'article Recuit simulé. Il existe une propriété de Markov forte, liée à la notion de temps d'arrêt : cette propriété de Markov forte est cruciale pour la démonstration de résultats importants (divers critères de récurrence, loi forte des grands nombres pour les chaînes de Markov). Elle est énoncée dans l'article « Propriété de Markov ».

Critère

Critère fondamental — Soit une suite Y = ( Y n ) n 1 {\displaystyle Y=(Y_{n})_{n\geq 1}} de variables aléatoires indépendantes et de même loi, à valeurs dans un espace F {\displaystyle F} , et soit f {\displaystyle f} une application mesurable de E × F {\displaystyle E\times F} dans E . {\displaystyle E.} Supposons que la suite X = ( X n ) n 0 {\displaystyle X=(X_{n})_{n\geq 0}} est définie par la relation de récurrence : n 0 , X n + 1 = f ( X n , Y n + 1 ) , {\displaystyle \forall n\geq 0,\qquad X_{n+1}=f\left(X_{n},Y_{n+1}\right),} et supposons que la suite Y {\displaystyle Y} est indépendante de X 0 . {\displaystyle X_{0}.} Alors X {\displaystyle X} est une chaîne de Markov homogène.

Exemple : le problème du collectionneur de vignettes :

Petit Pierre fait la collection des portraits des onze joueurs de l'équipe nationale de football, qu'il trouve sur des vignettes à l'intérieur de l'emballage des tablettes de chocolat ; chaque fois qu'il achète une tablette il a une chance sur 11 de tomber sur le portrait du joueur n° k {\displaystyle k} (pour tout k {\displaystyle k} ). On note X n P ( [ [ 1 , 11 ] ] ) {\displaystyle X_{n}\in {\mathcal {P}}([\![1,11]\!])} l'état de la collection de Petit Pierre, après avoir ouvert l'emballage de sa n {\displaystyle n} e tablette de chocolat. X = ( X n ) n 0 {\displaystyle X=(X_{n})_{n\geq 0}} est une chaîne de Markov partant de X 0 = {\displaystyle X_{0}=\emptyset } , car elle rentre dans le cadre précédent pour le choix F = [ [ 1 , 11 ] ] ,   E = P ( F ) ,   f ( x , y ) = x { y } , {\displaystyle F=[\![1,11]\!],\ E={\mathcal {P}}(F),\ f(x,y)=x\cup \{y\},} puisque X n + 1 = X n { Y n + 1 } , {\displaystyle X_{n+1}=X_{n}\cup \{Y_{n+1}\},} où les variables aléatoires Y n {\displaystyle Y_{n}} sont des variables aléatoires indépendantes et uniformes sur [ [ 1 , 11 ] ] {\displaystyle [\![1,11]\!]}  : ce sont les numéros successifs des vignettes tirées des tablettes de chocolat. Le temps moyen nécessaire pour compléter la collection (ici le nombre de tablettes que Petit Pierre doit acheter en moyenne pour compléter sa collection) est, pour une collection de N {\displaystyle N} vignettes au total, de N H N , {\displaystyle N\,H_{N},} H N {\displaystyle H_{N}} est le N {\displaystyle N} e nombre harmonique. Par exemple, 11 H 11 = 33 , 2 {\displaystyle 11\,H_{11}=33,2\dots \quad } tablettes de chocolat.

Remarques :
  • La propriété de Markov découle de l'indépendance des Y i   ; {\displaystyle Y_{i}\ ;} elle reste vraie lorsque les Y i {\displaystyle Y_{i}} ont des lois différentes, et lorsque la « relation de récurrence » X n + 1 = f n ( X n , Y n + 1 ) {\displaystyle X_{n+1}=f_{n}\left(X_{n},Y_{n+1}\right)} dépend de n . {\displaystyle n.} Les hypothèses faites en sus de l'indépendance sont là uniquement pour assurer l'homogénéité de la chaîne de Markov.
  • Le critère est fondamental en cela que toute chaîne de Markov homogène peut être simulée via une récurrence de la forme X n + 1 = f ( X n , Y n + 1 ) , {\displaystyle X_{n+1}=f\left(X_{n},Y_{n+1}\right),} pour une fonction f {\displaystyle f} bien choisie. On peut même choisir F = [ 0 , 1 ] , {\displaystyle F=[0,1],} et choisir des variables Y j {\displaystyle Y_{j}} indépendantes et uniformes sur l'intervalle [0,1], ce qui est commode pour l'étude de chaînes de Markov via des méthodes de Monte-Carlo.

Probabilités de transition

Définition

Définition — Le nombre P ( X 1 = j X 0 = i ) {\displaystyle \mathbb {P} \left(X_{1}=j\mid X_{0}=i\right)} est appelé probabilité de transition de l'état i {\displaystyle i} à l'état j {\displaystyle j} en un pas, ou bien probabilité de transition de l'état i {\displaystyle i} à l'état j , {\displaystyle j,} s'il n'y a pas d'ambigüité. On note souvent ce nombre p i , j : {\displaystyle p_{i,j}:} p i , j = P ( X 1 = j X 0 = i ) . {\displaystyle p_{i,j}=\mathbb {P} \left(X_{1}=j\mid X_{0}=i\right).}

La famille de nombres P = ( p i , j ) ( i , j ) E 2 {\displaystyle P=\left(p_{i,j}\right)_{(i,j)\in E^{2}}} est appelée matrice de transition, noyau de transition, ou opérateur de transition de la chaîne de Markov.

La terminologie matrice de transition est la plus utilisée, mais elle n'est appropriée, en toute rigueur, que lorsque, pour un entier n 1 , {\displaystyle n\geq 1,} E = { 1 , 2 , , n } . {\displaystyle E=\{1,2,\ldots ,n\}.} Lorsque E {\displaystyle E} est fini, par exemple de cardinal n , {\displaystyle n,} on peut toujours numéroter les éléments de E {\displaystyle E} arbitrairement de 1 à n , {\displaystyle n,} ce qui règle le problème, mais imparfaitement, car cette renumérotation est contre-intuitive dans beaucoup d'exemples.

Modèle d'Ehrenfest : les deux chiens et leurs puces :

Deux chiens se partagent N {\displaystyle N} puces de la manière suivante : à chaque instant, une des N {\displaystyle N} puces est choisie au hasard et saute alors d'un chien à l'autre. L'état du système est décrit par un élément x = ( x 1 , x 2 , , x N ) { 0 , 1 } N , {\displaystyle x=(x_{1},x_{2},\dots ,x_{N})\in \{0,1\}^{N},} x i = 0  ou  1  selon que la puce n   i  est sur le 1er ou sur le 2e chien. {\displaystyle x_{i}=0{\text{ ou }}1{\text{ selon que la puce n}}^{\circ }\ i{\text{ est sur le 1er ou sur le 2e chien.}}}

Alors E {\displaystyle E} possède 2 N {\displaystyle 2^{N}} éléments, mais les numéroter de 1 à 2 N {\displaystyle 2^{N}} serait malcommode pour suivre l'évolution du système, qui consiste à choisir une des N {\displaystyle N} coordonnées de x {\displaystyle x} au hasard et à changer sa valeur. Si l'on veut comprendre le système moins en détail (car on n'est pas capable de reconnaître une puce d'une autre), on peut se contenter d'étudier le nombre de puces sur le chien n°1, ce qui revient à choisir E = { 0 , 1 , 2 , , N } . {\displaystyle E=\{0,1,2,\dots ,N\}.} Là encore, pour la compréhension, il serait dommage de renuméroter les états de 1 à N + 1. {\displaystyle N+1.} Notons que pour cette nouvelle modélisation, p k , k + 1 = N k N  et  p k , k 1 = k N , {\displaystyle p_{k,k+1}={\tfrac {N-k}{N}}{\text{ et }}p_{k,k-1}={\tfrac {k}{N}},} puisque, par exemple, le nombre de puces sur le dos du chien n°1 passe de k à k-1 si c'est une de ces k puces qui est choisie pour sauter, parmi les N puces présentes dans le « système ». Ce modèle porte plus souvent le nom de « modèle des urnes d'Ehrenfest ». Il a été introduit en 1907 par Tatiana et Paul Ehrenfest pour illustrer certains des « paradoxes » apparus dans les fondements de la mécanique statistique naissante, et pour modéliser le bruit rose. Le modèle des urnes d'Ehrenfest était considéré par le mathématicien Mark Kac comme « probablement l'un des modèles les plus instructifs de toute la physique ».

Plutôt que de renuméroter les états à partir de 1, il est donc plus ergonomique dans beaucoup de cas d'accepter des matrices finies ou infinies dont les lignes et colonnes sont « numérotées » à l'aide des éléments de E . {\displaystyle E.} Le produit de deux telles « matrices », A = ( a i , j ) ( i , j ) E 2 {\displaystyle A=\left(a_{i,j}\right)_{(i,j)\in E^{2}}} et B = ( b i , j ) ( i , j ) E 2 {\displaystyle B=\left(b_{i,j}\right)_{(i,j)\in E^{2}}} , est alors défini très naturellement par ( A B ) i , j = E a i , b , j , {\displaystyle (AB)_{i,j}=\sum _{\ell \in E}a_{i,\ell }b_{\ell ,j},} par analogie avec la formule plus classique du produit de deux matrices carrées de taille n , {\displaystyle n,} ( A B ) i , j = k = 1 n a i , k b k , j . {\displaystyle (AB)_{i,j}=\sum _{k=1}^{n}a_{i,k}b_{k,j}.}

Propriétés

Proposition — La matrice de transition P = ( p i , j ) ( i , j ) E 2 {\displaystyle P=\left(p_{i,j}\right)_{(i,j)\in E^{2}}} est stochastique : la somme des termes de n'importe quelle ligne de P {\displaystyle P} donne toujours 1. i E , j E p i , j = 1. {\displaystyle \forall i\in E,\quad \sum _{j\in E}p_{i,j}=1.}

Proposition —  La loi de la chaîne de Markov X = ( X n ) n 0 {\displaystyle X=\left(X_{n}\right)_{n\geq 0}} est caractérisée par le couple constitué de sa matrice de transition P , {\displaystyle P,} et de sa loi initiale (la loi de X 0 {\displaystyle X_{0}} ) : pour tout n 1 {\displaystyle n\geq 1} la loi jointe de ( X 0 , X 1 , , X n ) {\displaystyle (X_{0},X_{1},\ldots ,X_{n})} est donnée par P ( X 0 = i 0 , X 1 = i 1 , , X n 1 = i n 1 , X n = i n ) = P ( X 0 = i 0 )   p i 0 , i 1 p i 1 , i 2 p i n 2 , i n 1 p i n 1 , i n . {\displaystyle \mathbb {P} \left(X_{0}=i_{0},X_{1}=i_{1},\ldots ,X_{n-1}=i_{n-1},X_{n}=i_{n}\right)=\mathbb {P} \left(X_{0}=i_{0}\right)\ p_{i_{0},i_{1}}\,p_{i_{1},i_{2}}\,\ldots \,p_{i_{n-2},i_{n-1}}\,p_{i_{n-1},i_{n}}.}

Démonstration

Par récurrence, au rang 0, P ( X 0 = i 0 ) = P ( X 0 = i 0 ) . {\displaystyle \mathbb {P} \left(X_{0}=i_{0}\right)=\mathbb {P} \left(X_{0}=i_{0}\right).}

Au rang n , {\displaystyle n,} en posant P k = P ( X 0 = i 0 , X 1 = i 1 , , X k 1 = i k 1 , X k = i k ) , {\displaystyle P_{k}=\mathbb {P} \left(X_{0}=i_{0},X_{1}=i_{1},\ldots ,X_{k-1}=i_{k-1},X_{k}=i_{k}\right),} P n P n 1 = P ( X n = i n X 0 = i 0 , X 1 = i 1 , , X n 1 = i n 1 ) = p i n 1 , i n , {\displaystyle {\frac {P_{n}}{P_{n-1}}}=\mathbb {P} {\Big (}X_{n}=i_{n}\mid \,X_{0}=i_{0},X_{1}=i_{1},\ldots ,X_{n-1}=i_{n-1}{\Big )}=p_{i_{n-1},i_{n}},} en vertu de la propriété de Markov faible, donc si P n 1 {\displaystyle P_{n-1}} a l'expression attendue, alors P n {\displaystyle P_{n}} aussi.

Lorsqu'on étudie une chaîne de Markov particulière, sa matrice de transition est en général bien définie et fixée tout au long de l'étude, mais la loi initiale peut changer lors de l'étude et les notations doivent refléter la loi initiale considérée sur le moment : si à un moment de l'étude on considère une chaîne de Markov de loi initiale définie par i E , P ( X 0 = i ) = μ i {\displaystyle \forall i\in E,\quad \mathbb {P} \left(X_{0}=i\right)=\mu _{i}} , alors les probabilités sont notées P μ ( ) {\displaystyle \mathbb {P} _{\mu }\left(\dots \right)} et les espérances sont notées E μ [ ] {\displaystyle \mathbb {E} _{\mu }\left[\dots \right]} . En particulier, si P ( X 0 = j ) = 1 {\displaystyle \mathbb {P} \left(X_{0}=j\right)=1} , on dit que la chaîne de Markov part de j {\displaystyle j} , les probabilités sont notées P j ( ) {\displaystyle \mathbb {P} _{j}\left(\dots \right)} et les espérances sont notées E j [ ] {\displaystyle \mathbb {E} _{j}\left[\dots \right]} .

Puissances de la matrice de transition

Pour k 1 , {\displaystyle k\geq 1,} la probabilité de transition en k {\displaystyle k} pas, P ( X n + k = j X n = i ) , {\displaystyle \mathbb {P} \left(X_{n+k}=j\mid X_{n}=i\right),} ne dépend pas de n {\displaystyle n}  :

Proposition — La matrice de transition en k {\displaystyle k} pas, ( P ( X n + k = j X n = i ) ) ( i , j ) E 2 , {\displaystyle \left(\mathbb {P} \left(X_{n+k}=j\mid X_{n}=i\right)\right)_{(i,j)\in E^{2}},} est égale à la puissance k {\displaystyle k} ème de la matrice de transition P . {\displaystyle P.} On note p i , j ( k ) = P ( X n + k = j X n = i ) , {\displaystyle p_{i,j}^{(k)}=\mathbb {P} \left(X_{n+k}=j\mid X_{n}=i\right),} et P k = ( p i , j ( k ) ) ( i , j ) E 2 . {\displaystyle P^{k}=\left(p_{i,j}^{(k)}\right)_{(i,j)\in E^{2}}.}

Démonstration

Par récurrence. Au rang 1, c'est une conséquence de l'homogénéité de la chaîne de Markov déjà mentionnée à la section Propriété de Markov faible : P ( X n + 1 = j X n = i ) = P ( X 1 = j X 0 = i ) . {\displaystyle \mathbb {P} \left(X_{n+1}=j\mid X_{n}=i\right)=\mathbb {P} \left(X_{1}=j\mid X_{0}=i\right).}

Au rang k , {\displaystyle k,} P ( X n = i  et  X n + k = j ) = E P ( X n = i , X n + k 1 =  et  X n + k = j ) = E P ( X n = i , X n + k 1 = )   P ( X n + k = j X n = i , X n + k 1 = ) = E P ( X n = i , X n + k 1 = )   p , j = P ( X n = i )   E p i , ( k 1 )   p , j = P ( X n = i )   p i , j ( k ) , {\displaystyle {\begin{aligned}\mathbb {P} \left(X_{n}=i{\text{ et }}X_{n+k}=j\right)&=\sum _{\ell \in E}\mathbb {P} \left(X_{n}=i,\,X_{n+k-1}=\ell {\text{ et }}X_{n+k}=j\right)\\&=\sum _{\ell \in E}\mathbb {P} \left(X_{n}=i,\,X_{n+k-1}=\ell \right)\ \mathbb {P} \left(X_{n+k}=j\mid X_{n}=i,\,X_{n+k-1}=\ell \right)\\&=\sum _{\ell \in E}\mathbb {P} \left(X_{n}=i,\,X_{n+k-1}=\ell \right)\ p_{\ell ,j}\\&=\mathbb {P} \left(X_{n}=i\right)\ \sum _{\ell \in E}p_{i,\ell }^{(k-1)}\ p_{\ell ,j}\\&=\mathbb {P} \left(X_{n}=i\right)\ p_{i,j}^{(k)},\end{aligned}}}

  • la 1re égalité est le troisième axiome des probabilités,
  • la 2e égalité est la définition d'une probabilité conditionnelle,
  • la 3e égalité est due à une forme de propriété de Markov faible,
  • la 4e égalité est la propriété de récurrence au pas k 1 , {\displaystyle k-1,}
  • la 5e égalité est la formule du produit de deux « matrices », appliquée au produit de P k 1 {\displaystyle P^{k-1}} avec P . {\displaystyle P.}

Pour conclure, on divise les deux termes extrêmes de cette suite d'égalités par P ( X n = i ) , {\displaystyle \mathbb {P} \left(X_{n}=i\right),} sauf si ce dernier terme est nul, auquel cas on peut définir P ( X n + k = j X n = i ) {\displaystyle \mathbb {P} \left(X_{n+k}=j\mid X_{n}=i\right)} arbitrairement, donc, par exemple, égal à p i , j ( k ) . {\displaystyle p_{i,j}^{(k)}.}

Par une simple application de la formule des probabilités totales, on en déduit les lois marginales de la chaîne de Markov.

Corollaire — La loi de X n + k {\displaystyle X_{n+k}} est donnée par P ( X n + k = j ) = i E P ( X n = i ) p i , j ( k ) . {\displaystyle \mathbb {P} \left(X_{n+k}=j\right)=\sum _{i\in E}\mathbb {P} \left(X_{n}=i\right)p_{i,j}^{(k)}.}

En particulier, P ( X n = j ) = i E P ( X 0 = i ) p i , j ( n ) . {\displaystyle \mathbb {P} \left(X_{n}=j\right)=\sum _{i\in E}\mathbb {P} \left(X_{0}=i\right)p_{i,j}^{(n)}.}

En écriture matricielle, si la loi de X n {\displaystyle X_{n}} est considérée comme un vecteur-ligne μ n = ( μ n , i ) i E , {\displaystyle \mu _{n}=(\mu _{n,i})_{i\in E},} avec μ n , i = P ( X n = i ) , {\displaystyle \mu _{n,i}=\mathbb {P} \left(X_{n}=i\right),} cela se reformule en : μ n + k = μ n P k  et  μ n = μ 0 P n . {\displaystyle \mu _{n+k}=\mu _{n}P^{k}\quad {\text{ et }}\quad \mu _{n}=\mu _{0}P^{n}.}

Classification des états

Graphe de la marche du cavalier sur l'échiquier (quart Sud-Ouest de l'échiquier).

Pour ( i , j ) E 2 {\displaystyle (i,j)\in E^{2}} , on dit que j {\displaystyle j} est accessible à partir de i {\displaystyle i} si et seulement s'il existe n 0 {\displaystyle n\geq 0} tel que P ( X n = j X 0 = i ) > 0. {\displaystyle \mathbb {P} (X_{n}=j\mid X_{0}=i)>0.} On note : { j i } { n 0  tel que  p i , j ( n ) > 0 } . {\displaystyle \{j\leftarrow i\}\quad \Leftrightarrow \quad \left\{\exists n\geq 0{\text{ tel que }}p_{i,j}^{(n)}>0\right\}.}

On dit que i {\displaystyle i} et j {\displaystyle j} communiquent si et seulement s'il existe ( n , m ) N 2 {\displaystyle (n,m)\in \mathbb {N} ^{2}} tels que P ( X n = j X 0 = i ) > 0 {\displaystyle \mathbb {P} (X_{n}=j\mid X_{0}=i)>0} et P ( X m = i X 0 = j ) > 0. {\displaystyle \mathbb {P} (X_{m}=i\mid X_{0}=j)>0.} On note : { j i } { j i  et  i j } . {\displaystyle \{j\leftrightarrow i\}\quad \Leftrightarrow \quad \left\{j\leftarrow i{\text{ et }}i\leftarrow j\right\}.}

La relation communiquer, notée , {\displaystyle \leftrightarrow ,} est une relation d'équivalence. Quand on parle de classe en parlant des états d'une chaîne de Markov, c'est en général aux classes d'équivalence pour la relation {\displaystyle \leftrightarrow } qu'on fait référence. Si tous les états communiquent, la chaîne de Markov est dite irréductible.

La relation être accessible, notée , {\displaystyle \leftarrow ,} s'étend aux classes d'équivalence : pour deux classes C {\displaystyle C} et C {\displaystyle C^{\prime }} , on a { C C } { ( i , j ) C × C , i j } { ( i , j ) C × C , i j } . {\displaystyle \{C\leftarrow C^{\prime }\}\quad \Leftrightarrow \quad \left\{\exists (i,j)\in C\times C^{\prime },\qquad i\leftarrow j\right\}\quad \Leftrightarrow \quad \left\{\forall (i,j)\in C\times C^{\prime },\qquad i\leftarrow j\right\}.}

La relation {\displaystyle \leftarrow } est une relation d'ordre entre les classes d'équivalence.

Une classe est dite finale si elle ne conduit à aucune autre, i.e. si la classe est minimale pour la relation . {\displaystyle \leftarrow .} Sinon, elle est dite transitoire. L'appartenance à une classe finale ou transitoire a des conséquences sur les propriétés probabilistes d'un état de la chaîne de Markov, en particulier sur son statut d'état récurrent ou d'état transient. Le nombre et la nature des classes finales dicte la structure de l'ensemble des probabilités stationnaires, qui résument de manière précise le comportement asymptotique de la chaîne de Markov, comme on peut le voir à la prochaine section et dans les deux exemples détaillés à la fin de cette page.

Soit M i j = { n 1   |   p i , j ( n ) > 0 } . {\displaystyle M_{ij}=\left\{n\geq 1\ |\ p_{i,j}^{(n)}>0\right\}.}

La période d'un état i {\displaystyle i} est le PGCD de l'ensemble M i i . {\displaystyle M_{ii}.} Si deux états communiquent, ils ont la même période : on peut donc parler de la période d'une classe d'états. Si la période vaut 1, la classe est dite apériodique. L'apériodicité des états d'une chaîne de Markov conditionne la convergence de la loi de X n {\displaystyle X_{n}} vers la probabilité stationnaire, voir la page Probabilité stationnaire d'une chaîne de Markov.

La classification des états et leur période se lisent de manière simple sur le graphe de la chaîne de Markov. Toutefois, si tous les éléments de la matrice de transition sont strictement positifs, la chaîne de Markov est irréductible et apériodique : dessiner le graphe de la chaîne de Markov est alors superflu.

Loi stationnaire

Définition

Il peut exister une ou plusieurs mesures π = ( π i ) i E , {\displaystyle \pi =(\pi _{i})_{i\in E},} sur l'espace d'états E , {\displaystyle E,} telles que : π = π P , {\displaystyle \pi =\pi \,P,} ou bien encore j E , π j = i E π i p i , j . {\displaystyle \forall j\in E,\qquad \pi _{j}=\sum _{i\in E}\pi _{i}\,p_{i,j}.}

Une telle mesure π {\displaystyle \pi } est appelée une mesure stationnaire. Une mesure stationnaire est une fonction propre de la transposée de la matrice de transition, associée à la valeur propre 1. Elle est appelée probabilité stationnaire ou loi stationnaire si elle remplit les conditions supplémentaires :

  • i E , π i     0 , {\displaystyle \forall i\in E,\qquad \pi _{i}\ \geq \ 0,}
  • i E π i   =   1. {\displaystyle \sum _{i\in E}\pi _{i}\ =\ 1.}

Le terme « stationnaire » est justifié par la proposition suivante :

Proposition — Si la loi initiale de la chaîne de Markov (i.e. la loi de X 0 {\displaystyle X_{0}} ) est une probabilité stationnaire π , {\displaystyle \pi ,} alors pour tout n 0 , {\displaystyle n\geq 0,} la loi de X n {\displaystyle X_{n}} est encore π . {\displaystyle \pi .}

Démonstration

Cela découle des propriétés des puissances de la matrice de transition donnée plus haut : la loi μn de Xn s'exprime en fonction de la loi μ0 de X0 de la manière suivante : μ n = μ 0 P n = π P n , {\displaystyle \mu _{n}=\mu _{0}P^{n}=\pi P^{n},} or π P = π {\displaystyle \pi P=\pi } entraîne π P n = π .   {\displaystyle \pi P^{n}=\pi .\ }

Plus généralement, la chaîne de Markov est un processus stationnaire si et seulement si sa loi initiale est une probabilité stationnaire.

Existence et unicité

Dans le cas des chaînes de Markov à espace d'états discret, certaines propriétés du processus déterminent s'il existe ou non une probabilité stationnaire, et si elle est unique ou non :

  • une chaîne de Markov est irréductible si tout état est accessible à partir de n'importe quel autre état ;
  • un état est récurrent positif si l'espérance du temps de premier retour en cet état, partant de cet état, est finie.

Si une chaîne de Markov possède au moins un état récurrent positif, alors il existe une probabilité stationnaire. S'il existe une probabilité stationnaire π {\displaystyle \pi } telle que π i > 0 {\displaystyle \pi _{i}>0} , alors l'état i {\displaystyle i} est récurrent positif, et réciproquement.

Théorème — Si une chaîne de Markov possède une seule classe finale C , {\displaystyle C,} alors il existe au plus une probabilité stationnaire. On a alors équivalence entre les 3 propositions :

  • il existe une unique probabilité stationnaire, notée π , {\displaystyle \pi ,}
  • il existe un état récurrent positif,
  • tous les états de la classe finale sont récurrents positifs.

On a de plus l'équivalence { π i > 0 } { i C } { i  est recurrent positif } . {\displaystyle \{\pi _{i}>0\}\Leftrightarrow \{i\in C\}\Leftrightarrow \{i{\text{ est recurrent positif}}\}.}

Ce théorème vaut en particulier pour les chaînes de Markov irréductibles, puisque ces dernières possèdent une seule classe (qui est donc nécessairement une classe finale) ; les chaînes de Markov irréductibles vérifient en particulier C = E . {\displaystyle C=E.}

Loi forte des grands nombres et ergodicité

Dans le cas d'une chaîne de Markov irréductible et récurrente positive, la loi forte des grands nombres est en vigueur : la moyenne d'une fonction f {\displaystyle f} sur les instances de la chaîne de Markov est égale à sa moyenne selon sa probabilité stationnaire. Plus précisément, sous l'hypothèse i E | f ( i ) | π i   < + , {\displaystyle \sum _{i\in E}|f(i)|\,\pi _{i}\ <+\infty ,} on a presque sûrement : lim n 1 n k = 0 n 1 f ( X k )   =   i E f ( i ) π i   =   π f . {\displaystyle \lim _{n}\;{\frac {1}{n}}\;\sum _{k=0}^{n-1}f(X_{k})\ =\ \sum _{i\in E}f(i)\,\pi _{i}\ =\ \pi f.}

La moyenne de la valeur des instances est donc, sur le long terme, égale à l'espérance suivant la probabilité stationnaire. En particulier, cette équivalence sur les moyennes s'applique si f {\displaystyle f} est la fonction indicatrice d'un sous-ensemble A {\displaystyle A} de l'espace des états : lim n 1 n k = 0 n 1 χ A ( X k )   =   i A   π i   =   π ( A ) . {\displaystyle \lim _{n}\;{\frac {1}{n}}\;\sum _{k=0}^{n-1}\chi _{A}(X_{k})\ =\ \sum _{i\in A}\ \pi _{i}\ =\ \pi (A).}

Cela permet d'approcher la probabilité stationnaire par la distribution empirique (qui est un histogramme construit à partir d'une séquence particulière), comme dans le cas de la marche aléatoire avec barrière.

En particulier, si le processus est construit en prenant la probabilité stationnaire comme loi initiale, le shift θ {\displaystyle \theta } défini par x = ( x 0 , x 1 , x 2 , ) E N θ x = ( x 1 , x 2 , x 3 , ) {\displaystyle x=(x_{0},x_{1},x_{2},\dots )\in E^{\mathbb {N} }\quad \rightarrow \quad \theta \,x=(x_{1},x_{2},x_{3},\dots )} préserve la mesure, ce qui fait de la chaîne de Markov un système dynamique mesuré. La loi forte des grands nombres entraine alors que la chaîne de Markov est un système dynamique ergodique. L'ergodicité est à la fois plus forte que la loi forte des grands nombres car on peut en déduire, par exemple, que 1 n k = 0 n 1 f ( X k , X k + 1 ) , {\displaystyle {\frac {1}{n}}\;\sum _{k=0}^{n-1}f(X_{k},X_{k+1}),} a pour limite presque sûre i , j E f ( i , j ) π i p i , j , {\displaystyle \sum _{i,j\in E}f(i,j)\,\pi _{i}p_{i,j},} mais elle est aussi plus faible car elle réclame en principe la stationnarité de la chaîne de Markov, ce qui n'est pas le cas de la loi forte des grands nombres.

Convergence vers la loi stationnaire

Si la chaîne de Markov est irréductible, récurrente positive et apériodique, alors P k {\displaystyle P^{k}} converge vers une matrice dont chaque ligne est l'unique distribution stationnaire π . {\displaystyle \pi .} En particulier, la loi μ n {\displaystyle \mu _{n}} de X n {\displaystyle X_{n}} converge vers π {\displaystyle \pi } indépendamment de la loi initiale μ 0 . {\displaystyle \mu _{0}.} Dans le cas d'un espace d'état fini, cela se prouve par le théorème de Perron-Frobenius. Notons qu'il est naturel que la suite μ n , {\displaystyle \mu _{n},} définie par récurrence par la relation μ n + 1 = μ n P , {\displaystyle \mu _{n+1}=\mu _{n}P,} ait, éventuellement, pour limite un point fixe de cette transformation, i.e. une solution de l'équation π = π P . {\displaystyle \pi =\pi P.}

Chaînes de Markov à espace d'états fini

Si une chaîne de Markov est irréductible et si son espace d'états est fini, tous ses états sont récurrents positifs. La loi forte des grands nombres est alors en vigueur.

Plus généralement, tous les éléments d'une classe finale finie sont récurrents positifs, que l'espace d'états soit fini ou bien infini dénombrable.

Distributions quasi-stationnaires d'une chaîne de Markov absorbée

Soit ( X n ) {\displaystyle (X_{n})} une chaîne de Markov sur l'ensemble des entiers naturels { 0 , 1 , 2 , . . . } {\displaystyle \{0,1,2,...\}} . Supposons que l'état 0 soit absorbant et la chaîne soit absorbée en 0 presque sûrement. Soit T 0 = inf { n 0 , X n = 0 } {\displaystyle T_{0}=\inf\{n\geq 0,X_{n}=0\}} le temps d'absorption en 0. On dit qu'une probabilité ν {\displaystyle \nu } sur { 1 , 2 , 3 , . . . } {\displaystyle \{1,2,3,...\}} est une distribution quasi-stationnaire si pour tout j 1 {\displaystyle j\geq 1} et pour tout n 1 {\displaystyle n\geq 1} ,

i 1 ν i P ( X n = j | X 0 = i , T 0 > n ) = ν j . {\displaystyle \sum _{i\geq 1}\nu _{i}\mathbb {P} (X_{n}=j|X_{0}=i,T_{0}>n)=\nu _{j}.}

On dit qu'une probabilité μ {\displaystyle \mu } sur { 1 , 2 , 3 , . . . } {\displaystyle \{1,2,3,...\}} est une limite de Yaglom si pour tout i 1 {\displaystyle i\geq 1} et tout j 1 {\displaystyle j\geq 1} ,

lim n P ( X n = j | X 0 = i , T 0 > n ) = μ j . {\displaystyle \lim _{n\to \infty }\mathbb {P} (X_{n}=j|X_{0}=i,T_{0}>n)=\mu _{j}.}

Une limite de Yaglom est une distribution quasi-stationnaire. Si elle existe, la limite de Yaglom est unique. En revanche, il peut y avoir plusieurs distributions quasi-stationnaires.

Si ν {\displaystyle \nu } est une distribution quasi-stationnaire, alors il existe un nombre réel ρ ( ν ) ] 0 , 1 [ {\displaystyle \rho (\nu )\in ]0,1[} tel que i ν i P ( T 0 > n | X 0 = i ) = ρ ( ν ) n {\displaystyle \sum _{i}\nu _{i}\mathbb {P} (T_{0}>n|X_{0}=i)=\rho (\nu )^{n}} .

Notation

Dans les formules qui précèdent, l'élément ( i , j {\displaystyle i,j} ) est la probabilité de la transition de i {\displaystyle i} à j {\displaystyle j} . La somme des éléments d'une ligne vaut toujours 1 et la distribution stationnaire est donnée par le vecteur propre gauche de la matrice de transition.

On rencontre parfois des matrices de transition dans lesquelles le terme ( i , j {\displaystyle i,j} ) est la probabilité de transition de j {\displaystyle j} vers i {\displaystyle i} , auquel cas la matrice de transition est simplement la transposée de celle décrite ici. La somme des éléments d'une colonne vaut alors 1. De plus, la distribution stationnaire du système est alors donnée par le vecteur propre droit de la matrice de transition, au lieu du vecteur propre gauche.

Exemple : Doudou le hamster

Doudou le hamster ne connaît que trois endroits dans sa cage : les copeaux où il dort, la mangeoire où il mange et la roue où il fait de l'exercice. Ses journées sont assez semblables les unes aux autres, et son activité se représente aisément par une chaîne de Markov. Toutes les minutes, il peut soit changer d'activité, soit continuer celle qu'il était en train de faire. L'appellation processus sans mémoire n'est pas du tout exagérée pour parler de Doudou.

  • Quand il dort, il a 9 chances sur 10 de ne pas se réveiller la minute suivante.
  • Quand il se réveille, il y a 1 chance sur 2 qu'il aille manger et 1 chance sur 2 qu'il parte faire de l'exercice.
  • Le repas ne dure qu'une minute, après il fait autre chose.
  • Après avoir mangé, il y a 3 chances sur 10 qu'il parte courir dans sa roue, mais surtout 7 chances sur 10 qu'il retourne dormir.
  • Courir est fatigant pour Doudou ; il y a 8 chances sur 10 qu'il retourne dormir au bout d'une minute. Sinon il continue en oubliant qu'il est déjà un peu fatigué.

Diagrammes

Les diagrammes peuvent montrer toutes les flèches, chacune représentant une probabilité de transition. Cependant, c'est plus lisible si :

  • on ne dessine pas les flèches de probabilité zéro (transition impossible) ;
  • on ne dessine pas les boucles (flèche d'un état vers lui-même). Cependant elles existent ; leur probabilité est sous-entendue car on sait que la somme des probabilités des flèches partant de chaque état doit être égale à 1.
  • Exemple avec boucles implicites
    Exemple avec boucles implicites
  • Exemple avec boucles dessinées
    Exemple avec boucles dessinées

Matrice de transition

La matrice de transition de ce système est la suivante (les lignes et les colonnes correspondent dans l'ordre aux états représentés sur le graphe par copeaux, mangeoire, roue) : P = [ 0 , 9 0 , 05 0 , 05 0 , 7 0 0 , 3 0 , 8 0 0 , 2 ] {\displaystyle P={\begin{bmatrix}0,9&0,05&0,05\\0,7&0&0,3\\0,8&0&0,2\\\end{bmatrix}}}

Prévisions

Prenons l'hypothèse que Doudou dort lors de la première minute de l'étude. x ( 0 ) = [ 1 0 0 ] {\displaystyle \mathbf {x} ^{(0)}={\begin{bmatrix}1&0&0\end{bmatrix}}}

Au bout d'une minute, on peut prédire : x ( 1 ) = x ( 0 ) P = [ 1 0 0 ] [ 0 , 9 0 , 05 0 , 05 0 , 7 0 0 , 3 0 , 8 0 0 , 2 ] = [ 0 , 9 0 , 05 0 , 05 ] {\displaystyle \mathbf {x} ^{(1)}=\mathbf {x} ^{(0)}P={\begin{bmatrix}1&0&0\end{bmatrix}}{\begin{bmatrix}0,9&0,05&0,05\\0,7&0&0,3\\0,8&0&0,2\\\end{bmatrix}}={\begin{bmatrix}0,9&0,05&0,05\end{bmatrix}}}

Ainsi, après une minute, on a 90 % de chances que Doudou dorme encore, 5 % qu'il mange et 5 % qu'il coure.

x ( 2 ) = x ( 1 ) P = x ( 0 ) P 2 = [ 1 0 0 ] [ 0 , 9 0 , 05 0 , 05 0 , 7 0 0 , 3 0 , 8 0 0 , 2 ] 2 = [ 0 , 885 0 , 045 0 , 07 ] {\displaystyle \mathbf {x} ^{(2)}=\mathbf {x} ^{(1)}P=\mathbf {x} ^{(0)}P^{2}={\begin{bmatrix}1&0&0\end{bmatrix}}{\begin{bmatrix}0,9&0,05&0,05\\0,7&0&0,3\\0,8&0&0,2\\\end{bmatrix}}^{2}={\begin{bmatrix}0,885&0,045&0,07\end{bmatrix}}}

Après 2 minutes, il y a 4,5 % de chances que le hamster mange.

De manière générale, pour n {\displaystyle n} minutes : x ( n ) = x ( n 1 ) P {\displaystyle \mathbf {x} ^{(n)}=\mathbf {x} ^{(n-1)}P} et x ( n ) = x ( 0 ) P n {\displaystyle \mathbf {x} ^{(n)}=\mathbf {x} ^{(0)}P^{n}}

La théorie montre qu'au bout d'un certain temps, la loi de probabilité est indépendante de la loi initiale. Notons-la q {\displaystyle q}  : q = lim n x ( n ) {\displaystyle \mathbf {q} =\lim _{n\to \infty }\mathbf {x} ^{(n)}}

On obtient la convergence si et seulement si la chaîne est apériodique et irréductible. C'est le cas dans notre exemple, on peut donc écrire : q = q P ( q  est la loi invariante par rapport à  P  avec  P = [ 0 , 9 0 , 05 0 , 05 0 , 7 0 0 , 3 0 , 8 0 0 , 2 ] .) q q P = [ 0 0 0 ] q ( I P ) = [ 0 0 0 ] q ( [ 1 0 0 0 1 0 0 0 1 ] [ 0 , 9 0 , 05 0 , 05 0 , 7 0 0 , 3 0 , 8 0 0 , 2 ] ) = [ 0 0 0 ] q [ 0 , 1 0 , 05 0 , 05 0 , 7 1 0 , 3 0 , 8 0 0 , 8 ] = [ 0 0 0 ] [ q 1 q 2 q 3 ] [ 0 , 1 0 , 05 0 , 05 0 , 7 1 0 , 3 0 , 8 0 0 , 8 ] = [ 0 0 0 ] {\displaystyle {\begin{aligned}\\&\mathbf {q} =\mathbf {q} P\qquad {\mbox{(}}\mathbf {q} {\mbox{ est la loi invariante par rapport à }}P{\mbox{ avec }}P={\begin{bmatrix}0,9&0,05&0,05\\0,7&0&0,3\\0,8&0&0,2\\\end{bmatrix}}{\mbox{.)}}\\\iff &\mathbf {q} -\mathbf {q} P={\begin{bmatrix}0&0&0\end{bmatrix}}\\\iff &\mathbf {q} (I-P)={\begin{bmatrix}0&0&0\end{bmatrix}}\\\iff &\mathbf {q} \left({\begin{bmatrix}1&0&0\\0&1&0\\0&0&1\\\end{bmatrix}}-{\begin{bmatrix}0,9&0,05&0,05\\0,7&0&0,3\\0,8&0&0,2\\\end{bmatrix}}\right)={\begin{bmatrix}0&0&0\end{bmatrix}}\\\iff &\mathbf {q} {\begin{bmatrix}0,1&-0,05&-0,05\\-0,7&1&-0,3\\-0,8&0&0,8\\\end{bmatrix}}={\begin{bmatrix}0&0&0\end{bmatrix}}\\\iff &{\begin{bmatrix}q_{1}&q_{2}&q_{3}\end{bmatrix}}{\begin{bmatrix}0,1&-0,05&-0,05\\-0,7&1&-0,3\\-0,8&0&0,8\\\end{bmatrix}}={\begin{bmatrix}0&0&0\end{bmatrix}}\end{aligned}}}

Sachant que q 1 + q 2 + q 3 = 1 {\displaystyle q_{1}+q_{2}+q_{3}=1} , on obtient : [ q 1 q 2 q 3 ] = [ 0 , 884 0 , 0442 0 , 0718 ] {\displaystyle {\begin{bmatrix}q_{1}&q_{2}&q_{3}\end{bmatrix}}={\begin{bmatrix}0,884&0,0442&0,0718\end{bmatrix}}}

Doudou passe donc 88,4 % de son temps à dormir, 4,42 % à manger et 7,18 % à courir.

Illustration de l'impact du modèle

L'exemple qui suit a pour but de montrer l'importance de la modélisation du système. Une bonne modélisation permet de répondre à des questions complexes avec des calculs simples.

On étudie une civilisation (fictive) constituée de plusieurs classes sociales, et dans laquelle les individus peuvent passer d'une classe à l'autre. Chaque étape représentera un an. On considérera une lignée plutôt qu'un individu, pour éviter d'obtenir des citoyens bicentenaires. Les différents statuts sociaux sont au nombre de quatre :

  • esclave ;
  • libre ;
  • citoyen ;
  • haut fonctionnaire.

Dans cette société :

  • les esclaves peuvent rester esclaves ou devenir des hommes libres (en achetant leur liberté ou en étant affranchis généreusement par leur maître) ;
  • les hommes libres peuvent rester libres ou bien vendre leur liberté (pour payer leurs dettes, etc.) ou encore devenir citoyens (là encore par mérite ou en achetant le titre de citoyen) ;
  • les citoyens sont citoyens à vie et transmettent leur citoyenneté à leur lignée (on pourrait croire que le nombre de citoyens tend à augmenter et qu'au bout d'un certain temps, tous sont citoyens mais historiquement, dans les civilisations qui suivaient ce schéma, les citoyens sont décimés par les guerres et de nouveaux esclaves arrivent régulièrement de l'étranger). Ils peuvent aussi se porter candidats lors des élections annuelles afin de devenir hauts-fonctionnaires (magistrats). Au terme de leur mandat, ils peuvent être réélus ou redevenir de simples citoyens.

Pour compliquer un peu l'exemple et montrer ainsi l'étendue des applications des chaînes de Markov, nous considérerons que les fonctionnaires sont élus pour plusieurs années. Par conséquent, l'avenir d'un individu fonctionnaire dépend du temps depuis lequel il est fonctionnaire. Nous sommes donc dans le cas d'une chaîne de Markov non homogène. Heureusement, nous pouvons aisément nous ramener à une chaîne homogène. En effet, il suffit de rajouter un état artificiel pour chaque année du mandat. Au lieu d'avoir un état 4 : Fonctionnaire, nous aurons un état :

  • 4 : Fonctionnaire en début de mandat ;
  • 5 : Fonctionnaire en seconde année de mandat ;
  • etc.

Les probabilités reliant deux états artificiels consécutifs (troisième et quatrième année par exemple) sont de valeur 1 car l'on considère que tout mandat commencé se termine (on pourrait modéliser le contraire en changeant la valeur de ces probabilités). Fixons la durée des mandats à deux ans, le contingent des fonctionnaires étant renouvelable par moitié chaque année. On a alors le graphe suivant :

Pour modéliser des élections qui ne seraient pas annuelles, il faudrait de même ajouter des états fictifs (année d'élection, un an depuis la dernière élection, etc.).

La matrice P {\displaystyle P} s'écrit alors : P = [ 97 98 1 98 0 0 0 2 73 65 73 6 73 0 0 0 0 12 13 1 13 0 0 0 0 0 1 0 0 7 8 1 8 0 ] {\displaystyle \mathbf {P} ={\begin{bmatrix}{\frac {97}{98}}&{\frac {1}{98}}&0&0&0\\{\frac {2}{73}}&{\frac {65}{73}}&{\frac {6}{73}}&0&0\\0&0&{\frac {12}{13}}&{\frac {1}{13}}&0\\0&0&0&0&1\\0&0&{\frac {7}{8}}&{\frac {1}{8}}&0\end{bmatrix}}}

Comme cela est expliqué plus haut, P n {\displaystyle P^{n}} donne les probabilités de transition en n {\displaystyle n} étapes. Donc p i j n {\displaystyle p_{ij}^{n}} est la probabilité d'être dans l'état j {\displaystyle j} au bout de n {\displaystyle n} années pour une lignée partie de la classe sociale i {\displaystyle i} . Pour savoir ce que devient un esclave au bout de n {\displaystyle n} ans, il suffit donc d'écrire : [ 1 0 0 0 0 ] × P ( n ) = [ p 1 ( n ) p 2 ( n ) p 3 ( n ) p 4 ( n ) p 5 ( n ) ] {\displaystyle {\begin{bmatrix}1&0&0&0&0\end{bmatrix}}\times \mathbf {P} ^{(n)}={\begin{bmatrix}p_{1}^{(n)}&p_{2}^{(n)}&p_{3}^{(n)}&p_{4}^{(n)}&p_{5}^{(n)}\end{bmatrix}}}

p i n {\displaystyle p_{i}^{n}} est la probabilité d'être dans la classe sociale i {\displaystyle i} au bout de n {\displaystyle n} années sachant que la lignée étudiée est partie de l'état d'esclave.

Si on connaît les effectifs de chaque classe sociale à l'an 0, il suffit alors de calculer : 1 l i g n e ´ e s × [ e s c l a v e s l i b r e s c i t o y e n s e ´ l u s 1 e ´ l u s 2 ] × P n = Y {\displaystyle {\frac {1}{\mathrm {lign{\acute {e}}es} }}\times {\begin{bmatrix}{\rm {esclaves}}&{\rm {libres}}&{\rm {citoyens}}&{\rm {{\acute {e}}lus_{1}}}&{\rm {{\acute {e}}lus_{2}}}\end{bmatrix}}\times \mathbf {P} ^{n}=Y}

On obtient ainsi la répartition de la population dans les différentes classes sociales (au bout de n {\displaystyle n} années). En multipliant ce vecteur Y {\displaystyle Y} par l'effectif total de la population, on obtient les effectifs de chaque classe au bout de n {\displaystyle n} années.

Posons-nous maintenant la question suivante : « Au bout de n {\displaystyle n} années, combien de lignées auront déjà eu un haut fonctionnaire ayant terminé son mandat ? »

La réponse est différente du nombre de mandats effectués en n {\displaystyle n} années car il y a possibilité d'être réélu. Répondre à cette question semble difficile (encore faudrait-il que ce soit possible). En fait, il suffit de changer la modélisation du problème. Passons donc à une nouvelle modélisation pour répondre à cette question. (Par contre, elle ne permet pas de répondre aux questions précédentes d'où la présentation des deux modèles.)

Il suffit de modifier ainsi le graphe :

On ajoute un sommet absorbant car une fois qu'une lignée a fini un mandat, on ne tient plus compte d'elle.

Si certains lecteurs font preuve d'esprit critique, ils diront peut-être que le modèle est faux car les lignées comportant un élu ne participent plus aux élections. Il n'en est rien. En effet, le nombre d'élus est proportionnel au nombre de citoyens. Ne pas réinjecter les anciens hauts-fonctionnaires parmi les candidats ne change donc en rien la probabilité pour un citoyen d'être élu car, la population des citoyens étant plus restreinte, le nombre de postes offerts l'est aussi. Ce modèle permet de répondre avec exactitude à la question posée.

On a donc une nouvelle matrice de transition : Q = [ 97 98 1 98 0 0 0 0 2 73 65 73 6 73 0 0 0 0 0 12 13 1 13 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 1 ] {\displaystyle \mathbf {Q} ={\begin{bmatrix}{\frac {97}{98}}&{\frac {1}{98}}&0&0&0&0\\{\frac {2}{73}}&{\frac {65}{73}}&{\frac {6}{73}}&0&0&0\\0&0&{\frac {12}{13}}&{\frac {1}{13}}&0&0\\0&0&0&0&1&0\\0&0&0&0&0&1\\0&0&0&0&0&1\end{bmatrix}}}

En faisant les mêmes calculs qu'aux questions précédentes on obtient en dernière ligne du vecteur solution le pourcentage de lignées ayant accompli au moins un mandat ou bien l'effectif (si on multiplie par l'effectif total de la population). Autrement dit, modéliser à nouveau le problème permet de répondre à la question qui semblait si compliquée par un simple calcul de puissances d'une matrice.

Applications

Cette section ne cite pas suffisamment ses sources (mars 2017)
Pour l'améliorer, ajoutez des références de qualité et vérifiables (comment faire ?) ou le modèle {{Référence nécessaire}} sur les passages nécessitant une source.
  • Un processus de Bernoulli est un exemple simple de chaîne de Markov.
  • Les systèmes markoviens sont très présents en physique particulièrement en physique statistique. Plus généralement l'hypothèse markovienne est souvent invoquée lorsque des probabilités sont utilisées pour modéliser l'état d'un système, en supposant toutefois que l'état futur du système peut être déduit du passé avec un historique assez faible.
  • Le célèbre article de 1948 de Claude Shannon, A mathematical theory of communication, qui fonde la théorie de l'information, commence en introduisant la notion d'entropie à partir d'une modélisation markovienne de la langue anglaise. Il montre ainsi le degré de prédictibilité de la langue anglaise, muni d'un simple modèle d'ordre 1. Bien que simples, de tels modèles permettent de bien représenter les propriétés statistiques des systèmes et de réaliser des prédictions efficaces sans décrire la structure complète des systèmes.
  • En compression, la modélisation markovienne permet la réalisation de techniques de codage entropique très efficaces, comme le codage arithmétique. De très nombreux algorithmes en reconnaissance des formes ou en intelligence artificielle comme l'algorithme de Viterbi, utilisé dans la grande majorité des systèmes de téléphonie mobile pour la correction d'erreurs, font l'hypothèse d'un processus markovien sous-jacent.
  • L'indice de popularité d'une page Web (PageRank) tel qu'il est utilisé par Google est défini par une chaîne de Markov. Il est défini par la probabilité d'être dans cette page à partir d'un état quelconque de la chaine de Markov représentant le Web. Si N {\displaystyle N} est le nombre de pages Web connues, et une page i {\displaystyle i} a k i {\displaystyle k_{i}} liens, alors sa probabilité de transition vers une page liée (vers laquelle elle pointe) est p i l = 1 q k i + q N {\displaystyle p_{i}^{l}={\tfrac {1-q}{k_{i}}}+{\tfrac {q}{N}}} et p i n l = q N {\displaystyle p_{i}^{nl}={\tfrac {q}{N}}} pour toutes les autres (pages non liées). Notons qu'on a bien k i p i l + ( N k i ) p i n l = 1 {\displaystyle k_{i}p_{i}^{l}+(N-k_{i})p_{i}^{nl}=1} . Le paramètre q {\displaystyle q} vaut environ 0,15.
  • Les chaînes de Markov sont un outil fondamental pour modéliser les processus en théorie des files d'attente et en statistiques.
  • Les chaînes de Markov sont couramment employées en sûreté de fonctionnement pour les calculs de fiabilité et de disponibilité des systèmes techniques, en particulier pour modéliser des séquences d'évènements de type pannes, réparations, changements de configuration.
  • Les chaînes de Markov fondent les systèmes de Bonus/Malus mis au point par les actuaires des sociétés d'assurances automobiles (la probabilité d'avoir n accidents au cours de l'année t étant conditionnée par le nombre d'accidents en t-1)
  • Les chaînes de Markov sont également utilisées en bioinformatique pour modéliser les relations entre symboles successifs d'une même séquence (de nucléotides par exemple), en allant au-delà du modèle polynomial. Les modèles markoviens cachés ont également diverses utilisations, telles que la segmentation (définition de frontières de régions au sein de séquences de gènes ou de protéines dont les propriétés chimiques varient), l'alignement multiple, la prédiction de fonction, ou la découverte de gènes (les modèles markoviens cachés sont plus « flexibles » que les définitions strictes de type codon start + multiples codons + codons stop et ils sont donc plus adaptés pour les eucaryotes (à cause de la présence d'introns dans le génome de ceux-ci) ou pour la découverte de pseudo-gènes).
  • On peut se servir de ce type de chaines pour produire des mots, du texte, pour suggérer un mot à écrire[1].

Notes et références

  1. https://www.youtube.com/watch?v=YsR7r2378j0 La machine à inventer des mots (avec Code MU), ScienceEtonnante

Voir aussi

Sur les autres projets Wikimedia :

  • chaîne de Markov, sur le Wiktionnaire

Articles connexes

Bibliographie

  • Bruno Sericola : Chaînes de Markov - Théorie, algorithmes et applications. Hermes/Lavoisier, 2013.
  • Sylvie Méléard : Modèles aléatoires en écologie et évolution. Springer, 2016.
  • Paolo Baldi, Laurent Mazliak, Pierre Priouret, Martingales et chaînes de Markov. Théorie élémentaire et exercices corrigés, (ISBN 2-7056-6425-4), Hermann (éditions), 2001

Liens externes

  • Philippe Gay, « Markov et la Belle au bois dormant », sur Images des Maths,
  • (en) [PDF] Charles M. Grinstead et J. Laurie Snell, chap. « Markov Chains », dans Introduction to probability, AMS
  • (en) Markov Marvellous Chain
  • Exercices corrigés (wims de l'université de Nice Sophia Antipolis)
v · m
Index du projet probabilités et statistiques
Théorie des probabilités
Bases théoriques
Principes généraux
Convergence de lois
Calcul stochastique
Lois de probabilité
Lois continues
Lois discrètes
Mélange entre statistiques et probabilités
Interprétations de la probabilité
Théorie des statistiques
Statistiques descriptives
Bases théoriques
Tableaux
Visualisation de données
Paramètres de position
Paramètres de dispersion
Paramètres de forme
Statistiques inductives
Bases théoriques
Tests paramétriques
Tests non-paramétriques
Application
  • icône décorative Portail des probabilités et de la statistique
  • icône décorative Portail de la physique