| 1.6 Distribution initiale et comportement
transitoire
1.6.1 Distribution initialeLa distribution des états d'une chaàýne de
Markov après n transitions est notée ð(n). Cette
distribution est un vecteur de probabilités contenant la loi de la
variable aléatoire Xn ði = P [Xn = i], (n) Vi E S. En l'occurrence, ð(0) est la distribution
initiale. Remarque 1.6.1 : Si l'état initial est connu avec
certitude et égal a` i, on a simplement ði = 1 et
ð(0) (0) j = 0 pour tout j =6 i. Comportement transitoire Théorème 1.3 [13] : Soit P la matrice de
probabilités de transition d'une chaàýne de Markov et
ð(0) la distribution de son état initial. Pour tout n =
1, on a : ð(n) = ð(n--1)P, et ð(n) =
ð(0)Pn. |