Une nouvelle description des possibilités d'agrégation d'une chaîne de Markov
Résumé
On considère une chaîne de Markov (homogène) à espace d'état E fini. On est souvent amener à introduire une chaîne dite agrégée, dont l'espace d'état est constitué d'agrégats d'éléments de E. Malheureusement, cette chaîne ne possède plus, en général, la propriété de Markov (homogène). Des études récentes s'intéressent aux calcul de l'ensemble des lois initiales pour lesquelles la chaîne agrégée est markovienne. Dans ce travail, on montre que si la matrice de transition P du modèle initial est irréductible alors toute loi initiale permettant la conservation de la propriété de Markov diffère de la loi invariante de P par un vecteur d'un espace dit d'observabilité trajectorielle. En particulier cela permet de préciser un résultat récent de Peng.
Domaines
Probabilités [math.PR]
Origine : Fichiers produits par l'(les) auteur(s)