Propriété de Markov - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Propriété de Markov faible (temps continu, espace discret)

Mathématiquement, si X(t), t > 0, est un processus stochastique, et si x(t), t > 0, est une fonction, la propriété de Markov est définie ainsi :

\mathrm{P}\big[X(t+h) = y \,|\, X(s) = x(s), s \leq t\big] = \mathrm{P}\big[X(t+h) = y \,|\, X(t) = x(t)\big], \quad \forall h > 0.

Généralement, on utilise une hypothèse d'homogénéité dans le temps, c'est-à-dire :

\mathrm{P}\big[X(t+h) = y \,|\, X(t) = x(t)\big] = \mathrm{P}\big[X(h) = y \,|\, X(0) = x(0)\big], \quad \forall t, h > 0.

Dans certains cas, un processus à première vue non-markovien peut tout de même avoir des représentations markoviennes en modifiant le concept d'état actuel et futur. Soient X un intervalle de temps, et Y un processus tel que chaque état de Y représente un intervalle de temps de X :

Y(t) = \big\{ X(s) : s \in [a(t), b(t)] \, \big\}.

Si Y est markovien, alors c'est la représentation markovienne de X et X qui est alors appelée processus de Markov du second ordre. Les processus d'ordre supérieur sont définis de la même manière.

Propriété de Markov forte (temps discret, espace discret)

Temps d'arrêt

Notons \scriptstyle\ \mathcal{F}_n\ la tribu engendrée par la suite \scriptstyle\ (X_k)_{0\le k\le n}.\ Dans le cas de variables aléatoires à valeurs dans un espace d'états \scriptstyle\ E\ fini ou dénombrable, une partie \scriptstyle\ A\subset \Omega\ appartient à \scriptstyle\ \mathcal{F}_n\ si et seulement si il existe \scriptstyle\ B\subset E^{n+1}\ tel que

\begin{align} A &= \left\{(X_0,X_1,\dots,X_n)\in B\right\} \\ &= \left\{\omega\in\Omega\ |\ \left(X_k(\omega)\right)_{0\le k\le n}\in B\right\}. \end{align}

Définition — Une variable aléatoire T : \Omega \rightarrow \mathbb N \cup \{ \infty \} est un temps d'arrêt de la chaîne de Markov \scriptstyle\ (X_n)_{n\ge 0}\ si,

\forall n \in \mathbb N,\quad\{T=n\} \in \mathcal{F}_n,

ou bien, équivalemment, si,

\forall n \in \mathbb N,\quad\{T\le n\} \in \mathcal{F}_n.

Interprétation. Imaginons que les variables aléatoires \scriptstyle\ X_k\ représentent les résultats d'un joueur lors des parties successives d'un jeu, et que \scriptstyle\ T\ représente la partie après laquelle le joueur décide d'arrêter de jouer : \scriptstyle\ T\ est un temps d'arrêt si la décision d'arrêter est prise en fonction des résultats des parties déjà jouées au moment de l'arrêt, i.e. si pour tout \scriptstyle\ n\ il existe un sous ensemble \scriptstyle\ B_n\subset E^{n+1}\ tel que  :

 \{T=n\}\quad \Leftrightarrow\quad\left\{(X_0,X_1,\dots,X_n)\in B_n\right\}.

Cela interdit au joueur de prendre sa décision en fonction des résultats des parties futures : cela revient à faire l'hypothèse que don de double vue et tricherie sont exclus.

Pour une définition d'un temps d'arrêt en situation générale on pourra regarder

Exemples  :

Les variables aléatoires ci-dessous sont des temps d'arrêt :

  • Soit \scriptstyle\ j\ un état de la chaîne de Markov  ; on appelle instant de premier retour en \scriptstyle\ j,\ et on note \scriptstyle\ R_j,\ la variable aléatoire définie ci-dessous :
 R_j = \left\{ \begin{array}{lll} \inf\left\{n > 0\,\vert\,X_n = j\right\}& &\textrm{si }\quad\left\{n > 0\,\vert\,X_n = j\right\} \neq\emptyset,\\ +\infty& &\textrm{sinon.} \end{array} \right.
On arrête donc de jouer dès qu'on arrive à l'état \scriptstyle\ j,\ mais sans compter l'état initial. Si on remplace \scriptstyle\ \{n > 0\}\ par \scriptstyle\ \{n \ge 0\}\ dans la définition, on parle de temps d'entrée, plutôt que de temps de retour.
  • De même pour \scriptstyle\ C\ une partie de \scriptstyle\ E,\ on appelle instant de première entrée dans \scriptstyle\ C,\ et on note \scriptstyle\ T_C,\ la variable aléatoire ci-dessous définie :
 T_C = \left\{ \begin{array}{lll} \inf\left\{n \ge 0\,\vert\,X_n \in C\right\}& &\textrm{si }\quad\left\{n \ge 0\,\vert\,X_n \in C\right\} \neq\emptyset,\\ +\infty& &\textrm{sinon.} \end{array} \right.
  • L'instant de \scriptstyle\ k -ème retour en \scriptstyle\ i,\ noté \scriptstyle\ R^{(k)}_i\ et défini par récurrence par :
 R^{(k)}_i = \left\{ \begin{array}{lll} \inf\left\{n > R^{(k-1)}_i\,\vert\,X_n = i\right\}& &\textrm{si }\quad\left\{n > R^{(k)}_i\,\vert\,X_n = i\right\} \neq\emptyset,\\ +\infty& &\textrm{sinon.} \end{array} \right.,

ou encore l'instant de \scriptstyle\ k -ème entrée dans \scriptstyle\ C,\ sont des t.a..

Contrexemple  :

Pour \scriptstyle\ i\ et \scriptstyle\ j\ dans \scriptstyle\ E,\ on pose \scriptstyle\ T = \inf\left\{n \ge  0\,\vert\,X_n = i \text{ et } X_{n+1} = j\right\}.\ On peut montrer que \scriptstyle\ T \ n'est pas un temps d'arrêt, mais que, par contre, \scriptstyle\ T + 1\ est un temps d'arrêt.

Définition et propriété — Soit \scriptstyle\ T\, un temps d'arrêt et \scriptstyle\ A \in \mathcal{A}\ :\ A\, est appelé évènement antérieur à \scriptstyle\ T\, si:

\forall n \in \mathbb N,\qquad \ A \cap (T=n) \in \mathcal{F}_n.

L'ensemble des évènements antérieurs à \scriptstyle\ T\, forme une sous-tribu de \scriptstyle\ \mathcal{A} appelée tribu antérieure à \scriptstyle\ T\, et notée \scriptstyle\ \mathcal{F}_T.

Interprétation. On sait que pour tout \scriptstyle\ n\ il existe un sous ensemble \scriptstyle\ B_n\subset E^{n+1}\ tel que  :

 \{T=n\}\quad \Leftrightarrow\quad\left\{(X_0,X_1,\dots,X_n)\in B_n\right\}.

Si de plus \scriptstyle\ A\in\mathcal{F}_T, cela signifie que pour tout \scriptstyle\ n\ il existe un sous ensemble \scriptstyle\ D_n\subset B_n\ tel que

 \left\{A\cap \{T=n\}\right\}\quad \Leftrightarrow\quad\left\{(X_0,X_1,\dots,X_n)\in D_n\right\}.

En quelque sorte, on teste si l'évènement \scriptstyle\ A\ se produit ou pas en observant le comportement de la suite \scriptstyle\ (X_k)_{0\le k\le n}\ jusqu'au temps \scriptstyle\ T\ :\ par abus de langage, on dit parfois que l'évènement \scriptstyle\ A\ porte sur la suite \scriptstyle\ (X_0, X_1,\dots,X_T).\

Propriété de Markov forte

Dans l'énoncé général de la propriété de Markov faible, l'instant « présent », n, peut-être remplacé par un instant « présent » aléatoire, \scriptstyle\ T,\ pourvu que \scriptstyle\ T\ soit un temps d'arrêt :

Propriété de Markov forte —  Pour un temps d'arrêt \scriptstyle\ T\ de \scriptstyle\ X,\ et un élément \scriptstyle\ A\ de \scriptstyle\ \mathcal F_T,\ on a

 \begin{align} {\mathbb P}_{\mu}\Big(\big(X_{T+n}\big)_{n\ge 0}\in B\text{ et }A\ &\vert\ T<+ \infty \text{ et }X_T=i\Big)\\ &={\mathbb P}_i\left(\left(X_{n}\right)_{n\ge 0}\in B\right){\mathbb P}_{\mu}\left(A\ \vert\ T<+ \infty\text{ et }X_T=i\right). \end{align}

Cela peut s'interpréter comme une forme d'indépendance (une indépendance conditionnelle ) entre le passé, \scriptstyle\ A,\ et le futur, \scriptstyle\ \big(X_{T+n}\big)_{n\ge 0}\in B,\ de \scriptstyle\ T,\ sachant ce qui se passe à l'instant \scriptstyle\ T,\ à savoir \scriptstyle\ \{T<+ \infty\text{ et }X_T=i\}.\ En effet, en particularisant \scriptstyle\ A=\Omega,\ on obtient que

 \begin{align} {\mathbb P}_{\mu}\Big(\big(X_{T+n}\big)_{n\ge 0}\in B\ \vert\ T<+ \infty \text{ et }X_T=i\Big) &={\mathbb P}_i\left(\left(X_{n}\right)_{n\ge 0}\in B\right) \end{align}

puis, en revenant à un élément général \scriptstyle\ A\ de \scriptstyle\ \mathcal F_T\ , on obtient la formulation suivante :

Indépendance conditionnelle — Pour un temps d'arrêt \scriptstyle\  T\ de \scriptstyle\  X,\ et un élément \scriptstyle\  A\ de \scriptstyle\  \mathcal F_T,\ on a

 \begin{align} {\mathbb P}_{\mu}\Big(\big(X_{T+n}\big)_{n\ge 0}\in B&\text{ et }A\ \vert\ T<+ \infty \text{ et }X_T=i\Big)\\ &={\mathbb P}_{\mu}\Big(\big(X_{T+n}\big)_{n\ge 0}\in B\ \vert\ T<+ \infty \text{ et }X_T=i\Big){\mathbb P}_{\mu}\left(A\ \vert\ T<+ \infty\text{ et }X_T=i\right). \end{align}

Cas particulier des temps de retour

Dans le cas où la chaîne de Markov est irréductible, où l'état \scriptstyle\ i\ est récurrent, et où le temps d'arrêt \scriptstyle\ T\ considéré est l'instant de k-ème retour en \scriptstyle\ i,\ noté plus haut \scriptstyle\ R_i^{k},\ on constate que, par récurrence de l'état \scriptstyle\ i,\

 {\mathbb P}_{\mu}\Big(T<+\infty\Big)=1,

et que, par définition de \scriptstyle\ R_i^{k},\

 {\mathbb P}_{\mu}\Big(X_T=i\Big)=1.

Ainsi les conditions apparaissant dans la propriété de Markov forte sont presque certaines. Or, dès que \scriptstyle\ {\mathbb P}_{\mu}(C)=1,\ on a \scriptstyle\ {\mathbb P}_{\mu}(D\,|\,C)={\mathbb P}_{\mu}(D).\ Ici cela donne que

 \begin{align} {\mathbb P}_{\mu}\Big(\big(X_{T+n}\big)_{n\ge 0}\in B\text{ et }A\Big) &={\mathbb P}_{\mu}\Big(\big(X_{T+n}\big)_{n\ge 0}\in B\Big){\mathbb P}_{\mu}\left(A\right) \\ &={\mathbb P}_i\left(\left(X_{n}\right)_{n\ge 0}\in B\right){\mathbb P}_{\mu}\left(A\right). \end{align}

Pour tout k, il y a donc indépendance ( inconditionnelle ) entre les évènements qui précèdent le k-ème passage en \scriptstyle\ i\ et les évènements qui suivent le k-ème passage en \scriptstyle\ i.\ Qui plus est, la trajectoire de la chaîne de Markov après le k-ème passage en \scriptstyle\ i, \ (X_{T+n})_{n\ge 0},\ a même loi que la trajectoire d'une chaîne de Markov partant de \scriptstyle\ i\ à l'instant 0 : elle redémarre comme neuve, indépendamment de ce qui a pu se passer auparavant. On dit alors que les temps de retour successifs sont des instants de renouvellement ou bien des instants de régénération.

Les morceaux de trajectoires entre deux régénérations consécutives forment alors une suite de variables aléatoires i.i.d. (sauf le premier morceau, indépendant, mais éventuellement de loi différente, si la chaîne de Markov ne part pas de \scriptstyle\ i\ à l'instant 0). Cela conduit à une démonstration de la loi forte des grands nombres pour les chaînes de Markov déduite de la loi forte des grands nombres pour les v.a.r. i.i.d.. Cela donne également une méthode pour construire des intervalles de confiance pour les paramètres intéressants de la chaîne de Markov.

Page générée en 0.144 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales
Version anglaise | Version allemande | Version espagnole | Version portugaise