Propriété markovienne - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs est disponible ici.

En probabilité un processus stochastique vérifie la propriété markovienne si et seulement si la distribution conditionnelle de probabilité des états futurs, étant donné l'instant présent, ne dépend que de ce même état présent et pas des états passés. Un processus qui possède cette propriété est appelé processus de Markov.

Mathématiquement, si X(t), t > 0, est un processus stochastique, la propriété de Markov est définie ainsi :

\mathrm{P}\big[X(t+h) = y \,|\, X(s) = x(s), s \leq t\big] = \mathrm{P}\big[X(t+h) = y \,|\, X(t) = x(t)\big], \quad \forall h  width= 0." />

Généralement, on utilise une hypothèse d'homogénéïté dans le temps, c'est-à-dire

\mathrm{P}\big[X(t+h) = y \,|\, X(t) = x(t)\big] = \mathrm{P}\big[X(h) = y \,|\, X(0) = x(0)\big], \quad \forall t, h  width= 0," />

Dans certains cas, un processus à première vue non-markovien peut tout de même avoir des représentations markoviennes en modifiant le concept d'état actuel et futur. Soit X un intervalle de temps et un processus Y, tel que chaque état de Y représente un intervalle de temps de X :

Y(t) = \big\{ X(s) : s \in [a(t), b(t)] \, \big\}.

Si Y est markovien, alors c'est une représentation markovienne de X et X est alors appelé processus de Markov du second ordre. Les processus d'ordre supérieurs sont définis de la même manière.

Page générée en 0.178 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales | Partenaire: HD-Numérique
Version anglaise | Version allemande | Version espagnole | Version portugaise