Processus autorégressif - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Introduction

Un processus autorégressif est un modèle de régression pour séries temporelles dans lequel la série est expliquée par ses valeurs passées plutôt que par d'autres variables.

Définition

Un processus autorégressif d'ordre p, noté AR(p) est donné par:

Définition — AR(p):  X_t = c + \varphi_1 X_{t-1}+\varphi_2 X_{t-2}+\ldots+\varphi_p X_{t-p} + \varepsilon_t .\,

\varphi_1, \ldots, \varphi_p sont les paramètres du modèle, c est une constante et \varepsilon_t un bruit blanc.

En utilisant L l'opérateur des retards, on peut l'écrire:  (1- \varphi_1 L-\varphi_2 L^2-\ldots-\varphi_p L^p)X_t=c+ \varepsilon_t .\,

Processus AR(p)

Un processus AR(p) s'écrit:

 X_t = c + \varphi_1 X_{t-1}+\varphi_2 X_{t-2}+\ldots+\varphi_p X_{t-p} + \varepsilon_t .\,

Moments

Les différents moments d'un processus stationnaire (voir section suivante) sont:

\operatorname{E}(X_t)=\frac{c}{1-\varphi_1-\varphi_2-\ldots-\varphi_p}

\operatorname{Var}(X_t)=\varphi_1\gamma_1+\varphi_2\gamma_2+\ldots+\varphi_p\gamma_p+\sigma^2

\operatorname{Cov}(X_t, X_{t-j})=\varphi_1\gamma_{j-1}+\varphi_2\gamma_{j-2}+\ldots+\varphi_p\gamma_{j-p}

Les formules de la variance et de la covariance correspondent aux équations dites de Yule et walker (voir plus bas).

Condition de stationarité

Théorème — Un processus AR(p) est stationnaire si le module des solutions (les racines) de son équation caractéristique est à chaque fois strictement supérieur à 1 en valeur absolue.

La condition est souvent formulée différemment, selon laquelle les racines doivent être en dehors du cercle complexe unitaire.

Exemple: AR(1)

Le polynôme des retards d'un processus AR(1) X_t=\varphi X_{t-1} + \varepsilon_t s'écrit: (1-\varphi L)X_t=\varepsilon_t . Sa résolution (en remplaçant l'opérateur retard L par la simple valeur x) donne 1-\varphi x=0 \Rightarrow   x= \frac{1}{\varphi} . La condition que la solution soit plus grande que 1 revient à |\frac{1}{\varphi}|>1 \Rightarrow |\varphi|<1

Exemple: AR(2)

Le polynôme des retards d'un processus AR(2) X_t=\varphi_1 X_{t-1} +\varphi_2 X_{t-2}+ \varepsilon_t s'écrit: (1-\varphi_1 L-\varphi_2 L^2)X_t=\varepsilon_t . La résolution de l'équation du second degré (1-\varphi_1 x-\varphi_2 x^2) amène aux conditions suivantes:

  • \varphi_1+\varphi_2<1
  • \varphi_1-\varphi_2<1
  • |\varphi_2|<1

Équations de Yule-Walker

Les équations de Yule-Walker établissent une correspondance directe entre les paramètres du modèle (les \varphi et c) et ses autocovariances. Elles sont utiles pour déterminer la fonction d'autocorrélation ou estimer les paramètres. Elles établissent que:

équation YW —  \gamma_j = \sum_{k=1}^p \varphi_k \gamma_{j-k} \qquad \forall j=1, \ldots, p

Les coefficients γj représentent la fonction d'autocovariance de X d'ordre j.

Lorsque l'on inclut également l'autocovariance d'ordre 0 (en fait la variance), il faut également rajouter la variance des résidus pour la première équation. Ce terme supplémentaire ne se retrouve que dans la première équation car on a fait l'hypothèse d'indépendance des résidus (et donc \operatorname{Cov}(\varepsilon)=0 ).

équation YW —  \gamma_j = \sum_{k=1}^p \varphi_k \gamma_{j-k} + \sigma_\varepsilon^2\delta_j \qquad \forall j=0,\ldots, p

\sigma_\varepsilon est la déviation (écart-type) du bruit blanc et δj le Symbole de Kronecker, qui vaut 1 si j=0 et 0 autrement.

Il est aussi possible d'exprimer ces équations en fonctions de l'autocorrélation:

équation YW —  \rho_j = \sum_{k=1}^p \varphi_k \rho_{j-k} + \sigma_\varepsilon^2\delta_j \qquad \forall j=0,\ldots, p

Exemples

AR(1)

Pour un processus AR(1), on a que:

\gamma_j=\varphi \gamma_{j-1} \qquad \forall j=1,\ldots,p

On remarque que l'on retrouve rapidement, avec j=1, le résultat obtenu plus haut que:

-  \rho_1=\frac{\gamma_1}{\gamma_0}=\varphi
- \operatorname{Var}[X_t]= \frac{\sigma^2}{1-\varphi^2} en prenant l'équation supplémentaire pour \gamma_0=\varphi\gamma_1 +\sigma^2_{\varepsilon} , qui devient alors \gamma_0=\varphi\gamma_0\varphi +\sigma^2_{\varepsilon}=\varphi^2\gamma_0 +\sigma^2_{\varepsilon}\Rightarrow(1-\varphi^2)\gamma_0=\sigma^2\Rightarrow \gamma_0=\frac{\sigma^2}{1-\varphi^2}
AR(p)
\begin{cases} \gamma_1 =\varphi_1\gamma_0+\varphi_1\gamma_1+\ldots +\varphi_p\gamma_{p-1}\\ \gamma_2 =\varphi_1\gamma_1+\varphi_2\gamma_2+\ldots +\varphi_p\gamma_{p-2}\\ \vdots \\ \gamma_p =\varphi_{1}\gamma_{p-1}+\varphi_2\gamma_{p-2}+\ldots +\varphi_p\gamma_{0} \end{cases}

Que l'on peut écrire sous forme matricielle:

\begin{bmatrix} \gamma_1 \\ \gamma_2 \\ \gamma_3 \\ \vdots \\ \end{bmatrix}   =  \begin{bmatrix} \gamma_0 & \gamma_{-1} & \gamma_{-2} & \dots \\ \gamma_1 & \gamma_0 & \gamma_{-1} & \dots \\ \gamma_2 & \gamma_{1} & \gamma_{0} & \dots \\ \vdots      & \vdots         & \vdots       & \ddots \\ \end{bmatrix}   \begin{bmatrix} \varphi_{1} \\ \varphi_{2} \\ \varphi_{3} \\  \vdots \\ \end{bmatrix}

Preuve

L'équation définissante du processus AR est

 X_t = \sum_{i=1}^p \varphi_i\,X_{t-i}+ \varepsilon_t.\,

En multipliant les deux membres par Xt − m et en prenant l'espérance, on obtient

E[X_t X_{t-j}] = E\left[\sum_{i=1}^p \varphi_i\,X_{t-i} X_{t-j}\right]+ E[\varepsilon_t X_{t-j}].

Or, il se trouve que E[XtXt − j] = γj par définition de la fonction d'autocovariance. Les termes du bruit blancs sont indépendants les uns des autres et, de plus, Xt − j est indépendant de εtj est plus grand que zéro. Pour j > 0, E[εtXt − j] = 0. Pour j = 0,

E[\varepsilon_t X_{t}]  = E\left[\varepsilon_t \left(\sum_{i=1}^p \varphi_i\,X_{t-i}+ \varepsilon_t\right)\right] = \sum_{i=1}^p \varphi_i\, E[\varepsilon_t\,X_{t-i}] + E[\varepsilon_t^2] = 0 + \sigma_\varepsilon^2,

Maintenant, on a pour j ≥ 0,

\gamma_j = E\left[\sum_{i=1}^p \varphi_i\,X_{t-i} X_{t-j}\right] + \sigma_\varepsilon^2 \delta_j.

Par ailleurs,

E\left[\sum_{i=1}^p \varphi_i\,X_{t-i} X_{t-j}\right] = \sum_{i=1}^p \varphi_i\,E[X_{t} X_{t-j+i}] = \sum_{i=1}^p \varphi_i\,\gamma_{j-i},

qui donne les équations de Yule-Walker:

\gamma_m = \sum_{i=1}^p \varphi_i \gamma_{j-i} + \sigma_\varepsilon^2 \delta_j.

pour j ≥ 0. Pour j < 0,

\gamma_j = \gamma_{-j} = \sum_{i=1}^p \varphi_i \gamma_{|j|-i} + \sigma_\varepsilon^2 \delta_j.

Estimation

En partant du modèle AR(p) sans constante donné par:

 X_t = \sum_{i=1}^p \varphi_i X_{t-i}+ \varepsilon_t.\,

Les paramètres à estimer sont les \varphi_i \quad i=1,\ldots,p et \sigma^2_\varepsilon .

Méthode de Yule-Walker

La méthode consiste à reprendre les équations de Yule-Walker en inversant les relations: on exprime les coefficients en fonction des autocovariances. On applique alors le raisonnement de la Méthode des moments: on trouve les paramètres estimés d'après les autocovariances estimées.

En prenant l'équation sous sa forme matricielle:

\begin{bmatrix} \gamma_0 \\ \gamma_1 \\ \gamma_2 \\ \gamma_3 \\ \vdots \\ \end{bmatrix}   =  \begin{bmatrix} \gamma_{-1} & \gamma_{-2} & \gamma_{-3} & \dots &1\\ \gamma_0 & \gamma_{-1} & \gamma_{-2} & \dots &0\\ \gamma_1 & \gamma_0 & \gamma_{-1} & \dots &0\\ \gamma_2 & \gamma_{1} & \gamma_{0} & \dots &0\\ \vdots      & \vdots         & \vdots       & \ddots &0\\ \end{bmatrix}   \begin{bmatrix} \varphi_{1} \\ \varphi_{2} \\ \varphi_{3} \\  \vdots \\ \sigma^2_\varepsilon \end{bmatrix}

Le vecteur des paramètres \hat\theta=\begin{pmatrix} \hat\varphi_{1} \\  \vdots \\ \hat\sigma^2_\varepsilon \end{pmatrix} peut alors être obtenu.

Maximum de vraisemblance inconditionnel

L'estimation d'un modèle AR(P) par la méthode du maximum de vraisemblance est délicate car la fonction de vraisemblance est très complexe et n'a pas de dérivée analytique. Cette difficutlé provient de l'interdépendance des valeurs, ainsi que du fait que les observations antérieures ne sont pasd toutes disponibles pour les p premières valeurs.

Maximum de vraisemblance conditionnel

Une manière de simplifier la complexité de la fonction de vraisemblance est de conditionner cette fonction aux p premières observations. La fonction de log-vraisemblance devient:  \begin{align}L(x_1, x_2,\ldots, x_T)&=-\frac{(T-P)}{2}\log(2 \pi) -\frac{(T-P)}{2}\log(\sigma^2)\\ &-\sum_{t=p+1}^{T}\frac{(y_t-c-\varphi_1y_{t-1}-\varphi_2y_{t-2}-\ldots-\varphi_py_{t-p})^2}{2\sigma^2} \end{align}

La maximisation de cette fonction par rapport aux paramètres \varphi correspond à la minimisation des erreurs du modèle. L'estimateur du maximum de vraisembance conditionnel correspond ainsi à celui des moindres carrés.

L'estimateur obtenu sera équivalent à l'estimateur inconditionnel dans de grands échantillons et tous deux ont la même distribution asymptotique (Hamilton 1994, p. 126). Il peut être biaisé

Propriétés des estimateurs

Davidson et McKinnon (1993) rapportent que l'estimateur des moindres carrés conditionnel est biaisé, mais néanmoins convergent. Cryer et Chan (2008) proposent une simulation Monte-Carlo pour tester les différents estimateurs.

Page générée en 0.546 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales | Partenaire: HD-Numérique
Version anglaise | Version allemande | Version espagnole | Version portugaise