Processus autorégressif - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Processus AR(1)

Un processus autorégressif d'ordre 1 s'écrit:

 X_t = c + \varphi X_{t-1}+ \varepsilon_t .\,

Représentation en moyenne mobile

On peut formuler le processus AR(1) de manière récursive par rapport aux conditions précédentes:

X_t=c\sum_{k=0}^{N-1}\varphi^k+\varphi^NX_{t-N}+\sum_{k=0}^{N-1}\varphi^k\varepsilon_{t-k}.

En remontant aux valeurs initiales, on aboutit à:

Propriété —  X_t=c\sum_{i=0}^{\infty}\varphi^i+\sum_{i=0}^{\infty}\varphi^i\varepsilon_{t-i}

Il est à noter que les sommes vont ici jusqu'à l'infini. Cela est dû au fait que les séries temporelles sont souvent supposées commencer depuis t_0=-\infty et non pas t0 = 0. Certains auteurs considèrent cependant que la série commence en t0 = 0 et ajoutent alors la valeur initiale X0 dans la formule.

On peut voir que Xt est le bruit blanc convolé avec le noyau \varphi^k plus une moyenne constante. Si le bruit blanc est gaussien, alors Xt est aussi un processus normal.

Représentation dans le domaine de la fréquence

La Densité spectrale de puissance est la Transformée de Fourier de la fonction d'autocovariance. Dans le cas discret, cela s'écrit:

\Phi(\omega)= \frac{1}{\sqrt{2\pi}}\,\sum_{n=-\infty}^\infty B_n e^{-i\omega n} =\frac{1}{\sqrt{2\pi}}\,\left(\frac{\sigma^2}{1+\varphi^2-2\varphi\cos(\omega)}\right).

Ce développement est périodique dû à la présence du terme en cosinus au dénominateur. En supposant que le temps d'échantillonnage (Δt = 1) est plus petit que le decay time (τ), alors on peut utiliser une approximation continue de Bn:

B(t)\approx \frac{\sigma^2}{1-\varphi^2}\,\,\varphi^{|t|}

qui présente une forme lorentzienne pour la densité spectrale:

\Phi(\omega)= \frac{1}{\sqrt{2\pi}}\,\frac{\sigma^2}{1-\varphi^2}\,\frac{\gamma}{\pi(\gamma^2+\omega^2)}

γ = 1 / τ est la fréquence angulaire associée à τ.

Moments d'un processus AR(1)

Pour calculer les différents moments d'un processus AR(1), soit son espérance, sa variance, son autocovariance et son autocorrélation, on va supposer que les bruits blancs sont indépendamment et identiquement distribués, d'espérance nulle et de variance σ2 (que l'on note \varepsilon_{i} \sim iid (0,\sigma^2) ).

Espérance

\operatorname{E}[X_t]=\varphi^t X_0 + c\sum_{i=0}^{t-1}\varphi^i\,

Démonstration par raisonnement par récurrence

  • P(0) (initialisation): \operatorname{E}[X_0] = X_0\, , parce que X0 est deterministique. L'expression est:
\varphi^0 X_0 + c \sum_{i=0}^{-1}\varphi^i = 1 X_0 + 0 = X_0\,
  • P(t+1) (hérédité ):
\operatorname{E}[X_{t+1}]= \operatorname{E}[c + \varphi X_t + \epsilon_t]\,

Comme E est un opérateur linéaire:

\operatorname{E}[X_{t+1}]= c + \varphi \operatorname{E}[X_t]\,

Avec l'hypothèse d'induction:

\operatorname{E}[X_{t+1}]=c + \varphi (\varphi^t X_0 + c \sum_{i=0}^{t-1}\varphi^i)\,
\operatorname{E}[X_{t+1}]=c + \varphi^{t+1} X_0 + c \sum_{i=0}^{t-1}\varphi^{i+1}\,

Par un changement de variables dans la somme, i -> i-1:

\operatorname{E}[X_{t+1}]= \varphi^{t+1} X_0 + c + c \sum_{i=1}^{t}\varphi^i\,

Et, avec c = c \sum_{i=0}^{0} \varphi^i\, :

\operatorname{E}[X_{t+1}]= \varphi^{t+1} X_0 + c \sum_{i=0}^{t}\varphi^i\,

Variance

\operatorname{Var}[X_t]= \sum_{i=0}^{\infty}\varphi^{2i}\sigma^2

Autocovariance

\operatorname{Cov}[X_t,X_{t-j}]= \varphi^{j}\sum_{i=0}^{\infty}\varphi^{2i}\sigma^2

Autocorrélation

\operatorname{Corr}[X_t,X_{t-j}]\equiv \frac{\operatorname{Cov}[X_t,X_{t-j}]}{\operatorname{Var}(X_t)}=\varphi^j

Conditions de stationnarité

Le paramètre \varphi détermine si le processus AR(1) est stationnaire ou non:  |\varphi| = \begin{cases}  <1 & \textrm{Le \ processus \ est \ stationnaire}\\  =1 &  \textrm{Marche \ aleatoire:   \ le \ processus \ est \ donc \ non \ stationnaire}\\  >1 & \textrm{Le \ processus \ est \ explosif}\end{cases}

ϕ<1

Les résultats suivant viennent du fait que si | q | < 1 alors la série géométrique \sum_{n=0}^{\infty} aq^n=\frac{a}{1-q} .

 \text{si} |\varphi|<1:

\operatorname{E}[X_t]=\frac{c}{1-\varphi}
\operatorname{Var}[X_t]= \frac{\sigma^2}{1-\varphi^2}
\operatorname{Cov}[X_t,X_{t-j}]= \frac{\varphi^j}{1-\varphi^2} \sigma^2
\operatorname{Corr}[X_t,X_{t-j}]=\varphi^j

On peut voir que la fonction d'autocovariance décroît avec un taux de \tau=-1/\ln(\varphi) . On voit ici que l'espérance et la variance sont constantes et que l'autocovariance ne dépend pas du temps: le processus est donc stationnaire.

ϕ=1

Lorsque \varphi =1 , le processus s'écrit: X_t=c+ X_{t-1}+\varepsilon_t et donc, en considérant contrairement à avant que t0 = 0, X_t=ct+X_0+\sum_{i=0}^{t-1}\varepsilon_{t-i}

 \text{si} |\varphi|=1:

\operatorname{E}[X_t]=ct+X_0\,
\operatorname{Var}[X_t]= t\sigma^2\,
\operatorname{Cov}[X_t,X_{t-j}]= (t-j)\sigma^2\,
Page générée en 0.101 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales
Version anglaise | Version allemande | Version espagnole | Version portugaise