Les séries temporelles

add.png

\bullet Présentation:

Les séries temporelles ou chronologiques sont des processus stochastiques définies par une variable aléatoire continue X = (X_1, \cdots, X_T). Les séries temporelles sont accompagnées également d’une batterie d’outils statistique visant à modéliser et fournir des indicateurs sur leur nature.

Les séries temporelles ont connu leur premier fait d’arme au début du vingtième siècle. C’est en 1970, grâce à l’oeuvre de George Box et Gwilym Jenkins qu’elles deviennent très populaires et régulièrement utilisées.

Etudier les séries temporelles revient à étudier les trois principaux éléments suivants,

– la stationnarité soit l’évolution de la structure de la série temporelle en fonction du temps,

– la saisonnalité soit le cycle de reproduction de la série temporelle au travers de l’autocorrélation,

– la tendance globale de la série.

Dans l’objectif de modéliser une série temporelle aussi bien pour étudier sa reproductibilité qu’à des fins prévisionnelles et prédictives, une large variété de modèles ont vus le jour et dont les principaux sont:

– le processus AR (Auto Regressive) basé sur les valeurs antérieurs,

– le processus MA (Moving-Average) qui est souvent confondu avec les moyennes mobiles (ou Moving Average, le trait d’union faisant toute la différence) classiques, qui n’a rien à voir et qui est basé sur les résidus,

– le processus ARMA (Auto Regressive Moving Average) limité aux séries stationnaires et linéaires et mixant les caractéristiques du modèle AR et du modèle MA,

– le processus ARIMA (Auto Regressive Integrated Moving Average) qui est une généralisation du modèle ARMA aux séries non stationnaires et linéaires,

– le processus SARIMA (Seasonnal AutoRegressive Integrated Moving Average)  qui est une extension du modèle ARIMA pour les séries avec saisonnalité fixe,

– le processus ARFIMA (Autoregressive Fractionally Integrated Moving Average) qui généralise le modèle ARIMA aux processus à mémoire longue,

– le processus VAR (Vector Auto Regressive) qui permet la gestion de plusieurs séries endogènes linéaires,

– les processus ARCH (Auto Regressive Conditionnal Heteroscedasticity), GARCH (Generalized Regressive Conditionnal Heteroscedasticity) et leur multiple variante (NGARCH, IGARCH, EGARCH, GARCH-M, QGARCH, GJR-GARCH, TGARCH, fGARCH et COGARCH) pour la gestion de phénomènes non linéaires avec volatilité.

Enfin, les limites des séries chronologiques ont donné naissance aux modèles combinant séries chronologiques et chaînes de Markov, représentant une nouvelle branche en plein essor.

\bullet Les modèles:

De manière générale, nous poserons B, l’opérateur retard, de formule,

B \cdot X_t = X_{t - 1}

Et,

\Phi(B) = 1 - \phi_1 B - \cdots - \phi_l B ^l

Le modèle AR(p)

Le modèle:

Un processus autorégressif d’ordre p est un processus stationnaire tel que,

X_t = \sum_{i = 1} ^p \phi_i X_{t - i} + \epsilon_t, \forall t \in Z

En passant par l’opérateur retard, nous pouvons réécrire le processus sous la forme,

\Phi(B) X_t = \epsilon_t

Estimation des coefficients (\phi_1, \cdots, \phi_p):

La résolution du modèle se fait au travers des équations de Yule-Walker,

\begin{pmatrix} \phi_1 \\ \vdots \\ \phi_p \end{pmatrix} = \begin{pmatrix} 1 & \rho(1) & \rho(2) & \rho(3) & \ldots & \rho(p-1) \\ \rho(1) & 1 & \rho(1) & \rho(2) & \ldots & \rho(p - 2) \\ \rho(2) & \rho(1) & 1 & \rho(1) & \ldots & \rho(p - 3) \\ \vdots & \vdots & \vdots & \vdots & \cdots & \vdots \\ \rho(p - 1) & \rho(p - 2) & \rho(p - 3) & \rho(p - 4) & \ldots & 1 \end{pmatrix} ^{-1} \begin{pmatrix} \rho(1) \\ \vdots \\ \rho(p) \end{pmatrix}

Avec \rho(i) le coefficient d’autocorrélation.

Le modèle moyenne mobile MA(q)

Le modèle:

Un processus moyenne mobile d’ordre q est tel que,

X_t = \epsilon_t - \sum_{i = 1} ^q \theta_i \epsilon_{t - i}, \forall t \in Z

En passant par l’opérateur retard, nous pouvons réécrire le processus sous la forme,

X_t = \Theta ^{-1} (B) \epsilon_t

Estimation des coefficients (\theta_1, \cdots, \theta_q):

L’estimation des paramètres d’un modèle MA(q) nécessite la transformation du processus en un modèle AR(\infty) en inversant la seconde forme ci-dessus,

X_t = \Theta (B) \epsilon_t = - \sum_{i = 1} ^{\infty} \pi_i X_{t - i} + \epsilon_t, \sum_{i = 1} ^{\infty} | \pi_i | < + \infty

Ce système se résout alors par ajustement itératif non linéaire.

Le modèle ARMA(p,q)

Le modèle:

Un processus moyenne mobile autorégressive d’ordre (p, q) est un processus stationnaire tel que,

X_t = \theta_0 + \epsilon_t + \sum_{i = 1} ^p \phi_i X_{t - i} - \sum_{i = 1} ^q \theta_i \epsilon_{t - i}

En passant par l’opérateur retard, nous pouvons réécrire le processus sous la forme,

\Phi(B) X_t = \theta_0 + \Theta(B) \epsilon_t

Estimation des coefficients (\phi_1, \cdots, \phi_p, \theta_1, \cdots, \theta_q):

Plusieurs familles de méthodes existent pour l’estimation des coefficients:

– celles basées sur la fonction d’autocovariance,

– celles basées sur le pseudo-maximum de la vraisemblance selon l’un des trois critères MCC (moindres carrés conditionnel), MCN (moindres carrés non conditionnel) ou MV (maximum de vraisemblance),

– celles basées sur la résolution directe des équations de vraisemblance approchées,

– celles basées sur des approches itératives d’estimation.

Le modèle ARIMA(p,d,q)

Le modèle:

Un processus moyenne mobile intégrée autoregressive d’ordre (p,d,q) est un processus non stationnaire tel que,

X_t = X_{-S + t} + \sum_{i = 1} ^{t + S - 2} \epsilon_{t - i}, t \leq -S + 2, S \in N

En passant par l’opérateur retard, et en posant \Delta ^d X_t = (1 - B) ^d la différence d’ordre d de X_t, nous pouvons réécrire le processus sous la forme,

\Phi(B) \Delta ^d X_t = \Theta(B) \epsilon_t

Estimation des coefficients (\phi_1, \cdots, \phi_p, \theta_1, \cdots, \theta_q):

L’Estimation des coefficients se fait de la même manière que pour un processus ARMA(p + d,q).

\bullet La saisonnalité:

L’Autocorrélation d’une série temporelle est en générale le premier point à étudier.

Elle se base sur le coefficient de corrélation de Pearson et doit son nom au fait qu’elle consiste à étudier le lien entre la série elle-même et sa version décalée de h périodes. Nous parlons alors d’autocorrélation d’ordre h. Elle permet donc de visualiser les liens entre les différents temps de X et de détecter la présence de saisonnalité.

L’Autocorrélation partielle représente la corrélation entre X_t et X_{t+h} une fois que nous avons retiré l’influence de X entre ces deux temps. Elle permet ainsi de détecter les fausses corrélations et d’améliorer l’information associée à la détection de vrai ou fausse saisonnalité.

– L’Autocovariance d’ordre h:

cov(X_t, X_{t+h}) = \frac{1}{T} \sum_{t = 1} ^{T-h} (X_t - \overline{X}) (X_{t + h} - \overline{X})

– L’Autocorrélation d’ordre h:

\rho(h) = \frac{cov(X_t, X_{t+h})}{V(X_t)}

– L’Auto-corrélation partielle d’ordre h:

p_h = \frac{det(P_h ^*)}{det(P_h)}

Avec,

P_h ^* = \begin{pmatrix} 1 & \rho(1) & \rho(1) & \rho(1) & \cdots & \rho(1) & \rho(1) \\ \rho(1) & 1 & \rho(2) & \rho(2) & \cdots & \rho(2) & \rho(2) \\ \rho(2) & \rho(1) & 1 & \rho(3) & \cdots  & \rho(3) & \rho(3) \\ \rho(3) & \rho(2) & \rho(1) & 1 & \cdots & \rho(4) & \rho(4) \\ \vdots & \vdots & \vdots & \vdots & \cdots & \vdots & \vdots \\ \rho(h-2) & \rho(h-3) & \rho(h-4) & \rho(h-5) & \cdots & 1 & \rho(h-1) \\ \rho(h-1) & \rho(h-2) & \rho(h-3) & \rho(h-4) & \cdots & \rho(1) & \rho(h) \end{pmatrix}

NB: P_1 ^* = \rho(1)

P_h = \begin{pmatrix} 1 & \rho(1) & \rho(2) & \rho(3) & \cdots & \rho(h-1) \\ \rho(1) & 1 & \rho(3) & \rho(2) & \cdots & \rho(h-2) \\ \rho(2) & \rho(3) & 1 & \rho(1) & \cdots & \rho(h-3) \\ \vdots  & \vdots & \vdots & \vdots & \ldots & \vdots \\ \rho(h-2) & \rho(h-3) & \rho(h-4) & \rho(h-5) & \cdots & \rho(1) \\ \rho(h-1) & \rho(h-2) & \rho(h-3) & \rho(h-4) & \cdots & 1 \end{pmatrix}

NB: P_1 = 1

– Les tests pour la détection de la saisonnalité:

Tout une gamme de tests existe pour déterminer si les autocorrélations ou autocorrélations partielles sont significatives. Parmi eux nous avons les tests du Portemanteau (test de Box-Pierce et de Ljung-Box), le test de Durbin-Watson et celui de Breusch-Godfrey.

\bullet La tendance:

La tendance (que nous retrouvons souvent dans la littérature sous le terme anglosaxon: trend) représente l’orientation globale de la série X de son premier temps mesuré au dernier.

Elle s’étudie généralement via une régression linéaire pour sa forme générale et via une analyse de variance (ANOVA) pour sa forme regroupée (par mois, jour, etc).

Les informations obtenues suite à l’analyse de la tendance de la série temporelle permettent entre autres de déterminer si oui ou non elle se délocalise dans le temps et ainsi d’adapter le modèle.

\bullet La stationnarité:

La notion de stationnarité d’un processus joue un rôle primordiale dans l’étude des séries chronologiques. Elle consiste à observer l’évolution du processus X au fur et à mesure que t \in [1, T] croît. Si elle ne change pas alors nous parlons de processus stationnaire, dans le cas contraire nous parlons de processus non stationnaire.

Enfin, étudier la stationnarité d’un processus revient également à étudier si sa racine est unitaire.

– Le test de Dickey-Fuller augmenté

Présentation:

Le test de Dickey-fuller augmenté , développé par David A. Dickey et Wayne A. Fuller en 1979, permet de détecter la non-stationnarité d’une série temporelle X = (X_1, \cdots, X_T). Il s’agit d’une version étendue du test de Dickey-Fuller et qui était restreint aux processus AR(1).

Le test:

L’idée du test est d’étudier le modèle linéaire,

Z ^1 = X|_{t \in [K, T]} + 1 + t_{\in [K, T]} + (Z ^2, \cdots, Z ^K)

Avec,

K = E[(T - 1) ^{\frac{1}{3}}] + 1, le nombre de décalage à considérer et E[.] désigne ici la partie entière et non l’espérance,

\mathbf{Z} = (X|_{t \in [K,T]}, X|_{t \in [K-1,T-1]}, \cdots, X|_{t \in [1,T-K+1]}), la matrice des décalages successifs de X,

1, le vecteur unitaire de longueur (T - K).

Nous appliquons alors une régression linéaire sur ce modèle et retenons le coefficient associé à X|_{t \in [K, T]}, que nous noterons \beta, ainsi que son écart-type sd_{\beta}.

La statistique de test de Dickey-Fuller augmenté est alors,

ADF = \frac{\beta}{sd_{\beta}}

Elle suit une loi de Dickey-Fuller et l’hypothèse H_0 est: « \beta = 0 / le processus est non-stationnaire ».

– Le test de Kwiatowski-Phillips-Schmidt-Shin

Présentation:

Le test de Kwiatowski-Phillips-Schmidt-Shin, publié en 1992 par D. Kwiatkowski, P. C. B. Phillips, P. Schmidt et Y. Shin et noté test KPSS, est un test de stationnarité.

Le test:

Le calcul de la statistique de test se fait selon les trois étapes suivantes:

– Étape 1: Appliquer une régression linéaire de X sur t, \in [1,T] et en sortir le vecteur des résidus \epsilon_t, t \in [1, T].

– Étape 2: Calculer le vecteur S des sommes cumulées des résidus et de forme,

S = (\epsilon_1, \sum_{t = 1} ^2 \epsilon_t, \cdots, \sum_{t = 1} ^T \epsilon_t)

– Étape 3: Calculer la statistique de test KPSS,

KPSS = \frac{\frac{1}{T ^2} \sum_{t = 1} ^T S_t}{\frac{1}{T} \sum_{t = 1} ^T \epsilon_t}

La statistique de test suit une loi de Kwiatowski-Phillips-Schmidt-Shin et l’hypothèse H_0 est: « \frac{1}{T ^2} \sum_{t = 1} ^T S_t = 0 / le processus est stationnaire ».

– Les autres tests pour la détection de la stationnarité:

Toute une série de tests existent dans l’objectif de détecter la stationnarité d’une série temporelle.

Parmi eux, nous relevons le test de Phillips-Perron, le test de Schmidt-Philipps, le test de Elliott-Rothenberg-Stock, le test de Leybourne-McCabe, le test de Hasza-Fuller  (pour le cas d’un SARIMA), le test de Osborn-Chui-Smith-Birchenhall (pour le cas d’un SARIMA), le test de Hylleberg-Engle-Granger-Yoo (pour le cas d’un SARIMA) et le test de Franses (pour le cas d’un SARIMA).

\bullet Exemple:

Soit l’échantillon suivant,

add1

Dans un premier temps, dessinons la série de données,

add1

Visuellement, notre série semble présenter une tendance décroissante ainsi qu’une saisonnalité avec ses deux pics à T = 6 et T = 16. En terme d’autocorrélation, nous pouvons constater qu’après un pic fort, la série chute pour finalement remonter petit à petit.

Étude de saisonnalité:

Nous fixons un pas de h = 1 et avons \overline{X} = 3.991.

Dans un premier temps, calculons l’autocovariance,

cov(X_t, X_{t+1}) = \frac{1}{20} \sum_{t = 1} ^{19} (X_t - 3.991) \times (X_{t+1} - 3.991)

= \frac{1}{20} \times (8.805951 + 17.526621 + \cdots + 85.773141 + 51.154461)

= \frac{1}{20} \times 275.5481

= 13.7774

cov(X_t, X_{t + 2}) = \frac{1}{20} \sum_{t = 1} ^{18} (X_t - 3.991) \times (X_{t+2} - 3.991)

= \frac{1}{20} \times (20.393571 + 4.404351 + \cdots + 55.979631 + 74.798121)

= \frac{1}{20} \times (-76.07523)

= -3.803762

\vdots

cov(X_t, X_{t + 13}) = \frac{1}{20} \sum_{t = 1} ^7 (X_t - 3.991) \times (X_{t+13} - 3.991)

= \frac{1}{20} \times (-7.679199 + 4.156761 + \cdots - 133.350849 + 22.100811)

= \frac{1}{20} \times (-102.7504)

= -5.13752

Maintenant que nous avons définit la covariance pour les différentes combinaisons possibles, définissons,

cov(X_t, X_{t+0}) = var(X_t) = \frac{1}{20} \times \sum_{t = 1} ^{20} (X_t - 3.991) ^2 = \frac{955.6434}{20} = 47.78217

Nous pouvons calculer l’autocorrélation en chaque instant mesurable,

\rho(1) = \frac{cov(X_t, X_{t+1})}{var(X_t)} = \frac{13.7774}{47.78217} = 0.2883377

\rho(2) = \frac{cov(X_t, X_{t+2})}{var(X_t)} = \frac{-3.803762}{47.78217} = -0.07960631

\vdots

\rho(13) = \frac{cov(X_t, X_{t+13})}{var(X_t)} = \frac{-5.13752}{47.78217} = -0.1075196

Nous obtenons alors l’autocorrélogramme suivant,

add1.png

Ce graphe nous permettent de retrouver nos deux pics saisonniers. Le second, notamment, semble corrélé aux temps qui le précèdent et celui qui le suivent. Les temps intermédiaires sont, quand à eux, corrélés les uns aux autres.

Il nous reste alors à calculer l’autocorrélation partielle.

– Pour p_1. Nous avons,

P_1 = 1 \Rightarrow |P_1| = 1

Et,

P_1 ^* = \rho(1) = 0.2883377 \Rightarrow |P_1 ^*| = 0.2883377

Par conséquent,

p_1 = \frac{0.2883377}{1} = 0.2883377

– Pour p_2. Nous avons,

P_2 = \begin{pmatrix} 1 & \rho(1) \\ \rho(1) & 1 \\ \end{pmatrix} = \begin{pmatrix} 1 & 0.2883377 \\ 0.2883377 & 1 \\ \end{pmatrix} \Rightarrow |P_2| = 0.9168614

Et,

P_2 ^* = \begin{pmatrix} 1 & \rho(1) \\ \rho(1) & \rho(2) \\ \end{pmatrix} = \begin{pmatrix} 1 & 0.2883377 \\ 0.2883377 & -0.07960631 \\ \end{pmatrix} \Rightarrow |P_2 ^*| = -0.1627449

Par conséquent,

p_2 = \frac{-0.1627449}{0.9168614} = -0.1775022

– Pour p_3. Nous avons,

P_3 = \begin{pmatrix} 1 & \rho(1) & \rho(2) \\ \rho(1) & 1 & \rho(1) \\ \rho(2) & \rho(1) & 1 \\ \end{pmatrix} = \begin{pmatrix} 1 & 0.2883377 & -0.07960631 \\ 0.2883377 & 1 & 0.2883377 \\ -0.07960631 & 0.2883377 & 1 \\ \end{pmatrix}

\Rightarrow |P_3| = 0.814441

Et,

P_3 ^* = \begin{pmatrix} 1 & \rho(1) & \rho(1) \\ \rho(1) & 1 & \rho(2) \\ \rho(2) & \rho(1) & \rho(3) \\ \end{pmatrix} = \begin{pmatrix} 1 & 0.2883377 & 0.2883377 \\ 0.2883377 &1 & -0.07960631 \\ -0.07960631 & -0.07960631 & 0.015 \\ \end{pmatrix}

\Rightarrow |P_3 ^*| = 0.08556691

Par conséquent,

p_3 = \frac{0.08556691}{0.814441} = -0.1050621

– Pour p_4. Nous avons,

P_4 = \begin{pmatrix} 1 & \rho(1) & \rho(2) & \rho(3) \\ \rho(1) & 1 & \rho(3) & \rho(2) \\ \rho(2) & \rho(3) & 1 & \rho(1) \\ \rho(3) & \rho(2) & \rho(1) & 1 \end{pmatrix} = \begin{pmatrix} 1 & 0.2883377 & -0.07960631 & 0.015 \\ 0.2883377 & 1 & 0.015 & -0.07960631 \\ -0.07960631 & 0.015 & 1 & 0.2883377 \\ 0.015 & -0.07960631 & 0.2883377 & 1 \\ \end{pmatrix}

\Rightarrow |P_4| = 0.823916

Et,

P_4 ^* = \begin{pmatrix} 1 & \rho(1) & \rho(1) & \rho(1) \\ \rho(1) & 1 & \rho(2) & \rho(2) \\ \rho(2) & \rho(1) & 1 & \rho(3) \\ \rho(3) & \rho(2) & \rho(1) & \rho(4) \\ \end{pmatrix} = \begin{pmatrix} 1 & 0.2883377 & 0.2883377 & 0.2883377 \\ 0.2883377 & 1 & -0.07960631 & -0.07960631 \\ -0.07960631 & 0.2883377 & 1 & 0.015 \\ 0.015 & -0.07960631 & 0.2883377 & -0.140 \\ \end{pmatrix}

\Rightarrow |P_4 ^*| = -0.1805203

Par conséquent,

p_4 = \frac{-0.1805203}{0.823916} = -0.2191004

\vdots

En continuant ainsi pour les différents temps, nous pouvons tracer l’autocorrélogramme partiel,

add1.png

Le graphe des autocorrélations partielles présentent une nouvelle information et met en évidence que nos corrélations entre les temps intermédiaires aux deux saisonnalités sont en réalité peut avérées et qu’il s’agisse plus d’une corrélation en forme de saut que d’une corrélation entre temps adjacents.

Étude de la stationnarité:

Étudions maintenant la stationnarité de X. Pour se faire, nous allons donc utiliser le test de Dickey-Fuller et le test KPSS.

– Le test de Dickey-Fuller augmenté:

Dans un premier temps, construisons la matrice \mathbf{Z} de taille,

(\sharp \lbrace X \rbrace - 1) \times (E[(\sharp \lbrace X \rbrace - 1) ^{\frac{1}{3}}] + 1) = 19 \times  (E[2.668402] + 1) = 19 \times (2 + 1) = 19 \times 3, (K = 3)

Nous obtenons alors,

\mathbf{Z} = \begin{pmatrix} X_3 & X_2 & X_1 \\ \ldots & \ldots & \ldots \\ X_{20} & X_{19} & X_{18} \end{pmatrix} = \begin{pmatrix} -4.77 & 3.62 & -0.45 \\ \ldots & \ldots & \ldots \\ 0.98 & 3.54 & -3.89 \end{pmatrix}

La régression linéaire de Z ^1 sur le modèle,

X|_{t \in [3,20]} + 1 + t_{\in [3,20]} + (Z ^2, Z ^3)

, nous donne le coefficient \beta associé à X|_{t \in [3,20]} et son écart-type suivants,

\beta = -1.104306, sd_{\beta} = 0.5171055

Nous pouvons alors calculer la statistique du test de Dickey-Fuller augmenté,

Z = \frac{-1.104306}{0.5171055} = -2.135552

Reportée à la table de Dickey-Fuller, nous obtenons une p-valeur de 0.3196>5\%. Nous ne pouvons pas rejeter H_0 soit que X est non stationnaire.

– Le test KPSS:

Dans un premier temps, déterminons les résidus issues de la régression linéaire de X sur t \in [1,T]. Nous obtenons alors le vecteur,

e = (-2.0628571, -1.9587669, \cdots, -1.4151429)

Nous avons alors,

S = (e_1, \sum_{t = 1} ^2 e_t, \sum_{t = 1} ^3 e_t, \dots, \sum_{t = 1} ^n e_t)

= (-2.0628571, -2.0628571 - 1.9587669, -2.0628571 - 1.9587669 + 2.2153233, \dots)

= (-2.628571, -4.0216241, -1.8063008, \cdots, 0)

Reste à calculer le numérateur et le dénominateur de la statistique du test KPSS.

Nous avons pour le numérateur,

\frac{\sum_{t = 1} ^{20} S_t ^2}{20 ^2} = \frac{951.8915}{400} = 2.379729

, et au dénominateur,

\frac{\sum_{t = 1} ^{20} e_t ^2}{20} = \frac{751.4778}{20} = 37.57389

Nous pouvons enfin calculer la statistique du test KPSS,

Z = \frac{2.379729}{37.57389} = 0.06333465

Si nous reportons cette valeur à la table de la loi de KPSS, nous obtenons une p-valeur de 0.1>5\% mais pas à 10\% soit que nous pouvons rejeter H0 au second seuil et que X n’est pas stationnaire.

Étude de la tendance:

Intéressons-nous ensuite à la tendance de notre série.

Pour cela nous allons recourir à une régression linéaire simple de X sur le temps t \in [1,20] sur X. Nous obtenons alors la modélisation suivante,

add1.png

Nous en déduisons que nous sommes bien en présence d’une tendance décroissante.

Modélisation par un processus AR(2):

Tentons de modéliser X par un processus auto-régressif d’ordre p = 2. L’écriture de ce modèle est,

X_t = \sum_{i = 1} ^2 \phi_i X_{t - i} + \epsilon_t = \phi_1 X_{t - 1} + \phi_2 X_{t - 2} + \epsilon_t

Afin de déterminer les coefficients (\phi_1, \phi_2) nous passons par les équations de Yule-Walker,

\begin{pmatrix} \phi_1 \\ \phi_2 \end{pmatrix} = \begin{pmatrix} 1 & \rho(1) \\ \rho(1) & 1 \end{pmatrix} ^{-1} \times \begin{pmatrix} \rho(1) \\ \rho(2) \end{pmatrix}

= \begin{pmatrix} 1 & 0.2883377 \\ 0.2883377 & 1 \end{pmatrix} ^{-1} \times \begin{pmatrix} 0.2883377 \\ -0.07960631 \end{pmatrix}

= \begin{pmatrix} 1.0906774 & -0.3144834 \\ -0.3144834 & 1.0906774 \end{pmatrix} \times \begin{pmatrix} 0.2883377 \\ -0.07960631 \end{pmatrix}

= \begin{pmatrix} 0.3395183 \\ -0.1775022 \end{pmatrix}

Nous obtenons ainsi le modèle,

X_t = 0.3395183 \times X_{t - 1} - 0.1775022 \times X_{t - 2} + \epsilon_t

Nous pouvons alors comparer les valeurs réels de X (en noir) versus celles prédites par le modèle (en rouge),

add1

\bullet Application informatique:

– Procédure SAS: https://support.sas.com/documentation/onlinedoc/ets/132/arima.pdf

– Fonction R: http://stat.ethz.ch/R-manual/R-devel/library/stats/html/arima.html

\bullet Bibliographie:

– Séries chronologiques de Jean-Jacques Droesbeke, Bernard Fichet, Philippe Tassi

– Econométrie Appliquée. Séries Temporelles de Christophe HURLIN

– Introduction to Statistical Times Series de Wayne A. Fuller

– Stationarity Issues in Times Series de David A. Dickey

– Testing the nulle hypothesis of stationarity against the alternative of a unit root de D. Kwiatkowski, P. C. B. Phillips, P. Schmidt et Y. Shin

– Modèles de prévision Séries temporelles de Arthur Charpentier

– Le site web: http://www.minitab.com/fr-fr/Published-Articles/ARIMA%C2%A0–Comment-analyser-des-donn%C3%A9es-de-s%C3%A9rie-chronologique-diff%C3%A9remment%C2%A0-/