cours series temporelles

39

Click here to load reader

Upload: latinovalent

Post on 06-Jun-2015

3.385 views

Category:

Documents


5 download

TRANSCRIPT

Page 1: Cours Series Temporelles

POLYTECH’L ILLE

DÉPARTEMENTG.I.S.2007-2008

Introduction aux séries temporellesJulien JACQUES

Page 2: Cours Series Temporelles

Table des matières

1 Introduction et premières définitions 31.1 Tendances et composantes saisonnières . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . 51.2 Indices descriptifs d’une série temporelle . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 5

1.2.1 Indices de tendances centrales . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . 51.2.2 Indices de dispersion . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . 61.2.3 Indices de dépendance . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . 6

1.3 Mise en oeuvre sous R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . 8

2 Lissages exponentiels 92.1 Lissage exponentiel simple . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . 92.2 Lissage exponentiel double . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . 92.3 Méthode de Holt-Winters . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . 10

2.3.1 Méthode non saisonnière . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . 102.3.2 Méthode saisonnière additive . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . 102.3.3 Méthode saisonnière multiplicative . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . 10

2.4 Mise en oeuvre sous R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . 11

3 Estimation et élimination de la tendance et de la saisonnalité 163.1 Processus stationnaire . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . 163.2 Une estimation paramétrique de la tendance . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . 163.3 Estimation non paramétrique : moyenne mobile . . . . . . . . .. . . . . . . . . . . . . . . . . . . . 173.4 Elimination de la tendance et de la saisonnalité par la méthode des différences . . . . . . . . . . . . . 203.5 Mise en oeuvre sous R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . 20

4 Modélisation des séries stationnaires 224.1 Auto-corrélation partielle . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . 224.2 Quelques exemples simples de processus stationnaires.. . . . . . . . . . . . . . . . . . . . . . . . . 22

4.2.1 Bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . 224.2.2 Moyenne mobile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . 224.2.3 Processus auto-régressif d’ordre 1 : AR1 . . . . . . . . . . .. . . . . . . . . . . . . . . . . 23

4.3 Les processus linéaires stationnaires . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . 234.3.1 Les processus moyenne mobile . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . 244.3.2 Les processus auto-régressif . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . 244.3.3 Les processus mixteARMAp,q . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254.3.4 Estimation, prévision . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . 254.3.5 Illustrations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . 26

5 Processus non stationnaire : ARIMA et SARIMA 355.1 Mise en oeuvre sous R : processus ARMA, ARIMA, SARIMA . . . .. . . . . . . . . . . . . . . . . 36

6 Processus ARCH et GARCH 376.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . 386.2 Rappels de probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . 386.3 Propriétés des processus ARCH . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . 386.4 Processus GARCH et propriétés . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . 396.5 Mise en oeuvre sous R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . 39

Page 3: Cours Series Temporelles

Les différentes démonstrations nécessaires à ce cours sur les séries temporelles ne figurent pas dans ce document,et sont généralement données en exercice. Elles seront néanmoins faites en cours.

1 Introduction et premières définitions

Unesérie temporelle(ou série chronologique) est une suite finie(xt)1≤t≤n, oùt représente le temps (en minute,jour, année...).

Voici quelques exemples de séries temporelles :– Ex. 1 : Nombre de morts accidentelles aux Etats-Unis de 1973à 1978 (figure 1).

Time

USAccD

eaths

1973 1974 1975 1976 1977 1978 1979

7000

8000

9000

10000

11000

FIG. 1 – Nombre de morts accidentelles aux Etats-Unis de 1973 à 1978

– Ex. 2 : Nombre de passagers par mois (en milliers) dans les transports aériens, de 1949 à 1960 (figure 2).

Time

AirPass

engers

1950 1952 1954 1956 1958 1960

100200

300400

500600

FIG. 2 – Nombre de passagers (en milliers) dans les transports aériens

3

Page 4: Cours Series Temporelles

– Ex. 3 : Nombre annuel de tâches solaires observées à la surface du soleil de 1700 à 1980 (figure 3).

Time

sunspo

t.year

1700 1750 1800 1850 1900 1950

050

100150

FIG. 3 – Nombre annuel de tâches solaires

– Ex. 4 : Taille de la population française (en milliers) de 1985 à 2005 (figure 4).

FIG. 4 – Population française de 1985 à 2005

– Ex. 5 : Valeurs de clôtures journalières du CAC40 de 1991 à 1998 (figure 5).

Time

EuStock

Markets

[, 3]

1992 1993 1994 1995 1996 1997 1998

1500

2000

2500

3000

3500

4000

FIG. 5 – Valeurs de clôtures journalières du CAC40 de 1991 à 1998

Excepté l’exemple 4, ces données sont disponibles dans le logiciel R sous les noms : EuStockMarkets, USAccDeaths,AirPassengers et sunspot.year.Exercice : repérer les tendances (croissance, décroissance, linéaire, quadratique...) et saisonnailités (périodicités) de

4

Page 5: Cours Series Temporelles

chacune de ces séries.

Un des objectifs principaux de l’étude d’une série temporelle est laprévision des réalisations futures, très souventpour des raisons économiques (prévoir l’évolution de la vente d’un produit pour ajuster au mieux les moyens deproduction, prévoir l’évolution d’un marché financier ...).genre de Bien entendu, aucun modèle ne correspond exactement à la réalité, et il est impossible de prévoir parfaitementle devenir d’une série temporelle. Lorsque cela sera possible, nous donnerons des intervalles de prévisions, afin depouvoir apporter une information quant à la précision de la prévision.Pour ce faire, il existe un large choix de modèle utilisable :

– les modèles de régression, comme par exemple :

xt = α1t2 + α2t + α3 + ǫt, t = 1, . . . , n.

Une fois les coefficients de ce modèle estimés, la prévision dext+1 seraxt+1 = α1(t + 1)2 + α2(t + 1) + α3.– les lissages exponentiels qui sont très simples à mettre enoeuvre, et qui feront l’objet d’un chapitre suivant,– les modèles de type ARMA, qui consistent à enlever de la série les tendances et saisonnalités (ou prédiodicités)

évidentes et à modéliser le résidu restant. Ces méthodes sont plus sophistiquées et plus lourdes numériquement(temps de calcul) que les précédentes, mais également plus performantes.

Parmi les 5 exemples précédents, celui relatif au nombre de passagers dans les transports aériens (figure 2) est unesérie assez typique de ce que l’on rencontre en économétrie,et elle donne lieu à de bonnes prévisions pour toutes lesméthodes classiques. Au contraire, l’évolution des marchés boursiers (figure 5) est beaucoup plus difficile à prévoir.

1.1 Tendances et composantes saisonnières

On parle detendance lorsque la série(xt)1≤t≤n peut s’écrire, à une erreur d’ajustementǫt près, comme unecombinaison linéaire dem fonctions, indépendantes du temps, choisies a priori (par exemple fonction puissance,exponentielle, logarithmique...) :

xt =m∑

j=1

αjfj(t) + ǫt 1 ≤ t ≤ n.

Lorsquext = αt + β + ǫt la tendance estlinéaire (m = 1 etf(t) = αt + β).Une tendancepolynomialese traduira parxt = α1t

p + αp−1tp−1 + . . . + αp+1 + ǫt.

Dans l’exemple 5, la tendance semble être exponentielle.

On parle decomposante périodiquelorsque la série(xt)1≤t≤n peut se décomposer en :

xt = st + ǫt 1 ≤ t ≤ n,

oùst est périodique, c’est-à-direst+T = st, avecT la période (supposée entière).Lorsque la période est de 6 mois ou 1 an, on parle généralementde composante saisonnière.

Enfin, il est fréquent qu’une série comporte à la fois une tendance et une composante périodique (cf. exemple 2).

1.2 Indices descriptifs d’une série temporelle

1.2.1 Indices de tendances centrales

Nous utilisons comme indicateur de la tendance centrale lamoyenne:

xn =1

n

n∑

t=1

xt.

5

Page 6: Cours Series Temporelles

1.2.2 Indices de dispersion

Nous utilisons comme indicateur de dispersion lavariance empirique(et sa racine carrée, l’écart-type empirique) :

σn(0) =1

n

n∑

t=1

(xt − xn)2.

1.2.3 Indices de dépendance

Ces notions, plus spécifiques à l’étude de série temporelle,renseignent sur la dépendance entre les donnéesxt.

Auto-covariance L’ auto-covariance empiriqued’ordre 1 renseigne sur la dépendance entre deux données succes-sives :

σn(1) =1

n − 1

n−1∑

t=1

(xt − xn)(xt+1 − xn),

l’auto-covariance empirique d’ordre 2 renseigne sur la dépendance entre deux données écartées de deux pas de temps :

σn(2) =1

n − 2

n−2∑

t=1

(xt − xn)(xt+2 − xn),

et ainsi de suite. Pour des raisons de bon sens statistique, nous ne considèrerons les covariances empiriques que jusqu’àun ordreh pas trop grand.On appellefonction d’auto-covariance(empirique) la fonction qui àj associeσn(j).

Auto-corrélation Lesauto-corrélations empiriquessont les quotients des covariances empiriques par la varianceempirique :

ρn(j) =σn(j)

σn(0)j = 0, . . . , h.

Ce sont les auto-corrélations empiriques que nous utiliserons pour caractériser la dépendance entre les variables.On appellefonction d’auto-corrélation (empirique) la fonction qui àj associeρn(j).

La représentation graphique des nuages de points(xt, xt+1), pourt = 1, . . . , n−1, est une bonne illustration de lavaleur de l’auto-corrélation d’ordre 1ρn(1) : plus le nuage sera arrondi, plusρn(1) sera proche de 0, et plus le nuagesera allongé, plusρn(1) sera proche de 1. Ceci est vrai pour toutes les auto-corrélationsρn(k), 1 ≤ k ≤ n.Proposition 1 : pour une série tendance linéaire purext = at + b, t = 1, . . . , n, on a :

ρn(h) −−−−→n→∞

1

La preuve est un bon exercice.Proposition 2 : pour une série périodique purext = a cos 2tπ

T, t = 1, . . . , n, on a :

ρn(h)cos 2hπ

T−−−−−→n→∞

1

Ces deux propositions montrent comment repérer grâce à l’auto-corrélation qu’une série temporelle admet une ten-dance (l’auto-corrélation tend vers 1) ou une saisonnalité(la saisonnalité se voit sur l’auto-corrélation).

6

Page 7: Cours Series Temporelles

7000 9000 11000

7000

9000

1100

0

x[1:(length(x) − 1)]

x[2:

leng

th(x

)]

7000 9000 11000

7000

9000

1100

0

x[1:(length(x) − 2)]

x[3:

leng

th(x

)]

7000 9000 11000

7000

9000

1100

0

x[1:(length(x) − 3)]

x[4:

leng

th(x

)]

7000 9000 11000

7000

9000

1100

0

x[1:(length(x) − 4)]

x[5:

leng

th(x

)]

7000 9000 11000

7000

9000

1100

0

x[1:(length(x) − 5)]

x[6:

leng

th(x

)]

7000 9000 11000

7000

9000

1100

0

x[1:(length(x) − 6)]

x[7:

leng

th(x

)]

7000 9000 11000

7000

9000

x[1:(length(x) − 7)]

x[8:

leng

th(x

)]

7000 9000 11000

7000

9000

x[1:(length(x) − 8)]

x[9:

leng

th(x

)]

0.0 0.5 1.0 1.5

−0.

40.

00.

40.

8

Lag

AC

F

Series x

FIG. 6 – Nuages de points(xt, xt+k) pourk = 1, . . . , 8 et auto-corrélation pour la série temporelle du nombre demorts accidentelles aux Etats-Unis de 1973 à 1978

7

Page 8: Cours Series Temporelles

1.3 Mise en oeuvre sous R

Quelques fonctions R utiles à l’étude des séries temporelles :– Lire un fichier de données en sautant lesk premières lignes :data=scan(file=”donnee.dat”,skip=k) .– Créer un objet de type série temporelle :serie <- ts (data,start,end,frequency) .

data contient le vecteur des données (un fichier contenant les données peut être mentionné en remplaçantdata parfile=”donnees.dat” ), start etend mentionne les dates de début et de fin de la série, et enfinfrequency mentionne le nombre de données par unité de temps (par exemple, si les dates de début et de finsont des années, et que les données sont mensuelles, il faudra indiquerfrequency=12 ).

– Représenter graphiquement un objet de type série temporelle : plot.ts(serie)– La fonction

acf(x, lag.max = 10, type = c("correlation", "covariance") , plot = TRUE)calcule (et trace si l’optionplot est àTRUE) les lag.max premières auto-corrélations et auto-covariances.

8

Page 9: Cours Series Temporelles

2 Lissages exponentiels

Les méthodes de lissages exponentiels constituent un outilpermettant de réaliser des prévisions à partir de l’ob-servation d’une série temporelle. Ces méthodes étant relativement basiques et simples de mise en oeuvre, elle sontsouvent utilisées dans l’industrie, notamment lorsque le nombre de prévisions à réaliser est important (par exemple,prévisions des ventes de centaines de produits dans une grande surface).Nous présentons trois types de lissage exponentiel :

– le lissage exponentiel simple qui consiste à ajuster localement à la série temporelle une constante,– le lissage exponentiel double qui ajuste quant à lui une droite,– le lissage exponentiel de Holt-Winters qui considère des fonctions plus complexes (polynomiales, périodiques...).

2.1 Lissage exponentiel simple

Disposant d’une série temporellex1, . . . , xn, l’objectif du lissage exponentiel est d’estimer la valeurxn+h nonencore observée. Nous noteronsxn,h cette prévision.Etant donné une constante de lissage0 < α < 1, on définit laprévision par lissage exponentiel simple:

xn,h = (1 − α)

n−1∑

j=0

αjxn−j . (1)

La prévision est une moyenne de toutes les observations passées, pondérée de sorte à ce que plus l’observation soitancienne moins elle ait d’importance.Une constante de lissageα proche de 1 (≥ 0.7) donne une importance significative aux observations éloignées, tandisqu’unα proche de 0 (≤ 0.3) tend à négliger ces observations éloignées.Remarque : la prévisionxn,h ne dépend pas deh !

Formules récursives de mise à jour La définition (1) vérifiant la formule réccursive suivante

xn,h = (1 − α)xn + αxn−1,h,

la prévisionxn,h peut être obtenue immédiatement à partir de la connaissancede :1- la prévisionxn−1,h basée sur lesn − 1-èmes premières observations,2- l’observationxn.L’utilisation de cette récurrence permet de réaliser des algorithmes très rapides d’estimation de la prévision par lissageexponentiel (en initialisant àx1,h = x1).

2.2 Lissage exponentiel double

On ajuste au voisinage de l’instantn une droite d’équationyt = a1 + a2(t − n).La prévision par lissage exponentiel doubleest :

xn,h = a1 + a2h avec a1 = 2L1(n) − L2(n) et a2 =1 − α

α(L1(n) − L2(n))

oùL1(n) = (1 − α)∑n−1

j=0 αjxn−j etL2(n) = (1 − α)∑n−1

j=0 αjL1(n − j) sont deux lissages exponentiels simplessuccessifs.Remarque: comme pour le lissage exponentiel simple, l’estimateur dela prévision est la meilleure approximation ausens des moindres carrés pondérés.

Formules récursives de mise à jour

a1(n) = a1(n − 1) + a2(n − 1) + (1 − α2)(xn − xn−1,1),

a2(n) = a2(n − 1) + (1 − α2)(xn − xn−1,1),

aveca1(0) = x1 et a2(0) = x2 − x1 comme valeurs initiales.

9

Page 10: Cours Series Temporelles

2.3 Méthode de Holt-Winters

2.3.1 Méthode non saisonnière

Comme la méthode de lissage exponentiel doubles celle de Holt-Winters non saisonnière revient à estimer auvoisinage de l’instantn une droite

yt = a1 + a2(t − n).

La prévision prend la formexn,h = a1(n) + ha2(n).

La variante par rapport à la méthode de lissage exponentiel double est au niveau des formules de mise à jour dansl’estimation des paramètresa1 eta2.Soit deux constantes de lissages0 < β < 1 et0 < γ < 1. Les formules de mise à jour sont :

a1(n) = βxn + (1 − β)[a1(n − 1) + a2(n − 1)],

a2(n) = γ[a1(n) − a1(n − 1)] + (1 − γ)a2(n − 1).

On remarquera que les formules de mise à jour du lissage exponentiel double sont un cas particulier de ces dernières,avecβ = 1 − α2 etγ = 1−α

1+α.

Remarque : l’introduction de deux constantes rend la méthode plus souple que le lissage exponentiel double.

2.3.2 Méthode saisonnière additive

On cherche maintenant à ajuster au voisinage de l’instantn une droite d’équation

yt = a1 + a2(t − n) + st,

oùst est une composante périodique de périodeT .Les formules récursives de mise à jour sont :

a1(n) = β(xn − sn−T ) + (1 − β)[a1(n − 1) + a2(n − 1)],

a2(n) = γ[a1(n) − a1(n − 1)] + (1 − γ)a2(n − 1),

sn = δ[xn − a1(n)] + (1 − δ)sn−T .

Les prévisions sont de la forme :

xn,h = a1(n) + ha2(n) + sn+h−T 1 ≤ h ≤ T,

xn,h = a1(n) + ha2(n) + sn+h−2T T + 1 ≤ h ≤ 2T.

et ainsi de suite pourh ≥ 2T .Se référer à Gouriéroux et Monfort 1983 [2] pour les valeurs d’initialisation.

2.3.3 Méthode saisonnière multiplicative

On ajuste au voisinage de l’instantn une droite d’équation

yt = [a1 + a2(t − n)] × st,

oùst est une composante périodique de périodeT .Les formules récursives de mise à jour sont :

a1(n) = βxn

sn−T

+ (1 − β)[a1(n − 1) + a2(n − 1)],

a2(n) = γ[a1(n) − a1(n − 1)] + (1 − γ)a2(n − 1),

sn = δxn

a1(n)+ (1 − δ)sn−T .

10

Page 11: Cours Series Temporelles

Les prévisions sont de la forme :

xn,h = [a1(n) + ha2(n)]sn+h−T 1 ≤ h ≤ T,

xn,h = [a1(n) + ha2(n)]sn+h−2T T + 1 ≤ h ≤ 2T.

Se référer également à [2] pour les valeurs d’initialisation.

2.4 Mise en oeuvre sous R

Les méthodes de lissages exponentiels sont disponibles sous R, grâce à la fonctionHoltWinters .Pour une série temporellex , cette procédure permet :

– un lissage exponentiel simple :xlisse <- HoltWinters(x,alpha= α,beta=0,gamma=0) ,

– un lissage de Holt-Winters sans composante saisonnière :xlisse <- HoltWinters(x,alpha= α,beta= β,gamma=0) ,

– un lissage Holt-Winters additif :xlisse <- HoltWinters(x,alpha= α,beta= β,gamma=γ,seasonal=”add”) ,

– un lissage Holt-Winters multiplicatif :xlisse <- HoltWinters(x,alpha= α,beta= β,gamma=γ,seasonal=”mul”) .

A noter que pour un lissage de Holt-Winters avec composante saisonnière la série temporellex doit être un objet detype série temporelle, défini avec la fonctionts en précisant la saisonnalité.L’affichage et la visualisation des résultats peuvent être réalisés à l’aide des commandes :

– summary(xlisse) : description de l’objetxlisse obtenu précédemment par la procédureHoltWinters ,– plot(xlisse) : représentation des valeurs observées et des valeurs lissées,– plot(xlisse$fitted[,1]) : représentation des paramètres de la méthode de lissage exponentiel.

Les prévisions sont réalisées à l’aide de la fonctionpredict :h<-5 ; p<-predict(xlisse,n.ahead=h) .Un intervalle de confiance (dont le fondement théorique n’a pas été étudié dans ce cours) peut être obtenu en validant(àTRUE) l’option prediction.interval .

Attention les paramètres du lissage exponentiel de ce cours (α, β, γ, δ) ne correspondent pas à leur homonymeimplémenté dans la fonctionHoltWinters de R. Voici un tableau présentant la correspondance des paramètres :

méthode paramètres du coursparamètres de Rlissage exponentiel simple α 1 − α

(β = γ = 0)Holt-Winters double β α

γ β

(γ = 0)Holt-Winters avec composante saisonnière β α

γ β

δ γAinsi, l’interprétation précédente du cours relativementau paramètreα du lissage exponentiel simple se trouve inverséepour le paramètreα de R.

11

Page 12: Cours Series Temporelles

FIG. 7 – Lissage et prévision par lissage exponentiel double d’un bruit blanc gaussien

12

Page 13: Cours Series Temporelles

FIG. 8 – Lissage et prévision par lissage exponentiel double de la sérieX(t) = 0.5t + 2ǫt avecǫt ∼ N (0, 1)

13

Page 14: Cours Series Temporelles

FIG. 9 – Lissage et prévision par lissage exponentiel double de la sérieX(t) = 0.5t+ǫt+3 cos(tπ6

)avecǫt ∼ N (0, 1)

14

Page 15: Cours Series Temporelles

Time

bb

2 4 6 8 10

010

2030

4050

Lissage Exponentiel Simple

Time

bb

2 4 6 8 10

010

2030

4050

Lissage Exponentiel Double, alpha=0.5

Time

bb

2 4 6 8 10

010

2030

4050

HoltWinters Seasonal

FIG. 10 – Lissage et prévision par lissage exponentiel simple, double, et Holt-Winters avec composante saisonnière dela sérieX(t) = 0.5t + ǫt + 3 cos

(tπ6

)avecǫt ∼ N (0, 1)

15

Page 16: Cours Series Temporelles

3 Estimation et élimination de la tendance et de la saisonnalité

3.1 Processus stationnaire

On dit qu’une suite de variables aléatoires(X1, . . . , Xn, . . .) eststationnaire si les espérances sont constantes

E[Xn] := µ ∀n,

et si les covariances sont stables par translation dans le temps, c’est-à-dire, pour touth

Cov(Xn, Xn+h) := σ(h) ∀n.

Une telle suite est appeléeprocessus stationnaire.On appellefonction d’auto-covariancedu processus stationnaire la suiteσ(h), et fonction d’auto-corrélation duprocessus stationnaire la suiteρ(h) := σ(h)

σ(0) .Propriété : σ(h) = σ(−h).

Une série temporellex1, . . . , xn, comme nous l’avons présentée précédemment, est la réalisation desn premierstermes d’un processus stochastique(Xt)t. C’est ce processus que l’on cherche désormais à modéliser.Pour cela, la démarche suivante doit être adoptée :

– représenter graphiquement la série afin de repérer les tendances et saisonnalités,– estimer et supprimer les tendances et saisonnalités (partie déterministe du processus stochastique),– choisir un modèle pour les résidus (partie aléatoire du processus stochastique) et l’estimer,– prédire les réalisations futures à l’aide de ce modèle.

L’objectif de cette section est de donner quelques méthodespour estimer et supprimer les tendances et saisonnalités.La fin de ce cours sera concentré sur la modélisation de processus stationnaires.

3.2 Une estimation paramétrique de la tendance

Nous supposons que la série temporelle étudiée soit la réalisation d’un processus stochastique composé d’unetendance déterministemt et d’une partie aléatoireǫt (supposée de moyenne nulle) :

Xt = mt + ǫt.

Une méthode simple consiste à supposer que cette tendance est linéaire :

mt = a + bt,

et d’estimer les paramètresa et b par moindres carrés.Ainsi, si on observe la sériex1, . . . , xn, il faut trouvera et b qui minimisent la quantité :

n∑

t=1

(xt − a − bt)2

Les solutions de ce problème sont :

a =6

n(n − 1)

(

−n∑

t=1

txt +2n + 1

3nx

)

,

b =12

n(n2 − 1)

(n∑

t=1

txt −n + 1

2nx

)

.

Exercice : écrire le problème sous forme matricielle... et le résoudre.L’hypothèse de linéairité de la tendance convient très bienà certaines séries temporelles : par exemple, celles desfigures 1, 2 (et encore...), 4... Mais ce n’est pas le cas de toutes les séries : voir par exemple celle représentant le cours

16

Page 17: Cours Series Temporelles

du CAC40, figure 5.Il est alors possible de supposer que la tendance soit de forme polynomiale :

mt = a + bt + ct2

et d’estimer les paramètresa, b etc par moindres carrés.Mais il est parfois difficile d’estimer le degré du polynôme,et lorsque le degré est trop important, le nombre de para-mètres à estimer devient grand et les calculs fastidieux. Dans cette situation, on a recourt à une méthode d’estimationnon paramétrique.

3.3 Estimation non paramétrique : moyenne mobile

Tendance Supposons que la tendancemt soit linéaire dans un petit intervalle[t − q, t + q] autour det. Dans ce cas,un bon estimateur de la tendance est :

mt =1

2q + 1

q∑

k=−q

xt+k.

On peut donc estimer la tendance à chaque tempst en calculant la moyenne sur les observations étant dans une fenêtrede largeur2q + 1 autour det : c’est ce que l’on appelle une estimation parmoyenne mobile.Pour éviter les problèmes de bord, on suppose quext = x1 si t < 1 etxt = xn si t > n.

Tendance et saisonnalité Supposons désormais que le processus ne comporte par uniquement une tendance, maiségalement une saisonnalité :

Xt = mt + st + ǫt,

avecst une fonctionT -périodique.Le principe d’estimation est (en simplifiant légèrement) lesuivant : on estime la tendance moyenne sur une période,puis on estime la composante saisonnière en moyennant sur toutes les périodes les écarts à la tendance moyenne de lapériode.Remarque : il est également possible de considérer une composante saisonnière multiplicative.

Application à la série du nombre de morts accidentelles aux Etats-Unis La figure 11 représente la série dunombre de morts accidentelles aux Etats-Unis de 1973 à 1978 (déjà présentée en introduction), la figure 12 représentela tendance (estimée par moyenne mobile) et la figure 13 représente la composante saisonnière.La figure 14 représente la série après élimination de la tendance et la figure 15 représente la série après élimination dela tendance et de la composante saisonnière.

La série 15 ainsi obtenue est une série (supposée) stationnaire, sur laquelle nous chercherons plus tard à ajuster unmodèle.

17

Page 18: Cours Series Temporelles

Time

USAccD

eaths

1973 1974 1975 1976 1977 1978 1979

7000

8000

9000

10000

11000

FIG. 11 – SérieUSAccDeaths: nombre de morts accidentelles aux Etats-Unis de 1973 à 1978

Time

m$trend

1973 1974 1975 1976 1977 1978 1979

8400

8600

8800

9000

9200

9400

9600

FIG. 12 – Tendance de la sérieUSAccDeaths

Time

m$seas

onal

1973 1974 1975 1976 1977 1978 1979

−1500

−1000

−500

0500

1000

1500

FIG. 13 – Composante saisonnière de la sérieUSAccDeaths

18

Page 19: Cours Series Temporelles

Time

USAccD

eaths −

m$trend

1973 1974 1975 1976 1977 1978 1979

−2000

−1000

0100

0200

0

FIG. 14 – SérieUSAccDeathsaprès élimination de la tendance

Time

USAccD

eaths −

m$trend

− m$se

asonal

1973 1974 1975 1976 1977 1978 1979

−400

−200

0200

400

FIG. 15 – SérieUSAccDeathsaprès élimination de la tendance et de la composante saisonnière

19

Page 20: Cours Series Temporelles

3.4 Elimination de la tendance et de la saisonnalité par la méthode des différences

Cette méthode permet de supprimer les tendance et saisonnalité d’une série temporelle sans les estimer.Soit∆T l’opérateur qui fait passer de(Xt) à (Xt − Xt−T ) :

∆T Xt = Xt − Xt−T .

On note∆ l’opérateur∆1, et∆kT l’opérateur∆T ◦ . . . ◦ ∆T

︸ ︷︷ ︸

k fois

.

Supposons que le processus admette une tendance polynomiale d’ordrek :

Xt =

k∑

j=0

ajtj

︸ ︷︷ ︸

mt

+ǫt.

En appliquant∆ àmt, on obtient un polynôme de degrék − 1. Ainsi, en appliquantk fois ∆, on élimine la tendance.Remarque: il est important de remarquer que si l’on applique∆t quelque soitt, le résultat est le même quant à l’éli-mination de la tendance.Comme en pratique il n’est pas évident de connaître le degrék, on appliquera l’opérateur∆ jusqu’à ce que la moyennedu processus soit nulle (k sera généralement 1, 2 ou 3).

Supposons maintenant que le processus admette une tendancemt et une saisonnalité, de périodeT :

Xt = mt + st + ǫt.

Dans ce cas,∆T Xt = (mt − mt−T ) + (ǫt − ǫt−T )

est un processus désaisonnalisé.De plus, si le processus admet une tendance linéaire, elle est également supprimé (cf. remarque précédente).Si la tendance est plus que linéaire, il suffit d’appliquer laprocédure précédente pour finir de supprimer la tendance,et obtenir ainsi un processus que l’on supposera stationnaire.

La figure 16 illustre l’élimination de la tendance linéaire et de la saisonnalité de la sériext = t2 + 3 cos tπ

6 ǫt avecǫt ∼ N (0, 1).

3.5 Mise en oeuvre sous R

La fonctiondecompose permet d’extraire d’une série temporelle (via la méthode dela moyenne mobile) :serie_decomp<-decompose(serie,type=c(”additive”,”mu tliplicative”))

– la composante saisonnière :serie_decomp$seasonal , que l’on suppose additive ou multiplicative dansl’option type ,

– la tendance :serie_decomp$trend ,– le partie aléatoire stationnaire de la série :serie_decomp$random .

La fonctiondiff.ts(serie,lag=T,difference=k) permet d’appliquer l’opérateur de différeciation∆kT .

20

Page 21: Cours Series Temporelles

Time

bb

0 20 40 60 80 100

01

03

05

0

Serie avec tendance lineaire et saisonnalité (période 12)

Time

bb

_d

iff1

0 20 40 60 80 100

−4

−2

02

4

Serie avec la tendance eliminée par la méthode des différences

Time

bb

_d

iff1

2

0 20 40 60 80

24

68

Serie avec la saisonnalité (et la tendance) eliminées par la méthode des différences

FIG. 16 – Elimination de la tendances et saisonnalité par la méthode des différences (figure du haut : sériext =t2 + 3 cos tπ

6 ǫt avecǫt ∼ N (0, 1) ; figure du milieu : sériext − xt−1 ; figure du bas : sériext − xt−12

21

Page 22: Cours Series Temporelles

4 Modélisation des séries stationnaires

Nous présentons dans cette section comment modéliser une série, qui une fois tendances et saisonnalités sup-primées, est stationnaire. A noter que le seul fait de supprimer la tendance et la saisonnalité ne rend pas la sérienécessairement stationnaire, puisque cela n’affecte pas la variance et l’auto-covariance, qui dovient être constantespour un processus stationnaire.

4.1 Auto-corrélation partielle

Le coefficient de corrélation partielleentre les deux variablesX1 etXn d’un processus stochatistique(Xt)t estle coefficient de corrélation entre les deux variables auxquelles on a retranché leurs meilleurs explications en terme deX2, . . . , Xn−1 :

rX2,...,Xn−1(X1, XN ) = corr(X1 − PX2,...,Xn−1

(X1), Xn − PX2,...,Xn−1(Xn)),

où corr est le coefficient de corrélation classique (quotient de la covariance par le produit des écarts-types), et oùPX2,...,Xn−1

(X1) est la projection1 de la variableX1 dans l’espace vectoriel engendré par les variablesX2, . . . , Xn−1.Ce coefficient exprime la dépendance entre les variablesX1 etXn qui n’est pas due aux autres variablesX2, . . . , Xn−1.La fonction d’auto-corrélation partielle r(h) d’un processus stationnaire est défini par :

r(h) = rX2,...,Xh(X1, Xh+1) ∀h ≥ 2

r(h) = r(−h) ∀h 6= 0

r(1) = ρ(1)

L’algorithme de Durbin-Watson, que nous ne présentons pas ici, permet d’estimer les auto-corrélations partielles d’unprocessus stationnaire.Dans le logiciel R, la fonctionpacf permet ces estimations.

4.2 Quelques exemples simples de processus stationnaires.

4.2.1 Bruit blanc

Un bruit blanc est une suite de variables aléatoires indépendantes, d’espérance et de variance constantes. Sil’espérance est nulle, le bruit blanc estcentré.Ces processus ne peuvent être employés en prévision (puisque chaque réalisation du processus est indépendante desréalisations passées), mais sert de base à la construction de beaucoup d’autre processus.Exercice : quelle est la fonction d’auto-covariance d’un tel processus ?

4.2.2 Moyenne mobile

On appellemoyenne mobile(Moving Average) un processus de la forme

Xt = ǫt + a1ǫt−1 + . . . + aqǫt−q,

où lesǫj pour t − q ≤ j ≤ t sont des bruits blancs centrés de varianceσ2, et où l’entier non nulq est l’ordre de lamoyenne mobile.Ces processus, que l’on noteMAq, seront étudiés plus en détail plus loi.Exercice : quelle est la fonction d’auto-covariance d’un tel processus ?

1la projectionPX2,...,Xn−1(X1) = γ2X2 + . . . + γn−1Xn−1 est caractérisée par le fait qu’elle est orthogonale à toutes les variables

X2, . . . , Xn−1.

22

Page 23: Cours Series Temporelles

4.2.3 Processus auto-régressif d’ordre 1 : AR1

Un processus auto-régressif d’ordre 1 est un processus stationnaire centré qui vérifie les équations de récurrence :

Xt = aXt−1 + ǫt,

où |a| < 1 et ǫt un bruit blanc centré de varianceσ2.Propriétés :

E[Xt] = 0

σ(h) = σ2 ah

1 − a2∀h ≥ 0

Ainsi, l’auto-covariance (et l’auto-corrélation) tendent vers 0 lorsqueh tend vers l’infini.

4.3 Les processus linéaires stationnaires

Un processus discret linéaire(Xt) est obtenu à partir d’une suite d’aléas indépendantsǫt (chocs aléatoires) sousla forme d’une combinaison linéaire infinie des chocs passés:

Xt =

∞∑

j=0

bjǫt−j t ∈ Z (2)

Remarque: en comparant avec la définition précédente d’un processus moyenne mobile, vous comprendrez pourquoion parle parfois de processus moyenne mobile infinie pour un processus linéaire.

Pour que cette somme ait un sens, nous supposons que la série desbj est absolument convergente :∑∞

j=0 |bj | < ∞ etqueb0 = 1.De plus, dans le but de faire de la prévision, nous supposons que ce processus est stationnaire. Ainsi, lesǫt ont mêmeespérance et même variance. Le processus(ǫt) est un bruit blanc.

Nous supposons désormais, sans perte de généralité, que le processus est centré, et donc que lesǫt sont d’espérancenulle. Nous notonsσ2 la variance desǫt.

Interprétation des ǫt L’équation (2) peut également d’écrire :

ǫt = Xt −∞∑

j=1

bjǫt−j

et, si on remplace lesǫt−j par leur valeurs, on obtient

ǫt = Xt −∞∑

j=1

ajXt−j

sous réserve que les coefficientsaj (qui sont fonction desbj) vérifient∑∞

j=0 |aj | < ∞ (auquel cas nous dirons que leprocessus est inversible).Le modèle linéaire stationnaire discret peut ainsi s’écrire :

Xt = ǫt +

∞∑

j=1

ajXt−j. (3)

Xt est alors la somme d’un choc aléatoire à l’instantt (ǫt), indépendant de l’historique, et d’une fonction linéairedeson passéxt =

∑∞j=1 ajXt−j , qui peut être vue comme la prédiction deXt à partir des observations passées.

ǫt est l’innovation contenue dans le processus au tempst. On dit que(ǫt) est le processus d’innovation.

23

Page 24: Cours Series Temporelles

Remarque : les expressions (2) et (3) d’un même processus linéaire stationnaire sont appelées expression ensommeinfinie et expressionauto-régressive.

Le nombre de paramètres d’un processus linéaire stationnaire étant infini, nous considérons les modèles tronquéssuivants :

– le processus moyenne mobile d’ordreq, notéMAq :

Xt =

q∑

j=0

bjǫt−j (4)

– le processus auto-régressif d’ordrep, notéARp :

Xt = ǫt +

p∑

j=1

ajXt−j (5)

Remarque :t ∈ Z.

4.3.1 Les processus moyenne mobile

On peut montrer que le processus moyenne mobile d’ordreq a pour auto-covariance :

σ(h) =

{

σ2∑q−h

k=0 bkbk+h ∀h ≤ q

0 ∀h > q

Ainsi, nous reconnaissons un processus moyenne mobile et identifions son ordre lorsque son auto-covariance (et parconséquent son auto-corrélation) est nulle à partir d’un certain ordre.Quant à l’auto-corrélation partielle, elle tend vers 0 lorsqueh grandit :

limh→∞

r(h) = 0

4.3.2 Les processus auto-régressif

Le processusAR1 Xt = ǫt + aXt−1

On a vu précédemment que l’auto-covariance d’unAR1 est :

σ(h) = σ2 ah

1 − a2.

On en déduit l’auto-corrélation :

ρ(h) = ah.

En remplacant dans l’expresionXt = ǫt + aXt−1 d’un AR1, Xt−1 par son expression, et ainsi de suite, on obtientl’expression en somme infinie d’unAR1 :

Xt =

∞∑

j=0

ajǫt−j .

On déduit alors de l’existance de ce processus la condition sur a suivante :|a| < 1.Ainsi l’auto-covariance et l’auto-corrélation d’unAR1 tendent vers 0 lorsqueh tend vers l’infini.

24

Page 25: Cours Series Temporelles

Les processusARp Xt = ǫt +

p∑

j=1

ajXt−j avecap 6= 0.

La variance d’un tel processus est :

σ(0) = σ2 +

p∑

j=1

ajσ(j)

et l’auto-covariance, pour touth > 0 :

σ(h) =

p∑

j=1

ajσ(h − j).

On peut montrer que l’auto-covariance et l’auto-corrélation tendent vers 0 lorsh tend vers l’infini.Quant à l’auto-corrélation partielle, elle vérifie :

r(h) = 0 ∀h > p,

r(p) = ap.

4.3.3 Les processus mixteARMAp,q

Le nombre de paramètre d’un processus moyenne mobile ou d’unauto-régressif peut parfois être réduit en consi-dérant un processus mixte : auto-régressif moyenne mobile d’ordresp et q :

Xt −

p∑

k=1

akXt−k = ǫt −

q∑

j=1

bjǫt−j.

La stationnarité d’unARMAp,q est assurée lorsque toutes les racines du polynômeA(z) = 1 + a1z + . . . + apzp

sont de module strictement supérieur à 1. Ce polynôme forme avecB(z) = 1 + b1z + . . . + bqzp les deux polynômes

caractéristiques du processus.On supposera également que les polynômesA etB n’ont pas de racine commune, afin de s’assurer qu’il n’y a pas dereprésentation plus courte.Exemple : soit l’ARMA1,1 défini parXn + aXn−1 = ǫn + aǫn−1. Quelles sont les racines des deux polynômescaractéristiques ? Existe-t-il une écriture plus simple dece processus ?

La bonne qualité de modélisation des processus ARMA est due àla propriété suivante :Proposition : pour une large classe de suite d’auto-covariances(σh)h et pour tout entierK positif, il existe un pro-cessus ARMA tel que sesK premières auto-covariances coïncident avecσ1 ≤ . . . ≤ σK .

Exercice: quelle est la fonction d’auto-covariance d’uneARMA1,1 ?

La talbeau 4.3.3 récapitule les principales propriétés desprocessusMAq, ARp etARMAp,q.

modèle MAq ARp ARMAp,q

auto-covariance σ(h) = 0 ∀h > q limh→∞

σ(h) = 0 ∀h > q, limh→∞

σ(h) = 0

auto-corrélation ρ(h) = 0 ∀h > q limh→∞

ρ(h) = 0 ∀h > q, limh→∞

ρ(h) = 0

auto-corrélation partielle limh→∞

r(h) = 0 r(h) = 0 ∀h > p et r(p) = ap

TAB . 1 – Récapitulatif des propriétés des processusMAq, ARp etARMAp,q.

4.3.4 Estimation, prévision

Cette partie n’est pas détaillée dans ce cours. Nous donnonsjuste quelques pistes dans le cadre d’un modèle mixteARMAp,q.

25

Page 26: Cours Series Temporelles

Estimation et choix de modèle Exemple (en cours) : cas d’unAR2.Dans le cas général, l’estimation des paramètres des modèles ARMA peut être faite par maximum de vraisemblance.L’expression de la vraisemblance étant généralement trop complexe pour que l’on puisse obtenir un maximum expli-cite, des algorithmes numériques sont utilisés.Afin de choisir entre plusieurs modèles possibles (notamment pour le choix des ordresp et q d’un modèle ARMA),des critères de choix de modèles (AIC, BIC, ...) peuvent êtreemployés. Plusp et q seront grands, plus le nombre deparamètres du modèle ARMA sera important, ce qui permetterade s’ajuster au mieux aux données. Mais en contre-partie, l’estimation de ces paramètres demandera un plus grand nombre de données. Pour un historique de donnéesfixé, plus le nombre de paramètres sera grand moins bonne seral’estimation. Les critères de type BIC et AIC ont pourbut de déterminer le modèle qui effectue le meilleur compromis entre pouvoir prédictif et complexité.

Prévision L’objectif est de prévoir la valeur que va prendre la variable aléatoireXn+h, h étant appelé l’horizon dela prévision, ayant observé la réalisation des variables aléatoireX1, . . . , Xn.Dans le cadre d’une modélisation ARMA, on choisit d’estimerXn+h par une combinaison linéaire desXj précédents(1 ≤ j ≤ n) :

Xn,h = c1,hX1 + . . . + cn,hXn.

Les coefficientscj,h sont estimés de sorte à ce qu’il minimise :

E[(Xn+h − c1,hX1 − . . . − cn,hXn)2].

L’estimateurXn,h ainsi défini n’est autre que la projection deXn+h sur l’espace vectoriel engendré par les variablesX1, . . . , Xn.Exemple (en cours) : on montre que l’erreur de prévision au rang 1 pour unARp n’est autre que le bruit d’innovation.

Le calcul de la projection dans le cas général n’est pas détaillé dans ce cours, mais voici néanmoins un résultatimportant sur le comportement de la prévision :la variance de l’erreur de prevision à horizonh croît depuis la variance du bruit d’innovation jusqu’à la va-riance du processus lui-même.

Intervalle de confiance Si on suppose que le bruit d’innovationǫt est gaussien, les variables aléatoiresXt sont ellesaussi gaussiennes, tout comme l’erreur de prédiction. Ainsi, il sera possible de construire des intervalles de confiancessur la prédiction, ce que permettent les fonctions du logiciel R décrites plus loin.

4.3.5 Illustrations

Voici quelques simulations de processus ainsi que leurs auto-corrélation et auto-corrélation partielle empiriques :– AR1 avec coefficient positif puis négatif : figures 17 et 18,– AR2 : figures 19 et 20,– MA1 avec coefficient positif puis négatif : figures 21 et 22,– MA3 : figure 23,– ARMA2,2 : figure 24.

26

Page 27: Cours Series Temporelles

Time

ar1

0 200 400 600 800 1000

−4

−2

02

4

0 5 10 15 20 25 30

0.0

0.4

0.8

Lag

AC

F

Series ar1

0 5 10 15 20 25 30

0.0

0.4

0.8

Lag

Pa

rtia

l A

CF

Series ar1

FIG. 17 – Simulation d’unAR1 : Xt = 0.8Xt−1 + ǫt, auto-corrélation et auto-corrélation partielle.

27

Page 28: Cours Series Temporelles

Time

ar1

0 200 400 600 800 1000

−4

02

4

0 5 10 15 20 25 30

−0

.50

.00

.51

.0

Lag

AC

F

Series ar1

0 5 10 15 20 25 30

−0

.8−

0.4

0.0

Lag

Pa

rtia

l A

CF

Series ar1

FIG. 18 – Simulation d’unAR1 : Xt = −0.8Xt−1 + ǫt, auto-corrélation et auto-corrélation partielle.

28

Page 29: Cours Series Temporelles

Time

ar2

0 200 400 600 800 1000

−6

−2

24

6

0 5 10 15 20 25 30

−0

.20

.20

.61

.0

Lag

AC

F

Series ar2

0 5 10 15 20 25 30

−0

.20

.20

.6

Lag

Pa

rtia

l A

CF

Series ar2

FIG. 19 – Simulation d’unAR2 : Xt = 0.9Xt−2 + ǫt, auto-corrélation et auto-corrélation partielle.

29

Page 30: Cours Series Temporelles

Time

ar2

0 200 400 600 800 1000

−5

05

0 5 10 15 20 25 30

−0

.50

.00

.51

.0

Lag

AC

F

Series ar2

0 5 10 15 20 25 30

−0

.8−

0.4

0.0

Lag

Pa

rtia

l A

CF

Series ar2

FIG. 20 – Simulation d’unAR2 : Xt = −0.5Xt−1 − 0.9Xt−2 + ǫt, auto-corrélation et auto-corrélation partielle.

30

Page 31: Cours Series Temporelles

Time

ma

1

0 200 400 600 800 1000

−4

−2

02

4

0 5 10 15 20 25 30

−0

.50

.00

.51

.0

Lag

AC

F

Series ma1

0 5 10 15 20 25 30

−0

.5−

0.3

−0

.1

Lag

Pa

rtia

l A

CF

Series ma1

FIG. 21 – Simulation d’unMA1 : Xt = ǫt − 0.8ǫt−1, auto-corrélation et auto-corrélation partielle.

31

Page 32: Cours Series Temporelles

Time

ma

1

0 200 400 600 800 1000

−4

−2

02

4

0 5 10 15 20 25 30

0.0

0.4

0.8

Lag

AC

F

Series ma1

0 5 10 15 20 25 30

−0

.20

.20

.4

Lag

Pa

rtia

l A

CF

Series ma1

FIG. 22 – Simulation d’unMA1 : Xt = ǫt + 0.8ǫt−1, auto-corrélation et auto-corrélation partielle.

32

Page 33: Cours Series Temporelles

Time

ma

3

0 200 400 600 800 1000

−1

00

51

0

0 5 10 15 20 25 30

0.0

0.4

0.8

Lag

AC

F

Series ma3

0 5 10 15 20 25 30

−0

.20

.20

.4

Lag

Pa

rtia

l A

CF

Series ma3

FIG. 23 – Simulation d’unMA3, auto-corrélation et auto-corrélation partielle.

33

Page 34: Cours Series Temporelles

Time

arm

a2

2

0 200 400 600 800 1000

−5

05

0 5 10 15 20 25 30

−0

.50

.00

.51

.0

Lag

AC

F

Series arma22

0 5 10 15 20 25 30

−0

.8−

0.4

0.0

0.4

Lag

Pa

rtia

l A

CF

Series arma22

FIG. 24 – Simulation d’unARMA2,2, auto-corrélation et auto-corrélation partielle.

34

Page 35: Cours Series Temporelles

5 Processus non stationnaire : ARIMA et SARIMA

Les modèles ARMA sont destinés à modéliser des processus stationnaires. En pratique, les séries temporelles sontgénéralement non stationnaires, et un pré-traitement est nécessaire pour supprimer les tendances et saisonnalités. Unefois la série « stationnarisée »anlaysée, et les valeurs futures prédites, il est ensuite nécessaire de revenir à la sérieinitiale.Exercice : écrire le retour à la série initiale dans le cas de la modélisation d’une série différenciée par∆.

Les processus ARIMA et SARIMA sont la généralisation des modèles ARMA pour des processus non stationnaire,admettant une tendance (ARIMA), ou encore une tendance et une saisonnalité (SARIMA).

Soit ∆ l’opération de différenciation précédemment défini (section 3), qui associe au processus(Xt)t∈N le pro-cessus(Xt −Xt−1)t∈N). Nous rappelons que le processus obtenu en différenciant deux fois de suite,(Xt − 2Xt−1 +Xt−2)t∈N, est noté∆2. Et ainsi de suite.Un processus(Xt) est un processusARIMAp,d,q si le processus

Yt = ∆dXt

est un processusARMAp,q.Les processusARIMAp,d,q sont bien adaptés aux séries temporelles présentant une tendance polynômiale de degréd − 1.

Soit∆T l’opérateur précédemment défini (section 3), qui fait passer de(Xt) à (Xt − Xt−T ).Un processus(Xt) est un processusSARIMAp,d,q,T si le processus

Yt = ∆T ◦ ∆dXt

est un processusARMAp,q.Les processusSARIMAp,d,q,T sont bien adaptés aux séries temporelles présentant une période de longueurT et unetendance polynômiale de degréd.

Remarque : en réalité, les processus SARIMA sont plus complexes et comportent d’autres paramètres (pour per-mettre des périodes de longueurs différentes notamment). Nous ne considèrerons que cette versionSARIMAp,d,q,T

dans ce cours, se référer à [2] pour des compléments sur ces processus.

35

Page 36: Cours Series Temporelles

5.1 Mise en oeuvre sous R : processus ARMA, ARIMA, SARIMA

La fonctionarima.sim(modele,n) permet de simuler un processusARMAp,q défini par

Xt −

p∑

k=1

akXt−k = ǫt −

q∑

j=1

bjǫt−j.

Les paramètresak et bj du processus sont précisés dans le paramètremodele de la fonction :modele<-list(ar=c( a1, . . . , ap),ma=c( b1, . . . , bq)) .Pour simuler un modèleARIMAp,d,q il faut ajouter le composantorder=c(p,d,q) dans le paramètremodelede la fonctionarima.sim .

La fonctionar permet d’estimer les paramètres d’un processusARp :out<-ar(data,aic=TRUE,order.max=NULL)L’ordre p du processus auto-régressif est choisi (inférieur àorder.max) à l’aide du critèreAIC (si l’option aic estvalidée).

La fonctionarima permet d’estimer les paramètres :– d’unARMAp,q : out<-arima(serie,order=c(p,0,q))– d’unARIMAp,d,q : out<-arima(serie,order=c(p,d,q))– d’unSARIMAp,d,q,T :

out<-arima(serie,order=c(p,d,q),seasonal=list(order =c(P,D,Q),period=T)Les paramètresP, D, Q du modèle SARIMA ne sont pas abordés dans ce cours, nous leur donnerons par défaut lavaleur des paramètresp, d, q.Parmi les sorties de cette fonction, on peut obtenir :

– out$coef : estimation des coefficients,– out$aic : valeur du critère AIC,– out$resid : estimation des résidus.

La fonctionp=predict(out,h) permet d’effectuer une prévision à l’horizonh. Parmi les sorties de cette fonction,p$pred contient les prévisions, etp$se contient l’écart-type de l’erreur de prévision. Il n’existe pas de fonctionprédéfinie pour calculer un intervalle de confiance sur les prévisions, mais cela peut être fait manuellement grâce à cesdeux sorties de la fonctionpredict .

36

Page 37: Cours Series Temporelles

6 Processus ARCH et GARCH

Les séries précédemment étudiées étaient supposées stationnaires. Si besoin, tendances et saisonnalités étaientsupprimées pour obtenir une série résiduelle stationnaire. Néanmoins, toutes les séries résiduelles obtenues de la sortene sont pas nécessairement stationnaires.C’est le cas par exemple de la série représentée par la figure 25, qui contient les évolutions journalières de la boursedes valeurs de New-York (NYSE) du 19 octobre 1984 au 31 décembre 1991.

0 500 1000 1500 2000

−0.15

−0.10

−0.05

0.000.05

Index

x

FIG. 25 – Evolution journalière de la bourse des valeurs de New-York (1984-1991)

La figure 26 représente la simulation d’un processusARCH2.

Time

x

0 200 400 600 800 1000

−2−1

01

23

FIG. 26 – Simulation d’unARCH2

Comme on peut le voir, la moyenne semble constante alors que la variance change au cours du temps (on qualifie cecomportement d’« hétéroscédastique »). De plus, les moments de grande variabilité semblent regroupés. Les modèlesde type ARIMA qui supposent un comportement « homoscédastique »(variance constante), ne sont pas adaptés à cetype de série.Nous présentons dans cette section des modèles adaptés à ce type de série : les processus ARCH (AutoRegressiveConditionally Heteroscedastic) introduits pas Engle vers 1982, ainsi que leur généralisation, les processus GARCH.

37

Page 38: Cours Series Temporelles

6.1 Définitions

Un processusARCHp est défini par :

Xt = ǫt

ǫt|Xt−1, Xt−2, . . . ∼ N (0, σ2t )

σ2t = α0 + α1X

2t−1 + . . . + αpX

2t−p

La variance condionnelle dépend du temps : si les valeurs précédentes sont grandes (en valeur absolue), la variancesera grande, et inversement. Ainsi, si on observe un choc dans la série (valeur anormalement grande), elle sera suivid’une période de haute volatilité, dont la durée dépend de l’ordrep du modèle ARCH.Exercice : cela correspond-t-il à la sérieNYSE(figure 25) ?

6.2 Rappels de probabilités

Soit un couple de variables aléatoires continues(X, Y ), de dentsitéf(., .). Soit fY (.) la densité marginale deY .La densité conditionnelle deX sachant queY = y est définie par :

fX|Y (x, y) =f(x, y)

fY (y)si fY (y) > 0

L’espérance conditionelle est donc l’espérance par rapport à cette loi :

E[X |Y = y] =

R

xfX|Y (x, y)dx

La variance conditionnelle est

σ2t = V(Xt|It−1) = E[X2|Y = y] − E[X |Y = y]

2

SoitIs−1 = {Xs−1, Xs−2, . . .} l’ensemble des observations précédant l’instants.On a :

E[Xt|Is] = Xt ∀t ≤ s

E[Xt|Ir] = E[E[Xt|Is]|Ir] ∀r ≤ s

et en particulier E[Xt] = E[E[Xt|Is]].

6.3 Propriétés des processus ARCH

Si Xt est un processus ARCH, alors :

E[Xt] = 0

E[Xt|It−1] = 0

V(Xt) =α0

1 −∑p

i=1 αi

sip∑

i=1

αi < 1

V(Xt|It−1) = α0 + α1X2t−1 + . . . + αpX

2t−p

Cov(Xt, Xt+h) = σh = 0 ∀h > 0

Cov(Xt, Xt+h|It−1) = 0

Remarque : un processus ARCH est conditionnellement hétéroscédastique mais inconditionnellement homoscédas-tique !Condition suffisante de stationnarité:

∑p

i=1 αi < 1.On peut montrer également, ce qui peut être intéressant pourdétecter un ARCH en pratique, que la distribution d’unprocessus ARCH a

– unskewnessnul (moment centré d’ordre 3) : la distribution est donc symétrique,– unkurtosis(moment centré d’ordre 4) supérieur à 3 : la distribution estdonc plus applatie qu’une gaussienne.

38

Page 39: Cours Series Temporelles

6.4 Processus GARCH et propriétés

Un processusGARCHp,q est défini par :

Xt = ǫt

ǫt|Xt−1, Xt−2, . . . ∼ N (0, σ2t )

σ2t = α0 + α1X

2t−1 + . . . + αpX

2t−p + β1σ

2t−1 + . . . + βqσ

2t−q

avecα0 > 0, αi ≥ 0 pouri = 1, . . . , p etβj ≥ 0 pourj = 1, . . . , q.Un processus GARCH peut être vu comme un processus ARCH d’ordre infini, et peut ainsi représenter formellementde façon plus parcimonieuse un processus ARCH comprenant unnombre élevé de paramètres.Remarque évidente : unGARCHp,0 est unARCHp.Si Xt est un processusGARCHp,q, alors :

E[Xt] = 0

E[Xt|It−1] = 0

Cov(Xt, Xt+h) = σh = 0 ∀h > 0

Cov(Xt, Xt+h|It−1) = 0

Propriété : soit Xt un processusGARCHp,q , et soitm = max(p, q). Le processusX2t admet une représentation

ARMA(m, q).Ainsi, pour identifier unGARCHp,q, on identifiera tout d’abord le processusARMA(m, q) qui modéliseX2

t . Pouridentifierp dans le cas oùm = q (p ≤ q), il faut effectuer des tests de significativité des coefficientsαq, . . . , α1 duprocessusARMA(m, q).

6.5 Mise en oeuvre sous R

Pour utiliser les fonctions spécifiques à l’étude des modèles ARCH et GRACH, il faut avant tout charger le packagetseries à l’aide de la commandelibrary(tseries) .

La fonctiongarch permet d’estimer unGARCHp,q : serie<-garch(data,order=c(q,p))Parmi les sorties de cette fonction :coef , residuals , fitted.values .

Références

[1] Bosq D. et Lecoutre J-P.Analyse et prévision des séries chronologiques, Masson, Paris, 1992.

[2] Gouriéroux C. et Montfort A.Cours de séries temporelles, Economica, Paris, 1983.

[3] Shumway R.H. et Stoffer D.S.Times Series Analysis and Its Applications, With R Example, Springer, 2006.

Ce cours est en partie inspiré du cours de M.-Cl. Viano disponible à l’adresse suivante :http ://math.univ-lille1.fr/ viano/economcours.pdf

39