Ch1 .pdf



Nom original: Ch1.pdf

Ce document au format PDF 1.2 a été généré par TeX output 2008.09.16:1726 / dvipdfm 0.13.2d, Copyright © 1998, by Mark A. Wicks, et a été envoyé sur fichier-pdf.fr le 10/11/2011 à 16:13, depuis l'adresse IP 41.201.x.x. La présente page de téléchargement du fichier a été vue 1822 fois.
Taille du document: 224 Ko (28 pages).
Confidentialité: fichier public


Aperçu du document


CHAPITRE I

Introduction a` la mod´elisation des s´eries
temporelles univari´ees
Michel LUBRANO
Septembre 2008

Contents
1 Introduction

2

2 Processus stochastiques
2.1 Processus stationnaires . . . . . . . .
2.2 Ergodicit´e . . . . . . . . . . . . . . .
2.3 Innovations . . . . . . . . . . . . . .
2.4 Th´eor`eme de Wold . . . . . . . . . .
2.5 Autocovariances et totales et partielles

.
.
.
.
.

3
4
4
5
5
6

3 Densit´e spectrale
3.1 Le spectre de la population . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Estimation de la densit´e spectrale . . . . . . . . . . . . . . . . . . . . . . .

7
7
9

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

4 Op´erateur retard
9
4.1 Inversion des polynˆomes . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.2 Factorisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
5 Mod`eles param´etriques usuels
5.1 Processus moyenne mobile .
5.2 Processus auto-r´egressifs . .
5.3 Equations de Yule et Walker
5.4 Processus ARMA . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

1

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

12
12
14
17
18

1 INTRODUCTION

2

6 M´ethodologies de sp´ecification
20
6.1 Box-Jenkins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
6.2 Transformations et diff´erentiation . . . . . . . . . . . . . . . . . . . . . . 21
6.3 Crit`eres d’information . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
7 Conclusion

23

8 Lectures additionnelles

23

9 Exercices
9.1 Aliasing . . . . . . . . . . . . . .
9.2 Somme de deux MA(1) . . . . . .
9.3 Moments d’un MA(2) . . . . . . .
9.4 Simulation d’un AR(1) . . . . . .
9.5 Moments d’un AR(2) . . . . . . .
9.6 Simulation d’un ARMA(1,1) . . .
9.7 Simulation des densit´es spectrales
9.8 Densit´e spectrale d’un ARMA(1,1)
9.9 Filtres . . . . . . . . . . . . . . .
9.10 Crit`eres d’information . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

23
23
24
24
25
25
26
26
26
27
27

1 Introduction
La statistique se pr´eoccupe de porter des jugements sur une population a` partir de l’observation
d’un e´ chantillon de cette population. Si l’on prend l’exemple des donn´ees d’enquˆete,
l’ordre dans lequel sont e´ chantillonn´ees les observations n’a pas d’importance. On peut
quand mˆeme parfois accorder de l’importance aux unit´es qui sont e´ chantillonn´ees comme
par exemple les e´ l`eves d’une mˆeme classe ou d’un mˆeme e´ tablissement, les habitants
d’un mˆeme quartier. La dimension temporelle prend de l’imporance quand on d´ecide de
r´eint´erroger les mˆemes personnes. On peut allor e´ tudier leur e´ vvolution dans le temps.
Dans le domaine de la statistique d´enom´ee analyse des s´eries temporelles, la dimension
temporelle des observation devient primordiale. Une s´erie temporelle est d´efinie comme
une suite d’observations index´ees par le temps. L’attention va se focaliser sur les propri´et´es
e´ volutives d’une variable al´eatoire, tant pour sa pr´evision que dans sa relation avec son
pass´e. Comme exemple de s´erie temporelle, viennent imm´ediatement a` l’esprit toutes l´es
s´eries macro´economiques, mais aussi les s´eries financi`eres.
Les s´eries temporelles peuvent eˆ tre observ´ees de mani`ere continue ou de mani`ere discr`ete.
Les mod`eles de la finance par exemple reposent souvent sur une hypoth`ese de temps continu car sur un march´e boursier les transaction paraissent tr`es rapproch´ees. Par contre les
donn´ees macro´economiques sont typiquement des donn´ees observ´ees en temps discret a` un
intervalle du mois, du trimestre ou mˆeme de l’ann´ee. On rappellera la distinction usuelle
entre donn´ees de flux qui concernent des ph´enom`enes continus comme les prix ou les taux
d’int´erˆet, mais que l’on a choisi de n’observer qu’`a des intervalles r´eguliers et discrets,
et les don´enes de stocks qui r´esultent d’un ph´enom`ene d’accumulation. L’investissement

2 PROCESSUS STOCHASTIQUES

3

est un flux, tandis que le capital est un stock r´esultant d’un cˆot´e de l’accumulation des
investissements pass´es et de l’autre cˆot´e d’un ph´enom`ene de d´epr´eciation.
L’examen graphique d’une s´erie temporelle montre que la valeur prise au temps t
d´epend fortement de la valeur prise au temps t − 1. Le processus qui les engendre est dynamique. On voudra en construisant un mod`ele, acqu´erir de l’information sur ce processus
th´eorique que l’on appelle Processus de G´en´eration des Donn´ees ou PGD. Le probl`eme est
alors de trouver le mod`ele pratique qui approchera le plus possible le processus th´eorique
et ensuite de l’estimer. Une fois cette e´ tape franchie, on pourra faire de la pr´evision ou du
contrˆole avec ce mod`ele. Les types de mod`eles que l’on peut consid´erer sont nombreux.
En statistique on va s’int´eresser a` mod´eliser une s´erie univari´ee au moyen d’un mod`ele
ARMA, ou bien consid´erer plusieurs s´eries a` la fois et les mod´eliser conjointement dans
un mod`ele multivari´e ou mod`ele VAR de mani`ere a` mettre a` jour les interactions entre
ces variables. En e´ conom´etrie, on s’int´eressera plutˆot a` une mod´elisation conditionnelle
qui e´ tudie la dynamique d’une variable, conditionnellement a` d’autre variables suppos´ees
exog`enes.
La plupart des mod`eles supposent que les s´eries e´ tudi´ees sont stationnaires. Les propri´et´es des estimateurs reposent sur cette hypoth`ese. Cependant la plupart des s´eries que
l’on a a` traiter croissent dans le temps, ou mˆeme si elles ne sont pas croissantes, ont des
fluctuations qui ne sont pas r´eguli`eres. Elles sont non-stationnaires. Il est en g´en´eral possible de trouver une transformation ou un filtre qui puisse rendre stationnaire les s´eries
non-stationnaires. Mais la d´etermination exacte de ce filtre n’est pas triviale. Faut-il
diff´erencier la s´erie, faut il retirer une tendance et laquelle? Et surtout ne perd-on pas
de l’information par ces op´erations? Le but de cet ouvrage est de prendre en compte la nature non-stationnaire des donn´ees e´ conomiques en montrant les probl`emes que cela pose.
C’est toute la question des racines unitaires et de la coint´egration.
Ce chapitre a un but introductif. Il doit pr´esenter dans un cadre univari´e certains outils
math´ematiques et mod`eles simples employ´es par la statistique des s´eries temporelles. La
branche de la statistique math´ematique qui s’int´eresse aux s´eries temporelles a d´evelopp´e
plusieurs mod`eles de repr´esentation des s´eries temporelles dont nous allons tr`es bri`evement
rappeler les plus simples. Il s’agira de pr´eciser quelques notions sur les mod`eles AR, MA
et ARMA univari´es et quelques outils math´ematiques qui leurs sont reli´es.

2 Processus stochastiques
Un processus stochastique est une suite de variables al´eatoires r´eelles qui sont index´ees par
le temps:
(1)
Xt ,
t ∈ ZZ
Ici t appartient a` un espace discret, ce qui d´efinit un processus en temps discret. Un processus stochastique est donc une famille de variables al´eatoires X dont on va observer des
valeurs r´eelles issues de l’espace S des e´ chantillons selon une certaine loi de probabili´e.
Pour chaque point s de l’espace des e´ chantillons S, la fonction qui a` t associe Xt (s) est
appel´ee la trajectoire du processus. Les observations successives forment l’histoire du processus. On peut les noter: X0t pour d´esigner l’histoire du processus entre 0 et t.

2 PROCESSUS STOCHASTIQUES

4

2.1 Processus stationnaires
Lorsque chacune des variables Xt v´erifie E(Xt ) < ∞, la loi du processus est partiellement
r´esum´ee par l’esp´erance des diff´erentes variables et par leurs covariances. Ces moments
d´ependent en g´en´eral du temps, ce qui est gˆenant quand de l’observation de r´ealisations
du processus on veut tirer de l’information sur la loi sous-jacente de ce processus. Pour
pouvoir obtenir une accumulation d’information on est amen´e a` consid´erer des processus
dits stationnaires.
D´efinition 1 Un processus est stationnaire au second ordre si:
- ∀t ∈ ZZ, E(Xt ) = µ ind´ependant de t
- ∀t ∈ ZZ, E(Xt2 ) < ∞
- ∀t, h ∈ ZZ, Cov(Xt , Xt+h ) = γ(h) ind´ependant de t
Ce type de stationnarit´e est aussi une propri´et´e d’invariance des deux premiers moments
par translation dans le temps. Mais on ne dit rien sur les moments d’ordre sup´erieur, ce qui
fait que cette d´efinition, tr`es commode par ailleurs, est sans doute trop floue.
Au lieu de consid´erer simplement les deux premiers moments d’un processus, on peut
d´ecider de s’int´eresser a` la distribution compl`ete des observations. On peut alors acc´eder a`
une d´efinition plus stricte de la stationnarit´e.
D´efinition 2 Un processus stochastique sera dit strictement stationnaire si la distribution
jointe de Xt et Xt+h ne d´epend pas de t, mais seulement de h.
Ici, c’est la distribution jointe qui est invariante par translation. Cette propri´et´e est
plus forte que la pr´ec´edente car un processus stationnaire au second ordre peut poss´eder
des moments d’ordre sup´erieur qui ne sont pas invariants par translation. La notion de
stationnarit´e stricte et de stationnarit´e au second ordre se confondent par contre pour les
processus Gaussiens car ceux-ci sont enti`erement r´esum´es par leurs deux premiers moments. Par contre d`es que l’on sort du cadre Gaussien comme dans les mod`eles GARCH,
on n’a plus coincidence entre les deux notions. Il est cependant courrant de se contenter de
la stationnarit´e au second ordre, car elle est plus facile a` d´ecrire.

2.2 Ergodicit´e
Pour estimer la loi d’un processus, on cherche a` accumuler de l’information en faisant
tendre le nombre d’observations vers l’infini. Pour que ce m´ecanisme d’accumulation
fonctionne, il faut que le processus ait une m´emoire finie. C’est a` dire qu’`a partir d’un
certain nombre d’observation, il n’y ait plus d’information nouvelle, mais simplement confirmation des informations pass´ees. Par exemple dans le probl`eme de l’estimation de la
moyenne, on veut que la moyenne empirique soit un estimateur consistant et que la variance de cet estimateur tende vers z´ero. On se rend compte que si un processus est cyclique,
ce qui revient a` dire que des observations tr`es e´ loign´ees peuvent eˆ tre corr´el´ees entre elles,
on n’arrivera pas a` accumuler de l’information. Cette propri´et´e de limitation de la m´emoire
d’un processus s’appelle ergodicit´e avec la d´efinition suivante:

2 PROCESSUS STOCHASTIQUES

5

D´efinition 3 Un processus stationnaire au second ordre est dit ergodique si:
T
1 X
γ(h) = 0
T →∞ T
h=1

lim

Une condition n´ecessaire, mais non suffisante pour qu’un processus stationnaire au
second ordre soit ergodique est qu’il satisfasse la propri´et´e suivante:
lim γ(h) = 0

h→∞

(2)

L’ergodicit´e est une forme faible de l’ind´ependance asymptotique.

2.3 Innovations
Un exemple de processus stationnaire est fourni par les bruits blancs. Ce sont des suites
de variables al´eatoires de moyenne nulle, non corr´el´ees et de mˆeme variance. Dans un
mod`ele de r´egression on requiert que les r´esidus soient des bruits blancs. Tr`es proche de
cette notion de r´esidu, on trouve dans la litt´erature l’appellation innovation d’un processus.
C’est la partie non pr´evisible du processus. On aura:
D´efinition 4 Xt e´ tant un processus stationnaire au second ordre, on appelle innovation du
processus a` la date t la variable d´efinie par:
Xt − E(Xt |It−1 )
o`u It−1 est l’ensemble d’information sur le processus disponible au temps t.
L’ensemble d’information peut comprendre tout le pass´e du processus. L’esp´erance
est prise ici au sens d’esp´erance conditionnelle. Il s’agit de la meilleure pr´evision de Xt
conditionnellement a` un ensemble d’information. Dans un contexte lin´eaire, la pr´evision
se fait au moyen d’une fonction de r´egression.

2.4 Th´eor`eme de Wold
Un processus stochastique non param´etrique se d´efinit a` partir de la distribution jointe
des observations ou de ses premiers moments. Un processus stochastique param´etrique se
d´efinit au contraire a` partir d’un m´ecanisme de g´en´eration qui est index´e par des param`etres.
Il est possible de caract´eriser ce m´ecanisme de mani`ere tr`es g´en´erale au moyen du th´eor`eme
de Wold (1954) dans le cas lin´eaire. Ce th´eor`eme montre que tout processus stationnaire lin´eaire peut eˆ tre repr´esent´e de mani`ere unique par la somme de deux composantes
ind´ependantes, une composante r´eguli`ere parfaitement pr´evisible parfois appel´ee d´eterministe
et une composante stochastique:
Th´eor`eme 1 Soit un processus stationnaire yt . Il est toujours possible de trouver une
composante r´eguli`ere dt et une composante stochastique ut telle que:
xt = dt + ut
ut =
o`u ²t un bruit blanc.

P∞

i=0 bi ²t−i

2 PROCESSUS STOCHASTIQUES

6

Ce th´eor`eme est a` la base de la mod´elisation des s´eries temporelles stationnaires. On
en donnera une version multivari´ee dans le chapitre 4. La composante stochastique est
exprim´ee sous la forme de ce que l’on appelle un processus moyenne mobile infinie. Un
des buts de la mod´elisation consiste a` approximer cette moyenne mobile infinie par un
processus ayant un nombre fini de param`etres. C’est ce que l’on verra en e´ tudiant les
processus AR, MA et ARMA.

2.5 Autocovariances et totales et partielles
La suite de toutes les auto-corr´elations d’une s´erie contient toutes les informations sur la
m´emoire de cette s´erie. On l’estime au moyen de
1 PT
¯)(xt−h − x¯)
t=h+1 (xt − x
T
1 PT
x¯ =
t=1 xt
T

γˆ (h) =

ρ(h) = γ(h)/γ(0)
Notez que l’on utilise T observations pour calculer la moyenne et la variance, alors que
l’on en utilise que T − h pour calculer γ(h). Donc quand h → T , l’estimateur de γ(h) tend
vers zero si le processus est stationnaire en covariance.
Si le processus est stationnaire, l’estimateur γˆ (h) est un estimateur consistant de γ(h)
pour tout h fini. Il est utile de tracer le graphe des autocorr´elations empiriques. Celui-ci
peut eˆ tre assez irr´egulier a` cause des erreurs d’´echantillonage. Il est donc utile de poss´eder
un indicateur qui permette de dire si une autoccorr´elation peut eˆ tre consid´er´ee comme nulle
ou non. L’hypoth`ese nulle que l’on doit consid´erer consiste a` supposer que le processus des
x est un bruit blanc. Sous H0 , toutes les observations sont des r´ealisations ind´ependantes
d’un mˆeme processus stochastique et les autocorr´elations estim´ees ρˆ(h) sont asymptotiquement normales

L
T ρˆ(h) → N (0, 1)


si bien que [−1.96/ T , 1.96/ T ] forme un intervalle de confiance asymptotique a` 5% des
ρ(h) autour de z´ero. Le graphique des autocorr´elations accompagn´e de son intervalle de
confiance permet donc de juger si celles-ci sont nulles ou non.
On peut montrer que si un processus est non-stationnaire, l’estimateur ρˆ(h)T tend vers 1
pour T → ∞. Dans la pratique, c’est a` dire pour T fini, les les auto-corr´elations d’une s´erie
non-stationnaire vont d´ecroˆıtre lentement. Ce sera donc une indication pour diff´erencier la
s´erie de mani`ere a` la rendre stationnaire. On e´ tudiera dans le chapitre 3 des proc´edures de
test rigoureuses pour d´eterminer quand il faut diff´erentier une s´erie pour la stationnariser.
Mais on peut d´ej`a retenir que le graphique des autocorr´elations fournit une pr´ecieuse indication quant a` la stationnarit´e ou non d’une s´erie temporelle.
La suite des autocorr´elations totale fournit une description de la m´emoire d’un processus et r´esume enti`erement ce processus. Il existe une mani`ere e´ quivalente de d´ecrire la
m´emoire d’une processus au moyen des auto-corr´elations partielles. Par partielle il faut
entendre conditionnelle a` une partie du pass´e. On a la d´efinition suivante

3 DENSITE´ SPECTRALE

7

D´efinition 5 Le coefficient d’auto-corr´elation partielle a(h) entre xt et xt−h est e´ gal a` la
correlation entre xt et xt−h , conditionnellement a` l’information disponible entre t et t − h.
Il se note formellement
a(h) = Corr(xt , xt−h |xt−1 , · · · , xt−h+1 · · · xt−h+1 ))
Une mani`ere simple d’estimer la suite des a(h) consiste a` utiliser la r´egression
xt = c + a1 xt−1 + · · · + ah xt−h + ut
et a` prendre a
ˆ(h) = a
ˆh . Pour estimer la suite des h premi`eres auto-corr´elations partielles,
il faut donc effectuer h r´egressions distinctes. Une proc´edure moins coˆuteuse passe par
l’algorithme r´ecursif de Durbin qui qui donne la valeur de a(k) en fonction des autocorr´elations partielles et totales pr´ec´edentes. Cet algorithme est expliqu´e dans l’annexe
3.2 du chapitre 3 de Box and Jenkins (1976). Mais il peut donner des solutions instables
quand le mod`ele est proche de la non-stationnarit´e.

3 Densit´e spectrale
On a d´efinit jusqu’`a pr´esent les processus stochastiques par rapport a` un indice temporel qui
indexe les observations et permet de d´ecrire une trajectoire. Le th´eor`eme de Wold permet
ainsi d’´ecrire

yt = µ +

X

βj ²t−j

j=0

On a ensuite pu analyser les auto-covariances γ(h) du processus, c’est a` dire la covariance
entre yt et yt−h . C’est l’analyse temporelle.
Mais il est e´ galement possible d’exprimer la valeur de yt comme la somme du mˆeme
terme constant µ et de fonctions p´eriodiques sin(ωt) et cos(ωt) o`u ω est une fr´equence
sur [0, π]. Le th´eor`eme de repr´esentation spectrale est l’´equivalent, dans le domaine des
fr´equences du th´eor`eme de repr´esentation de Wold.
Th´eor`eme 2 Soient deux variables al´eatoires α(.) et δ(.) de moyenne nulle et non autocorr´el´ees. Tout processus stationnaire yt peut se d´ecomposer en une somme infinie de
termes d´eterministes cos(ωt) et sin(ωt) pond´er´es par ces deux variables al´eatoires selon
yt = µ +

Z π
0

[α(ω) cos(ωt) + δ(ω) sin(ωt)] dω

Cette approche est particuli`erement utile pour e´ tudier des cycles. On pourra consulter
Priestley (1981) pour des compl´ements math´ematiques.

3.1 Le spectre de la population
Consid´erons la suite des auto-covariances γ(h). On peut r´esumer cette suite au moyen de
la s´erie d’argument formel z
gy (z) =


X

j=−∞

γ(j)z j

3 DENSITE´ SPECTRALE

8

que l’on appelle la fonction g´en´eratrice des auto-covariances. Il est commode de remplacer
l’argument muet z par un complexe situ´e sur le cercle unit´e
z = e−iω = cos(ω) − i sin(ω)
o`u la derni`ere e´ galit´e r´esulte de la formule de Moivre.1 On obtient alors le spectre de la
population sy (ω) en divisant par 2π:
sy (ω) =


1 X
γ(j)e−iωj
2π j=−∞

En utilisant la formule de Moivre et quelques propri´et´es de trigonom´etrie telles que cos(0) =
1, sin(0) = 0, sin(−θ) = − sin(θ),cos(−θ) = cos(θ), sin2 (θ) + cos2 (θ) = 1, on arrive a`
l’expression usuelle de la densit´e spectrale

X
1
sy (ω) =
(γ(0) + 2
γ(j) cos(ωj))

j=1

On remarque que la densit´e spectrale repose sur la somme infinie des γ(h) et donc n’existe
que si la suite de celles-ci est absolument sommable. On a donc besoin de la stationnarit´e
du processus pour d´efinir la densit´e spectrale.
On voit donc que la densit´e spectrale est enti`erement d´efinie par la suite des γ(j). De
mˆeme, on peut a` partir de la densit´e spectrale retrouver la suite des γ(j) au moyen de
γ(h) =

Z π
−π

e

ihω

sy (ω) dω =

Z π
−π

cos(hω)sy (ω) dω

On trouvera une preuve de ce r´esultat dans Hamilton (1994). On en d´eduit imm´ediatement
la variance de y en posant h = 0
γ(0) =

Z π
−π

sy (ω)dw

D’une mani`ere g´en´erale, on peut rechercher quelle est la variance attribuable a` certaines
fr´equences en calculant
Z ω0
γω0 = 2
sy (ω)dw
0

o`u l’on a utilis´e la propri´et´e de sym´etrie de la densit´e spectrale autour de z´ero.
Une notion particuli`erement importante est la notion de densit´e spectrale a` la fr´equence
z´ero. Les basses fr´equences concernent le comportement de long terme d’un processus. La
densit´e spectrale en z´ero va donc permettre de calculer ce que l’on appelle la variance de
long terme d’un processus.
1

On a aussi l’´egalit´e eiω = cos(ω) + i sin(ω) qui sera utile par la suite.

´
4 OPERATEUR
RETARD

9

3.2 Estimation de la densit´e spectrale
Une premi`ere fac¸on d’estimer la densit´e spectrale consiste a` remplacer les covariances par
leur estimation empirique
s˜y (ω) =

TX
−1
1

γ (0) + 2
γˆ (j) cos(ωj))

j=1

Mais cet estimateur, appel´e le p´eriodogramme, n’est pas consistant et ceci est facile a` comprendre. Le nombre d’autocovariances a` estimer croˆıt avec la taille de l’´echantillon, ce qui
fait qu’il y a de moins en moins d’observations pour estimer les derni`eres autocovariances.
Il faut donc trouver une pond´eration qui rende n´egligeable le poids des γˆ (j) a` partir d’un
certain rang. Pour cela on va mettre en oeuvre un estimateur non-param´etrique en utilisant
une fenˆetre. La plus courante est celle de Barlett (1950), ce qui donne
sˆy (ω) =

l−1
X
1
j

γ (0) + 2 (1 − )ˆ
γ (j) cos(ωj))

l
j=1

o`u l est la longueur de la fenˆetre. Le r´esultat est bien sˆur tr`es sensible au choix de la fenˆetre.
On cherche une fenˆetre qui garantisse la consistence de l’estimateur, c’est a` dire une fenˆetre
qui tende vers l’infini quand T tends lui mˆeme vers l’infini, mais dont le rapport l/T tende
lui vers z´ero. Au fur et a` mesure que T croit, on prendra de plus en plus d’autocorr´elations
en compte pour estimer sy (ω), mais que les autocorr´elations retenues seront estim´ees avec
un nombre croissant d’observations. On trouvera dans le chapitre 7 de Priestley (1981) une
discussion approfondie sur ce th`eme. On peut retenir la suggestion suivante pour la fenˆetre
l = 4(T /100)1/4
Cette fenˆetre garanti la consistance de l’estimateur de la densit´e spectrale.

4 Op´erateur retard
On aura souvent a` consid´erer une variable en fonction de son pass´e. Il est donc commode de
d´efinir un op´erateur qui transforme une variable Xt en sa valeur pass´ee. C’est l’op´erateur
retard d´esign´e par la lettre L et tel que:
Xt L = Xt−1 et Xt Lk = Xt−k

(3)

Cet op´erateur sera utilis´e a` l’int´erieur de polynˆomes not´es par exemple:
B(L) = β0 + β1 L + β2 L2 + . . . + βq Lq

(4)

B(L) Xt = β0 Xt + β1 Xt−1 + β2 Xt−2 + . . . + βq Xt−q

(5)

Alors:
Les op´erations usuelles telles que l’addition, multiplication, division et inverse sont possibles sur l’ensemble des polynˆomes de retard avec les mˆemes propri´et´es que sur les s´eries

´
4 OPERATEUR
RETARD

10

enti`eres. On retiendra en premier deux valeurs particuli`eres des polynˆomes de retard B(0)
qui donne la valeur du premier coefficient du polynˆome, son terme constant et B(1) qui
fournit lui la somme des coefficients de ce mˆeme polynˆome. Enfin, l’op´erateur 1 − L joue
un rˆole sp´ecial dans la mesure o`u il permet de prendre la diff´erence premi`ere d’une s´erie:
(1 − L)Xt = Xt − Xt−1

4.1 Inversion des polynˆomes
Pour parler de l’inverse d’un polynˆome de retard, il est commode dans un premier temps
de consid´erer un polynˆome particulier qui est le polynˆome de retard de degr´e un d´efini par:
A(L) = 1 − αL
Pour |α| < 1 ce polynˆome poss`ede un inverse, c’est a` dire que l’on peut d´efinir:
−1

A


X
1
=
αi Li
(L) =
1 − αL i=0

en utilisant l’expression de la somme d’une progression g´eom´etrique. Consid´erons maintenant le polynˆome A(L) de degr´e p que l’on note:
A(L) = 1 − α1 L − α2 L2 − . . . αp Lp
On d´efinit l’´equation caract´eristique associ´ee a` ce polynˆome comme l’expression en z
A(z) = 1 − α1 z − α2 z 2 − . . . αp z p = 0
On a le th´eor`eme suivant
Th´eor`eme 3 Le polynˆome A(L) est inversible si les p racines lj de son e´ quation caract´eristique associ´ee sont toutes ext´erieures au cercle unit´e. Son inverse est donn´e par
A(L)−1 =

p X

Y
1k

[

(

j=1 k=0

lj

)Lk ]

La preuve de ce th´eor`eme utilise le r´esultat pr´ec´edent en se ramenant a` une s´erie
d’op´erations e´ l´ementaires o`u l’on aurait a` inverser que des polynˆomes de degr´e un.
Preuve: Factoriser le polynˆome A(z) en utilisant les p racines de l’quation caract´eristique:
A(z) =

p
Y

(z − lj ) αr

j=1

On peut remarquer que le produit des racines est e´ gal a` 1/αr car:
A(0) = 1 =

p
Y

(−lj ) αr

j=1

´
4 OPERATEUR
RETARD

11

D’autre part on a la factorisation:
(z − lj ) = −lj (1 −

z
)
lj

ce qui permet d’exprimer le polynˆome en z sous la forme:
A(z) =

p
Y

(1 −

j=1

z
)
lj

On peut alors ramener le calcul de l’inverse de A(z) au calcul simple suivant que l’on sait
effectuer:
p
Y
z
A−1 (z) =
(1 − )−1
lj
j=1
car:
(1 −


z −1 X
1
) =
( )k z k
lj
k=0 lj

Cet inverse existe si les racines lj de l’´equation caract´eristique sont toutes en dehors du
cercle unit´e.
2

4.2 Factorisation
Une op´eration tr`es pratique que l’on peut op´erer sur les polynˆomes en g´en´eral et les polynˆomes
de retard en particulier est ce que l’on appelle la division des polynˆomes. Si l’on range
un polynˆome par puissances d´ecroissantes, on peut effectuer une division par un autre
polynˆome aussi facilement (ou a` peu pr`es) que ce que l’on effectue la division Euclidienne
de deux nombres. Nous allons r´esoudre un exemple qui s’av´erera tr`es utile par la suite, car
il permet de factoriser le polynˆome (1 − L):
b2 L2 +

b1 L

−(b2 L2 −

b2 L)

0

+

(b1 + b2 )L +

b0

−L + 1
−b2 L − (b1 + b2 )

b0

−((b1 + b2 )L − (b1 + b2 ))
0

b0 + b1 + b2

Cet exemple permet de montrer que:
b2 L2 + b1 L + b0 = B(1) + (1 − L)[−b2 L − (b1 + b2 )]
ou d’une mani`ere g´en´erale:
B(L) = B(1) + (1 − L)[b0 − B(1) − B ∗ (L)]

(6)

`
´
5 MODELES
PARAMETRIQUES
USUELS

12

Si q est le degr´e du polynˆome B(L), le polynˆome B ∗ (L) sera de degr´e q − 1 sans terme
constant avec:
B ∗ (L) = b∗1 L + b∗2 L2 + . . . + b∗q−1 Lq−1
et ses coefficients sont d´efinis par:
b∗j =

q−1
X

bi+1

j = 1, . . . , q − 1

(7)

i=j

Consid´erons maintenant le polynˆome A(L) de degr´e p:
A(L) = 1 − a1 L − a2 L2 − . . . − ap Lp

(8)

On peut montrer par une technique similaire de division de polynˆome les relations suivantes:
A(L) = A(1) + (1 − L)[1 − A(1) − A∗ (L)]
(9)
o`u les coefficients du polynˆome A∗ (L) sont d´efinis par:
p−1
X

a∗j = −(

ai+1 )

j = 1, . . . , p − 1

(10)

i=j

Deux autres factorisations de ce polynˆome seront utiles dans la suite de cet ouvrage. Par
de simples manipulations alg´ebriques, on arrive a` :
A(L) = A(1)L + (1 − L)[1 − A∗ (L)]

(11)

A(L) = (1 − [1 − A(1)]L) − (1 − L)A∗ (L)

(12)

et:
que l’on r´ee´ crira parfois comme:
A(L) = (1 − ρL) − (1 − L)A∗ (L)

(13)

Cette e´ criture sera utilis´ee dans le chapitre sur les tests de racine unitaire en posant ρ =
1−A(1). Cette derni`ere e´ criture permet de montrer que si un polynˆome de retards comporte
une racine unitaire (1 − L), alors la somme de ses coefficients est e´ gale a` z´ero. Il suffit pour
cela d’y poser L = 1.

5 Mod`eles param´etriques usuels
5.1 Processus moyenne mobile
Un processus qui est g´en´er´e par l’´equation:
yt = ²t + β²t−1

(14)

`
´
5 MODELES
PARAMETRIQUES
USUELS

13

est un processus moyenne mobile a` l’ordre 1, ou MA(1). Ce processus se g´en´eralise a`
l’ordre q:
yt = B(L) ²t
(15)
o`u B(L) est un polynˆome de retard de degr´e q avec β0 = 1. La moyenne du processus est
clairement nulle. On peut introduire une moyenne non nulle en consid´erant:
yt − µ = B(L) ²t

(16)

La variance du processus se trouve directement:
2

γ(0) = σ (1 +

q
X

βj2 )

(17)

j=1

Calculons l’auto-covariance a` l’ordre un du processus M A(1):
γ(1) = E(yt yt−1 ) = E[(²t + β²t−1 )(²t−1 + β²t−2 )] = βσ 2

(18)

On en d´eduit l’auto-corr´elation a` l’ordre 1 :
ρ(1) = β/(1 + β 2 )

(19)

et l’on remarque qu’elle est toujours inf´erieure ou e´ gale a` un demi en valeur absolue. Il est
ensuite facile de voir que γ(2) = 0 pour un M A(1). La formule g´en´erale de γ(h) pour un
M A(q) est un peu plus complexe:
γ(h) = E(yt yt−h ) = E(

q
X

βi ²t−i

i=0

= σ 2 (βh +

q−h
X

βi βh+i )

q
X

βj ²t−j−h )

(20)

i=0

si h ≤ q

(21)

i=1

= 0

si h > q

(22)

On verra, qu’`a la diff´erence des processus auto-r´egressifs, l’auto-covariance s’annule d`es
que l’on d´epasse l’ordre du polynˆome B(L).
Le calcul de la densit´e spectrale n´ecessite de passer par la fonction g´en´eratrice des
auto-corr´elations. Pour un MA(1), le r´esultat est assez simple car on a vu que les autoccor´elations d’ordre sup´erieur a` un sont nulles. On a donc
gy (z) =


X

γ(j)z j = γ(−1)z −1 + γ(0)z 0 + γ(1)z 1

−∞

On peut alors factoriser cette expression en
gy (z) = σ 2 (1 + βz)(1 + βz −1 ) = σ 2 B(z)B(z −1 )

`
´
5 MODELES
PARAMETRIQUES
USUELS

14

et supposer facilement que cette expression est vraie pour un MA(q). On en d´eduit alors
que la densit´e spectrale d’un MA(q) est donn´ee par
sy (ω) =

σ2
B(eiω )B(e−iω )


Pour un MA(1), on aura B(eiω )B(e−iω ) = (1 + βe−iω )(1 + βeiω ). En utilisant la formule
de Moivre, on trouve que e−iω + eiω = 2 cos(ω). On arrive donc rapidement a`
sy (ω) =

σ2
[1 + β 2 + 2β cos(ω)].


Cette densit´e est d´ecroissante pour β > 0 et croissante dans le cas contraire.
Un processus MA(q) est toujours stationnaire par d´efinition. Mais on peut toujours
aussi d´efinir l’´equation caract´eristique associ´ee au polynˆome B(L). Si les racines de cette
e´ quation sont toutes en dehors du cercle unit´e, alors ce polynˆome est inversible et le processus est dit aussi inversible. Il existe alors une repr´esentation auto-r´egressive infinie de
ce processus d´efinie par:
B −1 (L) yt = ²t
(23)
Pour clore ce paragraphe, consid´erons deux processus MA(1) ind´ependants xt = ut +
aut−1 et zt = vt + bvt−1 avec u et v deux bruits blancs ind´ependants entre eux. Consid´erons
la somme de ces deux MA(1):
yt = xt + zt = ut + vt + aut−1 + bvt−1
Il est facile de voir que yt est de moyenne nulle, de variance la somme des variances de
xt et de zt et d’auto-covariance, γ(h), la somme des auto-covariances de xt et de zt . On
v´erifie e´ galement que γ(h) = 0 pour h > 1. yt a donc toutes les propri´et´es d’un MA(1).
On peut donc e´ crire
yt = ²t + β²t−1
avec ² bruit blanc. Pour trouver les valeurs de β et de σ²2 , il faut r´esoudre un syst`eme de
deux e´ quations a` deux inconnues.
On peut facilement g´en´eraliser le r´esultat pr´ec´edent au cas de deux processus MA(q1 )
et MA(q2 ) ind´ependants. La somme de ces deux processus est un MA(max(q1 , q2 )).

5.2 Processus auto-r´egressifs
Un processus qui est g´en´er´e par l’´equation:
yt = αyt−1 + ²t

(24)

o`u ²t est un bruit blanc de moyenne nulle et de variance σ 2 est appel´e processus autor´egressif a` l’ordre un. On peut calculer la moyenne de ce processus en posant:
E(yt ) = αE(yt−1 ) + E(²t ).

(25)

`
´
5 MODELES
PARAMETRIQUES
USUELS

15

Si le processus est stationnaire (|α| < 1), on a alors:
E(y) =

E(²t )
,
(1 − α)

(26)

ce qui montre que la moyenne est nulle. On peut g´en´eraliser l’´ecriture du mod`ele pour
consid´erer une esp´erance non nulle avec:
yt − µ = α(yt−1 − µ) + ²t .

(27)

L’esp´erance de yt sera alors e´ gale a` µ. Elevons maintenant au carr´e chacun des termes du
mod`ele AR(1) initial et prenons en l’esp´erance. Ceci permet de calculer la variance du
processus:
2
E(yt2 ) = α2 E(yt−1
) + E(²2t ) + 2αE(yt−1 ²t )
(28)
que l’on r´esout en:

σ2
.
(29)
1 − α2
Cette variance n’existe bien sˆur que si le processus est stationnaire. L’auto-covariance au
premier ordre s’obtient ais´ement car:
γ(0) = Var(y) =

2
γ(1) = E(yt yt−1 ) = αE(yt−1
) + E(²t yt−1 )

(30)

Comme le dernier terme est nul, il reste:
γ(1) = α γ(0)

(31)

γ(h) = αh γ(0),

(32)

que l’on peut g´en´eraliser en:
ce qui montre que l’auto-covariance d’un processus AR(1) d´ecroˆıt tr`es rapidement.
Un processus AR(1) se g´en´eralise a` l’ordre p en consid´erant:
A(L) yt = ²t

(33)

o`u A(L) est un polynˆome de retards a` l’ordre p que l’on e´ crit:
A(L) = 1 − α1 L − α2 L2 − . . . − αr Lp

(34)

L’´equation caract´eristique associ´ee a` ce polynˆome se note:
A(z) = 1 − α1 z − α2 z 2 − · · · − αr z p = 0

(35)

Le processus AR(p) est stationnaire si toutes les racines de cette e´ quation caract´eristique
sont a` l’ext´erieur du cercle unit´e. Dans le cas d’un processus AR(1) cette condition se
ram`ene a` |α| < 1.

`
´
5 MODELES
PARAMETRIQUES
USUELS

16

Quand un processus AR(p) est stationnaire, on peut toujours lui faire correspondre un
processus moyenne mobile infini MA(∞):
yt = A−1 (L) ²t

(36)

Dans le cas d’un AR(1), ceci se r´esout en:
yt =


X

αj ²t−j

(37)

j=1

On va calculer la densit´e spectrale d’un AR(1) a` partir de son expression M A(∞) et
utiliser la formule donn´ee plus haut. Si |α| < 1, on peut e´ crire la somme infinie comme
B(z) = A−1 (z) =

1
1 − αz

A partir de l`a on peut donc trouver l’expression de la densit´e spectrale d’un AR(1)
sy (ω) =
=

1

σ2

2π (1 − αe−iω )(1 − αeiω )
1
σ2
2π 1 + α2 − 2α cos(ω)

Cette densit´e spectrale est d´ecroissante en ω si α > 0 et croissante si α < 0. Il est tr`es
important de remarquer pour la suite le comportement particulier de la densit´e spectrale
en z´ero quand α → 1. Elle tend vers l’infini. On remarquera de mˆeme que si la fonction
d’autocovariance d´ecroit tr`es vite quand α < 1, elle reste constante quand α = 1. Ce sont
deux caract´eristiques des processus non-stationnaires.
Consid´erons deux processus AR(1) ind´ependants pour en calculer la somme:
(1 − aL)xt = ut

(1 − bL)zt = vt

Si a = b, la somme de ces deux processus est facile a` faire et l’on aura (1 − aL)(xt + zt ) =
ut + vt , ce qui signifie que (1 − aL)yt = ²t sera aussi un AR(1). Dans le cas g´en´eral, il faut
se ramener au cas o`u les deux polynˆomes auto-r´egressifs sont identiques, ce qui s’obtient
en multipliant chaque processus par le polynˆome de retard de l’autre, ce qui fait
(1 − aL)(1 − bL)xt = (1 − bL)ut
(1 − aL)(1 − bL)zt = (1 − aL)vt
La somme de ces deux processus transform´es donne alors
(1 − (a + b)L + abL2 )(xt + zt ) = (1 − bL)ut + (1 − aL)vt
On obtient donc un nouveau processus auto-r´egressif, mais d’ordre 2 et dont les erreurs
suivent un MA(1). Il s’agit d’un ARMA(2,1). Ce r´esultat se g´en´eralise facilement. La
somme d’un AR(p1 ) et d’un AR(p2 ) ind´ependants donnera un ARMA(p1 +p2 , max(p1 , p2 )).

`
´
5 MODELES
PARAMETRIQUES
USUELS

17

5.3 Equations de Yule et Walker
Consid´erons un processus auto-r´egressif d’ordre p d´efini par:
A(L) yt = ²t

(38)

et sa fonction d’auto-covariance γ(h). Dans le cas o`u r = 1 on a vu comment calculer γ(h)
et montr´e que celle-ci d´ependait de fac¸on unique du coefficient de A(L). Le calcul devient
un peu plus complexe d`es que r ≥ 2. On a recours pour ceci aux e´ quations dite de Yule et
Walker (voir par exemple Gourieroux and Monfort (1990), page 180). Multiplions par yt
les deux cˆot´es du processus auto-r´egressif. On a:
yt2 = α1 yt yt−1 + α2 yt yt−2 + · · · + αr yt yt−r + yt ²t

(39)

et en prenant l’esp´erance, on obtient une expression de l’auto-covariance a` l’ordre z´ero:
γ(0) =

p
X

αi γ(i) + σ 2

(40)

i=1

et donc:
γ(0) =

σ2

1−

Pp

i=1

(41)

αi ρ(i)

Si maintenant on cherche une relation de r´ecurrence pour d´efinir l’auto-covariance a` l’ordre
h avec h strictement positif, il suffit d’effectuer la mˆeme op´eration, mais en prenant yt−h ,
ce qui donne:
γ(h) =

p
X

αi γ(h − i) , ∀h > 0

(42)

i=1

On obtient une expression identique pour les auto-corr´elations en divisant par γ(0). En
e´ crivant cette expression pour h variant de 1 a` p et en tenant compte de la parit´e de ρ(h),
on obtient les e´ quations dites de Yule-Walker qui forment un syst`eme de p e´ quations a` p
inconnues:






ρ(1)



 ρ(2) 

 . =
 . 

 . 

ρ(r)

1
ρ(1)
..
.

ρ(1)
1
..
.

ρ(r − 1)

ρ(r − 2)

···
···
···
···





ρ(r − 1)
α1


ρ(r − 2) 
  α2 



..
  .. 
 . 
.
1

(43)

αr

Si les auto-corr´elations sont connues, la r´esolution de ce syst`eme permet de trouver les
valeurs des param`etres du processus auto-r´egressif d’ordre p qui les ont engendr´e. En
exprimant diff´eremment le syst`eme, on peut trouver, connaissant la suite des p param`etres
αi , les p premi`eres auto-corr´elations du processus. Les suivantes sont alors donn´ees par la
relation de r´ecurrence pr´ec´edente, en se servant des valeurs trouv´ees pour les p premi`eres.
Le syst`eme d’´equation n’est pas difficile a` trouver pour chaque cas particulier.
Exemple 1: Consid´erons l’AR(2) suivant:
yt = α1 yt−1 + α2 yt−2 + ²t

`
´
5 MODELES
PARAMETRIQUES
USUELS

18

Les e´ quations de Yule Walker permettent d’´ecrire:
ρ(1) = α1 + ρ(1) α2
ρ(2) = ρ(1) α1 + α2
d’o`u l’on tire l’expression des deux premi`eres auto-corr´elations:
ρ(1) = α1 /(1 − α2 )
ρ(2) = α2 + α12 /(1 − α2 )
Il suffit ensuite d’appliquer la relation de r´ecurrence pour trouver:
ρ(3) = α1 ρ(2) + α2 ρ(1)
ρ(4) = α1 ρ(3) + α2 ρ(2)
ρ(5) = · · ·

5.4 Processus ARMA
Les deux mod`eles pr´ec´edents sont simples, mais ils n´ecessitent parfois un grand nombre
de param`etres pour obtenir un ajustement correct aux donn´ees. Aussi il est int´eressant de
d´efinir une classe de processus mixtes dit processus ARMA au moyen de l’´equation:
A(L) yt = B(L) ²t

(44)

Ces processus jouent un tr`es grand rˆole dans la mod´elisation statistique des s´eries temporelles. Ils ont e´ t´e popularis´es par Box and Jenkins (1976). Ils permettent une repr´esentation
tr`es parcimonieuse des s´eries temporelles. Intuitivement, un AR(1) r´esume un MA(∞) et
un MA(1) r´esume un AR(∞). Un ARMA(1,1) devrait donc au moyen de deux param`etres
simplement repr´esenter raisonnablement bien une large classe de processus. On g´en´eralise
le mod`ele en consid´erant des polynˆomes d’ordre p et q pour obtenir un processus ARMA(p,q).
On peut rajouter une moyenne µ non nulle au processus en e´ crivant
A(L)(yt − µ) = B(L)²t .
Ce processus est stationnaire si toutes les racines du polynˆome A(L) sont en dehors du
cercle unit´e et inversible si toutes les racines du polynˆome B(L) sont en dehors du cercle
unit´e. Il est assez difficile de calculer les auto-covariances de ce processus, contrairement
aux processus AR et MA simples. Aussi va-t-on se limiter au cas ARMA(1,1) qui est bien
utile dans la pratique.
On part du mod`ele
(45)
(1 − αL)(yt − µ) = (1 + βL)²t .
On calcule facilement l’esp´erance
E(yt ) = αE(yt−1 ) + (1 − α)µ + E(²t ) + βE(²t−1 ) =

1−α
µ=µ
1−α

`
´
5 MODELES
PARAMETRIQUES
USUELS

19

Pour calculer la variance, il est plus commode de supposer µ = 0 car on sait qu’elle sera
ind´ependante de µ. On va prendre le carr´e des deux membres de
yt = αyt−1 + ²t + β²t−1

(46)

et en prendre l’esp´erance:
2
E(yt2 ) = α2 E(yt−1
) + E(²2t ) + β 2 E(²2t−1 )

+ 2αβE(yt−1 ²t−1 ) + 2αE(yt−1 ²t ) + 2βE(²t ²t−1 )

(47)

2
= α2 E(yt−1
) + σ 2 + β 2 σ 2 + 2αβσ 2

ce qui fait que l’on a
γ(0) = σ 2

1 + 2αβ + β 2
1 − α2

.

Pour α = 0, on retrouve la variance d’un MA(1) et pour β = 0, la variance d’un AR(1).
L’auto-covariance a` l’ordre 1 s’obtient d’une mani`ere similaire en multipliant l’´equation
de d´epart par yt−1 et en prenant l’esp´erance:
2
E(yt yt−1 ) = αE(yt−1
) + βE(²t−1 yt−1 ) + E(²t yt−1 )

= αγ(0) + βσ 2

(48)

et l’on arrive a`
γ(1) = σ 2

(1 + αβ)(α + β)
1 − α2

Pour h ≥ 2, on a la relation g´en´erale
γ(h) = αγ(h − 1),

h ≥ 2.

Mais a` l’inverse des processus AR purs, cette relation n’est pas vraie pour h = 1. On a
la superposition de deux types d’autocorr´elation, celle du MA qui est nulle pour h ≥ 2 et
celle de l’AR qui d´ecroit rapidement avec h. Pour p > 1 ou q > 1, les formules deviennent
plus complexes.
Passons maintenant a` l’expression de la densit´e spectrale d’un processus ARMA(1,1).
En se basant sur les r´esultats pr´ec´edents, il est assez facile de montrer que
sy (ω) =

σ 2 1 + β 2 + 2β cos(ω)
2π 1 + α2 − 2α cos(ω)

On peut maintenant essayer de g´en´eraliser ce r´esultat au cas ARMA(p,q). Une premi`ere
expression, utilisant l’´ecriture complexe est relativement commode
sy (ω) =

σ 2 1 + β1 e−iω + β2 e−i2ω + · · · + βq e−iqω
2π 1 − α1 eiω − α2 ei2ω − · · · − αp eipω

´
´
6 METHODOLOGIES
DE SPECIFICATION

20

Elle permet de trouver l’expression de la densit´e spectrale en z´ero en fonction des param`etres
initiaux du mod`eles:
σ 2 1 + β1 + β2 + · · · + βq
sy (0) =
.
2π 1 − α1 − α2 − · · · − αp
Et l’on remarque bien sˆur que si la partie AR comporte une racine unitaire, la somme
des coefficients αi est e´ gale a` 1, ce qui fait que le d´enominateur devient nul et la densit´e
spectrale en 0 devient infinie.
Pour obtenir une expression g´en´erale de la densit´e spectrale qui permette d’´eliminer les
nombres complexes, il faut pouvoir factoriser les deux polynˆomes de retard A(z) et B(z).
Supposons que les racines soient r´eelles et distinctes. Nous avons p racines λj pour la partie
AR et q racines ηj pour la partie MA. La densit´e spectrale s’´ecrit alors
Q

q
σ 2 j=1 [1 + ηj2 − 2ηj cos(ω)]
sy (ω) =
Q
2π pj=1 [1 + λ2j − 2λj cos(ω)]

6 M´ethodologies de sp´ecification
Les mod`eles AR s’estiment par moindres carr´es. Les processus MA n´ecessitent l’usage
d’une m´ethode non-lin´eaire qui peut eˆ tre le maximum de vraisemblance. Prenons l’exemple
d’un MA(1). On d´efinit le r´esidu du mod`ele par
ut = yt − µ − βut−1
A partir du moment o`u l’on connaˆıt une valeur de d´epart u0 que l’on va fixer e´ gale a` z´ero et
que l’on fixe une valeur pour µ et β, on peut construire de mani`ere r´ecursive la suite des ut .
On peut donc facilement construire un algorithme qui va minimiser la somme des carr´es
des r´esidus pour t = 2, · · · , T ou bien construire une fonction de vraisemblance conditionnelle si l’on fait une hypoth`ese de normalit´e.
On voit bien que le seul probl`eme a` r´esoudre ne se r´esume pas a` estimer le mod`ele.
Il faut aussi d´ecider d’une valeur pour p et q la taille des parties AR et MA. Plusieurs
approches sont possibles: une approche bas´ee sur les crit`eres d’information et une approche
dite de Box et Jenkins qui se base sur l’examen des graphiques des auto-corr´elations totales
et partielles.

6.1 Box-Jenkins
Box and Jenkins (1976) ont promu une m´ethodologie consistant a` mod´eliser les s´eries
temporelles univari´ees au moyen des processus ARMA. Ces processus sont parcimonieux
et constituent une bonne approximation de processus plus g´en´eraux pourvu que l’on se
restreigne au cadre lin´eaire. Les mod`eles ARMA donnent souvent de bon r´esultats en
pr´evision et ont b´en´efici´e de la vague de scepticisme quant a` l’int´erˆet des gros mod`eles
e´ conom´etriques (voir par exemple Ashley (1988)).
La m´ethodologie de Box et Jenkins peut se d´ecomposer en quatre e´ tapes:

´
´
6 METHODOLOGIES
DE SPECIFICATION

21

1) Transformer la s´erie e´ tudi´ee de mani`ere a` la stationnariser. L’outil utilis´e est le
graphique des auto-covariances.
2) D´eterminer une valeur plausible pour l’ordre des parties AR et MA au moyen des
graphiques d’auto-corr´elation et d’auto-corr´elation partielle.
3) Estimer les param`etres
4) V´erifier les qualit´es pr´edictives hors e´ chantillon du mod`ele au moyen de tests.
Cette m´ethodologie est int´eressante dans la mesure o`u elle fut la premi`ere a` poser
clairement la question de l’ad´equation du mod`ele aux donn´ees en particulier en ce qui
concerne la sp´ecification dynamique. Elle d´ecrit un enchaˆınement de proc´edures de tests et
de proc´edures d’estimation.
1. L’´etape 1 cherche a` obtenir la stationnarit´e des donn´ees en interpr´etant le graphique
des auto-covariances. Un processus non-stationnaire a ses auto-covariances qui d´ecroissent
tr`es lentement a` l’inverse d’un processus stationnaire. Nous verrons ult´erieurement
comment la litt´erature moderne a pu proposer des tests formels de stationnarit´e.
2. L’´etape 2 repose e´ galement sur l’interpr´etation de graphiques pour choisir l’ordre des
parties AR et MA. On sait que les auto-corr´elations d’un processus MA(q) deviennent nulles a` partir de l’ordre q + 1. Si le graphique des auto-corr´elations empiriques
chute brusquement apr`es h = q, on pourra donc dire que l’on est en pr´esence d’un
MA(q). Si l’on consid`ere maintenant les autocorr´elation totales d’un AR(p), on sait
qu’elles d´ecroissent lentement dans le temps. Mais il n’est gu`ere possible de d´eduire
une valeur de p a` partir de l’examen du corr´elogramme. On cherche donc une transformation du corr´elogramme qui soit plus interpr´etable. Il s’agit du graphique des
auto-corr´elations partielles que l’on a not´e aT (p). Les autocorr´elations partielles ont
la propri´et´e d’ˆetre nulles a` partir de l’ordre p + 1 pour un processus AR(p).
3. L’´etape 3 consiste a` estimer le mod`ele choisi
4. L’´etape 4 consiste a` v´erifier si le mod`ele est bien sp´ecifi´e au moyen de tests de mauvaise sp´ecification. La litt´erature moderne en a fournit toute une batterie dont on
trouvera par exemple une recension dans le chapitre 1 de L¨utkepohl and Kr¨atzig
(2004).

6.2 Transformations et diff´erentiation
Les mod`eles ARMA sont assez restrictifs dans la mesure o`u ils supposent que les observations sont stationnaires, que les param`etres sont constants et que les erreurs sont de variance
constante. Pour se ramener a` un tel cade, il faut souvent transformer les donn´ees.
La transformation log permet de stabiliser la variance d’une s´erie si la variance de la
s´erie originale croit avec les valeurs de celle-ci. Cette transformation permet aussi parfois
de se rapprocher de la normalit´e.

´
´
6 METHODOLOGIES
DE SPECIFICATION

22

Une s´erie non stationnaire est une s´erie qui en g´en´eral croit avec le temps. On peut
donc eˆ tre tent´e de retirer par r´egression un trend temporel de cette s´erie. L’autre solution
consiste a` utiliser un filtre du type (1 − L). On va alors diff´erentier la s´erie. Si l’on a tout
d’abord pris le logarithme, la s´erie transform´ee
(1 − L) log yt = log yt − log yt−1
repr´esentera les accroissement en pourcentage de la s´erie. Par exemple, au lieu de consid´erer un indice de prix, on mod´elisera un taux d’inflation. Un indice de prix croit en
g´en´eral toujours, ce qui fait qu’il n’est pas stationnaire. Un taux d’inflation aura lui beaucoup plus de chances d’ˆetre stationnaire.
Si une s´erie pr´esente une forte composante saisonni`ere, on peut e´ liminer celle-ci en
diff´erenciant la s´erie non plus a` l’ordre un, mais a` l’ordre de la saisonnalit´e. Ainsi pour des
s´eries trimestrielles, on pourra utiliser (1 − L4 ). Ainsi on peut d´efinir un taux d’inflation
annuel glissant par
(1 − L4 ) log Pt = log Pt − log Pt−4
Il faut toutefois eˆ tre prudent dans l’utilisation de ces transformations, car elles peuvent avoir des cons´equences sur le processus e´ tudi´e et introduire artificiellement des caract´eristiques qui ne s’y trouvaient pas. Ceci sera trait´e plus particuli`erement dans le chapitre
consacr´e aux racines unit´es.

6.3 Crit`eres d’information
Les crit`eres d’information cherchent a` minimiser le logarithme de la variance des r´esidus
en tenant compte d’une p´enalit´e additive bas´ee sur la taille du mod`ele. Par exemple pour
un AR(p), on va chercher la valeur de p qui rend minimum
2
p.
T
C’est le crit`ere de Akaike (1974). On d´ebutera la proc´edure en choisissant une valeur maximale pour p et l’on proc´edera en r´eduisant cette valeur jusqu’`a trouver le AIC minimum.
On conserve la mˆeme valeur de T tout au long de la proc´edure. Le crit`ere d’Akaike surestime asymptotiquement la valeur de p avec une probabilit´e positive, aussi a-t-on cherch´e
dans la litt´erature d’autres crit`eres qui soient consistants. Le crit`ere de Hannan and Quinn
(1979)
2 log log T
p
HQ(p) = log σ
ˆT2 (p) +
T
est consistant (convergence en probabilit´e). Le crit`ere de Schwarz (1978)
AIC(p) = log σ
ˆT2 (p) +

log T
p
T
est lui fortement consistant (convergence presque sˆure). La consistance est obtenue a` condition que le p de d´epart soit plus grand que la vrai valeur du processus de g´en´eration des
donn´ees. En petit e´ chantillon, les crit`eres donnent toujours les r´esultats ordonn´ees suivants
SC(p) = log σ
ˆT2 (p) +

pˆ(SC) ≤ pˆ(HQ) ≤ pˆ(AIC)

7 CONCLUSION

23

ce qui fait que le crit`ere de Schwarz est celui choisit les mod`eles les plus parcimonieux.
Il est difficile d’appliquer cette m´ethode pour des mod`eles ARMA g´en´eraux. En effet,
on doit toujours partir d’un mod`ele surparam´etr´e. Dans ce cas, les parties AR et MA
vont avoir des racines communes qui vont se simplifier et l’algorithme d’optimisation ne
convergera pas. Hannan and Rissanen (1982) ont propos´e une m´ethode approch´ee qui est
bas´ee sur l’utilisation des moindres carr´es en deux e´ tapes. Dans un premier temps, on
estime un mod`ele AR avec un ordre h maximal. On en tire des r´esidus uˆt (h) que l’on va
r´eutiliser dans la r´egression
yt = α1 yt−1 + · · · + αp yt−p + uˆt (h) + β1 uˆt−1 (h) + · · · + βq uˆt−q (h) + et
Il faudra e´ tablir une grille sur p, q < h et estimer la variance des r´esidus de cette r´egression
σ
ˆe (p, q). On choisira la combinaison p, q qui minimise un des crit`eres d’information en
prenant p+q comme le nombre total de param`etres a` introduire dans la fonction de p´enalit´e.

7 Conclusion
Dans ce chapitre, on avons examin´e les caract´eristiques principales des processus stochastiques univari´es en nous attachant principalement aux processus stationnaires. On a d´etaill´e
quelques processus param´etriques usuels qui seront fort utiles par la suite. Le fil conducteur de cet ouvrage concerne la non-stationnarit´e. On a sugg´er´e plusieurs m´ethodes pour
obtenir la stationnarit´e. On verra que ces m´ethodes engendrent des probl`emes sp´ecifiques
tant au plan de la th´eorie asymptotique que de la mod´elisation proprement dite.

8 Lectures additionnelles
On consultera avec profit des ouvrages statistiques plus sp´ecialis´es sur la mod´elisation
des s´eries temporelles comme par exemple Granger and Newbold (1986), Gourieroux and
Monfort (1990), ou Hamilton (1994). Pour ce dernier ouvrage, on consultera avec profit
les chapitres 3 et 6. L¨utkepohl and Kr¨atzig (2004) fournit toute une s´erie d’exemples empiriques trait´es au moyen d’un logiciel libre d’acc`es. Les s´eries utilis´ees sont disponibles
sur le site web de l’ouvrage, ce qui permet de les refaire facilement.

9 Exercices
9.1 Aliasing
Consid´erez un processus MA(1) xt = ²t + β²t−1 . Ecrivez l’autocorr´elation a` l’ordre 1 de
ce processus.
1) Trouvez les valeurs de β pour lesquelles l’autocorr´elation est maximale en valeur
absolue.

9 EXERCICES

24

2) A quelle condition le processus yt = ²t + θ²t−1 a les mˆemes autocorr´elations que la
processus xt . Quelles doit eˆ tre la valeur de θ?
3) Les deux processus peuvent-ils eˆ tre inversibles en mˆeme temps?
• Id´ees de solutions L’autocorr´elation a` l’ordre 1 est e´ gale a` β/(1 + β 2 ). Si β = 1,
l’autocorr´elation vaut 0.5 qui est sa valeur maximale. Cette expression ne change pas
pour si l’on remplace β par 1/β. On ne peut avoir l’inversibilit´e des deux processus
en mˆeme temps car β et θ ne peuvent eˆ tre inf´erieur a` 1 en mˆeme temps.

9.2 Somme de deux MA(1)
Soient processus MA(1) ind´ependants xt = ut +aut−1 et zt = vt +bvt−1 avec Var(ut ) = σu2
et Var(vt ) = σv2 . Consid´erons la somme de ces deux processus yt = xt + zt . On obtient :
yt = ut + vt + aut−1 + bvt−1 = ²t + β²t−1
1) Calculez la moyenne, la variance et l’auto-covariance a` l’ordre 1 de yt
2) Montrez que ces quantit´es sont e´ gales a` la somme des moyennes, variances et covariances des processus MA(1) initiaux.
3) Trouvez la valeur de β en fonction des param`etres des processus MA(1) initiaux.
4) Donner la composition de ²t
• Id´ees de solutions L’expression de la moyenne et de la variance se d´eduit de l’ind´ependance
entre ut et vt . Pour calculer la covariance a` l’ordre 1, on profite du fait que l’esp´erance
est nulle pour calculer simplement E(yt yt−1 ) en utilisant les mˆemes propri´et´es d’ind´ependance.
Une fois ces calculs faits, la r´eponse a` la question 2 est triviale. La valeur de β
est simple a` trouver si les variances σu2 et σv2 sont e´ gales. Dans le cas contraire β
s’exprime comme une somme pond´er´ee par les variances des coefficients initiaux.
Pour trouver l’expression de ²t , il faut trouver ses moments en fonction de ceux de
ut et vt .

9.3 Moments d’un MA(2)
Soit un processus MA(2)
yt = ²t + β1 ²t−1 + β2 ²t−2
avec ²t ∼ N(0, σ 2 ).
1) Calculez la moyenne, la variance et l’auto-covariance a` l’ordre τ γ(τ ) de ce processus. Montrez que γ(τ ) = γ(−τ ). Que se passe-t-il pour τ > 2?
2) Supposons que les param`etres du mod`ele aient e´ t´e estim´es. Comment en calcule-t-on
les r´esidus? Sous quelle condition cela est-il possible?

9 EXERCICES

25

3) Consid´erons l’´equation caract´eristique 1 + β1 z + β2 z 2 = 0. Calculez les racines de
cette e´ quation. Donnez une factorisation du polynˆome de retard du mod`ele. Donnez
les restrictions que doivent remplir β1 et β2 pour que ce polynˆome soit inversible.
• Id´ees de solutions Le calcul de la moyenne et de la variance ne pose pas de probl`eme.
Pour calculer l’auto-covariance, on calculera l’esp´erance des double produits qui sera
nulle selon la valeur de τ . On en d´eduit facilement la propri´et´e γ(τ ) = γ(−τ ). Pour
τ > 2, l’auto-covariance sera e´ videmment nulle. Pour calculer les r´esidus, il suffit
de remarquer que l’on peut e´ crire le mod`ele sous la forme yt = B(L)²t . Il suffit
alors d’inverser le polynˆome B(L) pour trouver ²t = B(L)−1 yt . Il faut donc que ce
polynˆome soit inversible. Pratiquement, on proc´edera par r´ecurrence en supposant
que ²1 = ²2 = 0 et en calculant ²t = yt − βˆ1 ²t−1 − βˆ2 ²t−2 . L’´equation caract´eristique
est un polynˆome de degr´e deux dont on va calculer le discriminant, ce qui donnera
directement les racines en z´ero. Les racines sont r´eelles si le discriminant est positif.
Elles doivent eˆ tre plus grandes que 1.

9.4 Simulation d’un AR(1)
Consid´erez l’AR(1) suivant
yt = µ + ρyt−1 + ²t
avec µ = 1. Simulez ce processus pour T = 50 avec diff´erentes valeurs pour ρ. On prendra
ρ = 0.3, ρ = 0.8, ρ = 0.99 et ρ = 1.01. Estimez pour chaque cas les autocorr´elation et
faites en le graphique. Que pouvez vous conclure?

9.5 Moments d’un AR(2)
Consid´erons le processus AR(2) suivant
yt = α1 yt−1 + α2 yt−2 + ²t
´
1) Ecrire
l’´equation caract´eristique et d´eduisez en les conditions de stationnarit´e du processus.
2) Calculez la moyenne et la variance du processus.
3) En utilisant les e´ quations de Yule-Walker, donner l’auto-corr´elation du processus
ρ(τ ) pour τ = 1, 2, 3.
4) Essayez de trouver une formule g´en´erale. Qu’en d´eduisez vous pour τ → ∞.
• Id´ees de solutions L’´equation caract´eristique est 1 − α1 z − α2 z 2 = 0. Quand on a
calcul´e les racines, il faut donner les conditions pour qu’elles soient plus grandes que
1. Pour calculer les moments, on utilise l’hypoth`ese de stationnarit´e qui dit que les
moments de y sont les mˆemes quelque soit t. On en d´eduit que l’esp´erance est nulle

9 EXERCICES

26

et la variance e´ gale a` σ 2 /(1 − α12 − α22 ). Les e´ quations de Yule-Walker permettent
d’´ecrire directement
ρ1 = α1 + ρ1 α2
ρ2 = α1 + ρ1 α2
ρ3 = α1 ρ2 + α2 ρ2
Il suffit ensuite de r´esoudre les deux premi`eres e´ quations pour trouver les deux
premi`eres auto-corr´elations. La formule g´en´erale permet de voir que comme dans
le cas AR(1), ρr fait intervenir les coefficients α1 et α2 avec une puissance de r. De
ce fait l’auto-corr´elation tend vers z´ero quand r tend vers l’infini.

9.6 Simulation d’un ARMA(1,1)
Consid´erons le processus ARMA(1,0,1) suivant
yt = αyt−1 + ²t + β²t−1
et posons α = 0.3 et β = 0.6.
1) Simulez le processus en prenant ² ∼ N (0, 0.01) et T = 50.
2) Estimez les auto-corr´elation et les auto-corr´elations partielles pour τ = 1, ..., 20 et
faites en le graphique.
3) Recommencez le mˆeme exercice pour T = 100, T = 500 et T = 5000. Qu’en
d´eduisez vous?

9.7 Simulation des densit´es spectrales
Programmer en Gauss la densit´e spectrale d’un AR(1) et d’un MA(1) pour des valeurs
comprises entre 0 et π.
1) Tracer le graphique de la densit´e spectrale de l’AR(1) pour diff´erentes valeurs ci
coefficient d’auto-r´egression ρ. Que remarquez vous en ω = 0 pour des valeurs
e´ lev´ees de ρ; pour des valeurs n´egatives de ρ.
2) Faites la mˆeme chose pour un MA(1).
3) Comparez le comportement des deux densit´es spectrales autour de ω = 0.

9.8 Densit´e spectrale d’un ARMA(1,1)
Montrer que la densit´e spectrale d’un ARMA(1,1) est
sy (ω) =

σ 2 1 + β 2 + 2β cos(ω)
2π 1 + α2 − 2α cos(ω)

• Id´ees de solution On utilisera la fonction g´en´eratrice des auto-covariances et la formule de Moivre.

REFERENCES

27

9.9 Filtres
Consid´erer un processus MA(1) yt = ²t + β²t−1 et appliquez y le filtre (1 − L). Que
deviennent les auto-covariances du processus transform´e par rapport aux auto-covariances
initiales?
• Id´ees de solution Le mod`ele filtr´e s’´ecrit ∆yt = ²t + (β − 1)²t−1 + β²t−2 . On sait
que l’auto-covariance a` l’ordre 1 est βσ 2 et devient nulle d`es l’ordre 2. On peut
calculer simplement l’auto-covariance a` l’ordre 1 et 2 du processus transform´e pour
s’apercevoir qu’`a l’ordre 1 elle vaut (β 2 − 1)σ 2 et donc devient n´egative et qu’`a
l’ordre 2 elle n’est plus nulle et vaut −βσ 2 .

9.10 Crit`eres d’information
Pour faire du choix de mod`eles, on dispose de trois crit`eres g´en´eraux qui le crit`ere de
Akaike, le crit`ere de Hannan-Quin et le crit`ere de Schwarz. Tous minimisent le logarithme
de la variance des erreurs augment´e d’une p´enalit´e.
´
1) Ecrivez
ces trois crit`eres et donnez leur propri´et´es de convergence
2) Ces crit`eres sont-il adapt´es a` la recherche de sp´ecification pour un mod`ele ARMA?
Justifiez votre r´eponse.
3) D´erivez la m´ethode alternative de Hannan et Rissanen (1982).
• Id´ees de solution Le crit`eres d’information (donn´es avec seulement leur fonction de
p´enalit´e) sont les suivants: AIC (2p/T ) surestime p avec probabilit´e 1; HQ (2p log(log(T ))/T )
converge en probabilit´e vers p; SC (2p log(T )/T ) converge presque sˆurement. L’utilisation
de ces crit`eres implique que l’on estime un mod`ele sur-param´etr´e. On se heurte donc
au probl`eme des facteurs communs dans un mod`ele ARMA. La m´ethode de Hannan
et Rissanen (1982) permet de contourner cet e´ cueil. Elle consiste a` partir d’un AR(h),
avec h grand d’o`u l’on tire des r´esidus uˆ(h). Ensuite on estime le mod`ele
yt = αyt−1 + uˆ(h) + β uˆ(h)t−1 + ²t
par OLS et l’on choisit la taille de α et β au moyen des crit`eres d’information usuels.

References
A KAIKE , H. (1974): “A New Look at the Statistical Model Identification,” IEEE Transactions on Automatic Control, AC-19, 716–723.
A SHLEY, R. (1988): “On the relative worth of recent macroeconomic forecasts,” International Journal of Forecasting, 4, 363–376.
BARLETT, M. (1950): “Periodogram analysis and continuous spectra,” Biometrika, 37,
1–16.

REFERENCES

28

B OX , G., AND G. J ENKINS (1976): Time Series Analysis Forecasting and Control. San
Francisco.
G OURIEROUX , C., AND A. M ONFORT (1990): S´eries Temporelles et Mod`eles Dynamiques. Economica, Paris.
G RANGER , C. W. J.,
Diego.

AND

P. N EWBOLD (1986): Forecasting Economic Time Series. San

H AMILTON , J. D. (1994): Time Series Analysis. Princeton University Press, Princeton.
H ANNAN , E., AND B. Q UINN (1979): “The determination of the order of an autoregression,” Journal of the Royal Statistical Society, B41, 190–195.
H ANNAN , E., AND J. R ISSANEN (1982): “Recursive estimation of mixed autoregressivemoving average order,” Biometrika, 69, 81–94.
¨
¨
L UTKEPOHL
, H., AND M. K R ATZIG
(eds.) (2004): Applied Time Series Econometrics,
Themes in Modern Econometrics. Cambridge University Press, Cambridge.
P RIESTLEY, M. (1981): Spectral Analysis and Time Series. Academic Press, London.
S CHWARZ , G. (1978): “Estimating the Dimension of a Model,” The Annals of Statistics,
6, 461–464.
W OLD , H. (1954): A Study in the Analysis of Stationary Time Series. Almquist and Wicksell, Uppsala.


Aperçu du document Ch1.pdf - page 1/28

 
Ch1.pdf - page 3/28
Ch1.pdf - page 4/28
Ch1.pdf - page 5/28
Ch1.pdf - page 6/28
 




Télécharger le fichier (PDF)


Ch1.pdf (PDF, 224 Ko)

Télécharger
Formats alternatifs: ZIP Texte



Documents similaires


ch1
examen 2 statistique
master biostat sous spss1
projet dona gombert lecocq
1 markowitz
4 td profil doppler

Sur le même sujet..




🚀  Page générée en 0.012s