ï I.3. Processus non statationnaires : ARIMA et
SARIMA
ï Si la série chronologique n'est pas stationnaire
sur sa tendance, on a recours à un modèle de type ARIMA (p, d, q)
où le d est le degré de la courbe de tendance ou encore le
degré d'intégration de la série (I comme
Intégration ; on parle alors d'un ordre d'intégration).
ï
Si la tendance est linéaire alors d=1 convient :
ï
Si la tendance est quadratique alors d=2 convient :
ï Dire que la série est un ARIMA (p, d, q) est
équivalent à dire que la série différenciée
d fois est un ARMA (p, d).
ï Un mouvement saisonnier dans une série est
simplement la tendance qu'a cette série à répéter
un certain comportement à intervalle régulier dans le temps
appelé « saison ». Le nombre d'instants dans une
saison est un entier appelé période et noté
« s ».
ï Paramètres saisonniers, par opposition aux
paramètres réguliers AR et MA correspondent à un ordre qui
est un multiple de la période « s ».
ï La généralisation logique des processus
saisonniers autorégressifs (AR) et moyenne mobile (MA) est un
modèle mixte incorporant les deux processus. Un tel modèle
s'écrit sous la forme :
ï
ï Où 1,..., q sont les paramètres
saisonniers MA qui peuvent être positifs ou négatifs ; q
étant l'ordre de la composante MA.
ï 1,..., p sont des paramètres saisonniers AR qui
peuvent être positifs ou négatifs ; p étant l'ordre de la
composante AR.
ï u1...ut-sq étant les termes de la série
aléatoire.
ï
De même, les modèles SARIMA permettent
d'intégrer un ordre de différenciation lié à la
saisonnalité par la transformation où s correspond à la
périodicité des données (s=7 pour une
périodicité hebdomadaire, 4 si trimestrielle, 12 si annuelle).
ï Les autocorrélations associées à
un modèle purement saisonnier sont analogues à celles d'un
modèle non saisonnier, à la seule différence que les
autocorrélations interviennent en des délais multiples de la
période « s ».
ï I.4. Méthodologie de Box and
Jenkins
ï L'approche de Box et Jenkins (1976) consiste en une
méthodologie rigoureuse d'étude systématique des
séries chronologiques à partir de leurs caractéristiques
intrinsèques. L'objectif est de déterminer, dans la famille des
modèles ARIMA, le plus adapté à représenter le
phénomène étudié.
ï ï ï ï ï ï ï
ï ï ï ï ï Figure 18 : Les étapes de
l'élaboration et de la prévision d'un modèle stochastique
univarié (méthode BOX&JENKINS).
ï ï DONNEES
ï ï ï
-------------------------------------------
ï Chronique brute
ï Transformation ?
ï Différentiation ?
ï Saisonnalité ?
ï -------------------------------------------
ï ï ï -------------------------
--------------------------
ï Différenciation Identifier le modèle
Estimations
ï Exige que la qui va être accepté
préliminaires
ï Saisonnalité soit pour les séries des
paramètres
ï Introduite différenciées du
modèle
ï ------------------------
-------------------------
ï ï ï ï Estimation
ï
ï
ï --------------------- -----------------
ï Ré identifier les Vérifier la
Estimation
ï Modèles pour : justesse du
-paramètres
ï -l'ajustement modèle -statistiques
résiduelles
ï -la vérification -----------------
ï ---------------------
ï ï ï ï ï ï Le graphique
ci-dessous résume la méthodologie proposée :
ï ï ï ï ï ï I.4.1.
Etape n° 1 : Stationnarisation
ï La première étape est une étape de
stationnarisation de la série. Elle est primordiale comme
préalable à la détermination des modèles ARIMA.
Rappelons que les modèles ARMA ne sont représentatifs que de
séries stationnaires en tendance et corrigées
saisonnières.
ï ï I.4.2. Etape n°2 :
Identification
ï Cette phase est la plus importante et la plus
difficile : elle consiste à déterminer le meilleur
modèle parmi la famille des modèles ARIMA. Elle repose sur
l'étude des corrélogrammes simples et partiels.
ï Certains auteurs préconisent d'effectuer une
désaisonnalisation au préalable de la série. Cela facilite
les traitements ultérieurs.
ï Ensuite la série doit être
stationnarisée en tendance. Le corrélogramme simple est l'outil
idéal. En effet si celui décroît très lentement,
nous devons recourir à une différentiation (d'ordre d=1 ou d=2
etc.).
ï Une fois ce travail réalisé, il est
possible de se livrer à l'estimation du modèle ARMA :
ï Si le corrélogramme n'a que ses q (3 maximum)
premiers termes différents de 0 et que les termes du
corrélogramme partiel diminuent lentement, nous pouvons pronostiquer un
MA (q).
ï Si le corrélogramme partiel n'a que ses p
premiers (3 maximum) termes différents de 0 et que les termes du
corrélogramme simple diminuent lentement, cela caractérise un AR
(p).
ï Si les fonctions d'autocorrélation simple et
partielle ne paraissent pas tronquées, il s'agit d'un processus ARMA
dont les paramètres dépendent de la forme particulière des
corrélogrammes. Cette étape d'identification des
paramètres nous conduit généralement à
sélectionner plusieurs modèles concurrents. Il ne nous restera
qu'à choisir le meilleur d'entre eux.
ï ï ï ï ï ï ï
ï I.4.3. Etape n°3 : vérification de la justesse du
modèle
ï
Les résidus doivent se comporter comme un bruit blanc.
Si le résidu n'est pas un bruit blanc, la spécification du
modèle est incorrecte ou incomplète. Il manque peut-être un
ordre à l'un des processus. Pour vérifier que les résidus
se comportent comme un bruit blanc, on dispose un certain nombre de test
dont le test global de bruit blanc appelé test Portmanteau de
Ljung-Box, qui est utilisé pour vérifier si les
autocorrélations de la série résiduelle, sont globalement,
non significatives. Ce test est donné par la statistique :
ï
En comparant la statistique Q à la valeur critique
obtenue à partir d'un test du chi-deux on peut conclure, avec une
certaine confiance que les autocorrélations sont, globalement, non
significatives. Ainsi en comparant Q avec tabulée à (k-p-q)
degrés de libertés où :
ï k désigne les k
premières autocorrélations,
ï p est l'ordre du modèle
autorégressif,
ï q est l'ordre du modèle moyenne
mobile.
ï
Le modèle est significatif si Q< ; ou encore les
résidus sont des bruits blancs.
ï L'analyse des résidus peut se faire autrement
en vérifiant si leur moyenne est nulle ; si ce n'est pas le cas,
ajouter une constante au modèle (ce que fait par défaut SPSS).
ï On peut également tester la validité du
modèle en vérifiant si ses coefficients sont significativement
différents de 0 : le test de Student classique s'applique. Si le
coefficient n'est pas significativement différent de 0, il faut
envisager une nouvelle spécification éliminant l'ordre du
modèle AR ou MA non valide.
ï ï I.4.4. Etape n°4 :
Estimation des paramètres
ï Cette étape est totalement
à la charge du logiciel (SPSS). Pour information, l'algorithme
utilisé est de MELARD lorsque la série étudiée ne
comporte pas de valeurs manquantes. Il est basé sur ce que l'on appelle
le compromis de Marquardt qui est un algorithme d'interpolation optimale entre
la méthode de Gauss-Newton et la méthode du gradient. Si des
valeurs manquantes sont présentes, SPSS utilise alors automatiquement
l'algorithme du filtrage de Kalman. Il se décompose en deux grandes
phases : le filtrage qui utilise l'information présente et
passée par rapport à un instant t, et le lissage qui utilise la
totalité de l'information c'est-à-dire la totalité des
observations de la série chronologique.
ï ï I.4.5. Etape n°5 :
Elaboration des prévisions
ï Dans cette phase, le modèle et les observations
antérieures sont utilisés comme base de prédiction du
comportement futur des séries. Comme pour l'étape d'estimation,
SPSS s'en charge, il suffit de lui indiquer l'horizon de prévision
lorsque vous spécifiez les paramètres du modèle SARIMA.
ï ï I.4.6. Etape n°6 :
Vérification des prévisions obtenues
ï La vérification des prévisions consiste
en la confrontation des valeurs simulées aux valeurs réelles.
ï
L'indice de détermination () : est un ratio
permettant de comparer la « variation » présente
dans la série originale à celle expliquée par le
modèle ajusté.
|