2.4 Choix d'un modèle
2.4.1 Critère d'information
Cette approche a été introduite par Akaike en
1969. Cette mesure de l'ecart entre le modèle proposé et la vraie
loie peut être obtenue à l'aide de la quantité de
Kullback.
1. Hamilton 1994, p. 126
2. voir Greene (2005, p. 256)
28
2.4.2 Définition
On se donne f0 la densité inconnue
d'observations et ?f(.), f E F?
la famille des densités parmi lesquelles on a fait
l'estimation. L'écart entre la vraie loi et le modèle est
donné par
fEF? log f0(x)
I(f0, F) = min f(x) f(x)dx
Cette quantité est toujours et s'annule seulement si
f0 appartient F. Cette quantité étant inconnue
car f0, on essaiera de minimiser un estimateur de I,
àI. Plusieurs estimateurs de la
quantité d'information ont été proposés, dans le
cas de modèles AR(p), à partir de T
observations. Dans la suite on supposera disposer d'un modèle
AR(p).
Nous avons vu jusqu'á maintenant que les fonctions
d'autocorrélation et d'au-tocorrélation partielle nous permettent
de determiner l'ordre d'un modèle autorégressif.Maintenant,
l'idée est de créer des critères statistiques qui
choisiront l'ordre du mod`ele.
Critère AIC et BIC pour processus
autorégressif
L'idée du critère AIC, appelé encore le
critère d'Akaike est de créer une fonction qui nous permettra de
calculer la qualité de l'ajustement .On sait que le nombre de
paramétres augmente, la variance àó2
diminue. Dans le but de ne pas se retrouver avec une
surparamétrisation du modèle, on ajoute un facteur qui permettra
de faire un compromis entre le nombre de paramètre et la variance
minimale. Dans les paragraphes qui suivent, on considère un
modèle AR(p) et on calcule àó2 a`
l'aide du maximum de vraisemblance pour plusieurs valeurs positives de
p. Le critére AIC consiste à calculer
AIC(p) = log(àó2) + 2 p
T
où T représente le nombre
d'observations En utilisant ce critère, on remarque que si pà
est le paramètre obtenu de la minimisation et que p est le
paramètre
du vrai modèle, on a la proprièté
suivante
P(àp ~ p) -+ 1
lorsque T -+ oc
Le critère a donc tendance à choisir un nombre
de paramètres plus grand que celui du vrai modèle, ce qui nous
conduit à un plus petit terme d'erreur
àó2. Si l'on désire
avoir un meilleur choix de l'ordre p, il existe le critère BIC qui
utilise une plus forte pénalité. Le critére BIC
(Critère d'Information Bayé-sien) sélectionne le
paramètre p qui minimise la quantité suivante :
BIC(p) = log(àó2)
+ p T log(T)
.
|