WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Analyse des séries chronologiques. les modèles ARCH et GARCH

( Télécharger le fichier original )
par Samira Kerdouci
Université Badji Mokhtar de Annaba - Master 2011
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

3.3 La methode de PMV

Dans cette approche, l'utilisation de la méthode du QMV ou PMV est particulièrement intéressante pour les modèles GARCH car elle est valide, asymptotiquement, pour tout processus GARCH strictement stationnaire (sous des conditions de régularité mineures), sans hypothèse de moments

sur le processus observe. Par consequent, la fonction de vraisemblance definissant l'estimateur du MV sous l'hypothese de normalite et la fonction de pseudo-vraisemblance de l'estimateur PMV (ou QMV ) sont les memes.

Les conditions de regularite sont toujours de trois types :

1. des conditions de stationnarite forte du processus,

2. des conditions d'existence des derivees et des moments apparaissant dans les diverses formules,

3. des conditions d'indentifiabilite des parametres 0, qui doit pouvoir etre retrouve, sans ambigüite a partir des deux premiers moments conditionnels.

Definition 3.3.1 La fonction de log-vraisemblance associée a un échantillon de T observations (yi, y2, .., yT) de Yt- sous l'hypothese de normalité de la loi conditionnelle de Yt sachant s'écrit :

log LT (0) = - 2 log (27r) -- x-N

t=1

1 x-N

log (4 (0)) -- 2

t=1

(Yt int (0))2

 

h? (0) :

L'estimateur du PMV OT du parametre 0 est une solution du probleme :

max

0E0

log LT (0) '

Exemple 3.3.1 Appliquons cette formule au cas d'un modele de régression linéaire avec erreur ARCH (p) :

f yt = + Et

1 Et =ratht (0)

avec nt est JV .d. (0, 1) et

E (Et/Et-1) = 0; V (Et/Et-1) = c +

x-N p

i=i

Oz "2 ti:

V (Yt/it-1) = ht (0) = c +

x-N p

i=i

(Yt-i OXit-i)2

Dans ce cas, on a donc :

E (Yt/It_i) = mt (0) = QXt;

oI ~= (0,c, OD
·
· ;Op) E IRP+2 La log-vraisemblance s'écrit :

T

log LT (0) = -- 2 log (27r) -- E

t=1

log c +

X p

t=i

(Y-i OXt-i)2)

1

2

~

XT
t=i

2 2

(Y-t /3Yt-z) x [C E oz (Yt_i - oxt-z)1 -1

i=1

Definition 3.3.2 Les estimateurs du MV sous l'hypothèse de normalité ou du PMV, notés OT, des paramètres 0 E Rk, satisfont un système non linéaire a K équations :

~~~~~=^~T = 0

0 log LT (0)
00

avec

0 log LT (0)

00

~~~~~=^~T

= 2

XT
t=i

1 Oht (0)

h? (0) 00

~~~~~=^~T

+E

t=i

(Yt -- mt (6))2 Oht (0) N (0) ae

~~~~~=^~T

+E

t=i

Yt -- nit (0)
h? (0)

amt (0)

00

~~~~~=^~T

Remarque : On peut montrer que ce systeme peut se décomposer en deux sous systemes lorsque les parametres 0 interviennent de façon séparée dans l'écriture de l'espérance et de la variance conditionnelle. Ainsi, si l'on a 0 = (a, 0) oft a n'apparait que dans l'espérance conditionnelle et dans la variance conditionnelle, on peut décomposer ce systeme en deux sous systeme puisque :

0 log LT (a)
0a

~~~~~=^~T

=

XT
t=i

Yt -- nit (&) h? (S)

amt (a)

as

a a

a log LT (0)
00

~~~~~=^~T

= 2

XT
t=i

1

aht (3)

00

~~~~~=^~T

+E

t=i

OYt -- nit CO2

aht (3)

00

 

h? C4)

N C4)

s="4

Dans, le cas général du PMV, on sait que l'estimateur 0 est asymptotiquement normal et que sa matrice de variance covariance est définie par la formule suivante.

Propriete 3.1 Sous conditions de régularité, l'estimateur du PMV est asymptotiguement convergent et normal.

-VT (Bt -- 0°) --> Ai (0,J-1/J-1)

T--K:o

ofi la matrice de variance covariance asymptotigue de l'estimateur du PMV est calculée a partir de :

I_

J = Eo 1 02 log LT (0) 1, I = EE°10 log LT (0) a log LT (0)1 I_ 00 00' 00 00' i


·

Naturellement dans la pratique les matrice I et J sont directement estimées en remplacant l'espérance E0 par la moyenne empirique et le parametre inconnu 0 par son estimateur convergent 0. Ainsi, on utilise :

J = _1

T

T

E

t=1

02 log LT (0)

~~~~0=.T

00 00'

I = 1

T

T

E

t=1

0 log LT (0)

00

~~~~=.T

0 log LT (0)
00'

=.6T

et la variance estimée de OT vérifie alors

V (/T (et -- 61) = k1i j-1 3.3.1 Exemples

Les formules donnant les précisions asymptotiques des estimateurs du PMV peuvent se simplifier pour certains modeles particuliers.

i) Modeles conditionnellement normaux

La méthode coincide avec la méthode de MV. On a Ku (0°) = 3, Mat (0°) = 0, et on vérifie directement que I = J et

V (VT (6 1 t -- 19°)) = j-1 = I-1.

ii) Parametrages independants de la moyenne et de la variance Un autre cas simple est celui on le parametre 0 peut de décomposer en

0= ( 0) '

a n'apparaissant que dans la moyenne et 0 que dans la variance :
mt (0) = mt (a) et ht (0) = ht (0) .

Nous avons alors :

2 h 1 i

@mt(~~) @mt(~~)

E 0

h2 t (~~) @~ @~0

J = 4h 1 i

@ht(~) @ht(~)

0 E 2h2 t (~~) @~ @~~

3
5

3

5 -

E0 L

F 1 amt(a0) aht(0 0) m3t (00)]

I = (0) as as r

E° [ 2h3 t / 2 (3°) as aa.

E0 [ 3 [ /41 0 amt (a° ) amt (a° ) ]

1 ° as aS. amt(a0) aht(0°) mu (0°)]

/ 2 E

2ht 03 ) r 1 aht(0°) aht(0°) ( K, (0°) -- 1)]

° L4h1(0°) as as' \

Les matrices de variance-covariance asymptotiques des estimateurs sont :

~ ~

p ~ 1 @mt (~~) @mt (~~) ~~~1

V T (^~T ~ ~~) = E ;

h2 t (~~) @~ @~~

et

~ ~

p ~ 1

^~T ~ ~~~~ @ht (~~) @ht (~~) ~~~1

V T = E ~

2h2 t (~~) @~ @~~

~ 1 ~

@ht (~~) @ht (~~)

E @~~ (Ku (~~) ~ 1) ~

4h2 t (~~) @~

[Eo [

1 014 (1) aht (1)11

2h2t (0°) 00 00

-1

Plus les queues de distributions conditionnelles sont épaisses (au sens kurtosis grande), moins les estimateurs des parametres figurant dans la variance conditionnelle sont précis.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Le doute est le commencement de la sagesse"   Aristote