WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Etude du prix spot du Gaz naturel

( Télécharger le fichier original )
par Wissem Bentarzi
Université des sciences et de la technologie Houari Boumediene - Ingénieur d'état en recherche opérationnelle 2005
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

2.6 Classe de modèles ARMA (p, q)

On a vu que tout processus, de second ordre purement déterminable, stationnaire peut être représenté, d'après le fameux théorème de Wold, par l'une de deux formes équivalentes à savoir, la forme d'un modèle autorégressif d'ordre éventuellement infini et la forme d'un modèle moyenne mobile d'ordre éventuellement infini, données respectivement, par:

Et = Xt + P1 Xt_1 + P2 Xt_2 + P3 Xt_3 + ..., t E Z, Modèle autorégresif d'ordre infini

et

Xt = Et + 01 Et_1 + 02 Et_2 + 03 Et_3 + ..., t E Z, Modèle moyenne mobile d'ordre infini

Chacune de ces deux représentations nécessite éventuellement l'utilisation d'un nombre infini de paramètres qui sont, en pratique, inconnus et qu'on a à estimer, sur la base d'une série de taille finie; ce qui n'est pas possible en pratique. Par ailleurs, ces deux représentations s'expriment à travers des séries convergentes dont les termes sont necessairement convergent vers zéro. Il est donc possible qu'à partir d'un certain rang suffisamment grand,on puisse tronquer ces séries infinies en négligeant les restes. Ainsi deux représentations particulières et intéressantes de ces deux formes peuvent être évoquées, la première représentation particulière correspond au P p =6 0 et P = 0, Vi ~ p + 1, dans la première représentation, ce qui

donne le modèle suivant dit modèle autorégressif d'ordre p, noté AR (p) :

et la deuxième représentation particulière correspond à 0q =6 0 et 0i = 0, Vj > q + 1, dans la seconde représentation, ce qui donne le modèle suivant dit modèle moyenne mobile d'ordre q, noté MA (q) :

Xt = Et + 01 Et-1 + 02 Et-2 + 03 Et-3 + .. . + 0 q Et-q, t E Z, (2.6.2)

Il est clair que si on exprime un processus stochastique satisfaisant le modèle (2.6.1) sous la forme de Wold, on obtient une représentation moyenne mobile d'ordre infini. De même si on exprime un processus stochastique satisfaisant le modèle (2.6.2) sous la forme de convolution, on obtient une représentation autorégressive d'ordre infini.

Dans le cas où le modèle autorégressif (réciproquement modèle moyenne mobile) est d'ordre infini, on peut, pour satisfaire au principe de parcimonie (ce principe consiste à trouver le modèle d'ordre le plus petit possible), utiliser un modèle de série chronologique qui contient en même temps la partie autorégressif d'ordre p et la partie moyenne mobile d'ordre q, ce qui donne le modèle dit autorégressif moyenne mobile d'ordre (p, q) donné par :

Xt -- (1 Xt-1 -- '2 Xt-2 -- ... -- çp Xt-p = Et -- 01 Et-1 -- 02 Et-2 -- ... -- 0q Et-q, (2.6.3)

Le reste de ce chapitre est consacré à l'étude des propriétés et les caractéristiques essentielles des modèles autorégressifs purs d'ordre p (AR (p)), des modèles moyenne mobile purs d'ordre q (MA (q)) et les modèles autorégressifs moyenne mobile d'ordre (p, q) (ARMA (p, q)).

2.6.1 Processus autoregréssif

La définition d'un processus autoregréssif d'ordre p, noté AR (p) est la suivante : Définition 2.6.1 :

Un processus du second ordre {Xt, t E Z} est dit admettre une représentation AR d'ordre p, s'il est solution de l'équation aux différences stochastique suivante : Xt -- ~1Xt-1 -- 02Xt-2 --
·
·
· -- OpXt-p = Et (2.6.4)

où Et est un processus bruit blanc de moyenne nulle et de variance u2

En introduisant l'opérateur de retard B dans l'équation (2.6.4) peut se réécrire comme suit : (1) (B) Xt = Et,

où (1)(B) est le polynôme de retard, de degré p, donné par :

CHAPITRE 2. PROCESSUS STOCHASTIQUES ET SÉRIES CHRONOLOGIQUES 40 ~ (B) = 1 ~ Pp çbjBj avec çbj 2 , et çb p =6 0,

j=1

Notion de causalité

Définition 2.6.2

Un modèle de série chronologique (linéaire ou non linéaire) de la forme : Xt = g (Xt_1, Xt_2, ... Xt_p; t, et_1, et_2, ... Et_q) ,

où Et est un bruit blanc, est dit causal si, et seulement si, on peut exprimer le
processus stochastique Xt sous forme d'une combinaison linéaire (finie ou infinie)
convergente, en moyenne quadratique, du présent et du passé du bruit blanc €t.

Remarques

? 1. La causalité n'est pas une propriété du processus {Xt} à lui seul mais plutôt de la relation avec {€t}. Ainsi si le modèle est causal, le processus {Xt}, puisque s'exprimant en fonction de bruit blanc stationnaire, est stationnaire.

? 2. On remarque, d'après la définition du concept de causalité, qu'un modèle moyenne mobile d'ordre fini est toujours causal.

Condition nécessaire et suffisante de causalité d'un AR (p)

Le théorème suivant établi une condition nécessaire et suffisante pour q'un modèle autorégressif d'ordre p, soit causal.

Théorème 2.6.1

Une condition nécessaire et suffisante pour que le modèle autorégressif Xt - ~1Xt_1 - ~2Xt_2 - ~ ~ ~ - ÇbpXt_p = "t,

soient causal est que les racines de l'équation caractéristique

zp - Çb1z p_1 - Çb2z p_2 - ~
·. - çb p = 0,

soient en valeurs absolues strictement supérieurs à 1, i. e., z > 1.

Fonction d'autocorrélation d'un AR

Soit {Xt} un processus stochastique autoregressif d'ordre p vérifiant l'équation aux différences stochastiques

Xt = q1Xt_1 + q2Xt_2 + ... + çbpXt_ p + Et, Vt 2 Z, (2.6.5)

où {€t} est bruit blanc de moyenne nule et de variance finie cr2 (non corréléXt_j, j ~ 1) :

Equations de Yule-Walker

Les équations de Yule-Walker sont des relations (équations) qui lient les paramètres d'un modèle AR aux autocovariances du processus {Xt} figurant dans le modèle. Elles peuvent être exploitées, par exemple, pour l'estimation des paramètres lorsque des estimations des autocovariances sont disponibles et vice-versa.

Multiplions l'équation (2.6.5) par Xt-h et prenons l'espérance des deux côtés, on obtient :

E(XtXt-h) = 01E(Xt-1Xt-h) + 02E(Xt-2Xt-h) + ... + 0pE(Xt-pXt-h) + E(EtXt-h),

a) Pour h = 0, on trouve :

-0 = 01-Y1 + 02~2 + 03~3 + ... + 0p~p + a2

b) pour h > 0, on obtient le système d'équations :

-Yh = 01-h-1 + 02'h-2 + 03'h-3 + . .. + 0p~h-p, 1 < h < p

en divisant les deux cotés de l'égalité précédente par -y0 on obtient :

Ph = 01Ph-1+ 02Ph-2+ 03Ph-3+ ... + 0pPh-p, 1 < h < p. (2.6.6)

Si nous réitérons l'équation (2.6.6) pour h = 1, p, nous obtenons le système d'équations suivant dit système de Yule-Walker :

{

P1 = 01+ 02P1+ ... + 0pPp-1,

P2 = 01P1+ 02 + ... + 0pPp-2,

.
. .

Pp = 01P1 + 02P2 + ... + 0p,

(2.6.7)

Ce système peut s'écrire sous la forme matricielle suivante :

[

11

01

02
03
...

0p

]

=

[

P1

P2
P3
...

Pp

]

1 P1 P2
·
·
· Pp-1

P1 1 P1
·
·
· Pp-2

P1 P2 1
·
·
· Pp-3

... ... ...

. .

. .

. .

Pp-1 Pp-2 Pp-3
·
·
· 1

1 P1 P2
·
·
· Pp-1

P1 1 P1
·
·
· Pp-2

P2 P1 1
·
·
· Pp-3

. . .

. . .

Pp-1 Pp-2 Pp-3
·
·
· 1

1 -1 0

C B

C B

C B

C B

C B

A @

... ... ...

0
B B B B B @

=

0
B B B B B @

01

02

03

1
AC C C C C

...

0p

P1

P2

P3

...

1
AC C C C C

Pp

pourvu que la matrice du système soit inversible.

Estimation de Yule-Walker

Dans la pratique les autocorrélations, P1, P2, , Pp, du processus générateur de la série chro-
nologique sous-jacente, sont inconnues. Néanmoins, sur la base d'une série x1, ..., xT, en les
remplaçant, dans le système d'équations de Yule-walker par leurs estimations empiriques bP1,

bP2, -,

bPp, et en résolvant les équations obtenues, on obtient les estimations,

b01,

b02, :::,

b0p,

dites estimations de Yule-Walker des paramètres inconnus, 01, 02,:::, 0p

0
B B B B B B @

=

0
B B B B B @

01

02

03

1
AC C C C C C

...

b0p

1 bP1bP2
·
·
· Pp-1'./Ô1 1 bP1
·
·
· Pp-2

P2 bP1 1
·
·
· Pp-3

...

...

Pp-1 Pp-2

...

. . .

. . .

bPp-3
·
·
· 1

1 -1 0

bP1

P2

.

P3

1
AC C C C C

...
Pp

C B

C B

C B

C B

C B

A @

pourvu que la matrice du système précédent soit inversible.

La résolution des équations de Yule-walker peut être accomplie récursivement, de façon élégante et rapide, en appliquant l'algorithme récursif de Durbin-Levinson qui est présenté dans la section suivante.

Fonction d'autocorrélation partielle

Soit {Xt; t E Z} un processus stochastique, du second ordre, faiblement stationnaire, donné par l'équation aux différences stochastique suivante :

Xt =(k,1Xt-1 + ::: + (Pk,kXt-k + E?), t E Z

où nee)o est un processus bruit blanc, de variance constante c2k et cp k,i, i = 1, 2, ..., k, est le

i--ième paramètre du modèle autorégressif d'ordre k. En considérant une suite de modèles autoregressifs {AR (k) , k = 1, 2, 3, _:}, d'ordre k, donnés par l'équation aux différences précédente, on peut établir la suite de système de Yule-Walker lui correspondant donnée par :

Pj = (Pk1Pj-1 +(Pk2Pj-2 + ... +(Pkk, j= 1, k

çbkj est le j ième coefficient du processus autoregréssif d'ordre k. Ce système d'équations, en (Pk1, (Pk2, ..., (Pkk, peut s'écrire sous la forme matricielle suivante :

0
B B B B B @

1
AC C C C C

0
B B B B B @

=

(Pk,1
(Pk,2

(Pk,3
...

(Pk,k

...

...

...

1 P1 P2
·
·
· Pk-1

P1 1 P1
·
·
· Pk-2

P2 P1 1
·
·
· Pk-3

. . .

. . .

Pk-1 Pk-2 Pk-3
·
·
· 1

1 -1 0

C B

C B

C B

C B

C B

A @

P1

P2

P3

...

1
AC C C C C

Pk

1 P1
·
·
· Pk-2 P1

P1 1
·
·
· Pk-3 P2

P2 P1
·
·
· Pk-4 P3

. .

. .

. .

Pk-1 Pk-2
·
·
· P1 Pk

~~~~~~~~~~~~~~~~

~~~~~~~~~~~~~~~~

... ... ...

,avec

~~~~~~~~~~~

~~~~~~~~~~~

=6 0.

Il est important, dans l'étape de l'identification de la méthodologie de Box et Jenkins, comme on le verra ultérieurement, de connaître le dernier coefficient, (Pkk, k = 1, 2, 3, ..., K, où K est un entier positif suffisamment grand, de chaque modèle autorégressif de la suite considérée. Il est connu que ce coefficient est donné par :

(Pkk =

~~~~~~~~~~~~~~~~

~~~~~~~~~~~~~~~~

1 P1 P2
·
·
· Pk-1

P1 1 P1
·
·
· Pk-2

P2 P1 1
·
·
· Pk-3

... ... ...

. .

. .

. .

Pk-1 Pk-2 Pk-3
·
·
· 1

1 P1 P2
·
·
· Pk-1

P1 1 P1
·
·
· Pk-2

P2 P1 1
·
·
· Pk-3

... ... ...

. .

. .

. .

Pk-1 Pk-2 Pk-3
·
·
· 1

k= 1, 2,3, ...,K

8

<>>>>>>>>>>>>> >

>>>>>>>>>>>>>>:

(Pk,k =

...

...

...

~~~~~~~~~~~~~

,

...

...

...

1 P1 P2
·
·
· Pk-1

P1 1 P1
·
·
· Pk-2

. .

. .

. .

Pk-1 Pk-2 Pk-3
·
·
· 1

1, k = 1,

~~~~~~~~~~~~~

(

k => 2, (2.6.8)

~~
Pk

~~~

=

Pk

1 P1
·
·
· Pk-2 P1

P1 1
·
·
· Pk-3 P2

. .

. .

. .

Pk-1 Pk-2
·
·
· P1 Pk

~~~~~~~~~~~~~

~~~~~~~~~~~~~

Définition 2.6.3

Le dernier coefficient, d'un modèle autorégressif d'ordre k, k = 1, 2, 3, ..., K, noté (Pkk, comme étant une fonction, en k, est par définition la fonction d'autocorrélation partielle de retard k. Il est donné par :

~~

où ~ k et ~

~ est le déterminant de la matrice k est donnée par :

k

1 P1 ~ ~ ~ Pk_2 P1

P1 1 ~ ~ ~ Pk_3 P2

...

. ..

Pk_1 Pk_2 ~ ~ ~ P1 Pk

... ... ...

0
BBB@

~ k =

, k= 2, 3, ..., K;

1
ACCC

~ k est ainsi la matrice k dans laquelle on a remplacé la dernière colonne par le vecteur

[P1....Pk1', k= 2, 3, ..., K.

On remarque que la fonction d'autocorrélation partielle mesure la corrélation linéaire entre Xt et Xt_k, après avoir retirer l'effet deXt_1, Xt_2, ..., Xt_(k_1).

Remarques

On constate facilement de la définition de la fonction de corrélation partielle qu'un modèle autoregressif pur d'ordre p, AR (p), est caractérisé par un "cut-off" dans sa fonction de corrélation partielle, après son vrai ordre p. Autrement dit, la fonction de corrélation partielle, 'kk, d'un modèle autoregréssif pur d'ordre p vérifie :

'kk=0, Vk~p+1

Algorithme récursif de Durbin

La fonction d'autocorrélation partielle joue, comme la fonction d'autocorrélation simple, un rôle prédominant dans l'étude du problème de l'identification des ordres des modèles de séries chronologiques linéaires. Le calcul de la fonction d'autocorrélation partielle, 'k;k, à

partir de (2.6.8), est très lourd, car il nécessite, pour chaque ordre, le calcul de deux déterminants de dimension k x k. Cependant, cette fonction peut être calculée, facilement, en utilisant la méthode de calcul récursif établie par Levinson (1947) et Durbin (1960). Théorème 2.6.2. Algorithme de Durbin (1960)

Les paramètres 'k,1, 'k,2, ..., 'k,k, solutions des équations de Yule-Walker, du modèle autorégressif (1.6.4), sont donnés par les formules récursives suivantes :

CHAPITRE 2. PROCESSUS STOCHASTIQUES ET SÉRIES CHRONOLOGIQUES 45 Pk,j = 'k-1;j -- Pk,k Vk-1,k-j, j = 1, ..., k; k = 2, ..., K,

p(k) --

(Pk,k =

 

k-1

Ei1 p(k

, k = 2, ..., K, avec (,01,1 = p(1).

 

k-1

Ei1 p(i)

1 --

 

0-jc = Cfjc (1 -- CIOLk) ; a0 = '70

Bien entendu, dans la pratique les autocorrélations, p1, p2, ..., pp, sont remplacées par leurs estimations, 791,-P2, ..., op, alors en appliquant l'algorithme récursif de Durbin-Levison on obtient les estimations, ça 1, ça2, ..., çap, de Yule-Walker des paramètres autorégressifs inconnus, 401,(1)2, ..., Vp
·

Ça'k,j = b'k-1;j -- b'k;k b'k-1;k-j,j = 1, ..., k; k = 2, ..., p,

Ça.k,k =

b'k-1;iî)k-i

, k = 2, ..., p, avec i;c31,1 = 79(1).

k-1

1-- E

i=1

bPk-1,i pi

k-1

E

i=1

î)k --

b02k = b~2k (1 k) ;0= '70

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Enrichissons-nous de nos différences mutuelles "   Paul Valery