WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Approche statistique sur l'étude des rendements financiers et applications.

( Télécharger le fichier original )
par Babacar DJITTE
Université Gaston Berger de Saint-Louis du Sénégal - Maîtrise de Mathématiques Appliquées et Informatique 2014
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

2.3.3 La méthode du maximum de vraisemblance exacte

L'estimation d'un modéle AR(p) par la méthode du maximum de vraisemblance est délicate car la fonction de vraisemblance est très complexe et n'a pas de dérivée analytique. Cette difficulté provient de l'interdépendance des valeurs , ainsi que du fait que les observations antérieures ne sont toutes disponibles pour les p premiers valeurs. Pour determiner la vraisemblance, il est nécessaire de supposer connue la loi des erreurs. Nous supposerons les erreurs normalements distribuées. Cette méthode fait appel à la fonction d'autocorrélation pour déterminer la fonction d'autocorrélation de toutes les données de la série; ce qui permet d'évaluer la vraisemblance conjointe. Soit

r

?

?????????????

? ?????????????

Yt

Yt-1

Y=

Yt-2

...

Y2 Y1

24

et soit la matrice T × T de covariance Y (T le nombre d'observations de l'échantillon). La vraisemblance de Y est

2 exp?-Y '-1Y

f(Y |ö, ó2) = (2ð)-T 2 ||-T

2

On en déduit la forme de la log-vraisemblance (exacte, et non conditionnelle), L(ö,ó2;Y) = -T 2 ln(2ð) - T 2 ln || - 1 2Y 0-1Y

25

avec F la matrice des autocovariances ,

?

F= ?????????????

Y0 Y1 ... ... YT-1 YT

Y1 Y0 ... ... YT-2 YT-1

Y2 Y1 ... ... YT-3 YT-2

... ... ... ... ... ...

YT-1 YT-2 ... ... Y0 Y1

YT YT-1 ... ... Y1 Y0

?? ?????????????

Ces autocovariances sont données par les paramètres du modèle (exceptées les constantes) ö et ó2. Souvent on a recours à un algorithme de maximisation pour trouver le vecteur de paramètre maximisant la log-vraisemblance. D'une manière générale, cette méthode est considérée comme étant plus précise que celle du maximum de vraissemblance approché ou conditionel. On peut noter que la maximisation de la vraisemblance exacte est un problème d'optimisation non-linéaire.

2.3.4 La méthode du maximum de vraisemblance conditionnel

Une manière de simplifier la complexité de la fonction de vraisemblance est de conditionner cette fonction aux p premières observations c'est â dire on utilise la densité de Rt sachant Rt-1, Rt-2, ... , pour estimer les paramétres du modele AR(p). Ces données sont supposées suivre conditionnellement une loi normale. En considérant l'équation (2.4), cette densité est donc :

2 exp-~2 i

f(Rt|Rt-1, Rt-2, ... , ö, ó2) = (2ðó2)-1 2ó2

2 1 -(Rt -i=1 öiRt-i)2

= (2ðó) 2 exp

2ó2

Et étant un bruit blanc, on a la vraissemblance conjointe qui s'exprime comme suit :

f(Rt|Rt-1,Rt-2,... ,ö,ó2) =

?t i=1

- 2

(2ðó2) 21 exp i

2ó2?

la fonction log-vraissemblance est définit par

2 i

1

L(ö, ó2; Rt|Rt-1, Rt-2, ...) = - ? ln(2ð) - ? ln(ó2) - 1 t?i=1ó2 .

2 2 2

NB :

La condition du premier ordre pour la moyenne des paramètres d'une log-vraisemblance normale ne dépend pas de ó2. Ainsi l'estimateur du maximum de vraisemblance de la variance est :

àó2 = T-1

?T t=1

(Rt - ö0 - ö1Rt-1 - ... - öpRt-p)2

= -

1

2

?T t=1

?T

1 ln?T-1 t- T PT t

t=1 2

ln(2ð) - T?t=1 2PT

2

2 t=1 2

t=1 t

 
 
 

= -

1

2

?T t=1

?T

1 ln?T-1

ln(2ð) - T?t=1 t- T

2

2 2

t=1

= -

1

2

?T t=1

?T

T 1 ln?T-1 t

ln(2ð) - T?t=1 2

2 - 2 t=1

= -

1

2

?T t=1

T T

ln(2ð) - 2 - 2 ln(àó2).

26

= T-1

 

?T t=1

E2 t

L(Rt|Rt

Ceci introduit dans la log-vraisemblance fait que

? 1

T

Et 2

-1, Rt-2, ... ; ö, ó2) = - ln(2ð) + ln?T-1

Et +

2 t=1 t=1 T-1PtT=1 Et2

= -

1

2

?T t=1

?T

1 2

ln?T-1 t- T t

ln(2ð) - T?t=1 2 T?t=1 T-1PT

2 2 t=1 2

t=1 t

27

La maximisation de cette fonction par rapport aux paramètres ö correspond à la minimisation des erreurs du modèle.

Autrement dit

max L(Rt|Rt-1, Rt-2, . . . ; ö, ó2) = -T2 ln àó2

avec

àEt = Rt - ö0 - ö1Rt-1 - ö2Rt-2 - . . . - öpRt-p

L'estimateur du maximum de vraisembance conditionnel correspond ainsi à celui des moindres carrés. L'estimateur obtenu sera équivalent à l'estimateur inconditionnel dans de grands échantillons et tous deux ont la même distribution asymptotique 1. Il peut être biaisé2

NB : Ces estimations nous permettent de faire des prévisions.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Aux âmes bien nées, la valeur n'attend point le nombre des années"   Corneille