WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

implémentation d'une nouvelle méthode d'estimation de la matrice variance covariance basée sur le modèle GARCH multivarié, simulation par backtesting de stratégies d'investissement.

( Télécharger le fichier original )
par Khaled Layaida
USTHB - Ingénieur d'état 2008
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

I. Introduction

L'analyse des séries temporelle est un champ d'étude en perpétuelle évolution ces dernières années. D'énormes progrès ont été réalisés dans diverses disciplines, notamment en économie, finance,....En effet Wold (1938) est à la base du développement qu'a connu la classe des modèles autorégressifs moyennes mobiles (ARMA) univariés.

Cependant, les statisticiens George Box et Gwilym Jenkins ont contribué dans les années 70, à populariser la théorie des séries temporelles univariées par leur célèbre ouvrage. La modélisation univariée de Box & Jenkins concerne les processus ARMA (p, q), ARIMA(p, d, q) ou SARIMA(p, d, q)(P, D ,Q). Ces auteurs rassemblent tous les travaux dans une méthodologie itérative. Cette dernière englobe trois étapes essentielles à savoir : l'identification du modèle, l'estimation du paramètre et la validation à travers des tests. Une fois le modèle déterminé, nous pouvons faire des prévisions.

La première étape consiste à identifier le modèle qui pourrait engendrer la série. Elle consiste, d'abord à transformer la série afin de la rendre stationnaire. Le nombre de différentiations détermine l'ordre d'intégration d. Ensuite il s'agit d'identifier le modèle ARMA (p, q) de la série transformée avec l'aide du corrélogramme simple et du corrélogramme partiel. Le graphique des coefficients d'autocorrélation simple (corrélogramme simple) et d'autocorrélation partielle (corrélogramme partiel) donnent une information sur l'ordre du modèle ARMA. Après avoir choisi un ou plusieurs modèles ARMA théoriques, il faut estimer leurs paramètres en utilisant une méthode non linéaire (moindres carrés non linéaires ou maximum de vraisemblance). Ces méthodes sont appliquées en utilisant les degrés (p, d, q) et (P, D, Q) trouvés dans l'étape d'identification. Une fois les coefficients estimés, il s'agit de vérifier l'adéquation du modèle aux observations. Il existe plusieurs tests : tests graphiques de l'autocorrélation des résidus, test de Box-Ljung, et d'autres tests qui confirment la blancheur des résidus. Enfin, l'intérêt de l'approche de Box-Jenkins est qu'une modélisation ARMA conduit à des prévisions optimales si la variance de l'erreur de prévision est minimale. Cette approche se schématise comme suit :

Organigramme de la méthode de Box et Jenkins
31

II. Démarche de la méthode de Box et Jenkins

II.1. Analyse préliminaire

L'analyse préliminaire est une phase non coûteuse, elle permet avant tout test ou traitement
statistique approprié, d'observer la représentation graphique de la série (les observations du

processus {Xt , tE cents } en fonction du temps).

En effet, parfois une simple visualisation du graphe permet de détecter ou soupçonner l'existence de plusieurs composantes (tendance, saisonnalité,...) donc il faut, bien évidemment, confirmer ou infirmer l'existence par des tests appropriés.

Cette étape, permet aussi de prendre des options sur les variables, tels que : corriger les données aberrantes, suppléer celles manquantes ou effectuer des transformations...etc.

II.2. Stationnariser la série

Les résultats de l'analyse des séries chronologiques reposent sur l'hypothèse de stationnarité du second ordre, mais souvent les caractéristiques stochastiques d'une série (moyenne, variance) se trouvent modifiées dans le temps, c'est le cas par exemple lorsque :

- On constate que la série est saisonnière par l'apparition des pics marquants de périodicité S dans la fonction d'autocorrélation simple ou dans la représentation graphique de la série.

- La chronique est affectée d'une tendance, dont il convient de déterminer la nature par les tests cités de Dickey-Fuller (voir chapitre 1).

II.3. L'identification du modèle adéquat

Cette étape consiste à identifier le modèle ARMA susceptible de représenter la série, c'est pour cela qu'il est important de se familiariser avec les données en examinant le graphe de la série chronologique (présence de saisonnalité, stationnarité,...) qui permet de faire une analyse préliminaire qui consiste par exemple à corriger les données aberrantes, transformer les données (transformation logarithmique, inverse, racine carrée,...) puisqu'il faut se ramener à un modèle ARMA stationnaire, le recours aux différences premières ordinaires, différences premières saisonnières, différences ordinaires et saisonnières. Le choix est dicté par l'allure graphique de la série. D'ailleurs le choix de la transformation des données est plus facile après avoir appliqué les opérateurs de différence adéquats. Il est conseillé de comparer les variances des différentes séries. La série avec la plus petite variance conduit souvent à la modélisation la plus simple. Ainsi un examen du corrélogramme s'impose. Cette phase est la plus importante et la plus difficile, elle consiste à déterminer, parmi l'ensemble des modèles ARMA(p,q), le modèle le plus

représentatif du phénomène étudié, elle est fondée sur l'étude des corrélogrammes: simple et partiel; l'idée de base est que chaque modèle ARMA possède des fonctions d'autocorrélation (simple et partielle) théoriques spécifiques, le statisticien essaie donc, à l'aide de son expertise, de reconnaître et d'identifier, en comparant l'éventuelle similitude de ces fonctions théoriques et estimées. Il peut alors choisir un ou plusieurs modèles théoriques (en général, le choix porte sur trois modèles au plus) en se basant sur les propriétés suivantes :

? Si le corrélogramme simple n'a que ses q premiers termes différents de zéro et que les termes du corrélogramme partiel diminuent exponentiellement vers zéro ou d'une manière sinusoïdale amortie, nous pouvons pronostiquer un moyenne mobile d'ordre q : MA (q).

? Si le corrélogramme partiel n'a que ses p premiers termes différents de zéro et que les termes du corrélogramme simple diminuent exponentiellement vers zéro ou d'une manière sinusoïdale amortie, nous identifions un autorégressif d'ordre p : AR (p).

? Si les fonctions d'autocorrélation simple et partiel n'apparaissent pas tronquées, il s'agit d'un processus ARMA ; en fait dans ce cas il est très difficile d'identifier directement les vrais paramètres du modèle, il convient donc d'en proposer plusieurs pour éliminer, après des tests appropriés, ceux qui ne reflètent pas les variations du processus.

II.3 Estimation des paramètres du modèle

Une fois l'étape de l'identification terminée, il faut estimer les paramètres qui sont les coefficients des polynômes AR et MA ainsi que les polynômes saisonniers SAR et SMA, et la variance des résidus 2

cr .

La méthode d'estimation la plus couramment utilisée est celle du maximum de vraisemblance ou bien la méthode des moindres carrés. Plus spécifiquement la technique consiste à construire une fonction appelée fonction de vraisemblance et à maximiser son logarithme par rapport aux paramètres I i et Oj (avec i := 1,.., p et j := 1,..., q) permettant de trouver la valeur numérique la

plus vraisemblable pour ces paramètres. L'étape d'estimation achevée, l'étape suivante va nous permettre de valider le(s) modèle(s) estimé(s).

II.4 Validation

A l'étape de l'identification, les incertitudes liées aux méthodes employées font que plusieurs modèles en général sont estimés et c'est l'ensemble de ces modèles qui subit alors l'épreuve des tests, il en existe de très nombreux critères permettant de comparer les performances entre

modèles; nous pouvons citer les tests sur les paramètres et les tests sur les résidus. II.4.1 Tests concernant les paramètres

Tous les coefficients du modèle retenu doivent être significativement différents de zéro, il convient donc d'utiliser le test de Student classique.


· Test de Student sur les paramètres

Il s'agit dans cette étape de tester la significativité des paramètres m i et Oj (i=1 ... ,p et j =

1... ,q) dans la formulation obtenue. Nous rejetterons avec un risque 5% l'hypothèse que le paramètre est nul si :

à

> =

t a t a

( 1,9 6)

(Même procédure pour les Oj).

m

i

( )

m i

à

Var

II.4.2 Tests sur les résidus

Le processus estimé est évidemment de bonne qualité si la chronique calculée suit les évolutions de la chronique empirique. Les résidus entre les valeurs observées et les valeurs calculées par le

modèle, doivent se comporter comme un bruit blanc. Pour montrer que les { Et , t E cents } forment

un bruit blanc, nous devons vérifier si :

-La moyenne des résidus est nulle, sinon il convient d'ajouter une constante au modèle.

-Le graphe des résidus en fonction du temps semble approximativement compatible avec une suite de variables aléatoires non corrélées. C'est ainsi que nous proposerons une multitude de tests concernant les caractéristiques du résidu souhaité.

è Test de Box-Ljung

Lorsque le processus est bien estimé, les résidus entre les valeurs observées et les valeurs estimées par le modèle doivent se comporter comme un bruit blanc. Nous noterons par la suite Eàt le résidu d'estimation du modèle.

o Principe du test

Ce test permet de savoir si les résidus forment un bruit blanc ou non, pour le réaliser : nous observons le corrélogramme des erreurs du modèle optimal, si tous les pics sont dans la bande de confiance de plus la probabilité de significativité est supérieure à 0.05 alors les résidus forment un bruit blanc.

Pour confirmer ce résultat nous testons

H0 : « Les autocorrélations au pas K, (k=N/5) sont non corrélés » C'est-à-dire H0 : « p1 =p2 =...=pK = 0 » Contre H1 : « 3p j : j=1,k tel que pj ~0 ».

= +

( )?= -

2 p 6 Statistique de BOX-LJUNG au pas K avec :

K 2 ( )

Q n n i

n i

i 1

K : nombre de retard choisi. N : Taille de la série brute. n : nombre de résidus.

o Règle de décision Si Q <2 ? K - p - q - P - Q)

? , degrés de liberté nous acceptons l'hypothèse H0 que les résidus

sont non corrélés, Sinon les résidus ne forment pas un bruit blanc et le modèle est inadéquat.

è Test des Points de Retournements

Nous dirons que la suite des données 6 1 , 6 2 , ,6n présente un point de retournement à la date

? i i i

1 2

i, si ? 6 6 6 i = 1,2,...n-2

+ +

< >

> <

? 6 6 6

i i i

+ +

1 2

[1 ' int

si c est un pode retournement

Soit la variable aléatoire Xi = ?

t_0 sinon

La variable Xi suit la loi de Bernoulli de paramètre p = 2/3

n-2

?x i

i=1

Le nombre total des points de retournement est p =

n 2

Nous avons : E (p) =

- ?= = 3 2 (n-2) ;

E(x )

i

i 1

? ( \ 1

2

n-2 40 n 2 - 144 n + 131 Donc Var (p) = 90

16 n - 29

E (p 2 ) = ? ? 1 I

E x

= 90

i

? ? ? ) I ?

i=1

Sous l'hypothèse que les ( 6 i ) forment une suite de variables aléatoires, indépendantes et identiquement distribuées.

La statistique U =

suit la loi normale d'espérance nulle et de variance égale à 1

p E(p)

-

Var(p)

(U--* N (0,1) ; (n (nombre d'observations) > 30).

Le principe de ce test est d'accepter l'hypothèse que les (6 i ) i (les résidus du modèle) forment un bruit blanc si U < 1.96, au seuil a = 0.05.

è Test de la nullité de la moyenne des résidus

Soit T le nombre de données disponibles (après avoir enlevé les retards correspondant aux termes AR et MA). Si le processus { e t , tE Z} est i.i.d. (0, 2

oe ), nous devons avoir :

T

1

e t T e

= ? = 1 à

t

t ? 0

T ??

Par application du Théorème central limite, nous montrons que :

TN?> L

T --*co

( , )
0 1

e t

à

o e t

Dés lors, nous pouvons tester la nullité de la moyenne des résidus en construisant l'intervalle de confiance sur e t au seuil standard de 95%.

? ? _ . .

1,9 6 o à e o e

1,9 6 à

Pt
?? e E ? ,
t ?? ? ?T T

1 ? ? ?

= 0,95.

? ???j

Le test basé sur la statistique de Student pour tester l'hypothèse

H0: « m=0 » contre H1 : « m ~ 0 ».

e

t

La statistique utilisée est : t =

oe/ n-1

H0 Est acceptée si

t <t n ? 1 à 5% (=1,96) pour n >30, dans le cas contraire, il convient d'ajouter

une constante au modèle. è Tests de normalité

Le test de Jarque & Bera (1984) peut s'appliquer pour tester la normalité des résidus.

Ce dernier est fondé sur la notion de Skewness (l'asymétrie de la distribution, moment d'ordre 3) et de Kurtosis (l'aplatissement qui se traduit en particulier par une épaisseur des queues de distribution, moment d'ordre 4). Soit jUk le moment empirique d'ordre k du

processus ? ?

p e e

= ? ?

1 à

T k

k t

T t = 1

.

o Test de Skewness

La Skewness est une mesure de l'asymétrie de la distribution de la série autour de sa moyenne. Le coefficient de Skewness (Sk ou encore J31 ) est défini par :

L

( )1 2 1 2 3

S P ? 6 ?

? ? --* N J

( ) ?

k E P --*o 0,

1 3 2 T T

2 ? ?

La Skewness d'une distribution symétrique, telle que la distribution normale est nulle. Une Skewness positive signifie que la distribution a une queue allongée vers la droite et la Skewness négative signifie que la distribution a une queue allongée vers la gauche.

o Test de Kurtosis

La Kurtosis mesure le caractère pointu ou plat de la distribution de la série. Le coefficient de Kurtosis (k u ou encore J2) est défini par :

?

J .

?

P L ? 24

k N T

? - --*

4

J3 P --* o 3,

u 2 2 ?

T

2 ?

La Kurtosis de la distribution normale est 3. Si la Kurtosis est supérieure à 3, la distribution est plutôt pointue relativement à la normale ; si la Kurtosis est inférieure à 3, la distribution est plutôt plate relativement à la normale.

Nous construisons alors les statistiques centrées réduites correspondantes à (Sk ) 12 et ku que

l'on compare aux seuils d'une loi normale centrée réduite

1 2

7 = 1

L k _ 3 L

( )

--* = --*

N et N

( ) ( )

u

0,1 7 0,1

2

S k

6 T 24 T

--*o --*o

T T

Si la statistique centrée réduite de (Sk ) 12 ( 71 ) est inférieure au seuil 1,96 à 5%, nous acceptons

l'hypothèse de symétrie. Si la statistique centrée réduite de ku (72) est inférieure au seuil 1,96 à

5%, nous acceptons l'hypothèse de queue de distributions non chargées (not weighted queues). La conjonction des deux conclusions nous fait accepter l'hypothèse de normalité.

o Test de Jarque-Bera

La statistique de Jarque-Bera est une statistique de test pour examiner si la série est normalement distribuée. La statistique mesure la différence de la Skewness et de la Kurto sis de la série avec ceux de la distribution normale. La statistique est calculée comme suit :

JB S

=

T T

S +

6 24

k

?

( 3 ) ( 2)

- --*

2 z 2

k u

T--*o

Où Sk est la Skewness, k u est la Kurtosis. Sous l'hypothèse nulle d'une distribution normale, la statistique de Jarque-Bera suit asymptotiquement une loi de 2

z à deux degrés de liberté ; aussi,

si JB ( 2)

? ? 1 -- a nous rejetons l'hypothèse H0 de normalité des résidus au seuil.

2

è Test d'indépendance de Von-Neumann

Ce test peut être effectué lorsque les résidus sont gaussiens.

Nous testons l'hypothèse nulle :

H0 : « Les résidus sont indépendants et identiquement distribués » contre l'hypothèse H1 : « Au moins deux observations successives tendent à être corrélées ».

Les tests sont basés sur les deux estimateurs suivants de la variance 2

?g des résidus :

2

n
D
2= ? )

n g g

t t

? --

1 ?? 1

-- 1 t 1

n

2

; ( )

S g g

? ?

2 --

1 ?? t

n -- 1 t 1

?2

.

2 2

? (

Sous H0 : E ?

D = 1

--

D = 1 et Var ? 2

n

?

? 2S '2

J ? 2S 2 --

? n

La statistique U = ( )

D S

2 2

2 ?

n

n 2 -- 1

-- 1

--

2

sous l'hypothèse nulle, suit une loi Normale N (0, 1).

La région critique est donnée par : { U

> U a }, U a est tel que P{ U > Ua J = a.

è Test de Durbin-Watson

Si les résidus { g t , t Z} obéissent à un bruit blanc, il ne doit pas exister d'autocorrélation dans la série. Nous pouvons pour cela appliquer le test suivant :

Test de Durbin - Watson : repose sur l'hypothèse de normalité des résidus; test de l'autocorrélation d'ordre 1.

o Principe du test de Durbin - Watson

Ce test permet de tester l'autocorrélation d'ordre 1 sous l'hypothèse que les résidus sont Gaussiens. Donc il teste l'hypothèse nulle

H0 : « p = 0 » contre l'hypothèse alternative H1 : « p ~ 0 ».Durbin et Watson ont proposé la

statistique suivante :

( )

g g

t t

-- -- 1

n

?

2

DW =

t

?

2

 
 
 

n

?

g

2 t

t

?

1

Le test de Durbin-Watson fait intervenir deux seuils critiques d l,a et du ,a ( dl ,a < du ,a) fonctions

de n et du nombre de variables explicatives.

Ce test est utilisé pour tester trois hypothèses :

1- H0 : « les résidus sont non corrélés » contre H1: « les résidus sont positivement corrélés »

Dans ce cas la règle de décision est : i)- Si DW < dl ,a : nous rejetons H0.

ii)-Si DW > du ,a :nous acceptons H0 .

iii)- Si dl ,a ~ DW ~ d u ,a : nous ne pouvons rien dire.

2- H0 : « les résidus sont non corrélés » contre H1: « les résidus sont négativement

corrélés » la règle de décision est :

i)- Si (4-DW) < dl ,a : nous rejetons H0.

ii)- Si (4-DW) > d u ,a : nous acceptons H0 .

iii)-Si dl ,a ~ (4-DW) ~ d u ,a : nous ne pouvons rien dire.

3- H0 : « les résidus sont non corrélés » contre H1: « les résidus sont positivement ou négativement corrélés »

Dans ce cas :

i) - Si DW < dl ,a2 ou (4-DW) < dl ,a 2 : nous rejetons H0.

ii) - Si DW > du ,a 2 ou (4-DW) > du ,a 2 : nous acceptons H0 .

iii)

- Si dl ,a 2 ? DW ~ du ,a 2 ou dl ,a 2 ? (4-DW)~ du ,a 2 : nous ne pouvons rien dire.

è Test d'homoscédasticité

L'hétéroscédasticité signifie que la dispersion des résidus a tendance à augmenter ou à diminuer en fonction des valeurs ajustées, plus généralement, elle se manifeste quand la dispersion des résidus varie en fonction des variables explicatives.

Non seulement L'hétéroscédasticité influence les tests de significativité mais surtout, elle fausse les intervalles de prévision.

Nous allons présenter, un test permettant de détecter une hétéroscédasticité éventuelle. Le test ARCH ou test du multiplicateur de Lagrange a été introduit par Engle (1982). Supposons que les résidus prévisionnels sont non corrélés et qu'ils obéissent à un modèle ARCH (dans la plupart des cas un modèle ARCH simple d'ordre p).

Nous construisons alors une régression entre les résidus au carré et les résidus au carré décalés jusqu'à l'ordre p.

L'hypothèse nulle testée est celle d'homoscédasticité H0:"a1 = a2 =K K = a p = 0" contre L'hypothèse alternative d'hétéroscédasticité conditionnelle

H ? i i = p tel que i

1 : " , 1 0"

K a.Si l'hypothèse H0 est acceptée, la variance conditionnelle

de l'erreur est constante 0

a? 2 = a . En revanche, si l'hypothèse nulle est rejetée, les résidus suivent un processus ARCH (p) dont l'ordre p est à déterminer.

Le test est fondé soit sur un test de Fisher classique, soit sur le test du Multiplicateur de Lagrange (LM). La mise en oeuvre du test est simple et peut s'effectuer en trois étapes :

· Etape1 : nous estimons l'équation de la moyenne. Nous récupérons les résidus estimés ?àt et nous calculons la série des 2

?àt .

· Etape 2 : Nous régressons 2

?àt sur une constante et sur ses p valeurs passées.

· Etape 3 : Nous calculons la statistique du Multiplicateur de Lagrange LM = n*R2n est le nombre d'observations servant au calcul de la régression de l'étape 2 et R2 est le coefficient de détermination de l'étape 2.

Sous l'hypothèse nulle d'homoscédasticité, la statistique 2

TR suit une loi de khi - deux à p

degré de liberté. La règle de décision est :

- Si LM < ( )

z 2 p , l'hypothèse nulle est acceptée : il n'existe pas d'effet ARCH.

- Si LM ~ ( )

z 2 p , nous rejetons l'hypothèse nulle en faveur de l'hypothèse alternative d'hétéroscédasticité conditionnelle.

Une autre approche consiste à calculer le corrélogramme des résidus au carré du modèle initial. Si les premiers termes de ce corrélogramme sont significativement différents de zéro (0), alors nous pouvons conclure à un modèle de type ARCH. Sinon si tous les pics sont dans la bande de confiance, alors nous pouvons donc conclure que les résidus sont homoscédastiques.

II.4.3 Choix du Meilleur Modèle

Après les étapes précédentes, plusieurs formulations dans la vaste classe des modèles ARMA pourraient être retenus ; il faut donc choisir le meilleur modèle parmi ceux sélectionnés. Pour cela nous utilisons :

s Les critères standards

Ils sont fondés sur le calcul de l'erreur de prévision que l'on cherche à minimiser. Nous rappelons ici l'expression des trois critères les plus fréquemment utilisés.

-Erreur absolue moyenne (Mean Absolute Error)

MAE = ?t

1
N

à
et

-Racine de l'erreur quadratique moyenne (Root Mean Squared Error)

1

eà 2

t

N

?t

RMSE =

-Ecart absolu moyen en pourcentage (Mean Absolute Percent Error)

1

MAPE = ?

100

N t

à
et

Xt

 
 

Où N est le nombre d'observation de la série X t étudiée et eàt désigne les résidus estimés. Plus

la valeur de ces critères est faible, plus le modèle estimé est proche des observations.
· Les Critères d'information

L'idée sous - jacente consiste à choisir un modèle sur la base d'une mesure de l'écart entre la vraie loi inconnue et le modèle estimé. Cette mesure peut être fournie par la quantité d'information de Kullback. Les différents critères ont alors pour objet d'estimer cette quantité d'information. Il en existe plusieurs, Nous présentons ici les trois critères les plus fréquemment employés.

a) Critère d'information d'Akaike (AIC) (1969)

Le meilleur des modèles ARMA (p, q) est le modèle qui minimise la statistique : AIC (p, q) = n Log 2

?àe + 2 (p+ q)

b) Critère d'information Bayésien (BIC)

Ce critère présente l'avantage de pénaliser les modèles où les paramètres sont en surnombre comparativement à l'AIC. Il est donné par :

? ? ? ? ? 1

? 2

p q ? 1

BIC (p, q) = n Log 2

?àe - (n-p-q) Log ?J

?? 1 + (p+q) Log 2

? n ? ? ? ? ?

( ) à 1

?

p q e

? ? - J J

a e

c) Critère de Schwartz 1978

SC (p, q) = n Log 2

?àe + (p+ q) Log n

d) Critère de Hannan-Quin 1979

[

HQ 69, q) = Log 6-:+ (p+ q) c Log Log ni

c (c >2) est une constante.

n

Remarque : Le critère le plus utilisé est le critère AIC. Cependant Hannan (1980) a montré que seuls les estimations des ordres p et q déduits des critères BIC et HQ sont convergentes et conduisent à une sélection asymptotiquement correcte du modèle.

Nous cherchons à minimiser ces différents critères. Leurs applications nous permettent de retenir un modèle parmi les divers processus ARMA validés. Ainsi s'achève l'étape de validation. La dernière étape de la méthodologie de Box & Jenkins est celle de la prévision.


· Principe de parcimonie

Lorsqu'on veut modéliser une série chronologique, par un processus Stochastique et dans le cas où les critères d'information AIC et BIC de deux ou plusieurs modèles retenus seraient très proches ou contradictoires, nous faisons intervenir ce principe qui cherche à minimiser le nombre de paramètre requis; il est préférable de conserver un modèle qui est ½moins bon½, mais qui contient moins de paramètres.

II.5 Prévision

L'objectif de la modélisation de Box et Jenkins est la prévision de futures valeurs de la série chronologique. A l'horizon h la valeur de la prévision Xà(t + h )notée It (h ) est l'espérance conditionnelle de X(t+ h) telle que :

Xàt (h ) = E(Xt+h / Xt , Xt--1 )

It (h )

est la prévision (la valeur estimée de X t+h)

t :l'origine de la prévision.

h : l'horizon de la prévision

L'espérance conditionnelle de la prévision est définie par : 1 -- X(t -- j) X(t), X(t --1), ...., X(1)}=X(t -- j), j>_0

2 Ef X(t+ j) X(t),X(t--1),....,X(1)}=Yi( j), j > 0

3 Ef e(t -- j) X(t),X(t--1),....,X(1)}=e(t-- j), j 0 4 -- Ef e(t + j) X(t), X(t --1), ...., X(1)}=0, j > 0

Nous considérons un processus ARIMA (p, d, q) défini par :

?(L )vdXt = (L )et, t > 0

où 0(L) =E(AÉ, 0(L)= E0 avec 00 00 1, et Vd (1-- L) i

p q

d

i=

0 i=0

Nous pouvons écrire :

? ? ? ? ? ?

q q d d

d

? _ ? _ = ? _ ? ? ? _

1 1 1

? ? ?

O O

i ( ) ( )

i

i L L L L

i

? ? ? ? ?

j

i = 0 i j

= =

0 0

d j

_**

X t = 49 1 Xt _ 1 + 492X t _2 +
·
·
· + ÇO p Xt _ p _ d

Où les çoi sont obtenus à partir du développement de * * Pour un horizon h, l'équation s'écrit:

p q q

+

X h E X t j X t X t ? X h ? e h i

u( ) ( ) u( ) $( )

t = + _ = ? _ ? _

( ) ( ), ( 1),... i t i t

i i

= =

1 1

0 pour i < h

où ( )

? _

å h-i

( )

t

pour i h

?

$ h i =

t r??

? L'erreur de prévision

Soit et+h l'erreur de la prévision à l'instant t+h : ut+h

e t+h = X t+h - X

Nous notons que : E (e t+h) = 0, Var (e t+h) = ( )

1 + r 1 + r 2 +... + r h _ 1 a e

2 2 2 2

Donc Xt + h ~ ( ( 2 ) 2 )

N Xt + h + 'T' + 'I' + + P h _ a

à , 1 1 ...

2 2

2 1

D'où les intervalles de confiance de la prévision à (1-a )% donnée par :

à

X t h X t h Z a a

= #177;

+ + 1

( 1 ... );

+ q1 + q1 + + p

2 2 2

1 2 h _ 1

_

2

où ? _ 2 ?

Z est le quantile d'ordre ??

[\ 1 a de la loi normale centrée réduite. Pour a = 5% Nous

1 a

_

2

avons :

X t h X t h 0

= #177;

à 1 . 9 6

+ +

( 2 )

1 1 ...

+ ? + ? + + ?

2 2

2 h _ 1

Les critères suivants sont utilisés pour juger la validité de la méthode de prévision :

1
e e

= ? i

n i

1- L'erreur moyenne (Mean Error) ME (e) =

n

= 1

n

2- La variance Var (e) = ( )
n e e _

1 ?= i
i
1

2

 

n

1

3-

e 2

i

Le carré moyen des erreurs (Mean Square Error) MSE (e ) = ?=

n 1

i

Très utilisé, car il pénalise un biais éventuel dans la prévision.

n

4- Root mean square error RMSE (e ) = MSE( ? ) = 2

1 ??

i

n i = 1

Conclusion

Ainsi s'achève la partie méthodologie de Box & Jenkins; au chapitre suivant on passe à l'application de cette méthode sur les séries étudiées.

Modélisation de la série SPY

Notation

La série SPY est l'actif qui correspond à la valeur des actions de 500 compagnies les plus représentatives de l'économie américaine. Il couvre la plupart des secteurs de l'industrie et est échangé sur les marchés NASDAQ et NYSE (New York Stock Exchange).

La valeur de l'actif SPY tient compte de la capitalisation boursière des compagnies qu'il contient.

Identification

Les données de la série SPY s'étalent sur une période de trois ans, les observations sont journalières ; du 03 janvier 2005 au 30 novembre 2007 soit 760 observations. L'unité de mesure est le dollar américain.

I- Analyse graphique

Graphe de la moyenne et de la variance de la série brute SPY

D'après les deux graphes ci-dessous, on remarque que la moyenne et la variance varient au cours du temps, donc on peut appréhender la non stationnarité de cette série.

Pour vérifier ceci, on va appliquer des tests statistiques juste après la présentation des corrélogrammes simple et partiel de la série brute.

Diagramme séquentiel de la série brute SPY

On voit clairement sur le graphe de la série brute que ce processus est non stationnaire et cela provient tout naturellement de la présence d'une tendance haussière.

165

160

155

150

145

140

135

130

125

120

115

110

105

56 111 166 221 276 331 386 441 496 551 606 661 716
TEMPS(JOURS)

GRAPHE DE LA SERIE SPY

SPY

Examen du corrélogramme de la série SPY

On constate que la fonction d'autocorrélation simple (colonne AC) décroit très lentement, cela est typique d'une série non stationnaire. En revanche, la fonction d'autocorrélation partielle (colonne PAC) a seulement son premier terme significativement différent de 0 (l'intervalle de confiance est stylisé par les pointillés).

-Corrélogramme de la série SPY-

II -Analyse analytique

Application du test de Dickey- Fuller Augmenté (DFA)

On procède à l'estimation par la méthode des moindres carrés des trois modèles [1], [2] et [3] de Dickey-Fuller sur la série SPY.

Remarque

On choisit le retard (d=1) qui minimise les critères d'informations d'Akaike et Schwarz.

s Modèle [3]

d

A = + + â + A +

SPY q$ SPY ? c t q$ SPY e

t t 1 j t j t

?

j ? 1

Avec et est un processus stationnaire

.

On commence par tester la significativité de la tendance en se référant aux tables de DickeyFuller. Le résultat du test sur la série SPY est donné dans la table suivante:

On compare la t-statistique du coefficient de la tendance (@trend) avec la valeur donnée par la table de Dickey-Fuller. La tendance est significativement différente de zéro puisque sa statistique (3,37) est supérieure à la valeur critique (2,78) au seuil 5%.

De plus la statistique de Student t?à = -3,4756 est inférieure à la valeur critique -3,4157

(donnée par la table de Dickey- Fuller) pour le seuil 5%. D'où la série ne possède pas une racine unitaire (on rejette l'hypothèse nulle «q$ = 0«).

Donc la série SPY est non stationnaire de type TS, pour la stationnariser on a eu recours à un ajustement linéaire, car le R2 associé est égal à 0,918 (d'après les résultats obtenus par le logiciel SPSS 10.0).

Dépendent

MTH

RSQ

D.F

F

SIGF

b0

b1

b2

b3

SPY

LIN

0,918

758

8458,49

0

108,406

0,0573

 
 

SPY

LOG

0,615

758

1208,9

0

71,087

10,4867

 
 

SPY

INV

0,041

758

32,26

0

130,773

-58,267

 
 

SPY

QUA

0,93

757

5017,82

0

111,648

0,0318

3,40E-05

 

SPY

CUB

0,938

756

3808,11

0

114,794

-0,0176

0,0002

-1,00E-07

SPY

COM

0,927

758

9584

0

109,689

1,0004

 
 

SPY

POW

0,638

758

1334,03

0

81,9846

0,0812

 
 

Remarque

On note la série ajustée par AJSPY, elle est donnée par la formule suivante : AJSPY = SPY - y(t).

y(t) est l'équation de la tendance.

Estimation de la tendance:

L'estimation de l'équation de la tendance y(t) est donnée par :

y(t)=b0 + bt 1

Les coefficients b0, b1 sont données par le tableau ci-dessus :

D`ou l`équation de la tendance est la suivante : y(t)= 108, 406+ 0,0573t

Graphe de l'ajustement linéaire de la série SPY

On remarque d'après ce graphe que la droite suit le mouvement ascendant du graphe. Diagramme séquentiel de la série ajustée AJSPY

-12

12

-4

-8

4

8

0

1 51 101 151 201 251 301 351 401 451 501 551 601 651 701 751

AJSPY

D'après le graphe on constate que la série AJSPY semble stationnaire. Pour confirmer cette supposition, on va appliquer les tests statistiques appropriés.

Test de Dickey- Fuller Augmenté sur la série AJSPY

On procède à l'estimation par la méthode des moindres carrés des trois modèles [1], [2] et [3] de Dickey-Fuller sur la série AJSPY.

Corrélogramme de la série AJSPY

On voit que la fonction d'autocorrélation de la série AJSPY décroit vers zéro et la première autocorrélation partielle est clairement significative. Cette structure est peut être celle d`une série stationnaire.

Pour confirmer cela, on fait appel aux tests de Dickey-Fuller augmenté et de Fisher.

Test de Dickey- Fuller augmenté sur la série AJSPY

On procède à l'estimation par la méthode des moindres carrés des trois modèles [4], [5] et [6] de Dickey-Fuller sur la série AJSPY.

Modèle [6]

d

A = + + â + ? A +

AJSPY AJSPY ? c t AJSP Y e

t t 1 j t j t

j ? 1

Avec et est un processus stationnaire.

.

On vérifie alors l'absence d'une tendance dans le processus en testant la nullité du coefficient de la tendance â. Le résultat du test pour la série AJSPY est donné par la table

suivante :

On remarque que la t- statistique de la tendance (= 0,157) est inférieure aux valeurs critiques 3,48 ; 2,78 et 2,38 (données par la table de Dickey- Fuller) pour les seuils 1%, 5% et 10%, on le confirme par la probabilité 0,875 1 supérieure à 0,05.

Donc l'hypothèse nulle est bien entendu accepté, la série AJSPY n'est pas affectée d'une tendance.

Modèle [5]

d

.

A = + C + A +

A JS P Y A JSP Y Çb A JS P Y ?

t t -1 j t j t

-

j ? 1

Après rejet du modèle [6], on procède au test d'absence de la constante, dont le résultat est donné par la table suivante :

On remarque que la t-statistique de la constante (= -0,3549) est inférieure aux valeurs critiques 3,72 ; 3,08 et 2,72 (données par la table de Dickey- Fuller) pour les seuils 1%, 5% et 10%, on le confirme par la probabilité 0,7227 supérieure à 0,05.

Donc, on rejette l'hypothèse de présence d'une constante.

Modèle [4]

d

.

A = + A +

A JSP Y q$ A JSP Y ? q$ A JSP Y ?

t t j t j t

1 ?

j

?

1

On teste alors la présence d'une racine unitaire dans le processus en vérifiant la nullité du paramètre q$ à l'aide d'une statistique de Student, où q$à désigne l'estimateur des moindres

carrés ordinaires (MCO).

Le résultat du test pour la série AJSPY est donné dans le tableau suivant :

La statistique de Student (t?à = -3,4793 ) est inférieure aux valeurs critiques -2,5680 ; -1,9412

et -1,6164 pour les seuils 1%, 5% et 10%, d'où la série ne possède pas de racine unitaire (on rejette l'hypothèse nulle «q$ = 0«).

Test de FISHER pour la série AJSPY

Pour détecter la saisonnalité de la série, on a fait appel à l'analyse de la variance à deux facteurs sans répétition.

TABLE DE l'ANOVA

SDV

SDC

DDL

Moyenne des carrés

Fc

Probabilité

Valeur critique pour F

Lignes

10130,7981

151

67,0913779

63,136

1,412E-292

1,22674639

Colonnes

2,81115108

4

0,70278777

0,661

0,61904387

2,38668545

Erreur

641,834829

604

1,06264045

 
 
 

Total

10775,444

759

 
 
 
 

Test d'influence du facteur colonne, la période (jours : H0 = pas d'influence)

V

Calcul de la statistique de Fisher p

Fc ? que l'on compare à la valeur théorique lue dans la

V R

table.

F v ;v à v 1 =p-1 et v 2 =(N-1)(p-1) degrés de liberté.

á

1 2

F c = 0,66 1 ~ F v ;v =2,386 , donc on accepte l'hypothèse nulle, la série n'est pas saisonnière.

á

1 2

Test d'influence du facteur ligne, la tendance (H0 =pas d'influence du facteur semaine)

' V S que l'on compare à la valeur théorique 3 2

F v ;v à v 3 =N-1 et v 2 =(N-1)(p-1) degrés de

á

F =

c V R

liberté.

F c = 63,136 > F v ;v =1,226 ; donc on rejette l'hypothèse nulle la série est peut être affectée

á

3 2

d'une tendance. Mais d'après le test de Dickey-Fuller la tendance n'est pas significativement différent de zéro, car il est plus précis que le test de Fisher pour la tendance.

Désignation

Vp : La variance de la période, VR: la variance résiduelle, VS : la variance de la semaine, N:

nombre de semaines, p : le nombre d'observations (périodicité) dans la semaine (jours p=5). En conclusion La série AJSPY est donc stationnaire; c'est à dire intégrée d'ordre 0. Estimation des paramètres du modèle

Il convient à présent d'estimer le modèle susceptible de représenter la série. En observant les corrélogrammes simple et partiel de la série stationnaire AJSPY, On remarque que la fonction d'autocorrélation simple (AC) possède des valeurs importantes aux retards q= 1, 2, 3, 4, 5...; et la fonction d'autocorrélation partielle (PAC) possède des valeurs importantes aux retards p=1, 2,4.

Par conséquent on a plusieurs modèles candidats parmi lesquels nous avons sélectionné deux modèles :

Modèles

AIC

BIC

ARMA (3, 3)

2,86

2,89

ARMA (4, 2)

2,86

2,89

On a choisi le modèle ARMA (3, 3) d'après le critère de parcimonie, car les deux modèles ont les mêmes valeurs de AIC et BIC.

Estimation du processus ARMA (3,3)

L'estimation des processus ARMA repose sur la méthode du maximum de vraisemblance. On

suppose que les résidus suivent une loi normale de moyenne nulle et de variance 2

o? .

L'étape d'estimation achevée, l'étape suivante permet de valider ou non le modèle estimé.

Validation du processus ARMA (3,3)

Test sur les paramètres

On remarque que tous les paramètres du modèle sont significativement différents de zéro. En effet les statistiques de Student associées sont en valeur absolue supérieurs à 1,96, ce qui est confirmé par les probabilités de nullité des coefficients qui sont toutes inférieures à

0, 05(voir tableau estimation du processus précédent).

Graphique des inverses des racines

D'après la représentation graphique des inverses des racines des polynômes de retards moyenne mobile et autorégressif on s'aperçoit qu'ils sont tous supérieurs à 1 en module (leurs inverses sont en module, inférieurs à 1).

Graphique des séries résiduelles réelles et estimées

A partir de la représentation graphique des séries résiduelles réelles et estimées nous constatons que le modèle estimé ajuste parfaitement la série AJSPY.

Il convient maintenant d'analyser les résidus à partir de leur fonction d'autocorrélation et d'appliquer une série de tests.

Tests sur les résidus

$ $ ( )

Ces tests ont pour objet de vérifier la blancheur des résidus estimés ( u L X

ê t = t ) en

? $ ( )

L

appliquant des tests d'absence d'autocorrélation et des tests d'homoscédasticité. Tests d'absence d'autocorrélation

Il existe un grand nombre de tests d'absence d'autocorrélation, les plus connus étant ceux de Box et Pierce (1970) et Ljung et Box (1978), test des points de retournements dont on rappelle brièvement le principe ci-dessous.

s Test de Box - Ljung

On a à tester l'hypothèse nulle :

H0 : « Les autocorrélations jusqu'au pas K, (K=N/5) ne sont pas significatives » C'est-à-dire H0 : « p1 = p2 =... ? pK = 0 » Contre H1 : « ?p j : j = 1,K ,99 tel que pj ~ 0 ».

2

.

K

Ce test est basé sur la statistique de Box-Ljung au pas k : E ? ?

Q n n

= +

( 1) Y k

n k

k 1

Si 2

Q ? ? 0,95 ( K - p - q - P - Q ) , nous acceptons l'hypothèse H 0 .

Les valeurs de la statistique de Box-Ljung ont de fortes probabilités. Ce qui entraîne à dire que les résidus forment un bruit blanc.

Corrélogramme simple et partiel des résidus

La probabilité de la statistique de Box-Ljung est supérieure à 0,05 pour tous les retards et la valeur de la statistique de Box-Ljung quand k = 99, p = 3, q = 3, P = 0 et Q = 0 égale à 62,153 est inférieure à 2

?0., 95 (93) = 116,51 ; On conclue alors que les erreurs ne sont pas corrélées.

Conclusion

Les résultats du test de Box - Ljung sont identiques à ce qu'on a remarqué de visu sur les corrélogrammes simple et partiel.

s Test des points de retournements

Il s'agit de tester l'hypothèse nulle :

H0 : « Les ei sont aléatoires » contre

H1 : « Il existe une corrélation entre les ei i = 1,..., n ».

Après les calculs à l'aide du Visual Basic on a obtenu les résultats suivants :

n - 2

Le nombre des points de retournements égal à P = ?

Xi = 490

i = 1

On a : n = 754 donc 2

E P n et Var P -

16 29 n

( ) ( 2) 504,66 ( ) 134.61

= - = = =

3 90

VAR ( P ) = 11,602 , ( ) 1,26

P E P

-

S = 1.26< S (tabulée) = 1,96

S = = - . Donc :

Var P

( )

Alors, on accepte l'hypothèse H0 : « les résidus sont aléatoires ».

s Test de nullité de la moyenne des résidus

Pour tester l'hypothèse H0: « m=0 » contre H1 : « m ~ 0 » on utilise le test de Student

? t

.

o?/ n-1

basé sur la statistique : t =

Si t < tn-1 à 5% (=1,96) on accepte l'hypothèse de nullité de la moyenne des résidus

D'après le Tableau ci-dessus on a :

t = 0,3 80 qui est inférieure à 1,96; Donc on accepte

l'hypothèse H0: « la moyenne des résidus est nulle ».

s Tests de normalité sur les résidus du modèle optimal

Les tests sont effectués à partir des valeurs empiriques des coefficients de Skewness, Kurtosis et la statistique de Jarque-Bera données par le logiciel EVIEWS 5.0. En utilisant le logiciel on a l'histogramme suivant :

s Test de Skewness (asymétrie) et de Kurtosis (aplatissement)

7 7

1 2

~ ?

0 0

ou

:

H0

:

2 -

0

71

6

= fi1 1

Coefficient de Skewness :

3

fi2

=

7

2

24

N

?

??

On teste les hypothèses suivantes :

?1

77 1 2
= =
0 0
et

H1

Coefficient de Kurtosis :

N

P

Où : 3 2

fi =

1 2 3 : est le coefficient de Skewness (l'indicateur d'asymétrie des résidus).

1 P2

P

fi = : est le coefficient de Kurtosis (le degré d'aplatissement de la loi des résidus).

4

P 2

2 2

Sous l'hypothèse H0 et si le nombre d'observations est assez grand (N >30), on a :

P ?

????

N N

L 0,

--oo ?

?

6 ? ???????? ( )

1 .

N ? ?

fi

1 23
1 3 2

=

P 2

12 -

fi1

P 4

fi =

2 2

P 2

?

????

N N

L

?? ?

?

24 ?

0, N ? ?

 

( )

2

 

Après calculs on a obtenu :

6
N

71

-

24

Test de Skewness:

Test de Kurtosis:

0 = 6,93 > 1, 96.

3 = 19,03 > 1,96.

 
 
 
 
 

72

fi

=

2

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

N

Alors, les résidus ne sont pas gaussiens. Ce qui est confirmé par le test de Jarque et Bera s Test de Jarque et Bera

On définit la statistique S par : S = ( )2

N N

fi ?

1 2 3

fi -

6 24

Sous (1) et (2) : S( 2)

3 Z 1 - a

2

On teste H0 : « accepter la normalité des résidus au seuil a =0,05 » contre H1 : « Il n'y a pas de normalité des résidus ».

Si S ( 2)

> Z 1 _ a on rejette l'hypothèse H0 sinon on l'accepte.

2

D'après le tableau la statistique de Jarque et Bera notée (S) est égale à 409,9777 ; elle est supérieure à (2)

Z = 5,99.

2

s Test QQ-Plot (méthode graphique)

Le nuage de point (en bleu) est formé par (quantiles de N(0,1), quantiles empiriques réduits des résidus), sous H0 le nuage est rectiligne sur la droite rouge y=x )

On remarque que le nuage de point n'est pas rectiligne sur la droite, donc l'hypothèse nulle est rejetée c'est-à-dire les résidus ne suivent pas une loi normale.

On affirme donc que les résidus forment un bruit blanc non gaussien.

Remarque

On ne peut pas appliquer le test de Durbin-Watson et le test d'indépendance de Von Neumann puisque les résidus ne sont pas gaussiens.

Test d'homoscédasticité

s Test d'effet ARCH

Une première observation du graphe des résidus ci-dessous montre que la moyenne de cette série est constante alors que sa variance change au cours du temps. De plus le processus étant non gaussien, on suspecte la présence d'un effet ARCH.

Corrélogrammes simple et partiel des résidus au carré

A partir du Corrélogramme on remarque plusieurs termes significativement différents de zéro cela veut dire qu'il y a certainement un effet ARCH. Pour cela on est passé au test d'homoscédasticité dont le résultat est sur le tableau ci-dessous :

On a la statistique du multiplicateur de Lagrange (n*R2) = 5,7585 qui est supérieure à z2 (1) = 3,84, on rejette l'hypothèse nulle d'homoscédasticité en faveur de l'hypothèse alternative d'hétéroscedasticité conditionnelle.

Identification du modèle de type ARCH

On a eu plusieurs modèles ARCH avec des ordres p assez grands. Par conséquent on est passé au modèle GARCH (1,1).

Les résultats obtenus dans la table ci-dessous montrent que les paramètres de l'équation de la variance conditionnelle sont significativement différents de zéro.

Le modèle retenu avec erreur GARCH (1, 1) s'écrit sous la forme suivante :

(1 0,91 ) (1 0,89 0,85 0,08 )

- = + + -

B AJSPY B B B

3 2 3 & t

?

? ? =

& 17h 17 :

IID ( )

0, 1

t t t t

? ?L = + +

h h

0,0156 0,057 0.929

& - -

2

t t t

1 1

Prévision

Pour faire des prévisions, on remplace t par t+h dans l'expression ci-dessus du modèle générateur de la série.

On a par la suite

Observation

Prévision

Valeur réelle

Borne Inf

Borne Sup

761

148,71

147

144,84

152,70

762

148,96

145,59

143,54

154,56

763

148,99

148,02

142,55

155,41

764

149,18

150,14

142,09

156,40

765

149,41

150,11

141,54

157,47

Graphe de la série réelle et la série prévue

Modélisation de la série IEV

Notation

La série IEV est l'actif qui correspond à la valeur des actions de 350 sociétés économiques qui sont représentatives de l'économie européenne. Cet actif mesure la performance des actions de compagnies en Autriche, Belgique, Danemark, Finlande, France, Allemagne, Grèce, Italie, Pays Bas, Norvège, Portugal, Espagne, Suède, Suisse et Grande-Bretagne.

Identification Les données de la série IEV s'étalent sur une période de trois ans, les observations sont journalières ; du 03 janvier 2005 au 30 novembre 2007 soit 760 observations. L'unité de mesure est le dollar américain.

I- Analyse graphique

Graphe de la moyenne et la variance de la série brute IEV

D'après les deux graphes ci-dessous, on remarque que la moyenne et la variance varient au cours du temps, donc on peut appréhender la non stationnarité de cette série.

Pour vérifier ceci, on va appliquer des tests statistiques juste après la présentation des corrélogrammes simple et partiel de la série brute.

93,74

93,62

93,38

93,26

93,14

93,02

93,5

92,9

1 2 3 4 5

IEV

MOYENNE

271

270

269

268

267

266

265

264

263

262

261

260

1 2 3 4 5

IEV

VARIANCE

Diagramme séquentiel de la série brute IEV

On voit clairement sur le graphique de la série brute que ce processus est non stationnaire et cela provient tout naturellement la présence d'une tendance haussière.

130

120

110

100

90

80

70

60

50

1 71 141 211 281 351 421 491 561 631 701

TEMPS (JOURS)

IEV

GRAPHE DE LA SERIE BRUTE IEV

Examen du corrélogramme de la série IEV

On constate que la fonction d'autocorrélation simple (colonne AC) décroît très lentement, cela est typique d'une série non stationnaire. En revanche, la fonction d'autocorrélation partielle (colonne PAC) a seulement son premier terme significativement différent de 0 (l'intervalle de confiance est stylisé par les pointillés).

-Corrélogramme de la série IEV-

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Je ne pense pas qu'un écrivain puisse avoir de profondes assises s'il n'a pas ressenti avec amertume les injustices de la société ou il vit"   Thomas Lanier dit Tennessie Williams