WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Etude prévisionnelle de la consommation nationale du gaz en Algérie


par Maher GUENNOUN
Université des Sciences et de la Technologie Houari Boumediene - Ingénieur d'état en Recherche Opérationnelle 2004
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

Chapitre 6

MODELES VAR

6.1 Introduction

Dans le chapitre précédent ont été intéressé par líétude de líévolution des séries chronolo- giques des trois types de consommation du gaz naturel a savoir la consommation publique, la consommation des centrales électriques et la consommation industrielle. Les modéles de sé- ries chronologiques univariés leurs associés ont été identifés, estimés et validés. Ces modéles ont été exploité par la suite pour líobtention des prévisions a court terme.

Les mécanismes engendrant les séries observées individuellement ne peuvent pas fournir

des informations et de renseignement sur plusieurs questions intéressantes pour une variété díobjectifs comme a titre díexemple la relation de líévolution de la consommation industrielle avec celle des centrales électriques. La théorie économique nous informe que ces facteurs sont

liés dans le cadre du développement díun pays.

Dans le chapitre présent nous développons les modéles de séries chronologiques multiva- riés I ARM A, en particulier les modéles I AR,qui peuvent répondre a plusieurs préoccupa- tions liées aux comportement simultanés des trois séries sous-jacentes.

91

6.2 Processus multivaries

DeÖnition

un processus3 Xt, t E Z4 multivarié est une famille de variables aléatoires vectorielles défnies sur RF.

Comme dans le cas univarié, la stationnarité joue un rôle important dans la théorie des processus, cíest ainsi quíon síétalera a étudier les processus multivariés sationnnaires dans

ses di§érents champs.

6.2.1 Fonction díautocovariance díun processus multivarie

Considérons un processus multivarié 3 Xt, t E Z4 de moyenne % , la covariance entre Xt

et Xs est donnée par

7 (t, s ) 6 0 ov (Xt, Xs) 6 E ! (Xt % ) (Xs % ) " , V t, s E Z.

6.2.2 Processus multivarie fortement stationnaire

Soit un processus multivarié3 Xt, t E Z4 , le processus est dit fortement (ou stricte- ment) stationnaire si : V n E N , V (t1, t2 ,..., tF) et V h E Z, le vecteur (Xt1 + h, ..., Xt" + h) a

la même loi de probabilité que la suite (Xt1 , ..., Xt" ), autrement dit :

P (Xt1 < x 1, ..., Xt" < x F) 6 P (Xt1 + h < x 1, ..., Xt" + h < x F) ,

V (t1, t2 ,..., tF) E ZF, V (X1, X2 ,..., XF) E RF, V h E Z.

Ainsi tous les moments díordre, díun processus multivarié strictement stationnaire sont in- variants pour toute translation dans le temps, or cette défnition est rarement vérifée en pratique, cíest ainsi que nous nous intéressons a un second type de stationnarité des proces-

sus multivariés, dit du second ordre.

6.2.3 Processus multivarie faiblement stationnaire

Le processus multivarié 3 Xt, t E Z4 est dit faiblement stationnaire (du second ordre) si

sa moyenne est fnie indépendante du temps et de plus le processus est stationnaire en sa

covariance, ie :

ó 1. E (Xt) 6 E (Xt+ h) 6 % (constante) , V t E Z,

ó 2. 0 o v (Xt, Xt+ h) 6 E ! (Xt % t)(Xt+ h % t+ h)1 " 6 F (h) , V t, h E Z,

oü F (h) est la fonction díautocovariance matricielle du processus{ Xt, t E Z} .

Proposition

Si { Xt, t E Z} stationnaire alors V i E { 1, .., n } (Xi t,) stationnaire. La reciproque est fausse.

Remarque

Dans ce qui suit le terme stationnaire, sauf mention contraire signifera la stationnarite du second ordre.

6.2.4 Processus bruit blanc multvarie

Un vecteur bruit blanc multivarie { t t, t E Z} est une suite de variables aleatoires non correlees de moyenne nulle et de matrice de covariance " , ie :

* E (t t) 6 0 ,

E(t tt t) 6 " . V

t E Z

Et en consequence sa fonction díautocovariance est donnee par :

* " , h 6 0 ,

F (h) 6 E (t t t t+ h) 6

0 , h 6 0 .

Remarque

On suppose que " est non singuliére.

Proprietes

F ( h) 6 F (h) , V h E Z, (la fonction díautocovariance níest pas symetrique)

Estimateur

En pratique la fonction díautocovariance est estimee a líaide de líestimateur suivant :

1

T h

z ( (

FX (h) 6

T h tl 1

Xt X t

1

Xt+ h X t+ h ,

T h

z

avec X t h 6

Xt

T

T h tl 1

et X t 6

1 z X

t

T tl 1

6.2.5 Fonction díautocorrelation

La fonction díautocorrélation díun processus stationnaire multivarié faiblement station- naire de moyenne % et de matrice de covariance F (h) , notée Ah 6 (p i j (h)) est défnie par

7 i j (h)

Ah 6

A ,

7 ii (0 )7 j j (0 )

6.2.6 Decomposition de Wold -Cramer

Le théoréme de Wold, est également valable dans le cas multivarié.

Theorème de Wold :

Tout processus stationnaire { Xt, t E Z} peut se decomposer en la somme díune composante regulière previsible (deterministe) et díune expression lineaire sto- chastique tel que :

z$

Xt 6 H t )

j l 0

Oj 6 t j

oü Oj est une suite de matrices carrees de taille n x n avec O0 6 1F et { 6 t} E RF

avec 6 t bruit blanc de matrice de covariance z .

z$

Etant donné que la série

j l 0

Oj 6 t j doit être convergente, cíest a dire que les termes Oj 6 t j 6 0

lorsque j -- + , donc la décomposition de Wold peut être approximée par une représentation

vectorielle moyenne mobile I M A(+ ), et comme le passage díune représentation moyenne mobile vers une représentation autoregressive est possible, on peut approximer la décompo- sition de Wold par une représentation vectorielle autoregressive I AR(+ ).

6.2.7 Modèle autoregressif moyenne mobile Multivarie I ARM A(p, q )

Le processus stationnaire satisfait une representation & / , & multivarie, note

2 & / , & díordre (: , ; ), síil est solution de líequation aux di§erences stochastique suivante :

p

Xt z

j l 1

b j Xt j 6 6 t

q

z

j l 1

& j 6 t j

Le modéle I ARM A(p, q ), síécrit sous la forme suivante

Xt 6 b 0 ) b 1Xt 1 ) .... ) b p Xt p ) 6 t ) & 16 t 1 ) .... ) & q 6 t q

Soit encore :

# (L)Xt 6 ! (L)6 t ) b 0

oü # (L) 6 I

p

z

i l 1

# i Li et ! (L) 6 I

q

z

i l 1

# j Lj

Ou encore # est un polynôme matriciel díordre p et ! un polynôme matriciel díordre q .

Dans la suite, on síintéresse a un type particulier de modéles I ARM A(p, q ), a savoir les modéles I AR(p)

6.2.8 Modèle Autoregressif Multivarie I AR(p)

Les modéle I AR(p) (vector autoregressif) constituent une généralisation des modéle AR

au cas multivarié

DeÖnition

Le processus du second ordre n -varie admet une representation I AR (au- toregressif vector) díordre p note (I AR(p)) síil est solution de líequation aux di§erences stochastique suivante :

Xt 6 b 0 ) b 1Xt 1 ) .... ) b p Xt p ) 6 t.

oü {6 t}est un bruit blanc vectoriel.

En introduisant líopérateur de retard L, on peut réécrire líéquation précédente sous la forme symbolique suivante :

# (L)Xt 6 b 0 ) 6 t

oü # (L) 6 I

p

z

i l 1

# i Li

avec Lj Xt 6 Xt j

Remarque 1

Tout modéle I AR (p) peut síécrire sous la forme díun I AR (1), mais de dimension supérieur

(n p au lieu de n ).

Soit le modéle I AR(p) :

# (L)Xt 6 q 0 ) 6 t

Posons :

On peut écrire alors :

0

I

5 t 6 I

I

6

Xt 1

.

Xtt1 I I I

7

Xttp p t1)

avec :

5 t 6 q 5 tt1 )

qA 0 ) 6 t

A

0

q 1 q 2 .. q p 1

0

I

I

qA 0 6 I

q 0 1

I

0 I

. I

0 6 t 1

I

I 0 I

t

I

.

6 6 I

A I

I In 0 .. I

I

I

I 0 In 0 I

q

I I

6 . 7

0

6 . 7

0

I . . . I

.

6 7

0

oü In désigne la matrice identité de dimension n x n . En e§et :

0 Xt 1

0 q 1 q 2 .. q p 1 0

I In 0 .. I

Xtt1 1

6

0 q 0 1 0 t 1

I

5 t 6 I

I

Xtt1

.

I I 0 In 0

6

I I

I I

I I Xttt2 I I

I I I I

.

)

I I I I

0 I I 0 I

I

I

I

. I ) I . I

I

.

6 . 7 .

Xttp p t1) 6 0

. . .

I 6 . 7

7 Xttp

6 . 7

0

6 . 7

0

est alors un I AR (1) de dimension n p.

6.2.9 Caracteristiques des modèles I AR

Etudions les principales caractéristiques des modéles I AR. Concidérons un modéle I AR (1)

Xt 6 q 0 ) q 1Xtt1 ) 6 t

Oü 6 t & BB(0 , " )

Esperance

On a

E[ Xt] 6 E[ q 0 ) q 1Xtt1 ) 6 t]

Le processus étant stationnaire, on a : E[ Xt] 6 E[ Xtt1] . On peut donc écrire (sachant que

E[ 6 t] 6 0 ) :

Díou

E[ Xt] 6 q 0 ) q 1E[ Xt]

E[ Xt] 6 (I q 1)t1q 0

Fonction díautocovariance

Considérons le processus centré : 5 t 6 Xt E[ Xt] , soit :

5 t 6 q 15 tt1 ) 6 t

La fonction díautocovariance F est donnée par :

F (0 ) 6 E[ 5 t5 t ] 6 E[ q 15 tt15 t ) 6 t5 t ] (" )

Or

E[ 6 t5 t ] 6 E[ 6 t(5 tt1q 1 ) 6 t)] 6 q 1E[ 6 t5 tt1] ) E[ 6 t6 t]

Comme 6 t est BB alors

E[ 6 t5 tt1] 6 0

On a donc

E[ 6 t5 t ] 6 E[ 6 t6 t] 6 "

On remplaÁant dans (" ) on aura

F (0 ) 6 q 1E[ 5 tt15 t ] ) "

On remarque que E[ 5 t5 tt1] 6 F (1), on en déduit :

F (0 ) 6 q 1F (1) ) "

On calcule la matrice díautocovariance díordre 1 :

F (1) 6 E[ 5 t5 tt1] 6 E[ (q 15 tt1 ) 6 t)5 tt1] 6 q 1E[ 5 tt15 tt1] 6 q 1F (0 )

On en déduit la formule de récurrence suivante pour la matrice díautocovarinace díordre h

díun modéle I AR (1) :

F (h) 6 q 1F (h 1) V h > 1

Representation canonique

Considérons un modéle I AR centré, cíest a dire avec q 0 6 0

on peut écrire :

# (L)Xt 6 6 t

DeÖnition

# (L)

1 A

Xt 6 # t (L)6 t 6

; < D # (L)

6 t.

Si toutes les racines du déterminant de # (L) sont du module supérieur a 1, alors líéquation

# (L)Xt 6 6 t défnit un unique modéle I AR(p) stationnaire. On dit que Xt est en représen- tation canonique et 6 t est appelé résidu du processus.

Remarque 1

Si les racines de Q R t # (L) sont de module inférieur a 1, on peut changer les racines en leurs inverses et modifer le bruit blanc associé afn de se ramener a la représentation canonique. Remarque 2

Si au moins une des racines de Q R t # (L) est égale a 1, le processus níest plus stationnaire et

on ne peut pas se ramener a une représentation canonique.

Remarque 3

En représentation canonique, la prévision síécrit :

E[ Xt+ 1 5

t ] 6

p

z

i l 1

# i Xt+ 1ti

Xt désigne le passé de X jusquía la date t incluse.

6.2.10 Estimation des paramètres díun I AR (p)

Les paramétres díun modéle I AR ne peuvent être estimés que sur les séries temporelles

stationnaires (sans saisonnalité et sans tendance) par la méthode M O O . Pour les modéle

I AR non contraints-ou plus généralement par la technique du maximum de vraisemblance.

Estimation par la methode des moindres carres ordinaires des modèle 2 & /

non contraints

Considérons le modéle I AR (p) :

# (L)Xt 6 6 t

Oü 6 t & BB(0 , " ).

Déterminons tout díabord le nombre de paramétres a estimer.

n (n ) 1)

paramétres a estimer dans "

2

n 2 p paramétres a estimer dans # .

Au totale, on a donc n 2 p ) n (n ) 1) paramétres a estimer pour un I AR (p)

2

Décomposons líécriture du I AR (p). La j i e E e équation síécrit :

I

0 X0 X1 p 1

0

I I

j

6 I I

Xj 1 1

I

I

X

.

Xj 2 I 1

.

I

6

I

I I

t

X2 tp

I I I

I

I W j ) 6 j ; avec j 6 1, 2, .., p

.

I

I

. I

I

I

6 . 7

I Xtt1 Xttp I

.

I

I

Soit encore

Xj T

6

XT t1

7

XT tp

X j 6

W j ) 6 j

0

I

I

.

6 j 6 I

I

I

6

6 j 1 1

.

.

6 j 2 I I I I I

7

6 j T

La variable X j contient T observations. La matrice X est de format (T , n p).

Soit une ligne Xt de cette matrice :

Xt 6 (X1tt1X2 tt1 Xntt1X1tt2 Xntt2 X1ttp Xnttp )

Le modéle est un modéle I AR (p) a n composantes indicées par le temps t. W j est de di- mension (n p, 1). On a

0

I I I

q

I

W j 6 I

I

I

I

I

6

1

q

1

1j

q

2

1j I

.

. I

I

I

n I

I

1j

I

n

q

I

2 j

. I

. 7

q

n p j

0

I

I

6 j 6 I

I

I

6

6 j 1 1

.

.

6 j 2 I I I I I

7

.

6 j T

La matrice X ne dépend pas de j :

X j 6

W j ) 6 j

.

On empile les n équations pour retrouver le I AR :

0 X 1 1

I X 2 I

0 X11 1

I X12 I

I . I

0

0 0 0 1

I

W 1 1

W 2 I

0 6 11 1

I 6 22 I

I . I

I

I I I

.

6

I I I

.

I

I I I

.

I I I

6 7 I

6

X n I

. I

6

I

X1T I

6

I

X2 T I

I

.

I

7

XnT

0 X 0 I I

I

I

I

.

. . I I

I

7 I

X 6

I

I I

.

)

I I

I

I

. I I

I

. 7 I

W n 6

. I

I

6 1T I

.

I

6 2 T I

I

I

7

.

6 nT

On cherche a estimer (W 1W 2 . . . W n ) .

La matrice de variance-covariance des erreurs devient un peu plus compliquée et síécrit :

0 0 a 11 0 . . . 0

I I 0 . .

1 0 a 12 0 . . . 0 1 1

I I . . I I

I 6 .

7 6 0 . 7 I

I

I 0 a 11

0

I

I a 2 1 0 . . . 0 1 0

I I

I 0 . . I I

0 a 12 I

I

I

a 12 0 . . . 0 1 I

I

. . I I

I 6 .

7 6 0 . 7 I

I

I 0 a 2 1

I

I

I

I

I

I

I

6

0 a 12

. . .

I

I

I

I

I

I

0 a nn 0 . . . 0 1 I

0

I

I . . . I I

6 7 7

0 a nn

Líobservation de cette matrice indique la présence díhétéroscédasticité (il y a en e§et, aucune

raison pour que a 11 6 a 22 6 6 a nn) et díautocorrélation.

Il se pose en conséquence un probléme pour líapplication de la méthode M O O . Rappelons en e§et que les estimateurs sont sans biais, mais ne sont plus de variance minimale. Il convient

dés lors díutiliser la technique des moindres carrés généralisés (M O G ) qui fournit un esti- mateur BLH E (Best Linear Unbiaised Estimator).

On peut réécrire la matrice de variance-covarince comme suit :

I [ 6 ] 6 " # I 6 2

oü " 6 (a i j ) et # désigne le produit de Kronecker. Rappelons que :

0

A # B 6 I

. 1

a B I

6 i j 7

.

Nous venons de voir que la matrice de variance-covariance des résidus est telle que

líon devait théoriquement appliquer la méthode M O G . Cependant, puisque la matrice des variables explicatives est bloc diagonale, on peut appliquer les M O O bloc par bloc. Le théo- réme de Zellner nous montre ainsi quíestimer chacune des n équations par les M O O est équivalent a estimer le modéle par la méthode M O G . Afn de le prouver, considérons le modéle suivant :

Oü 6 est un bruit blanc.

5 6 X a ) 6

Rappelons que líestimateur de la méthode M O O est donné par :

X

a3 . 5

6 (X X )t1X 5

et que líestimateur de la méthode M O G síécrit :

X

a3 . 0

6 (X 2 t1X )t1X 2

t15

oü 2 désigne la matrice de variance-covariance de 6 .

Dans notre cas, on a :

0

I

I

X 6 I

6

X 0 0 1

0 X 0 I

I

. . . I

7

X

6 I # X

oü I est la matrice identité.

Remarque

Avant díappliquer la méthode des M O G , rappelons que líon a les égalités suivantes concer- nant le produit de Kronecker :

(A # B)(O # D) 6 AO # BD

(A # B) 6 A # B

1

(A # B)

6 At1 # Bt1

Afn de calculer l1 estimateur des M O G , commenÁons par étudier la matrice X 2 t1X :

X 2 t1X 6 (I # X )(" t1 # I )(I # X )

6 " t1 # X X

avec 2 t1 6 " t1 # I .

On en déduit :

(X 2 t1X )t1 6 " t1 # ( X X )t1

pour le vecteur X 2 t15 , il vient :

X 2 t15 6 (I # X )(" t1 # I )5

6 (" t1 # X )5

on a donc :

X

a3 . 0

6 " # (X X )t1("

t1 # X )5

díou

6 (I # (

X )t1 X )5

0 1

0

X

7

a3 . 0 6 I

6

( X X )t1X 0 . . .

0 . . .

1

I

I I I

( X X )t1 X 6

5 1

I

5 2 I

I

.

. 7

5 n

0 ( X X )t1

.

t1

5 1 1

I

6

I (X X )

I

I

6

X 5 2

I

I

7

( X

)t1X 5 n

On retrouve líestimateur des M O O équation par équation.

Cependant, cette technique díestimation des I AR níest plus valable des lors quíil existe

des contraintes sur les paramétres. Il convient alors díutiliser la technique du maximum de vraisemblance.

Estimation par la methode du maximum de vraisemblance

Considérons un modéle I AR (p)

Xt 6 q 1Xtt1 ) .... ) q p Xttp ) 6 t

Oü 6 t est un bruit blanc de matrice de variance covariance " .

On écrit la vraisemblance conditionnellement a toute valeurs passées du processus :

L(q 1, q 2 , . . . , q p , _ 5 Xtt1) 6

T

;

tl 1

L(XtXtt1)

oü Xtt1 désigne tout le passé de Xt jusquía la date (t 1) incluse la vraisemblance síécrit alors :

L(q 1, q 2 , . . . , q p , _ 5 Xtt1) 6

T

;

tl 1

(7 2'

1

n 7

; < D _

T

2

x < E C [ 1 z

tl 1

(Xt q 1Xtt

<

1 .... q p Xttp )

(Xt

q 1Xtt1

.... q p Xttp )]

On en déduit líexpression de la log-vraisemblance :

? B= L(X1 . . . Xt) 6

T

T ? B= 2' T ? B= ; < D _ 1 z

L t_ t1L t.

2 2 2

tl 1

On maximise ensuite cette expression afn díobtenir les estimations q 1, . . . q p et de _ .

6.2.11 Validation : tests de speciÖcation

Test du rapport de maximum de vraisemblance

On peut e§ectuer des tests sur líordre p du I AR .Considérons le test suivant :

H0 : # p + 1 6 0 : Modéle I AR (p)

H1 : # p + 1 6 0 : Modéle I AR(p ) 1)

La matrice díinformation de Fisher est dicents cile a calculer, ce qui explique que líon uti-

lise un test du rapport du maximum de vraisemblance. La technique consiste a estimer un modéle contraint I AR (p) et un modéle non contraint I AR (p ) 1) et a e§ectuer le rapport

des log-vraisemblances. Rappelons que la log-vraisemblance díun modéle I AR síécrit :

T

? B= L(X1 . . . Xt) 6 n T ? B= 2' T ? B= ; < D _ 1 z

L t_ t1L t.

2 2 2

tl 1

T

z

tl 1

L t_ t1L t.est un scalaire, on a donc, on notant T _ la trace :

T

z

tl 1

T

L t_ t1L t 6 T _(z

tl 1

T

L t_ t1L t) 6 T _(_ t1 z

tl 1

L tL t)

T

T

6 T _(T _ t1 1 z

L tL t)

tl 1

6 T _(T _ t1_ ) 6 T _(T In) 6 n T

Soient l og Lc la log vraisemblance estimée du modéle contraint :

l og Lc 6 nT l og 2' T l og ; < D _X c 1 n T

2 2 2

Soient l og Lnc la log vraisemblance estimée du modéle non contraint :

l og Lnc 6 nT l og 2' T l og ; < D _X nc 1 n T

2 2 2

oü _X c (respectivement _X nc ) désigne líestimateur de la matrice de variance-covariance

des résidus du modéle contraint (respectivement non contraint).

On calcule la statistique de test & 6 T x RM I . Oü RM I désigne le rapport du maxi- mum de vraisemblance :

& 6 T l og

, ; < D _X c -

; < D _X nc

Sous líhypothése nulle, cette statistique suit une loi de khi-deux a _ degrés de liberté

oü _ désigne le nombre de contraintes.

Si líon accepte líhypothése nulle, on peut e§ectuer un deuxiéme test :

HO : # p 6 0 : Modéles I AR(p 1)

H1 : # p 6 0 : Modéles I AR (p)

Ce test síe§ectue de la même faÁon que précédemment. On a ainsi une séquence de tests emboÓtés dont le but est de déterminer líordre p du modéle I AR

Remarque

Dans le cas díun modéle AR, en plus des tests sur les paramétres, on e§ectue des tests

sur les résidus afn de valider le modéle. Dans le cas des modéles I AR, ces tests ne sont pas trés puissants et líon préfére réaliser un graphe des résidus. Notons cependant quíil convient díexaminer attentivement les résidus surtout lors díutilisation des modéles I AR

pour líanalyse de réponse impulsionnelle oü líabsence de corrélation des résidus est cruciale

pour líinterprétation.

Critères díinformation

Afn de déterminer líordre p du I AR, on peut également utiliser des Critéres díinformation. Ainsi, on estime un certain nombre de modéles I AR pour un ordre p allant de 0 a h, oü

h est le retard maximum. On retient le retard p qui minimise les Critéres AI O , SI O et

Hannan-Quinn (H Q ).défnis comme :

AI O 6 l og Q R t _X )

2n 2 p

T

SI O 6 l og Q R t _X

) n 2 p

l og T

T

H Q 6 l og Q R t _X

) n 2 p

2 l og (l o g T )

T

oü n est le nombre de variables du systéme, T est le nombre díobservations et _X

estimateur de la matrice de variance covariance des résidus.

Remarque

est un

Les Critéres SI O et H Q conduisent a des estimateurs convergents de p, le critére AI O

donnant des estimateurs ecents caces de p.

6.2.12 Prevision des modèles VAR

Considérons un modéle I AR (p)

Xt 6

qX 1Xtt1 ) .... )

qX p Xttp ) L t

On suppose que p a été choisi, que les qX i ont été estimés et que la matrice de variance-

covariance associée a L t a été estimée.

Afn de réaliser des prévisions, il est nécessaire de vérifer que le modéle est bien

en représentation canonique. Pour cela, on calcule le déterminant du polynôme # (L) et on regarde si les racines sont bien a líextérieur du disque unité. Si tel est le cas, alors la prévision

en (T ) 1) du processus est :

E[ XT + 1 5 XT ] 6

qX 1XT ) .... )

qX p XT tp + 1

T désigne le passé de X jusquía la date T incluse.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Ceux qui rêvent de jour ont conscience de bien des choses qui échappent à ceux qui rêvent de nuit"   Edgar Allan Poe