WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Prévision des prix de Chikwanque sur la marché de Kinshasa: Par l'approche de Box-Jenkins

( Télécharger le fichier original )
par Yannick LWAMBA FATAKI
Université de Kinshasa - Licence en Sciences Economiques, Option Economie Mathématique 2006
  

Disponible en mode multipage

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

REPUBLIQUE DEMOCRATIQUE DU CONGO

UNIVERSITE DE KINSHASA

Faculté des sciences économiques et de gestion

Département d'Economie

Option : Economie mathématique

B.P : 832 Kinshasa XI

Prévision des prix de Chikwangue sur le marché de Kinshasa : Par l'approche de Box-Jenkins.

LWAMBA FATAKI Yannick

Licencié en Economie Mathématique

E-mail: ylwamba@yahoo.fr

Tél. : +243 815096593

0. INTRODUCTION

Dans le programme des cours retenu en licence en Economie mathématique à la faculté des sciences économiques et de gestion, un séminaire est prévu pour la formation des étudiants. C'est dans ce cadre que le chargé du séminaires en première licence économie mathématique, le professeur BOSONGA BOFEKI et son assistant ALAIN LUNGUNGU ont mis à notre disposition un nombre important de données à partir desquelles il fallait mener une étude et faire une prévision.

Dans ce cadre, il nous a été demandé de faire un travail pratique en se servant des différentes notions acquises en statistique approfondie. De notre par le produit retenu est la Chikwange.

Le travail porte sur les données hebdomadaires de la production de la Chikwange; à partir de cette dernière on fera la prévision pour les prochaines semaines tout en étant assuré que l'évolution de la série dont on dispose est stationnaire.

La raison qui justifie cette prévision est une probable existence des événements futurs qu'on ignore et qui sont importants pour les décisions à prendre présentement.

En faite la détermination des prix des biens est une action importante aussi bien pour l'Etat que pour les opérateurs économiques.

A une période quelconque, le gouvernement peut s intéresser a la détermination des prix des biens au cour d'une période future. Si cette évolution est défavorable, il devra prendre des mesures correctives.

? Le gouvernement en faisant la prévision cherche à assurer le bien être de la nation. Il intervient sur le marché pour participer à la détermination des prix des biens car le bien être en dépend .Sur ce, ce dernier doit suivre de près en recourant aux différentes méthodes de prévision.

? Les opérateurs économiques ont pour objectif la maximisation de profit. Sur ce, il doit faire un bon usage des méthodes prévisionnelles en matière des prix pour y parvenir et ceci lui permettra d'être plus compétitif sur le marché des biens et services.

METHODOLOGIE DE TRAVAIL

Il existe plusieurs méthodes de prévision, mais dans ce travail nous utiliserons la méthode de BOX-JENKINS. Cette méthode de prévision qui est basé sur l'évolution des séries chronologiques permet d'identifier les processus générateurs d'une série

En effet, une chronique peut être générer par quatre types de processus, à savoir : AR, MA, ARMA ou ARIMA. En présence d'une série complète, deux problèmes sont posés :

Celui de connaître quand est ce que une série suit un processus, AR, MA, ARMA ou ARIMA, d'une part et quelle est son ordre une fois qu'on est fixé sur son processus, d'autre part.

METHODE DE BOX-JENKINS

Cette méthode comme on l'a dit dans l'introduction, permet de saisir le processus générateur de la série chronique. Pour cette méthode, la partie auto régressive d'un processus notée AR, est constituée par une combinaison linéaire finie de valeur passée du processus. La partie moyenne mobile notée MA, est constituée d'une combinaison finie en t des valeurs passées d'un bruit blanc. World (1954) montre que le modèle ARMA permet de représenter la plupart de processus stationnaires. L'approche de BOX et JENKINS (1975) consiste en une méthodologie d'une étude systématique de séries chronologiques à partir de leurs caractéristiques afin de déterminer dans la famille des modèles ARIMA qui est le plus adapté à représenter le phénomène étudié. Il existe cinq étapes de la méthode de BOX-JENKINS à savoir :

Ø Analyse exploratoire des données,

Ø Identification,

Ø Estimation,

Ø Validation,

Ø Prévision,

I.1 ETUDES DE LA STATIONNARITE

1. Tests Informels

1.1 Analyse des plots

L'analyse visuelle du plot montre à première vue que la présence d'une tendance non linéaire et même l'introduction des logarithmes n'apporte rien au comportement du plot. D'où il y a lieu d'affirmer une présomption de la non stationnarité de la série Chi. (voir en annexe).

1.2. Analyse des moments

Les écarts types sont non proportionnels, et la représentation graphique du couple (ECT, MOY) est disposée autour d'une droite descendante montrant les valeurs des deux moments dispersées aléatoirement. Par conséquent, on peut affirmer la présomption d'une non stationnarité de la série. (voir en annexe).

1.3. Analyse du corrélogramme

La décroissance lente des coefficients d'autocorrélation simple consolide la présomption de non stationnarité de la série lChi. En plus un coefficient d'autocorrélation partielle est significatif, ceci amenant à un modèle non stationnaire de type ARIMA (1, 0,0) (voir corrélogramme en annexe). pour arriver à confirmer cette non stationnarité, il est nécessaire de passer par des test plus performants, dits tests formels, à savoir le test de la racine unitaire de Dickey-Fuller.

Trois modèles seront estimés afin de déterminer si la cause de non stationnarité de la série lChi est de type déterministe ou stochastique, avec comme hypothèse :

Ho= et

H1=,

Le tableau ci-dessous reprend les critères de Akaike et de Schwartz de l'estimation du modèle avec tendance et intercept qui donnera le décalage optimal pour un test efficace de Dickey-Fuller.

Tableau 1 :

Lags

Akaike

Schwarz

0

-2,870497

-2,793292

1

-2,855305

-2,751736

2

-3,031612

-2,901353

3

-3,25567

-3,09839

4

-3,420379

-3,235739

5

-3,427024

-3,214677

Le critère d'Akaike est minimisé au 5ème décalage et celui de Schwarz au 4ème décalage. Par souci de parcimonie, nous retenons le critère de Schwarz qui est minimisé au 4ème décalage.(1(*))

Le test de DF et ADF donne ce qui suit :

Tableau 2 : Test ADF de la non stationnarité

ADF Test Statistic

-2.881580

1% Critical Value*

-4.0540

 
 

5% Critical Value

-3.4557

 
 

10% Critical Value

-3.1534

*MacKinnon critical values for rejection of hypothesis of a unit root.

La valeur du test d'ADF en valeur absolue étant inférieure aux valeurs critiques de Mackinnon à tous les seuils confirme l'existence d'une non stationnarité de la série lChi. De ce fait, nous estimons successivement les 3 modèles en commençant par celui ayant la tendance et l'intercept.

Tableau 3 : Test de ADF du modèle 3° (voir résultat en annexe).

Tableau 4 : Test de ADF du modèle 2° avec constante et sans tendance (voir résultat en annexe).

Tableau 5 : Test de ADF du modèle 10 sans constante ni tendance (voir résultat en annexe)

Après estimation de ce modèle, nous constatons que la valeur d'ADF est positive. Ceci étant nous arrêtons la discussion.

En regardant nos output, nous constatons que pour le 1er modèle estimé que la probabilité associé au trend est significativement différent de zéro ; ceci nous amene à conclure que le source de la non stationnarité de la série lChi est de type déterministe ( Trend Stationnary).

Ainsi, la stationnarisation se fera par les Moindres Carrés Ordinaires ou

écart à la tendance.

Genr t = @trend à l'aide du logiciel Eviews

On estime à l'aide des commandes : LS lChi c t (voir résultat en annexe)

Les deux coefficients de la dernière régression sont significatifs. De plus, notre série devient stationnaire lorsqu'elle ne présente ni tendance ni constante.

On génère les résidus issus de l'estimation à l'aide de la commande Genr V = Resid.

Ainsi, nous faisons la régression suivante pour vérifier la stationnarité de notre nouvelle variable. ?Vt = èVt-1 + ìt

On estime à l'aide des commandes : LS d(V) V(-1) (voir résultat en annexe)

Ce qui équivaut à appliquer le Test de Dickey-Fuller à cette série. Nous obtenons ainsi les résultats (voir tableau 7 en annexe)

Nous constatons que c'est ce dernier modèle qui remplit les conditions de stationnarité. Ainsi, nous pouvons maintenant identifier le processus qui a généré celle-ci.

I.2. IDENTIFICATION DU MODELE

Nous constatons que le premier coefficient d'autocorrélation est significativement différent de zéro. Ainsi nous présumons que V est un processus ARIMA (1,0,0). Pour confirmer cela, estimons le modèle :

Vt = èVt-1 + ìt (voir tableau 8 en annexe)

I.3. ESTIMATION DU MODELE

LS V V(-1)

L'estimation de ce modèle nous confirme l'existence d'un ARIMA (1,0,0) car le coefficient de la variable décalée est significatif. Les résidus de cette estimation que nous avons générer à l'aide des commandes GENR U = resid du logiciel Eviews sont stationnaires comme nous l'indique les tableaux 9 et 10 en annexe.

L'estimation de notre série faite sur Eviews étant valide, nous pouvons l'utiliser pour la prévision. Ceci peut être confirmé par le tableau et le graphique de l'étape suivante qui nous montrent que les valeurs actuelles et futures ne s'écartent pas.

I.4. VALIDATION DU MODELE

a) Hétéroscédastisticité

Ho : il y a absence d'hétéro.

Hi  : il y a hétéro

ARCH Test:

F-statistic

2.748452

Probability

0.100514

Obs*R-squared

2.728235

Probability

0.098588

En analysant les données se trouvant dans le tableau ci haut, on ne peut rejeter l'hypothèse nulle ; c'est à dire qu'il y a absence d'hétéro.

Obs

Actual

Fitted

Residual

Residual Plot

 
 
 
 
 

97

-0.02915

-0.01989

-0.00926

| . * . |

98

-0.04377

-0.02084

-0.02293

| . *| . |

99

-0.05329

-0.03128

-0.02201

| . *| . |

100

-0.04974

-0.03810

-0.01164

| . *| . |

101

-0.03430

-0.03555

0.00125

| . * . |

102

-0.07261

-0.02452

-0.04809

| .* | . |

103

-0.06827

-0.05190

-0.01636

| . *| . |

En outre, le coefficient de Theil (0,2919) tend vers zéro, la prévision est donc performante.

Le coefficient d'inégalité de Theil étant de 29,19% on peut dire qu'il est élevé. Il est donc possible de réduire sa valeur en estimant directement lChi en fonction de t et de Chi (-1) en utilisant les commandes suivantes :

LS lChi c t lChi (-1) (voir tableau 11 en annexe)

Nous constatons que le coefficient de Theil a baissé (0,004980). De plus, la prévision faite sur base de cette régression est meilleure que la précédente du fait que le Root Mean Square Error est inférieur à celui du premier modèle. (voir graphique 3 en annexe).

Obs

Actual

Fitted

Residual

Residual Plot

97

5.99655

5.99310

0.00345

| . * . |

98

5.99146

6.00125

-0.00979

| . *| . |

99

5.99146

5.99990

-0.00844

| . * . |

100

6.00455

6.00219

0.00236

| . * . |

101

6.02951

6.01383

0.01568

| . |* . |

102

6.00073

6.03398

-0.03325

| .* | . |

103

6.01460

6.01568

-0.00108

| . * . |

I.5. PREVISION

Dans cette partie du travail, il sera question de faire une prévision pour 4 horizons ; donc H1,H2,H3 et H4. et cela en servant ô, c'est à dire le coefficient du trend au tableau 9 de notre annexe ; soit 0,71820.

Ainsi, H104= 4,321 ; H105= 3,104 ; H106= 2,230 ; H107= 1,60

ANNEXES

Graphique 1

Classe

Moyenne

Ecart type

1

5,001465

0,223827

2

5,389119

0,111616

3

5,525583

0,045212

4

5,669429

0,135825

5

5,79178

0,022475

6

5,822367

0,036714

7

5,953711

0,065629

Tableau 1

Date: 11/03/06 Time: 08:27

Sample: 1 103

Included observations: 103

Autocorrelation

Partial Correlation

 

AC

PAC

Q-Stat

Prob

. |*******|

. |*******|

1

0.898

0.898

85.446

0.000

. |****** |

. | . |

2

0.811

0.028

155.94

0.000

. |****** |

. |*. |

3

0.766

0.169

219.39

0.000

. |****** |

. |*. |

4

0.752

0.171

281.12

0.000

. |***** |

.*| . |

5

0.712

-0.073

337.03

0.000

. |***** |

. |*. |

6

0.684

0.102

389.26

0.000

. |***** |

.*| . |

7

0.644

-0.079

435.95

0.000

. |***** |

. | . |

8

0.615

0.034

478.96

0.000

. |**** |

. | . |

9

0.578

-0.038

517.43

0.000

. |**** |

. | . |

10

0.553

0.017

552.99

0.000

. |**** |

. | . |

11

0.524

-0.002

585.26

0.000

. |**** |

. | . |

12

0.495

-0.030

614.42

0.000

. |*** |

. | . |

13

0.457

-0.041

639.46

0.000

. |*** |

. | . |

14

0.431

0.020

662.07

0.000

. |*** |

. | . |

15

0.414

0.031

683.12

0.000

. |*** |

. | . |

16

0.399

0.010

702.90

0.000

. |*** |

. | . |

17

0.368

-0.047

719.96

0.000

. |*** |

. | . |

18

0.350

0.047

735.57

0.000

. |*** |

. | . |

19

0.334

-0.006

749.91

0.000

. |** |

. | . |

20

0.311

-0.047

762.49

0.000

. |** |

. | . |

21

0.275

-0.056

772.46

0.000

. |** |

. | . |

22

0.253

0.009

781.02

0.000

. |** |

. |*. |

23

0.248

0.068

789.32

0.000

. |** |

. | . |

24

0.245

0.022

797.56

0.000

. |** |

. | . |

25

0.242

0.058

805.66

0.000

. |** |

.*| . |

26

0.224

-0.063

812.70

0.000

. |** |

. | . |

27

0.205

-0.009

818.66

0.000

. |*. |

. | . |

28

0.188

-0.020

823.73

0.000

. |*. |

. | . |

29

0.174

-0.022

828.14

0.000

. |*. |

. | . |

30

0.158

-0.015

831.83

0.000

. |*. |

. | . |

31

0.140

-0.038

834.78

0.000

. |*. |

. | . |

32

0.119

-0.016

836.94

0.000

. |*. |

. | . |

33

0.111

0.043

838.84

0.000

. |*. |

. | . |

34

0.098

-0.049

840.34

0.000

. |*. |

. | . |

35

0.089

0.023

841.59

0.000

. |*. |

. | . |

36

0.072

-0.032

842.42

0.000

Tableau 2

Augmented Dickey-Fuller Test Equation

Dependent Variable: D(LCHI)

Method: Least Squares

Date: 11/03/06 Time: 09:17

Sample(adjusted): 6 103

Included observations: 98 after adjusting endpoints

Variable

Coefficient

Std. Error

t-Statistic

Prob.

LCHI(-1)

-0.143161

0.049681

-2.881580

0.0049

D(LCHI(-1))

-0.085940

0.098439

-0.873030

0.3849

D(LCHI(-2))

0.258343

0.087383

2.956429

0.0040

D(LCHI(-3))

-0.095600

0.065148

-1.467432

0.1457

D(LCHI(-4))

-0.014514

0.065283

-0.222318

0.8246

C

0.756703

0.255683

2.959537

0.0039

@TREND(1)

0.001091

0.000466

2.343729

0.0213

R-squared

0.240706

Mean dependent var

0.010244

Adjusted R-squared

0.190643

S.D. dependent var

0.046994

S.E. of regression

0.042277

Akaike info criterion

-3.420379

Sum squared resid

0.162651

Schwarz criterion

-3.235739

Log likelihood

174.5986

F-statistic

4.808026

Durbin-Watson stat

1.825193

Prob(F-statistic)

0.000265

Tableau 3

Augmented Dickey-Fuller Test Equation

Dependent Variable: D(LCHI)

Method: Least Squares

Date: 11/03/06 Time: 09:27

Sample(adjusted): 6 103

Included observations: 98 after adjusting endpoints

Variable

Coefficient

Std. Error

t-Statistic

Prob.

LCHI(-1)

-0.033474

0.017076

-1.960347

0.0530

D(LCHI(-1))

-0.161734

0.095219

-1.698557

0.0928

D(LCHI(-2))

0.216264

0.087583

2.469258

0.0154

D(LCHI(-3))

-0.114622

0.066200

-1.731445

0.0867

D(LCHI(-4))

-0.023143

0.066752

-0.346704

0.7296

C

0.199592

0.096459

2.069186

0.0413

R-squared

0.194872

Mean dependent var

0.010244

Adjusted R-squared

0.151115

S.D. dependent var

0.046994

S.E. of regression

0.043297

Akaike info criterion

-3.382176

Sum squared resid

0.172470

Schwarz criterion

-3.223912

Log likelihood

171.7266

F-statistic

4.453518

Durbin-Watson stat

1.792220

Prob(F-statistic)

0.001117

Tableau 4

Augmented Dickey-Fuller Test Equation

Dependent Variable: D(LCHI)

Method: Least Squares

Date: 11/03/06 Time: 09:30

Sample(adjusted): 6 103

Included observations: 98 after adjusting endpoints

Variable

Coefficient

Std. Error

t-Statistic

Prob.

LCHI(-1)

0.001814

0.000871

2.081873

0.0401

D(LCHI(-1))

-0.165452

0.096867

-1.708043

0.0910

D(LCHI(-2))

0.221491

0.089077

2.486503

0.0147

D(LCHI(-3))

-0.097583

0.066835

-1.460064

0.1476

D(LCHI(-4))

0.003725

0.066622

0.055908

0.9555

R-squared

0.157403

Mean dependent var

0.010244

Adjusted R-squared

0.121162

S.D. dependent var

0.046994

S.E. of regression

0.044055

Akaike info criterion

-3.357096

Sum squared resid

0.180496

Schwarz criterion

-3.225210

Log likelihood

169.4977

Durbin-Watson stat

1.780733

Tableau 5

Dependent Variable: LCHI

Method: Least Squares

Date: 11/03/06 Time: 09:51

Sample: 1 103

Included observations: 103

Variable

Coefficient

Std. Error

t-Statistic

Prob.

C

5.111040

0.024874

205.4760

0.0000

T

0.009528

0.000421

22.61219

0.0000

R-squared

0.835051

Mean dependent var

5.596955

Adjusted R-squared

0.833418

S.D. dependent var

0.311514

S.E. of regression

0.127143

Akaike info criterion

-1.267786

Sum squared resid

1.632693

Schwarz criterion

-1.216626

Log likelihood

67.29098

F-statistic

511.3112

Durbin-Watson stat

0.288682

Prob(F-statistic)

0.000000

Tableau 6

Dependent Variable: D(V)

Method: Least Squares

Date: 11/03/06 Time: 11:50

Sample(adjusted): 2 103

Included observations: 102 after adjusting endpoints

Variable

Coefficient

Std. Error

t-Statistic

Prob.

V(-1)

-0.285180

0.045400

-6.281433

0.0000

R-squared

0.275281

Mean dependent var

0.005994

Adjusted R-squared

0.275281

S.D. dependent var

0.068047

S.E. of regression

0.057928

Akaike info criterion

-2.849463

Sum squared resid

0.338925

Schwarz criterion

-2.823728

Log likelihood

146.3226

Durbin-Watson stat

1.874517

Tableau 7

ADF Test Statistic

-2.503384

1% Critical Value*

-2.5868

 
 

5% Critical Value

-1.9434

 
 

10% Critical Value

-1.6174

*MacKinnon critical values for rejection of hypothesis of a unit root.

Tableau 8

Date: 11/03/06 Time: 10:08

Sample: 1 103

Included observations: 103

Autocorrelation

Partial Correlation

 

AC

PAC

Q-Stat

Prob

. |***** |

. |***** |

1

0.713

0.713

53.869

0.000

. |**** |

.*| . |

2

0.474

-0.069

77.917

0.000

. |*** |

. |*. |

3

0.378

0.136

93.388

0.000

. |*** |

. |** |

4

0.411

0.217

111.85

0.000

. |*** |

.*| . |

5

0.348

-0.101

125.18

0.000

. |*** |

. |*. |

6

0.331

0.162

137.40

0.000

. |** |

.*| . |

7

0.276

-0.068

145.97

0.000

. |** |

. | . |

8

0.266

0.065

154.02

0.000

. |** |

. | . |

9

0.208

-0.055

159.00

0.000

. |*. |

. | . |

10

0.196

0.030

163.46

0.000

. |*. |

. | . |

11

0.160

-0.018

166.48

0.000

. |*. |

. | . |

12

0.134

-0.044

168.63

0.000

. | . |

.*| . |

13

0.055

-0.085

168.99

0.000

. | . |

. | . |

14

0.032

0.002

169.11

0.000

. | . |

. | . |

15

0.045

0.050

169.36

0.000

. | . |

. | . |

16

0.060

-0.024

169.81

0.000

. | . |

. | . |

17

0.008

-0.044

169.81

0.000

. | . |

. | . |

18

-0.001

0.037

169.81

0.000

. | . |

. | . |

19

-0.004

-0.011

169.82

0.000

. | . |

.*| . |

20

-0.036

-0.086

169.99

0.000

.*| . |

.*| . |

21

-0.126

-0.115

172.09

0.000

.*| . |

. | . |

22

-0.166

-0.041

175.77

0.000

.*| . |

. | . |

23

-0.142

0.040

178.51

0.000

.*| . |

. | . |

24

-0.110

-0.006

180.17

0.000

.*| . |

. |*. |

25

-0.074

0.108

180.92

0.000

.*| . |

.*| . |

26

-0.091

-0.088

182.08

0.000

.*| . |

. | . |

27

-0.102

0.036

183.55

0.000

.*| . |

. | . |

28

-0.107

-0.006

185.21

0.000

.*| . |

. | . |

29

-0.092

0.009

186.43

0.000

.*| . |

. | . |

30

-0.086

0.013

187.52

0.000

.*| . |

.*| . |

31

-0.094

-0.067

188.85

0.000

.*| . |

. | . |

32

-0.115

0.012

190.87

0.000

.*| . |

. | . |

33

-0.088

0.038

192.08

0.000

.*| . |

. | . |

34

-0.078

-0.052

193.03

0.000

. | . |

. | . |

35

-0.052

0.035

193.46

0.000

.*| . |

. | . |

36

-0.058

-0.026

194.00

0.000

Tableau 9

Dependent Variable: V

Method: Least Squares

Date: 11/03/06 Time: 11:58

Sample(adjusted): 2 103

Included observations: 102 after adjusting endpoints

Variable

Coefficient

Std. Error

t-Statistic

Prob.

V(-1)

0.714820

0.045400

15.74480

0.0000

R-squared

0.709394

Mean dependent var

0.006663

Adjusted R-squared

0.709394

S.D. dependent var

0.107458

S.E. of regression

0.057928

Akaike info criterion

-2.849463

Sum squared resid

0.338925

Schwarz criterion

-2.823728

Log likelihood

146.3226

Durbin-Watson stat

1.874517

Tableau 10

ADF Test Statistic

-2.947845

1% Critical Value*

-2.5871

 
 

5% Critical Value

-1.9434

 
 

10% Critical Value

-1.6175

*MacKinnon critical values for rejection of hypothesis of a unit root.

Graphique 2

Tableau 11

Dependent Variable: LCHI

Method: Least Squares

Date: 11/03/06 Time: 12:04

Sample(adjusted): 2 103

Included observations: 102 after adjusting endpoints

Variable

Coefficient

Std. Error

t-Statistic

Prob.

C

1.489058

0.227230

6.553078

0.0000

T

0.002287

0.000467

4.900640

0.0000

LCHI(-1)

0.715477

0.044498

16.07871

0.0000

R-squared

0.962574

Mean dependent var

5.608382

Adjusted R-squared

0.961818

S.D. dependent var

0.290550

S.E. of regression

0.056774

Akaike info criterion

-2.870497

Sum squared resid

0.319108

Schwarz criterion

-2.793292

Log likelihood

149.3954

F-statistic

1273.109

Durbin-Watson stat

1.992259

Prob(F-statistic)

0.000000

Graphique 3

* 11. Note de cours de statistique approfondie, UNIKIN, Première Licence Economie Mathématique, 2005-2006.






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Nous devons apprendre à vivre ensemble comme des frères sinon nous allons mourir tous ensemble comme des idiots"   Martin Luther King