WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Effets de l'ouverture commerciale sur la croissance économique du Burkina Faso.


par Yempabou Landry Clotaire MANO
ENAM - Conseiller des affaires économiques 2015
  

précédent sommaire suivant

Paragraphe II : Méthode de collecte et traitement des données

La présente étude utilise des données secondaires. Toutes les données sont issues de la base de données World Development Indicators (WDI) 2013 de la BM, excepté celles sur le capital humain qui sont issues des statistiques du Ministère des Enseignements Secondaire et Supérieure (MESS) du Burkina Faso. Les données couvrent la période 1990-2012, soit 23 ans.

Dans le souci d'une bonne régression, il est nécessaire de prendre certaines précautions. Pour ce faire nous allons effectuer successivement un certain nombre de tests statistiques tout en apportant les correctifs nécessaires afin de parvenir à l'estimation des coefficients du modèle retenu. De ce modèle, des tests post-estimation seront aussi effectués afin de certifier sa validité.

+ Tests pré-estimation

V' Test de stationnarité des variables

Les séries macroéconomiques sont en général non stationnaires. Il convient donc de les rendre stationnaires avant l'estimation des coefficients du modèle par la méthode des moindres carrés ordinaires (MCO) qui ne s'applique qu'aux séries stationnaires. Une série chronologique est stationnaire si elle est la réalisation d'un processus stationnaire. Ceci implique que la série ne comporte ni tendance, ni saisonnalité et plus généralement, aucun facteur évoluant avec le temps. Autrement dit, un processus stochastique Xt est stationnaire si :

-E(Xt)=E(Xt+h)=u ? t et ? h, c'est-à-dire la moyenne est constante et indépendante du temps ;

-La variance est finie et indépendante du temps ;

-La fonction d'autocovariance cov(Xt,Xt+h) est indépendante du temps.

43

Parmi les tests de détection de racine unitaire, on distingue essentiellement celui de Dickey et Fuller et celui de Phillips et Perron. Nous allons utiliser ici le test de Dickey et Fuller augmenté (ADF) pour prendre en compte l'hypothèse d'autocorrélation des erreurs.

Les hypothèses, nulle et alternative se présentent comme suit :

H0 : le processus est non stationnaire (présence de racine unitaire) H1 : le processus est stationnaire

La règle de décision consiste à comparer la valeur ADF à celle critique (CV). Si ADF<CV, on accepte l'hypothèse de stationnarité de la série. On peut aussi lire tout simplement la valeur de la probabilité (prob) correspondante et effectuer une comparaison avec un seuil donné (1%, 5% ou 10%). Dans ce cas, si prob<5%, on accepte l'hypothèse de stationnarité.

Le tableau suivant résume les résultats du test de stationnarité : les résultats obtenus sur EVIEWS sont, quant à eux, présentés en annexe 2.

Tableau 6 : Résumé des tests de stationnarité

Variables (en log)

test en niveau

Test en différence première

PIB

Non stationnaire

Stationnaire

Capital physique

Non stationnaire

Stationnaire

Capital humain

Non stationnaire

Stationnaire

Ouverture commerciale

Non stationnaire

Stationnaire

Investissement étranger

Stationnaire

Stationnaire

Population active

Stationnaire

Stationnaire

Source : nos estimations à partir de EVIEWS 8.

Il ressort du tableau que les variables du modèle n'ont pas le même ordre d'intégration. Seuls l'investissement direct étranger et la population active sont stationnaires à niveau. Nous allons donc tester la cointégration à l'aide de la technique de Johansen (1988).

44

V' Test de cointégration

L'existence d'une relation de long terme entre des variables individuellement non stationnaire est à la base de la théorie de la cointégration. Cette théorie permet d'étudier des séries non stationnaires mais dont une combinaison linéaire est stationnaire. Le but de ce test est donc de détecter si les variables possédant une racine unitaire ont une tendance stochastique commune.

Soient les hypothèses suivantes :

H0 : absence de cointégration

H1 : présence de vecteur cointégrant

La règle de décision consiste à comparer le ratio de vraisemblance à la valeur critique (CV). Si le ratio de vraisemblance est supérieur à la valeur critique, on accepte l'hypothèse de cointégration ; sinon on la rejette. On peut aussi comparer la probabilité correspondante (prob) au seuil retenu (1%, 5% ou 10%). Dans ce cas si prob<5%, on accepte l'hypothèse de cointégration, sinon on la rejette. Sur EVIEWS, on dispose de plusieurs options. L'hypothèse de cointégration est admise si le test est concluant pour au moins une des options.

Tableau 7 : Test de cointégration

Unrestricted Cointegration Rank Test (Trace)

 

Hypothesized Trace 0.05

No. of CE(s) Eigenvalue Statistic Critical Value

Prob.**

None * 0.587831 44.64499 40.17493

0.0166

At most 1 * 0.486594 26.03225 24.27596

0.0298

At most 2 0.417551 12.03179 12.32090

0.0559

At most 3 0.031909 0.681020 4.129906

0.4688

Trace test indicates 2 cointegrating eqn(s) at the 0.05 level

 

* denotes rejection of the hypothesis at the 0.05 level

 

**MacKinnon-Haug-Michelis (1999) p-values

 

Source : estimation de l'auteur sur EVIEWS 8

Le tableau montre que le rang de cointégration vaut deux (2) au seuil de 5%. On accepte donc l'hypothèse de cointégration des quatre variables non stationnaires à niveau. Une fois la stationnarité et la cointégration admises, nous pouvons passer à l'estimation des coefficients du modèle.

v Estimation des coefficients du modèle : modèle à correction d'erreur31

Plusieurs méthodes d'estimation d'un modèle à correction d'erreur sont proposées dans la littérature. Il s'agit notamment de la méthode en deux (2) étapes d'Engle et Granger (1987) et celle en une seule étape de Hendry (1995). La procédure en deux étapes, bien que la plus utilisée dans les études empiriques, présente un certain nombre de défauts parmi lesquels figure, la non prise en compte dans l'estimation de l'équation de long terme, de l'information potentielle contenue dans la dynamique de court terme. En tenant compte du niveau d'intégration des variables, le modèle à correction d'erreur à la Hendry se présente comme suit :

D(lnyt)= á0 + á1D(lnkt) + á2D(lnht) + á3D(lnOuvt) + á4lnIdet + á5lnPopt + á6lnyt-1 + á7lnkt-1 + á8lnht-1 + á9lnOuvt-1 + et

D(xt)= xt-xt-1 est l'opérateur de différence première. Les coefficients á1, á2, et á3 représentent les élasticités de court terme. Les élasticités de long terme sont données par : á4, á5, -á7/á6 ;-á8/á6 ;-á9/á6.

á6 est le coefficient de correction d'erreur. Il doit être négatif, inférieur à l'unité en valeur absolue et significatif. Il indique la vitesse d'ajustement de la variable PIB réel pour retourner à l'équilibre de long terme suite à un choc.

Le tableau suivant résume les résultats de l'estimation des coefficients du modèle à

correction d'erreur.

45

31 Les séries non stationnaires étant cointégrées, il convient d'effectuer une représentation à correction d'erreur. En cas de non cointégration, la représentation devrait s'écrire sous forme vectorielle autorégressive (VAR) en différence première.

46

Tableau 8 : Estimation du modèle à correction d'erreur

Variable

Coefficient

Std. Error t-Statistic

Prob.

C

-10.57497

3.759823 -2.812624

0.0157

D(LNH)

-0.238811

0.134145 -1.780242

0.1003

LNIDE

-0.007278

0.004874 -1.493214

0.1612

D(LNK)

0.092898

0.049909 1.861360

0.0874

D(LNOUV)

-0.024071

0.052432 -0.459090

0.6544

LNPOP_ACT

1.486770

0.457561 3.249339

0.0070

LNY(-1)

-0.596670

0.197054 -3.027948

0.0105

LNH(-1)

-0.268119

0.146661 -1.828154

0.0925

LNK(-1)

0.053259

0.053378 0.997767

0.3381

LNOUV(-1)

0.139614

0.053961 2.587308

0.0238

R-squared

0.748676

Mean dependent var

0.055865

Adjusted R-squared

0.560182

S.D. dependent var

0.026587

S.E. of regression

0.017632

Akaike info criterion

-4.935200

Sum squared resid

0.003731

Schwarz criterion

-4.439272

Log likelihood

64.28720

Hannan-Quinn criter.

-4.818375

F-statistic

3.971894

Durbin-Watson stat

2.567055

Prob(F-statistic)

0.014691

 
 

Source : nos estimations à partir de EVIEWS 8.

On retient que le modèle a un coefficient de détermination acceptable (R2 ajusté= 56,02%). Le test de Fisher indique par ailleurs que les coefficients du modèle à correction d'erreur sont globalement significatifs (au seuil de 5%) malgré quelques faibles significativités individuelles que révèlent les statistiques de Student. Enfin, la force de rappel vers l'équilibre (á6) est inférieure à l'unité en valeur absolue et est négative et significative. Le modèle à correction d'erreur est donc valide. Nous allons par la suite procéder aux tests post-estimation.

+ Tests post-estimation

V' Test de normalité des erreurs

L'hypothèse de normalité des termes d'erreur joue un rôle essentiel car elle va préciser la distribution statistique des estimateurs. C'est donc grâce à cette hypothèse que l'inférence statistique peut se réaliser. Elle peut être testée sur les variables du modèle ou sur les résidus. Nous utiliserons la statistique de Jarque et Bera pour effectuer ce test sur les résidus.

Soient les hypothèses suivantes :

H0 : t suit une loi normale N(m,a)

H1 : t ne suit pas une loi normale N(m,a)

On n'accepte l'hypothèse de normalité au seuil de 5% que si la statistique de Jarque-Bera est inférieure à 5,99 (ou tout simplement si prob>5%).

Figure 5 : Test de normalité des erreurs

Series: Residuals Sample 1991 2012 Observations 22

Mean

-9.16e-16

Median

-0.000591

Maximum

0.023360

Minimum

-0.022328

Std. Dev.

0.013329

Skewness

0.109476

Kurtosis

2.215229

Jarque-Bera

0.608489

Probability

0.737681

5 4 3 2 1 0

 
 

-0.02 -0.01 0.00 0.01 0.02

Source : nos estimations à partir de EVIEWS Les erreurs sont donc normalement distribuées.

V' Test de stabilité

Ce test vise à vérifier la stabilité des coefficients du modèle dans le temps, au fin de prévision. On distingue le test de Chow (1960) et celui de Brown-Durbin-Ewans (1975). Nous allons effectuer le test Cusum de Brown-Durbin-Ewans qui offre l'avantage d'étudier la stabilité sans définir à priori une date de rupture sur les coefficients. Le test Cusum permet de détecter les instabilités structurelles et le test Cusum carré, les instabilités ponctuelles et globalement il y'a instabilité si la courbe coupe le corridor (en rouge).

Figure 6 : Test de stabilité

CUSUM 5% Significance

CUSUM of Squares 5% Significance

12 8 4 0 -4 -8 -12

 

01 02 03 04 05 06 07 08 09 10 11 12

1.6 1.2 0.8 0.4 0.0 -0.4

 

01 02 03 04 05 06 07 08 09 10 11 12

47

Source : nos estimations à partir de EVIEWS.

Le modèle est donc ponctuellement et structurellement stable.

V' Test d'autocorrélation des erreurs

Il existe plusieurs tests d'autocorrélation. Les plus utilisés sont : le test de Durbin-

Watson et celui de Breusch-Godfrey. Nous utiliserons ici le test de Breusch-Godfrey.

Le test de Durbin-Watson32 est inapproprié à cause de l'existence de variables décalées dans le modèle.

Soient les hypothèses suivantes : H0 : Erreurs non corrélées

H1 : Erreurs corrélées

On accepte l'hypothèse H0 si la valeur de la probabilité est supérieure à 5%, sinon on la rejette. On obtient par EVIEWS le tableau suivant :

Tableau 9 : Test d'autocorrélation

Breusch-Godfrey Serial Correlation LM Test:

F-statistic 2.605531 Prob. F(2,10) 0.1228

Obs*R-squared 7.536841 Prob. Chi-Square(2) 0.0231

Source : l'auteur à partir de EVIEWS

Les probabilités ne sont pas toutes supérieures à 5%. On accepte donc l'hypothèse d'autocorrélation des erreurs.

Cochrane-Orcutt propose une méthode d'estimation des paramètres qui doit être utilisée en cas de corrélation des erreurs. En appliquant ce correctif au modèle à correction d'erreur, on obtient le tableau suivant :

48

32 Excepté le test du h de Durbin(1971) qui peut aussi être utilisé.

49

Tableau 10 : Correction de l'autocorrélation

Variable

Coefficient

Std. Error t-Statistic

Prob.

C

-12.57727

2.827403 -4.448346

0.0010

D(LNH)

-0.223620

0.124560 -1.795277

0.1001

LNIDE

-0.005159

0.005857 -0.880754

0.3973

D(LNK)

0.093616

0.054662 1.712635

0.1148

D(LNOUV)

0.034401

0.052241 0.658499

0.5238

LNPOP_ACT

1.419603

0.411143 3.452818

0.0054

LNY(-1)

-0.462694

0.184591 -2.506586

0.0292

LNH(-1)

-0.405314

0.098453 -4.116842

0.0017

LNK(-1)

0.066540

0.030609 2.173888

0.0524

LNOUV(-1)

0.194500

0.044496 4.371222

0.0011

MA(1)

-0.999974

0.240302 -4.161321

0.0016

R-squared

0.885286

Mean dependent var

0.055865

Adjusted R-squared

0.781001

S.D. dependent var

0.026587

S.E. of regression

0.012442

Akaike info criterion

-5.628597

Sum squared resid

0.001703

Schwarz criterion

-5.083076

Log likelihood

72.91456

Hannan-Quinn criter.

-5.500088

F-statistic

8.489092

Durbin-Watson stat

2.502637

Prob(F-statistic)

0.000735

 
 

Inverted MA Roots

1.00

 
 

Source : nos estimations à partir de EVIEWS

Le coefficient associé à la variable MA(1) est significatif. La correction de l'autocorrélation des erreurs est donc acceptée. On note au passage une amélioration sensible du coefficient de détermination ajusté qui passe de 56,02% à 78,1%. Le signe du coefficient de la variable Ouverture à court terme a été également corrigé.

V' Test d'homocédasticité des erreurs.

Le test d'homocédasticité vise à attester la constance de la variance des erreurs dans le temps. On distingue le test d'hétéroscédasticité de White et le test AutoRegressive Conditionnal Heteroscedasticity (ARCH). Nous utiliserons ici le test ARCH.

Soient les hypothèses suivantes : H0 : Erreurs homocédastiques ; H1 : Erreurs hétéroscédastiques.

Si la probabilité correspondante est supérieure à 5%, on accepte l'hypothèse H0 ; sinon on la rejette.

50

Tableau 11 : Test d'hétéroscédasticité

Heteroskedasticity Test: ARCH

F-statistic 0.472119 Prob. F(3,15) 0.7062

Obs*R-squared 1.639265 Prob. Chi-Square(3) 0.6505

Source : nos estimations à partir de EVIEWS. Les erreurs sont donc homocédastiques.

V' Test de causalité

La causalité entre les variables peut être testée à l'aide de la méthode de Granger. Nous allons vérifier ici l'existence d'une relation de causalité entre la variable expliquée (PIB réel) du modèle et la variable explicative d'intérêt à savoir l'ouverture commerciale. Soient les étapes et les hypothèses suivantes :

Étape 1 : H0 : ln(ouv) ne cause pas ln(PIB) ; H1 : ln(ouv) cause ln (PIB).

Étape 2 : H0 : ln(PIB) ne cause pas ln(ouv) ; H1 : ln(PIB) cause ln(ouv).

Dans toutes les étapes l'hypothèse nulle n'est acceptée que si la probabilité correspondante est supérieure à 5%, sinon elle est rejetée au profit de H1.

Tableau 12 : Test de causalité

Null Hypothesis: Obs F-Statistic Prob.

LNOUV does not Granger Cause LNY 22 7.65433 0.0123

LNY does not Granger Cause LNOUV 2.92792 0.1033

Source : l'auteur à partir de EVIEWS

Le tableau révèle l'existence d'une causalité unilatérale : celle exercée par l'ouverture commerciale sur le PIB réel.

précédent sommaire suivant