WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Impact de la dette extérieure sur la croissance économique au Bénin

( Télécharger le fichier original )
par Ismaà¯l GNONRONFIN
Université de Parakou - Maà®trise es sciences économiques 2010
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

Paragraphe 3: Cadre opératoire : outils d'analyse et stratégies de vérification des hypothèses

A- Outils d'analyse

Nous retenons dans le cadre de la présente étude la période allant de 1979 à 2009. Cette période relativement longue présente l'avantage de se prêter aux tests économétriques et de nous rassurer la robustesse des résultats à obtenir. Elle nous permet en outre de suivre l'évolution des variables selon les différents régimes qu'a connus le Bénin. L'estimation des modèles se fera par la méthode des Moindres Carrés Ordinaires (MCO) à l'aide du logiciel EVIEWS 3.1. Aussi, des tests de diagnostic et de validation sont nécessaires avant l'interprétation des résultats au seuil de 5%.

* Tests de diagnostic

Ø Tests de stationnarité

Lorsqu'on utilise des données temporelles, il est primordial qu'elles conservent une distribution constante dans le temps. Ce concept de stationnarité doit être vérifié afin d'éviter des régressions factices pour lesquelles les résultats pourraient être « significatifs », alors qu'ils ne le sont pas. Si une série est non stationnaire, la différencier peut la convertir en série stationnaire.

Afin de vérifier la stationnarité des variables, le test de Dickey-Fuller amélioré (ADF). Ce dernier prend en compte une possible corrélation sérielle d'ordre élevé dans les premières différences en utilisant une correction non paramétrique, et il est souvent considéré comme étant plus puissant que le test ADF, surtout pour des échantillons de petite taille.

Pour le test ADF, chaque variable est régressée sur une constante, une tendance déterministe linéaire, une variable dépendante retardée et q retards des premières différences:

Ln Xt = á + ât + äln Xt-1 + è1 (ln Xt-1 - ln Xt-2) +...+èq (ln Xt-q - ln Xt-q-1) + åt

Où Xt représente la variable qu'on teste. Toutes les variables sont transformées en logarithme naturel. Suivant une méthode conventionnelle, la longueur du retard q est fixée à deux ans afin que les résidus åt soient des bruits blancs. Sous l'hypothèse nulle H0 : ä = 1, on est en présence d'une racine unitaire et sous l'hypothèse alternative H1 : ä<1, á ? 0, â ? 0, on est en présence d'un processus stationnaire.

Ø Si ADF test statistic < critical value, alors on accepte H0 au seuil de 5% et on dit que la série est non stationnaire

Ø Si ADF test statistic > critical value, alors on rejette H0 au seuil de 5% et on dit que la série est stationnaire.

Ø Test de cointégration

Un autre test à réaliser lorsqu'on travaille avec des séries temporelles est celui de la cointégration. Le but est de détecter si des variables possédant une racine unitaire, ont une tendance stochastique commune. Si tel est le cas, il existe une relation d'équilibre dans le long terme entre les variables; et la combinaison linéaire de deux variables provenant de séries non stationnaires est, quant à elle, stationnaire. Dans une telle situation, la formulation en différence mène à une mauvaise spécification du modèle et des termes de corrections d'erreurs doivent être ajoutés.

Le test de cointégration sur les résidus sera fait pour valider l'inexistence de relation de cointégration entre les séries. Un test simple à utiliser est le test en deux étapes de Engel et Granger (1987).

· 1ère étape

Estimer la régression suivante :

Ln X1t = á1 + á2 t + á3 ln X2t + á4 ln X3t + á5 ln X4t + ut

où Xit, i = 1, ..., 4, sont les variables sous étude et ut est un bruit blanc. Il faut ensuite récupérer les résidus ut.

· 2ième étape

Tester avec ADF si ût a une racine unitaire avec le modèle de régression suivant:

ût = äût-1 + á1t-1 - ût-2 ) + ...+ áqt-q - ût-q-1 ) + åt

où åt est un bruit blanc et la durée du retard fixé à deux (q = 2).

Ø Méthode d'estimation des modèles

La méthode d'estimation que nous avons utilisée est la méthode des Moindres Carrés Ordinaires (MCO). L'estimation des modèles est faite avec le logiciel Eviews 3.1.

La validation économique est faite sur la base des signes prévus. La validation statistique de la qualité globale des modèles est appréciée par le coefficient de détermination des modèles et par le test de Fisher. L'analyse de la qualité globale du modèle s'effectue à travers le coefficient de détermination du modèle (R2). Ce coefficient explique la part de l'évolution de la variable dépendante qui est expliquée par les variables exogènes. Le test d'adéquation d'ensemble est fait à travers le test de Fisher. Les hypothèses posées sont les suivantes :

H0: á1 = á2 =......= ák = 0, tous les coefficients sont nuls ;

H1 : á1 ? 0, il existe au moins un coefficient non nul ;

Avec k le nombre de paramètre estimé.

Si la statistique de Fischer calculé est supérieure à la statistique de Fisher théorique Fth (k-1, n-k), ou la Prob (F-stat) < 5%, on rejette l'hypothèse nulle ; la qualité de la régression est bonne au seuil de 5%. Dans le cas contraire, on accepte hypothèse nulle au même seuil ; la qualité de la régression n'est pas bonne.

La validation statistique de la qualité individuelle des variables est appréciée par le test de Student. Le test de Student pose comme hypothèses :

H0: ái = 0, le coefficient i n'est pas significativement différent de zéro

H1 : ái ? 0, le coefficient i est significativement différent de zéro

Si la statistique calculée de Student est supérieure à la statistique théorique t5%(n-k), ou la probabilité calculée est inférieure à 5%, on rejette l'hypothèse nulle, les variables sont donc statistiquement significatives au seuil de 5%. Dans le cas contraire, on accepte l'hypothèse nulle, les variables ne sont pas significatives au seuil de 5%.

Le test de Durbin et Watson (DW) ou celui de Breusch Godfrey permettra la détection de l'autocorrélation des erreurs.

Le test de White sera fait pour vérifier l'hypothèse d'homoscédasticité. Ce test de White est appliqué pour la détection de l'hétéroscédasticité des erreurs.

Enfin, le test de Normalité des erreurs a permis de valider les propriétés des moindres carrées ordinaires. La statistique de Jarque-Bera suit sous l'hypothèse de Normalité une loi de khi-deux à deux degrés de liberté. Les hypothèses sont :

H0 : les données suivent une loi normale

H1: les données ne suivent pas une loi normale

On accepte au seuil de 5% l'hypothèse de Normalité si la probabilité critique est supérieure à 5%. On rejette au seuil de 5% l'hypothèse de Normalité le cas contraire.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Il y a des temps ou l'on doit dispenser son mépris qu'avec économie à cause du grand nombre de nécessiteux"   Chateaubriand