WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Impact des crédits a l'économie sur l'inflation et la croissance au Bénin

( Télécharger le fichier original )
par Brice Houeton & Thierry Ahouanvoedo
Ecole nationale d'économie appliquée et de management - Ingénieur statisticien économiste 2004
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

Paragraphe 2 : Méthodologie de recherche

La méthodologie adoptée comprend deux grandes composantes : la recherche documentaire, le traitement et l'analyse des données collectées. Elle est basée sur la combinaison de plusieurs approches notamment, l'interprétation des évolutions passées et récentes des variables en question, certains raisonnements analytiques, des comparaisons et enfin, quelques évaluations empiriques à partir de modèles macro-économétriques, notamment à l'aide des Mécanismes à Correction d'erreur (MCE).

A - Sources documentaires

En ce qui concerne la collecte des données, elle vise à regrouper toute la littérature sur la politique de la monnaie et du crédit, la croissance économique et l'inflation ainsi que les données nécessaires à l'estimation des modèles. A cet effet, les principales sources ci-après ont été identifiées :

- l'INSAE, pour la collecte des données relatives aux comptes nationaux (PIB et ses emplois, le taux de croissance, l'investissement)

- le Ministère des Finances et de l'Economie, par le biais de ses directions techniques, notamment la DGAE ;

- les centres de recherche et de documentation (CAPE, BCEAO, CCF, Mission résidente de la Banque Mondiale, pour toutes autres informations spécifiques relatives la question) ;

- Les sites Internet de diverses institutions présentées dans les références bibliographiques.

B - Traitement et analyse des données

Il s'agit des moyens par lesquels les données sont recueillies et ont été mises sous une forme synthétisée et facile d'analyse. Les travaux liés aux traitements économétriques ont été effectués grâce au logiciel « Econometric Views » (Eviews 3.0).

Des résultats de nombreux travaux empiriques révèlent que les séries macroéconomiques sont la plupart du temps non-stationnaires, c'est-à-dire qu'elles admettent une moyenne et souvent, une variance qui croît sans limite avec le temps. Or, les techniques statistiques classiques ne s'appliquent qu'à des séries stationnaires. C'est le cas par exemple des récents travaux de NELSON et PLOSSER (1982) sur les séries macro-économiques américaines qui ont aussi permis de dégager ce même fait stylisé, caractéristique des séries temporelles décrivant l'activité économique à savoir : la non-stationnarité stochastique. La présence de racine unitaire dans les séries macro-économiques, loin de constituer une pathologie, est devenue une caractéristique commune des séries économiques.

La construction d'un modèle avec des séries chronologiques impose de tester
une éventuelle cointégration entre les variables. Le concept de cointégration,
auquel nous avons eu recours, fournit donc un cadre de référence théorique pour

étudier les situations d'équilibre et de déséquilibre, qui prévalent respectivement, à long terme et à court terme. Dès lors, la cointégration permet de rationaliser la modélisation à court et long termes.

Si les variables sont cointégrées, elles admettent une spécification dynamique de type correction d'erreur. Le modèle ECM (Error Correction Models) permet donc de réconcilier dans un même cadre, les comportements de court et long termes, qui sont calés sur des horizons temporels a priori antinomiques.

Pour estimer nos modèles d'inflation et de croissance, nous adopterons donc une démarche méthodologique qui se décompose en trois phases :

i. Détermination du degré d'intégration des variables des modèles

Nous utiliserons pour ce faire, le test de stationnarité de Dickey Fuller Augmenté (ADF). Ce dernier consiste à faire le test d'hypothèse :

H0 : présence de racine unitaire (série non stationnaire) H1 : absence de racine unitaire (série stationnaire)

Si ADFcalculé > ADFThéorique alors la variable est stationnaire. Si les séries ne sont

pas stationnaires, mais toutes intégrées du même ordre, nous allons procéder à un test de cointégration et recourir à une représentation à correction d'erreur qui fournit des relations entre les variables à court et long termes. Tous les tests d'ADF sont effectués au seuil de 5%.

ii. Test de cointégration

Il existe deux méthodes d'analyse des relations de cointégration entre deux ou plusieurs variables : la méthode en deux étapes de Engle et Granger (1987) et la méthode de Johansen (1991 et 1995).

- Selon Engle et Granger (1987), une combinaison linéaire de deux ou plusieurs variables peut être stationnaire (I(0)). Si une telle combinaison stationnaire existe, alors les variables non-stationnaires (I(1)) sont dites cointégrées. Ainsi la combinaison linéaire stationnaire est appelée équation de cointégration et peut être interprétée comme une relation de long-terme entre les variables.

1ère étape : Régression entre les variables intégrées

Après avoir vérifié que les variables sont intégrées d'un même ordre (ordre supérieur à zéro), cette étape consiste à effectuer une régression statique entre ces variables. A cette étape, on récupère le résidu de cette relation statique, en créant une nouvelle variable, dont les valeurs sont celles du résidu de la régression statique.

2ème étape : Test de vérification de la stationnarité du résidu

Dans cette seconde étape, il s'agit de vérifier au moyen d'un test approprié (ADF) si les résidus de la relation statique sont stationnaires. Dans le cas oil ils le sont, les variables sont cointégrées. Dans le cas contraire, les variables ne sont pas cointégrées.

- Le test de cointégration mis au point par Johansen (1998) utilise la méthode du maximum de vraisemblance pour déterminer la présence ou non de vecteurs cointégrants dans les séries non stationnaires. L'existence de vecteur significatif indique alors la présence d'une relation de long terme.

iii. La validation des modèles

Elle comporte deux sous-étapes. La première, relative à l'aspect économique permet de voir si les signes des paramètres estimés sont conformes à la théorie économique. La seconde est celle relative à la qualité statistique et économétrique de l'estimation. Dans ce cas plusieurs tests sont effectués notamment :

- le test de normalité des erreurs. A cet effet on fera recours au test de Jarque-Bera.

Hypothèse du test

H0 : X suit une loi normale N(m,ó)

H1 : X ne suit pas une loi normale N(m,ó)

La statistique de Jarque-Bera est définie par : ( ) ?

? S 2 k 2

- 3 ?

JB n

= ? +

6 24

? ?

oü S représente le coefficient de dissymétrie (Skewness) et K le coefficient d'aplatissement (Kurtosis)

JB suit sous l'hypothèse de normalité une loi du Khi-Deux à deux degrés de liberté.

On accepte au seuil de 5% l'hypothèse de normalité si JB < 5,99 ou si Probability > 0,05.

- le test d'homoscédasticité des erreurs

Pour tester une homoscédasticité éventuelle des erreurs, nous ferons recours au test de White. Les erreurs sont homoscédastiques si la probabilité est supérieure à 5%.

- le test d'autocorrélation des erreurs.

Pour vérifier si les erreurs sont autocorrélées ou non, nous réaliserons le test de Breusch-Godfrey. La statistique de Breusch-Godfrey, donnée par BG = nR2 suit un khi-deux à p degrés de liberté, avec :

p : nombre de retard des résidus

n : nombre d'observations

R2 : coefficient de détermination

L'hypothèse de non-corrélation des erreurs est acceptée si la probabilité est supérieure à 5% ou si nR2 < khi-deux lu.

- le test de Ramsey pour apprécier la qualité de la spécification ;

- le test de Student pour apprécier la qualité individuelle des coefficients.

Si tcalculé > tThéorique alors le coefficient est significativement différent de 0

- le test de Fischer pour apprécier la qualité globale du modèle. Si

Fcalculé > FThéorique alors le mod èle est gobalement bon. Le coefficient de

détermination ajusté R2adj est également utilisé.

L'étude couvre la période allant de 1972 à 2003. Ce choix se justifie par le souci d'intégrer les diverses évolutions qu'a connues la politique de la monnaie et du crédit au sein l'UMOA. La sphère retenue pour l'étude est celle de l'économie béninoise.

Chapitre 2 :
POLITIQUE MONETAIRE DE LA BCEAO ET
SITUATION DE L'INFLATION, DE LA
CROISSANCE ET DES CREDITS A L'ECONOMIE
AU BENIN

Ce chapitre expose dans une première section les principes essentiels qui guident l'action de la BCEAO avant d'aborder de façon spécifique l'analyse de l'évolution des crédits à l'économie, de l'inflation et de la croissance de 1972 à 2003.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"L'ignorant affirme, le savant doute, le sage réfléchit"   Aristote