WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Ciblage d'inflation versus ciblage de niveau des prix : avantages comparés dans l'UMOA

( Télécharger le fichier original )
par Alain BABATONUDE
Université d'Abomey-Calvi - Diplome d'études approfondies 2009
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

III.2- LES VARIABLES : NATURE, SOURCES ET TRAITEMENT

L'étude de l'efficacité comparée des politiques de ciblage de l'inflation et de niveau des prix implique un panel de variables économiques de politique monétaire et de mesure de l'activité notamment celles représentant les cibles de politique monétaire à savoir, le taux d'inflation, le niveau des prix, le produit intérieur brut (effectif et potentiel). Toutes les séries utilisées sont en fréquence trimestrielle, comme cela est souvent le cas dans les recherches empiriques relatives à la politique monétaire (Taylor (1993), Ball (1997), Svensson (1999), Dittmar et Gavin (2000), Dittmar et al (1999), Aubert et Adjemian (2003), Ténou (2002), entre

autres), ceci pour tenir compte de la courte nature du terme de la politique monétaire. Très généralement, toutes les séries sont prises en logarithme. L'étude couvre la période de 1993.IV à 2008.IV et concerne l'espace UMOA avec une politique monétaire unique exprimée par l'institut d'émission, la BCEAO.

Outre les Notes d'Informations Statistiques (NIS) et les rapports annuels de la Banque Centrale, les données utilisées proviennent aussi de la base de données du FMI : les Statistiques Financières Internationales.

 

Les variables de niveau de prix et d'inflation

L'Indice Harmonisé des Prix à la Consommation (IHPC) est l'indicateur usuel du niveau général des prix dans l'économie. Dans la méthodologie adoptée, l'IHPC de chaque Etat membre de l'UMOA est un indice de type Laspeyres couvrant la consommation des ménages au sens de la comptabilité nationale. L'indice UMOA des prix à la consommation (IHPC) correspond ainsi, à la moyenne pondérée des Indices Harmonisés des Prix à la Consommation des pays membres de l'Union15. La mise en oeuvre de l'objectif de stabilité des prix à assurer à moyen terme donne un rôle à l'IHPC de l'union, étant donné que la Banque réagit en fonction des évolutions relatives à la zone dans son ensemble. En dépit des insuffisances liées au retard de mise à jour des pondérations utilisées pour en améliorer la mesure au niveau national, l'IHPC calculé en fréquence mensuelle présente des avantages de disponibilité et de crédibilité.

L'évolution de l'Indice Harmonisé des Prix à la Consommation est la mesure du niveau général des prix retenue par la BCEAO pour mesurer l'inflation. Trois raisons expliquent ce choix16 : a) la forte harmonisation de cet indice dans les pays de la zone ; b) la disponibilité ; c) l'importance relative dans les décisions des agents économiques. A partir des IHPC, il existe différentes approches du taux d'inflation. L'inflation en glissement annuel

15Le poids d'un pays est égal à la part des dépenses de consommation des ménages de la principale agglomération du pays dans le total des dépenses de consommation des ménages des principales agglomérations des pays membres.

16 Mais il peut être volatil dans les périodes où certaines de ses composantes - prix alimentaires ou prix pétroliers notamment - sont affectées par des chocs transitoires n'influençant pas le rythme de la hausse des prix à moyen et long terme qui est la préoccupation des autorités monétaires. Pour pallier ce problème, il est utilisé parfois une mesure de l'inflation sous-jacente ou structurelle.

mesuré par l'évolution annuelle des prix entre un trimestre donné et le même trimestre de l'année précédente est retenue, comme dans la plupart des études - dont Taylor (1993) - afin d'éviter les variations erratiques17. Ainsi, on a :

nt = (11113Ct - IHPCt_4)/11PCt-4

L'écart d'inflation étant la différence entre le taux observé et le taux objectif, il se calcule aisément. La Banque Centrale fixe en effet un taux d'inflation ex-ante (n*) pour tenir compte de l'objectif de stabilité des prix et des critères de convergence économique dans la

zone UMOA. Alors l'écart d'inflation se déduit (nt - n*) .

La série des indices trimestriels calculés sur la base 100 de l'année 1996 - année d'adoption de l'IHPC - proviennent des NIS et des archives y relatives de l'UEMOA, disponibles sur le site Web de la Commission.

 

Les variables de production et d'output gap

L'activité économique est représentée dans l'analyse par le PIB agrégé pour l'ensemble des pays18. De façon générale, l'indicateur auquel les Banques Centrales sont supposées réagir constitue l'écart de production (output-gap) obtenu par différenciation du PIB effectif par rapport à son niveau potentiel de nature inobservable. Du point de vue méthodologique, en l'absence d'observations infra-annuelles sur le PIB, il est fait recours au processus de trimestrialisation des séries annuelles du PIB tel qu'il résulte de l'algorithme d'interpolation proposé par Goldstein et Khan (1976). Seulement si cette trimestrialisation est possible pour la série du PIB effectif, il n'en est pas de même du produit potentiel non observable, correspondant à un équilibre de plein emploi et de l'écart au produit dont l'appréciation et l'évaluation restent complexes.

Plusieurs méthodes sont proposées pour évaluer le produit potentiel. Baghli, et al

17

Cette approche diffère bien de celle de Svensson et autres qui considèrent le taux d'inflation par rapport au trimestre précédent. Si cette méthode s'applique bien dans les économies non extraverties, elle ne saurait rendre compte aussi efficacement la variation du niveau des prix dans l'UMOA en raison de l'importance des effets transitoires.

18 ..

ii pourrait être plus utile et plus pertinent d'adopter un processus d'agrégation des données nationales suivant une pondération liée à la taille de l'économie considérée dans l'activité économique globale de l'union.

(2002) en présentent les principales : deux approches statistiques univariées, le lissage par la méthode du filtre Hodrick-Prescott et l'ajustement d'une tendance ; deux prolongements portant sur les méthodes statistiques étendues aux cas multivariés, l'analyse de modèles VAR structurels et de modèles à composantes inobservables (dont le filtre de Kalman) ; puis, une évaluation fondée sur une méthode structurelle dans laquelle la production du secteur marchand est décrite par une fonction Cobb-Douglas alors que celle du secteur non- marchand est supposée exogène.

Diop (2000) montre que la méthode d'estimation par la fonction de production contribue à une meilleure estimation de la production potentielle dans l'espace UMOA ; seulement, elle comporte aussi des insuffisances liées au calcul du stock de capital et à une moindre mesure de la dynamique du marché du travail. La mise en oeuvre pratique des différentes méthodes achoppe au manque de données statistiques fiables lié à l'indétermination du seuil de plein emploi pour les pays à économie sous développée notamment. En conséquence, des hypothèses plausibles et moins restrictives conduisent à une estimation du produit potentiel. La méthode d'estimation dépend évidemment de l'étude. Le processus de filtrage Hodrick-Prescott est adopté dans le cadre de cette étude : les insuffisances de cette approche sont connues car étant dépourvue de fondements théoriques rigoureux mais justifiée par l'absence de données et de repères méthodologiques pratiques pour en adopter d'autres.

Afin de recueillir un maximum d'informations statistiques utiles sur les données, il apparaît indispensable de procéder à une étude statistique approfondie des différentes séries chronologiques des modèles d'analyse. A cette phase, les tests pré-estimations sont nécessaires ; aussi sera-t-il procédé successivement au test de normalité pour connaître de la distribution de probabilité des observations, au test de stationnarité des séries pour apprécier l'existence ou non de racine unitaire puis l'étude des différents processus ARMA (p,q).

 

Le test de normalité des séries

Le concept de normalité sans être crucial permet en effet, de vérifier si les différentes

hypothèses implicites aux modèles à étudier sont conformes pour valider les tests statistiques subséquents. Certains modèles et applications économétriques impliquent des séries présentant une distribution normale. Dès lors, il devient pertinent de vérifier cette hypothèse de normalité. Une façon de tester la normalité d'une série chronologique d'observations ou de résidus consiste à mesurer l'écart que leur distribution présente par rapport à la distribution normale théorique en se focalisant sur les moments d'ordre 3 et 4 à savoir, le coefficient d'asymétrie ou Skewness (m3) et le coefficient d'aplatissement ou Kurtosis (m4).

Le test de Jarque-Bera (1987), un test d'hypothèse sur la normalité des séries est appliqué.

J - K

6

(S2 + (I( - 3)2R

4

HI =

n = Nombre d'observations

k = Nombre de variables explicatives si les données proviennent des résidus d'une régression linéaire. Sinon, k = 0.

S = Skewness : moment d'ordre 3 d'une variable centrée-réduite.

K = Kurtosis : moment d'ordre 4 d'une variable centrée-réduite.

La statistique JB suit asymptotiquement une loi du ÷2 à 2 degrés de liberté. Une loi normale a un coefficient d'asymétrie S = 0 et une kurtosis K = 3. En conséquence, si les données suivent une loi normale, le test tend alors vers 0 et il ne peut être rejeté l'hypothèse Ho de normalité au seuil á. Plus formellement, le test de Jarque-Bera ne teste pas à proprement parler si les données suivent une loi normale, mais plutôt si les deux coefficients empiriques sont les mêmes que ceux d'une loi normale de même espérance et de même variance.

 

Le test de stationnarité des séries

Un concept fondamental dans l'analyse de série chronologique est sans aucun doute la stationnarité et plus particulièrement la stationnarité au sens faible. Elle est requise en effet pour observer la convergence des différents moments empiriques vers les moments

théoriques correspondants. Il est dès lors très important de s'assurer que cette condition de constance dans la distribution des séries est remplie. Une série est faiblement stationnaire, si elle présente une moyenne finie et constante, une variance finie et constante et des autocorrélations indépendantes de la date à laquelle les variables sont mesurées. Pour s'assurer de la stationnarité d'une série, plusieurs approches sont possibles dont le test de racine unitaire. En correction des éventuelles autocorrélations des observations sérielles, le test Augmented Dicker-Fuller (ADF) qui ajoute des retards (lags) au modèle testé, est privilégié pour la mise en évidence de la racine unitaire.

Y

?Xt = cste + fit + ØXt_1 + Iej?Xt_i + gt

j=1

Suivant l'état de l'analyse, les hypothèses alternatives vont varier dans le trend ou la constance. Les trois principales sources de non stationnarité sont étudiées, à savoir, le changement structurel, la tendance déterministe et la tendance stochastique. Pour la qualité de l'examen de la stationnarité des séries, le test de Perron (1989) qui permet notamment, la prise en compte des ruptures de tendance dans les séries renforce l'analyse.

L'hypothèse nulle de l'ensemble de ces tests est la présence d'une racine unitaire, signifiant la non stationnarité de la série. Si la statistique du test est supérieure à la valeur critique il est rejeté l'hypothèse nulle de non-stationnarité de la série, équivalant à la présence de racine unitaire. A posteriori, l'analyse de la stationnarité pourra permettre la détermination de l'ordre d'intégration des séries dans le cas échéant pour des processus Differency Stationnary (DS).

 

L'examen des processus AR(p)

Cet exercice se justifie essentiellement compte tenu de la spécification du modèle d'analyse, laquelle implique des observations retardées pour la variable de production notamment. Pour ceci, il est estimé à l'instant t, le processus X comme étant une somme pondérée de ses p valeurs passées et d'un bruit blanc contemporain u.

Xt = Ø1Xt_1 + Ø2Xt_2 + Ø3Xt-3 ... ... ... ... . . +ØpXt-p + Ut

Parmi les approches traditionnelles pour déterminer le nombre de lags optimal, le corrélogramme de fonction d'autocorrélation partielle, les critères d'information AIC de Akaike (1973) et BIC de Schwartz (1978) puis le critère HQ19 proposé par Hannan et Quinn (1979) pour les processus ARMA sont à considérer dans l'analyse.

Enfin, dans la perspective de vérification, l'hypothèse de recherche étant que le ciblage du niveau des prix implique un avantage spécifique de moindre variabilité de l'inflation comparativement à la politique de ciblage du taux d'inflation, la valeur estimée du paramètre p mesurant la persistance endogène de la production par rapport à la valeur 0.5 est une condition nécessaire. La comparaison analytique et graphique de la variabilité du taux d'inflation suivant les deux règles permet de dégager l'avantage recherché et donc leur efficacité relative.

19

Le critère HQ est considéré comme un intermédiaire entre les critères AIC et le BIC ; notamment, il adoucit quelque peu la sévérité de la fonction de pénalité du critère BIC relativement à la croissance de la taille de l'échantillon tout en maintenant une forte convergence dans l'identification de l'ordre réel du modèle.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"En amour, en art, en politique, il faut nous arranger pour que notre légèreté pèse lourd dans la balance."   Sacha Guitry