WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

La transparence optimale d'une banque centrale

( Télécharger le fichier original )
par Artan Itsitsa Nzamba
Université Omar Bongo de Libreville-Gabon - Master 2014
  

Disponible en mode multipage

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

    UniversitéOmarBongo

    ...........

    Faculté de Droit et deSciences Economiques

    ...........

    Département d'Economie

    ...........

    Laboratoire d'Economie Appliquée (L.E.A)

    MEMOIRE DE MASTER II EN SCIENCES ÉCONOMIQUES

    OPTION : SPÉCIALITÉ :

    ÉCONOMIE INTERNATIONALE MACROÉCONOMIE APPLIQUÉE

    LA TRANSPARENCE OPTIMALE D'UNE BANQUE CENTRALE

    THEME :

    Présenté par : Sous la direction de :

    Artan ITSITSA NZAMBA Jean-Louis NKOULOU NKOULOU

    Email : generationnews@outlook.frAgrégé des Facultés de Sciences

    Économiques et de Gestion

    Maître de Conférences

    Décembre 2014

    SOMMAIRE

    Introduction générale 1

    Partie I : Les gains de la transparence optimale d'une banque centrale 6

    Chapitre 1 : La transparence optimale : un déterminant de la crédibilité d'une Banque centrale 7

    Section 1 :Opacité totale versus transparence pure : un enjeu de la crédibilité des Banques centrales...............................................................7

    Section 2 : La transparence intermédiaire comme moyen de restaurer la crédibilité des Banques centrales........................................................15

    Chapitre 2 : La transparence optimale : un moyen de réduire le risque d'incohérence temporelle 17

    Section 1 : La transparence totale comme degré optimal 17

    Section 2 : La transparence intermédiaire comme degré optimal 18

    Partie II : Les implications de la transparence optimale en termes de conduite de la politique monetaire 20

    Chapitre 3 : Règles monétaires, transparence optimale et conduite de la politique monétaire 21

    Section 1 : La règle doit tenir compte de l'activité économique 21

    Section 2 : Les caractéristiques propres à la formulation 33

    Chapitre4  : L'adoption d'une règle monétaire spécifique 39

    Section 1 : La règle d'objectif spécifique 40

    Section 2 : « Clean » versus « lean » 42

    Conclusion générale 47

    Référence bibliographiques 49

    Annexe..................................................................................................53

    Table des matières..................................................................................56

    Introduction générale

    La transparence optimale d'une Banque centrale caractérise un niveau de communication permettant à la politique monétaire de garantir aussi bien la stabilité d'inflation que la cohérence de celle-ci avec les anticipations des agents privés (Gosselin, 2008 ; Cornand, 2013). Ainsi considéré, l'existence de plusieurs niveaux de transparence a favorisé l'émergence des débats au sein de la théorie économique (Mishkin, 2004 ; Macklem, 2005 ; Cukierman, 2001, 2005 ; Musard-Gies, 2007 ; Geraats, 2007).

    À cet égard, les débats ont privilégié deux principales approches pour la recherche de la transparence optimale d'une Banque centrale : celle qui fonde le choix de la transparence sur les objectifs afin d'accroître les performances de la politique monétaire, d'une part (Taylor, 1993 ; Bernanke et al, 1999 ; Pollin, 2005 ; Svensson, 1997, 1999, 2003, 2010), et celle qui privilégie la transparence d'équilibre, supposant l'existence de niveaux intermédiaires de transparence qui oscillent entre l'opacité totale et la transparence parfaite, d'autre part (Morris et Shin, 2002 ; Hahn, 2006 ; Cukierman, 2007 ; Hoogduin et al., 2010).

    S'agissant de la première approche, la question relative à la détermination du degré optimal de transparence retient l'attention depuis l'article pionnier de Cukierman et Meltzer (1986) sur « Une théorie de l'ambiguïté, la crédibilité et l'inflation sous discrétion et l'asymétrie d'information ». Ces analyses sont complétées par Barro et Gordon (1983), Eijffinger et al. (2000), Faust et Svensson (2001), Jensen (2002) et Geraats (2006), pour justifier l'opacité des Banques centrales. Ce choix apparait optimal dans la mesure où la présence d'une asymétrie d'information sur les préférences entre la Banque centrale et les agents économiques permet à la Banque centrale de générer des surprises inflationnistes afin d'augmenter la production au-delà de son niveau naturel sans que cela soit coûteux en terme de crédibilité.

    Le manque de crédibilité conduit donc à l'inefficacité de la politique monétaire et, par conséquent, l'efficacité de la politique monétaire repose sur la capacité des Banques centrales à réduire le biais inflationniste (Gies, 2006).

    L'abandon de la discrétion, source d'incohérence temporelle1(*) aboutissant à la perte de crédibilité des autorités monétaires (Kydland et Prescott, 1977 ; Barro et Gordon, 1983), a conduit a évoqué l'instauration des règles (Taylor, 1993 ; McCallum, 1993 ; Drumetz et Verdelhan, 1997).La transparence de cette règle peut alors jouer un rôle dans la mise en place d'une politique de soutien à la crédibilité et dans la résolution du problème d'incohérence temporelle (Cornand, 2007 ; Gies, 2007).

    Ainsi, plusieurs stratégies sont envisageables pour assurer la transparence de la politique monétaire. Leur conception doit s'efforcer de concilier trois caractéristiques qui ne sont pas aisément compatibles. En effet, la règle de comportement doit être lisible pour garantir la crédibilité de la politique monétaire, s'approcher autant que possible de l'arbitrage optimal entre la variabilité de l'inflation et celle de la production et offrir une souplesse suffisante pour tenir compte d'événements particuliers2(*) ou d'évolutions dans le modèle de l'économie3(*) (Pollin, 2005).

    Pour atteindre leurs objectifs, les Banques centrales doivent alors se montrer responsables, transparentes et crédibles auprès des agents économiques. La transparence de la règle monétaire vient donc renforcer cette crédibilité des autorités monétaires (Artus, 1998 ; Orphanides et Williams, 2007).

    Cette stratégie de politique monétaire devrait donc fournir une référence permettant au public d'évaluer la responsabilité et la capacité de la Banque centrale à atteindre les objectifs de politique monétaire fixés à l'avance (Artus, 1998).

    Cependant, en présence des chocs asymétriques4(*), la Banque centrale a-t-elle intérêt à être transparente sans être responsable ? Autrement dit, la banque centrale a-t-elle intérêt à réduire sa marge de transparence ?

    Si la banque centrale reste transparente en présence des chocs asymétriques, elle ne fera pas preuve de responsabilité. La responsabilité de la politique monétaire implique une flexibilité pour réagir aux chocs qui affectent l'économie (Cruijsen et al., 2006 ; Hoogduin et al., 2008). D'où le terme de «discrétion contrainte»5(*)préconisé par Bernanke et Mishkin (1997) et Bernanke (2003) pour caractériser le ciblage d'inflation. Lacontrainte n'étant plus ici représentée par la règle de politique monétaire que la Banquecentrale s'est fixée, mais simplement par la cible d'inflation qu'elle s'est engagée à atteindre à un horizon prédéterminé (Svensson, 1999 ; Heikensten, 1999 ; Goodhart, 2001 ; Pollin, 2005).

    La transparence optimale, quant à elle, reposant sur les niveaux intermédiaires de transparence, a remis d'actualité la problématique de divulgation des informations privilégiées de la Banque centrale, d'une part (Cornand, 2007) et les raisons de celle-ci, d'autre part (Morris et Shin, 2002 ; Cukierman, 2005 ; Hoogduin et alii., 2010 ; Cornand, 2013).

    Par rapport à la problématique de divulgation des informations privilégiées, unetransparence parfaite n'est plus nécessairement une solution optimale. En effet, en gardant confidentielle certaines informations, la banque centrale s'assure d'un avantage stratégique vis-à-vis des agents privés et ce, conduisant donc à un niveau optimal d'ambiguïté (Cukierman, 2007). Pour cette raison, il serait préférable sous certaines conditions, pour la Banque centrale, de détenir certaines informations plutôt que de les divulguer publiquement (Cukierman, 2005, 2007 ; Musard-Gies, 2007 ; Muto, 2012).

    Par rapport aux raisons qui fondent la transparence intermédiaire, la notion même d'un niveau optimal de transparence apparait théoriquement significative en limitant certaines formes de transparence (Cruijsen et alii., 2010). En effet, le concept de niveaux intermédiaires de transparence se pose pour au moins trois raisons.

    D'abord, une transparence parfaite pourrait conduire à des incertitudes. En fournissant trop d'informations, les agents focalisent sur la complexité de l'élaboration de la politique monétaire et l'incertitude entourant les prévisions (Hoogduin, 2010). Ensuite, le degré élevé de transparence pourrait conduire à une surcharge de l'information et de la confusion. L'hypothèse que les individus sont capables d'absorber, comprendre et peser toutes les informations que la banque centrale fournit est probablement trop forte (Eijfingeret alii., 2010). Enfin, la prise en compte des complémentarités stratégiques. Si les agents privés ont besoin d'anticiper la valeur des fondamentaux pour prendre leur décision, ils doivent également considérer l'opinion des autres quant à la valeur de ces fondamentaux (Morris et Shin, 2002 ; Cornand, 2011).

    La transparence optimale, nécessaire pour accroitre l'efficacité de la politique monétaire, se situe alors entre une dose d'informations précises à révéler et celle qui ne doit pas l'être (Mishkin, 2004 ; Cukierman, 2005, 2007 ; Gosselin, 2008 ; Muto, 2012).

    Les approches liées à la recherche de la transparence optimale d'une Banque centrale se réfèrent à la divulgation des informations privilégiées (Cornand, 2013). Ainsi, il y a transparence parfaite lorsque la banque centrale rend publique toute l'information dont elle dispose et opacité complète lorsqu'elle n'en divulgue rien. Entre ces deux cas extrêmes, il existe tout un éventail de degrés de transparence possibles (Musard-Gies, 2007 ; Diana, 2008). D'où la nécessité de rechercher un niveau optimal de transparence.

    En dépit de l'existence d'un consensus autour de l'importance de la transparence, aucun consensus n'est dégagé quant à la nature, la qualité et le volume de l'information à divulguer (Kharrat, 2014). En outre, les différentes manières de modéliser l'asymétrie d'information entre la Banque centrale et les agents économiques peuvent également expliquer la divergence des résultats quant au degré optimale de transparence d'une Banque centrale (Musard-Gies, 2007).

    C'est en fait la mise en évidence de différents degrés de transparence des Banques centrales des pays de l'OCDE qui a renouvelé l'intérêt pour l'analyse théorique de la transparence optimale d'une Banque centrale (Cornand, 2007, 2011). Cette analyse est une refondation de la proposition de Rogoff (1985) comme une solution à l'incohérence temporelle en considérant l'indépendance de la Banque centrale sur les objectifs.

    Nous nous proposons alors de vérifier si la transparence optimale permet à la politique monétaire d'atteindre l'objectif d'inflation en cohérence avec les anticipations des agents privés.

    L'objet de la présente réflexion est d'analyser, sur la base d'une littérature théorique, l'opportunité et l'intérêt du choix de la transparence optimale en dehors des solutions de coins6(*), prenant pour cible la BEAC qui apparait inéluctablement un champ d'investigation pertinent pour au moins deux raisons :

    1°) la BEAC a un objectif statutaire de stabilité des prix. Or sa politique monétaire actuellement en vigueur n'est pas en cohérence avec les anticipations d'inflation des agents privés, ce qui révèle que la stabilité des prix obtenue n'a pas d'incidence sur les anticipations (Awana, 2013).

    2°) le rôle de la transparence optimale comme stratégie efficacement bénéfique dans la restauration de la crédibilité de la BEAC.

    De ce fait, la présente réflexion, qui vise à définir une transparence d'équilibre pour la BEAC, s'articule autour de deux parties : les gains associés à la transparence optimale (Partie I) et ses implications en termes de conduite de la politique monétaire (Partie II).

    La littérature économique montre que la transparence optimale exerce des effets économiques. Ces effets sont doubles : l'effet incitatif engage la Banque centrale sur la poursuite d'une inflation faible et l'effet d'information permet d'agir sur les anticipations des agents privés et en retour sur la dynamique macroéconomique (Hellwig, 2002 ; Walsh, 2006 ; Svensson, 2008 ; Geraats, 2009 ; Boivin, 2011).

    À cet effet, les gains associés à la transparence optimale d'une Banque centrale peuvent donc s'apprécier à deux niveaux : la restauration de la crédibilité des Banques centrales (Chapitre 1) et la réduction efficace du risque d'incohérence temporelle (Chapitre 2).

    Chapitre 1 : La transparence optimale : un déterminant de la crédibilité d'une Banque centrale

    La transparence des Banques centrales est essentielle dans la mesure où elle permet d'accroître l'efficacité de la politique monétaire et in fine, d'accroître le bien-être économique (Blinder, 1999 ; Bernanke, 2004a,b ; Kohn, 2005). Toutefois, la littérature théorique étudiant le degré optimal de transparence, ne présente pas les mêmes gains suivant le cadre théorique retenu7(*). Cette divergence des résultats conduit à des problèmes de crédibilité de la Banque centrale, gage d'efficacité de sa politique (Jensen, 2002 ; Cornand, 2007, Musard-Gies, 2006, 2007 ; Kharrat, 2014). Plus précisément, la crédibilité indique le degré de confiance du secteur privé dans l'aptitude et la détermination de la Banque centrale à suivre la politique monétaire et à atteindre les objectifs qu'elle a annoncés, en dépit de déviations temporaires qu'elle pourrait consentir afin d'absorber les chocs subis par l'économie (Aglietta, 2000 ; Loisel, 2006).

    En effet, la mise en oeuvre de la transparence optimale dans la recherche du gain de crédibilité soulève toutefois des controverses dans la mesure où cette optimalité peut-être soit une opacité totale, soit une transparence totale, soit une transparence intermédiaire (Musard-Gies, 2007 ; Kharrat, 2014).

    Section 1 : Opacité totale versus transparence pure : un enjeu de la crédibilité des Banques centrales

    La littérature étudiant les bénéfices et éventuellement les coûts associés à la transparence des Banques centrales a essentiellement analysé les effets de la transparence sur la crédibilité des autorités monétaires, dans un cadre de type Barro-Gordon8(*). De manière générale, si la transparence des autorités monétaires sur leurs préférences permet de réduire le biais inflationniste, l'existence d'une asymétrie d'information permet en revanche à la Banque centrale de créer des surprises inflationnistes ayant des effets réels sur l'économie (Kydland et Prescott, 1977 ; Barro et Gordon, 1983). Dès lors, un arbitrage apparaît entre d'un côté la possibilité de réduire le biais inflationniste en affichant de manière transparente ses objectifs et de l'autre la possibilité d'agir sur la production en ne dévoilant pas ses objectifs réels.

    1.1Opacité totale comme degré optimal de transparence

    L'article de Cukierman et Meltzer (1986) est généralement cité pour justifier l'opacité des Banques centrales, que ces auteurs nomment d'ailleurs ``l'ambiguïté constructive''. Dans la mesure où de temps en temps, la Banque centrale a un objectif de production supérieur aux souhaits de la société, l'absence de transparence peut se révéler bénéfique tant que cela soit moins coûteux en termes de crédibilité.

    Dans la même ligné que ces deux auteurs, Faust et Svensson (2001) et Jensen (2002) analysent la transparence sur les aléas qui affectent le processus de transmission de la politique monétaire dans un contexte d'incertitude des préférences de la Banque centrale. Ils interprètent la variation des préférences par le changement de personnes au sein du conseil de politique monétaire. Ainsi, l'entrée d'un nouveau membre dans le comité de décision de la Banque centrale peut influencer les préférences de la Banque centrale si celui-ci est plus libéral ou au contraire plus conservateur que la moyenne.

    Cette façon de modéliser les préférences qui apparaît dans de nombreux papiers, notamment Eijffinger et al. (2000), Jensen (2002) et Geraats (2006) n'est pas satisfaisante. En effet, pour Musard-Gies (2006) les préférences de la Banque centrale ne changent pas continuellement dans le temps et significativement à chaque entrée d'un nouveau membre dans le conseil de politique monétaire. En outre, la question de savoir si une Banque centrale doit dévoiler une partie variable de ses préférences (un choc sur les préférences) semble peu pertinente comme le souligne d'ailleurs Walsh (2005). D'où la nécessité d'un cadre dynamique afin d'offrir la possibilité, aux agents économiques, de réviser leurs estimations initiales9(*) (Gies, 2007). Il s'agit plus précisément du modèle d'apprentissage adaptatif10(*)théorisé par Evans et Honkapohja, (2001, 2002).

    En effet, les agents privés ne sont pas, en principe, dotés d'anticipations rationnelles et doivent procéder à un apprentissage (Evans et Honkapohja, 2001 ; Svensson, 2003). Formuler une règle de politique monétaire prenant en compte les anticipations des agents, facilite l'apprentissage du secteur privé et accroît l'efficacité de la politique monétaire (Evans et Honkapohja, 2004 ; Pollin, 2005 ; Gies, 2007).

    La transparence totale des Banques centrales, et notamment la publication d'une cible d'inflation, permet d'accélérer le processus d'apprentissage des agents économiques et donc de converger plus rapidement vers l'équilibre à anticipations rationnelles (Orphanides& Williams, 2001, 2003, 2007).

    Reconnaissant que toute tentative de sacrifier l'objectif à moyen terme de stabilité des prix à des efforts visant d'autres objectifs à court terme aura une incidence négative sur la crédibilité et l'efficacité de la politique monétaire et, en fin de compte, affaiblira la croissance économique et la prospérité à long terme. Les autorités monétaires ont compris que la politique monétaire devait être conduite indépendamment des pressions susceptibles de résulter d'objectifs politiques et électoraux à court terme et donc l'indépendance des Banques centrales est devenue un principe fondamental de la gouvernance économique moderne.

    Mais si l'indépendance a permis de renforcer la crédibilité anti-inflationniste des Banques centrales, elle a parallèlement conduit à une forte demande de transparence de la part des agents privés (Kempf et Lanteri, 2008 ; Blinder, 2009). En fait, l'indépendance va de pair avec des dispositions précises permettant de porter un jugement sur la capacité et les performances d'une Banque centrale quant à l'accomplissement de son mandat. La transparence, qui est donc la contrepartie de l'indépendance, favorise, en retour, la responsabilité11(*).

    1.2 La transparence totale comme degré optimal de transparence

    Une large littérature théorique s'est développée autour du rôle de la transparence des Banques centrales dans la mise en place d'une politique de soutien à la crédibilité et dans la réduction du biais inflationniste qui limitent l'efficacité de la politique monétaire. En effet, cette littérature a identifiée quatre solutions au problème de crédibilité et du biais inflationniste : les mécanismes de réputation (Barro et Gordon, 1983b) avec éventuellement un allongement du mandat de banquier central, la nomination d'un banquier central conservateur (Rogoff, 1985), la mise en place de contrats incitatifs (Walsh, 1995) et l'abandon de la discrétion au profit d'une règle (Blanchard et Fischer, 1989 ; Taylor, 1993 ;Drumetz et Verdelhan, 1997).

    1.2.1 Les mécanismes de réputation

    Pour Barro et Gordon (1983b), l'efficacité d'une politique anti-inflationniste dépend du comportement des autorités. Les auteurs ont pris en compte le fait qu'en répétant le jeu, la Banque centrale peut devenir crédible. Si elle dispose de suffisamment de temps, elle peut convaincre les agents qu'elle va réussir à baisser l'inflation. Dans cet ordre d'idées, la Banque centrale devrait fournir un effort pour montrer son engagement et construire une réputation. Effectivement, certains auteurs (Lane, Griffiths et Prati, 1995) soutiennent qu'en menant une politique qui réussit à ralentir progressivement l'inflation, la Banque centrale serait en mesure d'asseoir une réputation dans le temps.

    Deux critiques majeures sont avancées à cette approche. D'une part, sans antécédents, la réputation des autorités monétaires serait difficile à asseoir. D'autre part, basé seulement sur la réputation, l'itinéraire à la crédibilité risque d'être attaché aux personnes c'est-à-dire, le gouverneur ou le décideur politique, plutôt qu'à l'institution elle-même. Une perte de crédibilité est donc envisageable à la fin de chaque mandat (Issing, Gaspar, Angeloni et Tristani., 2001). Pour éviter cet inconvénient, Rogoff (1985) a proposé de choisir un banquier central conservateur qui, par rapport aux gouvernants ou à la majorité des électeurs, a une plus forte aversion pour l'inflation.

    1.2.2 La nomination d'un banquier central conservateur

    La nomination au poste de gouverneur de la Banque centrale d'une personnalité reconnue pour avoir un seuil de tolérance envers l'inflation moins élevé que celui du public et de là, un degré plus élevé de conservatisme, serait en mesure d'atténuer le problème d'incohérence temporelle (Rogoff, 1985). Cette décision contribuerait à promouvoir la crédibilité de la politique monétaire.

    Interprétée comme « l'indépendance de la Banque centrale », cette approche du conservatisme a donné lieu à une abondante littérature. Elle a cherché à traiter des arrangements institutionnels permettant de déléguer la politique monétaire à une institution indépendante (Rogoff, 1985 ; Flood et Isard, 1989 ; Cukierman, 1992 ; Lohman, 1992 ; Persson et Tabillini, 1993 ; Svensen, 1995) et déboucha sur la solution qui a pris la forme de contrat optimal (Walsh, 1995).

    1.2.3 Les contrats incitatifs

    Conformément à cette approche, Walsh (1995) souligne que l'arrangement prend la forme d'un contrat entre le gouvernement d'une nation et sa Banque centrale. Ce contrat donnerait davantage de liberté aux autorités monétaires afin qu'elles puissent atteindre leur objectif de maîtrise de l'inflation. En contrepartie, il leur impose un comportement dont elles ne peuvent dévier. Le responsable de la Banque est ainsi pénalisé si l'inflation est supérieure à l'objectif fixé par le gouvernement.

    Confrontée à la pratique, la théorie est controversée. L'expérience a montré qu'un pays peut enregistrer une faible inflation sans disposer d'une Banque centrale indépendante (Fischer, 1996). En effet, dans un bon nombre d'économies, la politique monétaire répond partiellement aux considérations électorales du pouvoir. Il n'en reste pas moins que cette influence est d'autant plus faible que la Banque centrale est indépendante. Toutefois, même aux États-Unis, où la Réserve fédérale (FED) jouit d'un degré élevé d'indépendance légale, les autorités politiques trouvent le moyen d'influencer la politique monétaire (Cukierman, 1992).

    En bref, la délégation de la responsabilité de la politique monétaire à une institution plus averse que la société à l'inflation, permet de réduire le biais inflationniste inhérent à toute politique discrétionnaire. Elle garantit à la Banque centrale la possibilité de réagir de manière flexible aux chocs imprévus interdisant par la même occasion à l'État d'avoir recours à la « planche à billets », pour financer un déficit des comptes publics. Sa mise en oeuvre a été, cependant, jugée en mesure de poser un problème supplémentaire de coordination des instruments de la politique économique à l'intérieur du même pays. Elle implique une spécialisation de la politique monétaire dans la lutte contre l'inflation, réduit la possibilité d'une utilisation combinée des instruments budgétaire et monétaire et affecte ainsi l'usage conjoncturel de l'instrument budgétaire (Villa, 1993).

    Loin d'être partagé par tous, ce point de vue qui évoque un éventuel conflit entre les deux autorités a été quelquefois jugé constructif (Thygesen, 1995). Il permettrait premièrement, de limiter les erreurs les plus graves et deuxièmement d'obtenir en moyenne des résultats supérieurs à ceux qui résulteraient de la domination par les autorités non monétaires.

    En complément à cette solution institutionnelle, la littérature économique a souvent évoqué l'instauration d'une règle.

    1.2.4 La priorité de la règle

    L'abandon de la discrétion, source de l'incohérence temporelle12(*) aboutissant à la perte de crédibilité des autorités monétaires (Kydland et Prescott, 1977 ; Barro et Gordon, 1983), a conduit la littérature économique a évoqué l'instauration des règles (Taylor, 1993 ; McCallum, 1993 ; Drumetz et Verdelhan, 1997 ; Kamgna et al, 2009). La crédibilisation de la politique monétaire passe par l'identification de règles susceptibles d'éviter le recours à la discrétion. Il s'agit dans la pratique de se conformer à une politique qui fixe un objectif de moyen terme et de le respecter. S'inscrivant dans la durée, cette règle doit faire l'objet d'une déclaration a priori.

    Pour les défenseurs de la règle monétaire, il existe plusieurs stratégies envisageables pour assurer la transparence de la politique monétaire. Leur conception doit s'efforcer de concilier trois caractéristiques qui ne sont pas aisément compatibles (Pollin, 2005, 2008). Il faut, en effet, que la règle de comportement :

    - soit assez claire pour garantir l'engagement de la Banque centrale, donc la crédibilité de sa politique monétaire. Il faut que l'on puisse vérifier que la politique annoncée est effectivement appliquée ;

    - qu'elle s'approche autant que possible de l'arbitrage optimal entre la variabilité de l'inflation et celle de la production ;

    - qu'elle offre une souplesse suffisante pour tenir compte d'événements particuliers13(*) ou d'évolutions dans la structure de l'économie14(*).

    Afin d'atteindre leurs objectifs, les Banques centrales doivent alors se montrer responsables, transparentes et crédibles auprès des agents économiques. La règle monétaire vient donc renforcer cette transparence et cette crédibilité des autorités monétaires (Orphanides et Williams, 2007). Cette stratégie de politique monétaire devrait donc fournir une référence permettant au public d'évaluer la responsabilité et la capacité de la banque centrale à atteindre les objectifs de politique monétaire fixés à l'avance (Artus, 1998).

    Cependant, ces solutions se sont trouvées inefficaces dans la conciliation du triptyque indépendance-transparence-responsabilité lorsque l'économie est confrontée à des chocs asymétriques. Cet échec à conduit à une perte de crédibilité des autorités monétaires. D'où la nécessité d'un niveau intermédiaire de transparence permettant de concilier ce modèle du triptyque afin de restaurer rapidement la crédibilité de la politique monétaire (Cukierman, 205, 207 ; Coupey-Soubeyran, 2011).

    Section 2 : La transparence intermédiaire comme moyen de restaurer la crédibilité des Banques centrales

    Au regard de la discrétion absolue, source d'incohérence temporelle et génératrice d'un surcroît d'inflation, et de l'application rigide d'une règle monétaire, la transparence intermédiaire apparaît alors comme une « solution de secours »la plus à même de restaurer relativement rapidement la crédibilité de la politique monétaire et de contenir efficacement les tensions inflationnistes (Svensson, 2003 ; Pollin, 2005, 2008 ; Lucotte, 2012).

    La restauration de la crédibilité trouve son ingrédient dans le modèle fondé sur le triptyque indépendance-transparence-responsabilité (ITR) qui s'est largement imposé comme le modèle de référence pour la gouvernance des Banques centrales (Couppey-Soubeyran, 2011). Leur autonomie y va de pairavec des exigences de concilier transparence et responsabilitédémocratique lorsque l'économie est en présence des chocs asymétriques. Le maintien de la stabilité des prix doit rester la missionfondamentale de la politique monétaire. La stabilisation conjoncturelle enest aussi un objectif capital. Les autorités monétaires ne cherchent pas àatteindre la cible d'inflation dans le court terme, mais à moyen-long terme,ce qui revient à lisser l'évolution de l'activité économique. La Banque centrale doit alors adopter un niveau intermédiaire de transparence pour faire preuve de responsabilité. La responsabilité de la politique monétaire implique une flexibilité pour réagir aux chocs asymétriques qui affecte l'économie (Cruijsen et al., 2006 ; Hoogduin et al., 2008). D'où le terme de « discrétion contrainte » employé par Bernanke et Mishkin (1997) pour caractériser le ciblage d'inflation, qui constitue pour ces auteurs une position intermédiaire entre la discrétion absolue, source d'incohérence temporelle et génératrice d'un surcroit d'inflation, et l'application rigide d'une règle monétaire.

    En effet, Bernanke et Mishkin (1997) et Bernanke (2003) indiquent que l'aspect « contrainte » est lié à l'engagement en faveur d'une inflation basse, engagement quipermet d'ancrer les anticipations des agents privés tandis que l'aspect « discrétion » recouvre la liberté opérationnelle dont jouit la Banque centrale et la possibilité qu'elle a de mener à bien ses taches de stabilisation réelle. Lacontrainte n'étant plus ici représentée par la règle de politique monétaire que la Banquecentrale s'est fixée, mais simplement par la cible d'inflation qu'elle s'est engagée à atteindre à un horizon prédéterminé (Svensson, 1999 ; Heikensten, 1999 ; Goodhart, 2001 ; Pollin, 2005).

    De même, selon Cukierman (2001, 2005, 2007), en gardant confidentielle l'écart de production et les signaux concernant de sévères problèmes du système financier, la Banque centrale s'assure d'un avantage stratégique vis-à-vis des agents privés et ce conduisant donc à un « niveau optimal d'ambiguïté ».

    Par ailleurs, Jensen (2002) prône aussi un certain niveau optimal de transparence, résultant de l'arbitrage entre la crédibilité et la flexibilité. Il note à travers un modèle avec un comportement prospectif « forward-looking » qu'un niveau élevé de transparence est désirable pour une Banque centrale avec une faible crédibilité. Toutefois, la transparence procurera moins de flexibilité à une Banque centrale ayant une forte crédibilité. Cette forte crédibilité conduit à une dynamique déstabilisante de l'économie débouchant sur d'amples fluctuations des prix d'actifs. La Banque centrale serait alors confrontée à un « paradoxe de la crédibilité » (Blinder, 1999 ; Goodfriend, 2001 ; Viñals, 2001 ; Borio et Lowe, 2002a ; Borio, English et Filardo, 2003 ; Mésonnier, 2004).

    Ce paradoxe a suscité des interrogations quant à la cohérence des objectifs de stabilité des prix et de stabilité financière généralement affichés par les Banques centrales. Ainsi, l'intégration de l'incertitude dans la stratégie de la politique monétaire par l'adoption d'une cible du niveau des prix dont la dynamique conduit à un lissage des effets d'un choc, permet à la Banque centrale de contourner le paradoxe de crédibilité et de d'ancrer efficacement les anticipations des agents économiques (Awana, 2013). Ce qui aura pour effet, la réduction efficace de l'incohérence temporelle.

    Chapitre 2 : La transparence optimale : un moyen de réduire le risque d'incohérence temporelle

    Section 1 : La transparence totalecommedegré optimal

    La littérature économique souligne qu'une ample divulgation par la Banque centrale des informations relatives à ses objectifs, à sa propre appréciation des effets de sa politique monétaire et à la situation économique, la politique monétaire réduira l'incertitude des agents économiques (Mishkin, 2004), ce qui favorisera l'ancrage de leurs anticipations notamment sur l'inflation (Bokino, 2015). La politique monétaire sera alors plus efficace et le bien-être de la société s'en trouvera amélioré (Musard-Gies, 2007 ; Eichengreen et Dincer, 2008 ; Qvigstad, 2009).

    De même, cette transparence totale trouve son ingrédient dans la divulgation des informations certaines telles que la cible d'inflation de la Banque centrale, utiles à l'amélioration des anticipations du secteur privé. En effet, lorsque la Banque centrale communique ses prévisions de l'inflation, le secteur privé l'utilise en combinaison avec ses propres prévisions pour former ses anticipations d'inflation. Les agents économiques doivent estimer la qualité relative des prévisions de la Banque centrale pour pondérer leurs prévisions en conséquence (Walsh, 2006, 2007, 2008 ; Dale et al., 2008 ; Gosselin, 2008 ; Rudebusch et Williams, 2008 ; Dale et al., 2011).

    Cependant, dans la littérature économique, les analyses divergent sur l'idée selon laquelle la transparence totale réduit le risque d'incohérence temporelle. D'où l'idée d'une transparence intermédiaire pour déterminer le juste équilibre entre l'opacité totale et la transparence totale (Cukierman, 2001 ; Morris et Shin, 2002 ; Cornand, 2007 ; Musard-Gies, 2007).

    Section 2 : La transparence intermédiaire comme degré optimal

    Au regard de la discrétion absolue, source d'incohérence temporelle et génératrice d'un surcroît d'inflation, et de la transparence totale, amplifiant l'incohérence temporelle, la transparence intermédiaire apparaît alors comme une «solution optimale» la plus à même d'ancrer les anticipations des agents privés et de contenir efficacement les tensions inflationnistes (Morris et Shin, 2002 ;Demertzis et Viegi, 2008, 2009 ; Ueda, James et Lawler, 2011). Plus précisément, cette transparence d'équilibre caractérise un niveau de communication permettant à la politique monétaire de garantir aussi bien la stabilité d'inflation que la cohérence de celle-ci avec les anticipations des agents privés (Cornand, 2014). Ce qui conduit les Banques centrales à réduire leur marge de transparence en ne divulguant pas des informations incertaines qui pourraient orienter les anticipations des agents privés sur une trajectoire incompatible avec la cible d'inflation (Morris et Shin, 2002 ; Cukierman, 2005 ; Pollin, 2005, 2008 ; Muto, 2012)15(*).

    De ce point de vue, la communication d'informations incertaines, telle que les prévisions de l'inflation, serait néfaste car les agents lui accordent une grande importance. Cela conduirait à une sur-réaction à l'information procurée par la Banque centrale, dans un environnement où la Banque centrale ou les agents privés ont des informations privées concernant les conditions économiques. De même, il est fortement risqué et contreproductif de publier des signaux concernant de sévères problèmes du système financier. Ce comportement peut engendrer une réaction non anticipée du public qui obligerait la Banque centrale à prendre des mesures plus expansionnistes qu'elle ne l'aurait fait si elle s'était temporairement abstenue de publier l'information. Par ailleurs, les Banques centrales sont incitées à être opaques concernant leurs préférences si elles ont une asymétrie au niveau de l'inquiétude concernant le niveau d'activité. Les anticipations des erreurs dans les politiques futures par les agents ont un impact déstabilisant sur leur anticipation de l'écart de production ou du taux d'inflation. Cukierman (2007) évoque deux limites de la transparence de la Banque centrale : sa désirabilité et sa faisabilité. Il affirme d'abord que pour les banquiers centraux, il est impossible d'être transparent concernant tous les points à cause de leur connaissance limitée du fonctionnement de l'économie. Ce qui conduit au recours à un niveau intermédiaire de transparence en réduisant la marge de transparence (Bernanke et Mishkin, 1997 ; Cukierman, 2001, 2005, 2007 ; Morris et Shin, 2002 ; Amato et Shin, 2003 ; Cruijsen et alii., 2010 ; Muto, 2012).

    Les deux approches telles qu'élaborées ont permis de distinguer l'efficacité d'une règle d'instrument dans la divulgation de toutes les informations, d'une part, et, d'une règle d'objectif dans la rétention de certaines informations incertaines, d'autre part. L'accroissement de l'efficacité de la politique monétaire et la crédibilité des Banques centrales justifient l'emploi des règles dans la conduite de la politique monétaire. Ainsi, nous pouvons conclure avec Drumetz et Verdelhan (1997) Barro et Gordon (1983) que la règle est meilleure que la discrétion dans la mesure où elle rend la politique monétaire plus efficace. Cependant, toutes les règles sont-elles robustes ?

    Il convient à présent de présenter les contraintes16(*) qui pèsent sur les règles monétaires.

    Après le consensus sur l'utilisation de la règle par les Banques centrales, plusieurs économistes ont proposé différentes règles monétaires. C'est ainsi qu'est né le débat règle « activiste » contre règle « automatique » de même que celui opposant les règles d'instrument aux règles d'objectif (Chapitre 3). Après une présentation de ces débats, il sera donné dans un second temps, le cadre de mise en oeuvre d'une règle monétaire spécifique qui combine efficience, souplesse et transparence (Chapitre 4).

    Chapitre 3 : Règles monétaires, transparence optimale et conduite de la politique monétaire

    En raison du lien instable entre instrument et objectif final, d'une part, et les délais de réaction de la politique monétaire sur l'économie réelle qui sont relativement long d'autre part, les Banques centrales doivent définir un mécanisme d'ancrage nominal permettant d'orienter les anticipations des agents privés sur une trajectoire compatible avec l'objectif fixé (Levieuge, 2003 ; Brand, 2008). Il s'agit d'un ciblage direct de l'inflation au détriment du contrôle des agrégats monétaires qui ont fait écho au cours des années 80 (Leiderman et Svensson, 1995 ; Svensson, 1997, 1998, 1999, 2010, Bernanke et Mishkin, 1997 ; Bernanke et al., 1999) comme stratégie efficace pour atteindre la stabilité des prix (Ondo Ossa, 2002 ; EngoneMvé, 2010).

    L'objet de cechapitre est de présenter une règle de comportement (fonction de réaction) laissant une marge discrétionnaire aux Banques centrales indépendantes dans un cadre institutionnel propice à la pérennité de la confiance (Aglietta, 2002) et permettant à la politique monétaire de concilier crédibilité et flexibilité. La mise en oeuvre de la stratégie de ciblage directe de l'inflation soulève des controverses entre les partisans de la règle d'instrument et les tenants de la règle d'objectif (Landais, 2008). Pour cela, il convient de présenter les débats sur les règles monétaires.

    Section 1 : La règle doit tenir compte de l'activité économique

    Le débat portant sur l'intégration du niveau de l'activité comme facteur de prise de décision par les Banques centrales remonte à plusieurs décennies. Pour certains économistes, une Banque centrale ne doit suivre qu'un objectif monétaire (maintien de la stabilité des prix). Alors que pour d'autres, cette stabilité des prix ne doit se faire sans prise en compte du niveau de l'activité (par exemple le taux de chômage pour ce qui est de la FED). Ce débat va donc ouvrir celui sur les règles « activistes » et les règles automatiques ainsi que celui qui oppose les règles d'instruments aux règles d'objectifs. Après ces débats, nous statuons sur les caractéristiques propres à la formulation d'une règle monétaire.

    1.1 Règle automatique versus règle activiste

    Une règle monétaire « mécaniste » indique une situation dans laquelle les mouvements de l'économie ne sont pris en compte et qu'elle s'intéresse uniquement à l'évolution du taux d'inflation et des variables qui peuvent influencer ce taux. La règle automatique qui a retenu beaucoup d'attention est la règle de K-pourcent de Friedman (1960). Simple règle de politique monétaire qui suppose que : « la Banque centrale doit maintenir un taux de croissance constant de la masse monétaire » (Orphanides, 2007). Étant donné que Milton Friedman est un monétariste (école de Chicago), il formule cette règle en se basant sur l'équation des échanges, base de la théorie quantitative de la monnaie.

    Cette règle est donc indépendante de l'état de l'économie et ce qui l'intéresse c'est le niveau d'inflation. Orphanides (2007) affirme que davantage, si la vitesse de circulation de la monnaie était parfaitement stable, cette règle simple pourrait aussi produire un niveau élevé de la stabilité économique. La condition qu'il pose lui-même sur la vitesse de circulation de la monnaie nous permet de dire avec Drumetz et Verdelhan (1997) que l'application aveugle de règles automatiques comme celle de Friedman (1960) risque de conduire à une forte variabilité de la production. Par conséquent, d'autres auteurs comme McCallum (1987), Taylor (1993) ont défini des règles non automatiques ou « activistes » de politique monétaire.

    Une règle « activiste » se définit comme celle qui consiste à représenter et donc définir la fonction de réaction de la Banque centrale ou des autorités monétaires qui, contrairement au cas des règles passives ou mécanistes, prend en considération les « mouvements » de l'économie. En fait, elle implique un réajustement continu des instruments de politique monétaire en fonction de l'état de l'économie. Elle comporte donc des éléments de feedback (rétroaction).

    Pour Martin, Durand et Payelle (1999), il existe trois types de règles activistes ou contingentes. Ce qui les distingue est en fait la ou les cibles choisies. Ainsi il y a des règles en termes de PIB nominal, la Banque centrale intervenant en fonction de l'écart entre le PIB nominal constaté et le PIB nominal objectif. La seconde est une règle directe d'inflation. Enfin, ils qualifient la troisième de « règle mixte » dans la mesure où elle considère à la fois l'écart d'inflation par rapport à l'objectif et l'écart du revenu par rapport à sa cible.

    Après cette analyse des règles automatiques et activistes de politique monétaire, il est constaté que l'application aveugle d'une règle automatique peut conduire à une forte variabilité de la production et donc à une instabilité pouvant entrainer l'économie dans un chaos général. Nombre des Banques centrales ayant pour objectif statutaire le maintien du niveau général des prix (excepté la FED qui précise clairement qu'elle a aussi un objectif de réduction du chômage) tiennent aussi compte de l'état de l'économie dans la conduite de leur politique (Drumetz et Verdelhan (1997) ; Tenou (2002) ; Pollin, 2008 ; Kamgna et al (2009).

    À cause de cette prise en compte explicite ou implicite du niveau de l'activité économique dans la conduite de la politique monétaire, penser une règle automatique pour une Banque centrale serait ignoré certaines réalités pratiques dans la formulation de règle de politique monétaire et donc ne plus être en phase avec l'évolution des politiques monétaires des Banques centrales. Raison pour laquelle dans cette littérature seront considérées uniquement les règles activistes comme celle de Taylor (1993) ou McCallum (1997) et non plus des règles « automatiques » comme l'a pensé Friedman (1960).

    Ces différentes règles ont eu des degrés d'adhésion divers à telle enseigne qu'il s'est développé dans la littérature un grand débat sur les stratégies monétaires notamment entre règles d'instrument et règles de ciblage.

    1.2 Règles d'instrument versus règles d'objectif : questions en débat

    Ce débat a été animé par Svensson (2002, 2005), McCallum et Nelson (2005). Le premier adhérant aux règles de ciblage d'inflation et prônant leur optimalité et flexibilité, les deux derniers défendant bien sûr les règles d'instrument en insistant sur leur simplicité et robustesse. Svensson attaque les règles d'instrument sur quatre plans et ceci amène McCallum et Nelson à réagir défensivement. Le tableau suivant récapitule ces points de divergence.

    Tableau n0 1 : Comparaison de règles

    Règles d'objectifs : Svensson

    Règles d'instrument : McCallum et Nelson

    · Les règles d'instrument ne prennent en compte qu'un nombre limité de variables et laissant certaines sur lesquelles pourrait agir la Banque Centrale d'une économie ouverte (termes de l'échange, taux de change réel etc.).

    · Les règles de revenu nominal offrent un contre-exemple. De plus, les trois variables principales (inflation, output, et taux) suffisent à refléter les conditions monétaires et réelles de l'économie.

    · Un engagement à une règle d'instrument ne laisse pas de place aux jugements et à
    l'information disponible.

    · Les taux effectifs peuvent être au-dessus ou en dessous des valeurs indiquées par la règle chaque fois que la Banque centrale juge les conditions justifiées : il y a donc place au jugement.

    · Elles ne peuvent être améliorées lorsque de nouvelles informations sur les mécanismes de transmission, la variabilité et la nature des chocs sont disponibles.

    · Au contraire, elles peuvent être modifiées mais tout en restant dans la logique de la « perspective atemporelle » au sens de
    Woodford.

    · Les règles d'instrument sont loin d'une description précise de la politique monétaire, et dans la pratique aucune Banque Centrale ne les utilise.

    · Par leur simplicité, les règles d'instrument sont robustes. Quant aux règles d'objectif, aucune Banque centrale ne communique par exemple le poids X accordé à l'output dans la fonction de perte.

    Source : synthèse de l'auteur

    Il est ici question de présenter une littérature sur les règles d'instrument et sur les règles d'objectifs en termes de conduite de la politique monétaire.

    1.2.1 Les règles d'instrument

    Les règles d'instrument ont pour objet de garder l'inflation au taux visé, sans toutefois attiser les fluctuations de la production (Svensson, 1997). Ces règles peuvent être soit implicites, soit explicites, selon qu'elles sont définies avec ou sans les variables anticipées.

    L'activisme monétaire conduit les Banques centrales à rechercher en permanence la stabilité des prix et du niveau d'activité. Deux grandes règles peuvent êtres notées : la règle de McCallum (1987) et celle de Taylor(1993) et ses dérivées.

    1.2.1.1 La règle de McCallum

    Cette règle est aussi appelée règle de revenu nominal. Elle introduit un amendement17(*) à la règle de Friedman et utilise le taux de croissance trimestriel de la base monétaire.

    De cette règle, il vient que la Banque centrale observera une progression constante de la base monétaire (règle de Friedman) lorsque la vitesse de circulation monétaire est constante au cours des 16 derniers trimestres (4 ans) et l'économie sur un sentier d'équilibre18(*). Mais dès qu'il subsiste un écart au niveau de la circulation monétaire et/ou de la production à la suite d'un choc perturbateur, les autorités monétaires réagissent en modulant la croissance monétaire. Si la vitesse de circulation augmente, la Banque réduit la croissance de la base monétaire (et inversement). Par contre si la production se rapproche de son niveau potentiel, le rythme de croissance s'accélère. Il est à remarquer que plus le coefficient de réactivité à l'activité est élevé plus la réaction de la Banque centrale est forte face à un écart de PIB.

    L'un des avantages principaux de cette règle est sa flexibilité. Bordes (1997) précise que cette flexibilité assure à l'autorité des gains d'efficience dans la stabilisation de l'output, et aussi permet d'échapper au risque d'incohérence temporelle.

    Toutefois, la règle de McCallum comporte des inconvénients. En effet, l'instrumentalisation de la base monétaire nécessite un contrôle direct (gestion administrative) de la masse monétaire alors que nombre de Banques centrales sont passées à la gestion indirecte ; ceci ne favorise pas la transmission des impulsions d'une telle règle. La vitesse de circulation ainsi que la demande de la monnaie sont devenues beaucoup instables19(*) depuis les années 80 et selonEstrella et Mishkin (1996), Bordes (1997), les innovations financières de ces années ont rendu difficile la définition même des agrégats monétaires et fragilisent les liaisons entre ceux-ci et l'inflation.

    Même si les changements financiers des années 80 semblaient diluer l'efficacité de la gestion de la politique monétaire par les instruments (notamment les taux d'intérêt), certaines recherches tentaient encore d'en montrer la pertinence pour l'atteinte des objectifs finaux (stabilité des prix et de l'activité). La réflexion de Taylor en est une.

    1.2.1.2 La règle de Taylor et ses limites

    Cette règle approxime la conduite de la politique menée par la Reserve Fédérale (FED) des États-Unis durant la période 1987-1992 sous la houlette d'Allan Greenspan. Selon Taylor, la FED module son taux d'intérêt directeur nominal en fonction du gap du taux d'inflation et de la production par rapport à leurs niveaux cibles (inflation cible et production potentielle).

    La nature de la politique conduite par la FED est alors déterminée par l'écart existant entre le taux effectivement fixé et le taux déduit de la règle. Cette politique sera dite accommodante lorsque le taux effectif est inférieur au taux théorique et restrictive a contrario. La règle de Taylor stipule que la banque centrale doit baisser ses taux directeurs lorsque l'inflation et le niveau d'activité sont bas et les relever dans le cas contraire pour permettre le retour à l'équilibre. Ainsi dans cette logique, cette règle est basée sur le mécanisme traditionnel du canal du taux d'intérêt : une augmentation du taux directeur renchérit les coûts de refinancement des banques secondaires auprès de la Banque centrale ainsi que dans l'interbancaire. Cette situation engendre un relèvement des taux débiteurs offerts aux entreprises et aux ménages, lesquels sont désincités à emprunter sur le marché monétaire. La conséquence finale est que la demande de monnaie se déprime et les tensions inflationnistes s'atténuent sur le marché des biens et services, car les comportements d'investissement et de consommation se réduisent du fait de la hausse du taux d'intérêt réel. Le coût du capital et le coût du crédit à la consommation étant renchéris. Le résultat inverse est obtenu lorsque les taux baissent.

    L'un des avantages de la règle de Taylor est sa clarté et sa simplicité. En effet, sa simplicité d'écriture mathématique lui confère une certaine appropriation par les agents économiques qui peuvent toutefois en juger le respect. Au demeurant, la crédibilité et la transparence de la politique monétaire se renforcent. Aussi selon McCallum(1999), Clarida, Gali&Gertler (1999), McCallum et Nelson (2004), les règles de Taylor ne retenant qu'un nombre limité de variables sont simples d'application et fournissent de performances solides en matière de stabilisation dans des cas de figure variés. Cependant, quelques critiques émanent de la littérature vis-à-vis de la règle Taylor et appellent au développement des « Taylor-type rules».

    Bref, simples soient-elles, les règles d'instruments soulèvent un certain nombre de critiques entre autres le fait de ne tenir compte que d'un trop petit nombre d'indicateurs dans l'orientation des actions monétaires. Aussi, outre la critique de Lucas (1976)20(*), l'économie ne réagit qu'aux variations de l'output ou de l'inflation en suivant des règles de version Backward-Looking. En présence d'autres types de choc, la Banque centrale qui s'appuie sur un tel modèle ne peut pas aboutir à son objectif de stabilité des prix. Ainsi, à la suite de ces critiques, certains auteurs proposent la version Forward-looking.Cette forme de règle fait l'hypothèse que la banque centrale ne dispose pas des données courantes sur les variables lors de ses prévisions. Alors, celle-ci formule son impulsion monétaire en intégrant les valeurs anticipées en vue d'influer les objectifs dans le moyen terme.

    Pour qu'elles soient crédibles c'est-à-dire non inflationnistes et réagissant convenablement aux évolutions de la conjoncture, ces règles devraient être pertinentes et transparentes donc opérationnelles (Pollin, 2002, 2005, 2008). Pour les tenant de la règle d'objectif, l'approche par les objectifs intermédiaires sont qualifiées de sous optimal pour atteindre l'objectif fixé (Tenou, 2002 ; Sirri, 2007 ; Ftiti et Goux, 2011).

    1.2.2. Les règles d'objectif

    Les règles d'objectif ont pour fondement le respect d'un objectif fixé par les autorités monétaires (Rudebusch et Svensson, 1998 ; Svensson, 2005). La littérature économique distingue deux types de concepts : la variable-objectif et le niveau-objectif anticipé (sur la base des informations pertinentes disponibles) de ladite variable. Une règle d'objectif vise alors à minimiser, dans une fonction de perte, l'écart entre le niveau anticipé de la variable cible et le niveau-objectif de ladite variable (Svensson, 2005). L'objectif ultime étant le contrôle de l'inflation.

    L'une des règles d'objectif qui a suscité une abondante littérature ces dernières années est la règle de ciblage du taux d'inflation. Ainsi, depuis le début des années 90, plusieurs Banques centrales21(*) ont explicitement opté pour un objectif d'inflation22(*) (Siklos, 1999, Svensson, 2010).

    Les promoteurs de la règle d'objectif montrent que la Banque centrale ne cible pas les variables intermédiaires, mais elle doit agir directement sur l'objectif d'inflation. À cet effet, faute d'un consensus sur un canal de transmission prédominant à travers lequel la politique monétaire opère au sein de l'économie, c'est la prévision de l'inflation23(*) qui tient lien d'objectif intermédiaire. La Banque centrale doit donc veiller à l'évolution d'un certain nombre d'indicateurs reconnus comme étant aptes à prévoir l'inflation pour parvenir à contrecarrer les tensions inflationnistes avant qu'elles ne se concrétisent. L'intervention de la Banque centrale sur le marché monétaire vise dans ce cas à ramener le taux d'inflation anticipé proche de l'inflation ciblée (Svensson, 1997 ; Gregory, 2003 ; Agenor, 2008).

    La définition de la règle d'objectif d'inflation se résume à deux conditions (Rudebusch et Svensson, 1998). La première est que la cible d'inflation doit être quantifiée. C'est soit un point bien déterminé (cible d'inflation ponctuelle) comme dans la règle de Taylor, soit un intervalle de points (intervalle de tolérance ou fourchette cible). La seconde est que les Autorités monétaires doivent pouvoir estimer le niveau futur du taux d'inflation sur la base d'informations internes et conditionnelles. Ce niveau prévisionnel du taux d'inflation représente la cible intermédiaire.

    La principale caractéristique d'un régime de ciblage d'inflation est le degré élevé de transparence et de responsabilité. En effet, les banques centrales ayant adopté un objectif d'inflation sont tenues de publier des relevés d'inflation et d'expliquer leur politique. Cette transparence représente en elle-même un engagement à minimiser la fonction de perte.

    Lorsque l'objectif d'inflation est le seul objectif de la Banque centrale, il s'agit d'un régime strict de ciblage d'inflation. Par contre, si la Banque Centrale poursuit d'autres objectifs tels que la stabilisation de la production ou du taux d'intérêt, il s'agit d'un régime flexible de ciblage d'inflation. Dans ce dernier cas, la politique monétaire est moins activiste, dans le sens où les instruments sont faiblement ajustés par rapport à un choc donné, et le niveau d'inflation s'ajuste progressivement au niveau objectif ou cible de l'inflation. Il en résulte que l'horizon de l'ajustement du niveau de l'inflation à la cible est plus long.

    Dans un régime flexible de ciblage d'inflation, il y a asymétrie entre l'inflation et la production dans la fonction de perte. En effet, pour l'inflation, il s'agit à la fois d'un objectif de niveau (la cible fixée) et de stabilité (écart entre le niveau anticipé de la variable cible et l'objectif fixé de ladite variable). Mais pour la production, on ne retient que l'objectif de stabilité.

    En effet, cette approche est formalisée selon l'expression de Bernanke et Mishkin (1997) comme un cadre de « discrétion contrainte »24(*). Il s'agit de fixer des objectifs et une pondération précise de ces objectifs (donc une fonction de perte à minimiser) aux autorités monétaires, tout en leur laissant la latitude d'utiliser toutes les informations qu'elles jugent pertinentes pour connaître l'orientation des anticipations des agents et pouvoir ainsi décider de l'orientation future de la politique monétaire (Bernake et al., 1999 ; Pollin, 2005, 2008). Ces informations comportent plusieurs indicateurs, financiers et réels, susceptibles de rendre compte des origines multiples de l'inflation et d'éclairer les autorités monétaires sur l'évolution future de l'inflation (Cecchetti, et al., 2000 ; Payelle et al., 2001 ; Mishkin, 2004 ; Brand, 2008 ; Diane, 2011).

    Par ailleurs, dans cette nouvelle formulation, la recherche est portée sur les indicateurs qui peuvent bien anticiper l'inflation, alors que dans le cas des objectifs intermédiaires la variable doit avoir une relation structurelle causale avec l'inflation. C'est le pouvoir de prédiction et le fait de ne pas être directement sensibles aux manipulations des instruments, et non plus la relation de causalité structurelle, qui devient la caractéristique la plus importante (Allegret et Goux, 2003 ; Layouni, 2007).

    Dès lors, la pertinence d'un indicateur est jugée à partir de son pouvoir de prédiction qui détermine la qualité du signal et l'information qu'il peut renvoyer. Ce pouvoir de prédiction est d'autant plus précieux qu'il est avancé dans le temps. À cet effet, l'idéal serait que cette avance dans le temps correspond aux délais de transmission des actions de la politique monétaire jusqu'à l'objectif final pour que la Banque centrale ait le temps de l'exploiter pleinement et surtout de réagir (Allegret, 1999).

    Dans cette approche, la réputation, la crédibilité et l'engagement de la Banque centrale à maintenir l'inflation à un niveau bas, stable et prévisible lui accorde le privilège d'une discrétion qui lui permet de concilier entre la poursuite de la stabilité des prix à long terme et la stabilisation du PIB réel à court terme. Par ailleurs, dans un environnement caractérisé par une hétérogénéité de l'information (Morris et Shin, 2002), source de la non neutralité de la monnaie, la politique monétaire ne doit pas seulement reposer sur ses actions, mais la priorité à la communication est essentiel pour aider les entreprise et les ménages à mieux prédire ses interventions futures ; ce qui permet de réduire l'incertitude (Croce et al., 2000 ; Baeriswil et Cornand, 2008 ; Cateau et Murchison, 2010).

    Comme stratégie de moyen et long terme pour la politique monétaire, le ciblage d'inflation présente un certain nombre d'avantages et d'inconvénients.

    En effet, l'un des principaux avantages en faveur de la cible d'inflation est que celle-ci accroît la confiance des agents économiques dans la stabilité des prix futurs. Elle contourne en outre le lien incertain établi entre la croissance monétaire et l'inflation et évite par conséquent le problème d'instabilité des fonctions de demande de monnaie lié au ciblage d'agrégat monétaire. Elle est plus proche de l'objectif final et accorde une grande importance à la transparence de la prise de décision et à la communication régulière avec les agents privés. Ce régime permet éventuellement de réagir face à des chocs macroéconomiques imprévus, de manière plus flexible (Lecarpentier-Moyal et al., 2001 ; Mishkin, 2007 ; Stuckey, 2011).

    Le principal inconvénient de cette politique réside dans la longueur des délais existant dans la transmission des effets de la politique monétaire, il faut attendre longtemps pour voir les conséquences de la manipulation du taux directeur sur l'inflation. Dans ces conditions, les agents privés ne perçoivent pas les effets immédiats de la politique monétaire alors que les signaux établis par les agrégats monétaires, les prix des actifs ou les objectifs de change sont immédiatement transmise au marché. De plus, des facteurs exogènes à la politique monétaire peuvent intervenir pendant l'intervalle de temps nécessaire à l'action de cette dernière, remettant en cause les résultats escomptés de la politique monétaire et sa crédibilité. L'inflation observée peut s'écarter de l'inflation anticipée en raison des chocs affectant le niveau général des prix (Lecarpentier-Moyal et al., 2001 ; Mishkin, 2007 ; Bousrih, 2011).

    Dans cette configuration, le prix courant des actions peut contenir une information supplémentaire sur l'inflation future, soit parce qu'il reflète les anticipations du marché, relatives aux évolutions économiques, soit en raison de son incidence sur les évolutions économiques. Ce qui conduit à une dynamique déstabilisante de l'économie débouchant sur d'amples fluctuations des prix d'actifs.La crise financière de 2007-2009 a remis en question le comportement que doit adopter la Banque centrale pour limiter les fluctuations des prix des actifs, qui exercent des effets aussi bien sur les activités de production que sur le système économique dans son ensemble.D'où l'intérêt de la construction d'une règle d'objectif spécifique intégrant l'objectif de stabilisation des prix des actifs (Goodhart et Hofmann, Durré, 2001 ; 2001 ; Myftari et Rossi, 2010 ; EngoneMvé, 2013).

    Après cette présentation des règles d'instrument et de ciblage, nous pouvons conclure que de façon générale, dans un modèle donné, une règle d'objectif fait appel à une règle d'instrument, cette dernière étant implicite (Huchet, 2003 ; Pollin, 2008). Ainsi, au lieu de travailler sur des règles de ciblage qui dans leur application posent le problème de transparence et de responsabilité de la part des autorités monétaires, il est préférable de retenir des règles d'instruments. Surtout que, la Banque centrale ne retient comme instrument, des éléments qu'elle manipule plus ou moins directement sur une base journalière ou hebdomadaire dans leur tentative d'atteinte des cibles spécifiées (McCallum, 1997).

    Les règles d'instruments sont préférées aux règles de ciblage d'autant plus qu'une règle fait appel à l'autre même de manière implicite.

    En résumé, les règles activistes d'instrument permettent une meilleure représentation du comportement des Banques centrales. Cependant, ces règles sont formulées à partir d'une fonction de perte et ont un caractère particulier qui nous montrons dans la seconde articulation de cette section.

    Ainsi, après ces débats, il convient à présent de statuer sur les caractéristiques propres à la formulation d'une règle monétaire.

    Section 2 : Les caractéristiques propres à la formulation

    Il est question ici de présenter le caractère simple et systématique d'une règle (1), les critères de choix de la variable instrument (2) et enfin la manière dont est spécifiée la règle à partir de la fonction de perte (3).

    2.1 Caractère simple et systématique d'une règle

    Il est sus montré que le souci de crédibilité des Banques centrales a conduit l'ensemble des Banques centrales à axer leurs politiques monétaires sur des règles monétaires tout en délaissant l'optique de la discrétion monétaire. C'est donc cette recherche de crédibilité auprès des agents économiques qui nous permet de marquer un temps d'arrêt sur le caractère systématique et simple d'une règle de politique monétaire.

    En effet, la règle de politique économique de manière générale et de politique monétaire particulièrement doit être systématique c'est-à-dire identique de période en période. D'où la nécessité de la prise en compte de la dimension temps. En plus du caractère systématique, elle doit aussi être simple afin d'être compréhensible par l'ensemble des agents économiques (Pollin, 2002).

    Pour ce qui est du caractère systématique, il est très avantageux qu'une règle monétaire revête ce caractère pour au moins trois raisons (Pollin, 2005, 2008). D'abord, l'engagement préalable des autorités monétaires même si cet engagement revêt la forme d'un comportement conditionnel. Ensuite, il est impossible pour les autorités monétaires lorsqu'une règle est systématique d'opérer des optimisations de période en période. Enfin, la transparence et la crédibilité de l'institution se trouve accrues dans la mesure où les public ne pourra pas croire (ou pourra croire) que la Banque centrale suivra la même règle d'une période sur l'autre si cette dernière ne laisse rien (laisse cela) transparaître sur la politique qu'elle aura choisie d'adopter.

    Le constat est que le caractère systématique d'une règle entame la crédibilité et la transparence de la Banque centrale auprès des agents économiques et donc elle doit s'atteler à intégrer cette caractéristique dans la formulation de sa règle monétaire. Cependant, il y a aussi une autre caractéristique qui, tout comme la précédente peut mettre en péril la transparence de la politique monétaire. Il s'agit ici de la simplicité de la formulation de la règle monétaire.

    Pour Artus (1998), la transparence de la règle dépend au premier chef de la facilité avec laquelle le public peut évaluer le caractère sincère des efforts déployés par la Banque centrale pour atteindre ses objectifs. Aussi, Artus, Penot et Pollin (1999) précisent que pour être communiquée et contrôlée sans trop de difficultés, une règle monétaire se doit d'être suffisamment simple c'est-à-dire facilement compréhensible par les agents économiques.

    Ces raisons expliquent pourquoi malgré les nombreuses critiques économétriques faites à la formulation de Taylor (1993) à l'exemple de celles de Drumetz et Verdelhan (1997) ; Auray et Fève (2003), la règle de Taylor suscite toujours assez d'engouement auprès des économistes de politiques monétaires et mêmes auprès des Banques centrales.

    Le caractère systématique et la simplicité d'une règle monétaire s'imposent en raison de la crédibilité et la transparence qu'ils accordent aux autorités monétaires. Surtout que ces deux aspects sont déterminants dans l'atteinte des objectifs de la politique monétaire.

    L'importance et la nécessité du caractère systématique ainsi que de la simplicité d'une règle étant démontrés, il est opportun de présenter, sans ambages, ce sur quoi une Banque centrale s'appuie pour choisir son instrument.

    2.2. Critère de choix de la variable instrument

    Il est question ici de définir tout d'abord ce qu'est un instrument de politique monétaire et ensuite nous mettons en exergue quelques critères de sélection de la variable instrument. Cette partie nous permet de comprendre pourquoi une Banque centrale préfère retenir telle instrument au lieu de telle autre.

    2.2.1. Définition

    Plusieurs auteurs ont défini ce qu'est une variable instrument. Cependant la définition qui retient l'attention est celle de McCallum (1997). Pour lui, les variables instruments sont des éléments que les Banques centrales manipulent plus ou moins directement sur une base journalière ou hebdomadaire dans leur tentative d'atteindre des cibles spécifiées.

    Ainsi après avoir compris ce qu'est une variable instrument, il est donc intéressant d'apporter quelques précisions sur les critères de choix des instruments.

    2.2.2. Critères de sélection de la variable instrument

    Trois critères de sélection peuvent être avancés selon la littérature économique (Pollin, 2008). D'abord, la variable retenue doit être proche du champ d'action directe des instruments de politique monétaire. Ensuite, la fréquence de son observation, c'est-à-dire la disponibilité de données fiables, doit être supérieure à celle des objectifs finals. Enfin, il faut qu'elle soit solidement reliée aux objectifs finals de politique par des relations statistiques stables, permettant aux autorités de connaître les répercussions d'un changement de cible sur les objectifs finals.

    Ces critères donnent lieu à des arbitrages (McCallum, 1997). Par exemple, des agrégats monétaires larges (M2, M3 voire M4) ou des agrégats de crédit satisfont mieux au troisième critère, tandis que la masse monétaire (M1) au sens étroit répond mieux aux deux premiers critères. Il convient alors de sélectionner la variable qui peut au mieux stabiliser les variables objectifs finals de politique, en filtrant efficacement l'impact des chocs aléatoires qui affectent l'économie. Ainsi, par rapport à un objectif de stabilisation du revenu réel, le contrôle de la masse monétaire assure une meilleure protection face aux chocs d'origine réelle. En revanche, le contrôle du taux d'intérêt filtre plus efficacement les perturbations d'origine monétaire.

    Si les perturbations d'origine réelle sont prédominantes, le contrôle de la masse monétaire représente une solution efficace. Le taux d'intérêt devient par contre une cible intermédiaire d'autant plus fiable que les chocs monétaires sont importants. La conjoncture économique des années 60 et 70 était caractérisée par des chocs réels relativement plus importants que les chocs monétaires. Elle était donc plus favorable à l'emploi de la masse monétaire comme cible intermédiaire de politique. Cette situation semble, cependant, avoir changé pendant les années 80 marquées par des chocs monétaires beaucoup plus importants. Ces chocs sont liés au processus de dérèglementation et d'innovations financières qui ont, dans plusieurs pays, fondamentalement altéré les comportements en matière de demande de monnaie.

    Bien qu'un certain nombre substantiel d'économistes académiques ait favorisé l'utilisation de l'instrument base monétaire ou un agrégat de réserve, presque toutes les Banques centrales actuelles utilisent un taux d'intérêt à court terme (Black, Macklem, Rose, 1997 ; Taylor, 1999 ; Couppey-Soubeyran et alii., 2014, 2015). Ce qui apparait conforme aux caractéristiques réelles de la politique monétaire moderne. L'instrument privilégié par les Banques centrales des pays industrialisés est un taux d'intérêt à court terme. Cette idée va à l'encontre de celle de Sargent et Wallace (1979) qui estiment que le niveau des prix de l'économie serait indéterminé si la Banque centrale devait utiliser un taux d'intérêt comme instrument. D'ailleurs, pour eux, il n'y a pas de règle s'appuyant sur un taux d'intérêt avec un niveau des prix déterminé. Pour Poole (1970), la masse monétaire est préférable en tant qu'instrument si la demande de monnaie est relativement stable ou si les chocs sur la demande de monnaie sont positivement corrélés avec ceux de la demande de biens. Friedman (1975) considère cette comparaison comme étant fauchée si l'on considère le taux d'intérêt et la masse monétaire comme des instruments directs de la politique monétaire.

    À cette approbation de la masse monétaire comme étant le meilleur instrument de la politique monétaire s'oppose des auteurs comme Goodhart (1994) qui penche pour le taux d'intérêt. Il affirme que si la Banque centrale essaie d'avoir un système de contrôle de la base monétaire, elle échouera car cela lui est impossible. Aussi, l'emploi de la base monétaire comme instrument entrainerait plus de variabilité du taux d'intérêt à court terme et les institutions financières avec lesquelles travaillent les Banques centrales n'apprécient pas cette variabilité du taux d'intérêt. Pour McCallum (1997), deux raisons conduisent les Banques centrales à retenir le taux d'intérêt comme instrument de la politique monétaire. Ainsi, la première raison est d'avoir des croyances concernant la possible instabilité de l'instrument et la seconde raison est le rôle de prêteur en dernier ressort que joue la Banque centrale et qui lui permet de prévenir des crises financières qui impliquent une large hausse de la demande de base monétaire. Pour Creel et Sterdyniak (1999), l'agrégat monétaire n'a plus de poids du fait des innovations financières qui font perdre tout sens à un objectif en termes d'agrégat monétaire. On note donc une disparition de la transparence et de la contrôlabilité de la politique monétaire (cas de l'Allemagne avec le contrôle de M3 par la Bundesbank).

    Il convient donc de conclure avec Taylor (1999) qu'utiliser une règle s'appuyant sur un taux d'intérêt n'élimine pas le concept d'offre et de demande de monnaie ; elle rend tout simplement la monnaie endogène. Pour Taylor, la connexion entre les règles d'offre de monnaies et des règles de taux peut être utile. En période d'inflation très élevée ou négative, les règles de taux d'intérêt perdent de leur utilité parce que les anticipations d'inflation changent et sont difficiles à mesurer.

    Ces critères ont permis de comprendre pourquoi le taux d'intérêt est un instrument privilégié des Banques centrales. Ainsi, il sera par la suite présenter la fonction de perte de la Banque centrale.

    2.2.3. Spécification de la règle à base de l'optimisation de la fonction de perte

    La fonction de réaction définit le lien qui existe entre l'instrument de la politique monétaire et ses différents objectifs final et intermédiaire (Huchet, 2003). Elle représente donc la solution du problème de minimisation d'une fonction de perte par rapport aux instruments de politique économique. En d'autres termes la fonction de perte est une fonction qui met en relation les variables objectifs et les variables instruments en vue de déterminer la perte de la Banque centrale. Étant donné que le comportement d'une Banque centrale basé sur une règle a été retenu, il sera analysé uniquement la fonction de réaction allant dans ce sens et le cas des politiques discrétionnaires sera abandonné.

    Cependant, la dynamique de la déflation par les prix en oeuvre durant la récente crise financière (2007-2009) a nécessité la mise en place de taux d'intérêt nominaux négatifs pour relever les anticipations d'inflation et contrecarrer les effets récessifs de la crise (Eggerstsson, 2008 ; Romer et Christina, 2013). Dans une telle situation, la politique monétaire se révèle inefficace face aux pressions déflationnistes puisque le taux d'intérêt directeur est contraint par la borne zéro (Krugman et Eggertsson, 2011). Ce qui conduit à une hausse des anticipations d'inflation. En période d'inflation très élevée ou négative, les règles de taux d'intérêt perdent de leur utilité parce que les anticipations d'inflation changent et sont difficiles à mesurer. D'où la nécessité d'une règle monétaire spécifique à même d'orienter les anticipations d'inflation dans un sens souhaitable afin de garantir l'efficacité de la politique monétaire.

    Chapitre 4 : L'adoption d'une règle monétaire spécifique

    Les anticipations de la trajectoire complète du taux directeur par le secteur privé sont ce qui importe pour l'économie. Ces attentes se répercutent sur les taux d'intérêt à long terme et les prix des actifs, lesquels influencent à leur tour les décisions des agents privés. En ce sens, la politique monétaire est plus efficace quand elle est prévisible, dans la mesure où, les marchés financiers étant mieux renseignés sur les actions et les intentions de la Banque centrale, des modifications beaucoup moins substantielles du taux directeur seront nécessaires pour obtenir les résultats voulus si les taux anticipés évoluent de pair (Pollin, 2005 ; Gosselin, 2008 ; Woodford, 2005, 2011, 2012).

    À cet effet, il convient de présenter une règle d'objectif spécifique qui intègre les prix des actifs dans la fonction de réaction de la Banque centrale. Après avoir présenté la règle d'objectif spécifique, il sera opportun de présenter le débat qu'elle soulève en termes de conduite de la politique monétaire.

    Section 1 : La règle d'objectif spécifique

    Il s'agit d'élaborer une fonction de perte de la règle de la politique monétaire qui vise aussi bien la stabilité des prix que la stabilité financière (Woodford, 2011, 2012 ; Couppey-Soubeyran et alii., 2015). L'objectif étant la mise en place d'une politique monétaire cohérente avec les anticipations des acteurs du marché financier.

    Dans ce cas de figure, la fonction de réaction de la Banque centrale prendrait la forme d'une règle de Taylor augmentée des prix des actifs. Cela signifie que la politique monétaire s'intéresse seulement aux déviations des prix des actifs par rapport aux valeurs fondamentales de ces mêmes actifs (Morris et Shin, 2002). Cela suppose donc que la Banque centrale soit toujours en mesure de connaître ces valeurs fondamentales, ce qui est assurément une hypothèse très forte. Sur la base de cette hypothèse, il apparait opportun d'adapter la réaction de l'autorité monétaire à la nature des chocs à l'origine d'une fluctuation des prix des actifs (Cecchetti et al., 2000 ; Borio et White, 2004 ; White, 2009 ; Christiano et al., 2010 ; Agénor et Da Silva, 2013).

    L'efficacité des interventions de la Banque centrale face aux différents chocs sera fonction du poids relatif accordé à chaque objectif dans la fonction de réaction. Si le poids attribué à l'objectif de stabilité financière est élevé, la variation du taux d'intérêt suite à un choc d'offre (choc de demande) sera élevé (plus faible). La règle spécifiée à cet effet, permet de mieux déterminer le comportement des autorités monétaires25(*).

    Cependant, une transparence accrue de cette règle ne conduit cependant pas toujours à un bien-être plus élevé. Selon Morris et Shin (2002), lorsque le niveau de la production potentielle ou la valeur fondamentale des actifs est très incertain et qu'il est peu probable que la banque centrale soit mieux informée que le secteur privé, la divulgation du niveau estimé de cette variable risque d'amener les acteurs des marchés financiers à ne pas tenir compte de leurs propres sources d'information et à agir plutôt en fonction de la valeur estimative annoncée (même si celle-ci est entachée de bruit), ce qui accentuera la volatilité.

    De même, Geraats (2007) démontre, au moyen d'un modèle intégrant des degrés de transparence réelle et perçue qui peuvent différer, que les marchés financiers réagissent plus prudemment aux communications de la Banque centrale s'ils perçoivent de l'opacité chez celle-ci, une attitude qui est de nature à atténuer la volatilité des attentes du secteur privé.

    Cukierman (2005) énumère des situations où un niveau de transparence intermédiaire serait probablement optimal. Par exemple, il pourrait être contre-productif pour une Banque centrale de publier des indications précoces sur les difficultés potentielles de certains segments du système financier. La nouvelle pourrait provoquer une ruée vers les banques ou d'autres réactions imprévisibles qui forceraient la Banque centrale à prendre des mesures plus expansionnistes qu'elle ne l'aurait fait si elle s'était temporairement abstenue de publier l'information. Il peut aussi être très important de préserver la confidentialité des discussions du comité de politique monétaire lorsque des désaccords existent parmi ses membres.

    Mishkin (2004) affirme que le dévoilement de la fonction objectif de la Banque centrale est susceptible de compliquer le processus de communication et d'affaiblir l'appui donné à l'institution dans la poursuite de ses objectifs à long terme. Enfin, l'accroissement de la transparence est dans certains cas impossible. Comme Macklem (2005) le souligne, une règle dépendant entièrement de l'état de l'économie est d'une complexité telle qu'aucune banque centrale n'acceptera de la déterminer ou de la communiquer de sitôt26(*).

    Il apparait donc primordial de rechercher le juste équilibre entre opacité et transparence, caractérisant une position intermédiaire de transparence capable à même d'être en conformité avec la critique de Lucas (1976). Cette transparence d'équilibre décline un niveau de communication permettant à la politique monétaire d'atteindre aussi bien les stabilités d'inflation et financière en cohérence avec les anticipations des agents privés.

    L'adoption de cette règle relance le débat quant à l'orientation stratégique « clean » versus « lean » de la politique monétaire en présence de la politique macroprudentielle (PMP) qui sera mis en revue dans la sous-section suivante.

    Section 2 : « Clean » versus « lean »

    Si l'on tient pour acquise l'hypothèse, aujourd'hui largement partagée dans la littérature (Beau et al., 2011), qu'une politique macroprudentielle est désormais indispensable au maintien de la stabilité financière, alors un policy-mix des politiques monétaire et macroprudentielle devient nécessaire. Deux conceptions polaires de ce policy-mix sont envisageables : policy-mix intégré et policy-mix séparée. Celles-ci relancent le débat quant à l'orientation stratégique « clean » versus « lean » de la politique monétaire en présence de la PMP.

    Celle selon laquelle le taux d'intérêt pourrait agir en priorité sur la stabilité monétaire mais agir aussi en temps voulu sur la stabilité financière en complément des instruments macroprudentiels relève d'une approche « intégrée » du policy-mix entre politique monétaire et PMP selon une terminologie introduite par Kremers et Schoenmaker (2010) et popularisée par Blanchard (2012) et le FMI (2013a). Dans cette approche, la stabilité monétaire et la stabilité financière sont « intégrées » dans une règle de Taylor « augmentée ». La politique monétaire est orientée « lean » pour soutenir l'instrument macroprudentiel» (Cecchetti et al., 2000 ; Borio et White, 2004 ; White, 2009). Le taux d'intérêt et l'instrument macroprudentiel sont alors supposés complémentaires (Blanchard, 2012).

    Les promoteurs de ce policy-mix soulignent qu'une règle de Taylor standard accentue les risques financiers via le « canal de la prise de risque » (Borio et Lowe, 2002). Ils soulignent aussi les limites du macroprudentiel (Mishkin, 2011) et l'intérêt d'y associer une règle de Taylor augmentée à un taux d'intérêt ajusté en fonction des tensions financières (Carré et alii., 2015). La Banque centrale peut en effet faire preuve d'une transparence approfondie en annonçant les initiatives prises, les cibles visées, les mécanismes de transmission attendus ainsi que le délai sur lequel s'étendent les mesures prises (L'oeillet et Roudaut, 2012).

    À l'opposé de cette approche intégrée, l'approche « séparée » (Kremers et Schoenmaker, 2010 ; Svensson, 2010) ou « découplée » (Stein, 2013) n'envisage pas que le taux d'intérêt puisse répondre à quelque moment que ce soit à la stabilité financière. Pour les défenseurs de ce policy-mix, prônant une transparence accrue, l'extension de la règle de Taylor standard à une cible financière permettant de faire réagir le taux directeur aux tensions financières, peut réduire la transparence dans la mesure où il peut y avoir un conflit d'objectif entre stabilité des prix et stabilité financière selon le banquier central (Goodhart et Schoenmaker, 1995 ; Goodhard, 2013). Sur la base d'une lecture stricte à la fois du principe de séparation, de la règle de Tinbergen27(*) et du principe de Mundell28(*), l'approche séparée préconise d'affecter la politique monétaire tout entière à la stabilité monétaire et la PMP tout entière à la stabilité financière (Goodhart, 2010). La politique monétaire est orientée « clean », consistant à ignorer la bulle en formation excepté dans le cas où elle fait augmenter l'inflation ou les anticipations en la matière (White, 2009). Le taux d'intérêt et l'instrument macroprudentiel sont alors supposés substituables.

    Pour les défenseurs du policy-mix séparé, en l'absence de règle uniforme et clairement établie, la politique macroprudentielle est davantage exposée à des problèmes d'incohérence temporelle, ce qui peut aussi affecter la crédibilité des Banques centrales et, par suite, l'efficacité de leur politique monétaire (Ueda et Valencia, 2012).

    La mise en oeuvre concrète de la PMP sur le plan opérationnel prendra néanmoins du temps. Précisément parce que la stabilité financière est un concept multidimentionnel29(*). La Banque Centrale Européenne (2013) définie la stabilité financière comme une « situation dans laquelle le système financier, qui recouvre les intermédiaires financiers, les marchés et les infrastructures de marché, est capable de faire face aux chocs et à une correction brutale des déséquilibres financiers, réduisant ainsi la probabilité qu'apparaissent, dans le processus d'intermédiation financière, des perturbations suffisamment graves pour compromettre sérieusement l'allocation de l'épargne à des projets d'investissement rentables ». Mais c'est aussi la raison pour laquelle il n'existe pas encore de consensus dans la littérature autour de la définition de la stabilité financière (Borio et Drehmann, 2009).

    À la différence de la stabilité monétaire que les Banques centrales comme la communauté académique ont convenu de réduire à une cible d'inflation et donc à « un chiffre », sinon une fourchette, la stabilité financière de par sa nature multidimensionnelle se prêtera difficilement à ce type de réduction. Du moins, chaque autorité qui en aura la charge à un niveau global devra-t-elle préciser la (les) dimension(s) qu'elle entend privilégier : la stabilité du crédit pour les unes, celle des prix d'actifs pour les autres, etc.

    Cette deuxième partie a permis de saisir les règles d'instrument, de ciblage, automatiques et activistes, que les règles activistes d'instrument sont les mieux adaptées pour la représentation des fonctions de réaction des Banques centrales. Aussi, la littérature a démontré qu'une règle pour accroître la transparence et la crédibilité des autorités monétaire vis-à-vis des agents économiques, doit être simple et systématique. Et surtout que sa formulation découle de la minimisation d'une fonction de perte de la Banque centrale. Cette fonction de perte met en relation l'instrument de la Banque centrale (qui est choisi selon des critères bien définis) et les autres variables entrant en jeu dans la construction de la fonction de réaction.

    Dans le processus de recherche de la meilleure politique monétaire par les Banques centrales, il ressort que la discrétion monétaire entraine un biais inflationniste qui entame sa réputation auprès des agents économiques. Le coût positif entrainé par cette discrétion monétaire (la perte de transparence et de crédibilité des autorités monétaires) va persuader les économistes de l'abandon d'une telle politique au profit de l'observation des règles monétaires. Cette adoption des règles monétaires comme mode de conduite de la politique monétaire va ouvrir le débat sur le type de règle devant être observé par les autorités monétaires. Ainsi, Friedman proposera une règle « automatique » qui ne fera pas l'unanimité car considérée comme insuffisante et ne prenant pas en compte le niveau de l'activité économique ainsi que celui de l'inflation. Des auteurs ont démontré qu'ainsi formulée, cette règle risque d'entrainer une énorme variabilité de la production. D'où l'adoption des règles « activistes » qui sont plus dynamiques car intégrant le niveau de l'activité économique. Cependant, il reste le débat sur les règles d'instrument et de ciblage. En conclusion à ce débat, il a été arrêté que les règles d'objectif font appel à des règles d'instrument et ceci de façon implicite (Pollin, 2008). D'où l'adoption des règles d'instrument surtout que celle de ciblage posent un problème de transparence et de responsabilité de la part des autorités monétaires. Donc la règle que nous retenons comme étant la mieux adaptée à la représentation du comportement d'une Banque centrale est une règle « activiste » d'instrument d'autant plus que les règles « activistes » sont généralement des règles d'instrument. Aussi, ce chapitre nous a permis de comprendre que la spécification fonctionnelle d'une règle monétaire passe par un programme d'optimisation d'une fonction de perte de la Banque centrale. La solution de cette optimisation permet d'obtenir une relation entre la variable instrument et les variables de la fonction de réaction de la Banque centrale. Pour qu'une variable soit choisie comme instrument, elle doit remplir des critères bien précis. Ce chapitre nous permet de conclure que ce ne sont pas toutes les règles formulées par les économistes qui sont capables de reproduire le comportement de la Banque centrale en termes de conduite de la politique monétaire. Aussi, en raison du caractère simple et systématique de la règle de Taylor (1993) et de sa prise en compte du niveau de l'activité, elle est la plus testée dans le cadre des études portant sur les fonctions de réactions des banques centrales. Pour cela, notre deuxième section a montré la pertinence de la règle de Taylor augmentée des prix d'actifs pour ce qui est d'une Banque centrale.

    Il apparait donc nécessaire du choix d'une règle monétaire optimale qui reflète le juste équilibre entre opacité et transparence caractérisant une position intermédiaire de transparence qui décline un niveau de communication permettant à la politique monétaire d'atteindre aussi bien les stabilités d'inflation et financière en cohérence avec les anticipations des agents privés.

    Conclusion générale

    Il était question de vérifier, sur la base d'une littérature théorique, si la transparence optimale peut permettre à la politique monétaire d'atteindre l'objectif d'inflation en cohérence avec les anticipations des agents privés. La réflexion menée qui visait à définir une mesure de transparence d'équilibre, révèle les bénéfices associés à celle-ci et les implications en termes de conduite de la politique monétaire.

    La littérature économique a montré que la transparence optimale exerce des effets économiques doubles. La restauration de la crédibilité qui engage la Banque centrale sur la poursuite d'une inflation faible et l'effet d'information permettant d'ancrer efficacement les anticipations des agents économiques privés et en retour a des effets sur la dynamique macroéconomique. L'ancrage des anticipations des agents privés par la Banque centrale va donc contribuer à réduire efficacement l'incohérence temporelle dont souffrirait la politique monétaire.

    En termes de conduite de la politique monétaire, la transparence d'équilibre recommande, à la Banque centrale, l'utilisation d'une règle d'objectif spécifique dont un niveau ambigüe de communication permet à la politique monétaire d'atteindre simultanément les stabilités d'inflation et financière en cohérence avec les anticipations des agents privés.

    Ainsi, la définition d'une mesure de transparence d'équilibre en dehors des solutions de coins (opacité totale ou transparence pure) apparait théoriquement possible si la Banque centrale divulgue des informations privilégiées (informations certaines) capable d'ancrer efficacement les anticipations des agents économiques privés et prend en compte les fluctuations des prix d'actifs dans une règle de Taylor augmentée des prix d'actifs ainsi que l'importance du canal des anticipations afin de se conformer à la critique de Lucas (1976)30(*). En effet, cette position est formalisée selon l'expression de Bernanke et Mishkin (1997) comme un cadre de « discrétion contrainte ». Il s'agit donc de fixer des objectifs et une pondération précise de ces objectifs (donc une fonction de perte à minimiser) aux autorités monétaires, tout en leur laissant la latitude d'utiliser toutes les informations qu'elles jugent pertinentes pour connaître l'orientation des anticipations des agents et pouvoir ainsi décider de l'orientation future de la politique monétaire. Ces informations comportent plusieurs indicateurs, financiers et réels, susceptibles de rendre compte des origines multiples de l'inflation et d'éclairer les autorités monétaires sur l'évolution future de l'inflation.

    Il reste que, dans un environnement globalisé, chaque Banque centrale doit fonder le choix de la transparence optimale sur certaines préoccupations qui apparaissent aujourd'hui essentielles : réponse aux chocs asymétriques qui frappent l'économie, la stabilité des prix d'actifs pour lutter contre les bulles. À cet égard, une nouvelle doctrine monétaire, combinant stabilité financière et stabilité des prix doit inéluctablement remplacer l'obsession exclusive pour la stabilité des prix, car la dernière crise économique et financière (2007-2009) a battu en brèche l'idée selon laquelle la stabilité des prix entraine nécessairement la stabilité financière.

    · Agénor P., Pereira Da Silva, L. (2013), « Inflation targeting and financialstability: A perspective from the developing world », Banco Central do Brasil, WorkingPapers No. 324.

    · Artus, P. (1998), « Quel objectif pour une Banque Centrale? », Revue Économique, 49 (3), p. 643-653.

    · Artus, P., Penot, A., Ollin, J.P. (1999), « Quelle règle monétaire pour la Banque Centrale Européenne ? », Revue d'Économie Politique, 109, p.309-374.

    · Awana C. (2013), « Politique monétaire et incertitude dans la CEMAC », Revue d'Économie Appliquée, vol.1, n°1, janvier-juin, p.201-221.

    · Awana C. (2013), « Taux d'inflation d'équilibre », Revue d'Économie Appliquée, vol.1, n°2, juillet-décembre, p.167-190.

    · Barro, R. & Gordon, D. (1983a), «A positive theory of monetary policy in a natural rate model», Journal of Political Economy 91(4), 589-610.

    · Barro, R. & Gordon, D. (1983b), «Rules, Discretion and Reputation in a Model of Monetary Policy», Journal of Monetary Economics 12(1), 101-121.

    · Bernanke, B. &Mishkin, F. (1997), «Inflation Targeting : A New Framework for Monetary Policy ?», Journal of Economic Perspectives 11(2), 97 - 116.

    · Bernanke, B. (2004a), «Central Bank Talk and Monetary Policy», Remarks at the Japan Society corporate luncheon, New York, October 7.

    · Bernanke, B., Gertler, M., Gilchrist, S. (1999), «The financial accelerator in a quantitative business cycle framework», in Taylor, J., Woodford, M. (ed.), Handbook of Macroeconomics, vol. 1, pp. 1341-93, Amsterdam: Elsevier.

    · Betbèze, J.-P., Bordes, C., Couppey-Soubeyran, J. &Plihon, D. (2011), « Banques centrales et stabilité financière », La Documentation française / Conseil d'Analyse Economique.

    · Carré E.,Couppey-Soubeyran, Salim Dehmej( 2014) « La coordination entre politique monétaire et politique macroprudentielle Que disent les modèles dsge » Revue économique - vol. 66, N° 3, mai 2015, p. 469

    · Clarida, R., Gali, J., et M. Gertler (1997): « Monetary Policy Rules and Macroeconomic Stability Evidence and some Theory », manuscript, New York University.

    · Cornand, C. &Baeriswyl, R. (2011), «Transparency and Monetary Policy Effectiveness», Annals of Economics and Statistics 103/104, pp.175-194.

    · Cornand, C. & Heinemann, F. (2008), «Optimal degree of public information dissemination», The Economic Journal 118(528), 718-742.

    · Cornand, C. (2014), « Communication des banquescentrales :lorsque latransparence n'est pas optimale », Working Paper of GATE Review, Vol. 1, n°1, pp.236-268.

    · Cukierman, A. & Meltzer, A. H. (1986), «A theory of ambiguity, credibility, and inflation under discretion and asymmetric information», Econometrica54(5), pp.1099-1128.

    · Cukierman, A. (2001), «Accountability, Credibility, Transparency and Stabilization Policy in the Eurosystem», in C. WyploszThe Impact of EMU on Europe and the DevelopingCountries pp. chapter 3, Oxford University Press, pp.40-75.

    · Cukierman, A. (2007), «The Limits of Transparency». Papier présenté à la conférence «Monetary policy, Transparency and Credibility», Federal Reserve Bank of San Fransico, 23-24 Mars 2007.

    · Drumetz, F. et A. Verdelhan (1997): « Règle de Taylor : Présentation, applications et Limites ». Bulletin de la Banque de France, N°45.

    · EngoneMvé S. (2013), « Politique d'inflation et prix d'actifs », Revue d'Économie Appliquée, vol.1, n°2, juillet-décembre, p.167-190.

    · Faust, J. &Svensson, L. E. O. (2001), «Transparency and credibility : Monetary policy with unobservable goals», International Economic Review 42(2), 369-97.

    · Friedman M. (1975): « Targets, Instruments, and Indicators of Monetary Policy », Journal of Monetary Economics.

    · Geraats, P. (2006), «Transparency of Monetary Policy: Theory and Practice», CESifo Economic Studies 52(1), pp.111-152.

    · Geraats, P. (2009), «Trends in Monetary Policy Transparency», International Finance 12(2), pp.235-268.

    · Gosselin, P., Lotz, A. &Wyplosz, C. (2008), «The Expected Interest Rate Path: Alignment of Expectations vs. Creative Opacity», International Journal of Central Banking 4(3), pp.145-185.

    · Henderson D.W. et W. J Mc Kibbin (1993): « A comparison of some Basic Monetary Policy Regimes for Open Economy: Implications of Different Degrees of Instrument Adjustment and Wage Persistence », Carnegie-Rochester Conference series on Public Policy, 39, p. 221-317.

    · Huchet M. (2003) : « Fonctions de réaction des banques centrales européennes et convergence », L'Actualité économique, vol.79, n°3, pp.297-326.

    · Jensen, H. (2002), «Optimal degrees of transparency in monetary policymaking», Scandinavian Journal of Economics 104(3), p.399-422.

    · Kamgna S. Y., Nguenang C. K., Talabong H., Ould I. S. (2009): « Central Bank reaction fonction and monetary policy credibility: The case of BEAC », MPRA Paper N° 16557.

    · Kyland F., Prescott E. (1977): « Rules Rather Than Discretion: the Inconsistency of Optimal Plans », Journal of Political Economy,vol.85, pp. 473-491.

    · McCallum B.T (1987): « The case for rules in the conduct of monetary policy: A concrete example, Federal Reserve Bank of Richmond », 123, p.415-429.

    · Mésonnier J.S, Renne J.P (2004): « Règle de Taylor et politique monétaire dans la zone euro », Bulletin de la Banque de France, N°45.

    · Morris, S. & Shin, H. S. (2002), «Social value of public information», American Economic Review 92(5), 1521-1534.

    · Myftari, E. et Rossi S. (2010), « Prix des actifs et politique monétaire : enjeux et perspectives après la crise financière de 2007-2009 », L'Actualité économique, Revue d'analyse économique, vol. 86, n° 3, p. 355-383.

    · Orphanides A. (2007): «Taylor Rules», Board of Governors of the Federal Reserve System.

    · Orphanides, A. & Williams, J. C. (2007), «Inflation Targeting under Imperfect Knowledge», in F. S. Mishkin& K. Schmidt-Hebbel, eds, «Monetary Policy Under Inflation Targeting», Vol. XI, Banco central de Chile, Santiago, Chile.

    · Pollin J.P (2005): « Théorie de la politique monétaire, esquisse d'une refondation », Revue économique, vol.56, N°3, p.507-540.

    · Pollin, J.P (2008) : « Maîtriser l'inflation : avec quels objectifs et quelles stratégies ? », Revue économique et monétaire, N°4, pp.9-34.

    · Rogoff, K. (1985), «The optimal degree of commitment to an intermediate monetary target», The Quarterly Journal of Economics 100(4), 1169-89.

    · Rudebusch, G.D et L.E.O. Svensson, (1998): « Policy Rules for Inflation Targeting », Center for Economic Policy Research, Discussion Paper, N°1999.

    · Svensson L. (1997): «Inflation forecast targeting: Implementation and monetary inflation targets», European Economic Review N°41, pp. 1111-1146.

    · Svensson L. (1999): «Inflation targeting as monetary policy rule», Journal of Monetary Economics N°43, pp. 607-654.

    · Svensson, L. E. (2010), «Inflation Targeting», in B. M. Friedman & M. Woodford, eds, «Handbook of Monetary Economics», Vol. 3 of Handbook of Monetary Economics, Elsevier, chapter 22, pp. 1237-1302.

    · Taylor, J. (1993): « Discretion versus Policy Rules in Practice ». Carnegie-Rochester Conference Series on Public Policy, N°49.

    · Walsh, C. E. (1995), «Optimal contracts for central bankers», American Economic Review 85(1), p.150-67.

    · White, W. (2009), «Should monetary policy «lean or clean»?», Federal Reserve Bank of Dallas, Working Paper No. 34.

    · Woodford, M. (2012), «Inflation targeting and financial stability», Riksbank Economic Review.

    ANNEXE

    Modèle théorique

    A. Présentation du modèle

    Il s'agit de modéliser une fonction de perte de la règle de politique monétaire qui vise à la fois la stabilité des prix et la stabilité financière. Le degré optimal de transparence est déterminé par le niveau de la perte. En effet, comme le souligne Geraats (2004b) et Musard-Gies (2007) que la façon d'écrire la fonction objectif, et tout particulièrement la façon d'introduire les poids que l'autorité monétaire accorde à la stabilisation de l'inflation, de la production et financière peut avoir des répercussions importantes sur les conclusions en matière de transparence. Il convient alors de spécifier le modèle.

    B. La spécification du modèle

    A l'instar du modèle développé par Myftari et Rossi (2010), inspiré par le modèle de Bernanke, Gertler et Gilchrist (1999) et repris par EngoneMvé (2013), qui présente l'avantage de tester la capacité d'une règle de politique monétaire à stabiliser l'inflation et l'output gap lorsque l'économie est en proie à une bulle. Ce modèle s'inscrit dans le cadre de la nouvelle économie keynésienne, avec viscosité des prix, délai d'investissement et règle de politique monétaire.

    Étant donné que l'évolution d'une bulle spéculative est imprévisible (Selody et Wilkins, 2004), la fonction de réaction de la Banque centrale va intégrer la possibilité d'un choc exogène, c'est-à-dire l'hypothèse de la création d'une bulle spéculative.

    La spécification d'une telle fonction de réaction prend la forme d'une règle de Taylor augmentée des prix des actifs, dont la fonction de perte s'écrit de la forme suivante :

    £ = Et[(yt - y* - ut)2+ ÷(ðt - ð*)2+ ã(lt- l*)2] (1)

    Etreprésente l'espérance au temps t de la perte, ytreprésente l'output, ðtest le taux d'inflation, ltreprésente les prix des actifs et utreprésente les différents types de chocs technologiques qui peuvent frapperl'activité économique. Lesobjectifs poursuivis par la Banque centrale s'avèrent être les suivants : minimisationde la déviation du niveau de production par rapport au niveau de productionpotentiel (ou de plein-emploi, y*), minimisation de la déviation du taux d'inflationpar rapport à la cible fixée (ð*) et stabilisation des prix des actifs par rapport àleur cible (l*). Cela signifie que la politique monétaire s'intéresse seulement auxdéviations des prix des actifs par rapport aux valeurs fondamentales de ces mêmesactifs. Cela suppose donc que la Banque centrale soit toujours en mesure deconnaître ces valeurs fondamentales, ce qui est assurément une hypothèse trèsforte. Sur la base de cette hypothèse, nous pouvons maintenant étudier le comportement de la Banque centrale face à chaque type de choc.

    Ainsi, en cas de chocs de demande positifs, la demande globale augmente, induisant par là des pressions à la hausse du niveau des prix. La Banque centrale intervient en augmentant son taux directeur afin de minimiser l'écart du taux d'inflation par rapport à sa cible. L'augmentation du taux d'intérêt conduit à une diminution des prix des actifs qui, à son tour, induit une diminution de la demande globale par l'intermédiaire des effets de richesse.

    En revanche, en cas de chocs d'offre, c'est-à-dire lorsque l'élasticité de la demande globale par rapport aux prix des actifs est faible, la Banque centrale opère un arbitrage entre la stabilisation de l'activité économique et celle des prix des actifs. Elle est alors confrontée au respect d'objectifs contradictoires : accepter un taux d'inflation plus élevé afin de contrecarrer les fluctuations des prix des actifs, ou maîtriser l'inflation au prix d'une variabilité des prix des actifs.

    Il convient de préciser l'efficacité des interventions de la Banque centrale face aux différents chocs sera fonction du poids relatif accordé à chaque objectif dans la fonction de réaction : si le poids attribué à l'objectif de stabilité financière est élevé, la variation du taux d'intérêt suite à un choc d'offre (choc de demande) sera élevée (plus faible). La règle monétaire spécifique à cet effet est définie de la manière suivante :

    it = áit-1 + âEtðt+1+ äYt + ã(S - S*)t + ut(2)

    itest le taux d'intérêt nominal fixé par les autorités monétaires au temps t, Etðt+1 exprime l'anticipation en t de l'écart inflationniste qui sera créé en t+1, Ytreprésente l'output gap en t et (S - S*)treprésente l'écart au temps t entre la valeurboursière des actifs, ou prix de marché des actifs (S), et leur valeur jugée fondamentale (S*) et ut,représente le terme de l'erreur.

    Cette spécification est avantageuse dans la mesure où elle permet aux agents privés de lire la transparence de la Banque centrale. Elle permet également de déterminer :

    · si les autorités monétaires doivent adopter un comportement accommodant ou agressif envers l'inflation anticipée ;

    · si les autorités monétaires doivent réagir à une variation des prix des actifs.

    TABLE DES MATIÈRES

    Dédicace...................................................................................................i

    Remerciement......................................................................................... ii

    Sommaire................................................................................................iv

    Introduction générale 1

    Partie I : Les gains de la transparence optimale d'une Banque centrale. 6

    Chapitre 1 : La transparence optimale : un déterminant de la crédibilité d'une Banque centrale 7

    Section 1 :Opacité totale versus transparence pure : un enjeu de la crédibilité des Banques centrales 7

    1.1 Opacité totale comme degré optimal de transparence 8

    1.2 La transparence totale comme degré optimal de transparence 10

    1.2.1 Les mécanismes de réputation 11

    1.2.2 La nomination d'un banquier central conservateur 11

    1.2.3 Les contrats incitatifs 12

    1.2.4 La priorité de la règle 13

    Section 2 : La transparence intermédiaire comme moyen de restaurer la crédibilité des Banques centrales 15

    Chapitre 2 : La transparence optimale : un moyen de réduire l'incohérence temporelle 17

    Section 1 : La transparence totale comme degré optimal 17

    Section 2 : La transparence intermédiaire comme degré optimal 18

    Partie II : Les implications de la transparence optimale en termes de conduite de la politique monétaire 20

    Chapitre 3 : Règles monétaires, transparence optimale et conduite de la politique monétaire 21

    Section 1 : La règle doit tenir compte de l'activité économique 21

    1.1Règle automatique versus règle activiste 22

    1.2 Règles d'instrument versus règles d'objectif : questions en débat 24

    1.2.1 Les règles d'instrument 25

    1.2.1.1 La règle de McCallum 25

    1.2.1.2 La règle de Taylor et ses limites 27

    1.1.2.2 Les règles d'objectif 28

    Section 2 : Les caractéristiques propres à la formulation 33

    2.1 Caractère simple et systématique d'une règle 34

    2.2 Critère de choix de la variable instrument........................... 35

    2.2.1 Définition 35

    2.2.2 Critères de sélection de la variable instrument 36

    2.2.3 Spécification de la règle à base de l'optimisation de la fonction de perte 38

    Chapitre4 : L'adoption d'une règle monétaire spécifique 39

    Section 1 : La règle d'objectif spécifique 40

    Section 2 : « Clean » versus « lean » 42

    Conclusion générale 47

    Références bibliographiques 49

    Annex....................................................................................................53

    Table des matières..................................................................................56

    * 1On dit qu'une politique souffre d'une incohérence temporelle quand la politique en t + 1 remet en cause la politique décidée en t. La politique optimale est alors sans cesse remise en cause (Kydland et Prescott, 1977 ; Barro et Gordon, 1983).

    * 2Une crise financière, un choc extérieur, etc.

    * 3Le processus de transmission des impulsions monétaires, la dynamique de la demande et de l'inflation, les caractéristiques des chocs, etc.

    * 4Un choc est dit asymétrique lorsqu'il ne touche qu'un pays ou un groupe de pays de l'union ou même l'ensemble des pays de l'union mais dans des proportions différentes. Il est symétrique lorsqu'il atteint simultanément et dans les mêmes proportions tous les pays membres d'une union.

    * 5Bernanke et Mishkin (1997), Bernanke (2003) indiquent que l'aspect « contrainte » est lié à l'engagement en faveur d'une inflation basse, engagement quipermet d'ancrer les anticipations du public tandis que l'aspect « discrétion » recouvre la liberté opérationnelle dont jouit la Banque centrale et la possibilité qu'elle a de mener à bien ses taches de stabilisation réelle.

    * 6Opacité ou transparence.

    * 7Chaque cadre théorique retient comme degré optimal de transparence soit l'opacité totale, soit la transparence totale ou soit la transparence intermédiaire (Musard-Gies, 2006, 2007 ; Cornand, 2007).

    * 8Kydland& Prescott (1977), Barro& Gordon (1983a).

    * 9La Banque centrale peut dévoiler de l'information sur ses préférences de deux manières : soit elle dévoile explicitement de l'information sur ses préférences (jeu statique), soit elle révèle de manière implicite ses préférences en dévoilant d'autres informations permettant au secteur privé d'inférer les préférences (jeu dynamique).

    * 10L'hypothèse d'apprentissage adaptatif pose le problème de la formation des anticipations des agents économiques privés eu égard à l'information disponible dans l'économie et celui de la coordination de ces derniers pour atteindre l'équilibre à anticipations rationnelles (Duffy, 2002 ; Gies, 2007).

    * 11D'où parfois une certaine confusion entre les termes "responsabilité" et "transparence". La notion de responsabilité des Banques centrales correspond à une obligation vis-à-vis de l'``ordre politique'', l'idée étant de ``rendre compte'', d'être responsable de ses décisions et de les justifier, les expliquer alors que la transparence apparaît plus comme une notion issue de l'``ordre économique'' et dans cet esprit, comme un instrument au service de la Banque centrale afin de renforcer l'efficacité de la politique monétaire (Musard-Gies, 2007).

    * 12On dit qu'une politique souffre d'une incohérence temporelle quand la politique en t + 1 remet en cause la politique décidée en t. La politique optimale est alors sans cesse remise en cause (Kydland et Prescott, 1977 ; Barro et Gordon, 1983).

    * 13Une crise financière, un choc extérieur, etc.

    * 14Le processus de transmission des impulsions monétaires, la dynamique de la demande et de l'inflation, les caractéristiques des chocs, etc.

    * 15Cette option résulte de la critique de Lucas (1976). Si les autorités monétaires décident de modifier le niveau de l'inflation cible dans le futur, alors elles ont intérêt à anticiper la réaction des agents dans le futur. C'est sur la base de ces anticipations qu'elles fixeront leur taux d'intérêt et la politique monétaire à mener effectivement.

    * 16Par contraintes, il faut entendre l'ensemble des conditions requises pour qu'une règle monétaire puisse être jugée apte (ou adéquate) à appréhender le comportement d'une Banque centrale en matière de conduite de la politique monétaire (Pollin, 2005).

    * 17Une certaine flexibilité a été intégrée à travers la prise en compte de la vitesse de circulation et le gap d'output retardé.

    * 18Sentier ou trajectoire d'équilibre est compris ici dans le sens d'un gap nul entre la production nominale et sa cible ou valeur potentielle.

    * 19Ce constat tend à vérifier la loi de Goodhart : « toute régularité statistique tend à disparaitre dès qu'on lui impose une pression pour des motifs de régulation ».

    * 20Si les autorités monétaires décident de modifier le niveau de l'inflation cible dans le futur, alors elles ont intérêt à anticiper la réaction des agents dans le futur. C'est sur la base de ses anticipations qu'elles fixeront leur taux d'intérêt et la politique à mener effectivement.

    * 21Banque du Canada, Banque d'Angleterre, Banque de Réserve de la Nouvelle Zélande, Banque de Suède, Banque de Pologne, Banque de Finlande et Banque d'Australie.

    * 22De toutes ces banques centrales, seule celle de la Nouvelle Zélande a fait adopter l'objectif de ciblage d'inflation par un texte législatif.

    * 23Cette option résulte de la critique de Lucas. Si les autorités monétaires décident de modifier le niveau de l'inflation cible dans le futur, alors elles ont intérêt à anticiper la réaction des agents dans le futur. C'est sur la base de ses anticipations qu'elles fixeront leur taux d'intérêt et la politique à mener effectivement.

    * 24C'est une disposition intermédiaire entre la discrétion absolue, porteuse d'incohérence temporelle et génératrice du biais inflationniste et le suivi aveugle des règles intangibles. À l'intérieur des contraintes imposées par les objectifs d'inflation de moyen et long terme, les banquiers centraux se sont accordés de grandes latitudes pour répondre aux conditions de l'emploi, des changes et autres développements de court terme (Landais, 2008).

    * 25Il s'agit d'une part, de déterminer si les autorités monétaires doivent adopter un comportement accommodant ou agressif envers l'inflation anticipée ou si ces derniers doivent réagir à une variation des prix des actifs (Myftari et Rossi, 2010 ; EngoneMvé, 2013).

    * 26Pour la Banque centrale, cette règle définit la conduite optimale à suivre pour tous les scénarios d'évolution de l'économie (Gosselin, 2008).

    * 27Le principe de Tinbergen (1952) qui exige qu'il y ait autant d'instrument que d'objectifs.

    * 28La règle d'affectation de Mundell (1969) stipule que l'on doit pouvoir affecter chaque instrument à l'objectif pour lequel il est le plus efficace.

    * 29La stabilité financière renvoie tout autant à la stabilité du secteur bancaire, du crédit (Christiano et al., 2010 ; Agénor et Da Silva, 2013), du crédit spread (Woodfor et Curdia (2010), à celle des marchés d'actifs et des prix qui s'y forment, celle des marchés des changes, des marchés interbancaires, au bon fonctionnement des systèmes de paiement.

    * 30Il est le premier à avoir mis en évidence le fait que les anticipations des agents économiques s'adaptent aux politiques économiques menées, qui en retour doivent elles aussi s'adapter






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Nous voulons explorer la bonté contrée énorme où tout se tait"   Appolinaire