WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Déviation du taux de change par rapport aux fondamentaux

( Télécharger le fichier original )
par Adnan CHOCKRI
FSEG Sfax - Mastère Dynamique économique et financière 2006
  

Disponible en mode multipage

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

Chapitre I : Revue de la littérature théorique et empirique de la détermination du taux de change d'équilibre

Introduction Générale

L'importante volatilité observée des taux de change réels pose de manière récurrente le problème de la détermination d'un niveau de référence ou d'équilibre. En outre, l'efficacité du taux de change en tant qu'instrument de la politique économique dépend fortement de la connaissance de son niveau d'équilibre. En effet, en l'absence d'une telle référence, les notions de sous ou surévaluation d'une monnaie par rapport à une autre n'auraient plus aucun sens. Il apparaît donc primordial de s'intéresser à la détermination des taux de change d'équilibre. Les nombreux travaux dans ce domaine

ont pour objet de mettre en évidence une valeur de référence de long terme, fonction

de variables fondamentales, vers laquelle doit converger le taux de change réel. Comme le rappelle Cadiou [1999], la notion d'équilibre envisagée ici provient du fait que les économies nationales sont au plein emploi et que leur position extérieure nette

est à un niveau jugé satisfaisant.

La théorie de référence en termes de détermination du taux de change d'équilibre est la théorie de la parité des pouvoirs d'achat. Cependant, même si cette théorie peut s'avérer utile pour déterminer un niveau de référence à long terme des taux de change nominaux, elle apparaît fortement limitée dés lors que l'on raisonne en termes réels. Cette théorie stipule en effet que le taux de change réel est constant, ce

qui semble difficilement s'accorder avec les importantes fluctuations que l'on observe empiriquement. En outre, étant essentiellement fondée sur la loi du prix unique, la théorie de la parité des pouvoirs d'achat ignore toute référence à l'équilibre macroéconomique. Ces limites nous conduirons à expliciter l'approche monétaire du taux de change pour en distinguer d'autres approches alternatives dont l'approche macroéconomique et l'approche NATREX.

L'approche macroéconomique consiste à interpréter le taux de change réel comme un indicateur de la compétitivité globale d'un pays. Nous verrons que cette approche occupe aujourd'hui une place fondamentale dans les travaux portant sur ce thème. La deuxième approche a pour objet de rechercher les fondements

microéconomiques du taux de change.

Chapitre I : Revue de la littérature théorique et empirique de la détermination du taux de change d'équilibre

Le premier travail consiste donc à présenter ces diverses approches du taux de change réel d'équilibre. Une fois ces théories sont explicitées, nous avons mené une étude empirique afin d'étudier la relation entre le taux de change réel et les fondamentaux. Les méthodes mises en oeuvre font largement appel aux tests de racines unitaires, à la cointégration. L'idée est donc d'exhiber une relation de long terme entre

le taux de change réel et les fondamentaux (relation de cointégration) et d'en expliquer

les déviations entre eux.

Chapitre I - Revue de la litterature théorique et empirique de la détermination du taux de change d'équilibre

Introduction

L'importante volatilité observée des taux de change réels pose de manière récurrente le problème de la détermination d'un niveau de référence ou d'équilibre. En outre, l'efficacité du taux de change en tant qu'instrument de la politique économique dépend fortement de la connaissance de son niveau d'équilibre.

L'objet de ce chapitre est ainsi de présenter les diverses théories de détermination du taux de change réel d'équilibre. Face aux insuffisances de la théorie

de la parité des pouvoirs d'achat, de l'approche monétaire du taux de change deux nouvelles approches se sont privilégiées : l'approche macroéconomique et l'approche NATREX. Le développement de la littérature consacrée aux taux de change réels

d'équilibre nous conduit ensuite à dresser un panorama des travaux empiriques.

Section1- Des insuffisances de la parité des pouvoirs d'achat et l'approche

monétaire du taux de change

Après avoir rappelé brièvement les principales spécificités de la théorie de la parité des pouvoirs d'achat, nous mettrons en avant les insuffisances d'une telle théorie dans la détermination du taux de change réel d'équilibre. Ces limites nous conduirons à expliciter l'approche monétaire du taux de change pour en distinguer d'autres approches alternatives dont l'approche macroéconomique et l'approche NATREX, que nous présenterons les grandes lignes.

1.1- Les insuffisances de la parité des pouvoirs d'achat en tant que théorie

de détermination des taux de change réels d'équilibre

1.1.1- La parité de pouvoir d'achat

La parité des pouvoirs d'achat1 (PPA) constitue la théorie la plus fréquemment utilisée pour déterminer les taux de change d'équilibre. Cette théorie existe en deux formes : la forme absolue et la forme relative.

La forme absolue de la PPA s'applique en l'absence de toute entrave au commerce international (barrières tarifaires, barrières non tarifaires, etc.) en supposant négligeables les coûts de transaction et d'information. Selon cette approche, la valeur

du taux de change nominal est déterminée par le rapport des niveaux de prix entre deux pays. Cette définition découle de la loi du prix unique selon laquelle le prix d'un bien échangeable est identique partout, une fois converti dans une monnaie commune.

La réalisation de cette loi suppose alors que les taux de change réels bilatéraux sont toujours égaux à l'unité.

En présence d'entraves au commerce international, la loi du prix unique ne s'applique plus. Le principe de la PPA peut alors s'exprimer sous une version dite

1 On rappelle que cette théorie a été introduit par Cassel en 1916 qui a suggéré de définir le niveau du taux de change nominal d'équilibre comme le taux assurant la parité de pouvoir d'achat entre deux monnaies : une unité monétaire quelconque peut être échangée contre la même quantité de biens dans son pays d'origine ou dans tout

autre pays après conversion en monnaie locale.

relative : une variation du taux de change nominal vient compenser l'écart d'inflation

entre deux pays. Dans ces conditions, le taux de change réel est constant (mais non nécessairement égal à l'unité).

1.1.2- Limites de la théorie de la PPA

De façon générale, la théorie de la PPA souffre de plusieurs inconvénients majeurs, tant au niveau théorique qu'au niveau empirique, bien qu'elle puisse être utile pour évaluer les parités de long terme entre pays à niveau de développement similaire.

Au niveau théorique, le taux de change réel auquel fait référence la PPA fait abstraction de toute considération d'équilibre macroéconomique. En d'autres termes, elle ne permet pas de relier le taux de change réel à la situation économique d'un pays,

et notamment à sa position extérieure. Au niveau empirique, les difficultés sont nombreuses. En particulier, nous avons vu que la PPA suppose la constance du taux de change réel, ce qui semble difficilement compatible avec les importantes fluctuations observées des parités réelles. Les partisans de la PPA ont dès lors mis en avant la validité de cette théorie, mais uniquement sur le long terme, en raison notamment de l'existence de diverses rigidités rendant le processus d'ajustement très lent. Empiriquement, les études ont alors eu pour objet de tester la stationnarité du taux de change réel. A nouveau, les résultats sont apparus décevants, même à long terme. Ainsi, Roll [1979], Adler et Lehmann [1983], Darby [1983] ou encore Huizinga

[1987] mettent en avant le fait que le taux de change réel suit une marche aléatoire. D'autres auteurs, comme par exemple Corbae et Ouliaris [1988], Enders [1988], Taylor

[1988] et Mark [1990], acceptent quant à eux l'hypothèse d'absence de relation de cointégration2 entre le taux de change nominal et les prix relatifs. Il en découle donc l'existence d'écarts permanents à la PPA. Signalons néanmoins, à la suite de Coudert

[1999], que certains travaux ont cherché à réhabiliter la version relative de la PPA à long terme en concluant à la stationnarité des taux de change réels d'un grand nombre

de pays contre le dollar ou contre le mark.

2 On rappelle que deux variables sont dites cointégrées si elles sont toutes deux non stationnaires et s'il

est possible de trouver une combinaison linéaire de ces deux variables qui soit stationnaires.

Ces insuffisances tant au niveau théorique qu'au niveau empirique liées à la

PPA ont conduit à retirer d'autres approches. Nous présenterons l'approche monétaire que se soit à prix flexibles ou à prix rigides.

1.2- L'approche monétaire des taux de change

Comme le taux de change, est par définition, le prix d'une monnaie locale en termes d'une monnaie étrangère, il serait nécessaire d'analyser les déterminants de la demande de ces deux monnaies. D'où la raison d'être de l'approche monétaire des taux

de change (Frenkel (1976), Kouri (1976) et Mussa (1976, 1979)).

Deux modèles de base dans cette approche se présentent alors:

· Le modèle monétaire à prix flexibles.

· Le modèle monétaire à prix rigides.

1.2.1- Le modèle monétaire à prix flexibles

1.2.1.1- Fondements théoriques

Le modèle monétaire à prix flexibles est basé sur les deux hypothèses de la continuité de la parité des pouvoirs d'achat (PPA) et de l'existence de fonctions stables de demande de monnaie dans l'économie locale et étrangère3 .

Le logarithme de la demande de monnaie peut dépendre du logarithme du revenu réel (y), du logarithme du niveau des prix (p), et du niveau du taux d'intérêt (i). L'équilibre monétaire dans les pays local et étranger peut être donné par :

mt = pt + á yt - â it (1.1)

mt* = pt* + á* yt* - â* it* (1.2)

L'équilibre sur le marché des biens marchands s'établit lorsqu'il n'y a plus d'opportunités d'arbitrages. Autrement dit, si la PPA est vérifiée, il s'ensuit que:

3 Ronald MACDONALD and Mark.P. TAYLOR : «exchange rate economics : a survey», IMF staff papers, vol

39, n° 1, (march 1992).

et = pt* - pt (1.3)

et désigne le logarithme du taux de change nominal.

Par ailleurs, les niveaux des prix étrangers, déterminés par la demande étrangère de monnaie, constituent des variables exogènes à l'économie locale. En outre, les niveaux des pris locaux sont déterminés par la demande domestique de monnaie. Dans ces conditions, le taux de change serait gouverné par les demandes relatives de monnaies.

Formellement, en substituant les équations (1.1) et (1.2) dans la relation (1.3)

et en réarrangeant les termes, nous aurons l'équation de base du modèle monétaire en situation de flexibilité des prix formulée ainsi:

et = (mt - mt*) - á yt + á* yt* + â it - â* it* (1.4)

La relation (1.4) stipule qu'un excès dans l'accroissement de demande locale de monnaie par rapport à la demande étrangère entraîne une augmentation de et, signalant ainsi, la détérioration de la valeur de la monnaie locale en terme de son homologue étrangère.

1.2.1.2- Limites et formulations alternatives

Le raisonnement préconisé par le modèle monétaire à prix flexibles semble être assez intuitif. En fait, toutes choses étant égales par ailleurs, une augmentation de la production locale entraîne souvent une appréciation de la monnaie locale (et baisse).

De même, une augmentation des taux d'intérêt locaux engendre une dépréciation de la

monnaie locale (et augmente).

Pour connaître l'effet réel, il faut reconnaître le rôle fondamental de la demande relative de monnaie dans le modèle à prix flexibles.

A cet égard, un accroissement du revenu réel local crée un excès de demande de

monnaie locale. Les agents vont essayer alors d'accroître leurs stocks de monnaie en réduisant leurs dépenses. Les prix, à leur tour, baisseront jusqu'à ce que le marché monétaire soit en équilibre. Ce faisant, la PPA entraîne une appréciation de la monnaie locale en termes de monnaie étrangère.

Une analyse exactement inverse explique la réaction du taux de change aux variations des taux d'intérêt: un accroissement des taux d'intérêt réduit la demande de monnaie et mène à une dépréciation de sa valeur.

Eu égard à ces développements, il semble fort nécessaire de réécrire l'équation

de base du modèle monétaire sous deux formulations alternatives et équivalentes.

Supposons que les coefficients de demande de monnaie locale et étrangère soient égaux (á= á* et â = â*), l'équation (1.4) sera réduite à :

et = (mt - mt*) - á (yt - yt*) + â (it - it*) (1.5)

D'autre part, le modèle monétaire à prix flexibles suppose que l'hypothèse parité des taux d'intérêt (PTI) soit vérifiée4 , c'est-à-dire que le différentiel de taux d'intérêt doit égaler le taux anticipé de dépréciation ou d'appréciation de la monnaie locale.

Si nous désignons par « a » les anticipations des agents formulées à l'instant t.

t+1

alors en substituant (it -it*) par ?ea

dans l'équation (1.5), nous trouvons:

t+1

et = (mt - mt*) - á (yt - yt*) + â ?ea

(1.6)

4 Mark.P. TAYLOR : « the economics of exchange rates », journal of economics literature, vol XXXIII ( march

1995), pp 13-47.

Ainsi, les variations anticipées du taux de change et du différentiel de taux

d'intérêt (qui reflètent les anticipations inflationnistes), sont interchangeables dans le modèle.

Certains chercheurs ont relâché la contrainte d'égalité des élasticités du revenu et du

taux d'intérêt. Il en résulte que:

t+1

et = (mt - mt*) - á yt + á* yt* + â ?ea

(1.7)

Notons que l'équation (1.7) peut être réécrite comme suit :

t+1

et = (1+â)-1 (mt - mt*) - á(1+â)-1 yt + á*(1+â)-1 yt* + â (1+â)-1 ?ea

(1.8)

En supposant que les anticipations sont rationnelles, et en procédant par

itérations, l'équation (1.8) peut être formulée comme suit:

t+i

- á y

et = (1+â)-1 [â /(1+â)]i [ (mt - mt*)a

a

t+i

t+i

+ á* ya

* ] (1.9)

Bien entendu, les anticipations rationnelles 5 sont conditionnées par

l'information disponible à l'instant t.

Dès lors que tous les modèles adoptent 1'hypothèse des anticipations rationnelles, la présence du facteur d'actualisation [â / (1 + â)] < 1 dans l'équation

(1.9) n'exige pas une actualisation à l'infini tant que les variables sont supposées s'accroître à un taux inférieur à (1/ â).

Dès lors, étant donnée les ajustements des taux de change afin d'équilibrer l'offre et la demande sur le marché de change et en supposant l'équilibre sur le marché

des biens (à travers des prix parfaitement flexibles)6 et sur le marché de travail (à

5 La première application de la théorie des anticipations rationnelles aux taux de change revient à F. Black

(1973).

6 En effet, une économie macroéconomique ouverte est caractérisée par six marchés : marchés de biens, de travail, de change, obligations domestiques, obligations étrangères et le marché monétaire. Mais le modèle

monétaire à prix flexibles est concentré sur les conditions d'équilibre d'un seul type de marché : le marché monétaire. En supposant la parfaite substitution des actifs domestiques et étrangers, les marchés d'obligations

domestiques et étrangers deviennent un seul marché.

travers des salaires flexibles), l'équation du système total est déterminée donc par les

conditions d'équilibre du marché monétaire. Le modèle monétaire à prix flexibles

est donc implicitement un modèle d'équilibre général « market clearing general equilibrium model » sous lequel la PPA est toujours vérifiée.

La volatilité élevée du taux de change réel durant les années 70 du régime flottant rejette l'hypothèse de continuité de la parité des pouvoirs d'achat et induit le modèle monétaire à prix rigides de Dornbusch et Frenkel.

1.2.2- Le modèle monétaire en présence de rigidité de prix

Le problème majeur de l'approche monétaire en présence de flexibilité des prix réside dans la vérification de 1'hypothèse de la PPA.

En effet, sous cette hypothèse, le taux de change réel ne peut, par définition, changer.

Toutefois, les premières expériences des régimes de change flottants ont montré une forte volatilité des taux de change réels entraînant des fluctuations des niveaux de compétitivité (Dornbusch, 1976) 7 . Ainsi, l'approche monétaire à prix flexibles ne reflète pas convenablement l'effet réel et c'est ainsi que l'on a assisté avec Dornbusch (1976) (qui introduit une dynamique dans le modèle monétaire) au développement

d'une deuxième génération de modèles monétaires à prix rigides.

1.2.2.1- Fondements théoriques

Le modèle monétaire à prix rigides suppose la possibilité de déviations des taux

de change nominaux et réels de leurs niveaux d'équilibre de long terme, gouvernés par

la PPA.

7 Dornbush. R. (1976) : « exceptations and exchange rate dynamics», journal of political economy, vol 84, pp

1161-1176.

Il traite fondamentalement, des conditions d'équilibre sur le marché monétaire

sous 1'hypothèse de parfaite substitution entre les actifs monétaires locaux et étrangers. L'idée intuitive sous-jacente à la déviation de ce modèle peut être illustrée par l'exemple suivant:

Supposons une baisse de l'offre nominale de monnaie. A court terme, la rigidité des prix implique une baisse de l'offre réelle de monnaie et par suite un accroissement des taux d'intérêt. Cette hausse des taux va stimuler l'entrée de capitaux conduisant à une appréciation du taux de change nominal qui, à son tour, entraînera une

appréciation du taux de change réel.

Dans de telle situation, les investisseurs étrangers vont faire baisser les produits

de leurs investissements à l'étranger. Toutefois, au fur et à mesure que la perte de change anticipée (taux de dépréciation anticipé) soit inférieure au différentiel de rendement des capitaux (c'est-à-dire le différentiel de taux d'intérêt), les investisseurs averses au risque vont continuer à acheter des actifs étrangers. L'équilibre de court terme est atteint lorsque le taux de dépréciation anticipée égalise le différentiel de taux d'intérêt (la PTI est vérifié). Dès lors que ces deux variables sont différents de zéro. Le taux de change va dévier de sa valeur d'équilibre de long terme, donnée par la PPA. Toutefois, à moyen terme, les prix locaux vont baisser

Suite à une réduction de l'offre de monnaie entraînant ainsi une baisse de l'offre réelle de monnaie et donc du taux d'intérêt local: Le taux de change nominal réagira à

ces perturbations en se dépréciant lentement pour converger vers son niveau d'équilibre de long terme, défini par la PPA.

Il est à noter que l'approche monétaire de Dornbusch (1976) a été fortement critiquée par Frenkel (1979) qui a expliqué la faiblesse du modèle par sa négligence des effets temporels de l'inflation.

1.2.2.2- Présentation du modèle

Nous adoptons ici la représentation proposée par Frenkel (1979)8 et reprise par

Meese et Rogoff (1983), qui permet de relier le taux de change réel à l'écart de taux d'intérêt réel. L'hypothèse de départ est que la PPA n'est valide que sur longue période:

e = p - p *

(1.10)

Où:

p et p * les logarithmes des prix domestiques et étrangers ;

e Le logarithme du taux de change à long terme. Ou bien:

e = (m - m* ) - á ( y - y * ) + â ( i - i * ) (1.11)

Où les variables représentées avec une barre sont les variables d'équilibre de long terme.

Le taux de dépréciation anticipée du change est spécifié de la façon suivante:

t

t

Et( ? et+1) = - ö ( et - et ) + ( Ïa

- Ïa *) 0< ö<1 (1.12)

Où:

? et = et+1 - et

t

Et est l'espérance mathématique conditionnelle à l'information disponible en t; Ïa

t

et Ïa * désignent les anticipations d'inflation à long terme. Enfin. 1'hypothèse de la PTINC s'écrit:

it -it* = Et (? et+1) (1.13)

En combinant les équations (1.12) et (1.13), on obtient:

et - et

= - (1/ ö) (it -it*) + (1/ ö) ( Ïa

- Ïa *) = - (1/ ö) ( r - r *) (1.14)

t t t t

t

rt = it - Ïa

est le taux d'intérêt réel ex-ante.

8 Jeffery. A. FRANKEL : « on the mark : a theory of floating exchange rates based on real interest differentials», American economic review, 1979, vol 69, pp 610-622.

En intégrant les équations (1.10) et (1.14) et en supposant que la meilleure

estimation du niveau d'équilibre des prix, de l'offre de monnaie, du revenu et des taux d'intérêt sont les niveaux observés (hypothèse de marche aléatoire), on obtient les deux représentations suivantes, en notant Rt = et -pt + pt*, le taux de change réel:

et = pt - pt* - (1 / ö) (rt - rt*) (1.15)

Et par suite

Rt = -(1 / ö) (rt - rt*)

Le modèle monétaire à prix rigides se présente comme suit:

et = (mt - mt*) - á (yt - yt *) + â (it - it*) - (1 / ö) (rt - rt*) (1.16)

La relation (1.15) constitue une représentation plus générale que la PPA (que l'on retrouve quand ö ? , c'est-à-dire quand le taux de change, donc les prix, s'ajustent instantanément à leur niveau de long terme), mais conserve une forme

aisément testable.

D'une manière analogue, la spécification (1.16) propose une représentation plus

générale que la spécification du modèle monétaire à prix flexibles (1.5). Ce point

est important même dans le cadre d'une analyse des déterminants de long terme du taux de change.

D'un point de vue théorique, en effet, les deux modèles doivent être équivalent à long terme puisque, à cet horizon, les prix s'ajustent pour assurer l'équilibre entre offre

et demande de biens. Cette notion de long terme n'est toutefois pas très précise et il n'est pas sûr, en tous cas, qu'elle corresponde au long terme défini dans le cadre d'une relation de cointégration. En effet, autant d'un point de vue théorique l'écart de taux d'intérêt réels est stationnaire (puisqu'il est, d'après la PTINC, égal aux taux de dépréciation du change réel), autant empiriquement les écarts de taux d'intérêt réels apparaissent souvent non stationnaires.

Les deux modèles monétaires ont alors des implications différentes en termes

de relation de long terme : d'après le modèle à prix flexibles, taux de change et écart de prix doivent être cointégrés ; d'après le modèle à prix rigides il faut ajouter l'écart de taux d'intérêt réels pour que la relation soit stationnaire.

1.2.3- Limites et insuffisances des modèles monétaires

L'échec empirique qui a caractérisé le modèle monétaire est attribué à de nombreuses défaillances tant au niveau théorique qu'au niveau empirique.

Lane (1991) a énuméré six raisons pouvant expliquer l'échec, apparent, du modèle monétaire. Elles se résument comme suit:

9 Le manque de fiabilité inhérente aux estimations des fonctions de demande de monnaie ;

9 L'hypothèse d'égalité des paramètres caractérisant les fonctions de demande de monnaie, dans les deux pays ;

9 L'hypothèse de stationnarité du taux de change réel découlant de l'hypothèse

de la PP A ;

9 L'hypothèse de la parité de taux d'intérêt couverte (PTIC) impliquant soit la neutralité à l'égard du risque soit la diversification parfaite du risque de change ;

9 L'hypothèse d'exogénéité de la fonction d'offre de monnaie écartant la possibilité d'un effet retour (Feed-back) ; et

9 La possibilité de bulles spéculatives qui, en étant présentes contribuent à l'échec empirique du modèle monétaire. En fait, il serait extrêmement difficile

de distinguer ces bulles des variables omises ou des erreurs de spécification ;

Pour contourner ces insuffisances, plusieurs versions correctives et extensives ont été mises au point.

Dans la suite, nous nous proposons d'examiner quelques unes de ces tentatives.

Les modèles examinés sont celles du modèle FEER appelé aussi l'approche macroéconomique et le modèle NATREX.

Section 2- Les nouvelles approches

2.1- L'approche macroéconomique

Le taux de change réel d'équilibre selon l'approche macroéconomique, nommé taux de change d'équilibre fondamental9, est alors défini comme le taux de change assurant simultanément la réalisation de l'équilibre interne (l'économie se trouve sur

son sentier de croissance potentielle ou soutenable10) et de l'équilibre externe (son

compte courant est soutenable à long terme).

2.1.1- Détermination graphique du taux de change d'équilibre fondamental

Si l'on suppose que la condition de Marshall-Lerner 11 est vérifiée, alors la relation entre le taux de change réel et l'équilibre externe est claire : en cas de dépréciation du change réel, le solde de la balance courante s'améliore. L'équilibre externe est donc défini par l'égalité du compte courant à une valeur d'équilibre généralement reliée à la soutenabilité des paiements extérieurs. Plus précisément, pour maintenir la balance courante à son niveau soutenable, toute baisse des exportations induite par une appréciation réelle du change devra être compensée par une baisse équivalente des importations, ce qui implique dès lors une baisse de la production. Ainsi, dans le plan (PIB, change réel), la pente de la droite d'équilibre externe

est positive : elle indique les combinaisons du change réel et de l'activité pour

9 C'est Williamson [1985, 1994] en cherchant à expliquer les insuffisances de la PPA par l'absence de référence aux déterminants réels des taux de change qui a introduit la notion de taux de change d'équilibre fondamental

(Fundamental Equilibrium Exchange Rate, FEER).

10 On rappelle que le sentier de croissance potentielle ou soutenable est tel qu'il n'engendre pas de tensions sur le système productif.

11 Cette condition définit la relation sur les élasticités-prix du commerce extérieur qui permet à une dépréciation

du change d'engendrer à terme un excédent commercial pour le pays considéré.

lesquelles le compte courant est à un niveau prédéterminé, qualifié d'équilibre. Cette

droite décrit donc l'influence du change réel sur le bloc de demande du modèle.

Comme le soulignent Borowski et al. [1998a], l'endogénéisation de l'équilibre interne12 est plus problématique. Ainsi, de façon générale, si l'on n'endogénéise pas l'équilibre interne, ce dernier coïncide avec la réalisation d'un niveau potentiel ou soutenable de production. En conséquence, dans le plan (PIB, change réel), l'équilibre interne est représenté par une courbe verticale, constituant la courbe d'offre du modèle, indiquant le niveau potentiel d'activité. Dans ce cadre d'analyse, le taux de change réel d'équilibre est alors la valeur du change réel qui permet d'obtenir une cible donnée de compte courant, sachant que l'activité domestique et l'activité étrangère sont à leur niveau d'équilibre de moyen terme. Dans ces conditions, la détermination du taux de

change réel d'équilibre peut être représentée comme suit :

Taux de change réel

équilibre interne équilibre externe

R*

Y* PIB domestique

Figure 5. Détermination du taux de change réel d'équilibre

(cas où l'équilibre est exogène)

Cette détermination graphique du taux de change réel d'équilibre étant présentée, intéressons nous à présent à sa détermination analytique13.

12 Ceci revient à considérer l'écriture d'une boucle prix-salaires non pas en niveau, mais en taux de croissance

13 Nous reprenons ici, en raison de sa clarté, la formulation proposée par Joly et al. [1996].

2.1.2- Détermination analytique du taux de change d'équilibre fondamental

En vertu des développements précédents, le taux de change réel d'équilibre

est donc la valeur du change réel assurant une cible donnée de compte courant, sachant que l'équilibre interne est réalisée. Il est possible d'écrire le compte courant (Cc) comme une fonction du PIB domestique (Y), du PIB étranger (Y*), du change réel (R)

et d'un ensemble de diverses variables exogènes (Z) :

Cc =

f (Y , Y * , R, Z )

(1.17)

Le taux de change réel d'équilibre, noté, Rà est alors simplement défini par :

Cà =

f (Yà , Yà * , Rà , Z )

(1.18)

où Cc, Y et Y* représentent respectivement les valeurs d'équilibre du compte courant,

du PIB domestique et du PIB étranger.

Comme le rappellent Joly et al. [1996], deux difficultés apparaissent ici. En premier lieu la forme de la fonction f est difficile à évaluer. En second lieu, les variables exogènes Z ne sont pas aisément identifiables. Pour pallier ces deux

difficultés, on log-linéarise le modèle :

(1.19)

c

c

C - Cà =

f (Y ,Y * , R, Z )- f (Yà,Yà * , Rà , Z )

Soit encore :

*

Cc

= - Y + * Y

+ R

(1.20)

Y Y Y * R

, *

et étant des paramètres liés aux élasticités du bloc du commerce extérieur

et X = X - Xà

donné par :

. L'écart relatif du taux de change réel à sa valeur d'équilibre est donc

R =

1 Cc

+ OG - *OG *

(1.21)

R Y

Où OG et OG* désignent respectivement les output gaps

Finalement, on peut donc écrire :

c

R-Rà = 1 C s -Càc

domestique et étranger.

(1.22)

R Y

c

C s désigne le compte courant structurel défini par :

C

s

c = Cc

Y Y

+ OG - *OG *

(1.23)

Il ressort donc de ces brefs développements que l'écart relatif du change réel à

sa valeur d'équilibre est fonction de l'écart, en part du PIB domestique, du compte courant structurel à sa valeur d'équilibre. Ainsi, un compte courant structurel inférieur

à sa valeur d'équilibre correspond à une surévaluation du taux de change par rapport à

sa valeur d'équilibre. Il reste maintenant à déterminer précisément la valeur de cette cible de compte courant.

2.1.3- Les difficultés de définition des cibles

Au regard des développements figurant dans les deux paragraphes précédents,

on constate que le calcul des taux de change d'équilibre fondamentaux nécessite de connaître deux éléments :

· L'écart entre la production réalisée et la production potentielle (l'équilibre interne) ; et

· L'écart entre le solde courant observé et le solde courant soutenable (l'équilibre externe).

Cependant, la définition de ces deux cibles, ou niveaux de référence, pose un

certain

nombre

de problèmes et ne fait pas l'unanimité (voir notamment Borowski

et al. [1998b]). Pour cette raison, l'approche de Williamson est souvent qualifiée de normative dans la mesure où le niveau des taux de change d'équilibre est conditionnel aux hypothèses retenues. C'est pourquoi Artis et Taylor [1993] et Bayoumi et al.

[1994] préfèrent parler de taux de change d'équilibre désiré (Desired Equilibrium

Exchange Rates, DEER) plutôt que de taux de change d'équilibre fondamental.

Joly et al. [1999] insistent ainsi particulièrement sur le problème de la

définition des cibles de compte courant et suggèrent plusieurs possibilités 14 . Une

première possibilité consiste à n'autoriser aucun écart du solde courant par rapport à

l'équilibre pour chacune des périodes considérées. Néanmoins, comme le soulignent

les auteurs, cet objectif n'est pas efficace dans la mesure où un pays peut avoir intérêt à tirer profit d'importations ou d'exportations de capital sur une longue période. En outre, Williamson [1994] indique que cette définition n'est pertinente que si l'on s'intéresse à la détermination d'un équilibre de très long terme. Il semble donc préférable de chercher à définir des déséquilibres soutenables plutôt que d'éliminer automatiquement toute éventualité de déséquilibre. Même si l'intérêt d'une telle approche ne fait pas de doute, sa mise en oeuvre est délicate dans la mesure où peu de théories permettent de quantifier ces déséquilibres (voir notamment Joly et al. [1999]). Williamson [1994], faisant appel aux théories du cycle d'endettement et du cycle de vie, suggère de relier la cible de la balance courante à la position extérieure nette, compatible avec le cycle d'endettement et les caractéristiques démographiques du pays. Cependant, comme Williamson lui même le souligne, cette approche présente le risque, pour certains pays, de conduire à des niveaux de déficit courant qui ne sont pas soutenables à moyen terme. Le recours à la théorie du cycle de vie autorise également

à effectuer une distinction entre les pays ayant des taux d'épargne privée plus élevés que d'autres. Enfin, dans la mesure où l'évolution des finances publiques a un impact

sur le compte courant à moyen terme, il convient également de tenir compte des mesures de politique budgétaire afin d'évaluer la cible de compte courant.

Comme le notent très justement Joly et al. [1996], ces théories ne permettent pas de définir de façon précise un niveau de compte courant d'équilibre. Joly et al.

[1999] suggèrent alors de rattacher le taux de change réel d'équilibre à la contrainte budgétaire inter temporelle de la nation en générant un profil de compte courant qui

permette de rembourser la dette extérieure en un nombre donné de périodes. Une telle

14 Cadiou [1999] souligne en outre que le choix des élasticités du commerce extérieur est également fondamental dans la

mesure où l'élasticité revenue influence l'évolution du solde commercial lorsque l'économie rejoint sa production potentielle. Elle détermine l'écart entre la balance commerciale de plein emploi et sa cible. Les élasticités prix ont alors pour objet de déterminer l'ampleur de l'ajustement du taux de change réel permettant d'annuler cet écart.

technique permet ainsi de tenir compte des déséquilibres extérieurs tant courants que

passés. Une dernière possibilité, moins restrictive, consiste à stabiliser le stock de la dette en part de PIB. Cette règle consistant donc à stabiliser le ratio de la dette sur le PIB à un niveau donné a été retenue par Williamson et permet de définir un niveau soutenable de déficit courant pouvant continuer à être financé par des entrées de capitaux.

2.1.4- Endogénéisation de l'équilibre interne

Nous avons précédemment présenté l'approche macroéconomique de base dans

laquelle l'équilibre interne était supposé exogène. Nous nous proposons à présent de

lever cette hypothèse.

L'endogénéisation de l'équilibre interne est relativement complexe et repose sur

l'écriture d'une boucle prix salaires en niveau dont l'une des caractéristiques est de faire

dépendre le chômage d'équilibre du niveau des variables susceptibles d'engendrer des tensions inflationnistes (coin fiscal15, taux de remplacement, ...). L'équation de prix se résume alors à l'application d'un taux de marge sur les coûts salariaux unitaires. Quant

à l'équation de salaire, elle est telle que les entreprises fixent le niveau de l'emploi une fois déterminé le montant du salaire (modèle de "droit à gérer"). Dans ce cadre, l'un des déterminants fondamentaux du taux de chômage d'équilibre est constitué des termes de l'échange intérieurs. On peut alors montrer (voir Borowski et al. [1998]) Qu'il existe une relation inverse entre le taux de change effectif réel et la production potentielle qui transite par le marché du travail. En effet, si le change réel se déprécie,

il s'ensuit naturellement une hausse des prix domestiques que doivent se partager firmes et salariés. Si les salariés refusent de supporter cette

Augmentation - qui induit naturellement une baisse de leur pouvoir d'achat - les firmes sont alors contraintes de réduire le volume de l'emploi en raison de la hausse du coût réel du travail. Il en résulte une hausse du taux de chômage d'équilibre et une baisse du

niveau de la production potentielle.

15 On rappelle que le coin fiscal est défini par l'écart entre le coût réel du travail payé par l'employeur et le pouvoir d'achat d'un salarié.

Certains auteurs, tels que Barrell [1993] mettent cependant en avant un certain

nombre d'arguments allant à l'encontre de l'endogénéisation de l'équilibre interne. Il souligne en particulier que si l'offre de travail est inélastique à long terme, le coin fiscal ne conserve aucun impact durable sur le niveau du chômage. Ainsi, l'impact du taux de change effectif sur le chômage d'équilibre mis en évidence empiriquement ne serait en réalité qu'une importante rigidité nominale des salaires. Comme le soulignent Borowski et al. [1998], la discussion relative à la nécessité d'endogénéiser ou non l'équilibre interne reflète l'ambiguïté attachée au taux de change d'équilibre fondamental au sens où il s'agit d'un concept de "moyen terme".

Joly et al. [1998] ont cependant proposé une extension de l'approche macroéconomique 16 en prenant en compte les effets du taux de change réel sur l'équilibre interne, et en particulier sur le taux de chômage : les auteurs suggèrent ainsi d'endogénéiser le bloc d'offre habituellement supposé rigide à court terme. Il est alors possible de définir un équilibre macroéconomique déterminant simultanément le taux

de change réel et l'offre potentielle. La définition du taux de change réel d'équilibre ne change pas : il s'agit toujours de la valeur du change réel assurant la réalisation simultanée des équilibres interne et externe. L'équilibre externe n'est pas modifié par rapport à la définition précédemment donnée. Cependant, l'équilibre interne n'est plus indépendant du change réel et la confrontation des deux courbes permet alors de déterminer non seulement le change réel d'équilibre mais également le niveau potentiel

du PIB. La courbe de l'équilibre interne est décroissante dans la mesure où une dépréciation du change réel augmente le chômage d'équilibre et a impact négatif sur l'offre potentielle. Ainsi que le rappellent Joly et al. [1998] ceci repose sur le fait que

les salaires nominaux s'indexent sur les prix à la consommation et non pas sur les prix

à la production. Le mécanisme est alors le suivant. Une dépréciation du change réel engendre une augmentation des prix à la consommation relativement aux prix à la production, entraînant par la même une augmentation du coût nominal du travail par

rapport aux prix de production. Le coût réel du travail est alors augmenté, ce qui

16 On pourra également se reporter à Cadiou [1999] pour une brève revue de la littérature sur l'endogénéisation du bloc d'offre du modèle.

implique naturellement une baisse de la demande de travail de la part des entreprises

et donc une hausse du chômage. Graphiquement, on a donc la représentation suivante :

Taux de change réel

équilibre interne équilibre externe

R*

Y* PIB domestique

Figure 6. Détermination du taux de change réel d'équilibre

(Cas où l'équilibre est endogène)

Il est possible, à la suite de Joly et al. [1998], de transposer cette représentation

dans le plan (taux de chômage, taux de change réel). En effet, les effets de demande

intervenant dans la relation entre le taux de chômage et le taux de change réel sont tels

qu'une dépréciation du change stimule les exportations et engendre une baisse du chômage. Les effets d'offre sont tels qu'une dépréciation du change réel détériore les termes de l'échange et conduit les entreprises à diminuer leur demande de travail

et donc à accroître le chômage. On a alors la représentation graphique suivante :

Taux de change réel

demande offre

R*

u* Taux de chômage

Figure 7.taux de change réel d'équilibre dans le plan

(Taux de chômage, taux de change réel)

Après avoir mis en avant que l'essentiel du chômage en France est un chômage

de type structurel (par opposition à conjoncturel), Joly et al. [1998] soulignent que le

lien entre le taux de change réel et le chômage doit être initialement appréhendé par le biais des effets d'offre conditionnant le chômage structurel. Ainsi, sur le marché du travail, une dépréciation du change réel a pour effet d'augmenter le niveau de chômage d'équilibre, et non pas de le faire diminuer eu égard au traditionnel effet keynésien. Joly et al. [1998] notent cependant, en faisant référence au coin salarial et à la dégradation des termes de l'échange, que le problème du chômage en France ne relève pas d'un éventuel mésalignement du change réel, mais plutôt des rigidités spécifiques

au marché du travail. En conséquence, la solution au problème du chômage en France passe par des politiques structurelles d'amélioration du fonctionnement du marché du travail.

Globalement, le fait d'endogénéiser l'équilibre interne ne modifie pas les principaux résultats obtenus lorsque celui-ci était exogène. Néanmoins, cette

endogénéisation permet de tenir compte de l'ensemble des déterminants potentiels du chômage d'équilibre. Comme le montrent Joly et al. [1996], toute variable susceptible d'accroître le chômage d'équilibre (coin fiscal, fiscalité indirecte, taux d'intérêt réel, ...) peut engendrer une augmentation du taux de change réel et par là même limiter la hausse du chômage d'équilibre. Inversement, les déterminants du chômage d'équilibre peuvent être enrichis par la prise en compte de l'équilibre externe. Joly et al. [1996] prennent ainsi l'exemple de l'impact d'un choc pétrolier sur un pays importateur de pétrole. L'augmentation des prix du pétrole a pour conséquence une dépréciation du change réel, en supposant donnés la cible de compte courant et l'équilibre interne. La courbe décrivant l'équilibre externe se déplace alors vers le haut indiquant une dépréciation du change réel et une augmentation du chômage d'équilibre.

2.2- L'approche NATREX (Natural Real Exchange Rate)

Si l'approche FEER reste assez répandue au sein des organisations

internationales et des instituts de recherche appliquée, le NATREX de Stein, ainsi que

d'autres modèles assez proches tels que le BEER (Behavioral Equilibrium Exchange

Rate) de Clark et MacDonald (1998), se sont récemment imposés dans la littérature académique. Ceci tient à la fois à des raisons d'ordre théorique et empirique. Les

principales caractéristiques du modèle NATREX sont détaillées dans l'encadré 1.

Encadré 1 : Equations du modèle NATREX dans le cas d'un petit pays

Soit une petite économie ouverte. Elle ne peut influencer le taux d'intérêt mondial, de

sorte que celui-ci est exogène. Le modèle NATREX s'écrit alors, de façon synthétique :

r = r* : à moyen terme, le taux d'intérêt réel est égal au taux d'intérêt réel mondial

Y = y - rF : le PNB est la somme du PIB et des revenus de facteurs (positifs si F < 0 par convention)

y = C + I + B : le PIB est la somme de la consommation, de l'investissement et de la balance commerciale

C = cY - c'F : la consommation dépend positivement du revenu (PNB) et négativement

de la dette extérieure

dk / dt = I (r, k, ä) / L : l'investissement par tête dépend négativement du taux d'intérêt réel et de l'intensité capitalistique, et positivement du progrès technique

-dF / dt=BC (Q)=B- r*F=S-I : la variation de la position extérieure nette est égale au solde de la balance courante (somme de la balance commerciale et de la balance des revenus de facteurs), lui-même comptablement égal à l'écart entre épargne

et investissement.

Les variables exogènes sont r* : le taux d'intérêt réel mondial, c : la propension marginale à consommer (appelée «préférence pour le présent»), ä: le progrès technique,

L : la population. Les variables endogènes sont Q: le TCR, r : le taux d'intérêt réel national, y : le PIB, Y : le PNB, C : la consommation (privée et publique), S : l'épargne,

I : l'investissement, k : le capital par tête, F : la dette extérieure nette (ou les actifs extérieurs nets si F < 0), B : le solde commercial, BC : le solde courant.

La solution du modèle est le NATREX de moyen terme Q [MT]. La solution de long terme est le NATREX de long terme Q [LT], défini par Q [LT] = {Q [MT], dk / dt = 0,

dF / dt = 0}.

Les flux de capitaux ne sont pas fixés de manière exogène. Ils résultent

directement des comportements d'épargne et d'investissement, qui dépendent eux- mêmes de déterminants explicites. En ce sens, par rapport à l'approche FEER, le NATREX fait davantage le lien entre l'évolution du TCR et les comportements microéconomiques des agents. Outre le taux d'intérêt mondial, exogène dans le cas d'un petit pays17, il existe principalement deux fondamentaux 18 qui influencent les flux de capitaux et, in fine, le taux de change d'équilibre. Le premier est le taux de consommation ou "préférence pour le présent", qui désigne la propension des ménages

et du gouvernement à consommer le revenu national. Par exemple, lorsqu'une hausse des dépenses publiques n'est pas compensée par une réduction de celles des ménages,

le taux de consommation s'accroît : ceci entraîne une diminution de l'épargne soit, à investissement inchangé, une augmentation des flux de capitaux entrants. Le deuxième facteur fondamental est le progrès technique, dont l'accroissement élève le niveau d'investissement : ici encore, à épargne inchangée, il s'en suit une amélioration du solde de la balance des capitaux.

Le modèle théorique se fonde sur un lien de causalité comparable à celui existant dans le FEER: les déterminants «structurels» de l'épargne et de l'investissement engendrent un solde des flux de capitaux de moyen terme ; ce dernier

détermine le solde de la balance courante

ex-post, qui est atteint par le biais d'un

ajustement du change réel. Au total, le TCR d'équilibre est donc fonction des deux principaux déterminants de l'épargne et de l'investissement, à savoir la propension marginale à consommer ("préférence pour le présent") et le progrès technique.

Les enseignements du modèle NATREX peuvent différer selon l'horizon d'analyse retenu. Le NATREX est un modèle dynamique. Du fait notamment des effets de l'évolution de la position extérieure nette sur l'épargne et sur le solde des

revenus de facteurs, le taux de change d'équilibre évolue en effet au fil du temps. Sa

17 Mais endogène dans le cas de vastes zones telles que les Etats-Unis ou la zone euro, dont le poids dans l'économie mondiale est suffisant pour que leurs comportements d'épargne et d'investissement influencent le taux d'intérêt mondial.

18 Un troisième, les termes de l'échange, est également susceptible d'être intégré dans le modèle.

dynamique ne prend fin que lorsque la position extérieure nette se stabilise, c'est-à-

dire lorsque le solde courant est nul : on atteint alors l'équilibre de long terme, stable, déterminé par les deux fondamentaux que sont le taux de consommation et le progrès technique. Par conséquent, les enseignements du modèle peuvent différer selon qu'on

se place à un horizon de moyen ou de long terme. Il est possible d'illustrer cette distinction en examinant par exemple l'impact d'une hausse du taux de consommation

sur le change d'équilibre. A investissement inchangé, la baisse induite de l'épargne nationale fait monter le taux d'intérêt réel national.

Ceci attire les capitaux et fait monter le TCR, jusqu'à ce que le taux d'intérêt réel soit à nouveau égal au taux d'intérêt réel mondial. La hausse du TCR dégrade la balance courante, qui contrebalance ex-post le nouveau solde des flux de capitaux. A

moyen terme, les effets d'une hausse du taux de consommation sont donc les suivants :

entrées

de capitaux, appréciation du TCR, dégradation du solde courant. Le TCR

d'équilibre précédent n'est toutefois pas soutenable à long terme, car il entraînerait un accroissement perpétuel de la dette extérieure. C'est pourquoi le modèle impose que celle-ci se stabilise à long terme. Le mécanisme par lequel cette stabilisation va intervenir repose sur un "effet de richesse" (ici négatif) : à mesure que la dette extérieure s'accroît, la richesse nette des ménages et du gouvernement décline, ce qui

les incite à réduire leur consommation. A mesure que l'épargne augmente, les capitaux sortent, ce qui déprécie le TCR et redresse progressivement le solde courant. Ce processus se poursuit jusqu'à ce que les flux de capitaux et le solde courant deviennent nuls. La dépréciation du TCR va plus que compenser son appréciation initiale, pour la raison suivante : avec une dette extérieure plus forte qu'initialement, les paiements d'intérêts sont supérieurs à ce qu'ils étaient au départ, de sorte qu'un solde courant nul

ne peut être obtenu que moyennant un redressement du solde commercial et donc une baisse du TCR. A long terme, les effets d'une hausse de la préférence pour le présent sont donc les suivants : hausse de la dette extérieure nette, dépréciation du TCR. L'impact du progrès technique sur le change d'équilibre de long terme apparaît a priori plus favorable. La différence majeure avec une hausse du taux de consommation tient

à ce que les entrées de capitaux financent non plus la consommation, mais la formation

de capital. Cette accumulation va générer un surcroît de production, et donc d'épargne.

Il est donc possible que le pays passe progressivement d'un statut d'importateur à un statut d'exportateur net de capitaux, accumule alors des excédents extérieurs, ce qui apprécierait le TCR à long terme (cas du Japon dans les années 1970-1980). Cet effet

est toutefois ambigu, dans la mesure où le surcroît d'activité engendré par les gains de productivité entraîne une hausse des importations, laquelle tend à dégrader le solde courant. Les estimations économétriques concluent toutefois presque systématiquement à un impact positif du progrès technique sur le change réel à long terme.

Section 3- Une brève revue de la littérature empirique

Comme le rappellent Borowski et al. [1998], les estimations du taux de change d'équilibre dépendent bien évidemment des choix méthodologiques effectués. Il existe

deux grandes catégories de méthodes d'estimation : d'une part, les simulations réalisées

à partir d'un modèle macroéconomique multinational complet (approche dynamique)

et, d'autre part, la construction d'une maquette représentative du long terme d'un modèle donné; cette seconde approche étant qualifiée de statique comparative. Cette dernière méthode est la plus fréquemment utilisée et consiste à comparer la situation historique à une situation dite d'équilibre, sans se préoccuper de la transition d'une situation à l'autre. Selon Borowski et al. [1998], l'avantage de la méthode de statique comparative est qu'elle est simple et transparente et qu'elle autorise ainsi un calcul de sensibilités à des hypothèses alternatives.

Nous distinguerons ici les études basées sur l'approche traditionnelle (approche macroéconomique généralement appréhendée au travers de la statique comparative) des études plus positives reposant sur une démarche économétrique.

3.1- Les études basées sur l'approche traditionnelle

Les évaluations empiriques de taux de change réel d'équilibre ont

principalement été effectuées à partir des travaux pionniers de Williamson [1983] :

citons notamment Barrell et Wren- Lewis [1989], Barrell et In't Veld [1991],

Williamson [1991], Church [1992]. Rappelons que Williamson a introduit la notion de taux de change d'équilibre fondamental (Fundamental Equilibrium Exchange Rate, FEER) défini comme le taux de change réel assurant à moyen terme la réalisation simultanée de l'équilibre interne et de l'équilibre externe. Un modèle macro économétrique est alors utilisé pour assurer la cohérence des différentes variables utilisées. Néanmoins, ainsi que le rappelle Coudert [1999], un grand nombre de travaux plus récents n'utilisent pas des modèles macro économétriques complets, mais seulement des équations de commerce extérieur. En inversant ces équations, une relation peut être obtenue entre le taux de change réel, la balance courante et l'output gap.

L'étude de Williamson [1991], fondée sur l'utilisation de plusieurs modèles macro économétriques multinationaux, a quant à elle pour objet la comparaison de diverses estimations du taux de change d'équilibre fondamental dans plusieurs pays

européens. En 1994, l'auteur utilise les simulations de plusieurs modèles afin d'estimer

le taux de change réel d'équilibre des pays industrialisés au début des années 90. Les résultats qu'il obtient mettent en exergue d'importants écarts significatifs entre change effectif et change d'équilibre pour les Etats-Unis, le Japon et l'Allemagne.

Dans leur étude sur les taux de change d'équilibre fondamentaux des dix grands pays industrialisés sur la période 1984-1995, Borowski et al. [1998] retiennent l'approche de statique comparative afin d'estimer ces taux de change d'équilibre. Dans

ce cadre, les auteurs définissent l'équilibre interne à la manière de Williamson [1985,

1991, 1994]. Ils supposent en effet que cet équilibre interne est défini à partir d'une évaluation des rythmes de croissance potentielle effectuée indépendamment de la maquette retenue19. En conséquence, l'équilibre interne est exogène au modèle dans la

19 La méthode de résolution employée par les auteurs repose sur la construction d'une maquette de long terme du commerce

extérieur issue du modèle NIGEM (National Institute Global Econometric Model). La résolution de cette maquette

est effectuée en log-linéarisant les différentes équations du modèle à chaque période au voisinage de l'état réalisé. Elle permet alors d'obtenir, à chaque période, les écarts des taux de change à leur valeur d'équilibre. Ceux-ci apparaissent ainsi comme une combinaison linéaire des output gaps et des écarts aux cibles de balance courante de l'ensemble des pays.

mesure où il est supposé que la croissance potentielle et le taux de change réel sont

indépendants. Enfin, dans la détermination de l'équilibre externe, les auteurs retiennent uniquement les interactions entre les échanges de biens et services et le taux de change réel. Les résultats obtenus par les auteurs montrent que le franc a été proche de sa valeur d'équilibre jusqu'en 1989 et se caractérise ensuite par un mouvement d'appréciation réelle qui atteint un pic en 1991. A partir de 1991, le franc retourne progressivement vers son niveau d'équilibre qu'il atteint à la fin de l'année 1995. Concernant le mark, les résultats mettent en avant l'existence d'une importante sous- évaluation de 1983 à 1993. A partir de 1993, le mark rejoint ensuite rapidement son niveau d'équilibre pour l'atteindre en 1995. Ces résultats confirment ainsi ceux obtenus

par Barrell et In't Veld [1991]. Borowski et al. [1998] cherchent également à évaluer le rôle joué par les outputs gaps et les écarts aux cibles de balance courante dans les surévaluations et les sous-évaluations réelles des monnaies. Concernant la France, les auteurs soulignent que de 1986 à 1988, l'output gap et l'écart à la cible de balance courante contribuent tous deux à la surévaluation du franc. A partir de 1989, ces deux effets se compensent partiellement avant de se renforcer mutuellement de 1992 à 1995.

Du point de vue de l'Allemagne, les résultats montrent que de 1984 à 1990, la sous évaluation du mark s'explique principalement par l'écart à la cible de la balance courante; l'excédent de la balance courante ayant pour effet d'éloigner le taux de change réel du mark de son niveau d'équilibre. A la fin de l'année 1990 la sous- évaluation du mark résulte essentiellement du rôle joué par l'output gap; l'écart à la balance courante n'exerçant plus aucun effet en raison de l'importante détérioration de son solde. Enfin, les facteurs expliquant le retour vers l'équilibre du taux de change réel du mark à partir de 1993 sont difficiles à identifier dans la mesure où l'économie allemande ne semble jouer aucun rôle.

Borowski et al. [1998] se sont également attachés à déterminer les taux de change d'équilibre de dix pays industrialisés (sur la période 1987.4 à 1997.2) dans le cadre des relations de long terme du modèle multinational NIGEM dans deux scénarios : un scénario à cibles de balances courantes nulles dans tous les pays et un scénario à cibles de balances courantes "réalistes". Leurs résultats mettent alors en

avant la grande sensibilité des conclusions au choix des cibles de balances courantes.

Ainsi, dans le scénario de référence d'équilibre de tous les comptes courants, le dollar apparaît nettement surévalué en termes réels sur la période 1988-1997. En revanche, lorsque l'on retient un scénario de cibles de balances courantes réalistes, le dollar apparaît sous évalué à partir de 1996 malgré l'important mouvement d'appréciation qu'il a subi. Borowski et al. [1998] concluent alors qu'en diminuant l'ampleur de l'ajustement à réaliser pour les Etats Unis, l'impact des conjonctures étrangères et la résorption des déséquilibres externes du reste du monde l'emportent sur l'impact du déficit courant américain. Notons que les auteurs mettent également en avant cette sensibilité des résultats au choix des cibles de balance courante dans le cas de la France. Ainsi, dans le cas de cibles nulles, le franc apparaît surévalué jusqu'en 1994.

En retenant une cible plus réaliste (cible de compte courant d'un point de PIB), cette surévaluation s'atténue très sensiblement. Une telle conclusion semble confirmée par Joly et al. [1999].

Joly et al. [1999] ont en effet également cherché à estimer le taux de change réel d'équilibre dans le cas de la France sur la période 1977-1997. En retenant initialement une cible de compte courant soutenable consistant à laisser inchangée la dette externe du pays, les auteurs montrent que le franc (en termes réels) n'est pas

surévalué par rapport à l'ensemble des monnaies des partenaires. En supposant ensuite que la cible de compte courant soutenable consiste à rembourser la dette externe en un nombre donné d'années, les résultats de Joly et al. [1999] font ressortir l'existence d'une certaine sous-évaluation du change en fin de période. Globalement, il ressort de cette étude que le franc n'est pas surévalué à la fin des années quatre-vingt-dix et qu'il aurait plutôt tendance à s'apprécier à moyen terme. Selon les auteurs, ce résultat témoigne du fait que la France ne souffre pas de problème de compétitivité dans ses échanges extérieurs et que le niveau du change effectif réel n'a pas constitué un obstacle à une croissance plus soutenue au cours de la décennie quatre-vingt-dix.

Mentionnons également l'étude de Borowski et Couharde [1999] visant à définir la parité d'équilibre (en termes nominaux, et non pas réels) de l'euro vis à vis du

dollar en retenant les spécifications de long terme des équations du modèle NIGEM.

En supposant une cible de compte courant globalement équilibrée pour l'ensemble des

pays considérés, les auteurs montrent que c'est l'excédent courant de la zone euro, combiné au déficit américain, qui se trouve à l'origine de la sous-évaluation de l'euro

vis à vis du dollar au premier trimestre 1998. Cette sous-évaluation est telle que, au premier trimestre 1998, le taux de change d'équilibre de l'euro s'établit au niveau de

1,20$US. Les auteurs relativisent cependant ce résultat pour deux raisons principales. D'une part, cette parité peut être surestimée du fait des incertitudes pesant sur le chiffrage de l'excédent commercial de la zone euro. D'autre part, l'accentuation du déficit courant américain et celle du surplus courant européen se font en grande partie

sur des zones non prises en compte dans l'étude, ce qui peut à nouveau conduire à surestimer la sous évaluation de l'euro.

On constate que les études précédemment citées portent essentiellement sur les pays industrialisés. A cet égard, les travaux de Coudert [1999] portant sur les pays émergents apparaissent intéressants et permettent de compléter ce bref aperçu de la

littérature empirique. Coudert [1999]

cherche à évaluer les taux de change réels

d'équilibre de 16 pays émergents d'Asie et d'Amérique latine sur la période 1977-1997

par le

biais d'un modèle incorporant deux types d'effets : d'une part, l'effet Balassa

et d'autre part, la soutenabilité de la dette extérieure liée aux paiements des intérêts (la soutenabilité de la dette extérieure est définie par la stabilisation en pourcentage du PIB). L'auteur montre alors que les périodes de surévaluation détectées sont souvent suivies de crises de change. C'est ainsi notamment le cas au Mexique, avant les deux crises de 1981 et 1994, au Brésil depuis 1995 et en Thaïlande en 1996. Dans ce cadre,

on peut également mentionner les travaux de Mongardini [1998]. Cette étude portant

sur la monnaie égyptienne met en avant le fait que le taux de change égyptien était fortement surévalué avant 1993 mais qu'aujourd'hui, cette surévaluation est nettement plus faible; le taux de change se trouvant proche de son niveau d'équilibre.

3.2- Les études économétriques

D'autres approches, plus positives que normatives, cherchent à évaluer le taux

de change d'équilibre au moyen d'équations réduites. Ces travaux s'appuient sur les relations de long terme existant entre le taux de change réel et diverses variables macroéconomiques influençant les équilibres interne et externe. La mise en évidence

de telles relations de long terme fait dès lors appel à la théorie de la cointégration et à l'estimation de modèles à correction d'erreur (voir notamment Stein [1994], McDonald

[1995, 1997], Clark et McDonald [1998], Aglietta et al. [1998]). Ces diverses études

se situent ainsi dans une perspective plus économétrique que les travaux précédemment cités. Notons que cette approche économétrique constitue l'approche adoptée pour estimer les taux de change réels d'équilibre selon l'approche microéconomique. En effet, face aux difficultés résultant de la mise en oeuvre d'un modèle d'équilibre général inter temporel, les travaux empiriques se sont principalement attachés à mettre en évidence plusieurs déterminants fondamentaux des taux de change réels d'équilibre. Ceci peut donc se faire grâce à la théorie de la cointégration en mettant en avant l'existence de relations de long terme entre le taux de change réel et divers facteurs structurels; les écarts de court terme du change observé

au change d'équilibre résultant de facteurs cycliques, spéculatifs ou monétaires.

Edwards [1989] a ainsi estimé le taux de change réel d'équilibre d'un ensemble

de pays en voie de développement. L'auteur a mis en avant l'existence d'un certain nombre de déterminants du change réel tels que les termes de l'échange, le progrès technique, l'accumulation du capital, le niveau de la répartition des dépenses publiques entre les biens échangeables et les biens non échangeables et divers indicateurs du contrôle des changes. Halpern et Wyplosz [1996] ont cherché à déterminer les fondamentaux du change réel des pays en transition de l'Europe de l'Est et ont mis en exergue l'importance de la productivité apparente du travail, des termes de l'échange

et du taux de participation sur le marché de l'emploi. Parikh et Kahn [1997] appliquent quant à eux la théorie de la cointégration au taux de change de l'Afrique du Sud. Leurs résultats montrent que le taux de change réel d'équilibre de long terme est fonction d'un certain nombre de fondamentaux tels que les prix de l'or, la croissance de la

productivité, les coûts de transport et les termes de l'échange. A court terme, le poids

de la dette extérieure et intérieure influence le comportement du taux de change réel. Leur analyse montre en outre que la croissance de la productivité en Afrique du Sud a pour conséquence une appréciation du taux de change réel contre le dollar à long terme, alors qu'à court terme elle ne semble avoir aucun effet. Signalons enfin les travaux de Abimanyu [1998] analysant, pour l'Indonésie, la relation entre le taux de change réel effectif, le taux de change réel d'équilibre et diverses variables macroéconomiques. Son étude montre que deux déterminants expliquent l'évolution du change réel : la consommation publique et le déficit fiscal. Une augmentation de ces deux variables entraîne ainsi une appréciation du change réel, ce qui remet en cause l'équivalence ricardienne.

Aglietta et al. [1998] considèrent quant à eux un modèle de taux de change réel d'équilibre prenant en compte l'effet Balassa, la soutenabilité de la position extérieure nette et un terme représentatif de la compétitivité hors prix. L'effet Balassa est pris en compte par le biais du rapport des prix relatifs entre les biens échangeables et les biens

non échangeables : lorsque ce rapport augmente plus vite dans un pays A que dans un pays B, le taux de change réel du pays A relativement au pays B tend à se déprécier.

La position extérieure nette est définie par le solde cumulé de la balance courante : plus un pays a accumulé d'excédents, plus sa position extérieure nette est élevée et plus son taux de change réel d'équilibre s'apprécie. Enfin, à la suite des travaux de Aglietta

et Baulant [1994], la variable représentative de la compétitivité hors-prix est constituée des dépenses en recherche et développement : une augmentation de la compétitivité hors prix engendre une appréciation du taux de change réel d'équilibre. Ce modèle

est appliqué aux taux de change réels bilatéraux du dollar par rapport à trois monnaies européennes : mark, franc et lire sur la période 1973.1 à 1996.4. Les tests effectués par Aglietta et al. [1998] montrent que les séries de taux de change réels sont intégrées d'ordre un et mettent en avant l'existence d'une relation de cointégration entre les taux

de change réels et les variables fondamentales du modèle pour tous les pays considérés.

L'estimation de modèles à correction d'erreur montre en outre que les écarts de

taux d'intérêt jouent un rôle important dans la dynamique du taux de change, de même

que le mésalignement 20 constaté à la période précédente. Les auteurs agrègent ensuite

les trois monnaies considérées selon leur poids dans l'ECU afin de construire une proxy du taux de change d'équilibre de l'euro contre le dollar. Les résultats obtenus font ressortir le fait que le mésalignement est croissant depuis 1983, la surévaluation réelle du dollar par rapport à l'euro dépassant 40% en 1985. Depuis 1986, le taux de change réel d'équilibre du dollar contre l'euro suit une tendance légèrement baissière.

En étudiant les contributions des diverses variables fondamentales à la détermination

du taux de change réel d'équilibre, les auteurs montrent que l'impact de la recherche- développement, bien que significatif, joue très faiblement. En revanche, les rapports de prix relatifs et les positions extérieures nettes apparaissent comme étant deux déterminants fondamentaux dans la formation du taux de change réel d'équilibre.

Concernant à présent l'approche en termes de besoin de financement des nations, la plupart des études (voir Cadiou [1999]) suppose qu'à moyen terme la

balance des capitaux s'ajuste à la balance courante, c'est à dire au besoin (ou

à la

capacité) de financement des différents pays. Dans ce cadre, Masson et al. [1996]

et Stein [1995] estiment des équations d'investissement et d'épargne et s'appuient sur la différence entre l'épargne et l'investissement pour définir les cibles de balance courante

à moyen terme. Stein [1995] réalise alors une application empirique concernant le taux

de change du dollar contre les autres monnaies des pays du G7. Le taux de change réel

du dollar ne dépend à long terme que des préférences pour le présent des Etats Unis

et des pays du G7, définies comme la propension moyenne des agents domestiques privés et publics à consommer le revenu national. L'auteur montre qu'il existe une relation de cointégration entre le taux de change réel et les propensions à consommer.

20 Bien évidemment, ce mésalignement de la période antérieure représente le résidu (en t-1) de la relation de cointégration précédemment estimée

Plus précisément, le dollar se déprécie lorsque la préférence pour le présent

augmente aux Etats Unis en raison de l'aggravation du déficit extérieur et de la baisse

du stock d'avoirs extérieurs net à long terme. La balance commerciale doit dès lors s'améliorer pour répondre aux paiements d'intérêts vis à vis des pays du G7. A plus court terme, le change réel s'apprécie en raison de l'augmentation du différentiel d'intérêt entre les Etats Unis et les pays du G7 afin d'assurer l'équilibre de la balance

des paiements.

Conclusion

Même si la théorie de la parité des pouvoirs d'achat constitue une référence utile

à long terme pour les taux de change nominaux, nous avons mis en avant ses inconvénients lorsque l'on raisonne en termes de taux de change réels. En particulier, cette théorie, postulant la constance ou la stationnarité du change réel, fait abstraction

de toute considération d'équilibre macroéconomique : elle ne permet pas de relier le taux de change réel à la situation économique d'un pays et, en particulier, à sa position extérieure. Face à ces insuffisances théoriques et aux nombreuses difficultés empiriques soulevées par cette théorie, nous nous sommes tournés vers d' autres approches de détermination du taux de change réel d'équilibre notamment : l'approche macroéconomique et l'approche NATREX.

Ces approches nous ont explicité les fondamentaux et les déterminants du taux

de change réel d'équilibre .La question qui se pose alors est de savoir s'il y a une rupture entre le taux de change et ses fondamentaux.

Chapitre II - Expliquer les déviations du taux de change: mémoire longue

Introduction

Les approches du taux de change d'équilibre sont fondées sur l'idée que le prix relatif de deux monnaies doit refléter les différences de structures économiques entre deux pays à un moment donné du temps.

Cette définition du taux de change d'équilibre a donné lieu à deux types de travaux. D'un côté, certains auteurs cherchent à étudier les trajectoires des taux de change vers un équilibre de long terme que le théoricien définit au regard de critères normatifs. Le plus connu de ces critères est la soutenabilité des équilibres internes

et externe à la Williamson (1994). Cette approche conduit à définir le taux de change comme un "taux de change d'équilibre fondamental". D'un autre côté, il est possible d'avoir une approche plus empirique, basée sur l'estimation formes réduites. Dans ce cas, les cibles de long terme ne sont pas fixées a priori, mais déterminées suivant une relation de long terme entre le taux de change et ses fondamentaux économiques.

Ce chapitre s'inscrit dans la seconde optique. Notre but est d'expliquer les écarts persistants du taux de change euro/dollar par rapport à leurs valeurs fondamentales durant la période 1990-2004.

Ce chapitre est organisé de la manière suivante. La section 1 présente le cadre théorique de base retenu et les séries utilisées. La section 2 est consacrée à une première étude de la cointégration entre le taux de change et leurs fondamentaux.

Et une section 3 qui met en évidence le caractère persistant des déviations du taux de change du taux de change réel à travers le processus de mémoire longue ARFIMA.

Section 1 : Le cadre théorique

1.1. Le modèle théorique

Les modèles monétaristes avec ses différentes versions sont les plus utilisés dans les études empiriques afin d'évaluer les propriétés dynamiques de la relation liant

le taux de change aux fondamentaux.

L'équilibre monétaire dans le pays domestique et étranger21 peut être donné

par :

mt - pt = 1 it + 2 yt (2.1)

mt* - pt* = 1 it* + 2 yt* (2.2)

Où mt, pt, it et yt sont respectivement les encaisses monétaires, le niveau de

prix, le taux d'intérêt et le revenu. Tous les variables sont exprimés en logarithme à l'exception du taux d'intérêt.

Avec 1, 2 sont les paramètres du demande de monnaie avec 1 < 0, 2 > 0

et tous les deux sont identiques pour le pays domestique22 et étranger.

L'équilibre sur le marché des biens marchands s'établit lorsqu'il n'y a plus d'opportunités d'arbitrages, en d'autres termes, si la PPA est vérifiée, il s'ensuit que :

et = pt* - pt (2.3)

Où et désigne le logarithme du taux de change nominal (le nombre d'unité de monnaie étrangère par unité de monnaie domestique).

Formellement, en substituant les équations (1) et (2) dans l'équation (3) et en réarrangeant les termes, nous aurons l'équation de base du modèle monétaire :

et = (mt - mt* ) - 1 (it - it* ) - 2 (yt -yt* ) (2.4)

En supposant la validité de l'hypothèse de la PTINC23 :

it - it* = Et ( et+1) (2.5)

21 L'astérisque dénote les variables étrangères

22 Dans notre étude empirique, on suppose que la zone euro est le pays domestique

23 La parité de taux d'intérêt Non Couvert PTINC est un équilibre provenant d'une spéculation entre taux d'intérêt, avec prise de risques de change (en supposant une concurrence parfaite dans des marchés financiers

internationaux intégrés, donc sans contrôle ni taxe de change). Cette parité peut être utilisée en conjonction avec l'hypothèse d'anticipations rationnelles pour tester l'efficience des marchés du change.

en t .

Où Et est l'espérance mathématique conditionnelle à l'information disponible

*

cas :

Dans le cas où et+1 = 0 (hypothèse de stationnarité), on a alors it

= it. Dans ce

et = (mt - mt*) - 2 (yt -yt*) (2.6)

Mark (1995) et Mark et Sul (2001) ont validé une autre hypothèse à travers des études empiriques à savoir 2 = 1, d'où l'équation devient :

et = (mt - mt*) - (yt -yt*) (2.7)

Suivant cette relation, le taux de change est déterminé par les différentiels des encaisses monétaires et des revenus.

La relation 2.7 stipule qu'un excès dans l'accroissement de la demande locale

de monnaie par rapport à la demande étrangère entraîne une augmentation de et, signalant ainsi, la détérioration de la valeur de la monnaie locale en terme de son homologue étrangère.

Aussi, la relation stipule que, toutes choses étant égales par ailleurs, qu'une augmentation du revenu local entraîne souvent une appréciation de la monnaie locale

(et baisse).

1.2. Donnée

Afin d'effectuer notre étude empirique, nous avons collecté les données se rapportant aux taux de change EUR/USD des publications mensuelles de la banque centrale Européenne.

Nous avons collecté d'autre part, à partir des statistiques de l'Eurostat , du Federal Reserve Bank et du Board of Governors of The Federal Reserve System des données se rapportant aux demandes de monnaie domestique zone Euro24 et étrangère USA et les indices de productions industriels domestiques et étrangères.

Notre échantillon couvre la période allant de 1990 à 2004 (les données ont été

toutes normalisées à la même période de base 2000). Les données sont en fréquence

24 La zone euro comporte 12 pays à savoir : Belgique, Allemagne, Grèce, Espagne, France, Irlande, Italie, Luxembourg, Pays-Bas, Autriche, Portugal et Finlande.

mensuelle, soit un total de 177 observations. Toutes les variables sont prises en

logarithmes.

L'analyse empirique sera consacrée à l'évaluation empirique de la théorie monétariste de détermination du taux de change (modèle 2.7). Pour ce faire, nous allons dans un premier temps, étudier les propriétés statistiques des différentes séries

au moyen des tests de racines unitaires (test de stationnarité). Il s'agit dans un deuxième temps de vérifier à partir des tests de cointégration si le taux de change converge à long terme vers ses fondamentaux.

Section 2 : Vérification de l'hypothèse de convergence à long terme entre le taux de change et les fondamentaux

Afin de tester l'hypothèse de convergence à long terme entre le taux de change

et les fondamentaux, noux allons étudier les propriétés statistiques des différentes au moyen des tests de racine unitaires à savoir le test de Dickey-Fuller, test Dickey-Fuller augmenté, test Phillips-Perron et le test Kwiotowski, Phillips, Schmidt, Shin. Ensuite, nous allons tester la relation de convergence à long terme entre le taux de change et les fondamentaux à travers deux méthodes à savoir la méthode en deux étapes de Engle

et Granger et la méthode de Johansen.

2.1. Les tests des racines unitaires

Dans la littérature, la non stationnarité d'un processus stochastique est souvent définie à travers la variabilité temporelle de ses moments d'ordre 2. Afin de donner une définition « plus concrète » à la notion de la non stationnarité, Newbold et Granger

ont proposé deux types de processus distinguant la nature de la non stationnarité.

Le premier type, appelé Trend Stationary (TS) est donné par :

Xt = á0 + á1 t + åt (2.8)

Le processus TS est non stationnaire en moyenne, il vérifie le phénomène retour à la moyenne décrit ci-dessus : E (Xt) = á0 + á1 t

Le deuxième type, appelé Difference Stationary (DS) :

Xt = á0 + á1 t + Xt-1 + åt (2.9)

Le processus DS est non stationnaire aussi bien en moyenne qu'en variance :

E (Xt) = X0 + á1 t ; V (Xt) = t 2

et Cov( Xt, Xs) = min(t, s) 2

avec s t

Il apparaît évident que les structures DS et TS jouent un rôle important dans le

traitement statistique d'une série. Comment choisir entre l'une ou l'autre des structures ? Les tests de recherche de racine unitaire dans les processus générateurs tentent de répondre à cette question. Nous présentons tout d'abord le test de Dickey- Fuller simple (1979), puis le test de Dickey-Fuller augmenté (1981), le test de Phillips- Perron (1988) et enfin le test test Phillips-Perron et le test Kwiatkowski, Phillips, Schmidt, Shin qui mettent en évidence le caractère stationnaire ou non d'une série.

2.1.1. Test de Dickey-Fuller DF

Dickey -Fuller (1979) considèrent trois modèles de base pour la série Xt,

t = 1,..., T.

Les trois modèles de base

- Modèle (1) : modèle AR (1) sans constante ni tendance déterministe :

(1 - ñ L) Xt = å t (2.10)

- Modèle (2) : modèle AR (1) avec constante sans tendance déterministe :

(1 - ñ L) (Xt - á) = å t (2.11)

- Modèle (3) : modèle AR (1) avec constante et tendance déterministe :

(1 - ñ L) (Xt - á - â t) = å t (2.12)

ó2å).

Dans chacun des trois modèles, on suppose que å t suit un bruit blanc BB (0,

Si ñ =1, cela signifie qu'une des racines du polynôme retard est égale à 1. On

dit alors qu'on est en présence d'une racine unitaire. En d'autres termes, Xt est un

processus non stationnaire et la non stationnarité est de nature stochastique (processus

DS).

Hypothèses

On teste l'hypothèse nulle de racine unitaire (Xt est intégrée d'ordre 1, c'est-à- dire non stationnaire) contre l'hypothèse alternative d'absence de racine unitaire (Xt

est intégrée d'ordre 0, c'est-à-dire stationnaire). Ecrivons plus précisément les

hypothèses nulle et alternative pour chacun des trois modèles considérés :

Modèle (1) :

H0 : ñ = 1 ? Xt = Xt-1 + å t

H1 : | ñ | < 1 ? Xt = ñ Xt-1 + å t

Ainsi, sous l'hypothèse nulle, il s'agit d'un modèle DS de marche aléatoire sans

dérive. Sous l'hypothèse alternative, Xt suit un processus AR (1).

Modèle (2) :

H0 : ñ = 1 ? Xt = Xt-1 + å t

H1 : | ñ | < 1 ? Xt = ñ Xt-1 + ã + å t avec ã = á (1 - ñ)

L'hypothèse nulle correspond à un modèle DS de marche aléatoire sans dérive. Sous l'hypothèse alternative, Xt suit un processus AR (1) avec dérive.

Modèle (3) :

H0 : ñ = 1 ? Xt = Xt-1 + â + å t

H1 : | ñ | < 1 ? Xt = ñ Xt-1 + ë + ät + å t

Avec ë = á (1 - ñ) + ñâ et ä = â (1 - ñ)

Sous l'hypothèse nulle, il s'agit d'un modèle DS de marche aléatoire avec

dérive. Sous l'hypothèse alternative, Xt est un processus TS avec erreurs ARMA.

Stratégie séquentielle de test

En pratique, on estime les modèles sous la forme suivante :

Modèle (1') :

? Xt = Ö Xt-1 + å t (2.13)

Modèle (2') :

? Xt = Ö Xt-1 + ã + å t (2.14)

Modèle (3') :

? Xt = Ö Xt-1 + ë + ät + å t (2.15)

å

Avec, pour chaque modèle, Ö = (1 - ñ) et å t suit BB (0, ó2 ). On ne teste alors

l'hypothèse nulle Ö = 0 (non stationnarité) contre l'hypothèse alternative Ö < 0 (stationnarité) en se référant aux valeurs tabulées par Fuller (1976) et Dickey -Fuller (1979, 1981). Dans la mesure où les valeurs critiques sont négatives, la règle de décision est la suivante :

- Si la valeur calculée de la t-statistique associé à Ö est inférieur à la valeur critique,

on rejette l'hypothèse nulle de non stationnarité.

- Si la valeur calculée de la t-statistique associé Ö est supérieur à la valeur critique, on accepte l'hypothèse nulle de non stationnarité.

Il est fondamental de noter que l'on n'effectue pas de test sur les trois modèles.

Il convient en effet d'appliquer le test de Dickey-Fuller sur un seul des trois modèles.

En pratique, on adopte une stratégie séquentielle en trois grandes étapes.

- Etape 1 :

On estime le modèle (3). On commence par tester la significativité de la tendance en se référant aux tables de Dickey-Fuller (voir tableau 2.1). Deux cas peuvent se présenter :

- si la tendance n'est pas significative, on passe à l'étape 2.

- si la tendance est significative, on teste l'hypothèse nulle de racine unitaire en

comparant la t-statistique de Ö aux valeurs tabulées par Dickey-Fuller. On a alors deux possibilités :

* si l'on accepte l'hypothèse nulle, Xt est non stationnaire. Dans ce cas, il faut

la différencier et commencer la procédure de test sur la série en différence première.

* si l'on rejette nulle, Xt est stationnaire. Dans ce cas, la procédure de test s'arrête et l'on peut directement travailler sur Xt.

Tableau2.1 Valeurs critiques de la constante et de la tendance, tests de Dickey- Fuller

T

Modèle 2

Modèle 3

Constante

Constante

Trend

1% 5% 10%

1% 5% 10%

1% 5% 10%

100

3.22 2.54 2.17

3.78 3.11 2.73

3.53 2.79 2.38

250

3.19 2.53 2.16

3.74 3.09 2.73

3.49 2.79 2.38

500

3.18 2.52 2.16

3.72 3.08 2.72

3.48 2.78 2.38

 

3.18 2.52 2.16

3.71 3.08 2.72

3.46 2.78 2.38

- Etape 2 :

Cette étape ne doit être que si la tendance dans le modèle précédent n'est pas significative. On estime le modèle (2') et l'on commence par tester la significativité.

On estime le modèle (2') et l'on commence par tester la significativité de la constante

en se référant aux tables de Dickey-Fuller :

· si la constante n'est pas significativité, on passe à l'étape 3.

· si la constante est significative, on teste l'hypothèse nulle de racine unitaire en comparant la t-statistique de Ö aux valeurs tabulées par Dickey-Fuller. On a alors deux possibilités :

* si l'on accepte l'hypothèse nulle, Xt est non stationnaire. Dans

ce cas, il faut la différencier et recommencer la procédure de test sur la série en différence première.

- Etape 3 :

* si l'on rejette l'hypothèse nulle, Xt est stationnaire. Dans ce cas,

la procédure de test s'arrête et l'on peut directement travailler sur

Xt.

Cette étape ne doit être appliquée que si la constante dans le modèle précédent n'est pas significative. On estime le modèle (1') et on teste l'hypothèse nulle de racine unitaire :

* si l'on accepte l'hypothèse nulle, Xt est non stationnaire. Dans ce cas,

il faut la différencier et recommencer la procédure de test sur la série en différence première.

* si l'on rejette l'hypothése nulle, Xt est stationnaire. Dans ce cas, la procédure de test s'arrête et l'on peut directement travailler sur Xt.

Les tests simples de Dickey-Fuller souffrent de deux limites importantes, à

savoir :

· D'une part, l'apparition quasi-systématique d'une autocorrélation

des résidus ; et

· D'autre part, l'importance d'une formulation « adéquate » de la composante déterministe, faute de quoi les résultats du test pourraient être systématiquement biaisés.

Deux types de corrections ont été proposés afin de prendre en compte du problème d'autoccorélation des erreurs : une correction paramétrique (le test de Dickey-Fuller augmenté) et une correction non paramétrique ou semi-paramétriques (test de Phillips-Perron).

Présentons successivement ces deux stratégies de tests.

2.1.2. Test de Dickey-Fuller augmenté (ADF)

Dans les modèles précédentes, utilisés pour les tests de Dickey-Fuller simples,

le processus å t est, par hypothèse, un bruit blanc. Or il n'y a aucune raison pour que, a priori, l'erreur soit non corrélée ; on appelle test de Dickey-Fuller augmentés (ADF,

1981) la prise en compte de cette hypothèse.

Tout comme dans le cas du test de Dickey-Fuller simple, trois modèles sont

distingués où å t est un processus AR (p- 1):

Modèle (1'') :

p

? Xt = Ö Xt-1 + j X t - j + å t (2.16)

j =1

Modèle (2'') :

p

? Xt = Ö Xt-1 + u + j X t - j + å t (2.17)

j =1

Modèle (3'') :

p

? Xt = Ö Xt-1 + ë + ät + j X t - j + å t (2.18)

j =1

La mise en oeuvre du test ADF est similaire à celle du test de DF simple : on

adopte la même stratégie séquentielle descendante partant de l'estimation du modèle

(3 ''). Les statistiques de test sont les mêmes que dans le cas du test DF simple. Il convient cependant de remarquer que l'application du test ADF nécessite au préalable

de choisir le nombre de retards p à introduire de sorte à blanchir les résidus. Le problème du choix de p est important dans la mesure où :

* L'inclusion d'un nombre insuffisant de retards peut affecter le niveau du test ; et

* L'introduction d'un nombre trop élevé de retards réduit le nombre de degrés

de liberté et la puissance du test, ce qui conduit trop souvent, de manière erronée, au non rejet de l'hypothèse nulle.

Le problème du choix du nombre de retard sera résolu à travers les critères d'informations.

Critères d'informations

Il est nécessaire de spécifier les ordres de retard (p) dans les tests DF et ADF en

se basant sur des critères statistiques tels que le critère d'information d'Akaike (Aic)

et le critère de Schwartz (Sc).

Le critère d'Akaike :

Selon le critère d'Akaike, la valeur de (p) sera celle qui minimise la fonction d'Akaike ci-après :

Aic (p) = ln (

n

t =1

2

(et / n) + (2 p / n)

(2.19)

Avec :

n

2

et

est la somme des carrés des résidus de l'équation et n est le nombre

t =1

d'observations.

Le critère de Schwartz :

Selon Schwartz, la valeur de (p) sera celle qui minimise la fonction suivante :

Sc (k) = ln (

n

t =1

2

(et / n) + p(ln(n) / n)

(2.20)

2.2. Test de Phillips-Perron (PP)

Phillips et Perron (1988) proposent une correction non paramétrique au test de Dickey-Fuller simple afin de régler le problème de l'autoccorélation et/ou de l'hétéroscédasticité des erreurs. Ils proposent ainsi un test très général avec des hypothèses minimales sur la séquence d'innovation (å t).

L'idée sous-jacente aux tests ADF est qu'en remplaçant les modèles du cadre

DF par des modèles du type :

p

? Xt = dt + Ö Xt-1 + j X t - j

j =1

+ å t (2.21)

On peut toujours choisir p assez grand pour conserver l'hypothèse de bruit

blanc sur åt. Ceci entraîne que les lois limites des estimateurs caractérisant la nature stochastique de la série sont identiques à celle du cadre DF.

La mise en oeuvre du test de Phillips-Perron est identique à celle du test de Dickey-Fuller : on adopte la même stratégie séquentielle descendante partant de l'estimation du modèle avec constante et tendance. Il convient cependant au préalable

de choisir le paramètre de troncature l, tout comme il convient de choisir le nombre de

retards p dans le cas du test ADF. On retient en général l = T1/4.

Au-delà des tests qui ont tenté d'apporter des solutions aux diffécultés soulevées par l'application des tests de Dickey-Fuller simples (apparition quasi- systématique d'une autocorrélation des résidus et la formulation adéquate de la composante déterministe). D'autres stratégies de tests ont été développées, comme par exemple la procédure de Kwiatkowski, Phillips, Schmidt, Shin.

2.3. test Kwiatkowski, Phillips, Schmidt, Shin (KPSS)

La spécificité du test KPSS de Kwiatkowski et al. (1992) est de tester l'hypothèse nulle d'absence de racine unitaire contre l'hypothèse alternative de présence d'une racine unitaire.

Kwiatkowski et al. décomposent la série Xt étudiée en la somme d'un trend

déterministe, d'une marche aléatoire et d'un terme d'erreur å t stationnaire. Sous l'hypothèse nulle de stationnarité, la variance de la marche aléatoire est égale à zéro. Plus précisément, la série étudiée Xt, t = 1, ..., T, est générée par :

Xt = á t + rt + åt (2.22)

u

Où rt est une marche aléatoire, rt = rt-1 + ut, et ut ~ BB (0, 2 ).

Kwiatkowski et al. suggérent d'utiliser un test du multiplicateur de

langrange(LM) pour tester l'hypothèse nulle de stationnarité, c'est-à-dire

u

2 = 0.

Puisque åt est stationnaire, sous l'hypothèse nulle Xt est un processus stationnaire

autour d'un trend. Si á = 0, alors, sous l'hypothèse nulle, Xt est stationnaire autour d'un niveau (disons r0) et non autour du trend.

Notons et, t = 1,..., T, les résidus issus de la régression de Xt sur une constante

et un trend déterministe. La statistique LM est donnée par :

S

T

2

t

LM =

t =1

à 2

(2.23)

Où St désigne les sommes partielles des résidus åt :

t

St = ei

i =1

t = 1, ..., T

Et à 2

est un estimateur de la variance des résidus et.

Si l'on souhaite tester l'hypothèse nulle de stationnarité en niveau au lieu de la

stationnarité autour d'un trend, il suffit de définir et comme les résidus issus de la régression de Xt sur une constante seulement.

Considérons tout d'abord le cas de la stationnarité autour d'un niveau. La

statistique de test est donnée par :

T

2

Tl

St

t =1

(2.24)

=

T 2à 2

Avec à 2 = 1

T 2

e 2 +

1

(1 -

s ) e e

et fait référence à la régression

T

Tl t

t =1

T

s =1

l + 1

t

T

t = s +1

t - s

de Xt seulement sur une constante.

Considérons maintenant le cas de la présence d'une tendance déterministe linéaire. La statistique de test s'écrit :

T

2

St

=

=t =1= (2.25)

Tl

T 2à 2

Où l'indice fait référence à la régression de Xt sur une constante et un trend

déterministe linéaire.

Kwiatkowski et al. Ont tabulé les valeurs critiques pour les deux statistiques de

test

et . Celles-ci sont reportées dans le tableau 2.2.

Tableau 2.2 : valeurs critiques du test KPSS

 

1%

5%

10%

Sans tendance ( )

0.739

0.463

0.347

Avec tendance ( )

0.216

0.146

0.119

La règle de décision est la suivante :

· Si la valeur calculée de

ou

est inférieure à la valeur critique

correspondante, on accepte l'hypothèse nulle de stationnarité ; et

· Si la valeur calculée de

ou

est supérieure à la valeur

critique correspondante, on rejette l'hypothèse nulle de

stationnarité.

2.4. Résultats et commentaires

Considérons les séries du taux de change EUR/USD, différentiel de l'indice de production entre la zone Euro et celle de l'USA, différentiel de la masse monétaire (M2) entre la zone Euro et celle de l'USA. Ces séries transformées en logarithme sont notées LTCR, LDIP, LDDM. On note DLTCR, DLDIP et DLDDM sont les différences premières des séries déjà citées.

Remarques introductives

Une première intuition concernant la stationnarité peut être fournie par l'étude des corrélogrammes des séries. Les corrélogrammes représentés dans l'annexe 2 montrent que les autoccorélations des séries LTCR, LDIP et LDDM sont toutes significatives et décroissant très lentement. Ces remarques laissent présager que les séries sont non stationnaires.

Par ailleurs, la figure 2.1 représentant l'étude du corrélogramme des séries DLTCR, DLDIP et DLDDM semble indiquer que les séries en différence première sont stationnaires.

Nous nous proposons de vérifier ces intuitions par l'application des tests de racine unitaire précédemment présentés. Nous adoptons la stratégie consistant à tester

en premier lieu l'hypothèse nulle de racine unitaire sur les séries DLTCR, DLDIP

et DLDDM. Si l'hypothèse nulle est rejetée, nous testons, en second lieu, l'hypothèse nulle de racine unitaire sur les séries LTCR, LDIP et LDDM.

Figure 2.1 corrélogramme des séries DLTCR, DLDIP et DLDDM

Corrélogramme DLTCR

Corrélogramme DLDIP

Corrélogramme DLDDM

Test de Dickey-Fuller

Testons l'hypothèse nulle selon laquelle DLTCR, DLDIP et DLDDM sont non stationnaires (elles contiennent chacune au moins une racine unitaire) contre l'hypothèse alternative de stationnarité. Pour cela, on adopte la stratégie séquentielle précédemment présentée qui consiste tout d'abord à estimer avec constante et tendance

déterministe :

p

j

D2LTCR = Ö' DLTCRt-1 + á + ât +

=1

D 2 LTCR

t - j

+ å t (2.26)

j

p

j

D2LDIP = Ö' DLDIPt-1 + á + ât +

j =1

t - j

D 2 LDIP

+ å t (2.27)

p

j

D2LDDM = Ö' DLDDMt-1 + á + ât +

j =1

D 2 LDDM

t - j

+ å t (2.28)

Où D2LTCR, D2LDIP et D2LDDM désignent les différences secondes de

LTCR, LDIP et LDDM.

L'application des tests de Dickey-Fuller nécessite tout d'abord de sélectionner

le nombre p de retards de sorte à blanchir les résidus de régression. Nous avons choisi

de nous baser sur l'étude des critères d'information (Tableau2.3). On retient donc p=1

pour les variables LTCR, LDIP et p = 0 pour LDDM, DLTCR, DLDIP et LDDM.

Tableau 2.3 Critères de choix du nombre de retard optimal des séries

Variables

Min (AIC)

Min (BIC)

Ordre retenu

LTCR

1

1

1

LDIP

11

1

1

LDDM

0

0

0

Les résultats de l'estimation des équations (2.26, 2.27) avec p=1et l'équation

(2.28) avec p = 0 sont reportés dans le tableau 2.4. La constante est notée C et la

tendance @Trend. On commence par tester la significativité de la tendance en se

référant aux tables de Dickey-Fuller (voir tableau 2.1)

La tendance n'est pas significativement différente de zéro pour les 3 séries puisque les t- statistique sont respectivement (0.58 pour DLTCR, 1.32 pour DLDIP

et -0.03 pour DLDDM) sont inférieures chacune à la valeur critique de 2.79 au seuil

de 5%.

On estime en conséquence le modèle avec constante, sans tendance déterministe dont les résultats figurent dans le tableau 2.4. On remarque que la constante n'est pas significativement différente de zéro pour les 3 séries puisque les

t-statistiques sont respectivement (-0.003 pour DLTCR, -2.42 pour DLDIP et 0.76

pour DLDDM) sont inférieures chacune à la valeur critique de 2.54 au seuil 5%.

Tableau 2.4 Significativité de la tendance et de la constante

 

Différence1ère

variables

Avec constante

et tendance

Avec constante

et sans tendance

LTCR

0.58

-0.003

LDIP

1.32

-2.42

LDDM

-0.03

0.76

On estime alors le modèle sans constante ni tendance dont les résultats sont

donnés dans le tableau 2.5

Tableau 2.5 Résultat du test d'ADF dans le modèle sans tendance et sans constante

variables

Différence

1ère

LTCR

-10.03

LDIP

-16.15

LDDM

-13.12

On procède au test de racine unitaire. La valeur estimée de la statistique ADF

est égale à -10.03 pour DLTCR, -16.15 pour DLDIP et -13.12 pour DLDDM. Ces valeurs sont inférieures chacune à la valeur critique -1.94 au seuil statistique de 5%.

On rejette en conséquence l'hypothèse nulle de racine unitaire : Les séries DLTCR, DLDIP et DLDDM sont stationnaires, c'est-à-dire intégré d'ordre 0. Ceci est cohérent avec l'étude des corrélogrammes de séries DLTCR, DLDIP et DLDDM (Figure2.1).

Afin de déterminer l'ordre d'intégration des séries LTCR, LDIP et LDDM, nous appliquons à présent la procédure de test sur la série non différenciée.

Commençons par estimer le modèle avec constante et tendance déterministe :

p

DLTCR = Ö' LTCRt-1 + á + ât + j DLTCRt - j

j =1

+ å t (2.29)

p

DLDIP = Ö' LDIPt-1 + á + ât + j DLDIPt - j

j =1

+ å t (2.30)

p

DLDDM = Ö' LDDMt-1 + á + ât + j DLDDM t - j

j =1

+ å t (2.31)

Les résultats de l'estimation des équations (2.29, 2.30, 2.31) sont reportés dans

le tableau 2.6. Les t-statistique estimées du trend pour les séries sont égales respectivement à -0.65 pour LTCR, 0.07 pour LDIP et 2.10 pour LDDM : elles sont

inférieures chacune à la valeur critique 2.79 au seuil statistique de 5%. On accepte

donc l'hypothèse nulle selon laquelle la tendance n'est pas significativement différente de zéro.

On estime alors le modèle avec constante mais sans tendance déterministe (tableau 2.6). On commence par tester la significativité de la constante. Les t- statistique de la constante pour les séries sont égales respectivement à 1.21 pour LTCR, -0.60 pour LDIP et -0.48 pour LDDM : elles sont inférieures chacune à la valeur critique 2.54 lue dans la table de Dickey-Fuller (voir tableau 2.1). On accepte donc l'hypothèse nulle selon laquelle la constante n'est pas significativement différente de zéro.

Tableau 2.6 Significativité de la tendance et de la constante

 

Niveau

variables

Avec constante

et tendance

Avec constante

et sans tendance

LTCR

-0.65

1.21

LDIP

0.07

-0.60

LDDM

2.10

-0.48

On estime pour finir le modèle sans constante ni tendance dont les résultats sont

donnés dans le tableau 2.7.

Tableau 2.7 Résultat du test d'ADF dans le modèle sans tendance et sans constante

variables

Niveau

LTCR

-1.22

LDIP

-1.80

LDDM

-1.94

On peut alors procéder au test de racine unitaire. La valeur calculée de la

statistique ADF est égale à -1.22 pour LTCR, -1.80 pour LDIP et -1.55 pour LDDM. Cette valeur est supérieure à la valeur critique -1.94 au seuil statistique de 5%. On accepte l'hypothèse nulle de racine unitaire. Les séries LTCR, LDIP et LDDM sont des séries intégrées d'ordre 1, puisqu'il faut les différencier une fois pour les rendre stationnaire.

Test de Phillips-Perron

La mise en oeuvre du test de Phillips-Perron (PP) est identique à celle du test Dickey-Fuller. Rappelons également que les valeurs critiques sont les mêmes que celles de Dickey-Fuller. Comme dans le cas du test ADF, on commence par tester l'hypothèse nulle selon laquelle DLTCR, DLDIP et DLDDM sont non stationnaires contre l'hypothèse alternative de stationnarité.

L'application du test de Phillips-Perron nécessite de choisir au préalable le paramètre de troncature l intervenant dans le calcul de la variance de long terme des résidus. Nous présentons la valeur de ce paramètre en utilisant la formule déjà mentionnée précédemment, soit l = T1/4 = 1771/4 = 4.

On estime le modèle avec constante et tendance. La tendance n'est pas apparue

significativement différente de zéro25 (tableau 2.8). Nous avons en conséquence estimé

un modèle avec constante, sans tendance. A nouveau, la constante a été trouvée non significativement différente de zéro (tableau 2.8). Nous estimons donc au final un

modèle sans constante ni tendance dont les résultats sont reportés dans le tableau 2.9.

25 Dans la mesure où la procédure est identique à celle des tests de Dickey-Fuller, nous ne reportons que les résultats relatifs au modèle finalement retenu afin de ne pas surcharger le chapitre de tableaux.

Tableau 2.8 Significativité de la tendance et de la constante

 

Différence 1ère

variables

Avec constante

et tendance

Avec constante

et sans tendance

LTCR

0.58

-0.003

LDIP

1.37

-2.42

LDDM

-0.03

0.76

La valeur calculée de la statistique de PP est égale à -9.95 pour DLTCR, -15.84

pour DLDIP et -13.13 pour DLDDM. Ces valeurs sont à comparer chacune à la valeur critique -1.94 au seuil statistique de 5%. Ils sont chacune inférieure à cette valeur : on rejette l'hypothèse nulle de racine unitaire. Les séries sont stationnaires, c'est-à-dire intégrées d'ordre 1.

Tableau 2.9 Résultat du test de PP dans le modèle sans tendance et sans constante

variables

Différence

1ère

LTCR

-9.95

LDIP

-15.84

LDDM

-13.13

Afin de déterminer l'ordre d'intégration des séries LTCR, LDIP et LDDM,

nous appliquons la stratégie de test sur les séries non différenciées. L'estimation du modèle avec constante et tendance a montré que la tendance n'est pas significativement différente de zéro (tableau 2.10). Nous avons alors procédé à l'estimation du modèle avec constante, sans tendance déterministe. La constante n'étant pas apparue significativement différente de zéro (tableau 2.10), le modèle sans constante, ni tendance est estimé (voir tableau 2.11) afin de procéder au test de racine unitaire. La valeur calculée de la statistique de PP est égale à -1.06 pour LTCR, -1.42

pour LDIP et -1.57 pour LDDM. Elles sont chacune supérieures à celle de valeur

tabulée de -1.94. On accepte l'hypothèse nulle de racine unitaire : les séries LTCR, LDIP et LDDM sont des séries non stationnaire.

Les résultats du test de Phillips-Perron confirment ainsi ceux issus de l'application du test ADF.

Tableau 2.10 Significativité de la tendance et de la constante

 

Niveau

variables

Avec constante

et tendance

Avec constante

et sans tendance

LTCR

-0.16

0.93

LDIP

-0.37

-0.32

LDDM

-2.10

-0.48

Tableau 2.11 Résultat du test de PP dans le modèle sans tendance et sans constante

variables

Niveau

LTCR

-1.06

LDIP

-1.42

LDDM

-1.57

Test KPSS

Appliquons le test KPSS aux séries DLTCR, DLDIP et DLDDM. Rappelons qu'il s'agit d'un test de stationnarité dans la mesure où, contrairement aux autres tests, sous l'hypothèse nulle les séries DLTCR, DLDIP et DLDDM sont supposées stationnaires.

La première étape consiste à choisir si l'on retient un modèle avec ou sans trend linéaire. Pour cela, on peut notamment s'aider du graphique des séries, se référer à la théorie économique ou encore utiliser les résultats des tests Dickey-Fuller

1

précédemment appliqués. On retient alors un modèle avec constante sans tendance

pour mener à bien le test KPSS, c'est-à-dire que nous calculons la statistique . Nous avons mis en oeuvre ce test pour les valeurs du paramètre de troncature l suggérées par

Schwert, à savoir :

1

T

4

T

4

l4 = int

4

l12 = int

12

100

100

Soit, dans notre cas, l4 = 4 et l12 = 13. Les résultats obtenus, reportés dans le

tableau 2.12, indiquent que les valeurs calculées de la statistique de KPSS pour les trois séries DLTCR, DLDIP et DLDDM sont inférieures à la valeur critique 0.463 au seuil de 5% ( voir tableau 2.2). On accepte donc l'hypothèse nulle de stationnarité de DLTCR, DLDIP et DLDDM.

Tableau 2.12 Résultat du test KPSS

Variables

Différence 1ère

LTCR

0.1361

0.1341

LDIP

0.2677

0.1860

LDDM

0.0405

0.0493

On s'intéresse à présent à la stationnarité des séries LTCR, LDIP et LDDM.

Afin de sélectionner le modèle à retenir, nous nous basons sur les résultats des tests de

Dickey-Fuller. Nous retenons un modèle avec constante et sans tendance pour

effectuer le test KPSS, c'est-à-dire que nous calculons la statistique

pour l4 = 4

et l12 = 13. Les résultats obtenus figurent dans le tableau 2.13. Ces valeurs sont à

comparer à la valeur critique 0.463 au seuil statistique de 5% (voir tableau 2.2). On remarque que les valeurs calculées sont supérieures à la valeur 0.463.

Tableau 2.13 Résultat du test KPSS

Variables

Niveau

LTCR

1.8021

0.7076

LDIP

2.9215

1.096

LDDM

2.7980

1.1053

Les résultats du test de KPSS confirment bien ceux du test ADF et PP

et montrent que les séries des variables du modèle admettent tous des racines unitaires

(I (1)) et présentent une stationnarité en différence première (I (0)). Nous pouvons ainsi passer au test de cointégration.

2.5. Test de cointégration

Dans cette partie, nous allons expliciter deux approches de cointégration à savoir l'approche en deux étapes d'Engle et Granger (1987) et la cointégration multidimensionnelle de Johansen (1988).

2.5.1. Théorème de représentation d'ENGLE et GRANGER (1987)

Soit la relation suivante :

Yt = a + bXt + et (2.32)

Si les deux variables Yt et Xt sont I (1) alors, en général, la combinaison linéaire

Yt - a - bXt = et est également I (1). Cependant, il est possible que et soit stationnaire

ou bien I (0). Pour qu'une telle éventualité se réalise, il faudra que les trends entre les variables Yt et Xt soient cointégrées et b est le paramètre de cointégration. En d'autres termes, deux séries Yt et Xt sont dites cointégrées si chacune d'entre elle est I (1)

et qu'il existe une combinaison linéaire telle que Yt - a - bXt = et soit I (0).

et décrit les déviations de Yt et de Xt par rapport à leurs sentiers d'équilibre respectifs. Ce résidu est souvent qualifié d'erreur d'équilibre. A partir du moment que et est stationnaire, les deux séries temporelles Yt et Xt respectent une relation stable de long terme. L'application de la technique de la cointégration reviendrait dans

ces conditions à s'assurer de la stationnarité des termes d'erreur d'équilibre. La

méthode employée par Engle et Granger (1987) repose sur deux étapes :

· La première étape consiste à estimer l'équation ou la régression de cointégrations par la méthode des moindres carrées ordinaires (MCO) sachant que Yt et Xt sont intégrées d'ordre 1. Cette opération permettra d'extraire les résidus estimés ;

· La seconde étape sera consacrée à tester la stationnarité des résidus dégagés de la première ètape. Si ceux-ci sont stationnaires, les variables figurant au niveau de la régression susmentionnée sont cointégrées. Engle et Granger préconisent pour ce faire, l'utilisation

du test de Dickey-Fuller augmenté (ADF).

Disposant de variables stationnaires en différence première, on va chercher dans ce qui suit, à identifier des variables d'équilibre de long terme à partir de l'estimation de relations cointégrantes liant le taux de change à ses déterminants fondamentaux.

Estimation par MCO

Comme première étape au test de cointégration de Engle et Granger, on va procéder à l'estimation par les moindres carrées ordinaires le modèle monétaire (MM :

équation 2.20).

2.14.

LTCR = C + C1 LDIP + C2 LDDM + åt (2.33)

Les résultats de l'estimation de l'équation 2.33 sont reportés dans le tableau

Tableau 2.14 estimation du MM par MCO

Parités

C

C1

C2

R2

DW

EURO/$

0.0375

0.5156

-0.2210

0.4013

0.0752

Les résultats des estimations du MM, Durant la période (1990 : 01 - 2004 : 09),

par les moindres carrées ordinaires sont satisfaisantes puisque les signes des coefficients sont conformes aux prédictions de la théorie.

Par ailleurs, la lecture des résultats révèle la présence conjointe d'un coefficient

de détermination assez faible (R2 = 0.4013) et d'une statistique de Durbin-Watson faible (DW = 0.0752) ce qui illustre bien le cas d'une régression fallacieuse (ce résultat est cohérent avec la « règle » intuitive fournie par Granger et Newbold (1974) concernant la présomption de régression fallacieuse). Ce phénomène s'explique principalement par la non stationnarité des variables sous-jacentes au modèle monétaire.

Etude du résidu

Après l'estimation du modèle par MCO, on va étudier dans ce qui suit les propriétés statistiques du résidu dégagé par la régression. Cette étude confirmera l'existence d'une relation de cointégration entre les différentes variables du modèle si

le résidu est stationnaire et l'infirmera dans le cas de non stationnarité du résidu. Dans

ce but, on va commencer par jeter un oeil sur l'évolution de ce résidu par la figure 2.2.

Figure 2.2 : graphique du résidu

Figure 2.2 : graphique du résidu

3

2

0

-1

-2

1990 1992 1994 1996 1998 2000 2002 2004

D'après l'examen de l'évolution du résidu, on constate que le résidu est non

stationnaire qu'on va confirmer par le test de racine unitaire d'ADF et de PP.

Les résultats de tests de stationnarité d'ADF et PP sont reportés dans le tableau

2.15. Ces résultats confirment bien l'existence de racine unitaire dans le résidu du modèle étudié. Ceci infirme la présence de relation de cointégration entre les différentes variables des modèles.

Tableau 2.15 Test ADF et PP sur le résidu

Variables

Test ADF

Test PP

Résidu

-1.4461

-1.09925

On conclut que les tests fondés sur la méthode en deux étapes de Engle

et Granger (1987) conduisent à un rejet quasi systématique des modèles théoriques (du fait de l'absence de relation de cointégration).

Nos résultats rejoingnent ceux de Meese (1986) et Boothe et Glassman (1987)

pour les modèles monétaires.

Plus récemment, en utilisant la méthode de Johansen, MacDonal et Taylor (1993, 1994) mettent en évidence plusieurs relations de cointégration, rendant une certaine validité empirique à ces modèles.

2.5.2. Le test de cointégration de Johansen(1988)

Cette partie d'étude est consacrée à l'application de la méthode de cointégration. En effet, la littérature empirique de la finance offre un très grand cumul

de travaux empiriques qui ont tenté de définir les théories de détermination du taux de change en tant que relations d'équilibres stables de long terme. Cette voie de recherche

a été encouragée par le développement de l'économétrie des séries temporelles et de la théorie de cointégration.

La technique de cointégration constitue une analyse qui génère des estimations

empiriques pour le trajet de long terme de taux de change réel tout en tenant compte de l'évolution des séries temporelles des fondamentaux. Selon la théorie de cointégration, deux séries xt et yt sont dites co-intégrés d'ordre d et b, pour 0<b<d, s'il existe un vecteur co-intégrant (á, â) tel que :

Zt = á xt + â yt est intégré d'ordre (d - b).

On distingue dans la littérature les travaux employant les procédures de test de cointégration en deux étapes de Engel et Granger (1987) des autres utilisant la cointégration multidimensionnelle de Johansen (1988) et la cointégration d'Engel

et Joyeux (1990).

Johansen propose une estimation de l'espace des vecteurs co-intégrants d'un processus vectoriel autorégressif co-intégré par la méthode de maximum de vraisemblance. C'est pour cela qu'il a proposé un test de rapport de vraisemblance (LR) pour déterminer les vecteurs co-intégrants qui traduisent le mieux les relations

co-intégrantes. Donc, l'avantage de cette méthode est qu'elle offre plus qu'un vecteur

co-intégrant.

Soit le modèle vectoriel autorégressif (VAR) d'ordre p suivant :

Xt = 1 Xt-1 + 2 Xt-2 + ... + k Xt-k +ut (2.34)

K représente l'ordre de retard du modèle choisit suivant le rapport de vraisemblance.

Xt contient n variables toutes intégré d'ordre 1 I (1).

Si on écrit cette relation sous une forme de correction d'erreur pour un vecteur

à : n variables Xt = (x1t, ..., xnt) on a :

Xt = 1 ?Xt-1 + 2 ? Xt-2 + .... + k ? Xt-k + Ð Xt-k + åt (2.35)

Où åt est supposé un vecteur de perturbations normales.

S'il existe r relations de cointégration (0< r< n) entre les composantes de Xt, la matrice Ð est de rang (n - r) et peut être décomposée sous la forme Ð = á .â, avec á

et â de dimension (n, r). Dans ce cas, si on note ë = (ë1, ..., ën) le vecteur des valeurs propres associés à la matrice des corrélations canoniques entre ? Xt et Xt-k et V = (v1,..., vn) la matrice des vecteurs propres associés à ë, alors seules les r plus grandes

propres (ë1, ..., ën) sont significatives et â = (v1,..., vn) est constitué des r premiers

vecteurs propres.

L'étape suivante consiste à tester des vecteurs co-intégrants. Pour cela, Johansen a utilisé deux statistiques basées sur le rapport de vraisemblance (LR) :

Test de la trace : LR1 = T

N

log(1 - i )

i =q +1

(2.36)

Les ëi représentent les corrélations canoniques entre les séries ? Xt et Xt-k. LR1

teste l'hypothèse nulle r q contre l'hypothèse alternative r = q + 1, où r est le nombre des vecteurs co-intégrants.

La deuxième statistique est :

Test de la valeur propre : LR2 = T log (1- ëq+1) (2.37)

LR2 teste l'hypothèse nulle r = q contre l'hypothèse alternative r = q + 1.

De ce fait, le nombre des vecteurs co-intégrants est déterminé en comparant la valeur de LR1 ou de LR2 aux valeurs critiques pour des seuils de 1%et de 5% tabulées

par Johansen (1988).

Dimension de l'espace de cointégration

Les valeurs propres calculées ainsi que les statistiques du ratio de maximum de vraisemblance (LR) sont résumées dans le tableau suivant :

Tableau 2.16 Résultat du test de cointégration de Johansen

Relation de

cointégration

Relation de

cointégration

Statistique

LR

Valeurs critiques

Seuil 1%

Seuil 5%

LTCR=F (LDIP,

LDDM)

0

1

2

27.13

13.26

3.58

29.75

16.3

6.51

24.31

12.53

3.84

Les résultats des tests de cointégration de Johansen (1988) nous permettent de

détecter des relations de cointégration.

En effet, la valeur de la statistique (LR), pour la relation de cointégration,

inhérente à l'hypothèse (0 relation de cointégration et 1 relation de cointégration) (27.13, 13.26) est supérieure à la valeur critique (24.31, 12.53) et ce, pour un seuil de significativité de 5. Ce résultat nous conduit à accepter l'hypothèse de présence d'au moins 2 vecteurs de cointégration.

D'autre part, cette même statistique afférente à l'hypothèse (2 relation de cointégration) admet une valeur calculée de 3.58 inférieure à la valeur tabulée pour un seuil de significativité de 5%. Ce résultat nous conduit à l'affirmation de présence de 2 relations de cointégration.

Commentaires

Les résultats contradictoires entre les deux approches de cointégration à savoir celle de Engle et Granger et celle de Johansen peut être expliquées par plusieurs

facteurs.

· En présence de coûts de transaction, la vitesse d'ajustement vers

l'équilibre varie directement avec l'étendue de l'écart par rapport à la cible de long terme. Les coûts de transaction impliquent différents régimes de transaction. Il existe une " bande de transaction" à l'intérieur de laquelle aucune transaction n'a lieu, même si le taux de change n'est pas à sa parité. A l'extérieur de la bande, c'est-à-dire une fois que la déviation du change a dépassé le seuil déterminé par les coûts de transaction, l'arbitrage international sur les marchés des marchandises redevient profitable et assure la convergence du taux de change vers sa valeur d'équilibre de long terme ;

· Les fondamentaux eux-mêmes sont sujets à des variations susceptibles d'être incompatibles avec un ajustement linéaire des taux de change ;

· Le caractère inefficient des marchés de changes. En effet, la dynamique du taux de change dépend des anticipations que font les investisseurs sur les fondamentaux économiques ; et

· La dynamique du taux de change est soumise à des rigidités. Il

peut s'agir de rigidités liées au fonctionnement des marchés

(rigidités des prix), à la politique économique (les gouvernements

ne défendent les parités que si les écarts dépassent un certain seuil), aux comportements des agents (en raison des coûts de transaction, il existe des seuils en deçà desquels il est trop coûteux d'acheter ou de vendre).

Au total, de nombreux arguments économiques permettent de justifier les contraductions entre les résultats de la méthode de cointégration en deux étapes de Engle et Granger et celle de Johansen. Ces éléments ont des implications importantes

au niveau économétrique. Il est difficile de rendre compte du caractère persistant des écarts du taux de change en retenant le cadre empirique des modèles basés sur l'hypothèse de cointégration linéaire avec retour à la moyenne rapide vers la cible de long terme. Les arguments évoqués précédemment conduisent plutôt à se poser la question de l'introduction d'une dynamique avec mémoire longue. Il convient alors

de s'attacher aux modèles reposant sur la cointégration fractionnaire.

Dans la section suivante, nous tentons de vérifier si le processus d'ajustement

du taux de change réel vers sa valeur fondamental exhibe un phénomène de persistance et s'il y a une relation de cointégration fractionnaire entre le taux de change et les fondamentaux.

Section 3 : Quelle explication pour l'ajustement du taux de change :

mémoire longue

Les résultats des tests usuels de cointégration peuvent provenir du fait que le processus d'ajustement du taux de change réel vers sa valeur fondamental exhibe un phénomène de persistance. En d'autres termes, le processus d'ajustement est un processus à mémoire longue. Nous nous proposons ici d'étudier cette possibilité.

3.1. Mémoire longue et processus ARFIMA

3.1.1. Définition de la mémoire longue

L'hypothèse d'indépendance des séries temporelles est dans la plupart des cas uniquement une approximation de la véritable structure de corrélation des séries. D'importantes corrélations pour de faites retards peuvent parfois être détectés et des processus à mémoire courte, comme par exemple les processus ARMA, peuvent suffire à modéliser la structure de dépendance des séries.

Toutefois, il existe de nombreux exemples de donnés où les corrélations prises seules sont faibles, mais dont la somme est extrêmement élevée. Le périodogramme de

ces séries indique un pic dans le spectre à la fréquence zéro. A l'origine, trois explications possibles d'un tel pic sur le périodogramme (ou de manière équivalente des corrélations décroissants lentement) existent : la non stationnarité, les phénomènes transitoires et la stationnarité avec une dépendance à long terme.

La première explication a été avancé par nombre d'auteurs et en premier lieu

par Klemes (1974), Potter (1976,1979) et Bhattacharya, Gupta et Waymire (1983). Les phénomènes transitoires ont souvent été évoqués pour expliquer l'effet Hurst. Les processus stationnaires avec dépendance à long terme ont été analysés en premier par Kolmogorov (1940) dans un travail théorique.

Selon Hosking (1984), la mémoire longue peut être définie de différentes manières. En effet, le phénomène de la mémoire longue est caractérisé par :

· Une fonction de corrélation décroissant hyperboliquement au fur et à mesure

que le retard s'accroît, c'est-à-dire ñk ~ k-x, alors que celle des processus à mémoire courte décroît exponentiellement (ñk ~ åk, 0 < å < 1) ,

· Une densité spectrale s'accroissent sans limite quand la fréquence tends vers zéro, ou

· L'étendue normalisée, se comportant comme la fonction TH, H > ½ et T étant la

taille de l'échantillon, plutôt que comme la fonction T1/2, caractéristique des processus à mémoire courte.

Cette dernière caractéristique de la mémoire longue est appelée « phénomène

de Hurst ».

Mandelbrot et Wallis (1968, 1969a, b, c), Mandelbrot et Van Ness (1968),

Mandelbrot et Taqqu (1979) ont été les premiers à introduire de tels processus en statistique.

Les processus stationnaires les plus simples avec une dépendance de long terme sont les incréments des processus appelés processus « auto-similaires26 » avec pour paramètre d'autosimilarité H [1, 1/2]. Leur structure de corrélation est complètement déterminée par H. Les processus auto-similaires gaussiens sont appelés « mouvements browniens fractionnaires » et leur dérivée « bruit gaussien fractionnaire27 ».

Le mouvement brownien est un processus stochastique en temps continu B (t) avec des incréments gaussiens. Sa dérivée est le bruit gaussien en temps continu qui a une densité spectrale constante. Mandelbrot et Van Ness (1968) ont montré que la mémoire longue est compatible avec la stationnarité en construisant le mouvement brownien fractionnaire, BH (t), un processus stochastique stationnaire en temps continu avec une fonction de corrélation décroissant hyperboliquement, correspondant à une généralisation du mouvement brownien. Les propriétés de base du mouvement brownien fractionnaire sont :

· Le mouvement brownien fractionnaire de paramètre H, habituellement 0<H<1,

est le dérivée fractionnaire (1/2 - H) ième du mouvement brownien, la dérivée étant définie au sens de Weyl ou de Riemenn-Liouville ;

· La densité spectrale du mouvement brownien fractionnaire est proportionnelle à

w -2H - 1 ; où w correspond à la fréquence ;

· La fonction de covariance du mouvement brownien fractionnaire est proportionnelle à k 2H-2 où k est le retard.

Le processus bruit fractionnaire en temps continu est ainsi défini comme B'H

(t), la dérivée du mouvement brownien fractionnaire. Il peut également être vu comme

la dérivée fractionnaire (1/2 - H) ième du bruit blanc en temps continu, auquel il se réduit pour H = 1/2.

26 La loi liée aux autocorrélations fortes est largement reliée au concept de processus autosimilaire, introduit par

Kolmogorov (1940).

27 Le mouvement brownien fractionnaire (Sowell, 1990) est un processus stochastique continu gaussien

1+ 2 d

stationnaire, de moyenne nulle, de fonction de covariance E Wd

(t ) - Wd

(s ) 2 =

t - s défini pour d

(-1/2 ; 1/2). Quand d = 0 , il se réduit au mouvement brownien ordinaire.

On recherche un analogue en temps discret du processus bruit fractionnaire en

temps continu. Hosking (1981) indique qu'une possibilité est le bruit fractionnaire en temps discret proposé par Mandelbrot et Wallis (1969), lequel est défini comme un processus dont la fonction d'autocorrélation est la même que celle du processus à incréments unitaires ?BH (t) = BH (t) - BH (t-1) du mouvement brownien fractionnaire. Mandelbrot et Wallis (1969) ont montré que ce bruit gaussien fractionnaire exhibe effectivement le « phénomène de Hurst ».

Les méthodes d'identification de la mémoire longue dans une série temporelle sont diverses. La procédure la plus ancienne fait référence au calcul de l'exposant de Hurst (1951) lors de son étude sur les flux du Nil. Elle a été par la suite largement développée par Mandelbrot, puis améliorée par Lo (1991) . Les propriétés théoriques

de cette statistique ont été étudiées par Mandelbrot et Wallis (1968, 1969)

et Mandelbrot (1972).

Un second type d'outils permettant de détecter la présence d'une mémoire longue dans une série temporelle est constitué des tests de rapport de variances développés par Cochrane (1988) et Lo et Mac Kinlay (1988, 1989). Le test du rapport des variances exploite le fait que la variance des incréments d'une série suivant une marche aléatoire est linéaire dans l'intervalle échantillonnal, c'est-à-dire que la variance des différences qièmes de la série est égale à q fois la variance des différences premières de la série. Cependant, la difficulté de l'utilisation de ces tests réside dans le

le choix nécessaire a priori d'un paramètre de troncature du nombre de retards de la fonction d'autocorrélation. Afin de contourner ce problème, on peut utiliser un test basé sur les autocorrélations spatiales : le test BDS élaboré par Brock, Dechert

et Scheinkmen (1987). Ce test ne vise cependant pas initialement à une mesure de la mémoire des séries, mais teste l'hypothèse nulle de série indépendamment

et identiquement distribuée (absence de mémoire) contre une alternative non spécifiée (présence d'une mémoire). Il présente néanmoins l'intérêt de déceler tout type de dépendance, entre les séries linéaire ou non linéaire, à la différence des tests classiques

de marche aléatoire. En ce sens il semble suppléer aux insuffisances des tests précédents. Ces différentes procédures d'estimation ont été appliquées par Lardic

et Mignon (1995) sur diverses séries de taux de change et d'indices boursiers. Nous

nous intéressons ici à une approche alternative d'identification et de modélisation de la

mémoire longue, à savoir les modèles ARFIMA (Autorégressif, fractionnairement intégré, moyenne mobile).

3.1.2. Définition du processus ARFIMA

Les modèles ARFIMA sont des processus à mémoire longue, et permettent donc d'identifier les phénomènes de persistance. Ces modèles ont été développés par Granger et Joyeux (1980) et Hosking (1981) et constituent une généralisation des processus ARIMA de Box et Jenkins dans lesquels l'exposant de différenciation d était

un entier. Dans le cas des processus ARFIMA, d peut prendre des valeurs réelles. Une série fractionnairement intégrée a pour caractéristique une dépendance entre des observations éloignées comme on peut le voir dans la fonction d'autocovariance ou dans la fonction de densité spectrale.

Un processus à mémoire longue peut toujours être approximé par un processus ARMA (p, q), mais les ordres p et q nécessaires pour obtenir une approximation relativement bonne peuvent être trop grands et rendre l'estimation précise des paramètres très difficile.

L'approche ARFIMA permet en ce sens d'atténuer les contraintes pesant sur les paramètres du modèle qui devaient modéliser le comportement à la fois de court terme

et de long terme de la série. Avec les processus ARFIMA, le comportement de court terme des séries peut être saisi par les paramètres ARMA et le comportement de court terme de long terme par le paramètre d'intégration fractionnaire.

Processus ARFIMA (0, d, 0)

L'analogue en temps discret du mouvement brownien est la marche aléatoire,

ou ARIMA (0, 1, 0) :

(1 - L) Xt = ut (2.38)

où ut est une variable aléatoire iid.

Ainsi, la différence première de {Xt} est le bruit blanc {ut} en temps discret.

Par analogie, on définit le bruit blanc discret fractionnaire de paramètre d :

(1 - L) d Xt = ut (2.39)

où est un bruit blanc.

Avec le développement binominal :

d = (1 - L) d

= 1 - dL -

d (1 - d ) L2 -

2!

d (1 - d )(2 - d ) L3 - ..... =

3!

j

j L

j =0

( j - d )

k - 1 - d

j =

( j + 1)(-d )

=

0<k j k

j= 0,1,...

où correspond à la fonction gamma :

t x -1e-t dt

si x > 0

0

t = si x = 0

x-1 (1 + x) si x < 0

Les fonctions de densité spectrale (f (.)), d'autocovariance ( (.)), d'autocorrélation ( (.)) et d'autocorrélation partielle ( (.)) sont respectivement :

-2 d 2

-2 d

2

f (ë) =

1 - e -i

= 2 sin

0<

(h) =

2

(1 - 2d )(h + d )

2 2

(d )(1 - d )(h + 1 - d )

(h) = ( ) ( )

=

h = 1, 2, ...

h + d 1 - d

k - 1 - d

(h) =

(h - d + 1)(d )

d

h - d

0< k h k

h = 1, 2, ...

Le processus ainsi défini est le processus ARFIMA (0, d, 0). Les propriétés de

ce processus sont largement développées dans Hosking (1981), nous n'en reprendrons

ici que les caractéristiques essentielles.

Soit {Xt} un processus ARFIMA (0, d, 0).

· Quand d< 1/2, {Xt} est stationnaire.

· Quand d > 1/2, {Xt} est inversible.

On voit donc que lorsque -1/2 < d <1/2 la série {Xt} est stationnaire et inversible. Les autocorrélations diminuent à un taux hyperbolique, donc nettement plus lentement que les autocorrélations des processus ARMA (qui décroissent à un taux géométrique).

Généralisation : Processus ARFIMA (p, d, q)

Le processus ARFIMA (0, d, 0) est un cas particulier des processus ARFIMA

(p, d, q) où d ]

- 1 , 1 [qui peuvent être définis comme suit :

(L)X t

2 2

= (L) t

(2.40)

t

t

= - d u

ut : BB (0, 2 )

(L) et (L) sont des polynômes retard de degré p et q respectivement.

Soit donc :

Xt - 1Xt-1 - ... - p Xt-p = t

+ 1 t -1

+ ... + q1 t -q

(2.41)

avec

t = ut + dut-1 +

d (d + 1)

2

-2

ut-2 +

d (d + 1)(d + 2)

6

ut-3 + ...

Bien entendu, comme dans le cas du processus ARFIMA (0, d, 0), les processus

ARFIMA (p, d, q) sont des processus à mémoire longue lorsque d ]

- 1 , 1 [et d 0.

2 2

La fonction d'autocorrélation ( (.)), et la densité spectrale (f (.)) de la série

{Xt} satisfont, pour d 0 :

(h) ~ Ch2d-1 où C 0 et

f(h) =

(e

-ih ) 2

1 - e

-i

-2 d 2

~

(1)

2

-2 d

quand tend vers zéro .

(e -ih ) 2

2 (1) 2

3.1.3. Exposant de Hurst et classification des séries temporelles en fonction de

leur structure de dépendance

Analyse R/S et exposant de Hurst

Le calcul de la statistique R/S28 donne lieu à un coefficient appelé exposant de

Hurst, noté H et défini par :

28 Hurst a introduit la statistique R/S en 1951 lors de son étude sur les débits du Nil. Cette statistique, largement développée par la suite par Mandelbrot, a été définie dans le but de détecter la structure de dépendance de long terme d'une série temporelle. La statistique R/S (Rescaled Range) se définit comme l'étendue des sommes

partielles des écarts d'une série temporelle à sa moyenne divisée par son écart type.

H = log Q

log n

(2.42)

où Q est la statistique R/S et n le nombre d'observations.

Il est alors possible de déterminer la structure de dépendance de la série en fonction des valeurs de H.

· Si H =

1 : le mouvement brownien fractionnaire se réduit au mouvement

2

brownien ordinaire. Le processus ne présente donc aucune dépendance à long terme. Les autocorrélations décroisent à un taux géométrique vers zéro.

· Si

1 < H <1 : On est en présence d'un processus à mémoire longue. Le

2

processus présente « l'effet Joseph 29 » de dépendance à long terme, dépendance d'autant plus forte que H se rapproche de 1. Dans ce cas, la corrélation est positive et il y a persistance : si la série a été à la hausse la période précédente, alors il y a de fortes chances pour qu'elle soit également à

la hausse la période suivante.

· Si 0< H < 1 : la corrélation est négative. Le processus présente ce que

2

Mandelbrot a nommé l'antipersistance. Ce phénomène s'interprète comme suit :

des phases de hausse ont tendance à être suivies par des phases de baisses.

Relation entre exposant de Hurst et paramètre d'intégration fractionnaire

On peut montrer (Hosking, 1981 ; Geweke et Porter-Hudak, 1983 ; Lo, 1991) qu'il existe une relation remarquable entre le paramètre d des processus ARFIMA

et l'exposant de Hurst H : d = H - 1 .

2

Dés lors, il est possible d'effectuer une classification des séries temporelles en fonction des valeurs du paramètre d :

29 Le terme « d'effet Joseph », retenu par Mandelbrot et Wallis (1968), renvoie à un passage de la bible où

Joseph interprète un rêve de Pharaon : il avait vu sept vaches maigres suivre sept vaches grasses et Joseph en conclut qu'il s'agissait d'une succession prévue de sept années de sécheresse à sept année de bonnes récoltes.

· Si 0 < d <

1 : Le processus ARFIMA est un processus stationnaire à

2

mémoire longue. Les autocorrélations sont positives et diminuent hyperboliquement vers 0 lorsque le retard augmente. La densité spectrale

est concentrée autour des faibles fréquences (cycles lents), elle tend vers l'infini lorsque la fréquence tend vers zéro. On fait face à un processus

persistant ( 1 < H <1).

2

· Si d = 0, le processus ARFIMA se réduit au processus ARMA standard.

· Si -

1 < d < 0 : Le processus est antipersistant. Les autocorrélations sont

2

négatives et la densité spectrale est dominée par des composantes de haute fréquence (la densité spectrale tend vers zéro lorsque la fréquence tend vers zéro).

3.1.4. Cointégration fractionnaire et processus ARFIMA

Dans la définition usuelle de la cointégration, l'ordre d'intégration D du terme d'erreur de la relation de long terme est nécessairement un entier (1 si les variables ne sont pas cointégrées, 0 si elles le sont). Cependant, la restriction au cas de résidu intégré d'ordre 0 (relation stationnaire) et de résidu intégré d'ordre 1 (relation non stationnaire) peut paraître arbitraire. La cointégration fractionnaire généralise ainsi le concept usuel de cointégration en permettant à l'ordre d'intégration du terme à correction d'erreur de prendre une valeur réelle, et non plus nécessairement entière. En d'autres termes, le terme d'erreur peut être fractionnairement intégré, ce qui implique (pour D< 1) l'existence d'une relation d'équilibre de long terme.

Plus précisément, soit EC (équivalent à la variable t ) l'écart du taux de change

réel par rapport à sa valeur fondamentale, c'est-à-dire le terme d'erreur de la relation statique de long terme entre le taux de change réel et ses fondamentaux. Le taux de change réel et les fondamentaux sont fractionnairement cointégrés si EC suit un processus à mémoire longue, tel qu'un processus ARFIMA.

t

(L) (1 - L) D EC = (L) (2.43)

Où (L) et (L) sont les polynômes retards autorégressif et moyenne mobile,

t est un bruit blanc et :

(1 - L) D = 1 - DL -

D(1 - D) L2 -

2!

D(1 - D)(2 - D) L3 - ... (2.44)

3!

Ainsi, de la même façon que les processus ARIMA peuvent être généralisés au travers des processus ARFIMA, il est possible d'étendre le concept de cointégration au

cas fractionnaire. Cette notion de cointégration fractionnaire, introduite par Granger (1986), nous paraît importante d'un point de vue économique puisqu'elle a pour conséquence l'existence d'une relation d'équilibre de long terme. En effet, dans ce sac,

les erreurs tendent à retourner vers la moyenne, même si ce retour ne s'effectue qu'après un temps relativement long. En ce sens, les alternatives de résidus intégrés d'ordre 0 (cointégration) et intégrés d'ordre 1 (absence de cointégration) sont trop restrictives. Pour que le processus d'erreurs exhibe un comportement de retour à la moyenne, il n'est pas nécessaire qu'il soit intégré d'ordre 0 : les processus à mémoire longue, tels que les processus ARFIMA , affichent également un tel comportement.

3.1.5. Résultats et commentaires

Pour déterminer l'exposant de Hurst, il faut que la variable étudiée soit stationnaire. La variable EC n'est pas stationnaire (voir tableau 2.15) donc on étudie la stationnarité de la variable DEC (voir annexe20).

D'après l'annexe 22, on constate que le même résultat est trouvé que se soit pour le test ADF ou PP, la variable DEC est stationnaire puisque on a la valeur estimée

de la statistique ADF est égale à -8.54 qui est inférieur à la valeur critique -1.94et on a aussi la valeur calculée de la statistique PP est égale -9.11 qui est inférieur à la valeur critique -1.94.

L'estimation de l'exposant Hurst donne comme résultat :

H = 0,55649 ; d = H -

1 = 0,55649 -

2

1 = 0,05649.

2

D'après le coefficient Hurst, on peut déduire la valeur de l'ordre d'intégration à

savoir d (0,05649) qui appartient à l'intervalle] 0,0.5 [. D'après ce résultat, il

est évident que la variable étudiée est stationnaire et possède un comportement de mémoire longue. Ses corrélations ainsi que ses corrélations partielles sont toutes positives et décroissent hyperboliquement vers zéro lorsque les retards augmentent.

Ainsi, les résultats font ressortit l'existence d'une relation de cointégration fractionnaire entre le taux de change et ses fondamentaux.

Conclusion

L'objet de ce chapitre était d'étudier la dynamique d'ajustement du taux de change réel EUR/USD vers les fondamentaux. Après avoir mis en évidence les résultats des tests usuels de cointégration, nous avons cherché les causes possibles de

ces résultats. Nous nous sommes en particulier attaché à expliciter la dynamique d'ajustement linéaire à mémoire longue (processus ARFIMA).

Les résultats obtenus montrent que la dynamique d'ajustement du taux de change réel peut être bien décrite par un processus à mémoire longue, mettant ainsi en évidence la persistance des écarts du taux de change par rapport à ses fondamentaux.

Chapitre II : Expliquer les déviations du taux de change : mémoire longue

Conclusion Générale

Etant donné l'important rôle des taux de change dans la réussite des expériences d'ouverture des économies, nous nous sommes concentrés au sein de ce travail à analyser la dynamique du taux de change à long terme.

En fait, le terme change prendra dans ce contexte une grande place

et nécessitera obligatoirement une étude et un approfondissement. Pour cette raison, nous avons organisé notre travail autour de deux chapitres. Dans le premier chapitre, nous avons essayé de présenter les principales théories et approches de détermination pour passer, dans le deuxième chapitre, à l'analyse économétrique d'un de ces approches à savoir l'approche monétaire.

Grâce à une étude portant sur des observations mensuelles couvrant la période

Janvier 1990 Septembre 2004, nous avons pu expliquer la déviation du taux de change

par rapport aux fondamentaux moyennant la technique de cointégration et le processus

ARFIMA pour le couple EURO/DOLLAR .

Notre étude a pu monter l'existence d'une convergence fractionnaire entre le taux de change et les fondamentaux et que le processus d'ajustement est plus long que celui dans le cas d'une cointégration linéaire.

Désormais, l'étude que nous avons menée, peut être approfondie, puisque notre recherche n'a porté que sur le processus ARFIMA. Ceci peut constituer un point de démarrage pour d'autres travaux, qui traitent cette même problématique, et qui se base

sur d'autres modèles (par ex : modèles STAR, modèle GARCH ...).

Chapitre II : Expliquer les déviations du taux de change : mémoire longue

Bibliographie

Bibliographie

Article

Aglietta, M., Baulant, C., Coudert, V. (1998), "Pourquoi l'euro sera fort. Une approche par les taux de change d'équilibre" Revue économique, n° 3, pp. 721-731.

Baillie, R.T. (1996), "Long memory processes and fractional integration in econometrics" Journal of Econometrics, n° 73, pp. 5-59.

Barrell, R., Wren-Lewis, S. (1989), "Fundamental Equilibrium Exchange Rates

for the G7" CEPR Discussion Paper, n° 323, Center of Economic Policy Research, pp.

1-27.

Bayoumi, R., Mac Donal, R. (1999), "Deviations of Exchange Rates from Purchasing Power Parity: a Story Featuring Two Monetary Unions" IMF Staff Papers, Mars, pp. 89-102.

Bec, F., Ben Salem, M., MacDonald, R., (1999), "Real exchange rates and real interest rates : A nonlinear perspectives" Working Paper THEMA, 99-17, Université Paris X.

Borowski, D., Couharde, C., Thibault, F. (1998), "Les taux de change d'équilibre fondamentaux : de l'approche théorique à l'évaluation empirique" Revue Francaise d'Economie, Vol. 13, n° 3, pp. 177-206.

Borowski, D. Couharde, C., Thibault, F. (1998), "Sensibilités des taux de change d'équilibre aux output gaps et aux cibles de balance courante" Economie

et Prévision, n°134, pp. 71-96.

Cadiou, L. (1999), "Que faire des taux de change réels d'équilibre ?" Economie

International, n° 77, pp. 67-96.

Clark, P., Bartolini, L., Bayoumi, T., Symansky, S. (1994), "Exchange Rates and Economic Fundamentals : A Framework for Analysis" IMF Occasional Paper,

n° 115.

Cheung, Y. (1993), "Long Memory in Foreign Exchange Rates" Journal of

Business and Economic Statistics, n° 11, Janvier, pp. 93-101.

Chapitre II : Expliquer les déviations du taux de change : mémoire longue

Bibliographie

Cheung, Y., Chinn, M.D., Pascual, A.G. (2002), "Empirical exchange rate models of the nineties: are any fit to survive?" NBER Working Paper 9393, Décembre, 27+18p.

Clostermann J., Bernd Schnatz [C-S] (2000), "The Determinants of the Euro- Dollar Exchange Rate" Discussion Paper 2/00, Economic Research Group of the Deutsche Bundesbank, May.

Coudert, V. (1999), "Comment définir un taux de change d'équilibre pour les pays émergentes?" Economie Internationale, n° 77, pp. 45-65.

De Grauwe, P. (2000), "Exchange rates in search of fundamentals: the case of the euro-dollar rate" International Finance, 3:3, pp. 329-356.

Dufrénot, G. (2004), "Cointégration entre les taux de change et les fondamentaux : changement de régime ou mémoire longue ?" Document de travail du GREQAM, n° 2004 -15.

Dornbush, R. (1976)," exceptations and exchange rate dynamics" Journal of

Political Economy, vol 84, pp 1161-1176.

Dufrénot, G., Mathieu, L., Mignon, V., Péguin-Feissolle, A. (2002), "Persistent misalignments of the European exchange rates : Some evidence from nonlinear cointégration" Working Paper THEMA , Université Paris X.

Duval, R. (2001), "Estimation du taux de change réel d'équilibre de long terme euro/dollar par une approche dynamique" Revue économique.

Faruquee, H. (1995), "Long-Run Determinants of the Real Exchange Rate: A Stock-Flow Perspective" IMF Staff Papers, Vol.42, n°1, pp. 80-107.

Feyzigolu,T. (1997), "Estimating the Equilibrium Real Exchange Rate : An application to Finland" IMF Working Paper, n°97/109.

Gandolfo, G., Felttigh, A. (1998), "The NATREX: an Alternative Approach, Theory and Empirical Verifications" CIDEI Working Paper # 52, La Sapienza, Universita di Roma.

Groen, J.J. (2000), "The monetary Exchange Rate Model as a Long-Run

Phenomenon" Journal of International Economics, 52(2), 299-319.

Chapitre II : Expliquer les déviations du taux de change : mémoire longue

Bibliographie

Hinkle, Lawrence and Peter Montiel (Ed), "Exchange Rate Misalignment: Concept and Measurement for Developing Countries", World Bank Research Publication, Oxford University Press, (1999).

FRANKEL, J.A. (1979), " on the mark : a theory of floating exchange rates based on real interest differentials" American economic review, vol 69, pp 610-622.

Joly, H., Prigent, C., Quinet, A., Sobczak, N. (1999) "Une estimation du taux

de change réel d'équilibre pour l'économie française" Economie internationale, n°77, pp.3-20.

Joly, H., Quinet, A., Sobczak, N. (1996), "Le taux de change réel d'équilibre :

une introduction" Economie et Révision, n° 123-124, pp. 1-21.

Kilian, Lutz. (1997), "Exchange Rate and Monetary Fundamentals: What Do We Learn from Long-Horizon Regressions?" Working paper, University of Michigan, December 1997.

Lardic, S., Mignon, V. (1996), "Les tests de mémoire longue appartiennent-ils

au camp du démon ?" Revue économique, 47, n° 3, pp. 531-540.

Lardic, S., Mignon, V. (1997), "Essai de mesure du degré de mémoire longue des séries. L'exemple de la modélisation ARFIMA" Economie appliquée, n°2, pp.

161-195.

Ma, Y., Kanas, A. (2000), "Testing for a nonlinear relationship among fundamentals and exchange rates in the ERM" Journal of Internationnal Money and Finance, n° 19, pp. 135-152.

Mac Donald, R. (1995), "Long -run exchange rate modelling: a survey of the recent evidence" IMF Staff Papers, Septembre 1995, pp. 437-489.

Mac Donald, R., Taylor, M.P. (1991), "Exchange Rate Economics: A survey" IMF Working Paper, Juin 1991.

Maeso-Fernandez F.,Osbat C., Schnatz B.(2001), "Determinants of the euro real

R/PEER approach" ECB Working Paper Series,

effective exchange rate : a BEE Novembre 2001.

Bibliographie

Mark, N.C. (1995), "Exchange Rates and Fundamentals: Evidence on Long- Horizon Predictability" American Economic Review, 85, 201-18.

Chapitre II : Expliquer les déviations du taux de change : mémoire longue

Mark, N.C., and S. Donggyu (2001), "Nominal Exchange Rate and Monetary

Fundamentals: Evidence from a small Post-Bretton Woods Panel" Journal of

International Economics, 53, 29-52.

Meredith, G.(2001), "Why has the euro been so weak?" IMF Working Paper, WP/01/155.

Ministère de l'économie des finances et de l'industrie, Direction de la Prévision, République Française (2000), Note de Conjoncture Internationale, "Quels déterminants des taux de change à long terme ?", Décembre pp. 26-37.

Neary, P. (1988), "Determinants of the Equilibrium Real Exchange Rate" American Economic Review, vol.78, n° 1, pp.210-215.

Neely, C.J., and Sarno, L. (2002), "How well do Monetary Fundamentals Forecast Exchange Rates?" Working Papers 2002-007, Federal Reserve Bank of St.Louis.

Rapach, David E and Wohar, Mark E. (2002), "Testing the Monetary Model of Exchange Rate Determination: New Evidence from a century of Data." Journal of International Economics, 58. pp. 359-385.

Rogoff, Kenneth, (1999),"Monetary Models of Dollar/Yen/Euro Nominal

Exchange Rates: Dead or Undead?" Economic Journal, 109, (November 1999), 655-

659.

Stockman, Alan C. (1987), "The equilibrium Approach to Exchange Rate" Economic Review Federal Reserve Bank of Richmond, Mars-Avril, pp. 12-29.

Taylor, M.P. (1995), " the economics of exchange rates" Journal of Economics

Literature, vol XXXIII , pp 13-47.

Taylor, M.P., and D.A. Peel (2000), "Nonlinear adjustment, Long-run Equilibrium and Exchange Rate Fundamentals" Journal of International Money and Finance, 19, 33-53.

Villa, P., (1997), "Ces taux de change qui bifurquent" Working Paper, CEPII.

Ouvrages

Lardic S., Mignon V. "Econométrie des séries temporelles macroèconomiques

et financiers" Economica, 2002.

Chapitre II : Expliquer les déviations du taux de change : mémoire longue

Internet

Hansen, H., Juselius, k. (1995) "Cats in Rats. Cointegration analysis of time series" Estima.

www.estima.com






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Il faudrait pour le bonheur des états que les philosophes fussent roi ou que les rois fussent philosophes"   Platon