WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Analyse des déterminants de la production des cultures vivrières au Bénin: cas du maà¯s et de l'igname

( Télécharger le fichier original )
par Nouta௠Rodrigue HONKPEHEDJI
Université nationale du Bénin - Ingénieur statisticien économiste 2009
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

4.1.2. Les différents types de modèles

Les économistes utilisent des modèles pour comprendre l'économie. Les modèles sont des théories qui synthétisent, souvent en termes mathématiques, les relations entre variables économiques. Ils sont élaborés en vue d'un certain nombre d'objectifs : prévision, compréhension, manipulation, etc.

Dans toutes les économies du monde en général, des modèles sont développés. Entre autres modèles utilisés nous avons :

· Les modèles comptables utilisés pour réaliser des exercices de projection.

Ils sont souvent utilisés pour analyser l'effet des évolutions démographiques sur les comptes de la sécurité sociale.

L'avantage de ces modèles est qu'ils sont assez simples pour pouvoir développer de façon importante les différents comptes du secteur public. En particulier, le budget de la sécurité sociale peut être simulé dans ses différentes composantes. Leur portée est limitée dans la mesure où ils ne permettent pas d'éclairer les choix de politique économique ni de rendre compte de l'impact des choix. La réaction des agents économiques aux différentes politiques possibles est absente. Aussi, les modèles comptables ne considèrent-ils nullement les aspects liés à l'investissement et à l'accumulation du capital.

· Les modèles VAR : Vectoriel Autorégressif pour l'analyse des prévisions et des fluctuations conjoncturelles.

Les modèles VAR ne fonctionnent adéquatement qu'avec un nombre limité de variables, un choix judicieux de ces dernières s'impose donc. Par ailleurs, l'estimation d'un modèle VAR requiert l'étude des caractéristiques des séries

pour choisir la variante convenable en plus de la détermination de l'ordre approprié et de l'identification des chocs. Deux instruments importants permettent de synthétiser l'essentiel de l'information contenue dans la dynamique du système.

· Le modèle de croissance de Solow met en avant les interactions entre croissances du stock de capital et de la force de travail, d'une part, et progrès technologique, d'autre part.

Il montre comment ces trois facteurs affectent la production. La production de l'économie est ainsi réalisée au travers d'une fonction de production à rendements d'échelle constants combinant les facteurs travail et capital.

Un premier avantage est qu'on peut calculer dans ces modèles le rendement du capital. Si on ajoute au modèle de croissance un marché financier concurrentiel, ce rendement du capital est alors égal au taux d'intérêt. L'autre intérêt de l'approche à la Solow est de pouvoir étudier les réactions du modèle en modifiant de manière exogène le taux d'épargne.

En son état actuel, ce modèle n'explique pas l'amélioration constante du bienêtre.

· Les modèles macro-économétriques : La synthèse néo-classique (combinaison du schéma keynésien de court terme et de la théorie de la croissance), jointe aux progrès de l'économétrie, de la statistique et de l'informatique, a suscité l'apparition de modèles macro-économétriques de grande taille dans les pays développés. De fait, dans les années soixante/soixante-dix, l'analyse macroéconomique appliquée
s'appuyait souvent sur une utilisation intensive de ces outils, couplant des représentations de l'offre et de la demande agrégées à une courbe de Phillips. Des maquettes de plus en plus détaillées ont ainsi été

développées (multisectorielles, multinationales, etc.). Ils associent au sein de trois grands blocs d'équations (bloc réel, bloc prix - salaires, et bloc monétaire/financier), les principales relations comptables et équations de comportement en oeuvre dans l'économie.

La disponibilité d'un tel outil est d'un grand secours pour le décideur car il remplit des fonctions aussi importantes que celles de support à la définition des programmes économiques et financiers, d'instrument de dialogue avec des partenaires au développement, de monitoring des politiques économiques et sociales. La finalité de ces modèles est donc d'éclairer le choix des décideurs en apportant des réponses précises sur les conséquences des mesures qu'ils souhaitent mettre en oeuvre. Outils incontournables de prévision et de simulation dans les pays développés, leur complexité, leur opacité, leur caractère fréquemment keynésien (les seuls effets d'offre transitent par la demande de travail et d'investissement) et la surabondance de statistiques qu'ils requièrent (chaque équation est estimée sur série historique), ont été autant d'obstacles à leur diffusion au sein des pays en développement.

Des critiques de ces outils sont toutefois apparues dans le courant des années soixante et dix, faisant apparaître qu'ils n'avaient pas toutes les qualités qu'on leur prêtait. Au nombre de ces critiques, on peut citer celle de Lucas (1976) pour qui ces modèles ne sont pas invariants à la forme de la politique. Il critique l'utilisation de ces modèles pour étudier l'impact d'une modification de la politique économique sur les variables d'intérêt. Une autre critique empirique développée par Sims (1980) met en cause la pratique qui impose le caractère exogène de certaines variables intervenant dans la résolution des modèles macroéconomiques. Ces modèles imposent des contraintes sur les variables et des a-priori économiques non justifiés du point de vue statistique.

A côté de ces critiques fondamentales, il faut également mentionner d'une
part le problème de gestion de ces modèles qui nécessitent en général la

mobilisation d'une équipe à effectif important et d'autre part, les difficultés d'actualisation des équations qui se traduisent souvent par le maintien d'équations obsolètes. Les macroéconomistes ont alors proposé différentes approches afin de prendre en compte ces critiques. Les modèles Dynamiques et Stochastiques d'Equilibre Général (DSEG) constituent une étape très importante dans cette démarche. Les modèles DSEG de la dernière génération, qui incorporent les avancées théoriques et économétriques les plus récentes, sont aujourd'hui les outils les plus aboutis de l'analyse macroéconomique. Leur champ d'application, limité dans un premier temps à l'analyse de phénomènes particuliers, s'est élargi grâce, notamment, aux travaux réalisés dans les banques centrales.

Toutefois, il reste que ces modèles ne sont pas toujours suffisamment détaillés, soit parce qu'ils supposent une structure de production monosectorielle, soit parce qu'ils n'intègrent que partiellement les échanges commerciaux internationaux.


· La modélisation RBC (Real Business Cycle) :

Le courant RBC a commencé à se développer au début des années quatrevingts. Prenant appui sur les travaux de Lucas et de la nouvelle macroéconomie classique, il propose une nouvelle théorie du cycle économique, qui exploite les propriétés dynamiques du modèle de croissance néoclassique. Dans les modèles RBC, les fluctuations économiques sont causées par les réponses optimales des agents à des chocs de productivité globale des facteurs : Ce sont donc des chocs réels sur la fonction de production qu'on assimile communément aux innovations technologiques. En réponse à ces chocs, les agents effectuent des arbitrages inter temporels sur la consommation et l'offre de travail, dans un cadre walrasien. Le courant RBC se caractérise en outre par un cadre de raisonnement et une méthode de

validation originaux. Ainsi, l'objectif est de construire de petits modèles compacts, aisément simulables et structurels. Les paramètres de ces modèles, en nombre restreint, sont calibrés à partir d'études microéconomiques par exemple. Parce qu'il n'existe pas de solution explicite au problème, cette dernière est obtenue par simulations du modèle à partir des approximations linéaires au premier ordre autour de la solution d'équilibre. En outre, le critère de validation empirique des modèles est leur capacité à reproduire dans leur ensemble les variations et co-variations des principales séries macroéconomiques (PIB, consommation, investissement, emploi, productivité).

Pourtant, les premiers modèles RBC échouent dans leur description du marché du travail: les faits stylisés concernant l'emploi et la productivité ne sont pas reproduits de manière correcte par les simulations du modèle. De plus, Les modèles

RBC avec prise en compte de la monnaie ne parviennent pas à reproduire les variations cycliques des taux d'intérêt réels et nominaux (volatilité, persistance). Un mécanisme théorique semble alors manquer au modèle de base (King et Watson, 1996). Enfin, ces modèles prédisent un accroissement du taux d'intérêt nominal à la suite d'un choc expansionniste sur la masse monétaire. Or les études empiriques montrent le contraire.


· Les Modèles d'Equilibre Général Calculable (MEGC) apportent dans un cadre d'équilibre une réponse partielle aux contraintes théoriques (prise en compte des effets d'offre et des réallocations sectorielles) et pratiques (manque d'informations statistiques) pesant sur la modélisation macroéconomique dans les pays en développement.

En effet, leurs besoins statistiques se limitent pratiquement à renseigner, sur
une année de référence, une " matrice de comptabilité sociale " (MCS), qui

retrace, à partir du TCEI et du TRE de la comptabilité nationale, les flux économiques entre secteurs et agents.

Dans notre typologie simplifiée, ces modèles apparaissent comme une application numérique de " l'équilibre général " concurrentiel, de la microéconomie traditionnelle au sens d'Arrow Debreu : les comportements isolés mais rationnels des agents, transcrits en programmes d'optimisation, s'harmonisent grâce aux prix d'équilibre, qui permettent l'égalisation simultanée de l'offre et de la demande sur tous les marchés. Le modèle d'équilibre général concurrentiel est devenu " calculable " grâce aux algorithmes informatiques développés dans les années 1970, en passant par un " calibrage " préalable du modèle, c'est-à-dire le choix déterministe des paramètres et leur mise en cohérence sur l'année de base de la MCS. Il permet d'analyser quantitativement certains problèmes de politique économique peu ou mal traités par les autres outils. Construits pour apporter une réponse à un problème particulier, ces modèles " jetables après usage " éclairent les canaux de transmission des politiques économiques incitatives agissant, à long terme, via les marchés, par des effets d'offre et de redistribution.

Si le modèle de planification multisectoriel de Johansen sur la Norvège (1960) peut être considéré comme l'ancêtre des modèles EGC, ceux-ci sont sans doute mieux représentés, pour la " première génération ", par les travaux de Shoven et Whalley (1992) et ceux qui s'y rattachent. Ces modèles néoclassiques, désagrégés au niveau des entreprises comme des ménages, greffent, autour d'un noyau walrasien simple, l'agent Etat (et sa fiscalité) et l'agent Reste du monde. D'où leur utilisation, dans les années 70, à l'étude de thèmes tels que les politiques fiscales ou les échanges internationaux. Ces premiers modèles sont purement statiques et fondés sur la théorie des avantages comparatifs au sens de Hecksher - Ohlin - Samuelson. Leurs insuffisances ont conduit, depuis 1984, à la mise au point d'outils plus

élaborés, dynamiques ou incorporant les nouvelles théories des échanges (différenciation de produits, concurrence imparfaite et économies d'échelle).

Mais, ce faisant, les MEGC se sont peu à peu éloignés de leur épure

walrasienne, en intégrant des spécifications ad hoc aux fondements microéconomiques parfois mal éclaircis. Robinson (1989) distingue trois étapes dans ce cheminement :

1. l'introduction de substitutions imparfaites entre les facteurs ou les produits ("elasticity-structuralist models ") ;

2. l'introduction de rigidités sur les prix (" micro-structuralist models ") ;

3. le traitement de liens entre les parties réelles et nominales (" macrostructuralist models ").

Depuis quelques années, les MEGC sont devenus des instruments privilégiés d'analyse des politiques de développement. Pourtant, en matière de prévision, ils ne peuvent se substituer aux modèles macro-économétriques (ou aux modèles " VAR "), plus fidèles d'un point de vue empirique. Cependant, les MEGC sont mieux adaptés à l'appareil statistique de ces pays car la pratique du calibrage requiert moins de données statistiques que l'estimation économétrique. Par ailleurs, les MEGC prennent en compte les effets d'offre et de réallocation intersectorielle, ce qui leur donne un avantage décisif sur leurs concurrents keynésiens pour analyser les politiques d'ajustement centrées sur la restructuration de l'offre productive.

Les MEGC, situés à la frontière de la recherche et de la décision, ont en outre, l'intérêt d'assurer la connexion "en temps réel" entre certains développements récents de la micro-économie (anticipations, concurrence imparfaite, générations imbriquées et équilibre inter-temporel, etc.) et les problèmes

concrets que posent les politiques de développement, en "testant" ces politiques sur des économies archétypes.

Tout à la fois "expériences de pensée" et "instruments pertinents d'analyse", les MEGC ont des atouts qui résultent de cette nature hybride, mais aussi des faiblesses.

Leurs résultats sont fortement sensibles d'une part, aux formes fonctionnelles et aux valeurs des paramètres qui caractérisent les comportements microéconomiques et d'autre part, aux modes de bouclage macroéconomiques choisis (les façons dont l'équilibre est réalisé ex post, les choix des variables qui servent à équilibrer les marchés). Cette sensibilité des résultats est illustrée par les modèles d'échange, dont la première génération, fondée sur la théorie des avantages comparatifs dans un cadre statique, faisait apparaître un très faible gain de croissance résultant de l'ouverture des frontières négociée au sein du GATT. Il a fallu attendre une seconde génération de modèles, prenant en compte les échanges intra-branches, la concurrence imparfaite et les rendements d'échelle, pour obtenir des résultats plus conformes aux attentes, quoique toujours très dépendants des spécifications.

Pour pallier ces inconvénients en l'absence d'estimation économétrique solide des fonctions de comportement, il est d'usage de réaliser des "tests de sensibilité" portant sur les paramètres stratégiques des modèles. On peut même calculer des "régions de confiance" statistiques pour les résultats des modèles, en imputant une loi de probabilité aux paramètres.

Mais le choix des modes de bouclage a souvent tout autant, sinon plus, d'influence sur les résultats que les paramètres et les spécifications des comportements micro-économiques pris un à un. Ces modes de bouclage sont encore plus difficiles à valider ou à tester. Par exemple, l'équilibre général walrasien ne déterminant pas le niveau général des prix, " l'ancrage nominal "

des MEGC s'effectue par l'adjonction d'un bloc macroéconomique et financier, qui peut revêtir de nombreuses formes. L'école dite " néostructuraliste " a mis l'accent sur les modes de bouclage alternatifs au schéma néo-classique (dans lequel l'épargne joue un rôle moteur) : bouclage fishérien par les taux d'intérêt; keynésien par le volume de production ; kaldorien par l'épargne forcée, etc. Hypothèse cruciale et difficile à valider, chaque mode de bouclage renvoie fondamentalement aux caractéristiques institutionnelles des économies. Cependant, à part leur justification institutionnelle, les modes de bouclage ou " fermetures macroéconomiques ", ne peuvent pas être validés directement sur données empiriques.

L'une des prochaines étapes pourrait être le développement de maquettes multisectorielles et multi-pays qui permettront par exemple, une meilleure prise en compte de l'hétérogénéité (notamment intra zone) et à terme, d'analyser plus finement les canaux de transmission de la politique monétaire.


· Les modèles multi-pays :

Le caractère ouvert de l'économie est un élément crucial à prendre en compte de façon satisfaisante. L'hypothèse parfois soutenue de petite économie ouverte est très insatisfaisante sur un horizon lointain. En effet, il revient à supposer que le taux d'intérêt est donné par celui du reste du monde. Les capitaux internationaux se localiseront de manière à égaler la productivité marginale du capital de chaque pays; comme l'économie domestique peut s'endetter infiniment vis-à-vis du reste du monde au taux mondial en vigueur. Les conditions intérieures (épargne...) n'ont pas d'effet sur la dynamique de l'accumulation du capital, ce qui est une propriété regrettable du modèle sur un horizon de 50 ans. Une alternative intéressante est celle proposée par Docquier, Liégeois et Stijns, 1997. Ils simulent dans un premier temps un modèle représentant l'environnement du pays que l'on étudie et obtiennent

ainsi des valeurs pour le taux d'intérêt mondial qui sont cohérentes avec les développements démographiques dans cet environnement. Ensuite, le modèle de l'économie domestique est simulé en prenant comme input les résultats du premier modèle pour les variables internationales. Ceci revient à supposer que les politiques économiques domestiques n'ont pas d'effet sur les variables internationales, ce qui est réaliste. Dans l'avenir, on pourrait imaginer un véritable modèle multi-pays qui prenne explicitement en compte les relations qui existent entre ceux-ci.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Le doute est le commencement de la sagesse"   Aristote