WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Analyse des déterminants de la demande de travail au Burkina Faso.

( Télécharger le fichier original )
par Moussa SIGUE
Université Ouaga 2 - DEA en économie appliquée 2014
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

3. Les variables et la méthode d'estimation

a) Les variables

y' Variable expliquée :

La variable expliquée dans notre modèle est la demande de travail. Elle est représentée par le niveau de l'emploi observé ou la quantité de travail utilisée par le secteur d'activité par année. Elle est représentée par empl dans le modèle.

y' Les variables explicatives

? La production (prod) du secteur : Elle représente le niveau de production du secteur d'activité. La production est le facteur le plus souvent testé et il fait l'objet d'un large consensus en ce qui concerne son effet sur la demande de travail (COUSINEAU, 1988). Nous l'avons représenté par la valeur de la production au prix constant. Le signe théorique attendu est positif ;

? Le salaire moyen (sal) : Il est obtenu en effectuant le rapport entre la masse salariale et le niveau d'emploi global dans le secteur d'activité. Son signe théorique est négatif.

? Le coût du capital (cap) : Il représente l'actif immobilisé et est approximé par la valeur au prix constant du stock de capital physique. Il s'agit du capital de production. Il influence positivement la demande de travail ;

29

? L'emploi de la période précédente (emp1??_i). Il représente le niveau de l'emploi que le pays a enregistré à la période précédente. Il agit positivement la demande de travail et de ce fait le signe théorique est positif ;

? L'évolution technologique (t) : Il permet de capter l'effet lié au changement technologique dans le secteur et donc l'effet spécifique temporel. Le développement technologique dans un secteur toute chose égale par ailleurs, conduit à une baisse du prix de la production et un accroissement des ventes et donc de la production dans ce secteur. Le développement technologique ne conduit pas seulement à une baisse de l'emploi car il en crée d'autres puisqu'il permet de libérer la main d'oeuvre peu productive dans les secteurs traditionnels. En somme, son signe est indéterminé.

b) Méthode d'estimation

L'estimation des paramètres d'un modèle de panel peut se faire à l'aide de la méthode sans effets fixes et sans effets aléatoires (MCO), la méthode avec effets fixes (Within, LSDV), la méthode à effets aléatoires (between), la méthode d'Anderson et HSIAO (1982).

En ce qui concerne le panel dynamique, les méthodes économétriques standards comme les MCO, la méthode Within, la méthode between ne permettent pas d'avoir des estimateurs efficients puisqu'elles donnent des estimateurs non convergents. La méthode d'Anderson et HSIAO (1982) est également non efficace dans la mesure où elle est basée sur l'utilisation des variables instrumentales et ne prend pas en compte la structure des termes d'erreurs et n'exploite pas toutes les conditions des moments.

Un panel dynamique est un modèle dans lequel un ou plusieurs retards de la variable dépendante figurent comme variables explicatives. Pour tenir compte de cet état, les macro-économistes font recours depuis les années 1991 à la méthode des moments généralisée(GMM). Le GMM est la méthode « magique » qui fait « fureur », qui permet d'apporter des solutions aux problèmes de biais de simultanéités et contrôler les effets spécifiques. En plus, cette méthode permet de contourner le problème d'endogéneité des variables. Elle est de ce fait la plus indiquée pour les panels dynamiques (KPODAR, 2007).

Le GMM comporte deux variantes à savoir l'estimateur en première différence d'Arellano et Bond (1991) et l'estimateur en système de Blundell et Bond(1998).

? L'estimateur en première différence d'Arellano et Bond (1991) consiste à prendre pour chaque période la première différence de l'équation à estimer pour éliminer les effets

30

31

individuels et ensuite à instrumenter les variables explicatives de l'équation en première différence par leurs valeurs en niveau retardé d'une ou plusieurs périodes. Arellano et Bond proposent une estimation en deux étapes. Premièrement, les termes d'erreurs sont supposés indépendants et homoscédastiques dans le temps et selon les individus. Dans une seconde étape, les résidus obtenus précédemment sont utilisés pour construire un estimateur efficient de la matrice de variance-covariance en relâchant l'hypothèse d'indépendance et d'homoscédasticité. Cette méthode comporte une limite décrite par Blundell et Bond (1998) à l'aide des simulations de Monte Carlo. En effet, la différenciation de l'équation en niveau élimine les variations inter -individus et ne considèrent pas les variations intra-individus. Pour cela, elle conduit à des estimateurs biaisés dans des échantillons finis lorsque les instruments sont faibles. Pour palier ce problème, on fait recours à l'estimateur en système.

? L'estimateur GMM en système de Blundell et Bond (1998) est une méthode complémentaire au modèle d'Arellano et Bond (1991). Cette méthode consiste à faire une combinaison de l'équation en première différence avec les équations en niveau dans lesquelles les variables sont instrumentées par leurs premières différences.

Dans notre estimation, nous utilisons le GMM en système a une étape afin de pouvoir tirer profit des avantages qu'il offre notamment l'absence de biais de simultanéité et d'autocorrélation. Avant l'estimation, nous effectuons des tests afin de procurer le caractère efficient à nos résultats. Ainsi, nous effectuons les tests préliminaires de spécification du modèle, le test de racine unitaire, le test de significativité globale, le test de sur-identification de Sargan/Hansen, et le test d'autocorrélation des erreurs d'Arellano et Bond.

? Le test de spécification :

Le test de spécification est le tout premier test à effectuer si on travaille avec des données de panels. Selon HURLIN (2006) lorsque l'on considère un échantillon de données de panel, la toute première chose qu'il convient de vérifier est la spécification homogène ou hétérogène du processus générateur de données. Sur le plan économétrique, cela revient à tester l'égalité des coefficients du modèle étudié dans la dimension individuelle. Sur le plan économique, les tests de spécification reviennent à déterminer si l'on est en droit de supposer que le modèle théorique étudié est parfaitement identique pour tous les pays, ou au contraire s'il existe des spécificités propres à chaque pays

Ici, nous faisons le test de spécification pour voir si on est en droit de supposer que le modèle est identique pour tous les secteurs d'activités de l'économie retenus pour le Burkina Faso. S'il y'a homogénéité des coefficients du modèle, cela traduit que nos données supportent la structure panel et nous utilisons la méthode adéquate pour estimer le modèle dynamique. Si par contre il y'a hétérogénéité des coefficients, nos données ne supportent pas la structure panel. Par conséquent, nous estimons les paramètres du modèle par les moindres carrés généralisés (MCG) pour chaque secteur d'activités. Le test de spécification correspond à un test de Fisher. Les hypothèses du test sont :

H0 : Il y'a absence d'effets individuels

H1 : Il y'a présence d'effets individuels

Soit les deux modèles suivants :

Yi,t = a + xi,tf3i + Ei,t(1)

Yi,t = ai + xi,tf3i + Ei,t (2)

Soit F la statistique associée à ce test. Sous H0 , on impose l'égalité des f3i et sous l'hypothèse d'indépendance et de normalité des résidus, on construit une statistique pour tester les N - 1 restrictions linéaires. Sous l'hypothèse H1, les f3i sont égaux mais pas les ai. On a ainsi NT - N - K degrés de liberté. N est le nombre d'individus, T la période totale, K le nombre de paramètres à estimer.

La statistique F = (SCR1-SCR2)/(N-1) ,\I F(N - 1, NT - N - K) SCR2/(NT-N-K)

SCR1 est la somme des carrés des résidus du modèle contraint (1) et SCR2 la somme des carrés des résidus du modèle non contraint (2).

? Le test de stationnarité

L'analyse des données de panels intégrant la stationnarité des séries s'est développée récemment avec les travaux pionniers d'ANDREWLEVIN ET CHIEN-FU (1992). Ainsi, le test de stationnarité est une condition de départ d'application du GMM. Ce test va nous permettre de déterminer le degré d'intégration des sériés dans notre panel. Les tests les plus utilisés sont ceux de LEVIN-LIN-CHU(1993) (LLC) de d'IM-PESARAN-SHIN (2003) (IPS) et le test ADF.HURLIN et MIGNON en 2005 ont apporté une critique au test de LLC car ce test est basé sur l'hypothèse d'indépendance interindividuelle des résidus. Cette interdépendance des résidus conduit à des distributions asymptotiques ou semi-asymptotiques normales. Ainsi, les éventuelles corrélations entre les individus constituent des paramètres de nuisance. Pour pallier ce problème, ils proposent d'utiliser le test IPS qui permet de corriger les

32

limites de LLC en exploitant les co-mouvements pour définir de nouvelles statistiques de test

(HURLIN & MIGNONY, 2005). Nous faisons les trois tests de stationnarité et nous disons que

la série est stationnaire si au moins deux des trois tests l'attestent. La spécification du test est :

Soit le modèle (6) de Dickey-Fuller Augmenté suivant :

DYi,t = 'Yi,t-i + c + bt - E7;=1 AiLYi,t-j + £i,t.

Dans notre cas, le retard p est de 1. Ainsi le modèle (6) devient :

DYi,t = 4)Yi,t-i + c + bt - AiLYi,t-i + £i,t

Les hypothèses du test de stationnarité sont :

H0 : Présence de racine unitaire (0 = 1)

H1 : Absence de racine unitaire (101 < 1)

Si après le test, l'hypothèse nulle n'est pas rejetée, cela conduit à dire que la série n'est pas stationnaire et nous allons la stationnarisée en effectuant une différentiation suivant l'ordre d'intégration de la série.

v Test de normalité de Jarque-Bera

Ce test permet de voir si les erreurs sont normales. La statistique de Jarque-Bera est définie

par :

JB = n [s2 6 + (K-3)2

24 ] Où n est le nombre d'observation, S est le coefficient de dissymétrie

(Skewness) et K le coefficient d'aplatissement (Kurtosis). La statistique JB suit la loi du Khi-deux.

H0 : Les erreurs suivent la loi normale

H1 : Les erreurs ne suivent pas la loi normale

v Le test de sur-identification de Sargan/Hansen.

Il permet de tester la validité de la variable retardée dans notre modèle comme instrument. Il est basé sur l'auto-variance des résidus moyens standardisé et suit une loi normale N(0; 1) sous les hypothèses:

H0 : Présence de variable retardée dans le modèle H1: Absence de variables retardées dans le modèle

33

? Le test d'autocorrélation d'Arellano et Bond

Ce test permet de vérifier la présence d'autocorrélation des erreurs. Il admet une autocorrélation d'ordre 1 mais pas une autocorrélation d'ordre 2. Il est construit à partir des hypothèses suivantes :

H0: Il y'a absence d'autocorrélation des erreurs.

H1 : Il y'a présence d'autocorrélation des erreurs.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"L'imagination est plus importante que le savoir"   Albert Einstein