WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Expliquer la production de déchets ménagers parisiens sur la période 1949-2004

( Télécharger le fichier original )
par PREISSER Pierre et HADDAG Lyes
Université Paris 1 Panthéon-Sorbonne - Maà®trise d'économétrie 2006
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

Nous passons à la partie économétrie du mémoire. En effet, nous allons enfin modéliser le phénomène étudier depuis le début, celui de la production de déchet. Nous débuterons par une justification économique et économétrique des variables retenues, puis nous passerons à la partie modélisation dans laquelle nous effectuerons les tests nécessaires pour valider notre modèle, puis quand on aura le bon modèle nous finirons par l'interprétation des résultats.

tous les résultats des tests que nous allons effectuer vont être présenté dans l'ordre de la page 55 à 57

1) Modélisation :

a. Justification économique des variables :

Avant de modéliser, il faut avoir une idée des facteurs économiques qui influence le phénomène étudié et justifier leur présence.

Nous analysons l'évolution de la production de déchets ménagers parisiens, pour faciliter l'interprétation nous avons choisis de prendre les logarithmes de nos variables afin de faire ressortir une élasticité entre elles. L'élasticité de la consommation par rapport a la production de déchets peut s'interpréter comme suit, si la consommation augmente de 1%, la production de déchets ménagers va augmenter (respectivement diminuer) de x %, selon le coefficient obtenu.

En plus du logarithme des dépenses moyennes de consommation, nous avons dû rajouter une autre variable explicative : «  le retard du logarithme des déchets ménagers parisien (lrd)», autrement dit, on suppose que la production de déchets d'hier influence la production de déchets ménagers d'aujourd'hui.

Cette variable se justifie très bien d'un point de vue économétrique. En effet, sans cette dernière nous avons notamment des problèmes de significativité des variables, d'hétéroscédasticité et d'autocorrélation des résidus, ce qui voudrait dire que notre modèle n'est pas bien spécifié donc que les résultats obtenus ne sont pas significatifs et utilisables.

Nous avons effectué un test de racine unitaire, dont les résultats sont présenté en annexe, ce dernier conclut qu'il existe une relation plus que proportionnelle entre la production de déchet à la date « t » et celle à la date « t-1 ».

On peut aussi justifier la variable retardée d'un point de vue économique, elle traduirait un changement de comportement de la population parisienne. Je produisais beaucoup de déchets hier, si rien n'est mis en place pour modifier mon comportement, rien ne m'empêche de produire autant si ce n'est plus demain.

Dans le modèle nous avons également rajouté une constante, elle n'a pas de signification économique.

Au final, nous allons faire une régression linéaire par la méthode des MCO sur le modèle suivant :

LDt = â (1)*C + â (2)*LCt + â (3)*LRDt + Ut

b. Estimation du modèle par les MCO :

En théorie, les estimateurs des MCO sont BLUE, c'est-à-dire que les estimateurs obtenus sont les meilleurs estimateurs linéaires sans biais, mais aussi convergents et efficaces.

Autrement dit, les estimations obtenues par MCO sont les plus proches possibles des vraies valeurs.

Pour obtenir de tels estimateurs, il faut vérifier certaines hypothèses qui sont les suivantes :

Ø Relation linéaire entre la variable expliquée et les variables explicatives.

Ø Pas de corrélation entre les résidus et les variables explicatives (exogènéité des variables explicatives).

Ø Homoscédasticité et non autocorrélation des résidus.

Sachant le peu d'observations que l'on a, il nous sera impossible de tester les hypothèses techniques et asymptotiques, on va donc supposer les hypothèses suivantes vérifiées :

Ø L'estimateur obtenu par la méthode des MCO converge en probabilité vers sa vraie valeur.

Ø Les résidus sont indépendants et de même loi, ils suivent tous une loi normale.

Sous ces hypothèses nous pouvons appliquer la méthode des MCO, voici les résultats obtenus :

Dependent Variable: LD

Method: Least Squares

Date: 05/26/06 Time: 14:57

Sample(adjusted): 1950 1989

Included observations: 40 after adjusting endpoints

Variable

Coefficient

Std. Error

t-Statistic

Prob.

C

1.375430

0.563005

2.443014

0.0195

LC

0.062288

0.023851

2.611587

0.0129

LRD

0.692553

0.124475

5.563805

0.0000

R-squared

0.983898

Mean dependent var

5.927354

Adjusted R-squared

0.983027

S.D. dependent var

0.225276

S.E. of regression

0.029349

Akaike info criterion

-4.147096

Sum squared resid

0.031870

Schwarz criterion

-4.020430

Log likelihood

85.94193

F-statistic

1130.411

Durbin-Watson stat

2.277632

Prob(F-statistic)

0.000000

A première vue on pourrait dire que nos coefficients sont significatifs à 95% car les p-values sont toutes inférieures à 5%. Ils sont tous positifs ce qui valide le modèle théorique.

De plus, on remarque que la statistique de Durbin-Watson est proche de 2 ce qui nous laisse croire en l'absence d'autocorrélation des résidus. Tout ceci est bien évidemment conditionné à la validité des hypothèses classiques énumérées ci-dessus. Pour utiliser ces résultats nous devons donc vérifier que nous n'avons pas de relation fallacieuse et que les hypothèses supposées vérifiées, le soient réellement.

C. Test de co-intégration selon l'approche de Engle et Granger :

Nous avons estimé sur la période 1949-1989 le modèle suivant :

Ä LDt = â (1)*C + â (2)*LCt + â (3)*LRDt + Ut

Avec la méthode des MCO nous obtenons :

Ä LD = 1.375429591 + 0.06228832*LC + 0.6925526611*LRD

Nous avons récupéré les résidus de cette régression, puis nous avons effectué un test ADF sur ces deniers.

ADF Test Statistic

-4.817566

1% Critical Value*

-4.123

 
 

5% Critical Value*

-3.461

 
 

10% Critical Value*

-3.130

*MacKinnon critical values

Notre statistique de test étant inférieure à la valeur critique au seuil de 5%, on peut donc dire que l'on rejette avec 95% de certitude l'hypothèse nulle. Nos résidus sont stationnaires ce qui veut dire qu'il existe une relation stable de long terme entre nos variable malgré qu'elles ne soient pas stationnaires.

On peut affirmer qu'il n'y a pas relation fallacieuse, autrement dit si notre modèle vérifie les hypothèses classiques des MCO, on aura estimé le bon modèle.

Ces résultats sont validés par l'approche de Johannsen, nous ne présenterons pas les résultats de ce test car l'interprétation nous dépasse.

2. Validation des hypothèses :

Le risque de relation fallacieuse étant écarté, nous pouvons nous attarder sur les tests d'hypothèses nécessaires à la validation du modèle estimé par les MCO.

Nous traiterons dans un premier temps, l'Homoscédasticité puis l'autocorrélation.

a. Etude du corrélogramme des résidus :

A la vue du corrélogramme des résidus, il apparaît clairement que nos résidus sont des « Bruits Blancs », ils suivent donc une loi normale (de moyenne nulle et de variance ²) et sont stationnaires.

Cela prouve que nos variables explicatives sont exogènes, et qu'il ne manque pas de variable explicative.

b. Test d'Homoscédasticité :

L'Homoscédasticité correspond au fait que la variance des résidus est constante, indépendante du temps.

Autrement dit les résidus fluctuent autour de 0 dans un intervalle égale à 2*, correspond à la moyenne des résidus estimé qui est censée être nulle, représente l'écart type des résidus, il est égale à la racine carrée de la variance des résidus.

Pour tester cette hypothèse nous allons utiliser l'approche de White, dont nous allons expliciter le principe.

Une fois la régression par MCO du modèle faite, on récupère les résidus estimés.

Puis on fait la régression suivante :

Û² = 0*C + 1*lc + 2* lrd + 3*lc² + 4* lrd² (+ 5* lc*lrd) + , stationnaire.

Le terme entre parenthèse est à rajouté dans la version du test de « White » avec les termes croisés. Une fois cette régression faite par MCO, nous aurons alors les estimations des coefficients .

L'étape suivante consiste à tester les hypothèses suivantes :

- H0 : 1 = 2 = 3 = 4 = (5) = 0, équivaut que les résidus sont égales à une constante plus un bruit blanc. Il y'a donc Homoscédasticité.

Contre :

- H1 : Il existe un i différent de 0, avec i= 1, 2, 3, 4, (5), on conclut à l'hétéroscédasticité des résidus, du fait que la variance de nos résidus est proportionnelle à au moins une variables explicative du modèle.

Nous avons fait le test avec les termes croisés et non croisé. Nous ne présenterons que le test avec les termes croisé. Mais les listings des deux tests sont proposés en annexe.

White Heteroskedasticity Test :

F-statistic

1.753949

Probability

0.149005

Obs*R-squared

8.201822

Probability

0.145458

La p-value de la statistique de test est supérieure à 5%. Le risque de se tromper en rejetant l'hypothèse H0 est trop grand, nous acceptons donc celle-ci.

Avec l'approche de White, on est sur à 95 % d'avoir l'Homoscédasticité de nos résidus.

Le test sans les termes croisés conclut au même résultat.

Pour confirmer cela, il aurait été mieux de faire le test de Breusch-Pagan, ou tout autre test permettant de confirmer la présence ou non d'hétéroscédasticité. Le logiciel que nous utilisons, EViews dans la version 3.1, ne propose pas d'autres tests. Aussi nous devrons nous contenter de ces tests.

Le problème de l'Homoscédasticité étant résolus, nous allons passer au problème de l'autocorrélation des résidus.

c. Test d'auto corrélation :

L'autocorrélation des résidus, signifie que les chocs qui ont eu dans le passé (t-h) h différent de 0) influence le choc à l'instant t.

Autrement dit la covariance entre U (t-h) et U (t), avec h différent de 0, n'est pas nulle. Cela voudrait dire qu'il existe une relation entre les deux résidus.

Nous allons tester cela grâce au test de Breusch-Godfrey, le principe de ce test est le suivant, on estime notre modèle par les MCO, puis on récupère les résidus et on régresse ce modèle :

Ût = 1* Ût-1 + 2* Ût-2+ 3* Ût-3 + 4* Ût-4+.....+ n* Ût-n + *Xt+ t, t stationnaire.

Xt représente le vecteur des variables explicatives, on l'insert afin de gagner en précision, car on régresse Ût plutôt que Ut qui est non observé.

Ceci étant fait on test les hypothèses suivantes :

- H0 : U (t) non autocorrélé, équivaut que les n sont tous égales à 0

Contre :

- H1 : U (t) autocorrélé, signifie qu'au moins un est différent de 0, statistiquement parlant cela voudrait dire que notre résidus suit un processus auto-régréssif d'ordre n (dit AR (n)).

Ä Cas particulier : n = 1, on test donc la corrélation entre Ut et Ut-1.

Cela revient à faire le test de Durbin-Watson.

On test donc :

- H0 : = 0, il n'y a pas d'autocorrélation.

Contre :

- H1 : différent de 0, on a de l'autocorrélation

La statistique de Durbin-Watson (DW) est égale à : 2*(1-°), où ° est le de la régression par MCO du modèle Ût = * Ût-1+t, t stationnaire.

On sait que = 0, si la statistique de Durbin-Watson est proche de 2, plus précisément si elle est compris pour notre modèle entre 1.60 et (4-1.60) soit 2.4.

Ce test est réalisé pour un seuil de 5%, notre statistique de DW vaut 2.277632, elle est donc comprise dans l'intervalle. A 95%, on est sur que nous n'avons pas d'autocorrélation entre Ut et Ut-1.

Faisons le test de Breusch-Godfrey pour savoir si notre résidu suit un processus AR (n) avec n différent de 1, car l'AR (1) a déjà été testé par le test de Durbin-Watson.

Nous allons présenté les résultats de ce test pour un AR (2), mais les conclusions sont les mêmes pour n = 3, 4, 5, etc.

Breusch-Godfrey Serial Correlation LM Test:

F-statistic

2.140991

Probability

0.132680

Obs*R-squared

4.360250

Probability

0.113027

La p-value de la statistique de Breusch-Godfrey étant supérieur à 5%, on accepte avec 95% de certitude l'hypothèse H0. Ainsi nous avons montré que nos résidus n'étaient pas autocorrélés.

Toutes les hypothèses nécessaires à la validation des résultats obtenus par les MCO pouvant être testé grâce à notre logiciel, on été validé. Dans ce cas, les MCO sont BLUE ce qui veut dire sont des estimateurs sans biais, convergent et efficace. Si les hypothèses n'avaient pas été validées, nous aurions dû utiliser d'autres méthodes d'estimation que les MCO comme les Moindres Carrés Généralisés (MCG/MCQG) s'il y a des problèmes d'autocorrélation ou d'hétéroscédasticité des résidus.

On suppose que les hypothèses non testées sont vérifiées, il nous reste à voir, avant d'interpréter les résultats, si notre modèle est robuste.

3. Robustesse du modèle :

Les hypothèses classiques des MCO étant vérifiées, il nous reste a tester la robustesse de notre modèle afin d'affirmer que ce dernier modélise le mieux la production de déchets ménagers parisiens.

Ce test consiste à insérer de nouvelles variables dans notre modèle. Si cette insertion ne modifie pas sérieusement nos anciennes variables explicatives, tout en concluant à la non significativité des variables nouvellement insérées, alors notre modèle est robuste et les variables insérées sont superflues.

Pour ce faire, nous avons choisis de rentrer dans le modèle deux variables qualitatives. La première symbolise l'arrivée en France, en 1955, de l'emballage de type « Tetrapak » (très utilisé pour conditionner le lait etc.).

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Le don sans la technique n'est qu'une maladie"