WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Peut-on éviter les crises? mesure du risque de marché et théorie des valeurs extrêmes : une vision quantitative du risque extrême appliquée à  la crise des subprimes

( Télécharger le fichier original )
par Jean MEILHOC
Institut des hautes études économiques et commerciales - Master II 2012
  

précédent sommaire suivant

II.II.1 Analogie statistique de la distribution des rendements et maximum

de vraisemblance 59

II. II. 1 . 1 Analogie statistique de la distribution des rendements 60

II . II. 1 . 1 . 1 Comportement limite de la loi exponentielle 60

II . II. 1 . 1 .2 Comportement limite de la loi de Pareto 62

II . II. 1 . 1 . 3 Comportement limite de la loi normale 63

II. II. 1 .2 Maximum de vraisemblance 65

II.II.2 Modèle de sélection de maxima 66

II. II. 2 . 1 Réalité erratique 66

II. II. 2 .2 Sélection de seuil 69

II.II.3 Value-at-Risk 71

II. II. 3 . 1 Couverture conditionnelle 72

II. II. 3 .2 Modèle de rentabilité ajustée du risque 75

Conclusion 78

Bibliographie 81

Annexes 85

A. Graphiques : Sélection de seuil 86

B. Stratégie : Synthèse générale 87

C. Graphiques : VaR 88

D. Stratégie 89

E. Visual Basic Application : Loi de valeurs extremes 91

F. Visual Basic Application : Loi de probabilité 93

G. Origines macroéconomiques de la crise des subprimes 97

4

Nous tenons à remercier sincèrement Mr Aubry pour avoir accepté d'encadrer ce mémoire. Ses orientations, ses conseils et ses contacts nous ont permis de mener à bien cette recherche. Je remercie aussi tout particulièrement Mr Assemat, directeur du pTMle finance de marché, pour avoir su transmettre sa passion et son esprit d'analyse. Enfin, nous souhaitons remercier également Mr Rudelle, professeur d'économie et Mr Viar, professeur de mathématiques, sans qui tout cela n'aurait été possible.

INTRODUCTION

<< [ÉJ Les idées, justes ou fausses, des philosophes de l'économie et de la politique ont plus d'importance qu'on ne le pense en général. Ë vrai dire le monde est presque exclusivement mené par elles. Les hommes d'action qui se croient parfaitement affranchis des influences doctrinales sont d'ordinaire les esclaves de quelque économiste passé. Les illuminés du pouvoir qui se prétendent inspirés par des voies célestes distillent en fait des utopies nées quelques années plus tTMt dans le cerveau de quelque écrivailleur de Faculté.È

John Maynard Keynes

<< Théorie générale de l'emploi, de l'intérêt et de la monnaieÈ Chapitre 24, 1936

Les récentes crises financières et monétaires sont indubitablement une préoccupation majeure des acteurs des marchés financiers, des banques, des pouvoirs politiques et des instances de régulation. Les fluctuations extrêmes des cours de bourse sont importantes pour l'activité économique réelle. La hausse de la volatilité en temps de crise, corrélée à la chute des marchés financiers est particulièrement inquiétante. Nous pouvons donner à ce titre l'exemple de la crise des Subprimes, qui a annoncé la chute de la banque américaine Lehman-Brothers disparue le 15 septembre 2008. Ce climat pousse les acteurs du marché, comme les régulateurs bancaires, à développer de nouveaux outils de protection contre le risque de marché. La finance moderne met en avant les mathématiques du hasard et de la statistique, conceptualisées par des lois mathématiques probabilistes capables de mesurer le risque de marché. Celui-ci se matérialise par l'espérance de pertes auxquelles les investisseurs sont impliqués. Les variations des marchés financiers : marchés des instruments de base Ð actions, obligations, devises, matières premières Ð mais aussi les marchés des produits dérivés Ð contrats à terme, options Ð sont par définition risquées et instables. Il faut par conséquent déterminer ce risque de manière précise pour mieux l'appréhender. Parmi ces outils, il existe deux mesures générales : la mesure de sensibilité et la mesure de variance.

La première peut être théorisée en fonction de la sensibilité que représente un produit financier par rapport à son indice de référence. Ainsi, le risque de marché est la probabilité de perte liée aux évolutions des marchés. Na
·vement, si nous possédons une action du Dow Jones Industrial Average et que l'ensemble du marché subit une baisse, il semble naturel de considérer qu'il va en être de même pour notre action. Cette première mesure s'assimile à la sensibilité relative d'un actif détenu par rapport aux facteurs de risque de marché. Ainsi, des modèles de risque se sont

1

développés c omme le << Capital Asset Pricing Model (CAPM)pour le plus connu. Ils mesurent la variance de la rentabilité implicite du marché par un coefficient de régression à des facteurs de risque par rapport au marché dans son ensemble. Cependant, le <<risk manager a besoin d'une mesure pragmatique du risque d'exposition. En effet, lorsqu' un nombre important d'instruments très différents compose le portefeuille, il est difficile d'adjoindre l'ensemble des covariances pouvant exister. C'est pour cette raison qu'il est décisif d'appréhender le risque à partir de profils à la fois différents et complémentaires : la dispersion des pertes et profits des actifs.

La deuxième met en exergue deux mesures de risque venant de la distribution des rentabilités des actifs : la volatilité et la Value-at-Risk (VaR). Ces mesures ne se concentrent pas sur les mêmes paramètres: La volatilité mesure les variations d'un actif autour de la tendance centrale. Cette mesure accorde le même poids aux gains espérés qu'aux pertes potentielles. Or la notion de risque est directement liée aux pertes émanant d'un actif détenu, lequel implique un revenu aléatoire. Une mesure asymétrique pouvant juger du risque de perte est nécessaire. La volatilité prend donc en compte toutes les rentabilités, positives ou négatives, extrêmes ou modéré. La Value-at-Risk peut se définir comme le quantile déterminant la plus grande perte que peut subir un portefeuille avec une probabilité d'occurrence et sur un horizon de temps déterminé: C'est un indicateur pouvant estimer le risque extrême. Ces deux indicateurs donnent une information différente. D'une part, la volatilité peut enregistrer un taux élevé et seulement capturer des risques moyens, certes significatifs, mais pas extrêmes. Tout l'enjeu d'une mesure du risque synthétique pertinente est d'estimer convenablement la perte éventuelle que peut subir un actif. D'autre part, déterminer le risque par la volatilité, moment2 d'ordre 2,

1 Voir : W F. Sharpe

2 Pour tout n ? N d'une variable aléatoire réelle X est défini par mnE(Xn)

3 4

présuppose que les moments suivants, le skewness et le kurtosis , ne nécessitent pas d'être ajoutés dans une mesure de risque viable. La théorie sous- jacente en est la normalité des rentabilités. La loi Normale est en effet caractérisée par les deux premiers moments. La volatilité n'est assurément pas la meilleure mesure de risque extrême. Utiliser la Value-at-Risk permet de passer outre ces difficultés dans la mesure oü le quantile de la distribution ne représente pas un équilibre moyen mais prend en compte les pertes extrêmes. Ce mémoire de recherche prend son essence dans la recherche des valeurs extrêmes appliquées à la Value-at-Risk, afin d'y élaborer une mesure de performance ajustée du risque cohérente. La prévention des évènements extrêmes est aujourd'hui en plein essor. Nous le constatons régulièrement:

· Dans l'étude du vent: à près de 650 km de rayon, ayant atteint un

5

maximum de 280 km/h, l'ouraganKatrina fut le plus puissant et le plus meurtrier des phénomènes naturels qu'ont connu les Etats-Unis, prenant près de 1836 vies et causant plus de 108 milliards de dollars à la collectivité locale6.

· Dans l'étude des plaques tectoniques: le tremblement de terre Crustal, touchant Ha
·ti le 12 janvier 2010, était d'une magnitude de 7.0 - 7.3. Il a

7

causé la perte de 230 000 vies, faisant 300 000 blessés . 1.2 million d'hommes et de femmes furent privés de ressources vitales.

· Dans l'étude séismologique: le séisme de la côte pacifique de Töhoku, oü le japon fut impliqué, le 11 mars 2011, dans l'une des plus importantes catastrophes de son histoire: Le Tsunami de Fukushima. Cet accident majeur a impacté les réacteurs d'une centrale nucléaire laissant un important volume de rejet radioactif.

3 Le coefficient d'asymétrie (Skewness) correspond à une mesure la distribution d'une variable aléatoire réelle. En termes généraux, l'asymétrie d'une distribution est positive si la queue de droite est plus longue ou épaisse, et négative si la queue de gauche est plus longue ou dense.

4 Le coefficient d'aplatissement ou coefficient de Pearson (kurtosis) correspond à une mesure leptokurtique de la distribution d'une variable aléatoire réelle.

5 Ouragan de catégorie 5

6 Chiffre officielle publié par Knabb Richard D, Ç Tropical Cyclone Report: Hurricane Katrina: 23-30 August 2005, NHC (National Hurricane center), 20 décembre 2005.

7 Soit plus de 2.5% de la population

L'ensemble de ces évènements, dont l'espérance mathématique d'en conna»tre la manifestation est mince, est de nature extrême. Ils existent effectivement et doivent être pris en compte.

Les statisticiens ont mis en place des mesures de prévention de ces mouvements, utilisant la Ç théorie des valeurs extrêmes È. Aujourd'hui les domaines d'applications utilisant ces analyses sont nombreux. En hydrologie, par exemple, les données excessives sont particulièrement utiles pour la prévision des crues. Dans le domaine assuranciel, elles sont utilisées dans l'évaluation des grands sinistres. En finance, les marchés financiers connaissent eux aussi des mouvements erratiques extrêmes liés à l'incertitude de l'environnement macro-économique. Faire appel à la théorie des valeurs extrêmes appliquées à la Value-at-Risk dans un tel climat est un bon point d'appui quant à la recherche de la vérité. Expérimenter ces analyses pendant la crise des S ubprimes est intéressant : un investisseur aurait-il pu contrTMler son risque en mesurant le risque de perte extrême?

Ce mémoire met en évidence les méthodes théoriques et empiriques d'évaluations des valeurs extrêmes conditionnelles appliquées à la Value-atRisk afin d'émettre une stratégie performante ajustée du risque. Celui -ci est divisé en deux sections:

Dans la première section, nous verrons l'aspect théorique de la fréquence des rentabilités anormales sur les 30 composantes du DJIA. Cette fréquence nous permettra d'apprécier la vélocité et l'ampleur avec laquelle les rendements d'un actif se meuvent d'un niveau de stabilité donné vers un niveau supposé par la crise, transformant ainsi le discernement qu'ont les investisseurs du risque d'un actif. Puis, nous étudierons la mesure du risque appliquée à la VaR liée aux théories des valeurs extrêmes.

Dans la deuxième section, à travers la partie empirique, nous pourrons nous intéresser à leurs applications sur le DJIA en période de crise des Subprimes.

I. SECTION THÉORIQUE

Ç Imaginez une régle tenue verticalement sur votre doigt : cette position trés instable devrait conduire à sa chute, au moindre mouvement de la main ou en raison d'un trés léger courant d'air. La chut e est liée fondamentalement au caractére instable de la position; la cause immédiate de la chute est, elle, secondaire È

Didier Sornette, 2002

précédent sommaire suivant