WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Mesure du risque de marché et théorie des valeurs extrêmes

( Télécharger le fichier original )
par Jean MEILHOC
INSEEC - Master II 2012
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

CONCLUSION

Nous soulignons au terme de cette étude l'importance des mouvements extrêmes lors de la crise des Subprimes. B. Mandelbrot avait déjà émis des réserves en 1963 quant à la validité du comportement aléatoire du mouvement brownien caractérisé par les deux premiers moments de la loi normale. En effet, les hypothèses qui les soutiennent, peuvent corrompre leur validité intrinsèque dans le cas oü des événements imprévisibles influencent de facon prépondérante la moyenne de l'échantillon. La crise des Subprimes en est l'exemple type. Nous pouvons apprécier la fréquence du DJIA par l'exercice du calcul des rentabilités anormales, se déplacant d'un niveau de stabilité vers celui réalisé par la crise. Les résultats obtenus montrent que la crise des Subprimes a enregistré une fréquence journalière continue importante.

Le caractère imprévisible des évènements rares est omniprésent en économie, en finance et en assurance. Parallèlement aux travaux de P. Levy en 1920, le développement des études statistiques des valeurs extrêmes, mené par R. Fisher et L. Tippett en Grande- Bretagne, B. Gnedenko en Union soviétique, M. Fréchet et E. Gumbel en France et L. Mises en Autriche, a émergé. Ces études se concentrent sur le maximum et le minimum d'une suite d'événements dans un échantillon, événements d'occurrence faible, mais de grande importance. Ces Ç événements raresÈ forment ce que l'on nomme les queues de distributions. Ces statisticiens ont montré que la valeur maximale de l'échantillon ne peut obéir qu'à l'une parmi trois distributions différentes : les distributions de Fréchet, de Gumbel et de Weibull.

Il en est ainsi des étude s de fiabilité, oü, pour calculer la probabilité de défaut, nous cherchons à considérer la probabilité de défaillance de son Ç maillon le plus faible È. Par exemple, pour déterminer les caractéristiques d'un barrage, il faut connaitre la pression maximale que l'ouvrage pourra être amené à tolérer, et non sa pression moyenne qu'il supportera en situations normales. Pour cela, il faut caractériser les variables extrêmes de l'échantillon d'observations. C'est se que propose de quantifier la Value -at-Risk, qui mesure la perte potentielle maximale à un seuil de probabilité et à un horizon de temps fixés. L'analyse de cette dernière menée sur le DJIA nous a permis de comprendre qu'il est possible de la quantifier, de facon analytique, en utilisant la loi de distribution de Pareto généralisée, les

probabilités de pertes extrêmes. En pondérant la VaR GPD, nous avons mesuré le risque de marché, nous permettant de limiter les pertes encourues par la détention du DJIA. Il est à noter que cette méthode peut être facilement assimilable aux méthodes de gestion assurancielle de portefeuille OBPI53 ou CPPI54, dans laquelle la VaR GPD servirait de seuil dynamique de proportion au risque.

Paradoxalement, l'étude menée précédemment nous a permis de remarquer que les statistiques ne sont pas une science exacte. En modélisant statistiquement les valeurs extrêmes du DJIA, un problème est apparu de manière récurrente : La pertinence des données utilisées.

En effet, les méthodes de significativité de Brown et Warner , de Pattel et de Bohemer, Musumeci et Poulsen impliquent une constance de la volatilité dans le temps. Or nous savons que les marchés financiers sont hétéroscédastique et qu'il est nécessaire d'utiliser un processus ARCHGARCH afin de proposer un modèle adéquat. Nous pouvons également remarquer que cette hypothèse n'est plus vérifiée en phase de Ç partitionnement des données È ou Ç Clustering È dans lequel deux ou plusieurs titres réagissent, sur un intervalle de temps i, à un même évènement. Cette corrélation est souvent révélée à travers de nombreux exemples sur les marchés financiers, notamment lorsque Lehman Brothers disparue pendant la crise des Subprimes .

Aussi, il faut utiliser une fenêtre de taux de rentabilité équilibré s entre stabilité et précision afin de réduire l'effet de croissance de la variance estimée à partir du nombre d'observations. En ce qui concerne la théorie des valeurs extrêmes, le choix du seuil u de sélection des données maximum et minimum est primordial pour la validité de l'étude. Il s'agit d'une part de sélectionner un seuil grand, au dessus duquel nous conservons assez de données pour que l'approximation asymptotique soit à la fois applicable et précise. D'autre part pas trop élevé pour ne pas donner trop d'importance aux écart-types de l'estimateur. Cela révèle d'une certaine approximation.

5 3 <<Option Based Portfolio Insurance>> est une méthode d'assurance de portefeuille à base d'options, conceptualisée par Leland et Rubinstein en 1981.

54 <<Constant Proportion Portfolio Insurance>> est la méthode du coussin. Initialement développée par P. Erold en 1986 et Black et Jones en 1978, elle vise à maintenir une proportion constante d'exposition au risque.

De plus, Selon N. Taleb, il n'est pas possible de mesurer le risque d'événements rares catastrophiques dont nous n'avons jamais connu d'exemple par le passé. Ces <<cygnes noirs >>, tels qu'il les appelle, invalideraient les approches statistiques de modélisation du risque. Mais il reste encore beaucoup à découvrir. La préface de la deuxième édition du livre << Une approche fractale des marchés È soulignait : Ç L'économie financière, en tant que discipline, en est là oil en était la chimie au XVI e siècle : c'était un ramassis de savoir-faire, de sagesse populaire fumeuse, d'hypothèses non confirmées et de spéculations grandioses È55.

La crise financière des Subprimes est-elle un cygne noir au méme titre que l'accident subi par la centrale nucléaire de <<Three Mile Island >>56, oü, malgré la prudence établie par les instances de régulation nucléaire, une erreur de nature non-quantifiable, mit en échec le système de süreté ? Ou pouvons-nous plutôt la comparer à la tempéte qui dévasta les Pays-Bas en 1953, événement anormal, mais dont on pouvait mesurer la probabilité ?

5 5 B. Mendelbrot et R. L Hudson: Une approche fractale des marchés Ð Risquer, perdre et gagner ; Editions Odile Jacob, Paris 2009, 358 pages.

56 La central nucléaire de Three mile Island est situé dans l'est des Etats-Unis est connu pour avoir subi un accident classé au niveau 5 l'échelle international des évenements nucléaires (INES). C'était le 28 mars 1979.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Je ne pense pas qu'un écrivain puisse avoir de profondes assises s'il n'a pas ressenti avec amertume les injustices de la société ou il vit"   Thomas Lanier dit Tennessie Williams