WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Risque de marché et théorie des valeurs extrêmes

( Télécharger le fichier original )
par Jean MEILHOC
Institut des hautes études économiques et commerciales - Master II - Capital Markets 2012
  

Disponible en mode multipage

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

INSTITUT DES HAUTES ÉTUDES ÉCONOMIQUES ET COMMERCIALES

MÉMOIRE DE RECHERCHE APPLIQUÉE

PEUT-ON EVITER LES CRISES ?

MESURE DU RISQUE DE MARCHÉ ET THÉORIE DES VALEURS EXTRÊMES :

UNE VISION QUANTITATIVE DU RISQUE EXTRÊME APPLIQUÉE À LA CRISE DES SUBPRIMES

MASTER : FINANCE DE MARCHÉ [SMT]

AUTEUR : JEAN MEILHOC

TUTEUR : ARNAUD AUBRY, QUANTITATIVE FUND MANAGER

DATE : 2 JUIN 2012

RÉSUMÉ

Les récentes crises financières et monétaires ont conduit le développement de nouveaux outils de protection contre le risque de marché. Le théorème de la limite centrale, qui décrit le comportement asymptotique de la moyenne d'un grand nombre de variables indépendantes, ne semble plus adéquat lorsque des événements rares ou extrêmes deviennent normes, comme lors de la crise des Subprimes. A ce titre, la Value-at-Risk, qui peut se définir comme le quantile déterminant la plus grande perte que peut subir un portefeuille avec une probabilité d'occurrence déterminé, permet de mesurer ce risque extrême. La théorie des valeurs extrêmes (TVE), étudiée dans le cadre de la recherche d'évènements rares d'une suite de variables aléatoires indépendantes, associée à la Value-at-Risk peut être un excellent indicateur. Ce mémoire de recherche prend son essence dans la recherche des valeurs extrêmes appliquées à la Value-at-Risk, afin d'y élaborer un modèle de prévention du risque cohérent.

MOTS-CLÉS : FINANCE QUANTITATIVE ; MODÉLISATION MATHÉMATIQUE ; PROBABILITÉS ET STATISTIQUES ; RISK MANAGEMENT ; THÉORIE DES VALEURS EXTRÊMES ; VALUE-AT-RISK (VAR)

ABSTRACT

Financial crises have become a principal concern to lead the development of new market risk indicators. The central limit theorem, which describes the average asymptotic behavior of a random process, does not characterize rare or extreme events, like subprime mortgage crises do. Value at Risk (VaR) is defined by risk exposure at a given probability level at a specified time horizon. Computing extreme value theory (EVT), focusing on the tails of the sample distribution, is an excellent approach for its use in managing risks. This research paper presents an application of extreme value theory to compute to Value-at-Risk of a market position in order to provide a consistent risk measurment.

KEY-WORDS : QUANTITATIVE FINANCE ; MATHEMATICAL MODELING ; PROBABILITY AND STATISTICS ; RISK MANAGEMENT ; EXTREME VALUE THEORY ; VALUE-AT-RISK (VAR)

Sommaire

Introduction 6

I. Section théorique 10

I.I. Modèle de fréquence des rentabilités anormales 10

I.I.1 Taux de rentabilités normales et anormales 11

I.I.1.1 Processus d'évaluation 11

I.I.1.2 Procédure de test 12

I.I.2 Calcul des rentabilités anormales 12

I.I.2.1 Modèles théoriques 12

I.I.2.1.1 Modèle de moyenne 13

I.I.2.1.2 Modèle de marché 13

I.I.2.2 Évaluation des paramètres 14

I.I.3 Rentabilités anormales 16

I.I.4 Test de significativité 17

I.I.4.1 Moindres carrés ordinaires 17

I.I.4.2 Rentabilités anormales transversales et cumulés 19

I.I.4.3 Méthode de Brown et Warner 19

I.I.4.4 Méthode de Pattel 20

I.I.4.5 Méthode de Bohemer, Musumeci et Poulsen 20

I.II. Mesure du risque 22

I.II.1 Mesure du risque gaussien 25

I.II.1.1 Distribution de gauss 25

I.II.1.2.1 Loi des grands nombres 25

I.II.1.2.2 Loi de Gauss 26

I.II.1.2 Value-at-Risk classique 27

I.II.2 Distribution des valeurs extrêmes 29

I.II.2 1 Études fondamentales 30

I.II.2.2 Lois des maxima : résultat exacts 31

I.II.3 Mesure du risque extrême 33

I.II.3.1 Théorème de Fisher-Tippet 33

I.II.3.1.1 Modélisation paramétrique des maxima par blocs 36

I.II.3.1.2 Sélection de la taille des blocs 36

I.II.3.1.3 Estimation du modèle BM par le maximum de vraisemblance 36

I.II.3.2 Théorème de Balkema-de Haan-Picklands 39

I.II.3.2.1 Modélisation paramétrique de la distribution des excès 42

I.II.3.2.2 Estimation du modèle de seuil par le maximum de vraisemblance 43

I.II.3.3 4 Value-at-Risk extreme 43

II. Section empirique 46

II.I Mesure des fréquences anormales 46

II.I.1 Processus 46

II.I.2 Taux de rentabilités normales et anormales 52

II.I.2.1 Fréquences normales 52

II.I.2.2 Fréquences anormales 53

II.I.3 Résultat des fréquences anormales 54

II.I.3.1 Rentabilités anormales stationnaires 54

II.I.3.2 Rentabilités anormales cumulées 55

II.I.4 Test de significativité 56

II.II. Théorie des valeurs extrêmes et Value-at-Risk 58

II.II.1 Analogie statistique de la distribution des rendements et maximum de vraisemblance 59

II.II.1.1 Analogie statistique de la distribution des rendements 60

II.II.1.1.1 Comportement limite de la loi exponentielle 60

II.II.1.1.2 Comportement limite de la loi de Pareto 62

II.II.1.1.3 Comportement limite de la loi normale 63

II.II.1.2 Maximum de vraisemblance 65

II.II.2 Modèle de sélection de maxima 66

II.II.2.1 Réalité erratique 66

II.II.2.2 Sélection de seuil 69

II.II.3 Value-at-Risk 71

II.II.3.1 Couverture conditionnelle 72

II.II.3.2 Modèle de rentabilité ajustée du risque 75

Conclusion 78

Bibliographie 81

Annexes 85

A. Graphiques : Sélection de seuil 86

B. Stratégie : Synthèse générale 87

C. Graphiques : VaR 91

D. Stratégie 92

E. Visual Basic Application : Loi de valeurs extrêmes 94

F. Visual Basic Application : Loi de probabilité 96

G. Origines macroéconomiques de la crise des subprimes 100

REMERCIEMENT

Nous tenons à remercier sincèrement Mr Aubry pour avoir accepté d'encadrer ce mémoire. Ses orientations, ses conseils et ses contacts nous ont permis de mener à bien cette recherche. Je remercie aussi tout particulièrement Mr Assemat, directeur du pôle finance de marché, pour avoir su transmettre sa passion et son esprit d'analyse. Enfin, nous souhaitons remercier également Mr Rudelle, professeur d'économie et Mr Viar, professeur de mathématiques, sans qui tout cela n'aurait été possible.

INTRODUCTION

« [...] Les idées, justes ou fausses, des philosophes de l'économie et de la politique ont plus d'importance qu'on ne le pense en général. À vrai dire le monde est presque exclusivement mené par elles. Les hommes d'action qui se croient parfaitement affranchis des influences doctrinales sont d'ordinaire les esclaves de quelque économiste passé. Les illuminés du pouvoir qui se prétendent inspirés par des voies célestes distillent en fait des utopies nées quelques années plus tôt dans le cerveau de quelque écrivailleur de Faculté. »

John Maynard Keynes

« Théorie générale de l'emploi, de l'intérêt et de la monnaie »

Chapitre 24, 1936

Les récentes crises financières et monétaires sont indubitablement une préoccupation majeure des acteurs des marchés financiers, des banques, des pouvoirs politiques et des instances de régulation. Les fluctuations extrêmes des cours de bourse sont importantes pour l'activité économique réelle. La hausse de la volatilité en temps de crise, corrélée à la chute des marchés financiers est particulièrement inquiétante. Nous pouvons donner à ce titre l'exemple de la crise des Subprimes, qui a annoncé la chute de la banque américaine Lehman-Brothers disparue le 15 septembre 2008. Ce climat pousse les acteurs du marché, comme les régulateurs bancaires, à développer de nouveaux outils de protection contre le risque de marché. La finance moderne met en avant les mathématiques du hasard et de la statistique, conceptualisées par des lois mathématiques probabilistes capables de mesurer le risque de marché. Celui-ci se matérialise par l'espérance de pertes auxquelles les investisseurs sont impliqués. Les variations des marchés financiers : marchés des instruments de base - actions, obligations, devises, matières premières - mais aussi les marchés des produits dérivés - contrats à terme, options - sont par définition risquées et instables. Il faut par conséquent déterminer ce risque de manière précise pour mieux l'appréhender. Parmi ces outils, il existe deux mesures générales : la mesure de sensibilité et la mesure de variance.

La première peut être théorisée en fonction de la sensibilité que représente un produit financier par rapport à son indice de référence. Ainsi, le risque de marché est la probabilité de perte liée aux évolutions des marchés. Naïvement, si nous possédons une action du Dow Jones Industrial Average et que l'ensemble du marché subit une baisse, il semble naturel de considérer qu'il va en être de même pour notre action. Cette première mesure s'assimile à la sensibilité relative d'un actif détenu par rapport aux facteurs de risque de marché. Ainsi, des modèles de risque se sont développés comme le « Capital Asset Pricing Model » (CAPM)1(*) pour le plus connu. Ils mesurent la variance de la rentabilité implicite du marché par un coefficient de régression à des facteurs de risque par rapport au marché dans son ensemble. Cependant, le « risk manager » a besoin d'une mesure pragmatique du risque d'exposition. En effet, lorsqu' un nombre important d'instruments très différents compose le portefeuille, il est difficile d'adjoindre l'ensemble des covariances pouvant exister. C'est pour cette raison qu'il est décisif d'appréhender le risque à partir de profils à la fois différents et complémentaires : la dispersion des pertes et profits des actifs.

La deuxième met en exergue deux mesures de risque venant de la distribution des rentabilités des actifs : la volatilité et la Value-at-Risk (VaR). Ces mesures ne se concentrent pas sur les mêmes paramètres : La volatilité mesure les variations d'un actif autour de la tendance centrale. Cette mesure accorde le même poids aux gains espérés qu'aux pertes potentielles. Or la notion de risque est directement liée aux pertes émanant d'un actif détenu, lequel implique un revenu aléatoire. Une mesure asymétrique pouvant juger du risque de perte est nécessaire. La volatilité prend donc en compte toutes les rentabilités, positives ou négatives, extrêmes ou modéré. La Value-at-Risk peut se définir comme le quantile déterminant la plus grande perte que peut subir un portefeuille avec une probabilité d'occurrence et sur un horizon de temps déterminé : C'est un indicateur pouvant estimer le risque extrême. Ces deux indicateurs donnent une information différente. D'une part, la volatilité peut enregistrer un taux élevé et seulement capturer des risques moyens, certes significatifs, mais pas extrêmes. Tout l'enjeu d'une mesure du risque synthétique pertinente est d'estimer convenablement la perte éventuelle que peut subir un actif. D'autre part, déterminer le risque par la volatilité, moment2(*) d'ordre 2, présuppose que les moments suivants, le skewness3(*) et le kurtosis4(*), ne nécessitent pas d'être ajoutés dans une mesure de risque viable. La théorie sous- jacente en est la normalité des rentabilités. La loi Normale est en effet caractérisée par les deux premiers moments. La volatilité n'est assurément pas la meilleure mesure de risque extrême. Utiliser la Value-at-Risk permet de passer outre ces difficultés dans la mesure où le quantile de la distribution ne représente pas un équilibre moyen mais prend en compte les pertes extrêmes. Ce mémoire de recherche prend son essence dans la recherche des valeurs extrêmes appliquées à la Value-at-Risk, afin d'y élaborer une mesure de performance ajustée du risque cohérente. La prévention des évènements extrêmes est aujourd'hui en plein essor. Nous le constatons régulièrement :

§ Dans l'étude du vent : à près de 650 km de rayon, ayant atteint un maximum de 280 km/h, l'ouragan5(*) Katrina fut le plus puissant et le plus meurtrier des phénomènes naturels qu'ont connu les Etats-Unis, prenant près de 1836 vies et causant plus de 108 milliards de dollars à la collectivité locale6(*).

§ Dans l'étude des plaques tectoniques : le tremblement de terre Crustal, touchant Haïti le 12 janvier 2010, était d'une magnitude de 7.0 - 7.3. Il a causé la perte de 230 000 vies, faisant 300 000 blessés7(*). 1.2 million d'hommes et de femmes furent privés de ressources vitales.

§ Dans l'étude séismologique : le séisme de la côte pacifique de Töhoku, où le japon fut impliqué, le 11 mars 2011, dans l'une des plus importantes catastrophes de son histoire : Le Tsunami de Fukushima. Cet accident majeur a impacté les réacteurs d'une centrale nucléaire laissant un important volume de rejet radioactif.

L'ensemble de ces évènements, dont l'espérance mathématique d'en connaître la manifestation est mince, est de nature extrême. Ils existent effectivement et doivent être pris en compte.

Les statisticiens ont mis en place des mesures de prévention de ces mouvements, utilisant la « théorie des valeurs extrêmes ». Aujourd'hui les domaines d'applications utilisant ces analyses sont nombreux. En hydrologie, par exemple, les données excessives sont particulièrement utiles pour la prévision des crues. Dans le domaine assuranciel, elles sont utilisées dans l'évaluation des grands sinistres. En finance, les marchés financiers connaissent eux aussi des mouvements erratiques extrêmes liés à l'incertitude de l'environnement macro-économique. Faire appel à la théorie des valeurs extrêmes appliquées à la Value-at-Risk dans un tel climat est un bon point d'appui quant à la recherche de la vérité. Expérimenter ces analyses pendant la crise des Subprimes est intéressant : un investisseur aurait-il pu contrôler son risque en mesurant le risque de perte extrême ?

Ce mémoire met en évidence les méthodes théoriques et empiriques d'évaluations des valeurs extrêmes conditionnelles appliquées à la Value-at-Risk afin d'émettre une stratégie performante ajustée du risque. Celui-ci est divisé en deux sections :

Dans la première section, nous verrons l'aspect théorique de la fréquence des rentabilités anormales sur les 30 composantes du DJIA. Cette fréquence nous permettra d'apprécier la vélocité et l'ampleur avec laquelle les rendements d'un actif se meuvent d'un niveau de stabilité donné vers un niveau supposé par la crise, transformant ainsi le discernement qu'ont les investisseurs du risque d'un actif. Puis, nous étudierons la mesure du risque appliquée à la VaR liée aux théories des valeurs extrêmes.

Dans la deuxième section, à travers la partie empirique, nous pourrons nous intéresser à leurs applications sur le DJIA en période de crise des Subprimes.

I. SECTION THÉORIQUE

« Imaginez une règle tenue verticalement sur votre doigt : cette position très instable devrait conduire à sa chute, au moindre mouvement de la main ou en raison d'un très léger courant d'air. La chute est liée fondamentalement au caractère instable de la position ; la cause immédiate de la chute est, elle, secondaire »

Didier Sornette, 2002

I.I. MODÈLE DE FRÉQUENCE DES RENTABILITÉS ANORMALES

Les aspects macroéconomiques montrent de façon indubitable les conséquences d'une crise, particulièrement celle des Subprimes, qui fut, pour les observateurs les plus avertis, aussi importants que celle qui a vu le jour du jeudi noir de 19298(*). Cependant, lorsqu'on se situe sur un marché financier, dans notre exemple le Dow Jones Industrial Average (DJIA), comment considérer l'impact qu'a eu cette crise sur les actifs le composant ? Évaluer la hausse de la volatilité, sur un intervalle de temps représentant la crise, afin d'y extraire des rentabilités anormales, peut être un bon point d'appui. Mais comment pouvons-nous juger de ce que peut représenter le niveau de la volatilité dite normale à titre de comparaison ?

La technique de l' « étude d'événement », initié par E. Fama9(*), a précisément pour objectif d'apprécier la précipitation et la profusion avec laquelle un actif se déplace, transformant ainsi le discernement qu'ont les investisseurs du risque d'un actif.

Nous allons pour ce faire nous focaliser sur la recherche des rentabilités anormales, puis juger de leur significativité à travers des tests statistiques.

I.I.1 TAUX DE RENTABILITÉS NORMALES ET ANORMALES

Les crises financières et monétaires occasionnent donc des mouvements particuliers sur le cours d'un titre. L'approche utilisée pour isoler ceux-ci des fluctuations liées à l'influence de facteurs exogènes à la crise des Subprimes repose ainsi sur le calcul de rentabilités anormales. Par définition, ces taux de rentabilités sont obtenus par différence entre les rentabilités observées, influencées par l'incertitude qui règne sur les marchés en période de crise, et les rentabilités dites normales, données par l'absence de perturbations majeures.

Les rentabilités anormales sont nécessairement calculées en fonction d'un modèle de calcul. A ce titre, nous avons choisi d'en présenter deux dans notre étude :

§ Le modèle de moyenne

§ Le modèle de marché.

I.I.1.1 PROCESSUS D'ÉVALUATION

Les variables du modèle permettant le calcul des rentabilités anormales font l'objet d'une évaluation préalable. Cette estimation doit être conduite sur une période de temps antérieure dans laquelle il n'y eu aucune représentation de crise ou d'évènements extraordinaires capables de biaiser l'étude10(*).

I.I.1.2 PROCÉDURE DE TEST

C'est lorsque nous avons calculé les rentabilités anormales que nous pouvons juger de la robustesse de ceux-ci.

§ Une première étape consiste à calculer la somme des taux de rentabilités anormaux obtenue à partir des différents titres de l'échantillon.

§ Une deuxième étape sera également réalisée pour calculer les rentabilités anormales cumulées (RAC) des titres pendant la crise. Cette information nous permet de connaître la véritable intensité d'un évènement par rapport à ses fluctuations exogènes.

§ Une troisième étape montre statistiquement comment, à un seuil de risque octroyé, la crise des subprime agit sur le cours.

I.I.2 CALCUL DES RENTABILITÉS ANORMALES

I.I.2.1 MODÈLES THÉORIQUES

Dans ce mémoire de recherche, nous allons analyser deux méthodes couramment utilisées dans la littérature financière. Ces méthodes repèrent de façon efficiente la présence de trajectoire de cours anormaux. Selon Stephen J. Brown et Jerold B. Warner11(*), il s'agit du :

§ Modèle de moyenne (constant mean return model, « CMRM »)

§ Modèle de marché (market modele, « MM »)

I.I.2.1.1 Modèle de moyenne

Attachée à l'évaluation du modèle de moyenne, l'évolution des taux de rentabilité de l'action i est formulée par :

indique le taux de rentabilité de l'action i à la période t, , le taux de rentabilité moyen de l'action i, est l'innovation en date t, hypothétiquement homoscédastique et d'espérance nulle. Un modèle ARCH - GARCH12(*) peut également être étudié afin d'estimer une variance non constante dans le temps.

I.I.2.1.2 Modèle de marché

Le modèle de marché fut initié par Sharpe13(*) en 1963. Ce modèle postule pour une relation linéaire entre le taux de rentabilité d'un actif et le taux de rentabilité de l'indice de référence, mesuré à partir de l'action i. Ce modèle s'inscrit donc dans le cadre d'une mesure de sensibilité du titre étudié. Expressément, nous avons :

et sont les deux éléments du modèle de marché, et et une perturbation homoscédastique d'espérance nulle. Comme pour le modèle de moyenne, la variance peut être calculée selon des critères hétéroscédastique avec ARCH - GARCH.

I.I.2.2 ÉVALUATION DES PARAMÈTRES

En ce qui concerne le modèle de moyenne, nous devons calculer un simple paramètre donné par la rentabilité moyenne de l'action i sur N, la période pour laquelle nous tirons nos taux de rentabilités normales. Le modèle de marché quant à lui requière l'intervention de deux paramètres distincts, à savoir et de i sur les mêmes périodes.

Pour ce faire, nous pouvons estimer l'ensemble des paramètres liés à chaque modèle à l'aide d'une représentation matricielle de la période N. A ce titre, nous pouvons consulter les études de John Y. Campbell, Andrew W. Lo et Craig MacKinlay, publiées en 199714(*).

Deux composantes sont à calculer. Soit Ri, le vecteur composer des N taux de rentabilité et X:

§ Un vecteur de N lignes égales à 1 pour le modèle de moyenne

§ Une matrice à deux colonnes et N lignes dans le cas du modèle de marché dans laquelle les lignes de la première colonne sont égales à 1 et celles de la deuxième colonne prennent pour valeur le taux de rentabilité du marché en N.

§ Enfin, nous avons un vecteur de paramètre agrégé au modèle utilisé, soit pour le modèle de moyenne, soit pour le modèle de marché.

Cette représentation donne formellement l'équation suivante :

Pour chaque modèle, l'appréciation des paramètres peut aussi s'effectuer par le calcul des moindres carrés ordinaires (MCO). On peut observer à présent l'expression des différents estimateurs comme suit:

k désigne le nombre de paramètres du modèle utilisé.

§ k = 1 pour le modèle de moyenne

§ k = 2 pour le modèle de marché

I.I.3 RENTABILITÉS ANORMALES

Énoncées précédemment, les rentabilités anormales sont obtenues par différence entre les rentabilités étudiées en Ai et les rentabilités dévoilées par le modèle en Ni. Estimé à partir d'une reproduction matricielle des données, le vecteur des A rentabilités anormales estimées est décrite par la relation :

Dans lequel et sont les corollaires de et respectivement. Le vecteur des taux anormaux sur Ai peut s'analyser de telle sorte qu'il existe une « erreur » commise dans la prévision de la rentabilité du titre i. Mathématiquement, cette « perturbation » réelle s'exprime comme :

L'espérance mathématique des taux de rentabilités anormales, liés aux valeurs , elles-mêmes tirées des variables explicatives sur la période de crise, est donnée par :

Avec , calculé précédemment, l'équation donnée par . Celle-ci montre une espérance nulle dans la mesure où la perturbation est supposée indépendante et identiquement identifiée sur Ni et Ai.

I.I.4 TEST DE SIGNIFICATIVITÉ

Comment pouvons-nous juger de la significativité des tests réalisés selon les modèles théoriques réalisés précédemment? Plusieurs étapes peuvent être mise en oeuvre pour en tirer une hypothèse viable. Afin de montrer la véracité du raisonnement utilisé dans cette étude, nous allons dans un premier temps étudier, en passant par la technique des moindres carrés ordinaires, un actif considéré indépendamment avant d'initier une analyse sur données associées.

I.I.4.1 MOINDRES CARRÉS ORDINAIRES

Dans la littérature économétrique, une rentabilité anormale est assimilable à un point aberrant par rapport à une suite de variables iid. Dans notre étude, nous usons des hypothèses classiques dans laquelle les moindres carrés ordinaires sont donnés par le vecteur des espérances des Ai lignes et de la matrice de variances-covariances des Ai lignes et des Ai colonnes de cette erreur. Nous avons :

Où I montre formellement la matrice identifiée par les Ai lignes et des Ai colonnes. Parce qu'il prend en compte un élément additionnel lié à l'étude de l'indice de référence, les indicateurs de la diagonal Vi dans le modèle de marché prend l'expression suivante :

m se rapporte au taux de rentabilité moyen de l'indice de référence sur Ni. Nous le verrons dans la sous-section suivante lorsque Pattel dans son ouvrage publié en 1976 et Boehmer dans sa publication de 1991, utilisent cette expression dans leurs tests statistiques. En outre, cette formule permet de dissocier la hausse de la volatilité, exprimée par l'écart-type des fluctuations des cours, et la perturbation liée aux rentabilités anormales. Logiquement, l'accroissement de la variance est une fonction décroissante du nombre d'observations N utilisé pour estimer les valeurs des paramètres. Cela a pour effet de lisser la volatilité de l'étude des rentabilités normales. C'est pour cette raison qu'il est justifié d'utiliser un laps de temps N équilibré entre stabilité et précision. L'augmentation sera d'autant plus forte que les conditions de marché dans lesquelles sont calculées les rentabilités anormales s'écartent de celles qui avaient cours lors de la phase d'estimation des paramètres. Dans les faits, la valeur de est inconnue. Nous utiliserons alors l'estimateur sans biais noté . Pour ce faire, nous serons amenés à utiliser l'estimateur de la matrice de variances-covariances des taux anormaux dont la formule est donnée par15(*) :

Exprimé par la quantité, calculé avec :

I.I.4.2 RENTABILITÉS ANORMALES TRANSVERSALES ET CUMULÉS

L'analyse des rentabilités anormales transversale permet de juger de la signification d'un échantillon donné à une période . Une quantité importante de travaux de recherche a été réalisée en fonction du comportement des rentabilités sélectionnées. Parce que nous travaillons sur les queues de distribution, ces statistiques vont avoir pour propriétés d'être asymptotiquement normales, d'espérance nulle et de variance égale à 1. La convergence vers la normalité étant vérifiée dès lors que le nombre de données est important (Brown et Warner) ou que le nombre d'actifs étudié soit supérieure ou égale à 30 (Pattel, Boehmer et al.). Les rentabilités anormales cumulées (RAC) permettent de juger de l'effet de la crise sur les différents actifs que peut détenir un actionnaire. C'est la représentation de l'amplitude des rentabilités anormales d'un échantillon sur une période donnée.

I.I.4.3 MÉTHODE DE BROWN ET WARNER

La méthode de Brown et Warner, notée, est la plus couramment utilisée dans l'industrie financière. Cette statistique s'exprime :

Nous avons donc les rentabilités anormales équipondérées de l'ensemble des titres sur la volatilité que peuvent générer celles-ci. C'est donc la rentabilité Ai obtenue divisée par le risque que celle-ci génère par ses variations erratiques en période de crise. Il est à noter que cette statistique implique une constance de la volatilité dans le temps. Nous pouvons aussi remarquer que cette hypothèse n'est plus vérifiée en phase de « partitionnement des données » ou « Clustering » dans lequel deux ou plusieurs titres réagissent, sur un intervalle de temps i, à un évènement lambda. Cette corrélation est exprimée à travers de nombreux exemples sur les marchés financiers.

I.I.4.4 MÉTHODE DE PATTEL

La méthode de Pattel peut se conceptualiser en deux parties. Les rentabilités anormales appartenant à la période de crise sont pris un à un afin d'être calculées par l'écart-type (soit le risque) de l'erreur d'estimation. Cet écart-type correspond au élément de la diagonale de la matrice , donné par l'expression, vu précédemment. Pour la méthode de Pattel, nous avons la formule de la rentabilité anormale standardisée, telle que :

Le poids que peut donner un titre à forte volatilité historique dans le portefeuille est diminué. La statistique de Pattel prend la forme de :

I.I.4.5 MÉTHODE DE BOHEMER, MUSUMECI ET POULSEN

Faisant foi d'une robustesse plus importante lorsque la variance augmente, cette statistique cherche à valider ou non l'hypothèse selon laquelle A tend vers 0 pendant la période d'échantillonnage. La méthode de Bohemer, Musimeci et Poulsen s'exprime dès lors comme :

L'incertitude est au coeur de la logique financière. Le profil de risque que les investisseurs prennent à travers leurs positions est par conséquent déterminant. Le test des rentabilités anormales prend en compte deux paramètres : l'espérance mathématique et l'écart-type. Lorsque les marchés sont en équilibre, il est alors possible d'envisager une relation entre la rentabilité attendue et son risque intrinsèque, déterminé à partir de l'écart qu'il peut exister entre la rentabilité moyenne historique amenée par cette dernière. Le test des fréquences anormales sur un temps long a donc pour objet de connaître l'ampleur, mais aussi la durée, que peut amener de telles rentabilités en période d'incertitude. Nous pouvons désormais reconnaître, de façon plus rigoureuse, l'état de crise, la quantifier, peut-être la comparer.

Cette introduction nous amène à penser qu'il est nécessaire d'établir une solide gestion de mesure des risques.

I.II. MESURE DU RISQUE

« Les influences qui déterminent les mouvements de la Bourse sont innombrables, des événements passés, actuels ou même escomptables, ne présentant souvent aucun rapport  apparent avec ses variations, se répercutent sur son cours. [...] Mais il est possible d'étudier mathématiquement l'état statique du marché à un instant donné, c'est-à-dire d'établir la loi de probabilité des variations de cours qu'admet à cet instant le marché. Si le marché, en effet, ne prévoit pas les mouvements, il les considère comme étant plus ou moins probables, et cette probabilité peut s'évaluer mathématiquement »

Louis bachelier

« Théorie de la spéculation ».

Annales scientifiques de l'E.N.S.

3ème série, tome 17 (1900), p 21-86

La finance moderne met en avant les statistiques. Ceux-ci rationalisent le mouvement de prix des marchés financiers. Le risque en est par conséquent mesurable et gérable. Les travaux en ce domaine ont débuté selon la connaissance générale en 1900, quand un jeune mathématicien, Louis Bachelier, eut la curiosité d'étudier la fluctuation des cours des marchés financiers dans sa thèse : « Théorie de la spéculation ». Inspiré par Pascal et Fermat, qui avait initié le concept de probabilité, L. Bachelier étudia dans sa thèse les bons du trésor français. Considéré comme le précurseur de la théorie moderne du portefeuille et des mathématiques financières, L. Bachelier met en avant un concept nouveau : les prix montent et descendent avec des probabilités égales. Pour ainsi dire, si le nombre de données augmente à un rythme élevé, les échanges boursiers se fondent en un bruit stationnaire. Le risque de marché matérialise l'espérance de pertes auxquelles les investisseurs sont impliqués. Pour le gérer, il faut donc l'évaluer de manière précise. A ce titre, parmi ces outils, existe :

§ Les mesures de sensibilité

§ Les mesures de variance

Une première mesure du risque est en fonction de la sensibilité que représente un actif par rapport à son indice de référence. Cette première mesure s'assimile à la sensibilité relative d'un actif détenu par rapport aux facteurs de risque de marché. Elle mesure la variance de la rentabilité implicite du marché par un coefficient de régression à des facteurs de risque, tel le marché dans son ensemble. Formellement, nous avons :

est le taux de rentabilité de l'action et , celui du marché16(*). Cependant, le « risk manager » a besoin d'une mesure pragmatique du risque d'exposition. En effet, lorsqu'un nombre important d'instruments très différents compose le portefeuille, il est difficile d'imbriquer de façon cohérente l'ensemble des covariances pouvant exister. C'est pour cette raison qu'il est décisif de capturer le risque à partir de profils différents : La dispersion des pertes et profits des actifs.

Nous pouvons mettre en exergue deux mesures de risque venant de la distribution des rentabilités des actifs : la volatilité et la Value-at-Risk (VaR). Ces mesures ne se concentrent pas sur les mêmes paramètres :

§ La volatilité mesure les variations d'un actif autour de la tendance centrale. En effet son expression en fonction du vecteur des taux de rentabilités R est17(*) :

Cette mesure accorde le même poids aux gains espérés qu'aux pertes potentielles. Or la notion de risque est directement liée aux pertes émanant d'un actif détenu, lequel implique un revenu aléatoire. Une mesure asymétrique pouvant juger du risque de perte est nécessaire. La volatilité prend donc en compte toutes les rentabilités, positives ou non, extrêmes ou non.

§ la Value-at-Risk peut se définir comme le quantile déterminant la plus grande perte que peut subir un portefeuille avec une probabilité d'occurrence donné sur un horizon déterminé à l'avance : nous sommes en présence d'un indicateur pouvant estimer le risque extrême.

Ces deux indicateurs donnent une information différente. D'une part, la volatilité peut enregistrer un taux élevé et seulement capturer des risques moyens, certes significatifs, mais pas extrêmes. Tout l'enjeu d'une mesure du risque synthétique pertinente est d'estimer convenablement la perte éventuelle que peut subir un actif. Or un titre « a » peut avoir une volatilité de 10% mais ne pas observer d'extremum très important, avec un maximum de 5% de perte sur une journée par exemple. Au contraire, un actif « b » comptant une volatilité de 5%, peut connaître des pertes, certes rares, de plus de 20%. Le titre « b » nous semble donc plus risqué, même si ses risques « moyens » s'avèrent être moins importants que ceux du premier. D'autre part, déterminer le risque par le moment18(*) d'ordre 2, la volatilité, présuppose que les moments suivants, le skewness19(*) et le kurtosis20(*), ne nécessitent pas d'être ajoutés dans une mesure de risque viable. La théorie sous- jacente en est la normalité des rentabilités. La loi Normale est en effet caractérisée par les deux premiers moments. Utiliser la Value-at-Risk permet de passer outre ces difficultés dans le sens où le quantile de la distribution ne représente pas un équilibre moyen mais prend en compte les pertes extrêmes. En outre, nous pouvons souligner le fait que la volatilité n'est assurément pas la meilleure mesure de risque extrême. Nous allons dans cette partie étudier plus en détail cette mesure de risque en utilisant la théorie des valeurs extrêmes.

I.II.1 MESURE DU RISQUE GAUSSIEN

I.II.1.1 DISTRIBUTION DE GAUSS

I.II.1.2.1 Loi des grands nombres

D'un point de vue théorique, une variable continue prend une infinité de valeurs à l'intérieur de son intervalle de définition. La loi des grands nombres compte pour ce faire un échantillon assez important de variables aléatoires. En ce sens, la théorie des grands nombres est simple : Si la taille de l'échantillon est assez importante, la moyenne empirique de la variable étudiée tend vers celle théorique de somme unitaire. Par conséquent, considérons un échantillon d'observation d'une variable aléatoire, d'espérance et d'écart-type finis. Dès lors, la loi des grands nombres énonce que, quand , la moyenne empirique converge en direction de . Nous avons alors : . La loi des grands nombres est une loi asymptotique qui assure ainsi que la moyenne empirique est un estimateur convergent de l'espérance mathématique.

I.II.1.2.2 Loi de Gauss

La loi normale fait partie de la famille des lois continues21(*). Elle est associée aux noms de Carl Friedrich Gauss et de Pierre Simon Laplace. Appelé, le théorème central limite, celui-ci indique que la somme des variables est distribuée de façon aléatoire et indépendante lorsque le nombre de données dans la somme augmente. Cette loi est définie par la moyenne, et la variance parce qu'elle est symétrique par rapport à la tendance centrale. Nous exprimons la fonction de densité de probabilité de la loi normale avec comme :

La loi normale a une tendance centrale nulle et un écart typeégale à 1. Nous avons donc par définition. Puisque, pour toute variable centrée et réduite, la médiane, la moyenne et le mode sont confondus. Pour exprimer la continuité de ce théorème, nous pouvons écrire la fonction de distribution cumulée pour :

Si les différents écarts-types pris un à un sont dérisoires par rapport à l'ensemble, le théorème de la limite centrale reste valide. La distribution gaussienne d'écart-type proportionnel à représente la différence entre le moyenne empirique de l'échantillon et l'espérance de la variable aléatoire. L'approximation de la moyenne théorique par la moyenne empirique permet de contrôler l'erreur énoncée précédemment. La probabilité que soit dans l'intervalle se retrouve représentée par l'aire sous la courbe comprise entre les abscisses et . Sur les marchés financiers, la plupart des mouvements sont inférieurs à une fois l'écart-type. Cette mesure représente 68% des amplitudes à la hausse comme à la baisse. 95% doivent être à moins de deux écarts-types et 98% à moins de trois écarts-types. Selon cette loi de probabilité, il existe très peu de grands mouvements.

La thèse de L. Bachelier fut largement ignorée par ses contemporains. Cependant, ses travaux furent traduits, réédités, puis développés pour aboutir au grand édifice de l'économie et de la finance moderne22(*).

I.II.1.2 VALUE-AT-RISK CLASSIQUE

La Value at Risk est une mesure de risque statistique popularisée dans les années 1990 par JP Morgan. La Value-at-Risk peut se définir par la perte maximale que peut engranger un portefeuille sur un laps de temps et un niveau de confiance donnée. « The greatest benefit of Value-at-Risk lies in the imposition of a structured methodology for critically thinking about risk. Institutions that go through the process of computing their VAR are forced to confront their exposure to financial risks and to set up a proper risk management function. Thus the process of getting to Value-at-Risk may be as important as the number itself » souligne P. Jorion dans son ouvrage : « Value at Risk: The New Benchmark for Controlling Market Risks », paru en 1996. P. Jorion23(*) nous enseigne que la valeur du portefeuille est donnée par avec W0, la valeur initiale d'un portefeuille de titres et son taux de rentabilité continu sur un horizon T donné par . Dès lors, nous notons l'équation , représentant la valeur minimale du portefeuille que l'on étudiera avec une probabilité égale au seuil q, le seuil de risque dont nous voulons étudier la représentativité. La valeur de la VaR est donnée par :

De manière plus formelle, notons , la distribution des valeurs du portefeuille à la date T, la valeur W* est analogue à . A ce titre, si nous notons la probabilité , l'espérance mathématique de la valeur du portefeuille se situe au-dessus de W*, nous obtenons :

D'un point de vue économétrique, W* se définit comme le pème percentile de la distribution de l'échantillon à la date T. La Value-at-Risk s'intègre pleinement dans le cadre de la gestion de portefeuille, pouvant signifier précisément au gérant ou aux institutions financières à quelle valeur peut être estimée le risque économique et réglementaire24(*).

I.II.2 DISTRIBUTION DES VALEURS EXTRÊMES

« Les théoriciens classiques ressemblent à des géomètres euclidiens qui, dans un monde non-euclidien découvrant par l'expérience que des lignes droites parallèles se rencontrent souvent, reprocheraient aux lignes de ne pas rester droites - comme seule remède aux collisions malheureuses qui se produisent. Pourtant, en vérité, il n'existe pas d'autre remède que de se débarrasser de l'axiome des parallèles et de travailler dans une géométrie non-euclidienne. C'est une chose similaire qui est requise aujourd'hui en économie »

John Maynard Keynes

La théorie des valeurs extrêmes (TVE) est étudiée dans le cadre de la recherche d'évènements rares d'une suite de variables aléatoires indépendantes et identiquement identifiées. L'observation des cours des actifs financiers montre que ceux-ci sont hypothétiquement influencés par leurs cours passés, auquel l'aléa est souvent modélisé par un mouvement brownien géométrique. La théorie des valeurs extrêmes est donc un cas particulier de ce mouvement. L'intérêt concret de l'étude des extrêmes se trouve dans l'analyse des maxima et des minima des séries statistiques concernées.

Sur les marchés financiers, nous gardons toujours à l'esprit les grandes crises qui ont marquées notre histoire, poussant les actifs à atteindre des valeurs extrêmes comme pour la crise des Subprimes. En outre, bien connaître la distribution maximum et minimum se révèle être un excellent outil d'aide à la décision, voire une opportunité de gestion en temps de crise.

La Théorie des Valeurs Extrêmes s'intéresse non pas à la modélisation totale d'une distribution mais seulement aux queues des lois spécifiques25(*).

Deux théorèmes sont indispensables pour une bonne compréhension de la Théorie des Valeurs Extrêmes : celui de Fisher- Tippet et celui de Balkema-de Haan-Picklands. Deux méthodes principales de modélisation des évènements rares sont possibles : La méthode « Block Maxima » (BM) qui modélise la distribution des extrêmes par la Generalized Extreme Value Theory (GEV) dérivant explicitement du théorème de Fisher-Tipett, et la méthode « Peaks Over Theshold » (POT) qui modélise la distribution des excés au-dessus d'un seuil élevé (faisant apparaître les queues de distribution) par la Generalized Pareto Distribution (GPD) estimé par le théorème de Balkema-de Haan-Picklands. Cette dernière méthode sera modélisée en fréquence des rentabilités anormales afin d'estimer le paramètre u de la crise des Subprimes.

I.II.2 1 ÉTUDES FONDAMENTALES

Concernant la loi faible des grands nombres, rappelons cependant les études fondamentales permettant de lier la théorie fondée sur le comportement asymptotique de la distribution d'une somme de variable aléatoire et celui de la distribution du maximum et du minimum.

Soit X une variable aléatoire appartenant au domaine d'attraction d'une fonction avec et (bn) une suite croissante de nombre telle que , F1 = X1 et  , alors

Cela nous permet de connaître la probabilité, pour un nombre n grand, du dépassement d'un seuil x par l'ensemble de la composition d'une suite de n variables aléatoires. Lorsqu'une de ces variables se présente de façon extrême par rapport aux valeurs prises par chacun des autres éléments de la suite, nous considérons que le seuil a été franchi. Ceci caractérise l'événement rare dont nous cherchons à étudier la distribution.

I.II.2.2 LOIS DES MAXIMA : RÉSULTAT EXACTS

Le phénomène empirique suit une marché aléatoire, mesuré par une variable X, décrivant l'évolution du prix d'un actif financier. La variable aléatoire X présente la rentabilité logarithmique. Nous dénommons

§ la fonction de densité notée

§ la fonction de répartition de probabilité de la variable aléatoire X.

Soit X1, X2,..., Xn une suite de variables aléatoires aux dates 1, 2 ..., n. Nous écrivons Fn la rentabilité maximum et fn le minimum, dont ceux-ci observées sur n séances boursières. Dans la suite de notre mémoire de recherche, nous traiterons les résultats ne concernant que le maximum (Fn), car ceux obtenus au minimum (fn) s'en déduisent en considérant la série opposée, démontrée par l'équation suivante :

Si les cours suivent une marche aléatoire .de variable X1, X2,..., Xn indépendamment, alors les distributions du maximum Fn sont conférées par. Les propriétés statistiques du maximum dépendent de GX pour les grandes valeurs de x. En ce qui concerne les autres valeurs de x, l'influence de GX(x) se révèle être de moins en moins important avec n. C'est donc dans les queues de distribution de X, par définition synonymes d'extrême, que nous allons nous pencher dans cette étude. Nous pouvons en déduire la forme de la loi limite de Fn en faisant tendre n vers l'infini et en se servant de la formule. La fonction de répartition et . Dans ce cas, la loi limite est dégénérée parce qu'elle se réduit à une masse de Dirac26(*) portée en u. Toutefois, les formules présentées ci-dessus présentent un intérêt limité. La loi de la variable X est rarement connue précisément en pratique, ainsi que la loi du terme maximum. Nonobstant, même si la loi de la variable X est exactement connue, le calcule de Fn peut être vecteur de difficulté. Dépossédée d'expression analytique, la distribution d'une variable normale se révèle être une intégrale incalculable. Sa nème puissance nous conduit à de sérieux problèmes numériques que ce soit pour les grandes valeurs de n ou de x. C'est pour ces différentes raisons que nous sommes astreints à étudier le comportement asymptotique du terme maximum Fn'.

Cependant, Il existe deux théorèmes distincts capables de contourner le problème de dégénérescence. Selon la méthode employée, il s'agit du théorème de Fisher-Tippet et du Théorème Balkema-de Haan-Picklands. Nous allons rentrer dans les détails dans la section suivante.

I.II.3 MESURE DU RISQUE EXTRÊME

I.II.3.1 THÉORÈME DE FISHER-TIPPET

Théorème Fisher-Tippet : Si pour une distribution G non connue, l'échantillon des maxima normalisés converge en loi vers une distribution non dégénérée, alors il est équivalent de dire que G est dans le MDA de la GEV Hî

A partir des données de prix traitées de façon journalière lors de la crise de Subprimes, nous supposons avoir une suite première d'observations X1, X2, ... , Xn issue d'une fonction de distribution inconnue F27(*). Cet échantillon peut être séparé en k blocs28(*) disjoints de même longueur s. Les données , i = 1, ..., k sont de natures indépendantes et identiquement identifiées avec comme fonction de distribution F.

Nous nous attachons à connaître les maxima de ces k blocs comme :

Qui agence la base de ce qui sera notre échantillon de données supposées indépendante . La loi fondamentale à la modélisation des maxima est la Generalized Extreme Value (GEV) définie par la fonction de répartition suivante :

x est tel que . est le paramètre de forme. La GEV rassemble trois distributions particulières :

§ Si >0, la loi de Fréchet (Type I) :

§ Si <0, la loi de Weibull (Type II) :

§ Si =0, la loi de Gumbel (Type III) :

Ainsi, nous avons exposé sur les graphiques correspondant à chaque itération deux paramètres29(*) : Le paramètre de localisation et celui de dispersion >0. La GEV prend alors la forme de :

La démonstration fondamentale de la modélisation des maximas est celui de Fisher-Tippet30(*). Supposons que nous ayons deux suites d'entiers réels tel que et tel que :

Avec H, une loi non dégénérée. , et Pour , les k maxima normalisés. Alors, F est dans le « maximum domain of attraction » (MDA) de H, que nous pouvons écrire plus formellement par .

Fisher-Tippet montre alors que si, et seulement si, H est du type de . La GEV est donc la seule distribution limite non dégénérée pour un échantillon de maxima normalisé. Nous obtenons alors une méthode simple de sélection de forme F. Le tableau ci-joint souligne quelles distributions sont associées aux lois de la GEV.

TAB: MDA

 

 

 

Gumbel

Fréchet

Weibull

 

Normale

Cauchy

Uniforme

 

Exponentielle

Pareto

Beta

 

Lognormale

Student

 

 

Gamma

 

 

I.II.3.1.1 Modélisation paramétrique des maxima par blocs

La modélisation issue du théorème Fisher-Tippet, suppose que l'échantillon de maxima suive exactement une loi GEV.

I.II.3.1.2 Sélection de la taille des blocs

La littérature financière classique et l'exercice des statistiques en finance ne définissent pas une dimension standard dans la sélection des blocs. Il faut cependant que s soit de taille suffisamment importante pour que la condition asymptotique vue précédemment soit considérée. L'ingénierie financière dans les faits prend en compte un nombre de maxima caractéristique pour que l'estimation des paramètres de la GEV soit assez précise. Il est donc usuel de prendre s = 21, soit un mois boursier, ou s = 254, soit un an.

I.II.3.1.3 Estimation du modèle BM par le maximum de vraisemblance

C'est à partir de l'échantillon lié à la sélection des maximas précédente que nous pouvons estimer les paramètres de la GEV. La méthode utilisée pour l'évaluation du modèle BM se réfère au maximum de vraisemblance initié pour la première fois par Fisher au début du siècle dernier. Soit l'échantillon de maxima supposé indépendant et , la densité de la loi GEV pour :

La vraisemblance de l'échantillon Y est : . Il fait appel à des procédures numériques31(*) pour la maximisation de la vraisemblance. Il est alors aisé de calculer les estimateurs dans le cadre de la loi des grands nombres. En revanche, il est difficile de donner un estimateur asymptotique efficace et normal, particulièrement lorsque l'échantillon est de petite taille. R. Smith32(*) montre qu'il suffit que pour que les états de régularité du maximum de vraisemblance soient conformes. Pour le cas où = 0, la log-vraisemblance est égale à :

Plus précisément, en dérivant cette fonction afin de mettre en scène les deux paramètres exposés antérieurement nous obtenons le système d'équations suivant.

Il est à noter pour conclure qu'il n'existe pas de solution à ces équations de maximisation33(*).

I.II.3.2 THÉORÈME DE BALKEMA-DE HAAN-PICKLANDS

Théorème Balkema-de Haan-Picklands : Il s'en déduit que la distribution des excès au-dessus d'un seuil élevé converge vers la GPD lorsque le seuil tend vers la lmite supérieure du support de G.

Supposons que X1, X2, ..., Xn sont des variables aléatoires de prix indépendantes appartenant à une distribution appelée F(X). Soit xF, l'extrémité finie ou infinie de la distribution F. Alors, la fonction de distribution dépassant Xi après un seuil donné u, quand y 0, est donné par :

Belkema et de Haan en 1974, ou encore Pickands en 1975, ont théorisé la fonction de Pareto généralisée en montrant qu'elle s'apparente à une distribution limite Fu(y) quand le seuil u tend vers l'extrémité de la fonction. Il s'agit d'une découverte statistique majeure. Si F MDA (Hî), il est alors possible de trouver une fonction positive mesurable par (u) de telle sorte que :

Pour , ou correspond à la distribution Pareto généralisée (GPD) exprimée par :

Ou pour et pour . Néanmoins, le choix du seuil u est primordial pour la réussite de cet exercice de modélisation de la distribution Pareto généralisée. Comme pour le test de fréquence anormale, où nous devions choisir préalablement une fenêtre de test de plus ou moins longue distance, la valeur représentative est généralement choisie en fonction d'un compromis, capable de biaiser l'étude.

se révèle être un paramètre de forme particulièrement important, quant à , il s'apparente à un paramètre d'échelle. Nous pouvons dès à présent émettre une concordance avec le théorème précédant, respectivement et La GPD intègre par sa particularité d'autres formes de distribution. En considérant que > 0, la version paramétrique de G se rapporte à la distribution originaire de Pareto, laquelle est souvent utilisée en actuariat dans l'approche des probabilités d'erreurs. Vilfredo Pareto34(*) décrivit la répartition de la richesse selon la notation suivante: . En

outre, Quelle est la proportion P des ménages gagnant plus qu'un niveau de revenu u? V. Pareto estimait à -3/2. La puissance est donc en premier lieu élevée au cube puis à la racine carrée divisé par 1. Ceci fut la base des premières lois -stable de Paul Lévy35(*), repris quelques années plus tard par B. Mandelbrot36(*) dans son étude sur les variations du prix du coton. A contrario, si < 0 prend la forme d'une loi de Gumbel. Enfin, lorsque = 0, sa correspondante est une distribution exponentielle.

Le premier cas ( > 0) se retrouve pertinent dans le cadre d'une distribution réelle possédant des queues de distribution épaisses. Les estimations de et de sont calculées à partir de l'expression par la méthode du maximum de vraisemblance37(*). Lorsque > 0.5, Hosting et Wallis montrent que l'estimation tirée du maximum de vraisemblance tend à être asymptotiquement normalement distribué.

I.II.3.2.1 Modélisation paramétrique de la distribution des excès

Cette modélisation de queue de distribution engage un échantillon au-dessus du seuil u, lequel conduit à une forme de loi GPD.

Dans la littérature financière et statistique, les méthodes utilisées reposent sur le comportement graphique des valeurs considérées supérieures à un seuil donné. Cette méthode porte le nom de « Peak-Over-Threshold ». Initialement développé par Picklands en 1975, ce concept fut étudié par de nombreux auteurs38(*). Cependant, cette méthode reste arbitraire. En réalité, u, doit être assez grand pour que l'estimation de la distribution de Pareto généralisée soit valide, mais pas trop élevée pour garder une certaine cohérence avec le modèle. Cet arbitrage est analogue à la méthode BM vue postérieurement.

I.II.3.2.2 Estimation du modèle de seuil par le maximum de vraisemblance

Supposons que notre échantillon des excès est indépendante et identiquement identifiée avec comme fonction de distribution la GPD. La fonction de densité g de G est alors pour :

.

Nous pouvons dès lors estimer la log-vraisemblance : . Hosking et Wallis montre que lorsque nous dérivons et , nous obtenons les équations de maximisation à partir desquelles nous calculons les estimateurs du maximum de vraisemblance.

I.II.3.3 4 VALUE-AT-RISK EXTREME

Nous pouvons reconnaître qu'il existe une similitude certaine entre le concept de Value-at-Risk et la méthode d'approche des queues de distribution des lois de valeurs extrêmes. Unir ensemble ces deux fondements pourrait indubitablement donner un véritable outil de contrôle du risque. Formulé précédemment, la propriété des extrêmes peut être faite de deux façons distinctes :

§ Par la méthode des maximums d'une série de variable aléatoire dans le temps : La méthode BM

§ Par la méthode du seuil en prenant l'ensemble des valeurs se situant entre [   ] : La méthode POT

Dans ce papier de recherche, nous utilisons la dernière méthode énoncée qui représente la plus récente, mais aussi la plus efficace des méthodes connues sur ce sujet. De plus, ce modèle se révèle être pratique dans le fait qu'il considère un nombre limité de donnée.

Afin de construire le modèle de Pareto généralisée, nous allons donner un seuil u important. Soit Y1, Y2, ..., Yn, les données supérieures au seuil défini comme . Belkema et de Haan en 1974 comme Picklands en 1975 nous enseignent que est une estimation assez importante de u. A partir de , prenons , nous pouvons approximer F(x), pour x > u. Nous obtenons :

La fonction F(u) peut être estimée empiriquement de façon non-paramétrique par la fonction de distribution cumulative :

représente le nombre d'occurrence supérieure au seuil u et n l'échantillon. En corroborant et à , nous pouvons ainsi écrire :

Les paramètres et sont estimés à partir de î et respectivement, obtenus à partir du maximum de vraisemblance.

Pour q > F(u), la VaRq peut être calculé en résolvant x :

Dans lequel u est le seuil défini, est l'estimation du paramètre d'échelle et est l'estimation du paramètre de localisation.

Le principal avantage de cette mesure non-paramétrique réside dans le fait qu'elle se concentre exclusivement sur les queues de distribution. Cependant, nous pouvons en conclure que cette méthode ne considère pas les rendements comme indépendants et identiquement distribués les uns des autres.

II. SECTION EMPIRIQUE

Ce mémoire de recherche appliquée fut réalisé à partir de données diffusées sur Bloomberg®. L'estimation des taux de rentabilités anormales et le calcul des lois de valeurs extrêmes appliquées à la Value-at-Risk font l'objet de deux sous-parties. Nous distinguerons donc d'une part l'estimation des fréquences anormales, représentant statistiquement l'état de crise, et d'autre part la performance ajustée du risque liée aux valeurs extrêmes.

II.I MESURE DES FRÉQUENCES ANORMALES

II.I.1 PROCESSUS

Nous nous sommes intéressés aux cours journaliers spot des 30 valeurs composant le Dow Jones Industrial Average. La première chronique dans laquelle nous calculons les taux de rentabilités normales avant crise couvre la période du 13/06/2006 au 15/06/2007, soit 7 620 observations alors que la deuxième, d'où sont évaluées les rentabilités anormales, se déploie sur une période allant du 02/07/2007 au 01/02/2010, soit 19 560 observations. Nous aurons donc à étudier 27 180 données totales.

Ce choix est justifié pour trois raisons :

§ La période d'échantillonnage avant crise représente une année boursière. Plus le nombre d'observations augmente, plus la représentation graphique de la variance s'aplatira, ce qui aura pour effet de donner une volatilité moyenne biaisée, que l'on utilise l'un ou l'autre des modèles39(*). Il est justifié d'user de pragmatisme quant à la précision et la représentation des données utilisées. De plus, il serait hâtif de se précipiter sur un nombre de données plus important dans le sens où il n'est pas très adéquate d'y incorporer l'instabilité de variance dû à une autre crise antérieure.

§ Les tests de cohérence statistiques ont tous pour particularités d'être asymptotiquement normales avec N (0, 1). Cette convergence est qualifiée à partir du moment où le nombre de jours post-crise est grand et que le nombre N de valeur étudiée est supérieur ou égal à 3040(*). Ainsi, les 30 valeurs du DJIA et le nombre important de données sont en accord avec les statisticiens.

§ Pour des raisons de programmation en Visual Basic, nous avons préféré laisser un espace-temps de 10 séances boursières entre la période de temps dite normale et celle de la crise des Subprimes. Ce laps de temps fut fixé de façon arbitraire.

§ La crise des Subprimes a véritablement commencé entre juillet et août 2007. Pour des raisons de cohérence et parce que les experts semblent divergents quant à la date précise de commencement de la crise, et parce que cela ne peut être absolument incontestable, notre étude commence le 02/07/2007 et fini début 2010. Il s'agit d'une période particulièrement volatile sur l'ensemble des marchés financiers, ce qui nous conforte dans le choix de cet échantillonnage.

Statistiques préliminaires

Nous avons réalisé une étude statistique préalable sur 4 titres de natures différentes, afin de mieux appréhender nos rentabilités anormales. Nous allons étudier 651 observations par titre, du 02/07/2007 au 01/01/2010, soit 2 604 données. Impacté par la crise des Subprimes et par une forte volatilité des cours, nous avons sélectionné :

§ Le DJIA

§ Bank Of America

§ IBM

§ Exxon

Le DJIA est calculé en fonction de la moyenne des fluctuations des 30 titres le composant. Il peut être un bon indicateur de moyenne pour l'ensemble du marché. Cependant, ces variations sont par définition lissées en fonction des différentes sensibilités des titres concernés. Bank Of America, IBM et Exxon ont été choisis d'une part, par leur importance en terme de capitalisation et d'autre part, par leurs différences sectorielles les unes des autres. Nous avons donc un échantillon restreint, mais représentatif du marché américain. Les tableaux ci-dessous permettent de résumer les principaux états statistiques des différents titres :

TAB 1: Statistiques DJIA

 

 

 

 

 

Rentabilités anormales

Rentabilités normales

Rentabilités de l'étude

Stat.

Nobs

651

253

905

Moyenne

-0,04%

0,09%

-0,01%

Médiane

0,03%

0,08%

0,06%

Ecart-Type

1,84%

0,62%

1,59%

Maximum

10,51%

1,96%

10,51%

Minimum

-8,20%

-3,35%

-8,20%

Distr.

Skewness

0,11355

-0,62499

0,05665

Kurtosis

5,39216

4,05181

7,67157

Jarque-Bera

1,57E+02

2,81E+01

8,23E+02

Ecart (?)

?Moyenne - Médiane

-0,08%

0,01%

-0,06%

?N(x) Moyenne

0,044%

-0,090%

0,008%

?N(x) Ecart-Type

-0,837%

0,378%

-0,593%

?N(x) Skewness

-0,11355

0,62499

-0,05665

?N(x) Kurtosis

-2,39216

-1,05181

-4,67157

TAB 2: Statistiques BOfA

 

 

 

 

 

Rentabilités anormales

Rentabilités normales

Rentabilités de l'étude

Stat.

Nobs

651

253

905

Moyenne

-0,17%

0,03%

-0,12%

Médiane

-0,13%

0,06%

-0,04%

Ecart-Type

6,26%

0,83%

5,33%

Maximum

30,21%

3,07%

30,21%

Minimum

-34,21%

-3,84%

-34,21%

Distr.

Skewness

-0,11217

-0,21515

-0,15918

Kurtosis

6,87582

3,31565

10,53018

Jarque-Bera

4,09E+02

3,00E+00

2,14E+03

Ecart (?)

?Moyenne - Médiane

-0,04%

-0,03%

-0,09%

?N(x) Moyenne

0,174%

-0,033%

0,123%

?N(x) Ecart-Type

-5,261%

0,172%

-4,327%

?N(x) Skewness

0,11217

0,21515

0,15918

?N(x) Kurtosis

-3,87582

-0,31565

-7,53018

TAB 3: Statistiques IBM

 

 

 

 

 

Rentabilités anormales

Rentabilités normales

Rentabilités de l'étude

Stat.

Nobs

651

253

905

Moyenne

0,04%

0,16%

0,06%

Médiane

0,05%

0,08%

0,06%

Ecart-Type

1,93%

1,13%

1,73%

Maximum

10,90%

8,96%

10,90%

Minimum

-6,10%

-3,35%

-6,10%

Distr.

Skewness

0,22614

1,80300

0,28681

Kurtosis

3,11525

14,92480

4,51118

Jarque-Bera

5,91E+00

1,64E+03

9,85E+01

Ecart (?)

?Moyenne - Médiane

-0,02%

0,08%

0,00%

?N(x) Moyenne

-0,037%

-0,156%

-0,062%

?N(x) Ecart-Type

-0,934%

-0,127%

-0,732%

?N(x) Skewness

-0,22614

-1,80300

-0,28681

?N(x) Kurtosis

-0,11525

-11,92480

-1,51118

TAB 4: Statistiques Exxon

 

 

 

 

 

Rentabilités anormales

Rentabilités normales

Rentabilités de l'étude

Stat.

Nobs

651

253

905

Moyenne

-0,04%

0,17%

0,02%

Médiane

-0,01%

0,20%

0,06%

Ecart-Type

2,39%

1,21%

2,13%

Maximum

15,86%

3,64%

15,86%

Minimum

-15,03%

-4,85%

-15,03%

Distr.

Skewness

0,17919

-0,39195

0,11030

Kurtosis

9,46848

0,84258

11,30631

Jarque-Bera

1,14E+03

5,55E+01

2,60E+03

Ecart (?)

?Moyenne - Médiane

-0,02%

-0,03%

-0,04%

?N(x) Moyenne

0,036%

-0,172%

-0,019%

?N(x) Ecart-Type

-1,387%

-0,211%

-1,126%

?N(x) Skewness

-0,17919

0,39195

-0,11030

?N(x) Kurtosis

-6,46848

2,15742

-8,30631

Nous pouvons établir plusieurs commentaires :

§ La loi normale standard défend l'idée que la moyenne et la médiane sont confondues. Il existe une différence de 0.08 pour DJIA montrant que les critères ne sont pas respectés. Il en va de même pour les autres titres présentés.

§ L'écart-type moyen ne paraît pas très élevé. Pourtant, nous assistons à des extrêmes importants :

§ DJIA : De +10.51% pour le maximum et de -8.20% pour le minimum

§ Bank Of America : De +30.21% pour le maximum et de -34.21% pour le minimum

§ IBM : De +10.90% pour le maximum et de -6.10% pour le minimum

§ Exxon : De +15.86% pour le maximum et de -15.03% pour le minimum

§ Il est intéressant de noter que les mesures d'asymétrie (Skewness) et d'aplatissement (Kurtosis), sous l'hypothèse de normalité, prennent respectivement les valeurs 0 et 3. Ici, ces deux paramètres sont respectivement 0 et >3, laissant apparaitre un caractère leptokurtique des cours et la formation empirique de queue de distribution épaisse par rapport à la loi normale. Le skewness est positif pour l'ensemble des titres à l'exception de Bank of America, montrant qu'il y a une quantité importante de petits mouvements à la hausse et de grands déplacements à la baisse.

§ Le test de normalité de Jarque-Bera41(*) est différent de 0 pour l'intégralité des valeurs. Il rejette donc l'hypothèse nulle de normalité pour n'importe quel niveau de pertinence.

En résumé, cette première étape nous permet de rejeter l'hypothèse de normalité et de comprendre qu'il existe effectivement des extrêmes conséquents.

II.I.2 TAUX DE RENTABILITÉS NORMALES ET ANORMALES

II.I.2.1 FRÉQUENCES NORMALES

La période post-crise fut faste pour les investisseurs. D'un point de vue macroéconomique, on constate une hausse de la liquidité au niveau mondial. Pour preuve, entre 2006 et 2007, le rapport entre la masse monétaire et le PIB se situe à 30%, alors qu'entre 1980 et 2000, celui-ci n'était que de 18% à 20%. En l'espace de 6 années, il augmente donc de 10 à 12%. Sous l'égide des différentes banques centrales, garant de la stabilité des prix, cette liquidité abondante n'a pas entraîné d'inflation. Bien entendu, si toutes ces liquidités n'ont aucun effet sur les prix des biens et des services, elles en ont sur les prix des actifs dont l'offre est peu importante. Cet aspect, associé à une baisse des indicateurs de risque, tel que la prime de risque ou la volatilité implicite, majoré d'une forte croissance mondiale, a eu pour conséquence la hausse des cours de bourse, notamment du DJIA. En outre, nous constatons le parcours linéaire croissant des 30 titres du DJIA sur la période énoncé précédemment.

Bien que la crise des Subprimes émane sans doute de cette apparente stabilité, c'est dans un climat avantageux que nous calculons nos rentabilités dites « normales », qui ne dévoilent pas de perturbations apparentes.

II.I.2.2 FRÉQUENCES ANORMALES

La crise des Subprimes démarre durant l'été 2007 aux États-Unis. Celle-ci remet en cause fondamentalement le système bancaire dans son ensemble.

Le problème se trouve dans la capacité des établissements financiers à gérer leurs risques, tant dans leurs transferts que dans le suivi qui en découle. D'autre part, l'octroi de crédit hypothécaire à une clientèle non-solvable a mis à mal la titrisation dépourvu de fonds propres. C'est aussi le fonctionnement même des agences de notation qui semble être problématique. Cette crise mondiale fut liée aux crédits hypothécaires à risque aux États-Unis, ne représentant pourtant qu'un marché de 1000 milliards de dollars. Nous pouvons visualiser, en base 100, l'impact qu'a eu cette crise sur les cours des 30 titres composants le DJIA. La crise des Subprimes se révèle être complexe dans les faits. Nous allons dans cette étude exprimer des résultats quantitatifs pouvant, peut-être, donner une réponse quant à l'origine de cette crise, à posteriori. Pour plus d'informations, nous vous invitons à consulter le rapport du conseil d'analyse économique42(*).

II.I.3 RÉSULTAT DES FRÉQUENCES ANORMALES

II.I.3.1 RENTABILITÉS ANORMALES STATIONNAIRES

Les résultats produits par chacun des modèles sont intéressants. Il est à noter qu'il existe peu de différence entre les résultats tirés des deux modèles d'un point de vue globale, bien que le modèle de marché semble, à première vue, apporter un appoint d'information manifeste lié à la sensibilité des titres par rapport à leur indice de référence. Dans le cadre d'un travail de simulation, Brown et Warner aboutissent à la même interprétation lorsqu'ils comparent la force des deux modèles.

Nous avons donc un modèle de moyenne donnant -82.80% et un modèle de marché estimé à 82.95%, soit 0.15% de différence.

Il existe cependant des rentabilités proches de la normalité, comme l'atteste le graphique présenté ci-dessous :

Cependant, en ce qui concerne la réaction des cours dans leur globalité, les résultats nous prouvent statistiquement que nous sommes bien sur une période d'instabilité. Comme en atteste la majorité des rentabilités anormales significativement différentes de 0.

II.I.3.2 RENTABILITÉS ANORMALES CUMULÉES

Ce test exprime l'écart-type des fluctuations des cours lié à la perturbation des rentabilités anormales. Nous avons ici un pic, partant du début de l'expérience jusqu'au 3/10/2009, lequel enregistre un taux anormalement bas cumulé de -115,20%.

Les rentabilités anormales progressent de façon croissante jusqu'au point bas puis semblent stagner jusqu'à la fin de l'étude. Le retour vers la normalité semble loin. Les stratégies basées sur le retour à la moyenne (mean-reversion-model) semblent être difficile à réaliser. Ce test montre que les anormalités ont été statistiquement multipliées par 5 au sommet de la crise. Les statistiques préliminaires nous ont informés de la non-normalité des cours étudiés. Nous en avons ici un exemple plus concret.

II.I.4 TEST DE SIGNIFICATIVITÉ

Il convient de noter par ailleurs que les trois statistiques de représentativité fournissent des conclusions globalement convergentes. Celles-ci deviennent de plus en plus significative au milieu de l'étude, autour du 3/10/2009, date à laquelle les rentabilités anormales cumulées sont les plus importantes. Il existe cependant plusieurs phases quant à la validité de ce test. Certaines valeurs semblent être plus significatives que d'autres. Les statistiques proches de 0, comprises entre [-1 ; 1], rejettent l'hypothèse d'anomalie statistique. D'autres sont, sans nul doute, incontestables au seuil de [-10 ; -50] et [10 ; 60]. Cela nous laisse penser qu'il y a des mouvements plus calmes et d'autres plus agités.

La statistique fréquentielle de Boehmer, ayant une propension plus importante à accepter l'hypothèse selon laquelle les rentabilités anormales sont nulles, est distinctement supérieure de 0, élevé à 10.69 et 10.77 en valeur absolue, respectivement pour le modèle de moyenne et celui de marché. Ce tableau résume les observations menées dans cette étude :

TAB 5: Fréquences anormales

 

 

 

 

 

 

 

Nobs

Moy

Ecart type

Max

Min

Modèle de moyenne

Modèle de marché

Rentabilités anormales

19560

0%

2,02%

11%

-9%

-83.80%

-83.95%

Test de Brown et Warner

19560

-0,59

9,4

50,29

-43,75

-15,11

-15,19

Test de Pattel

19560

-0,6

10,01

52,27

-47,06

-15,43

-15,5

Test de Boehmer

19560

-0,41

5,05

19,15

-13,54

-10,69

-10,77

RAC

19560

-52%

34%

3%

-115%

 

 

BWC

19560

-239,98

157,29

14,35

-536,74

 

 

PC

19560

-245,55

163,15

13,68

-562,12

 

 

BC

19560

-170,67

107,6

19,08

-315,39

 

 

Ce test est par conséquent concluant dans sa globalité. Les rentabilités anormales calculées précédemment montrent l'ampleur de la crise des Subprimes et la nécessité d'instaurer une politique de mesure du risque viable. Il nous montre également qu'il existe des taux de rentabilités extrêmes dont la distribution asymptotique normale ne prévoit pas les effets.

II.II. THÉORIE DES VALEURS EXTRÊMES ET VALUE-AT-RISK

V. Pareto s'intéresse à la fin du XIXe siècle à la distribution des revenus dans la société. Il en conclut que la société humaine est fondée sur une loi mathématique de forme décroissante, dans laquelle la distribution statistique prend une forme hyperbolique, laissant apparaître des queues épaisses. Nous avons pu souligner l'importance des lois issues de la famille « parétienne », dont les applications en sciences sociales sont croissantes au fil des années. L'abondante littérature disponible sur le sujet en témoigne.

Le succès rencontré par ces lois nous a incités à examiner leur apport sur le marché du DJIA en période de crise des Subprimes. Cette application met en perspective différents raisonnements en termes de rentabilité ajustée du risque sur le marché des actions. La performance d'un investisseur sur une période donnée est souvent liée à quelques journées exceptionnelles. La distribution empirique de forme leptokurtique en témoignant (La grande majorité des cours se concentre vers la moyenne historique proche de 0). La plupart des journées d'activité ne contribue donc que marginalement au résultat. Les activités de marché témoignent d'une forte instabilité, révélant des mouvements violents et soudains. C'est dans cet état statistique, où le nombre de rentabilités anormales est important, que nous pouvons parler de crise. La réalité erratique des cours de bourse est quantifiable. Nous allons donner une image de cette réalité statistique dans un premier temps avant de calculer notre loi de valeurs extrêmes.

II.II.1 ANALOGIE STATISTIQUE DE LA DISTRIBUTION DES RENDEMENTS ET MAXIMUM DE VRAISEMBLANCE

Cette section a pour objet d'exposer la convergence des variables standard issues de loi théorique de probabilité et celles, empiriques, du DJIA pendant la période de test. Nous déterminerons les hypothèses d'indépendance et d'identité de la loi parente à partir de graphique logarithmique permettant de comparer les variables entre elles. Lorsque la loi de valeurs extrêmes est identifiée, les conditions de distribution théorique peuvent être utilisées pour obtenir le type de loi limite. Nous avons pu constater dans la section théorique que certaines lois convergent vers différentes lois parentes. En effet, les lois à support borné, comme la loi uniforme, appartiennent au domaine d'attraction maximum de Weibull, avec . Les lois dont les queues décroissent de façon exponentielle appartiennent au MDA de Gumbel, avec Nous pouvons citer à ce titre la loi normale et la loi exponentielle. Les lois dont le paramètre de liberté est égal à , faisant apparaître des queues de distribution épaisses appartiennent, comme la loi de student ou celle de Pareto, au MDA de Fréchet. Dans cet exercice, nous avons choisi d'analyser quatre lois théoriques :

§ La loi normale

§ La loi de Laplace

§ La loi de Pareto

§ La loi de student

II.II.1.1 ANALOGIE STATISTIQUE DE LA DISTRIBUTION DES RENDEMENTS

GUMBEL

FRECHET

FRECHET

II.II.1.1.1 Comportement limite de la loi exponentielle

La fonction de répartition de la loi exponentielle de paramètre est pour . Avec et , nous pouvons résoudre l'équation donnée par le théorème de Fisher-Tippet avec :

La loi de Laplace, ici représentée, et une loi double exponentielle car sa densité peuvent être vue comme l'association de deux lois exponentielles indépendantes, situées de part et d'autre de la tendance centrale.

Le maximum normalisé et le MDA de la loi exponentielle convergent vers une loi de Gumbel. C'est pour cette raison que la loi de Gumbel est aussi appelée « loi de type exponentiel ».

Prenons le théorème de Balkema-de Haan-Picklands, en prenant , où u correspond au seuil défini. Alors :

Par conséquent, pour tout , la GPD s'accorde à être une loi exacte pour tout u pour le paramètre avec .

Nous pouvons constater une nette amélioration graphique entre le DJIA et la loi de probabilité concernée. Nous retenons donc la loi de Laplace pour cette raison.

II.II.1.1.2 Comportement limite de la loi de Pareto

La fonction de répartition de Pareto s'écrit , où U > 0 et . Pour le théorème des BM, nous posons et . Pour x > 0=

La loi de Pareto appartient au MDA de la loi de Fréchet. Communément, la loi de Fréchet est appelée loi de type Pareto.

Concernant la méthode POT, nous posons pour . On obtient :

La limite est alors la loi GPD de paramètre pour et . Remarquons les extrêmes qui sont d'avantages compris sous la courbe, particulièrement du côté des valeurs négatives.

II.II.1.1.3 Comportement limite de la loi normale

La fonction de répartition de la loi normale quand est . Nous avons donc quand , alors43(*). En ce qui concerne la méthode des blocks, nous aurons :

si on suppose que , nous avons pour :

En ce qui concerne la méthode d'excès de seuil, celle-ci convergera vers une loi de type exponentielle. D'autre part, si donne et , on aura :

qui converge vers la loi de Gumbel. Smith nous enseigne en 2003 qu'il est préférable d'utiliser les lois GEV et GPD pour chaque théorème les concernant, plutôt que la loi de Gumbel et la loi exponentielle, bien qu'elles soient toutes deux de formes exactes. L'aspect propre des lois généralisées semble être plus en accord avec les méthodes vues précédemment.

GUMBEL

La convergence avec la distribution réelle est concordante graphiquement pour x [-4.2 ; 4.2]. Cependant, nous pouvons constater, de part et d'autre de la courbe, qu'il existe des extrêmes non pris en compte par la densité de probabilité normale. Cette loi est alors également rejetée empiriquement par cette méthode.

GUMBEL

Si l'on suppose une distribution gaussienne pour les rendements journaliers, la probabilité qu'un rendement observé dévie de sa moyenne de 4 écarts-types est inférieure à 0,01%, soit un évènement observé en moyenne tous les 62 ans.

Le tableau ci-dessous nous montre la probabilité de s'écarter de la moyenne de écarts-types, tel que La dernière colonne représente le nombre d'années (sur 254 séances) assimilée à l'apparition d'un événement :

TAB 6 : Probabilité normale

 
 
 

Probabilité

Années

1

0,31731050786291410283

0,012

2

0,0455002638963584144

0,086

3

0,0026997960632601891

1,46

4

0,00006334248366623984

62,20

5

0,00000057330314375839

6 867,3

6

0,00000000197317529008

1 995 265

7

0,00000000000255962509

1,5x109

8

0,00000000000000124419

3,22x1012

9

0,00000000000000000023

1,7x1016

10

1,52x10-23

2,58x1020

La probabilité de s'éloigner de plus de 5 écarts-types de la moyenne convient à un évènement extrêmement rare, lequel n'a peut-être jamais été observé. Or les variations réelles retenues sur notre fenêtre de test prouvent que la théorie gaussienne néglige les variations extrêmes. Une autre approche est donc nécessaire pour assurer une rentabilité ajustée du risque.

Il existe des modalités essentielles pour l'existence de constantes de normalisation. Remarquons que les extrêmes sont tirés asymptotiquement d'une loi non-conditionnelle, alors que la variable sortie des lois de valeurs extrêmes est tirée d'une loi conditionnelle. Il est donc important d'estimer la convergence la plus proche. Dès lors, l'indice de queue représentera le poids des extrêmes dans la distribution.

TAB 7: Intervalle de confiance et probabilités

 

 

Intervalle

DJIA

NORMALE

STUDENT

PARETO

LAPLACE

-10,83

0,00

0,00

0,00

0,11

0,00

-9,17

0,00

0,00

0,00

0,07

0,00

-7,50

2,00

0,00

0,01

0,16

0,02

-5,83

2,00

0,00

0,06

0,43

0,24

-4,17

3,00

0,27

0,44

1,65

2,57

-2,50

18,00

29,93

8,13

14,52

27,09

-0,83

310,00

285,80

307,35

299,05

286,07

0,83

272,00

285,80

307,35

299,05

286,07

2,50

23,00

29,93

8,13

14,52

27,09

4,17

5,00

0,27

0,44

1,65

2,57

5,83

2,00

0,00

0,06

0,43

0,24

7,50

0,00

0,00

0,01

0,16

0,02

9,17

1,00

0,00

0,00

0,07

0,00

10,83

0,00

0,00

0,00

0,11

0,00

Total 

638,00

638,00

638,00

638,00

638,00

II.II.1.2 MAXIMUM DE VRAISEMBLANCE

Supposons que notre échantillon des excès est indépendante et identiquement identifiée avec comme fonction de distribution la GPD. Nous obtenons les équations de maximisation à partir desquelles nous calculons les estimateurs du maximum de vraisemblance. Nous avons donc la log-vraisemblance de chaque loi estimée à partir de la distribution réelle. Ces données sont présentées dans le tableau suivant :

TAB 8: MDA

 

 

 

 

 

NORMALE

STUDENT

PARETO

LAPLACE

DJIA

41,85

75,77

86,54

82,83

Le maximum de vraisemblance le plus proche est celui de la loi de Pareto avec 86.54. Le domaine d'attraction maximum est donc celui de la loi de Fréchet.

II.II.2 MODÈLE DE SÉLECTION DE MAXIMA

II.II.2.1 RÉALITÉ ERRATIQUE

La théorie de la normalité des marchés financiers est spécifiquement remise en cause avec la théorie des valeurs extrêmes. Particulièrement en haute fréquence où la stationnarité des cours est plus erratique. L'étude menée précédemment nous a permis de comprendre que le développement de la gestion du risque dans un univers gaussien, introduit par la normalité des rendements, est inadapté à l'appréhension des comportements extrêmes. L' « homme moyen » de A. Quetelet44(*) n'existe pas en finance. Dans ce préambule sur les extrêmes de marché, nous étudions les variations du DJIA sur la période de test. Cette étude comprend 1 148 données de prix, du 13/06/2006 au 31/12/2010. Nous avons choisi d'illustrer nos propos en sélectionnant le maximum |Dt| des variations Intra-Day45(*) en valeur absolue en t, à partir d'un seuil s prédéfini.

Placé sur une fenêtre glissante de taille F, lorsque le seuil s est supérieure à |Dt|, la rentabilité réelle du DJIA en t en valeur absolue est donnée par :

Où et est le plus haut du jour, est le plus bas et est le cours de clôture du jour précédent. Nous indiquons le dépassement relatif.

Soit IF, la fenêtre de test, dont la série des violations définie par la variable dichotomique est la suivante :

s est le seuil appartenant à la fenêtre F compris entre 1 et . est un nombre > 1, pour lequel le nombre de donnée |D| est inférieure au nombre total de données compris dans l'échantillon. Soit Il s'agit de déterminer jusqu'à quel point les variations du marché se sont rendues en « intraday ». A ce stade, nous choisissons une fenêtre de 50 jours. Cette taille permet de lisser les variations erratiques sans biaiser les informations d'une part, tout en laissant apparaître une légère variance d'autre part. Nous avons également choisi d'étudier plusieurs seuils s distincts. Nous avons donc :

TAB 9 : Seuil

 
 
 
 
 
 

S =

2%

3%

5%

8%

10%

12%

Nous donnons ci-après deux représentations graphiques qui permettent de visualiser les valeurs ayant dépassées s. Nous avons préféré les présenter à partir d'une échelle logarithmique, plutôt que sur échelle linéaire simple. Lorsque l'on exprime un nombre en logarithme, on effectue une mise à l'échelle ce qui permet, plutôt que de se concentrer sur la valeur absolue du nombre comme on le fait couramment, de le comparer aux autres nombres qui l'entourent. Ainsi, nous pourrons juger de la pertinence de chaque seuil sur la fenêtre F = 50.

Les résultats sont évocateurs. Les variations laissent apparaître une majorité des variations journalières supérieures ou égales à 3%. Celles-ci se concentrent sur une période de 615 jours, du 17/01/2008 au 23/09/2009. Cela représente 53.57% des données de l'étude46(*). Le DJIA, pendant la crise des Subprimes, a donc connu statistiquement une distribution des cours formant des queues de distribution épaisses en valeur absolue.

Nous pouvons aussi émettre l'idée qu'il y a eu un effet « Clustering » et un effet « Momentum47(*) » sur la période ventrale.

II.II.2.2 SÉLECTION DE SEUIL

Deux méthodes statistiques de modélisation des queues sont possibles :

§ La méthode BM

§ La méthode POT

En finance de marché, nous allons privilégier la méthode POT, plus adaptée, notamment parce qu'elle va en adéquation avec un phénomène couramment observé : Le « clustering48(*) ». De plus, comparée à la méthode BM, qui ne considère pas toutes les valeurs susceptibles d'être extrêmes49(*), cette méthode est à la fois plus flexible et plus réaliste.

Cette modélisation de queue de distribution engage un échantillon au-dessus du seuil u, lequel conduit à une forme de loi GPD. Les méthodes utilisées reposent sur le comportement graphique des valeurs considérées supérieures à un seuil. Ces deux graphiques montrent d'une part la variation décroissante du DJIA pendant la crise des subprimes. D'autre part, la variation décroissante en valeur absolue. Remarquons le caractère asymptotique de la courbe. Le nombre de valeurs se réduisant lorsque l'on approche la valeur nulle de l'abscisse. Il est alors délicat de choisir un seuil u grand pour que l'estimation de la distribution de Pareto généralisée soit valide. Celui-ci ne peut également pas être trop élevé pour garder une certaine cohérence avec le comportement réelle du cours du DJIA. Le nombre de données supérieur à u défini est en rapport direct avec l'espérance future d'observer un tel évènement. Nous constatons au vu du tableau présenté ci-dessous qu'il existe très peu de variation supérieure à 5% (soit 4,86% des échanges). Environ la même quantité est observée pour les valeurs dépassant 4%. Les valeurs inférieures à 3% semblent cohérentes en terme de volume d'observations, cependant, celles-ci risquent de biaiser le modèle, se rapprochant trop de la tendance centrale.

TAB 10: Nombre d'observation supérieure à u

Variation > u

Nobs

2%

149

3%

58

4%

28

5%

15

6%

9

7%

5

8%

2

Nous présentons donc un seuil u = 0.03. Nous obtenons 58 données. Le graphique ci-contre représente ce seuil, qui semble correspondre aux valeurs extrêmes présentées par la théorie.

II.II.3 VALUE-AT-RISK

La TVE appliquée à la Value-at-Risk permet d'évaluer le degré de résistance des variations des marchés, au même titre que le degré de solidité d'une voiture en phase de crash-test. Le comportement stochastique des extrêmes issus d'un échantillon permet la mise en place d'un cadre mathématique rigoureux. S'intéressant directement à la queue de distribution, faisant apparaître le degré d'importance statistique des extremums, nous allons dans cette section présenter, à partir des résultats obtenus précédemment, une stratégie de gestion basée sur le calcul de la Value-at-Risk. Notre étude va porter sur la rentabilité ajustée du risque que peut proposer la VaR déterminée à partir du quantile des extrêmes sur le DJIA pendant la crise des Subprimes. En proposant une telle stratégie, un investisseur pouvait-il éviter les pertes liées à cette crise ? Pouvait-il bénéficier d'un Tracking-Error avantageux en achetant lorsque la VaRt > Rt et en vendant lorsque la VaRt < Rt au seuil de probabilité fixé ? Nous allons mettre en avant deux mesures liées à la VaR : dans un premier temps, nous sélectionnerons un modèle adéquate quant à la validité du modèle présenté, puis dans un second temps, nous calculerons, à partir des résultats obtenus, la performance que pouvait développer une stratégie long-short du 13/06/2006 au 31/12/2010.

II.II.3.1 COUVERTURE CONDITIONNELLE

Afin d'étudier le risque que peuts dégager la VaR basée sur la théorie des Valeurs Extrêmes pour , avec t = 1, nous allons procéder à un exercice de backtesting capable de montrer les occurrences de violations50(*). Celui-ci consiste en réalité à confronter d'une part, la VaR calculée à l'aide du quantile des valeurs extrêmes et d'autre part, les pertes et profits réels. Pour valider cette méthode de prévision, les pertes effectives ne devraient pas dépasser la VaR de plus de 5% des cas51(*). Dans le cas contraire, nous devrions remettre en cause ce modèle. Nous proposons d'adapter la Value-at-Risk calculée de façon journalière sur une fenêtre plus lointaine, permettant ainsi de lisser les observations. Nous utilisons donc une fenêtre glissante de taille F. Cette méthode nous présente le dépassement de la Value-at-Risk lorsqu'elle est supérieure à , la rentabilité réelle du DJIA en t en valeur absolue. Soit IF, la série des violations définie par la variable dichotomique suivante :

est le rendement absolu sur la fenêtre F compris entre 1 et , symbolisant la fin du backtesting. Dg, les valeurs représentées par la distribution négative située à gauche et Dd, celles positives de droite. Ces deux dernières données sont présentées de façons indicatives. Le modèle de Value-at-Risk reste fiable lorsque les violations comprises sur la fenêtre respectent la propriété du ratio de couverture conditionnelle52(*). Il permet une comparaison de la proportion p de violation au niveau de risque 1 - p. Ce test est dit négatif lorsque le nombre d'observations diffère largement de p. Ce ratio est donné par est la somme des VaR dépassant sur la fenêtre. Il est à noter qu'un bon modèle ne doit ni sous-estimer, ni-sur-estimer le risque. L'avantage de cette technique réside dans le fait qu'elle permet de capturer les caractéristiques de la dynamique temporelle de l'échantillon à travers le temps. Nous avons sélectionné une fenêtre F = 50 jours dans notre étude. Nous avons également choisi d'étendre nos observations de part et d'autre de la crise des Subprimes pour montrer l'exigence de la VaR des valeurs extrêmes par rapport à celle retenue par la loi normale. Nous aurons donc 1 147 observations.

TAB 11: Dépassement de VaR

 

 

VaR Loi Normale

VaR GPD

Nobs

1147

1147

Nombre de dépassement

112

12

Couverture conditionnelle

9,76%

1,05%

< 0,05

NON

OUI

Le modèle lié à la loi normale se révèle inadapté pour estimer le risque réel. Il enregistre un taux de 9.91%, dépassant de 4.91 point le taux d'échec accepté. Cet échec est attendu dans la mesure où ce modèle de mesure du risque ne permet pas de prendre en compte le caractère leptokurtique des rendements.

En période de crise, la VaR GPD ne laisse apparaître qu'une infinité de dépassements journaliers sur F = 50. Le ratio de couverture conditionnelle nous indique qu'il existe un taux de dépassement de 1,05% pour une Value-at-Risk acceptant 5% de risque. Ce modèle rempli donc les conditions pour un dépassement qui ne sous-estime, ni ne surestime le risque de marché. Ce modèle conditionnel fournit une quantification plus flexible de la VaR, qui tient compte de la dynamique de la volatilité. En effet, lorsque le taux de croissance dépasse le seuil u fixé à 3%, la VaR conditionnelle « vibre », couvrant le risque de perte extrême (Cf. : graphique, éléments fléchés). Le graphique ci-dessous souligne la différence qu'il peut exister entre la VaR classique et celle liée aux valeurs extrêmes.

En outre, nous retenons le modèle de VaR GPD conditionnée à partir d'un seuil fixé à 3%. Nous allons, dans la sous-section suivante, établir une stratégie long-short à partir des résultats obtenus ci-dessus.

II.II.3.2 MODÈLE DE RENTABILITÉ AJUSTÉE DU RISQUE

Cette sous-section montre comment la théorie des valeurs extrême peut être utilisée comme stratégie de couverture du risque de marché. Celle-ci implique la distribution asymptotique univariée des taux de rendement minimum et maximum d'une position de marché. La VaR est calculée en fonction d'une formule d'agrégation du risque, laquelle prend en compte

§ Le facteur de sensibilité des extrêmes, à travers une méthode conditionnelle

§ La corrélation entre les facteurs de risque et la position du marché

Nous suivrons l'évolution de la VaR analysée à partir cette hypothèse.

En pondérant celle-ci par la dynamique de prix de l'actif étudié, nous déterminerons la mesure du risque que peut prendre la détention de l'actif dans le portefeuille. Pour établir une gestion performante basée sur la VaR, pour , avec t = 1, nous allons préalablement, à travers l'étude des extrême de la crise des Subprimes, confronter d'une part, la MVaR calculée à l'aide du quantile des valeurs extrêmes et d'autre part, les pertes et profits réels du DJIA. Soit MVaR, l'agrégation de la M à la VaR, définie par les deux variables suivantes :

Rt, le taux de rentabilité du DJIA en t, Pt le prix auquel le DJIA est indexé en t et q le quantile de la probabilité de perte maximum, ici réduit à 95%.

Nous avons choisi de présenter un graphique exposant :

§ L'évolution du cours du DJIA

§ MVaR classique calculé à partir du quantile de distribution de la loi normale

§ La MVaR GPD initiée à partir des éléments calculés précédemment

Nous remarquons que la VaR GPD est réactive. Conditionnée à partir du seuil u = 3%, elle tombe sous le cours en septembre 2008, lors de la chute de la banque américaine Lehman Brothers. Puis, passe au-dessus du cours

lorsque la distribution cumulée des rendements se recentre vers la tendance centrale, en 2010. La VaR classique reste très proche du cours de l'indice en période de perte extrême. Elle ne permet donc pas d'assurer une gestion de portefeuille sécurisée. La MVaR ayant détectée une occurrence de perte extrême par le fait qu'elle soit inférieure au cours du DJIA, se révèle être un indicateur de décision intéressant dans une gestion de portefeuille mettant en avant le risque. Afin de simuler cette aversion au risque, nous pouvons alors prendre position à l'achat où a la vente en fonction de cette dernière. Soit WVaR, la variable déterminant l'achat ou la vente de Pt, tel que :

Rt, le taux de rentabilité du DJIA en t, Pt le prix auquel le DJIA est indexé en t.

Nous présentons dans le tableau ci-dessous les résultats empiriques de notre analyse :

Tab12: Résultats

 

Base 100

DJIA

Normale

GPD

Nobs

1148

1148

1148

Moyenne

98,20

88,83

98,87

Volatilité

19,14

17,18

14,08

Maximum

131,09

117,82

126,54

Minimum

55,58

59,92

69,65

Perte maximale

44,42

40,08

30,35

Skewness

-0,10

-0,02

0,27

Kurtosis

-1,21

-1,52

-1,38

Beta (MCO)

1,000

0,904

0,995

La performance relative du modèle lié à la loi normale et celui évalué à l'aide de la GPD sont présentés par rapport aux résultats empiriques du DJIA pendant la période de test. Nous pouvons noter que la VaR GPD garantie un seuil de perte maximal de -30,5%, quand le cours descend à -44,42%. Nous remarquons également que la VaR classique reste proche du seuil proposé par le cours de DJIA, précisément à 40,08%. La volatilité de la pondération du DJIA à la VaR GPD est moins importante, du fait que les positions ont été coupées au milieu de l'étude. En moyenne, le rendement en base 100 est négatif pour l'ensemble des modèles. On remarque que le coefficient d'asymétrie est négatif pour le DJIA et la VaR normale, alors que celui de la VaR GPD est positif à 0,27. Ceci dénote que la loi des cours comporte plus de mouvements à la baisse pour les deux premiers et une tendance plus haussière pour le dernier.

CONCLUSION

Nous soulignons au terme de cette étude l'importance des mouvements extrêmes lors de la crise des Subprimes. B. Mandelbrot avait déjà émis des réserves en 1963 quant à la validité du comportement aléatoire du mouvement brownien caractérisé par les deux premiers moments de la loi normale. En effet, les hypothèses qui les soutiennent, peuvent corrompre leur validité intrinsèque dans le cas où des événements imprévisibles influencent de façon prépondérante la moyenne de l'échantillon. La crise des Subprimes en est l'exemple type. Nous pouvons apprécier la fréquence du DJIA par l'exercice du calcul des rentabilités anormales, se déplaçant d'un niveau de stabilité vers celui réalisé par la crise. Les résultats obtenus montrent que la crise des Subprimes a enregistré une fréquence journalière continue importante.

Le caractère imprévisible des évènements rares est omniprésent en économie, en finance et en assurance. Parallèlement aux travaux de P. Levy en 1920, le développement des études statistiques des valeurs extrêmes, mené par R. Fisher et L. Tippett en Grande- Bretagne, B. Gnedenko en Union soviétique, M. Fréchet et E. Gumbel en France et L. Mises en Autriche, a émergé. Ces études se concentrent sur le maximum et le minimum d'une suite d'événements dans un échantillon, événements d'occurrence faible, mais de grande importance. Ces « événements rares » forment ce que l'on nomme les queues de distributions. Ces statisticiens ont montré que la valeur maximale de l'échantillon ne peut obéir qu'à l'une parmi trois distributions différentes : les distributions de Fréchet, de Gumbel et de Weibull.

Il en est ainsi des études de fiabilité, où, pour calculer la probabilité de défaut, nous cherchons à considérer la probabilité de défaillance de son « maillon le plus faible ». Par exemple, pour déterminer les caractéristiques d'un barrage, il faut connaitre la pression maximale que l'ouvrage pourra être amené à tolérer, et non sa pression moyenne qu'il supportera en situations normales. Pour cela, il faut caractériser les variables extrêmes de l'échantillon d'observations. C'est se que propose de quantifier la Value-at-Risk, qui mesure la perte potentielle maximale à un seuil de probabilité et à un horizon de temps fixés. L'analyse de cette dernière menée sur le DJIA nous a permis de comprendre qu'il est possible de la quantifier, de façon analytique, en utilisant la loi de distribution de Pareto généralisée, les probabilités de pertes extrêmes. En pondérant la VaR GPD, nous avons mesuré le risque de marché, nous permettant de limiter les pertes encourues par la détention du DJIA. Il est à noter que cette méthode peut être facilement assimilable aux méthodes de gestion assurancielle de portefeuille OBPI53(*) ou CPPI54(*), dans laquelle la VaR GPD servirait de seuil dynamique de proportion au risque.

Paradoxalement, l'étude menée précédemment nous a permis de remarquer que les statistiques ne sont pas une science exacte. En modélisant statistiquement les valeurs extrêmes du DJIA, un problème est apparu de manière récurrente : La pertinence des données utilisées.

En effet, les méthodes de significativité de Brown et Warner, de Pattel et de Bohemer, Musumeci et Poulsen impliquent une constance de la volatilité dans le temps. Or nous savons que les marchés financiers sont hétéroscédastique et qu'il est nécessaire d'utiliser un processus ARCH-GARCH afin de proposer un modèle adéquat. Nous pouvons également remarquer que cette hypothèse n'est plus vérifiée en phase de « partitionnement des données » ou « Clustering » dans lequel deux ou plusieurs titres réagissent, sur un intervalle de temps i, à un même évènement. Cette corrélation est souvent révélée à travers de nombreux exemples sur les marchés financiers, notamment lorsque Lehman Brothers disparue pendant la crise des Subprimes.

Aussi, il faut utiliser une fenêtre de taux de rentabilité équilibrés entre stabilité et précision afin de réduire l'effet de croissance de la variance estimée à partir du nombre d'observations. En ce qui concerne la théorie des valeurs extrêmes, le choix du seuil u de sélection des données maximum et minimum est primordial pour la validité de l'étude. Il s'agit d'une part de sélectionner un seuil grand, au dessus duquel nous conservons assez de données pour que l'approximation asymptotique soit à la fois applicable et précise. D'autre part pas trop élevé pour ne pas donner trop d'importance aux écart-types de l'estimateur. Cela révèle d'une certaine approximation.

De plus, Selon N. Taleb, il n'est pas possible de mesurer le risque d'événements rares catastrophiques dont nous n'avons jamais connu d'exemple par le passé. Ces « cygnes noirs », tels qu'il les appelle, invalideraient les approches statistiques de modélisation du risque. Mais il reste encore beaucoup à découvrir. La préface de la deuxième édition du livre « Une approche fractale des marchés » soulignait : « L'économie financière, en tant que discipline, en est là où en était la chimie au XVIe siècle : c'était un ramassis de savoir-faire, de sagesse populaire fumeuse, d'hypothèses non confirmées et de spéculations grandioses »55(*).

La crise financière des Subprimes est-elle un cygne noir au même titre que l'accident subi par la centrale nucléaire de « Three Mile Island »56(*), où, malgré la prudence établie par les instances de régulation nucléaire, une erreur de nature non-quantifiable, mit en échec le système de sûreté ? Ou pouvons-nous plutôt la comparer à la tempête qui dévasta les Pays-Bas en 1953, événement anormal, mais dont on pouvait mesurer la probabilité ?

BIBLIOGRAPHIE

BALKEMA A. A., DE HAAN L., 1974, "Residual life time at great age", Annals of Probability 2, p 792-804.

BEIRLANT J., GOEGEBEUR Y.,s "Segers J. et Teugels J., 2004, Statistics of Extremes - Theory and Applications", Wiley, England.

BERMAN S. M., 1963, "Limiting theorems for the maximum term in stationary sequences", Annals of Mathematical Statistics, p 502-516.

BOEHMER E., MUSUMECI J. ET POULSEN A., 1991, "Event-study methodology under conditionsof induced variance", Journal of Financial Economics, vol. 30, n°2, p 253-272.

BROWN S. ET WARNERJ., 1980, "Measuring security price performance", Journal of Financial Economics, vol. 8, n°3, p 205-258.

CAMPBELL J., LO A. ET MACKINLAY C., 1997, "The econometrics of financial markets", Princeton University Press.

CLAUSS P., 2011, "Gestion de portefeuille", Dunod.

DANIELSSON J., DE VRIES C.G., 1997, "Value at risk and extreme returns", Working Paper, London School of Economics, London, UK.

DEKKERS A. L. M., DE HAAN L., 1989, "On the estimation of the extreme value index and large quantile estimation", The Annals of Statistics, p 1795-1832.

EMBRECHTS P., KLüPPELBERG C., MIKOSCH T., 1997, "Modelling Extremal Events for Insurance and Finance", Springer-Verlag, Berlin.

ENGLE R.F., 1982, "Auto-regressive conditional heteroskedasticity with estimates of the variance of united kingdom in?ation", Econometrica, p 987-1007.

Fama E., 1970, "Efficient capital markets: a review of theory and empirical work", The Journal of Finance, val. 25, n°1, p 383-417.

FISHER R., TIPPET L., 1928, "Limiting Forms of the Frequency Distribution of the Largest or Smallest Member of a Sample", Cambridge Philosophical Society, p 180-190.

GNEDENKO B.V., 1943. "Sur la distribution limite du terme maximum d'une série aléatoire". Annals of Mathematics, p 423-453.

GUMBEL E J., 1958, "Statistics of Extremes", Columbia University Press, New-York.

HAMON J., 2005, "Bourse et gestion de portefeuille", Economica, 2e édition.

HILL B M., 1975, "A simple general approach to inference about the tail of a distribution", Annals of Statistics, p 1163-1173.

HULL J., 2006, "Options, futures et autres actifs dérivés", 6e édition, Pearson Education.

JORION P., 1996, "Risk: Measuring the risk in value at risk", Financial Analysts Journal, p 47-56.

JORION P., 1997, "Value at Risk: The New Benchmark for Controlling Market Risk", McGraw-Hill, Chicago.

JORION P., 2006, "Value-at-Risk", McGraw-Hill, 3e édition.

JP MORGAN, 1995. RiskMetricsTM - Technical Document, 3rd ed

KUPIEC P. H., 1995, "Techniques for verifying the accuracy of risk measurement models", Journal of Derivatives, p 73-84.

LO A. W., MACKINLAY A. C., 1990, "An econometric analysis of nonsynchronous trading", Journal of Econometrics, p 181-211.

LONGIN F. M., 1997, "The threshold effect in expected volatility: A model based on asymmetric information", The Review of Financial Studies, 837-869.

LONGIN F., 1993, "Volatility and extreme movements in ?anncial markets", Ph.D. Thesis, HEC.

LONGIN F., 1996, "The asymptotic distribution of extreme stock market returns", Journal of Business, p 383-408.

LONGIN F., 2000, "From VaR to stress testing: The extreme value approach". Journal of Banking and Finance, p 1097-1130

LONGIN F., SOLNIK, B., 2001, "Extreme correlation of international equity markets", Journal of Finance, p 651-678

LUX T., SORNETTE D., 1999, "On rational Bubbbles and fat tails", Journal of Monetary Economics.

MANDELBROT B., 196,. "The variation of certain speculative prices", Journal of Business, p 394-419.

MANDELBROT B., 1997, "Fractales, hasard et finance", Flammarion.

MANDELBROT B., 2001, "Stochastic Volatility, Power Laws And Long Memory", Quantitative finance, vol. 1, n°6, December, p 558-559.

MANDELBROT B.,1963, "The Variation Of Certain Speculative Prices", Journal of Business, vol. 36, n°4, p 394-419.

MCNEIL A. J., 1998, "Calculating quantile risk measures for financial return series using extreme value theory", Working Paper, ETH, Zurich, Switzerland.

PARKINSON M., 1980, "The Extreme Value Method For Estimating The Variance Of The Rate Of Return", Journal of Business, Vol. 53, p 61-66.

PATTEL J., "Corporate forecasts earning per share and stock price behavior: empirical test", Journal of Accounting and Research, vol. 14, n°1, p 246-276.

PICKANDS J., 1975, "Statistical inference using extreme order statistics". Annals of Statistics, p 119-131.

RIVA F., 2008, "Application financières sous Excel en Visual Basic", Economica, 3° édition.

SAPORTA G., 1990, "Probabilités, analyse des données et statistique", Editions Technip.

SHARPE W., 1963, "A simplified model for portfolio analysis", Management Science, vol. 9, n°1, p 277-293.

SIVERMAN B., 1986, "Density estimation for statistics and data analysis", Chapman and Hall, London.

SMITH R., 1989, "Extreme Value Analysis of Environmental Time Series: an Application to Trend Detection in Ground-Level Zone", Statistical Science, p 367-393

SORNETTE D., 1998, "Multiplicative processes and Power laws", Physical review, p 4811-4814.

WHITE H., 1982, "Maximum Likelihood Estimation of Misspecified Models", Econometrica, p 1-16.

ANNEXES

A. Graphiques : Sélection de seuil 86

B. Stratégie : Synthèse générale 87

C. Graphiques : VaR 91

D. Stratégie 92

E. Visual Basic Application : Loi de valeurs extrêmes 94

F. Visual Basic Application : Loi de probabilité 96

G. Origines macroéconomiques de la crise des subprimes 100

A. GRAPHIQUES : SÉLECTION DE SEUIL

B. STRATÉGIE : SYNTHÈSE GÉNÉRALE

Sélectionner un actif

Déterminer un période T

Choisir la fréquence des taux de rentabilités

Calculer les taux de rentabilités Rt

Sélectionner un seuil extrême u

Estimé les paramètres de la distribution asymptotique à partir du rendement u

Calculer la VaR en fonction du quantile q sur une période t

Etablir un test d'ajustement sur les valeurs réelles observées correspondant au seuil 1 - q

L'hypothèse est acceptée

L'hypothèse est rejetée

Calculer la VaR pondérée par le prix de l'actif en t

Si VaRt (q) < Rt

Short

Si VaRt (q) > Rt

Long

I. Importer les données historiques

II. Calculer N, le nombre d'observation

III. Calculer R, Le taux de rendement de l'actif de manière :

a. Discrète:

b. Continue:

IV. Classer les , La valeur absolue de R sur n périodes, tel que :

V. Créer un échantillon de valeurs extrêmes en fonction de U, le seuil sélectionné pour mettre en évidence la distribution des extrêmes tel que :

VI. A travers le nouvel échantillon, calculer :

a. , la moyenne arithmétique de l'échantillon ou paramètre d'échelle

b. , l'écart-type de l'échantillon ou paramètre de localisation

c. , le nombre d'observation de l'échantillon

VII. Calculer la Generalized Pareto Distribution (G), donnée par :

Ou et

VIII. Déterminer l'interval de confiance donné par :

Ou esr la fonction inverse de G et q, le quantil, lequel décrit le niveau de probabilité à l'horizon de temps spécifié

IX. Calculer VaR (G) comme suit :

X. Calculer le test de couverture conditionnelle, IF, comme suit :

XI. Calculer M, la VaR (G) pondérée par le prix de l'actif, comme suit :

XII. Utiliser une stratégie d'allocation des actifs dans le portefeuille, tel que :

a. Achat / Achat call / Vente put / Achat cap / Vente floor

b. Vente / Achat put / Vente call / Achat floor / Vente cap

C. GRAPHIQUES : VAR

D. STRATÉGIE

Nous vous présentons ici une stratégie basée sur plusieurs actifs différents. Il s'agit, comme dans l'exemple vu précédemment, d'une stratégie long-short basée sur l'achat de call et de put. Soit R1, R2,...,Rn, une suite de variables aléatoires indépendantes et identiquement distribuées, calculées par ln(Pt/Pt-1), où P est le prix de l'actif en t. Pour

MVaR est la pondération de la VaR à l'actif, et la VaR est donnée par . Lorsque la VaR (q = 95%) , alors le risque est dit faible. Inversement, le risque est dit élevé.

Nous avons donc

§ L'achat d'un Call lorsque la VaR cours

§ L'achat d'un Put lorsque la VaR < cours.

Cette étude nous permet de constater qu'il existe, sur les marchés financiers, une volatilité plus importante en phase de baisse des cours. Il existe aussi des effets "clusters" où la corrélation des actifs se concentre en une période t, impliquant un risque de non-diversification statistique (risque de marché).

Nous enregistrons une performance de 40,1% en prés de 2 ans et 6 mois de gestion, avec un maximum de 47,18%. Cette stratégie met en avant le risque probabiliste pour en dégager une rentabilité. Le risque extrême "Black Swan" est également pris en compte.

Cependant, Un test "Out-of-Sample" doit être établi pour confirmer cette hypothèse. Les Calls et les Puts sont ici hors premium. Il serait nécessaire de minorer l'effet de cette prime sur la performance de la stratégie.

Resultats

Données

Call

Put

Nobs

906

Moyenne

32.11%

122

90

Ecart-type

10.9%

8.80

10.88

Maximum

47.18%

140

100

Minimum

0.00%

100

65

Skewness

-0.94

-0.09

-0.59

Kurtosis

0.02

-0.77

-1.21

Jarque Bera

4.69

21.53

28.84

Performance

40.10%

20%

20%

E. VISUAL BASIC APPLICATION : LOI DE VALEURS EXTRÊMES

'Indicateur de Hill (Pour Fréchet uniquement)

Function Hill(rank As Double, Nb As Double) As Double

medianrank = (1 / (1 - ((rank - 0.44) / (Nb + 0.12))))

Hill = WorksheetFunction.Ln(WorksheetFunction.Ln(medianrank))

End Function

'Gumbel

Function Gumbel(x As Double, a As Double, b As Double) As Double

If b <= 0 Then

Call MsgBox("b doit être strictement positif", vbExclamation, "Paramètre incorrect")

Exit Function

End If

Gumbel = Exp(-(x - a) / b) * Exp(-Exp(-(x - a) / b)) / b

End Function

'Fréchet

Function Fréchet(x As Double, a As Double, b As Double) As Double

If x <= 0 Then

FrÉchet = 0

Exit Function

End If

If b <= 0 Then

Call MsgBox("b doit être strictement positif", vbExclamation, "Parametre incorrect")

Exit Function

End If

Fréchet = a / b * (b / x) ^ (a + 1) * Exp(-(b / x) ^ a)

End Function

'Weibull

Function Weibull(x As Double, a As Double, b As Double) As Double

If x <= 0 Then

Weibull = 0

Exit Function

End If

Weibull = a / b ^ a * x ^ (a - 1) * Exp(-(x / b) ^ a)

End Function

F. VISUAL BASIC APPLICATION : LOI DE PROBABILITÉ

Option Explicit

'ETAPE 1: COPIER ET TRIER

'Dans cette section, nous allons copier le nombre de série pour les trier, dans le but de dessiner la fonction de distribution cumulée

' La variable "Total" nous donne le nombre de donnÉe existante

Public Sub Copy_and_Sort()

Dim Total As Integer

Let Total = Range("Total").Value

' Copier dans un tableau reconfiguré de Total lignes et de 1 colonne

Let Range("Y1").Resize(Total, 1) = Range("Selection").Resize(Total, 1).Value

' Trier les données copiées

Call Range("Y1").Resize(Total, 1).Sort(Key1:=Range("Y1").Resize(Total, 1), Order1:=xlAscending, Header:=xlGuess, OrderCustom:=1, MatchCase:=False, Orientation:=xlTopToBottom, DataOption1:=xlSortTextAsNumbers)

End Sub

'ETAPE 2: DEFINIR L'INTERVAL DE DISTRIBUTION

'Dans cette section, l'intervalle est défini afin que celui-ci soit le plus large possible en aberrant les cases vides

'La variable "Interval" est donnée 10 quand la borne inférieure "borneinf" est Égale 0

'La fenêtre "step" est Égale à 0,1

'La variable "case_vide" est ici exprimée "as boolean", c'est à dire soit "Vrai" Il n'y a pas de case vide, soit "Faux" il y a des cases vides

Public Sub Intervallecorrespondant()

Const Interval = 10

Const borne_inf = 0

Const Step = 0.1

Dim intervalleconfiance As Double

Let intervalleconfiance = Interval

Dim case_vide As Boolean

' Montre la dimension de l'intervalle du plus grand au plus petit

' S'arrête lorsque l'ensemble des cases de sont pas vides, ou, par sécurité, lorsque la taille de l'intervalle est Égale à 0

Do

Let Range("Intervalleconfiance").Value = intervalleconfiance

Call Application.Calculate

Dim minimum As Integer

Let minimum = Application.WorksheetFunction.Min(Range("Distributions"))

Let case_vide = (minimum > 0) ' Vrai si le minimum >= 1

Let intervalleconfiance = intervalleconfiance - Step ' Boucle

Loop Until case_vide Or intervalleconfiance <= borne_inf

End Sub

'ETAPE 3: FONCTION DE DISTRIBUTION

'Dans cette section, nous allons créer une fonction afin de faciliter les calculs de fonction de distribution

' Somme des returns (Ln(t) / Ln(t-1))

' Les champs doivent être vertical avec le meme nombre de ligne

Public Function SumAbsLn(ByRef valeurscourrantes As Range, ByRef DJIA As Range) As Double

Dim size As Integer

Let size = valeurscourrantes.Rows.Count

If size <> DJIA.Rows.Count Then

Call MsgBox("La taille des séries ne corresponde pas !")

End If

Dim resultat As Double

Let resultat = 0

Const petitesvaleurs = 0.01

Dim i As Integer

For i = 1 To size

Dim Borne As Double

' Si les données sont égales à 0, prendre la plus petite value

Let Borne = Application.WorksheetFunction.Max(valeurscourrantes(i, 1).Value, petitesvaleurs)

' increment result with the absolute value of the log of the ratio between actual and model data

Let resultat = resultat + Abs(Log(Borne / DJIA(i, 1).Value))

Next i

Let SumAbsLn = resultat

End Function

G. ORIGINES MACROÉCONOMIQUES DE LA CRISE DES SUBPRIMES

Source : P. Artus, J-P Betbèze, C. Boissieu et G. Capelle-Blancard, «La crise des subprimes», Conseil d'analyse économique, la documentation française, 2008, p 60

* 1 Voir : W F. Sharpe

* 2 Pour tout d'une variable aléatoire réelle X est défini par

* 3 Le coefficient d'asymétrie (Skewness) correspond à une mesure la distribution d'une variable aléatoire réelle. En termes généraux, l'asymétrie d'une distribution est positive si la queue de droite est plus longue ou épaisse, et négative si la queue de gauche est plus longue ou dense.

* 4 Le coefficient d'aplatissement ou coefficient de Pearson (kurtosis) correspond à une mesure leptokurtique de la distribution d'une variable aléatoire réelle.

* 5 Ouragan de catégorie 5

* 6 Chiffre officielle publié par Knabb Richard D, « Tropical Cyclone Report: Hurricane Katrina: 23-30 August 2005, NHC (National Hurricane center), 20 décembre 2005.

* 7 Soit plus de 2.5% de la population

* 8 Le « krach de 1929 » est une crise financière qui se déroula à la Bourse de New-York entre le jeudi 24 octobre et le mardi 29 octobre 1929. Cet événement marque le début de la « Grande dépression », la plus grande crise économique du XXe siècle. Les jours-clés du krach ont hérité de surnoms distincts : le 24 octobre est appelé « jeudi noir », le 28 octobre est le « lundi noir », et le 29 octobre est le « mardi noir », dates obscures de l'Histoire des bourses de valeurs.

* 9 Hypothèse d'efficience des marchés enseignée par E. Fama dans « Market effifiency, long-term returns and behavioural finance », journal of finance economics, 1998, dans lequel il quantifie les effets que peuvent impliquer un évènement de nature à changer la perception qu'ont les investisseurs de la valeur théorique d'un titre.

* 10 Pour l'étude de la crise des subprimes, il est important d'éviter les mouvements de bourse liés au choc du 11 septembre 2001 et du scandale d'Enron en 2003 par exemple.

* 11 Dans leur ouvrage « Measuring security price performance », journal of financial economics, publié en 1980.

* 12 « (Generalized) Auto Regressive Conditional Heteroskedasticity ». Créé par Robert F. Engle en 1982. Ce modèle est un outil statistique qui mesure le comportement de la volatilité dans le temps. Son créateur voulait un outil plus précis que l'ARMA « Auto Regressive Moving Average », utilisant une volatilité constante. A travers ce principe, une dynamique est introduite dans la détermination de la volatilité. Pour cela, on admet que la variance est conditionnelle aux renseignements dont nous disposons. Le modèle ARCH est composé de deux équations : Dans l'équation, est une fonction non constante, mesurable et positive de l'information disponible en t-1. Tim Bollerslev, en 1986, proposa une extension au modèle ARCH, le modèle GARCH. Il sert à modéliser les phénomènes de persistance des chocs de variance. C'est une solution alternative qui permet de ne retenir un nombre limité de retards q, par rapport à un modèle ARCH (q) linéaire. Il se présente de la manière suivante :

* 13 Estimation de la valeur théorique d'un actif financier exprimé dans le « Capital Asset Pricing Model » (CAPM)

* 14 Ouvrage : « The econometrics of financial markets », Princeton University Press, Chapitre 4.

* 15 Nous devons savoir si l'analyse de cette dernière donnée est homoscédastique. En cas contraire, le risque spécifique peut biaiser les calculs. Boehmer se propose d'étudier se corollaire à travers une étude statistique.

* 16 Le modèle de marché, vu dans la sous-section précédente, n'est qu'une relation statistique utilisant la même notification « bêta »,

* 17 Regnault nous enseigne en 1863 qu'il existe une loi mathématique qui règle les variations et l'écart moyen des cours de la Bourse : L'écart des cours est en raison directe de la racine carrée du temps. Cette écart se définit dans la pratique par : , où t représente la fenêtre de temps pour laquelle la volatilité « historique » est calculée.

* 18 Pour tout d'une variable aléatoire réelle X est défini par

* 19 Le coefficient d'asymétrie (Skewness) correspond à une mesure la distribution d'une variable aléatoire réelle. En termes généraux, l'asymétrie d'une distribution est positive si la queue de droite est plus longue ou épaisse, et négative si la queue de gauche est plus longue ou dense.

* 20 Le coefficient d'aplatissement ou coefficient de Pearson (kurtosis) correspond à une mesure leptokurtique de la distribution d'une variable aléatoire réelle.

* 21 Une loi de probabilité est dite continue lorsqu'elle se rapporte à une mesure de Lebesgue. Pour plus d'explication, se référer à l'ouvrage de G. Saporta : « Probabilités, analyse des données et statistiques ».

* 22 Développée initialement par H. Markowitz en 1954

* 23 P. Jorion est professeur de finance à l'université de Californie à Irvine. Ingénieur de formation, il obtient un Ph.D en « finance internationale » à l'université de Chicago en 1983.

* 24 Notamment avec les directives Bâle II, III.

* 25 Voir Embrechts, Kluppelberg, Mikosch et Beirlant, Goegebeur, Segers, Teugels pour plus d'approfondissements.

* 26 Dans une masse de Dirac, mesuré a partir d'un espace et un point a dans X, tel que si et si .

* 27 A ce stade, aucune hypothèse n'est présupposée

* 28 Un bloc peut correspondre à un mois, un an, etc.

* 29 Les paramètres et peuvent également s'écrire respectivement et

* 30 Démontré en 1928

* 31 En réalité l'Algorithme de quasi-Newton

* 32 Dans son ouvrage : « Extreme Value Analysis of environnemental Time series : an Application to Trend Detection of Ground-Level Zone »

* 33 Utilisation de méthodes numériques, type algorithmes de Newton-Raphson

* 34 Né en 1848, V. Pareto était un industriel, un économiste et un sociologue italien. Son héritage en tant qu'économiste fut ample, particulièrement en terme de recherches scientifiques et d'équations mathématiques, recourant de manières intensives aux données. Son étude la plus connue concerne la répartition de la richesse correspondant à une loi de puissance.

* 35 Paul. Lévy, né en 1886, est un mathématicien français. Il fait partie des fondateurs modernes des probabilités. On lui doit les lois stables stochastiques : « La distribution de Lévy ». Il fut professeur à l'école polytechnique et enseigna les probabilités à B. Mandelbrot.

* 36 Né en 1924 à Varsovie, B. Mandelbrot fut professeur de mathématiques à l'Université Yale et membre émérite du « Thomas L. Watson Laboratory » d'IBM. Il a notamment publié « Les objets fractales »

* 37 Nous pouvons nous conférer à l'étude d'Embrechts paru en 1997.

* 38 Tel que Smith en 1987, Davison et Smith en 1990 ou Reiss et Thomas en 2001, pour ne citer qu'eux.

* 39 Nous avons étudié le modèle de moyenne et le modèle de marché. Pour plus d'information, voir section I.I.2.1 Modèles théoriques

* 40 Ces indications ont été mises en place par Brown, Warner, Pattel et Boehmer afin d'assurer la fiabilité et la robustesse de l'étude.

* 41 Le test de Jarque Bera cherche à déterminer si une suite de variables aléatoires suit une loi de distribution normale. Cette statistique suit asymptotiquement une loi du ÷2 à deux degrés de liberté. Nous avons , où n est le nombre d'observations, k le nombre de variables explicatives, s le skewness (moment d'ordre 3 d'une variable centrée-réduite) et K le kurtosis (moment d'ordre 4 d'une variable centrée-réduite). La statistique de JB indique qu'une suite de variable suit une loi normale lorsqu'elle s'approche de 0.

* 42 Rapport écrit par P. Artus, J-P Betbèze, C. Boissieu et G. Capelle-Blancard, intitulé: «La crise des subprimes» publié par « La documentation française » en 2008. Celui-ci donne une analyse complète de la situation micro et macro-économique de la crise des subprimes.

* 43 W. Feller démontre en 1968 que 1 - F(x) équivaut à quand

* 44 A. Quetelet est un mathématicien, astronome, naturaliste et statisticien belge du XIXème siècle. Il présenta dans son ouvrage : « Sur l'homme et le développement de ses facultés, essai d'une physique social » la notion d'homme moyen. « L'homme moyen d'une population est un individu dont les caractéristiques physiologiques sont chacune égale à la moyenne des autres caractéristiques physiologiques de la population »

* 45 Ensemble des variations comprises dans une journée boursière.

* 46 Le calcul est le suivant : , soit 53.57%

* 47 La Théorie des Marchés Efficients (Efficient Market Theory) soutient que les marchés fonctionnent de manière à retranscrire intégralement et instantanément l'ensemble des informations disponibles. Jegadeesh et Titman, en 1993, mettent en évidence l'effet « momentum ». Ils observent que la tendance des titres par rapport au marché semble se poursuivre dans une mouvance irrationnelle. Il en va de même pour la variance journalière dans ce contexte.

* 48 Le phénomène de cluster, vu précédemment en section théorique, se défini comme une grappe de volatilités caractéristiques des rentabilités liées aux actifs financiers.

* 49 La méthode BM extrait le maximum de chaque période définie préalablement. Elle ne prend donc pas en compte certaines données extrêmes liées aux cycles financiers et peut en revanche prendre des valeurs faibles lors des blocks précédents.

* 50 Initialement développé par Campbell S. D, en 2005.

* 51 En d'autres termes, 95% des variations journalières seront contrôlées avec seulement 5% d'erreur de prévision

* 52 Le ratio de couverture fut développé par Kupiec en 1995. Il fut ensuite repris par Christoffersen en 1998

* 53 « Option Based Portfolio Insurance » est une méthode d'assurance de portefeuille à base d'options, conceptualisée par Leland et Rubinstein en 1981.

* 54 « Constant Proportion Portfolio Insurance » est la méthode du coussin. Initialement développée par P. Erold en 1986 et Black et Jones en 1978, elle vise à maintenir une proportion constante d'exposition au risque.

* 55 B. Mendelbrot et R. L Hudson : Une approche fractale des marchés - Risquer, perdre et gagner ; Editions Odile Jacob, Paris 2009, 358 pages.

* 56 La central nucléaire de Three mile Island est situé dans l'est des Etats-Unis est connu pour avoir subi un accident classé au niveau 5 l'échelle international des évenements nucléaires (INES). C'était le 28 mars 1979.






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Un démenti, si pauvre qu'il soit, rassure les sots et déroute les incrédules"   Talleyrand