INSTITUT DES HAUTES ÉTUDES ÉCONOMIQUES ET
COMMERCIALES
MÉMOIRE DE RECHERCHE
APPLIQUÉE
PEUT-ON EVITER LES CRISES?
MESURE DU RISQUE DE
MARCHÉ ET THÉORIE DES VALEURS EXTRæMES:
UNE VISION QUANTITATIVE DU RISQUE EXTRæME
APPLIQUÉE Ë LA CRISE DES
SUBPRIMES
MASTER : FINANCE DE MARCHÉ [SMT]
AUTEUR : J. MEILHOC
TUTEUR : A. AUBRY, QUANTITATIVE FUND MANAGER DATE : 2 JUIN
2012
RÉSUMÉ
Les récentes crises financières et
monétaires ont conduit le développement de nouveaux outils de
protection contre le risque de marché. Le théorème de la
limite centrale, qui décrit le comportement asymptotique de la moyenne
d'un grand nombre de variables indépendantes, ne semble plus
adéquat lorsque des événements rares ou extrêmes
deviennent normes, comme lors de la crise des Subprimes. A ce titre, la
Value-at-Risk, qui peut se définir comme le quantile déterminant
la plus grande perte que peut subir un portefeuille avec une probabilité
d'occurrence déterminé, permet de mesurer ce risque
extrême. La théorie des valeurs extrêmes (TVE),
étudiée dans le cadre de la recherche d'évènements
rares d'une suite de variable s aléatoires indépendantes,
associée à la Value-at-Risk peut être un excellent
indicateur. Ce mémoire de recherche prend son essence dans la recherche
des valeurs extrêmes appliquées à la Value-at-Risk, afin
d'y élaborer un modèle de prévention du risque
cohérent.
MOTS-CLÉS : FINANCE QUANTITATIVE; MODÉLISATION
MATHÉMATIQUE; PROBABILITÉS ET STATISTIQUES ; RISK MANAGEMENT ;
THÉORIE DES VALEURS EXTRæMES ; VALUE-AT-RISK (VAR)
ABSTRACT
Financial crises have become a principal concern to lead the
development of new market risk indicators. The central limit theorem, which
describes the average asymptotic behavior of a random process, does not
characterize rare or extreme events, like subprime mortgage crises do. Value at
Risk (VaR) is defined by risk exposure at a given probability level at a
specified time horizon. Computing extreme value theory (EVT), focusing on the
tails of the sample distribution, is an excellent approach for its use in
managing risks. This research paper presents an application of extreme value
theory to compute to Value-at-Risk of a market position in order to provide a
consistent risk measurment.
KEY-WORDS: QUANTITATIVE FINANCE; MATHEMATICAL MODELING;
PROBABILITY AND STATISTICS; RISK MANAGEMENT; EXTREME VALUE THEORY ;
VALUE-AT-RISK (VAR)
Introduction 6
I. Section théorique 10
I.I. Modèle de fréquence des
rentabilités anormales 10
I.I.1 Taux de rentabilités normales et anormales
11
I.I . 1 . 1 Processus d'évaluation 11
I.I . 1 .2 Procédure de test 12
I.I.2 Calcul des rentabilités anormales
12
I.I .2 . 1 Modèles théoriques 12
I. I .2 . 1 . 1 Modèle de moyenne 13
I. I .2 . 1 . 2 Modèle de marché 13
I.I .2 .2 Évaluation des paramètres 14
I.I.3 Rentabilités anormales 16
I.I.4 Test de significativité 17
I.I .4. 1 Moindres carrés ordinaires 17
I. I.4.2 Rentabilités anormales transversales et
cumulés 19
I.I .4. 3 Méthode de Brown et Warner 19
I.I .4.4 Méthode de Pattel 20
I.I .4. 5 Méthode de Bohemer, Musumeci et Poulsen 20
I.II. Mesure du risque 22
I.II.1 Mesure du risque gaussien 25
I.II. 1 . 1 Distribution de gauss 25
I. II. 1 .2 . 1 Loi des grands nombres 25
I. II. 1 .2 .2 Loi de Gauss 26
I.II. 1 . 2 Value-at-Risk classique 27
I.II.2 Distribution des valeurs extremes 29
I.II.2 1 Études fondamentales 30
I.II.2 . 2 Lois des maxima : résultat exacts 31
I.II.3 Mesure du risque extreme 33
I.II. 3 . 1 Théorème de Fisher-Tippet 33
I. II. 3.1.1 Modélisation paramétrique des maxima
par blocs 36
I. II. 3 . 1 .2 Sélection de la taille des blocs 36
I. II. 3 . 1 . 3 Estimation du modèle BM par le maximum de
vraisemblance 36
I.II. 3 . 2 Théorème de Balkema-de Haan -Picklands
39
I. II. 3 .2 . 1 Modélisation paramétrique de la
distribution des excès 42
I. II. 3 .2 .2 Estimation du modèle de seuil par le
maximum de vraisemblanc e 43
I.II. 3 . 3 4 Value -at-Risk extreme 43
3
II. Section empirique 46
II.I Mesure des fréquences anormales
46
II.I.1 Processus 46
II.I.2 Taux de rentabilités normales et anormales
52
II. I.2 . 1 Fréquences normales 52
II. I.2 . 2 Fréquences anormales 53
II.I.3 Résultat des fréquences anormales
54
II. I. 3 . 1 Rentabilités anormales stationnaires 54
II. I. 3 . 2 Rentabilités anormales cumulées 55
II.I.4 Test de significativité 56
II.II. Théorie des valeurs extremes et
Value-at-Risk 58
II.II.1 Analogie statistique de la distribution des
rendements et maximum
de vraisemblance 59
II. II. 1 . 1 Analogie statistique de la distribution des
rendements 60
II . II. 1 . 1 . 1 Comportement limite de la loi exponentielle
60
II . II. 1 . 1 .2 Comportement limite de la loi de Pareto 62
II . II. 1 . 1 . 3 Comportement limite de la loi normale 63
II. II. 1 .2 Maximum de vraisemblance 65
II.II.2 Modèle de sélection de maxima
66
II. II. 2 . 1 Réalité erratique 66
II. II. 2 .2 Sélection de seuil 69
II.II.3 Value-at-Risk 71
II. II. 3 . 1 Couverture conditionnelle 72
II. II. 3 .2 Modèle de rentabilité ajustée
du risque 75
Conclusion 78
Bibliographie 81
Annexes 85
A. Graphiques : Sélection de seuil 86
B. Stratégie : Synthèse
générale 87
C. Graphiques : VaR 88
D. Stratégie 89
E. Visual Basic Application : Loi de valeurs extremes
91
F. Visual Basic Application : Loi de probabilité
93
G. Origines macroéconomiques de la crise des
subprimes 97
4
Nous tenons à remercier sincèrement
Mr Aubry pour avoir accepté d'encadrer ce mémoire. Ses
orientations, ses conseils et ses contacts nous ont permis de mener à
bien cette recherche. Je remercie aussi tout particulièrement Mr
Assemat, directeur du pTMle finance de marché, pour avoir su transmettre
sa passion et son esprit d'analyse. Enfin, nous souhaitons remercier
également Mr Rudelle, professeur d'économie et
Mr Viar, professeur de mathématiques, sans qui tout cela
n'aurait été possible.
INTRODUCTION
<< [ÉJ Les idées, justes ou fausses,
des philosophes de l'économie et de la politique ont plus d'importance
qu'on ne le pense en général. Ë vrai dire le monde est
presque exclusivement mené par elles. Les hommes d'action qui se croient
parfaitement affranchis des influences doctrinales sont d'ordinaire les
esclaves de quelque économiste passé. Les illuminés du
pouvoir qui se prétendent inspirés par des voies célestes
distillent en fait des utopies nées quelques années plus tTMt
dans le cerveau de quelque écrivailleur de
Faculté.È
John Maynard Keynes
<< Théorie générale de l'emploi, de
l'intérêt et de la monnaieÈ Chapitre 24, 1936
Les récentes crises financières et
monétaires sont indubitablement une préoccupation majeure des
acteurs des marchés financiers, des banques, des pouvoirs politiques et
des instances de régulation. Les fluctuations extrêmes des cours
de bourse sont importantes pour l'activité économique
réelle. La hausse de la volatilité en temps de crise,
corrélée à la chute des marchés financiers est
particulièrement inquiétante. Nous pouvons donner à ce
titre l'exemple de la crise des Subprimes, qui a annoncé la chute de la
banque américaine Lehman-Brothers disparue le 15 septembre 2008. Ce
climat pousse les acteurs du marché, comme les régulateurs
bancaires, à développer de nouveaux outils de protection contre
le risque de marché. La finance moderne met en avant les
mathématiques du hasard et de la statistique, conceptualisées par
des lois mathématiques probabilistes capables de mesurer le risque de
marché. Celui-ci se matérialise par l'espérance de pertes
auxquelles les investisseurs sont impliqués. Les variations des
marchés financiers : marchés des instruments de base Ð
actions, obligations, devises, matières premières Ð mais
aussi les marchés des produits dérivés Ð contrats
à terme, options Ð sont par définition risquées et
instables. Il faut par conséquent déterminer ce risque de
manière précise pour mieux l'appréhender. Parmi ces
outils, il existe deux mesures générales : la mesure de
sensibilité et la mesure de variance.
La première peut être théorisée en
fonction de la sensibilité que représente un produit financier
par rapport à son indice de référence. Ainsi, le risque de
marché est la probabilité de perte liée aux
évolutions des marchés. Na
·vement, si nous
possédons une action du Dow Jones Industrial Average et que l'ensemble
du marché subit une baisse, il semble naturel de considérer qu'il
va en être de même pour notre action. Cette première mesure
s'assimile à la sensibilité relative d'un actif détenu par
rapport aux facteurs de risque de marché. Ainsi, des modèles de
risque se sont
1
développés c omme le << Capital Asset
Pricing Model (CAPM)pour le plus connu. Ils mesurent la variance de la
rentabilité implicite du marché par un coefficient de
régression à des facteurs de risque par rapport au marché
dans son ensemble. Cependant, le <<risk manager a besoin d'une
mesure pragmatique du risque d'exposition. En effet, lorsqu' un nombre
important d'instruments très différents compose le portefeuille,
il est difficile d'adjoindre l'ensemble des covariances pouvant exister. C'est
pour cette raison qu'il est décisif d'appréhender le risque
à partir de profils à la fois différents et
complémentaires : la dispersion des pertes et profits des actifs.
La deuxième met en exergue deux mesures de risque
venant de la distribution des rentabilités des actifs : la
volatilité et la Value-at-Risk (VaR). Ces mesures ne se concentrent pas
sur les mêmes paramètres: La volatilité
mesure les variations d'un actif autour de la tendance centrale. Cette mesure
accorde le même poids aux gains espérés qu'aux pertes
potentielles. Or la notion de risque est directement liée aux pertes
émanant d'un actif détenu, lequel implique un revenu
aléatoire. Une mesure asymétrique pouvant juger du risque de
perte est nécessaire. La volatilité prend donc en compte toutes
les rentabilités, positives ou négatives, extrêmes ou
modéré. La Value-at-Risk peut se définir comme le quantile
déterminant la plus grande perte que peut subir un portefeuille avec une
probabilité d'occurrence et sur un horizon de temps
déterminé: C'est un indicateur pouvant estimer le risque
extrême. Ces deux indicateurs donnent une information différente.
D'une part, la volatilité peut enregistrer un taux élevé
et seulement capturer des risques moyens, certes significatifs, mais pas
extrêmes. Tout l'enjeu d'une mesure du risque synthétique
pertinente est d'estimer convenablement la perte éventuelle que peut
subir un actif. D'autre part, déterminer le risque par la
volatilité, moment2 d'ordre 2,
1 Voir : W F. Sharpe
2 Pour tout n ? N d'une variable aléatoire
réelle X est défini par mn =ö
E(Xn)
3 4
présuppose que les moments suivants, le skewness et le
kurtosis , ne nécessitent pas d'être ajoutés dans une
mesure de risque viable. La théorie sous- jacente en est la
normalité des rentabilités. La loi Normale est en effet
caractérisée par les deux premiers moments. La volatilité
n'est assurément pas la meilleure mesure de risque extrême.
Utiliser la Value-at-Risk permet de passer outre ces difficultés dans la
mesure oü le quantile de la distribution ne représente pas un
équilibre moyen mais prend en compte les pertes extrêmes. Ce
mémoire de recherche prend son essence dans la recherche des valeurs
extrêmes appliquées à la Value-at-Risk, afin d'y
élaborer une mesure de performance ajustée du risque
cohérente. La prévention des évènements
extrêmes est aujourd'hui en plein essor. Nous le constatons
régulièrement:
· Dans l'étude du vent: à
près de 650 km de rayon, ayant atteint un
5
maximum de 280 km/h, l'ouraganKatrina fut le plus puissant et
le plus meurtrier des phénomènes naturels qu'ont connu les
Etats-Unis, prenant près de 1836 vies et causant plus de 108 milliards
de dollars à la collectivité locale6.
· Dans l'étude des plaques tectoniques:
le tremblement de terre Crustal, touchant Ha
·ti le 12 janvier 2010,
était d'une magnitude de 7.0 - 7.3. Il a
7
causé la perte de 230 000 vies, faisant 300 000
blessés . 1.2 million d'hommes et de femmes furent privés de
ressources vitales.
· Dans l'étude séismologique: le
séisme de la côte pacifique de Töhoku, oü le japon fut
impliqué, le 11 mars 2011, dans l'une des plus importantes catastrophes
de son histoire: Le Tsunami de Fukushima. Cet accident majeur a impacté
les réacteurs d'une centrale nucléaire laissant un important
volume de rejet radioactif.
3 Le coefficient d'asymétrie (Skewness)
correspond à une mesure la distribution d'une variable aléatoire
réelle. En termes généraux, l'asymétrie d'une
distribution est positive si la queue de droite est plus longue ou
épaisse, et négative si la queue de gauche est plus longue ou
dense.
4 Le coefficient d'aplatissement ou coefficient de
Pearson (kurtosis) correspond à une mesure leptokurtique de la
distribution d'une variable aléatoire réelle.
5 Ouragan de catégorie 5
6 Chiffre officielle publié par Knabb Richard
D, Ç Tropical Cyclone Report: Hurricane Katrina: 23-30 August 2005, NHC
(National Hurricane center), 20 décembre 2005.
7 Soit plus de 2.5% de la population
L'ensemble de ces évènements, dont
l'espérance mathématique d'en conna»tre la manifestation est
mince, est de nature extrême. Ils existent effectivement et doivent
être pris en compte.
Les statisticiens ont mis en place des mesures de
prévention de ces mouvements, utilisant la Ç théorie des
valeurs extrêmes È. Aujourd'hui les domaines d'applications
utilisant ces analyses sont nombreux. En hydrologie, par exemple, les
données excessives sont particulièrement utiles pour la
prévision des crues. Dans le domaine assuranciel, elles sont
utilisées dans l'évaluation des grands sinistres. En finance, les
marchés financiers connaissent eux aussi des mouvements erratiques
extrêmes liés à l'incertitude de l'environnement
macro-économique. Faire appel à la théorie des valeurs
extrêmes appliquées à la Value-at-Risk dans un tel climat
est un bon point d'appui quant à la recherche de la
vérité. Expérimenter ces analyses pendant la crise des S
ubprimes est intéressant : un investisseur aurait-il pu contrTMler son
risque en mesurant le risque de perte extrême?
Ce mémoire met en évidence les méthodes
théoriques et empiriques d'évaluations des valeurs extrêmes
conditionnelles appliquées à la Value-atRisk afin
d'émettre une stratégie performante ajustée du risque.
Celui -ci est divisé en deux sections:
Dans la première section, nous verrons l'aspect
théorique de la fréquence des rentabilités anormales sur
les 30 composantes du DJIA. Cette fréquence nous permettra
d'apprécier la vélocité et l'ampleur avec laquelle les
rendements d'un actif se meuvent d'un niveau de stabilité donné
vers un niveau supposé par la crise, transformant ainsi le discernement
qu'ont les investisseurs du risque d'un actif. Puis, nous étudierons la
mesure du risque appliquée à la VaR liée aux
théories des valeurs extrêmes.
Dans la deuxième section, à travers la partie
empirique, nous pourrons nous intéresser à leurs applications sur
le DJIA en période de crise des Subprimes.
I. SECTION THÉORIQUE
Ç Imaginez une régle tenue verticalement
sur votre doigt : cette position trés instable devrait conduire à
sa chute, au moindre mouvement de la main ou en raison d'un trés
léger courant d'air. La chut e est liée fondamentalement au
caractére instable de la position; la cause immédiate de la chute
est, elle, secondaire È
Didier Sornette, 2002
I.I. MODéLE DE FRÉQUENCE DES
RENTABILITÉS ANORMALES
Les aspects macroéconomiques montrent de façon
indubitable les
conséquences d'une crise, particulièrement
celle des Subprimes, qui fut,
pour les observateurs les plus avertis, aussi
importants que celle qui a vu le
8
jour du jeudi noir de 1929 . Cependant, lorsqu' on se situe
sur un marché financier, dans notre exemple le Dow Jones Industrial
Average (DJIA), comment considérer l'impact qu'a eu cette crise sur les
actifs le composant? Évaluer la hausse de la volatilité, sur un
intervalle de temps représentant la crise, afin d'y extraire des
rentabilités anormales, peut être un bon point d'appui. Mais
comment pouvons-nous juger de ce que peut représenter le niveau de la
volatilité dite normale à titre de comparaison?
La technique de l'Ç étude
d'événement È, initié par E. Fama9,
a précisément
pour objectif d'apprécier la
précipitation et la profusion avec laquelle un
8 Le Ç krach de 1929 È est
une crise financière qui se déroula à la Bourse de
New-York entre le jeudi 24 octobre et le mardi 29 octobre 1929. Cet
événement marque le début de la ÇGrande
dépression È, la plus grande crise économique du
XXe siècle. Les jours-clés du krach ont
hérité de surnoms distincts: le 24 octobre est appelé
<<jeudi noir È, le 28 octobre est le << lundi noir È,
et le 29 octobre est le <<mardi noir È, dates obscures de
l'Histoire des bourses de valeurs.
9 Hypothèse d'efficience des marchés
enseignée par E. Fama dans <<Market effifiency, long-term
returns and behavioural finance È, journal of finance economics,
1998, dans lequel il quantifie les effets que peuvent impliquer un
évènement de nature à changer la perception qu'ont les
investisseurs de la valeur théorique d'un titre.
actif se déplace, transformant ainsi le discernement
qu'ont les investisseurs du risque d'un actif.
Nous allons pour ce faire nous focaliser sur la recherche des
rentabilités anormales, puis juger de leur significativité
à travers des tests statistiques.
I.I.1 TAUX DE RENTABILITÉS NORMALES ET
ANORMALES
Les crises financières et monétaires
occasionnent donc des mouvements particuliers sur le cours d'un titre.
L'approche utilisée pour isoler ceux-ci des fluctuations liées
à l'influence de facteurs exogènes à la crise des
Subprimes repose ainsi sur le calcul de rentabilités anormales. Par
définition, ces taux de rentabilités sont obtenus par
différence entre les rentabilités observées,
influencées par l'incertitude qui règne sur les marchés en
période de crise, et les rentabilités dites normales,
données par l'absence de perturbations majeures.
Les rentabilités anormales sont nécessairement
calculées en fonction d'un modèle de calcul. A ce titre, nous
avons choisi d'en présenter deux dans notre étude:
· Le modèle de moyenne
· Le modèle de marché.
I.I.1.1 PROCESSUS D'ÉVALUATION
Les variables du modèle permettant le calcul des
rentabilités anormales font l'objet d'une évaluation
préalable. Cette estimation doit être conduite sur une
période de temps antérieure dans laquelle il n'y eu aucune
représentation de crise ou d'évènements extraordinaires
capables de biaiser l'étude10.
1 0 Pour l'étude de la crise des subprimes, il est
important d'éviter les mouvements de bourse liés au choc du 11
septembre 2001 et du scandale d'Enron en 2003 par exemple.
I.I.1.2 PROCÉDURE DE TEST
C'est lorsque nous avons calculé les rentabilités
anormales que nous pouvons juger de la robustesse de ceux-ci.
· Une première étape consiste à
calculer la somme des taux de rentabilités anormaux obtenue à
partir des différents titres de l'échantillon.
· Une deuxième étape sera également
réalisée pour calculer les rentabilités anormales
cumulées (RAC) des titres pendant la crise. Cette information nous
permet de conna»tre la véritable intensité d'un
évènement par rapport à ses fluctuations
exogènes.
· Une troisième étape montre statistiquement
comment, à un seuil de risque octroyé , la crise des subprime
agit sur le cours.
I.I.2 CALCUL DES RENTABILITÉS ANORMALES
I.I.2.1 MODéLES THÉORIQUES
Dans ce mémoire de recherche, nous allons analyser
deux méthodes couramment utilisées dans la littérature
financière. Ces méthodes repèrent de facon efficiente la
présence de trajectoire de cours anormaux. Selon Stephen J. Brown et
Jerold B. Warner11, il s'agit du:
· Modèle de moyenne (constant mean return model,
Ç CMRM È)
· Modèle de marché (market modele,
Ç MM È)
1 1 Dans leur ouvrage ÇMeasuring security price
performance È, journal of financial economics, publié en 1980.
I.I.2.1.1 Modèle de moyenne
Attachée à l'évaluation du modèle de
moyenne, l'évolution des taux de rentabilité de l'action i
est formulée par:
Ri,t = 11i +
i,t
Oü R
·, indique le taux de rentabilité de
l'action i à la période t, u1, le taux
de
rentabilité moyen de l'action i, est e!,! l'innovation en date
t,
hypothétiquement homoscédastique a2(er)
et d'espérance nulle. Un modèle
ARCH Ð GARCH12 peut également être
étudié afin d'estimer une variance non constante dans le
temps.
I.I.2.1.2 Modèle de marché
13
Le modèle de marché fut initié Sharpe
par en 1963. Ce modèle postule
pour une relation linéaire entre le taux de
rentabilité R
·, d'un actif et le taux
de rentabilité
Rm,t de l'indice de référence, mesuré à partir de
l'action i. Ce
1 2 (( (Generalized) Auto Regressive Conditional
Heteroskedasticity . Créé par Robert F. Engle en 1982. Ce
modèle est un outil statistique qui mesure le comportement de la
volatilité dans le temps. Son créateur voulait un outil plus
précis que l'ARMA ((Auto Regressive M oving Average , utilisant
une volatilité constante. A travers ce principe, une dynamique est
introduite dans la détermination de la volatilité. Pour cela, on
admet que la variance est conditionnelle aux renseignements dont nous
disposons. Le modèle ARCH est
composé de deux équations: = zt
E(zt ) = 0var(zt ) =1 Dans
l'équation,
t t t
est une fonction non constante, mesurable et positive de
l'information disponible en t -1. Tim Bollerslev, en 1986, proposa une
extension au modèle ARCH, le modèle GARCH. Il
sert à modéliser
les phénomènes de persistance des chocs de
variance. C'est une solution alternative qui permet de ne retenir un nombre
limité de retards q, par rapport à un modèle ARCH (q)
linéaire. Il se présente de la manière suivante:
2 t
|
q p
2 2
= + +
i t i i t i
|
=+ (L) t2 +(L)
t2
|
|
i=1 i =1
13 Estimation de la valeur théorique d'un
actif financier exprimé dans le ((Capital Asset Pricing Model
(CAPM)
modèle s'inscrit donc dans le cadre d'une mesure de
sensibilité du titre étudié. Expressément, nous
avons:
Ri,t = +iRm,t +
i i,t
Oü a! et f.? sont les deux éléments du
modèle de marché, et !!, et une
perturbation
homoscédastique a2(e1) d'espérance nulle. Comme pour
le
modèle de moyenne, la variance peut être
calculée selon des critères
hétéroscédastique avec ARCH - GARCH.
I.I.2.2 ÉVALUATION DES PARAMéTRES
En ce qui concerne le modèle de moyenne, nous devons
calculer un simple paramètre donné par la rentabilité
moyenne 4u de l'action i sur N, la période pour
laquelle nous tirons nos taux de rentabilités normales. Le modèle
de marché quant à lui requière l'intervention de deux
paramètres distincts, à
savoir a et f.? de i sur les mêmes
périodes.
Pour ce faire, nous pouvons estimer l'ensemble des
paramètres liés à chaque modèle à l'aide
d'une représentation matricielle de la période N. A ce
titre, nous pouvons consulter les études de John Y. Campbell, Andrew W.
Lo et Craig MacKinlay, publiées en 199714.
Deux composantes sont à calculer. Soit Ri, le
vecteur composer des N taux de rentabilité et Xi :
· Un vecteur de N lignes égales à 1
pour le modèle de moyenne
· Une matrice à deux colonnes et N
lignes dans le cas du modèle de marché dans laquelle les
lignes de la première colonne sont égales à 1 et celles de
la deuxième colonne prennent pour valeur le taux de rentabilité
du marché en N.
1 4 Ouvrage: Ç The econometrics of financial markets
È, Princeton University Press, Chapitre 4.
· Enfin, nous avons un vecteur 8
· de
paramètre agrégé au modèle utilisé,
soit ji. pour le modèle de moyenne, soit (a1,f3!) pour
le modèle de
marché.
Cette représentation donne formellement l'équation
suivante:
Ri = Xi +
i i
Pour chaque modèle, l'appréciation des
paramètres peut aussi s'effectuer par le calcul des moindres
carrés ordinaires (MCO). On peut observer à présent
l'expression des différents estimateurs comme suit:
ö = i
1Xi'Ri
(Xi'Xi)
1
ö 2( i) = (N k ö
i' ö i )
ö i
2( i)
= Ri Xi i
1
2( i) =
(Xi'Xi)
Oü k désigne le nombre de paramètres
du modèle utilisé.
· k = 1 pour le modèle de moyenne
·
15
k = 2 pour le modèle de marché
I.I.3 RENTABILITÉS ANORMALES
Énoncées précédemment, les
rentabilités anormales sont obtenues par
différence entre les
rentabilités étudiées en Ai et les
rentabilités dévoilées
par le modèle en
Ni. Estimé à partir d'une reproduction matricielle
des
données, le vecteur ö des A
rentabilités anormales estimées est décrite par
7
la relation:
ö i = Ri
Xi ö i
Dans lequel R!! et
X!4 sont les corollaires de R et X respectivement. Le
vecteur des taux anormaux sur Ai peut s'analyser de
telle sorte qu'il existe une ' erreur È commise dans la
prévision de la rentabilité du titre i.
Mathématiquement, cette ' perturbation È réelle
s'exprime comme:
L'espérance mathématique des taux de
rentabilités anormales, liés aux valeurs Xj!,
elles-mémes tirées des variables explicatives sur la
période de crise, est donnée par:
E ö i
Avec 8L, calculé précédemment,
l'équation donnée par !L - !! =
(X!!X1 ) ! 'X!! . Celle-ci montre une
espérance nulle dans la mesure oü la
perturbation est
supposée indépendante et identiquement identifiée sur
Ni et Ai.
I.I.4 TEST DE SIGNIFICATIVITÉ
Comment pouvons-nous juger de la significativité des
tests réalisés selon les modèles théoriques
réalisés précédemment? Plusieurs étapes
peuvent être mise en Ïuvre pour en tirer une hypothèse
viable. Afin de montrer la véracité du raisonnement
utilisé dans cette étude, nous allons dans un premier temps
étudi er, en passant par la technique des moindres carrés
ordinaires, un actif considéré indépendamment avant
d'initier une analyse sur données associées.
I.I.4.1 MOINDRES CARRÉS ORDINAIRES
Dans la littérature économétrique, une
rentabilité anormale est assimilable à un point aberrant par
rapport à une suite de variables iid. Dans notre étude, nous
usons des hypothèses classiques dans laquelle les moindres carrés
ordinaires sont donnés par le vecteur des espérances des
Ai lignes et de la matrice de variances-covariances des Ai
lignes et des Ai colonnes de cette erreur. Nous avons:
E öi Xi =
0
2
Vi ö i
|
'
Xi = 2( i) +
2( i) Xi
(Xi'Xi)
1Xi
|
|
vi, MM
vi,
MM
1
(Rm, Rm)2
Oü I montre formellement la matrice identifiée par
les Ai lignes et des Ai colonnes. Parce qu'il prend en compte
un élément additi onnel lié à l'étude de
l'indice de référence, les indicateurs v!,, de la diagonal
Vi dans le modèle de marché prend l'expression
suivante:
= 2( i) 1+ +
N
(Rm,t Rm)2
N
t
=2( i).Cm,
Oü Rm se rapporte au taux de
rentabilité moyen de l'indice de référence sur
Ni. Nous le verrons dans la sous-section suivante lorsque Pattel dans
son ouvrage publié en 1976 et Boehmer dans sa publication de 1991,
utilisent cette expression dans leurs tests statistiques. En outre, cette
formule permet de dissocier la hausse de la volatilité, exprimée
par l'écart-type des fluctuations des cours, et la perturbation
liée aux rentabilités anormales. Logiquement, l'accroissement de
la variance est une fonction décroissante du nombre d'observations N
utilisé pour estimer les valeurs des paramètres. Cela a pour
effet de lisser la volatilité de l'étude des rentabilités
normales. C'est pour cette raison qu'il est justifié d'utiliser un laps
de temps N équilibré entre stabilité et
précision. L'augmentation sera d'autant plus forte que les conditions de
marché dans lesquel les sont calculées les rentabilités
anormales s'écartent de celles qui avaient cours lors de la phase
d'estimation des paramètres. Dans les faits, la valeur
de a2(E1) est inconnue. Nous utiliserons alors l'estimateur sans
biais noté a2(E1). Pour ce faire, nous serons amenés
à utiliser l'estimateur 11L de la matrice de
variances-covariances des taux anormaux dont la formule est
donnée par15:
öVi ö 2(
i) + ö 2( i)
Xi
'(Xi'Xi)
1Xi
Exprimé par la quantité, calculé avec :
övi, MM = ö 2(
i) 1+ N1
|
+
|
(Rm, Rm)2
|
|
|
t
övi, M M = ö 2(
i).Cm,
1 5 Nous devons savoir si l'analyse de cette dernière
donnée est homoscédastique. En cas contraire, le risque
spécifique peut biaiser les calculs. Boehmer se propose d'étudier
se corollaire à travers une étude statistique.
I.I.4.2 RENTABILITÉS ANORMALES TRANSVERSALES ET
CUMULÉS
L'analyse des rentabilités anormales transversale
permet de juger de la signification d'un échantillon donné
à une période T. Une quantité importante de travaux de
recherche a été réalisée en fonction du
comportement des rentabilités sélectionnées. Parce que
nous travaillons sur les queues de distribution, ces statistiques vont avoir
pour propriétés d'être asymptotiquement normales,
d'espérance nulle et de variance égale à 1. La convergence
vers la normalité étant vérifiée dès lors
que le nombre de données est important (Brown et Warner) ou que le
nombre d'actifs étudié soit supérieure ou égale
à 30 (Pattel, Boehmer et al.). Les rentabilités anormales
cumulées (RAC) permettent de juger de l'effet de la crise sur les
différents actifs que peut détenir un actionnaire. C'est la
représentation de l'amplitude des rentabilités anormales d'un
échantillon sur une période donnée.
I.I.4.3 MÉTHODE DE BROWN ET WARNER
La méthode de Brown et Warner, notée, est la plus
couramment utilisée dans l'industrie financière. Cette
statistique s'exprime:
Nous avons donc les rentabilités anormales
équipondérées de l'ensemble des titres sur la
volatilité que peuvent générer celles-ci. C'est donc la
rentabilité Ai obtenue divisée par le risque que
celle-ci génère par ses variations erratiques en période
de crise. Il est à noter que cette statistique implique une constance de
la volatilité dans le temps. Nous pouvons aussi remarquer que cette
hypothèse n'est plus vérifiée en phase de Ç
partitionnement des données È ou Ç Clustering
È dans lequel deux ou plusieurs titres réagissent, sur un
intervalle de temps i, à un évènement lambda.
Cette corrélation est exprimée à travers de nombreux
exemples sur les marchés financiers.
I.I.4.4 MÉTHODE DE PATTEL
La méthode de Pattel peut se conceptualiser en deux
parties. Les rentabilités anormales appartenant à la
période de crise sont pris un à un afin d'être
calculées par l'écart-type (soit le risque) de l'erreur
d'estimation. Cet écart- type correspond au Tème
élément de la diagonale de la matrice V, donné par
l'expression öVi, MM = ö (
i).Cm, , vu précédemment. Pour la
méthode de Pattel, nous avons la formule de la rentabilité
anormale standardisée, telle que:
ö i,
i, övi,
Le poids que peut donner un titre à forte
volatilité historique dans le portefeuille est diminué. La
statistique de Pattel prend la forme de:
I=1
N
,
I
N
1
2
N
N
1
N(N 1)
N i =1
i =1
20
UNE VISION QUANTITATIVE DU RISQUE EXTRæME
APPLIQUÉE Ë LA CRISE DES
SUBPRIMES
I.I.4.5 MÉTHODE DE BOHEMER, MUSUMECI ET
POULSEN
Faisant foi d'une robustesse plus importante lorsque la
variance augmente, cette statistique cherche à valider ou non
l'hypothese selon laquelle A tend vers 0 pendant la période
d'échantillonnage. La méthode de Bohemer, Musimeci et Poulsen
s'exprime des lors comme:
1 N
N i =1
L'incertitude est au cÏur de la logique
financière. Le profil de risque que les investisseurs prennent à
travers leurs positions est par conséquent déterminant. Le test
des rentabilités anormales prend en compte deux paramètres:
l'espérance mathématique et l'écart-type. Lorsque les
marchés sont en équilibre, il est alors possible d'envisager une
relation entre la rentabilité attendue et son risque intrinsèque,
déterminé à partir de l'écart qu'il peut exister
entre la rentabilité moyenne historique amenée par cette
dernière. Le test des fréquences anormales sur un temps long a
donc pour objet de conna» tre l'ampleur, mais aussi la durée, que
peut amener de telles rentabilités en période d'incertitude. Nous
pouvons désormais reconna»tre, de facon plus rigoureuse,
l'état de crise, la quantifier, peut-être la comparer.
Cette introduction nous amène à penser qu'il est
nécessaire d'établir une solide gestion de mesure des risques.
I.II. MESURE DU RISQUE
Ç Les influences qui déterminent les
mouvements de la Bourse sont innombrables, des événements
passés, actuels ou même escomptables, ne présentant souvent
aucun rapport apparent avec ses variations, se répercutent sur son
cours. [ÉJ Mais il est possible d'étudier mathématiquement
l'état statique du marché à un instant donné, c'est
-à-dire d'établir la loi de probabilité des variations de
cours qu'admet à cet instant le marché. Si le marché, en
effet, ne prévoit pas les mouvements, il les considère comme
étant plus ou moins probables, et cette probabilité peut
s'évaluer mathématiquement È
Louis bachelier
Ç Théorie de la spéculation È.
Annales scientifiques de l'E.N.S. 3ème série, tome 17 (1900), p
21-86
La finance moderne met en avant les statistiques. Ceux-ci
rationalisent le mouvement de prix des marchés financiers. Le risque en
est par conséquent mesurable et gérable. Les travaux en ce
domaine ont débuté selon la connaissance générale
en 1900, quand un jeune mathématicien, Louis Bachelier, eut la
curiosité d'étudier la fluctuation des cours des marchés
financiers dans sa thèse : Ç Théorie de la
spéculation È. Inspiré par Pascal et Fermat, qui
avait initié le concept de probabilité, L. Bachelier
étudia dans sa thèse les bons du trésor francais.
Considéré comme le précurseur de la théorie moderne
du portefeuille et des mathématiques financières, L. Bachelier
met en avant un concept nouveau : les prix montent et desce ndent avec des
probabilités égales. Pour ainsi dire, si le nombre de
données augmente à un rythme élevé, les
échanges boursiers se fondent en un bruit stationnaire. Le risque de
marché matérialise l'espérance de pertes auxquelles les
investisseurs sont impliqués. Pour le gérer , il faut donc
l'évaluer de manière pr écise. A ce titre, parmi ces
outils, existe:
· Les mesures de sensibilité
· Les mesures de variance
Une première mesure du risque est en fonction de la
sensibilité que représente un actif par rapport à son
indice de référence. Cette première mesure s'assimile
à la sensibilité relative d'un actif détenu par rapport
aux facteurs de risque de marché. Elle mesure la variance de la
rentabilité implicite du marché par un coefficient de
régression à des facteurs de risque, tel le marché dans
son ensemble. Formellement, nous avons:
cov(Rp, Rm)
=
var(Rm)
16
Oü Rp est le taux de
rentabilité de l'action et Rm , celui du
marché .
Cependant, le <<risk manager È a besoin
d'une mesure pragmatique du risque d'exposition. En effet, lorsqu'un nombre
important d'instruments très différents compose le portefeuille,
il est difficile d'imbriquer de facon cohérente l'ensemble des
covariances pouvant exister. C'est pour cette raison qu'il est décisif
de capturer le risque à partir de profils différents : La
dispersion des pertes et profits des actifs.
Nous pouvons mettre en exergue deux mesures de risque venant
de la distribution des rentabilités des actifs : la volatilité et
la Value-at-Risk (VaR). Ces mesures ne se concentrent pas sur les mémes
paramètres:
· La volatilité mesure les variations d'un
actif autour de la tendance centrale. En effet son expression en fonction du
vecteur des taux de rentabilités R est17 :
= E (RE(R))2
1 6 Le modèle de marché, vu dans la sous-section
précédente, n'est qu'une relation statistique utilisant la
môme notification <<bôta È,
17 Regnault nous enseigne en 1863 qu'il existe une
loi mathématique qui règle les variations
et l'écart
moyen des cours de la Bourse: L'écart des cours est en raison directe de
la racine
carrée du temps. Cette écart se définit
dans la pratique par: t. , oü t représente la
fenôtre de temps pour laquelle la volatilité Ç
historique È est calculée.
Cette mesure accorde le même poids aux gains
espérés qu'aux pertes potentielles. Or la notion de risque est
directement liée aux pertes émanant d'un actif détenu,
lequel implique un revenu aléatoire. Une mesure asymétrique
pouvant juger du risque de perte est nécessaire. La volatilité
prend donc en compte toutes les rentabilités, positives ou non,
extrêmes ou non.
· la Value-at-Risk peut se définir comme le
quantile déterminant la plus grande perte que peut subir un portefeuille
avec une probabilité d'occurrence donné sur un horizon
déterminé à l'avance : nous sommes en présence d'un
indicateur pouvant estimer le risque extrême.
Ces deux indicateurs donnent une information
différente. D'une part, la volatilité peut enregistrer un taux
élevé et seulement capturer des risques moyens, certes
significatifs, mais pas extrêmes. Tout l'enjeu d'une mesure du risque
synthétique pertinente est d'estimer convenablement la perte
éventuelle que peut subir un actif. Or un titre ' a È
peut avoir une volatilité de 10% mais ne pas observer d'extremum
très important, avec un maximum de 5% de perte sur une journée
par exemple . Au contraire, un actif ' b È comptant une
volatilité de 5%, peut conna»tre des pertes, certes rares, de plus
de 20%. Le titre ' b È nous semble donc plus risqué,
même si ses risques Ç moyens È s'avèrent
être moins importants que ceux du p remier. D'autre part,
déterminer moment 18
le risque par le d'ordre 2, la volatilité,
19 20
présu ppose que les moments suivants, le skewness et
le kurtosis , ne nécessitent pas d'être ajoutés dans une
mesure de risque viable. La théorie sous- jacente en est la
normalité des rentabilités. La loi Normale est en effet
caractérisée par les deux premiers moments. Utiliser la
Value-at-Risk permet de passer outre ces difficultés dans le sens
oü le quantile de la distribution ne représente pas un
équilibre moyen mais prend en compte les pertes extrêmes. En
outre, nous pouvons souligner le fait que la volatilité n'est
assurément pas la meilleure mesure de risque extrême. Nous
allons
1 8 Pour tout n ? N d'une variable aléatoire
réelle X est défini par mn =ö
E(Xn)
19 Le coefficient d'asymétrie (Skewness)
correspond à une mesure la distribution d'une variable aléatoire
réelle. En termes généraux, l'asymétrie d'une
distribution est positive si la queue de droite est plus longue ou
épaisse, et négative si la queue de gauche est plus longue ou
dense.
20 Le coefficient d'aplatissement ou coefficient de
Pearson (kurtosis) correspond à une mesure leptokurtique de la
distribution d'une variable aléatoire réelle.
dans cette partie étudier plus en détail cette
mesure de risque en utilisant la théorie des valeurs extremes.
I.II.1 MESURE DU RISQUE GAUSSIEN
I.II.1.1 DISTRIBUTION DE GAUSS
I.II.1.2.1 Loi des grands nombres
D'un point de vue théorique, une variable continue prend
une infinité de
valeurs à l'intérieur de son intervalle
de définition. La loi des grands
nombres compte pour ce faire
un
échantillon assez important de
variables aléatoires. En
ce sens, la
théorie des grands nombres est
simple: Si la taille de
l'échantillon est
assez importante, la moyenne
empirique de la
variable étudiée tend
vers celle théorique de somme
unitaire .
Par conséquent, considérons un
échantillon d'observation x1,
x2...xn d'une variable aléatoire
X1 ,
d'espérance u et d'écart-type finis. Des
lors, la loi des grands nombres
Nous avons alors: P(lim Mn = u) =1.
La loi
n
énonce que, quand n , l
converge en direction de u .
a moyenne empirique
+...
Mn = (x1 +
x2 + xn)
n
des grands nombres est une loi asymptotique qui assure ainsi
que la moyenne empirique est un estimateur convergent de l'espérance
mathématique.
I.II.1.2.2 Loi de Gauss
21
La loi normale fait partie de la famill e des lois continues
. Elle est associée aux noms de Carl Friedrich Gauss et de Pierre Simon
Laplace. Appelé, le théorème central limite, celui-ci
indique que la somme des variables est distribuée de facon
aléatoire et indépendante lorsque le nombre de données
dans la somme augmente. Cette loi est définie par la moyenne u
, et la
2
variance parce qu'elle est symétrique par rapport
à la tendance centrale.
Nous exprimons la fonction de densité de
probabilité de la loi normale avec X + comme:
1
P(x) =
2
|
e
|
1X m
( )2
22
|
|
La loi normale a une tendance centrale nulle et un
écart typeégale à 1.
Nous avons donc par
définitionN (0,1). Puisque P( x) =
P(x), pour toute
variable centrée et réduite, la médiane,
la moyenne et le mode sont confondus. Pour exprimer la continuité de ce
théorème, nous pouvons écrire la fonction de distribution
cumulée pour P(x) = P(X x):
x
P(x) =
P(t)dt
2 1 Une loi de probabilité est dite continue
lorsqu'elle se rapporte à une mesure de Lebesgue. Pour plus
d'explication, se référer à l'ouvrage de G. Saporta:
Ç Probabilités, analyse des données et statistiques
È.
Si les différents écarts-types pris un à
un sont dérisoire s par rapport à
l'ensemble, le
théorème de la limite centrale reste valide. La
distribution
gaussienne d'écart-type proportionnel
Nb of standard deviations
Number 4000 of data
in
interval
3000
2000
1000
0
-6.0 -4.0 -2.0 0.0 2.0 4.0 6.0
1
à représente la dif férence entre le
n
moyenne empirique Mde
n
l'échantillon et l'espérance ude la
variable aléatoire X . L'approximation
de
la moyenne théorique upar la
moyenne empirique Mn permet de
contrôler l'erreur énoncée
précédemment. La probabilité que
Mn
soit dans l'intervalle [ u t ,u + t ]
se retrouve représentée par l'aire sous
la courbe comprise
entre les abscisses t et + t . Sur les marchés
financiers, la plupart des mouvements sont inférieurs
à une fois l'écart-type. Cette mesure représente 68% des
amplitudes à la hausse comme à la baisse. 95% doivent être
à moins de deux écarts-types et 98% à moins de trois
écarts-types. Selon cette loi de probabilité, il existe
très peu de grands mouvements.
La thèse de L. Bachelier fut largement ignorée
par ses contemporains. Cependant, ses travaux furent traduits,
réédités, puis développés pour aboutir au
grand édifice de l'économie et de la finance
moderne22.
I.II.1.2 VALUE-AT-RISK CLASSIQUE
La Value at Risk est une mesure de risque statistique
popularisée dans les années 1990 par JP Morgan. La Value-at-Risk
peut se définir par la perte maximale que peut engranger un portefeuille
sur un laps de temps et un niveau de confiance donnée.Ç The
greatest benefit of Value-at-Risk lies in the imposition of a structured
methodology for critically thinking about risk. Institutions that go through
the process of computing their VAR are forced to confront their exposure to
financial risks and to set up a proper risk management function. Thus the
process of getting to Value-at-Risk may be as important as the number itself
È souligne P. Jorion dans son ouvrage: Ç Value at Risk:
The New Benchmark for Controlling Market Risks È, paru
22 Développée initialement par H.
Markowitz en 1954
23
3000
2000
0
4000
Number
of data
in
interval
1000
VaR(q)
-6.0 -4.0 -2.0 0.0 2.0 4.0 6.0
Nb of standard deviations
en 1996. P. Jorionnous enseigne que
la valeur
W!T du portefeuille est
donnée
par W exp( RT ) avec W0,
la valeur
T
initiale d'un portefeuille de titres et
R!T son taux de
rentabilité continu sur un
P'
horizon T donné par ln( ) . Dès lors,
P' 1
nous notons l'équation
W =W0 exp(R ) ,
représentant la
valeur minimale du portefeuille que l'on étudiera avec
une probabilité égale au seuil q, le seuil de risque
dont nous voulons étudier la représentativité. La valeur
de la VaR est donnée par:
W W0 =W0 exp(R
) 1
De manière plus formelle, notons f(w), la distribution
des valeurs du
portefeuille à la date T, la valeur
W* est analogue à q = f
(w)dw. A ce
w
titre, si nous notons la probabilité
p=Prob(w=W*), l'espérance
mathématique de la valeur du portefeuille se situe
au-dessus de W*, nous obtenons:
W
p = f (w)dw =1
q
23 P. Jorion est professeur de finance à
l'université de Californie à Irvine. Ingénieur de
formation, il obtient un Ph.D en Çfinance internationaleÈ
à l'université de Chicago en 1983.
28
pème
D'un point de vue économétrique ,
W* se défini t comme le percentile
de la distribution de l'échantillon à la date
T. La Value-at-Risk s'intègre pleinement dans le cadre de la
gestion de portefeuille, pouvant signifier précisément au
gérant ou aux institutions financières à quelle valeur
peut être estimée le risque économique et
réglementaire24.
I.II.2 DISTRIBUTION DES VALEURS EXTRæMES
Ç Les théoriciens classiques ressemblent
à des géomètres euclidiens qui, dans un monde
non-euclidien découvrant par l'expérience que des lignes droites
parallèles se rencontrent souvent, reprocheraient aux lignes de ne pas
rester droites - comme seule remède aux collisions malheureuses qui se
produisent. Pourtant, en vérité, il n'existe pas d'autre
remède que de se débarrasser de l'axiome des parallèles et
de travailler dans une géométrie non-euclidienne. C'est une chose
similaire qui est requise aujourd'hui en économie È
John Maynard Keynes
La théorie des valeurs extrêmes (TVE) est
étudiée dans le cadre de la recherche d'évènements
rares d'une suite de variables aléatoires indépendantes et
identiquement identifiées. L'observation des cours des actifs financiers
montre que ceux-ci sont hypothétiquement influencés par leurs
cours passés, auquel l'aléa est souvent modélisé
par un mouvement brownien géométrique. La théorie des
valeurs extrêmes est donc un cas particulier de ce mouvement.
L'intérêt concret de l'étude des extrêmes se trouve
dans l'analyse des maxima et des minima des séries statistiques
concernées.
Sur les marchés financiers, nous gardons toujours
à l'esprit les grandes crises qui ont marquées notre histoire,
poussant les actifs à atteindre des valeurs extrêmes comme pour la
crise des Subprimes. En outre, bien conna»tre la distribution maximum et
minimum se révèle être un excellent
24 Notamment avec les directives B%ole II, III.
outil d'aide à la décision, voire une
opportunité de gestion en temps de crise.
La Théorie des Valeurs Extremes s'intéresse non
pas à la modélisation totale d'une distribution mais seulement
aux queues des lois spécifiques25.
N (x)
Deux théorèmes sont indispensables pour une
bonne compréhension de la Théorie des Valeurs Extremes : celui de
Fisher- Tippet et celui de Balkema - de Haan-Picklands. Deux méthodes
principales de modé lisation des
0%
3.0 4.0 5.0 6.0 7.0
évènements rares sont possibles : La
méthode <<Block Maxima>> (BM) qui modélise la
distribution des extremes par la Generalized Extreme Value Theory (GEV)
dérivant explicitement du théorè me de Fisher-Tipett, et
la méthode <<Peaks Over Theshold>> (POT) qui modélise
la distribution des excés au-dessus d'un seuil élevé
(faisant appara»tre les queues de distribution) par la Generalized Pareto
Distribution (GPD) estimé par le théorème de Balkema-de
Haan-Picklands. Cette dernière méthode sera
modélisée en fréquence des rentabilités anormales
afin d'estimer le paramètre u de la crise des Subprimes.
I.II.2 1 ÉTUDES FONDAMENTALES
Concernant la loi faible des grands nombres, rappelons
cependant les études fondamentales permettant de lier la théorie
fondée sur le comportement asymptotique de la distribution d'une somme
de variable aléatoire et celui de la distribution du maximum et du
minimum.
25 Voir Embrechts, Kluppelberg, Mikosch et Beirlant,
Goegebeur, Segers, Teugels pour plus d'approfondissements.
Soit X une variable aléatoire appartenant au
domaine d'attraction d'une
fonction D(G ) avec (0,2) et
(bn) une suite croissante de nombre R
telle que P(X > bn) ~ 1
, F1 = X1 et Fn = max(X1,
X2,..., Xn),n > 2 , alors
n
lim P(Yn >
bnxn) = lim P(Yn >
bnxn) =1
n nP(X > bnxn) n
nP(Fn > bnxn)
Cela nous permet de conna»tre la probabilité,
pour un nombre n grand, du dépassement d'un seuil x
par l'ensemble de la composition d'une suite de n variables
aléatoires. Lorsqu'une de ces variables se présente de facon
extreme par rapport aux valeurs prises par chacun des autres
éléments de la suite, nous considérons que le seuil x
a été franchi. Ceci caractérise
l'événement rare dont nous cherchons à étudier la
distribution.
I.II.2.2 LOIS DES MAXIMA : RÉSULTAT EXACTS
Le phénomène empirique suit une marché
aléatoire, mesuré par une variable X, décrivant
l'évolution du prix d'un actif financier. La variable aléatoire
X présente la rentabilité logarithmique. Nous
dénommons
· gX la fonction de densité
notée [l, u ]
· GX la fonction de répartition
de probabilité de la variable aléatoire X. Soit X1,
X2,É, X suite de variables aléatoires aux dates 1, 2 n
. Nous
n une É,
écrivons Fn la rentabilité
maximum et fn le minimum, dont ceux-ci observées sur
n séances boursières. Dans la suite de notre
mémoire de recherche, nous traiterons les résultats ne concernant
que le maximum (Fn), car ceux obtenus au minimum
(fn) s'en déduisent en considérant la
série opposée X1, X2,...,
Xn, démontrée par l'équation
suivante:
fn(X)Min(X1,
X2,..., Xn)
= Max( X1,
X2,..., Xn) Fn(
X)
Si les cours suivent une marche aléatoire
Pt+1 = Pt + de variable
X1, X2,É,
t+1 .
Xn indépendamment, alors les
distributions du maximum Fn sont
conférées
parGFn (x) = [
GX (x)]n. Les
propriétés statistiques du maximum dépendent de
GX pour les grandes valeurs de x. En ce qui
concerne les autres valeurs de x, l'influence de
GX(x) se révèle être de moins en moins
important avec n. C'est donc dans les queues de distribution de
X, par définition synonymes d'extrême, que nous allons
nous pencher dans cette étude. Nous pouvons en déduire la forme
de la loi limite de Fn en faisant tend re n vers
l'infini et en se servant de la formule. La fonction de répartition
x < u = 0 et x > u =1 . Dans ce cas,
la loi limite est dégénérée parce qu'elle se
réduit à une masse de Dirac26 portée en
u. Toutefois, les formules présentées ci-dessus
présentent un intérêt limité. La loi de la variable
X est rarement connue précisément en pratique, ainsi que
la loi du terme maximum. Nonobstant, même si la loi de la variable X
est exactement connue, le calcule de Fn peut
être vecteur de difficulté. Dépossédée
d'expression analytique, la distribution d'une variable normale se
révèle être une intégrale incalculable.
nème
Sa puissance nous conduit à de sérieux
problèmes numériques que ce
soit pour les grandes valeurs de n ou de x.
C'est pour ces différentes raisons que nous sommes astreints à
étudier le comportement asymptotique du terme maximum
FnÕ.
Cependant, Il existe deux théorèmes distincts
capables de contourner le problème de
dégénérescence. Selon la méthode employée,
il s'agit du théorème de Fisher-Tippet et du
Théorème Balkema-de Haan-Picklands. Nous allons rentrer dans les
détails dans la section suivante.
26 Dans une masse de Dirac, mesuré a partir
d'un espace (X,) et un point a dans X, tel que A
,( a(A) =1 si a A et
a(A)=0 si a A.
I.II.3 MESURE DU RISQUE EXTRæME
I.II.3.1 THÉORéME DE FISHER-TIPPET
Théorème Fisher-Tippet:
Si pour une distribution G non connue, l'échantillon
des maxima normalisés converge en loi vers une distribution non
dégénérée, alors il est équivalent de dire
que G est dans le MDA de la GEV Hî
A partir des données de prix traitées de
façon journalière lors de la crise de Subprimes, nous supposons
avoir une suite première d'observations X1, X2,
É , Xn issue d'une fonction de distribution inconnue
F27. Cet échantillon peut être séparé en
k blocs28 disjoints de même longueur s. Les
données
X1(1),X2(1),...,X!(1),
i = 1, É, k sont de natures indépendantes et
identiquement identifiées avec comme fonction de
distribution F. Nous nous attachons à conna»tre les maxima
de ces k blocs comme:
Y S = max(X1 ,
X2 ,..., Xs )
Qui agence la base de
ce qui sera notre échantillon de données supposées
indépendante
Y!!,Y!!,...,Y,!. La loi
fondamentale à la modélisation des
maxima est la Generalized Extreme Value (GEV) définie par
la fonction de répartition suivante:
!
exp( (1+ x)
H ! (x) =
si
= 0
exp( e x)
27 A ce stade, aucune hypothèse n'est
présupposée
33
28 Un bloc peut correspondre à un mois, un an,
etc.
Oü x est tel que 1+ x > 0. est le
paramètre de forme. La GEV rassemble
trois distributions particulières:
§? Si >0, la loi de Fréchet (Type
I):
(x) = G1
k
|
x 1
( 1
|
0 x 0
) = exp( x k) x > 0
|
|
k
!
§? Si <0, la loi de Weibull (Type
II):
(x) = G
1
k
|
x 1
( 1+
|
exp( x k) x 0
) =
1 k > 0
|
|
k
|
|
§? Si =0, la loi de Gumbel (Type III):
(x)= G0(x)= exp( e
x)
|
|
|
Ainsi, nous avons exposé sur les graphiques
correspondant à chaque
itération deux
paramètres29 : Le paramètre de localisation 4u et
celui de
x u
dispersion o>0. La GEV prend alors la forme de : H !
(x) = H ! ( )
,u,
La démonstration fondamentale de la modélisation
des maximas est celui de
Fisher-Tippet30. Supposons que nous
ayons deux suites d'entiers réels tel
que a >0 et b
· tel que :
!
ai
1(Yis bi) H P {
ai 1(Y bi) y}=
Fs(aiy+bi)
H(y)
Avec H, une loi non
dégénérée.
ai 1(Yis
bi), et Pour s?8, les k maxima
normalisés. Alors, F est dans le
Çmaximum domain of attraction È (MDA)
de H, que nous pouvons écrire plus formellement
par F?MDA(H).
Fisher-Tippet montre alors que F?MDA(H) si, et seulement si,
H est du
type de H ! . La GEV est donc la seule distribution
limite non dégénérée
29 Les paramètres .i et a peuvent
également s'écrire respectivement et
30 Démontré en 1928
35
pour un échantillon de maxima normalisé. Nous
obtenons alors une méthode simple de sélection de forme F.
Le tableau ci-joint souligne quelles distributions sont associées
aux lois de la GEV.
TAB: MDA
Gumbel Fréchet Weibull
Normale Cauchy Uniforme
Exponentielle Pareto Beta
Lognormale Student
Gamma
I.II.3.1.1 Modélisation paramétrique des
maxima par blocs
La modélisation issue du théorème
Fisher-Tippet, suppose que l'échantillon de maxima suive exactement une
loi GEV.
I.II.3.1.2 Sélection de la taille des blocs
La littérature financière classique et
l'exercice des statistiques en finance ne définissent pas une dimension
standard dans la sélection des blocs. Il faut cependant que s
soit de taille suffisamment importante pour que la condition asymptotique
vue précédemment soit considérée.
L'ingénierie financière dans les faits prend en compte un nombre
de maxima caractéristique pour que l'estimation des paramètres de
la GEV soit assez précise. Il est donc usuel de prendre s = 21,
soit un mois boursier, ou s = 254, soit un an.
I.II.3.1.3 Estimation du modèle BM par le
maximum de vraisemblance
C'est à partir de l'échantillon lié
à la sélection des maximas précédente que nous
pouvons estimer les paramètres de la GEV. La méthode
utilisée pour l'évaluation du modèle BM se
réfère au maximum de vraisemblance initié pour la
première fois par Fisher au début du siècle dernier. Soit
l'échantillon
de maxima supposé indépendant
Y=(Y1,Y2,...,Yk) et h! , la densité de
,u,
x u !
la loi GEV H ! (x) = H ! ( ) pour ?0
:
,u,
1 ! Y u
h! (y) = 1+ ( )
,u,
|
!
1+
!
exp 1+
|
! y u
( )
|
1 !
|
|
|
"
La vraisemblance de l'échantillon Y est : !(
|
n
,u, ,Y)= h"
(Yi)
,u,
i=1
|
. Il fait
|
|
31
appel à des procédures numériques pour la
maximisation de la
vraisemblance. Il est alors aisé de calculer les
estimateurs dans le cadre de la
loi des grands nombres. En revanche, il est
difficile de donner un estimateur
asymptotique efficace et normal, particulièrement
lorsque l'échantillon est
!
de petite taille. R. Smith32 montre qu'il suffit
que =-0.5 pour que les
états de régularité du maximum de
vraisemblance soient conformes. Pour le
!
cas oü = 0, la log-vraisemblance est égale
à:
n Yi /1
l(0,/1, ,Y)= nln exp(
i= 1
|
nYi /1
)
i=1
|
|
Plus précisément, en dérivant cette
fonction afin de mettre en scène les deux paramètres
exposés antérieurement nous obtenons le système
d'équations suivant.
3 1 En réalité l'Algorithme de quasi-Newton
32 Dans son ouvrage: ÇExtreme Value Analysis
of environnemental Time series: an Application to Trend Detection of
Ground-Level ZoneÈ
37
Il est à noter pour conclure qu'il n'existe pas de
solution à ces équations de maximisation33.
) = 0
n Yi u
n exp(
i =1
n+
|
n
|
Yi u
|
Yi u
exp( ) 1 = 0
|
|
i= 1
3 3 Utilisation de méthodes numériques, type
algorithmes de Newton-Raphson
I.II.3.2 THÉORéME DE BALKEMA-DE
HAAN-PICKLANDS
Théorème Balkema-de Haan-Picklands:
Il s'en déduit que
la distribution des excès
au-dessus d'un seuil élevé converge
vers la GPD G!? lorsque le seuil tend vers la
lmite
,!(!)
supérieure du support de G.
Supposons que X1, X2, É,
Xn sont des variables aléatoires de prix
indépendantes appartenant à une distribution appelée
F(X). Soit xF, l'extrémité finie ou infinie de
la distribution F. Alors, la fonction de distribution dépassant
Xi après un seuil donné u, quand y =
0, est donné par:
y
Fu(y) = P(X u X
> u
|
+
= F(y u)
F(u)
1 F(u)
|
|
Belkema et de Haan en 1974, ou encore Pickands en 1975, ont
théorisé la fonction de Pareto généralisée
en montrant qu'elle s'apparente à une distribution limite F
u(y) quand le seuil u tend vers
l'extrémité de la fonction. Il s'agit d'une découverte
statistique majeure. Si F ? MDA (Hî), il est alors possible de
trouver une fonction positive mesurable par f.?(u) de telle sorte
que :
lim >
u xF
= 0
Fu(y) G !
(u)(y)
Pour 0=y=XF-u, ou G ! (u)(y)
correspond à la distribution Pareto
G ! (U)(Y) =
,
|
!'
1 (1+ )
(u)
!y
1 exp( )
(u)
|
si si
|
0
= 0
|
|
Ou y=0 pour î?=0 et
0=y=-!(!)!? pour î?<0.
Néanmoins, le choix
du seuil u est primordial pour la réussite de
cet exercice de modélisation de la distribution Pareto
généralisée. Comme pour le test de fréquence
anormale, oü nous devions choisir préalablement une fenétre
de test de plus ou moins longue distance, la valeur représentative est
généralement choisie en fonction d'un compromis, capable de
biaiser l'étude.
kA se révele etre un parametre de forme particulierement
important, quant à
ig(u), il s'apparente à un
parametre d'échelle. Nous pouvons des à
présent
émettre une conc ordance avec le
théoreme
précédant, respectivement p
et a. La GPD integre par sa
particularité d'autres formes de distribution. En
considérant que kA > 0, la version paramétrique de G se
rapporte à la distribution originaire de Pareto, laquelle est souvent
utilisée en actuariat dans l'approche des
probabilités d'erreurs. Vilfredo
Pareto34
décrivit la répartition de la
richesse selon la notation
suivante:
P(u) = (u / m) . En outre,
Quelle est la proportion P des ménages gagnant
plus qu'un niveau de revenu u? V. Pareto estimait -!
à -3/2. La puissance est donc en premier lieu élevée au
cube puis à la racine carrée divisé par 1. Ceci fut la
base des premières lois a-stable de Paul Lévy35,
repris quelques années plus tard par B. Mandelbrot36 dans son
étude sur les variations du prix du coton. A contrario, si kA < 0
prend la forme d'une loi de Gumbel. Enfin, lorsque kA = 0, sa correspondante
est une distribution exponentielle.
Le premier cas (kA > 0) se retrouve pertinent dans le cadre
d'une distribution
réelle possédant des queues de distribution
épaisses. Les estimations de kA
et de )6(u) sont calculées à partir
de l'expression G!?,!(u)y par la méthode
du maximum de vraisemblance37. Lorsque kA > 0.5,
Hosting et Wallis
34 Né en 1848, V. Pareto était un
industriel, un économiste et un sociologue italien. Son héritage
en tant qu'économiste fut ample, particulierement en terme de recherches
scientifiques et d'équations mathématiques, recourant de manieres
intensives aux données. Son étude la plus connue concerne la
répartition de la richesse correspondant à une loi de
puissance.
35 Paul. Lévy, né en 1886, est un
mathématicien frangais. Il fait partie des fondateurs modernes des
probabilités. On lui doit les lois stables stochastiques : « La
distribution de Lévy ». Il fut professeur à l'école
polytechnique et enseigna les probabilités à B. Mandelbrot.
36 Né en 1924 à Varsovie, B.
Mandelbrot fut professeur de mathématiques à l'Université
Yale et membre émérite du « Thomas L. Watson Laboratory
» d'IBM. Il a notamment publié « Les objets fractales
»
37 Nous pouvons nous conférer à
l'étude d'Embrechts paru en 1997.
montrent que l'estimation tirée du maximum de
vraisemblance tend à être asymptotiquement normalement
distribué.
I.II.3.2.1 Modélisation paramétrique de
la distribution des excès
Cette modélisation de queue de distribution engage un
échantillon au-dessus du seuil u, lequel conduit à une
forme de loi GPD.
Dans la littérature financière et statistique,
les méthodes utilisées reposent sur le comportement graphique des
valeurs considérées supérieures à un seuil
donné. Cette méthode porte le nom de Ç
Peak-Over-Threshold È. Initialement développé par
Picklands en 1975, ce concept fut étudié par de nombreux
auteurs38. Cependant, cette méthode reste arbitraire. En
réalité, u, doit être assez grand pour que
l'estimation de la distribution de Pareto généralisée soit
valide, mais pas trop
élevée pour garder une certaine cohérence
avec le modèle. Cet arbitrage est
analogue à la méthode BM vue
postérieurement.
3 8 Tel que Smith en 1987, Davison et Smith en 1990 ou Reiss et
Thomas en 2001, pour ne citer qu'eux.
I.II.3.2.2 Estimation du modèle de seuil par le
maximum de vraisemblance
Supposons que notre échantillon des
excès !=(!!,!!,...,!!U) est
indépendante et identiquement
identifiée avec comme fonction de
distribution la
GPD. La fonction de
densité g de G est alors pour
î??0 :
1
1 x 1
g(x) = (1+ ) .
Nous pouvons dès lors estimer la log-
vraisemblance:
N u
1
l( , , X)= Nu ln ( +1)
ln(1+
i= 1
|
Xi). Hosking et Wallis montre que
|
|
lorsque nous dérivons et , nous obtenons les
équations de
maximisation à partir desquelles nous calculons les
estimateurs du maximum de vraisemblance.
I.II.3.3 4 VALUE-AT-RISK EXTREME
Nous pouvons reconna»tre qu'il existe une similitude
certaine entre le concept de Value-at-Risk et la méthode d'approche des
queues de distribution des lois de valeurs extrêmes. Unir ensemble ces
deux fondements pourrait indubitablement donner un véritable outil de
contrôle du risque. Formulé précédemment, la
propriété des extrêmes peut être faite de deux facons
distinctes:
· Par la méthode des maximums d'une série de
variable aléatoire dans le temps : La méthode BM
· Par la méthode du seuil en prenant l'ensemble des
valeurs se situant
entre [#177;u; #177;8] : La méthode POT
Dans ce papier de recherche, nous utilisons la dernière
méthode énoncée qui
représente la plus
récente, mais aussi la plus efficace des méthodes connues
43
sur ce sujet. De plus, ce modèle se révèle
être pratique dans le fait qu'il considère un nombre limité
de donnée.
Afin de construire le modèle de Pareto
généralisée, nous allons donner un
seuil u
important. Soit Y1, Y2, É,
Yn, les données supérieures au seuil
défini
comme Y1=X -u. Belkema et de Haan en 1974 comme Picklands
en
1975 nous enseignent que F!y=G!,13 y est une estimation
assez
importante de u. A partir de !!y, prenons
x=u+y, nous pouvons
approximer F(x), pour x > u.
Nous obtenons :
F(x) = (1 F(u))G
F(u)
^, (u)(y)+
La fonction F(u) peut être
estimée empiriquement de facon nonparamétrique par la fonction de
distribution cumulative:
n
öF(u) Nu
=
n
Oü N représente le nombre d'occurrence
supérieure au seuil u et n
l'échantillon. En corroborant G!,! y et Fu à Fx,
nous pouvons ainsi
écrire:
ö
ö
ö
xu
ö
(
)
N u
F x
ö ( ) 1
= 1 +
1
n
Les paramètres î et f.? sont estimés
à partir de î et f.? respectivement, obtenus
à partir du maximum de vraisemblance.
44
Pour q > F(u), la VaRq peut
être calculé en résolvant x :
VaRq = uö +
|
ö nö
( (1 q) ) 1
ö Nu
|
|
Dans lequel u est le seuil défini, f.? est
l'estimation du paramètre d'échelle et î est l'estimation
du paramètre de localisation.
Le principal avantage de cette mesure non-paramétrique
réside dans le fait
0.4 qu'elle se concentre exclusivement sur
VaR(q) VaR 1/2(1-q)
les queues de distribution. Cependant, 0.35 nous pouvons en
conclure que cette 0.3 méthode ne considère pas les
0.25 rendements comme indépendants et 0.2 identiquement
distribués les uns des 0.15 autres.
0.1
0.05 0
45
II. SECTION EMPIRIQUE
Ce mémoire de recherche appliquée fut
réalisé à partir de données diffusées sur
Bloomberg®. L'estimation des taux de rentabilités anormales et le
calcul des lois de valeurs extremes appliquées à la Value-at-Risk
font l'objet de deux sous-parties. Nous distinguerons donc d'une part
l'estimation des fréquences anormales, représentant sta
tistiquement l'état de crise, et d'autre part la performance
ajustée du risque liée aux valeurs extremes.
II.I MESURE DES FRÉQUENCES ANORMALES
II.I.1 PROCESSUS
Nous nous sommes intéressés aux cours
journaliers spot des 30 valeurs composant le Dow Jones Industrial Average. La
première chronique dans laquelle nous calculons les taux de
rentabilités normales avant crise couvre la période du 13/06/2006
au 15/06/2007, soit 7 620 observations alors que la deuxième, d'oü
sont évaluées les renta bilités anormales, se
déploie sur une période allant du 02/07/2007 au 01/02/2010, soit
19 560 observations. Nous aurons donc à étudier 27 180
données totales.
Ce choix est justifié pour trois raisons:
· La période d'échantillonnage avant
crise représente une année boursière. Plus le nombre
d'observations augmente, plus la représentation graphique de la variance
s'aplatira, ce qui aura pour effet de donner une
39
volatilité moyenne biaisée , que l'on utilise
l'un ou l'autre des modèles .
3 9 Nous avons étudié le modèle de moyenne
et le modèle de marché. Pour plus d'information, voir section
I.I.2.1 Modèles théoriques
Il est justifié d'user de pragmatisme quant à
la précision et la représentation des données
utilisées. De plus, il serait hâtif de se précipiter sur un
nombre de données plus important dans le sens oü il n'est pas
très adéquate d'y incorporer l'instabilité de variance
dü à une autre crise antérieure.
· Les tests de cohérence statistiques ont tous
pour particularités d'être asymptotiquement normales avec N
~ (0, 1). Cette convergence est qualifiée à partir du moment
oü le nombre de jours post-crise est grand et que le nombre N de
valeur étudiée est supérieur ou égal à
3040. Ainsi, les 30 valeurs du DJIA et le nombre important de
données sont en accord avec les statisticiens.
· Pour des raisons de programmation en Visual Basic,
nous avons préféré laisser un espace-temps de 10
séances boursières entre la période de temps dite normale
et celle de la crise des Subprimes. Ce laps de temps fut fixé de facon
arbitraire.
· La crise des Subprimes a véritablement
commencé entre juillet et aoüt 2007. Pour des raisons de
cohérence et parce que les experts semblent divergents quant à la
date précise de commencement
de la crise, et parce que cela ne peut être absolument
incontestable, notre étude commence le 02/07/2007 et fini début
2010. Il s'agit d'une période particulièrement volatile sur
l'ensemble des marchés financiers, ce qui nous conforte dans le choix de
cet échantillonnage.
40 Ces indications ont été mises en
place par Brown, Warner, Pattel et Boehmer afin d'assurer la fiabilité
et la robustesse de l'étude.
6/13/2006 6/13/2007 6/13/2008 6/13/2009 6/13/2010
N A (T)
Statistiques préliminaires
Nous avons réalisé une étude statistique
préalable sur 4 titres de natures différentes, afin de mieux
appréhender nos rentabilités anormales. Nous allons
étudier 651 observations par titre, du 02/07/2007 au 01/01/2010, soit 2
604 données. Impacté par la crise des Subprimes et par une forte
volatilité des cours, nous avons sélectionné:
· Le DJIA
· Bank Of America
· IBM
· Exxon
Le DJIA est calculé en fonction de la moyenne des
fluctuations des 30 titres le composant. Il peut être un bon indicateur
de moyenne pour l'ensemble du marché. Cependant, ces variations sont par
définition lissées en fonction des différentes
sensibilités des titres concernés. Bank Of America, IBM et Exxon
ont été choisis d'une part, par leur importance en terme de
capitalisation et d'autre part, par leurs différences sectorielles les
unes des
autres. Nous avons donc un échantillon restreint, mais
représentatif du marché américain. Les tableau x
ci-dessous permettent de résumer les principaux états
statistiques des différents titres :
TAB 1: Statistiques DJIA
Rentabilités Rentabilités
Rentabilités de
anormales normales l'étude
Stat.
Distr.
Ecart (A)
Stat.
Distr.
Nobs Moyenne
Médiane Ecart-Type Maximum Minimum
Skewness
Kurtosis
Jarque-Bera
AMoyenne - Médiane
AN(x) Moyenne
AN(x) Ecart-Type
AN(x) Skewness
AN(x) Kurtosis
TAB 2: Statistiques BOfA
Nobs Moyenne
Médiane Ecart-Type Maximum Minimum
Skewness
Kurtosis
Jarque-Bera
AMoyenne - Médiane
AN(x) Moyenne
AN(x) Ecart-Type
AN(x) Skewness
AN(x) Kurtosis
651 -0,04% 0,03% 1,84% 10,51% -8,20%
|
253 0,09% 0,08% 0,62% 1,96% -3,35%
|
905 -0,01% 0,06% 1,59% 10,51% -8,20%
|
0,11355
|
-0,62499
|
0,05665
|
5,39216
|
4,05181
|
7,67157
|
1,57E+02
|
2,81E+01
|
8,23E+02
|
-0,08%
|
0,01%
|
-0,06%
|
0,044%
|
-0,090%
|
0,008%
|
-0,837%
|
0,378%
|
-0,593%
|
-0,11355
|
0,62499
|
-0,05665
|
-2,39216
|
-1,05181
|
-4,67157
|
|
|
|
Rentabilités
|
Rentabilités
|
Rentabilités de
|
anormales
|
normales
|
l'étude
|
651
|
253
|
905
|
-0,17%
|
0,03%
|
-0,12%
|
-0,13%
|
0,06%
|
-0,04%
|
6,26%
|
0,83%
|
5,33%
|
30,21%
|
3,07%
|
30,21%
|
-34,21%
|
-3,84%
|
-34,21%
|
-0,11217
|
-0,21515
|
-0,15918
|
6,87582
|
3,31565
|
10,53018
|
4,09E+02
|
3,00E+00
|
2,14E+03
|
-0,04%
|
-0,03%
|
-0,09%
|
0,174%
|
-0,033%
|
0,123%
|
-5,261%
|
0,172%
|
-4,327%
|
0,11217
|
0,21515
|
0,15918
|
-3,87582
|
-0,31565
|
-7,53018
|
|
Ecart (A)
49
TAB 3: Statistiques IBM
Nobs Moyenne
Médiane Ecart-Type Maximum Minimum
Skewness
Kurtosis
Jarque-Bera
AMoyenne - Médiane
AN(x) Moyenne
AN(x) Ecart -Type
AN(x) Skewness
AN(x)Kurtosis
Stat.
Distr.
Ecart (A)
TAB 4: Statistiques Exxon
Nobs Moyenne
Médiane Ecart-Type Maximum Minimum
Skewness
Kurtosis
Jarque-Bera
Ecart (A)
|
AMoyenne - Médiane
AN(x) Moyenne
AN(x) Ecart-Type
AN(x) Skewness
AN(x) Kurtosis
|
|
Stat.
Distr.
Rentabilités anormales
Rentabilités normales
|
Rentabilités de
l'étude
|
651 0,04% 0,05% 1,93% 10,90% -6,10%
|
253 0,16% 0,08% 1,13% 8,96% -3,35%
|
905 0,06% 0,06% 1,73% 10,90% -6,10%
|
0,22614
|
1,80300
|
0,28681
|
3,11525
|
14,92480
|
4,51118
|
5,91E+00
|
1,64E+03
|
9,85E+01
|
-0,02%
|
0,08%
|
0,00%
|
-0,037%
|
-0,156%
|
-0,062%
|
-0,934%
|
-0,127%
|
-0,732%
|
-0,22614
|
-1,80300
|
-0,28681
|
-0,11525
|
-11,92480
|
-1,51118
|
|
|
|
Rentabilités
|
Rentabilités
|
Rentabilités de
|
anormales
|
normales
|
l'étude
|
651
|
253
|
905
|
-0,04%
|
0,17%
|
0,02%
|
-0,01%
|
0,20%
|
0,06%
|
2,39%
|
1,21%
|
2,13%
|
15,86%
|
3,64%
|
15,86%
|
-15,03%
|
-4,85%
|
-15,03%
|
0,17919
|
-0,39195
|
0,11030
|
9,46848
|
0,84258
|
11,30631
|
1,14E+03
|
5,55E+01
|
2,60E+03
|
-0,02%
|
-0,03%
|
-0,04%
|
0,036%
|
-0,172%
|
-0,019%
|
-1,387%
|
-0,211%
|
-1,126%
|
-0,17919
|
0,39195
|
-0,11030
|
-6,46848
|
2,15742
|
-8,30631
|
|
Nous pouvons établir plusieurs commentaires:
· La loi normale standard défend l'idée
que la moyenne et la médiane sont confondues. Il existe une
différence de 0.08 pour DJIA montrant que les
50
critères ne sont pas respectés. Il en va de
méme pour les autres titres présentés.
§? L'écart-type moyen ne para» t pas
très élevé. Pourtant, nous assistons à des extremes
importants:
· DJIA: De +10.51% pour le maximum et de -8.20% pour le
minimum
· Bank Of America : De +30.21% pour le maximum et de
-34.21% pour le minimum
· IBM: De +10.90% pour le maximum et de -6.10% pour le
minimum
· Exxon: De +15.86% pour le maximum et de -15.03% pour le
minimum
§? Il est intéressant de noter que les mesures
d'asymétrie (Skewness) et d'aplatissement (Kurtosis), sous
l'hypothèse de normalité, prennent respectivement les valeurs 0
et 3. Ici, ces deux paramètres sont respectivement ?0 et >3, laissant
apparaitre un caractère leptokurtique des cours et la formation
empirique de queue de distribution épaisse par rapport à la loi
normale. Le skewness est positif pour l'ensemble des titres à
l'exception de Bank of America, montrant qu'il y a une quantité
importante de petits mouvements à la hausse et de grands
déplacements à la baisse.
· Le test de normalité de
Jarque-Bera41 est différent de 0 pour
l'intégralité des valeurs. Il rejette donc l'hypothèse
nulle de normalité pour n'importe quel niveau de pertinence.
En résumé, cette première étape
nous permet de rejeter l'hypothèse de normalité et de comprendre
qu'il existe effectivement des extremes conséquents.
4 1 Le test de Jarque Bera cherche à déterminer si
une suite de variables aléatoires suit une
2
loi de distribution normale. Cette statistique suit
asymptotiquement une loi du ֈ deux
!!!
6(s +!!!!!),
degrés de liberté. Nous avons JB= ou n
est le nombre d'observations, k
le nombre de variables explicatives, s le skewness
(moment d'ordre 3 d'une variable centrée-réduite) et K
le kurtosis (moment d'ordre 4 d'une variable
centrée-réduite). La statistique de JB indique qu'une suite de
variable suit une loi normale lorsqu'elle s'approche de 0.
II.I.2 TAUX DE RENTABILITÉS NORMALES ET
ANORMALES
II.I.2.1 FRÉQUENCES NORMALES
180 La période post-crise fut faste pour les
investisseurs. D'un point de vue
160
macroéconomique, on constate une
140
hausse de la liquidité au niveau
120
100 2007, le rapport entre la masse
80 monétaire et le PIB se situe à
30%,
60 alors qu'entre 1980 et 2000, celui-ci
40 n'était que de 18% à 20%. En l'espace
de 6 années, il augmente donc de 10 à
20
12%. Sous l'égide des différentes
6/13/06 8/13/06 10/13/06 12/13/06 2/13/07 4/13/07 6/13/07
0
Enron
11 Sept. 2001
1/3/00 1/3/03 1/3/06 1/3/09
V2X Index VIX Index
Subprimes
Corée du
Nord
100
90
80
70
60
50
40
30
20
10
0
52
banques centrales, garant de la stabilité des prix,
cette liquidité abondante n'a pas entra»né d'inflation. Bien
entendu, si toutes ces liquidités n'ont aucun effet sur les prix des
biens et des services, elles en ont sur les prix des actifs dont l'offre est
peu importante. Cet aspect, associé à une baisse des indicateurs
de risque, tel que la prime de risque ou la volatilité implicite,
majoré d'une forte croissance mondiale, a eu pour conséquence la
hausse des cours de bourse, notamment du DJIA. En outre, nous constatons le
parcours linéaire croissant des 30 titres du DJIA sur la période
énoncé précédemment.
Bien que la crise des Subprimes émane sans doute de
cette apparente stabilité, c'est dans un climat avantageux que nous
calculons nos rentabilités dites << normales È, qui ne
dévoilent pas de perturbations apparentes.
II.I.2.2 FRÉQUENCES ANORMALES
180
160
La crise des Subprimes démarre durant
l'été 2007 aux États-Unis. Celle-ci remet en cause
fondamentalement le système bancaire dans son ensemble.
140
120
100 Le problème se trouve dans la capacité
des établissements
80 financiers à gérer
leurs risques, tant dans leurs transferts
60
que dans le suivi qui en découle.
40
D'autre part, l'octroi de crédit
20
hypothécaire à une clientèle non-
7/2/07 11/2/07 3/2/08 7/2/08 11/2/08 3/2/09 7/2/09 11/2/09
3/2/10 7/2/10 11/2/10 solvable a mis à mal la titrisation
dépourvu de fonds propres. C'est aussi le
fonctionnement même des agences de notation qui semble être
problématique. Cette crise mondiale fut liée aux crédits
hypothécaires à risque aux États-Unis, ne
représentant pourtant qu'un marché de 1000 milliards de dollars.
Nous pouvons visualiser, en base 100, l'impact qu'a eu cette crise sur les
cours des 30 titres composants le DJIA. La crise des Subprimes se
révèle être complexe dans les faits. Nous allons dans cette
étude exprimer des résultats quantitatifs pouvant,
peut-être, donner une réponse quant à l'origine de cette
crise, à posteriori. Pour plus d'informations, nous vous invitons
à consulter le rapport du conseil d'analyse
économique42.
42 Rapport écrit par P. Artus, J-P
Betbèze, C. Boissieu et G. Capelle-Blancard, intitulé: «La
crise des subprimes» publié par <<La documentation
françaiseÈ en 2008. Celui-ci donne une analyse complète de
la situation micro et macro-économique de la crise des subprimes.
II.I.3 RÉSULTAT DES FRÉQUENCES
ANORMALES
II.I.3.1 RENTABILITÉS ANORMALES
STATIONNAIRES
Les résultats produits par chacun des modèles
sont intéressants. Il est à noter qu'il existe peu de
différence entre les résultats tirés des deux
modèles d'un point de vue globale, bien que le modèle de
marché semble, à première vue, apporter un appoint
d'information manifeste lié à la sensibilité des titres
par rapport à leur indice de référence. Dans le cadre d'un
travail de simulation, Brown et Warner aboutissent à la méme
interprétation lorsqu'ils comparent la force des deux modèles.
Nous avons donc un modèle de moyenne donnant -82.80% et
un modèle de marché estimé à 82.95%, soit 0.15% de
différence.
Il existe cependant des rentabilités proches de la
normalité, comme l'atteste le graphique présenté
ci-dessous :
-0.5%
-1.0%
0.5%
0.0%
1.0%
15.0%
10.0%
5.0%
0.0%
-5.0%
-10.0%
-15.0%
Rentabilité anormale
Rentabilité anormale
Cependant, en ce qui concerne la réaction des cours
dans leur globalité, les résultats nous prouvent statistiquement
que nous sommes bien sur une période d'instabilité. Comme en
atteste la majorité des rentabilités anormales significativement
différentes de 0.
II.I.3.2 RENTABILITÉS ANORMALES
CUMULÉES
Ce test exprime l'écart-type des fluctuations des
cours lié à la perturbation des rentabilités anormales.
Nous avons ici un pic, partant du début de l'expérience jusqu'au
3/10/2009, lequel enregistre un taux anormalement bas cumulé de
-115,20%.
20.0%
0.0%
10.0%
15.0%
-20.0%
5.0%
-40.0%
-60.0%
-115,20%
7/2/07 2/2/08 9/2/08 4/2/09 11/2/09
RAC Rentabilité
anormale
-80.0%
-100.0%
-120.0%
-140.0%
0.0%
-5.0%
-10.0%
-15.0%
P&L
Les rentabilités anormales progressent
de facon
croissante jusqu'au point bas
puis semblent stagner jus qu'à la fin
de
95%
10.00%
5.00%
l'étude. Le retour vers la normalité 2.5%
semble loin. Les stratégies basées sur
0.00% le retour à la moyenne (mean-
-5.00%
2.5%
Rentabilité anormale
reversion-model) semblent être difficile à
réaliser. Ce test montre que -10.00% les anormalités ont
été statistiquement multipliées par 5 au sommet de la
crise. Les statistiques préliminaires nous ont informés de la
non-normalité
des cours étudiés. Nous en avons ici un exemple
plus concret.
55
II.I.4 TEST DE SIGNIFICATIVITÉ
Il convient de noter par ailleurs que les trois statistiques
de représentativité
fournissent des conclusions globalement
convergentes. Celles-ci deviennent
de plus en plus significative au milieu
1.00 de
l'étude, autour du 3/10/2009, date à
laquelle les rentabilités anormales
0.50
cumulées sont les plus importantes. Il
existe cependant plusieurs phases
0.00 quant à la
validité de ce test. Certaines
valeurs semblent être plus
-0.50 significatives que d'autres. Les statistiques proches
de 0, comprises entre [ -1 ; 1], rejette nt l'hypothèse
-1.00
8/6/07 1/3/08 6/1/08 10/29/08 3/28/09 8/25/09
Test de Brown et Warner
Test de Boehmer Musumeci et Poulsen
Test de Pattel
d'anomalie statistique. D'autres sont,
sans nul doute,
incontestables au seuil
de [-10 ; -50] et [10; 60]. Cela nous laisse penser qu'il y a
des mouvements plus calmes et d'autres plus agités.
60.00
40.00 20.00 0.00 -20.00 -40.00
|
|
|
-60.00
8/6/07 1/3/08 6/1/08 10/29/08 3/28/09 8/25/09
Test de Brown et Warner
|
Test de Pattel
|
Test de Boehmer Musumeci et Poulsen
|
56
|
|
60.00 55.00 50.00 45.00 40.00
|
|
-10.00 -15.00 -20.00 -25.00
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
20.00 15.00
|
|
|
10.00
|
|
|
Test de Brown et Test de Test de Boehmer Warner Pattel Musumeci
et Poulsen
La statistique fréquentielle de Boehmer, ayant une
propension plus importante à accepter l'hypothèse selon laquelle
les rentabilités anormales sont nulles , est distinctement
supérieure de 0, élevé à 10.69 et 10.77 en valeur
absolue, respectivement pour le modèle de moyenne et celui de
marché. Ce tableau résume les observations menées dans
cette étude:
TAB 5: Fréquences anormales
|
|
|
|
|
|
|
Nobs
|
Moy
|
Ecart type
|
Max
|
Min
|
Modèle de moyenne
|
Modèle de marché
|
Rentabilités
|
|
|
|
|
|
|
|
anormales
|
19560
|
0%
|
2,02%
|
11%
|
-9%
|
-83.80%
|
-83.95%
|
Test de Brown et
|
|
|
|
|
|
|
|
Warner
|
19560
|
-0,59
|
9,4
|
50,29
|
-43,75
|
-15,11
|
-15,19
|
Test de Pattel
|
19560
|
-0,6
|
10,01
|
52,27
|
-47,06
|
-15,43
|
-15,5
|
Test de Boehmer
|
19560
|
-0,41
|
5,05
|
19,15
|
-13,54
|
-10,69
|
-10,77
|
RAC
|
19560
|
-52%
|
34%
|
3%
|
-115%
|
|
|
BWC
|
19560
|
-239,98
|
157,29
|
14,35
|
-536,74
|
|
|
PC
|
19560
|
-245,55
|
163,15
|
13,68
|
-562,12
|
|
|
BC
|
19560
|
-170,67
|
107,6
|
19,08
|
-315,39
|
|
|
|
Ce test est par conséquent concluant dans sa
globalité. Les rentabilités anormales calculées
précédemment montrent l'ampleur de la crise des Subprimes et la
nécessité d'instaurer une politique de mesure du risque viable.
Il nous montre également qu'il existe des taux de rentabilités
extremes dont la distribution asymptotique normale ne prévoit pas les
effets.
II.II. THÉORIE DES VALEURS EXTRæMES
ET VALUE-AT-RISK
V. s'intéresse XIX e
Pareto à la fin du siècle à la distribution
des revenus
dans la société. Il en conclut que la
société humaine est fondée sur une loi mathématique
de forme décroissante, dans laquelle la distribution statistique prend
une forme hyperbolique, laissant appara»tre des queues épaisses.
Nous avons pu souligner l'importance des lois issues de la famille
Çparétienne È, dont les applications en sciences sociales
sont croissantes au fil des années. L'abondante littérature
disponible sur le sujet en témoigne.
Le succès rencontré par ces lois nous a
incités à examiner leur apport sur le marché du DJIA en
période de crise des Subprimes. Cette application met en perspective
différents raisonnements en termes de rentabilité ajustée
du risque sur le marché des actions. La performance d'un investisseur
sur une période donnée est souvent liée à quelques
journées exceptionnelles. La distribution empirique de forme
leptokurtique en témoignant (La grande majorité des cours se
concentre vers la moyenne historique proche de 0). La plupart des
journées d'activité ne contribue donc que marginalement au
résultat. Les activités de marché témoignent d'une
forte instabilité, révélant des mouvements violents et
soudains. C'est dans cet état statistique, oü le nombre de
rentabilités anormale s est important, que nous pouvons parler de crise.
La réalité erratique des cour s de bourse est quantifiable. Nous
allons donner une image de cette réalité statistique dans un
premier temps avant de calculer notre loi de valeurs extremes.
II.II.1 ANALOGIE STATISTIQUE DE LA DISTRIBUTION DES
RENDEMENTS ET MAXIMUM DE VRAISEMBLANCE
Cette section a pour objet d'exposer la
100000% Distribution logarithmique du DJIA
100% Lorsque la loi de valeurs extrêmes est
-10.8 -7.5 -4.2 -0.8 2.5 5.8 9.2
DJIA
identifiée, les conditions de distribution
théorique peuvent être utilisées pour obtenir le type de
loi limite. Nous avons pu cons tater dans la section théorique que
certaine s lois convergent vers différentes lois parente s. En effet,
les lois à support borné, comme la loi uniforme,
appartienne nt au domaine d'attraction maximum de Weibull,
avec î?>0.
Les lois dont les queues décroissent de facon
exponentielle appartiennent au
MDA de Gumbel, avec î?=0. Nous pouvons citer
à ce titre la loi normale
et la loi exponentielle. Le s lois dont le paramètre
de libe rté est égal à î?, faisan t
appara» tre des queues de distribution épaisse s appartiennent,
comme la loi de student ou celle de Pareto, au MDA de Fréchet. Dans cet
exercice, nous avons choisi d'analyser quatre lois théoriques :
· La loi normale
· La loi de Laplace
· La loi de Pareto
·
59
La loi de student
II.II.1.1 ANALOGIE STATISTIQUE DE LA DISTRIBUTION DES
RENDEMENTS
II.II.1.1.1 Comportement limite de la loi
exponentielle
-10.8 -7.5 -4.2 -0.8 2.5 5.8 9.2
Laplace
-10.8 -7.5 -4.2 -0.8 2.5 5.8 9.2
DJIA LAPLACE
GUMBEL
100000%
Normale
100000%
DJIA NORMAL
10000%
1000%
100%
10000%
1000%
100%
100000%
10000%
1000%
100%
Student
Pareto
-10.8 -7.5 -4.2 -0.8 2.5 5.8 9.2
DJIA PARETO
-10.8 -7.5 -4.2 -0.8 2.5 5.8 9.2
DJIA STUDENT
100000%
10000%
1000%
100%
FRECHET
La fonction de répartition de la loi exponentielle de
paramètre A.=1 est
x
F(x) =1 e pour x=0. Avec b log(n) et
a =1, nous pouvons
résoudre l'équation donnée par le
théorème de Fisher-Tippet avec :
60
MESURE DU RISQUE DE MARCHÉ ET THÉORIE DES
VALEURS EXTRæMES
Fn (anx +
bn) = (1 --
e-x-k'g(n))n
)n
e-x
Fn(anx +
bn) = (1
n
Fn (anx + bn)
--> exp { --e -x}
Fn(anx +
bn) =
La loi de Laplace, ici représentée, et une loi
double exponentielle car sa densité peuvent etre vue comme l'association
de deux lois exponentielles indépendantes, situées de part et
d'autre de la tendance centrale.
Le maximum normalisé et le MDA de la loi exponentielle
convergent vers une loi de Gumbel. C'est pour cette raison que la loi de Gumbel
est aussi appelée « loi de type exponentiel ».
Prenons le théoreme de Balkema-de Haan-Picklands, en
prenant iu.=1, oil
u correspond au seuil défini. Alors :
Fu(y)= F(u + y)
-- F(u)
y 0
e
=
u e-u -y
eu
1 F(u)
Fu(y)= F(u+
y) F(u)
F(u)
1
Fu(y)= F(u+
y) F(u)
1 F(u)
|
= 1 -- e-y
|
|
Par conséquent, pour tout y>0, la GPD s'accorde
à etre une loi exacte
pour tout u pour le parametre î?=0
avec iu.=1.
Nous pouvons constater une nette amélioration
graphique entre le DJIA et la loi de probabilité concernée. Nous
retenons donc la loi de Laplace pour cette raison.
61
II.II.1.1.2 Comportement limite de la loi de
Pareto
La fonction de répartition de Pareto s'écrit
F(U) =1 Um , oü U > 0 et
!
a>0. Pour le théorème des BM, nous posons
f33=0 et a =(nU)a. Pour
x > 0=
Fn(anx +
bn) = (1 U(anx) = (1
Uan x )n
)n
x
Fn(anx +
bn) = (1
n
Fn(anx +
bn) exp { x }
Fn(anx
+bn) = (X)
La loi de Pareto appartient au MDA de la loi de Fréchet.
Communément, la loi de Fréchet est appelée loi de type
Pareto.
Concernant la méthode POT, nous posons
f33=ub pour /3>0. On obtient:
uby)
Fu(y) =
F(u+ F(u) y 0
1 F(u)
uby)
Fu(y) = F(u+
F(u)
1 F(u)
uby)
Fu(y) = F(u+
F(u)
1 F(u)
|
uby)
= Uu U(u+
Uu
=1 (1+ by)
|
|
La limite est alors la loi GPD de paramètre
î? pour î?=!
!
|
et /3=î?.
|
|
Remarquons les extremes qui sont d'avantages compris sous la
courbe, particulièrement du côté des valeurs
négatives.
62
II.II.1.1.3 Comportement limite de la loi normale
La fonction de répartition de la loi normale quand
N~(0,1) est F x =
. Nous avons donc 1-Fx~1
x21r
!!
e!2 quand x?+8,
alors43. En ce qui concerne la méthode des
blocks, nous aurons:
lim u +
|
z
1 F(u+
u
|
)
=
|
lim u +
|
z1 z
(1+ ) exp e
21 (u+
zu)2 + 21
u2 =
u2
|
|
|
|
|
si on suppose que f3,=1, nous avons pour x?+8 :
!
1
|
z
1 F(u+
u
|
) F(u)
= F(u + uz)
|
z
1 e
|
|
|
1 F(u) 1 F(u)
En ce qui concerne la méthode d'excès de seuil,
celle-ci convergera vers une
loi de type exponentielle. D'autre part, si b donne Fb
=1-1et a =
!
!, on aura:
b!
F(anx
n { 1 F(anx +
bn }= { 1 bn)
+ } x
e
1 F(bn)
lim n +
|
lim
Fn(anx
+bn) =
n +
|
x
e
(1
n
|
x
) = exp { e }
|
|
qui converge vers la loi de Gumbel. Smith nous enseigne en
2003 qu'il est
préférable d'utiliser les lois GEV et GPD pour
chaque théorème les
43 1
W. Feller démontre en 1968 que 1 Ð
F(x) équivaut à
x21r
|
!!
e!2 quand x?+8
|
63
|
|
concernant, plutôt que la loi de Gumbel et la loi
exponentielle, bien qu'elles soient toutes deux de formes exactes. L'aspect
propre des lois généralisées semble être plus en
accord avec les méthodes vues précédemment.
La convergence avec la distribution réelle est
concordante graphiquement pour x [-4.2 ; 4.2]. Cependant, nous pouvons
constater, de part et d'autre de la courbe, qu'il existe des extrêmes non
pris en compte par la densité de probabilité normale. Cette loi
est alors également rejetée empiriquement par cette
méthode. Si l'on suppose une distribution gaussienne pour les rendements
journaliers, la probabilité qu'un rendement observé dévie
de sa moyenne de 4 écarts-types est inférieure à 0,01%,
soit un évènement observé en moyenne tous les 62 ans.
Le tableau ci-dessous nous montre la probabilité de
s'écarter de la moyenne
de écarts-types, tel que 1 P(
X ) La dernière colonne
représente le nombre d'années (sur 254
séances) assimilée à l'apparition d'un
événement:
TAB 6 : Probabiité normale
|
|
|
|
Probabiité
|
Années
|
1
|
0,31731050786291410283
|
0,012
|
2
|
0,0455002638963584144
|
0,086
|
3
|
0,0026997960632601891
|
1,46
|
4
|
0,00006334248366623984
|
62,20
|
5
|
0,00000057330314375839
|
6 867,3
|
6
|
0,00000000197317529008
|
1 995 265
|
7
|
0,00000000000255962509
|
1,5x109
|
8
|
0,00000000000000124419
|
12
3,22x10
|
9
|
0,00000000000000000023
|
16
1,7x10
|
10
|
1,52x10 -23
|
2,58x1020
|
|
La probabilité de s'éloigner de plus de 5
écarts-types de la moyenne
convient à un
évènement extrêmement rare, lequel n'a peut-être
jamais été
observé. Or les variations réelles
retenues sur notre fenêtre de test prouvent
que la théorie gaussienne néglige les variations
extremes. Une autre approche est donc nécessaire pour assurer une
rentabilité ajustée du risque.
Il existe des modalités essentielles pour l'existence
de constantes de normalisation. Remarquons que les extremes sont tirés
asymptotiquement d'une loi non-conditionnelle, alors que la variable sortie des
lois de valeurs extremes est tirée d'une loi conditionnelle. Il est donc
important d'estimer la convergence la plus proche. Dès lors, l'indice de
queue représentera le poids des extrêmes dans la distribution.
TAB 7: Intervalle de confiance et
probabiités
Intervalle
|
DJIA
|
NORMALE
|
STUDENT
|
PARETO
|
LAPLACE
|
-10,83
|
0,00
|
0,00
|
0,00
|
0,11
|
0,00
|
-9,17
|
0,00
|
0,00
|
0,00
|
0,07
|
0,00
|
-7,50
|
2,00
|
0,00
|
0,01
|
0,16
|
0,02
|
-5,83
|
2,00
|
0,00
|
0,06
|
0,43
|
0,24
|
-4,17
|
3,00
|
0,27
|
0,44
|
1,65
|
2,57
|
-2,50
|
18,00
|
29,93
|
8,13
|
14,52
|
27,09
|
-0,83
|
310,00
|
285,80
|
307,35
|
299,05
|
286,07
|
0,83
|
272,00
|
285,80
|
307,35
|
299,05
|
286,07
|
2,50
|
23,00
|
29,93
|
8,13
|
14,52
|
27,09
|
4,17
|
5,00
|
0,27
|
0,44
|
1,65
|
2,57
|
5,83
|
2,00
|
0,00
|
0,06
|
0,43
|
0,24
|
7,50
|
0,00
|
0,00
|
0,01
|
0,16
|
0,02
|
9,17
|
1,00
|
0,00
|
0,00
|
0,07
|
0,00
|
10,83
|
0,00
|
0,00
|
0,00
|
0,11
|
0,00
|
Total
|
638,00
|
638,00
|
638,00
|
638,00
|
638,00
|
|
II.II.1.2 MAXIMUM DE VRAISEMBLANCE
Supposons que notre échantillon des excès
X=(X1,X2,...,XN!) est
indépendante et identiquement identifiée avec
comme fonction de distribution la GPD. Nous obtenons les équations de
maximisation à partir desquelles nous calculons les estimateurs du
maximum de vraisemblance. Nous avons donc la log-vraisemblance de chaque loi
estimée à partir de la distribution réelle. Ces
données sont présentées dans le tableau suivant:
TAB 8: MDA
NORMALE STUDENT PARETO LAPLACE
DJIA 41,85 75,77 86,54 82,83
Le maximum de vraisemblance le plus proche est celui de la
loi de Pareto avec 86.54. Le domaine d'attraction maximum est donc celui de la
loi de Fréchet.
II.II.2 MODéLE DE SÉLECTION DE
MAXIMA
II.II.2.1 RÉALITÉ ERRATIQUE
La théorie de la normalité des marchés
financiers est spécifiquement remise en cause avec la théorie des
valeurs extremes. Particulièrement en haute fréquence oü la
stationnarité des cours est plus erratique. L'étude menée
précédemment nous a permis de comprendre que le
développement de la gestion du risque dans un univers gaussien,
introduit par la normalité des rendements, est inadapté à
l'appréhension des comportements extremes.
44
L' << homme moyen >> de A. Queteletn'existe pas en
finance. Dans ce préambule sur les extremes de marché, nous
étudions les variations du DJIA sur la période de test. Cette
étude comprend 1 148 données de prix, du 13/06/2006 au
31/12/2010. Nous avons choisi d'illustrer nos propos en sélectionnant le
maximum |Dt| des variations Intra-Day45 en valeur absolue
en t, à partir d'un seuil s
prédéfini.
Placé sur une fenétre glissante
D1,D2,...,D! de taille F, lorsque le
seuil s
est supérieure à |Dt|, la
rentabilité réelle du DJIA en t en valeur absolue est
donnée par:
+
Pt
b
1
1
;
Pt
1
1
Pt
+
Pt
?? Pt
= 1; c=
Pt
D = max a =
t
44 A. Quetelet est un mathématicien,
astronome, naturaliste et statisticien belge du XIXème siècle. Il
présenta dans son ouvrage: << Sur l'homme et le
développement de ses facultés, essai d'une physique
social>> la notion d'homme moyen. << L'homme moyen d'une
population est un individu dont les caractéristiques physiologiques sont
chacune égale à la moyenne des autres caractéristiques
physiologiques de la population>>
45 Ensemble des variations comprises dans une
journée boursière.
Oü et !!! est le plus haut du jour,
P!! est le plus bas et P!_1 est le cours de
clTMture du jour précédent. Nous indiquons le
dépassement relatif.
0.00% 5.00% 10.00% 15.00%
6/13/2006
2/13/2007 10/13/2007 6/13/2008 2/13/2009 10/13/2009
6/13/2010
True Range
Soit IF, la fenétre de test, dont la
série des violations définie par la variable dichotomique est la
suivante:
1 siD > s
IF =
0 si D < s
s est le seuil appartenant à la fenétre
F compris entre 1 et F. Fest un
nombre > 1, pour lequel le
nombre de donnée |D| est inférieure au nombre
t
total de données compris dans l'échantillon.
Soit F < Dt Il s'agit de
2
déterminer jusqu'à quel point les variations du
marché se sont rendues en Çintraday È. A ce stade, nous
choisissons une fenêtre de 50 jours. Cette taille permet de lisser les
variations erratiques sans biaiser les informations d'une part, tout en
laissant appara»tre une légere variance d'autre part. Nous avons
également choisi d'étudier plusieurs seuils s distincts.
Nous avons donc :
TAB 9 : Seuil
S = 2% 3% 5% 8% 10% 12%
Nous donnons ci-après deux représentations
graphiques qui permettent de visualiser les valeurs ayant
dépassées s. Nous avons préféré les
présenter à partir d'une échelle logarithmique,
plutôt que sur échelle linéaire simple. Lorsque l'on
exprime un nombre en logarithme, on effectue une mise à l'échelle
ce qui permet, plutôt que de se concentrer sur la valeur absolue du
nombre comme on le fait couramment, de le comparer aux autres nombres qui
l'entourent. Ainsi, nous pourrons juger de la pertinence de chaque seuil sur la
fenétre F = 50.
LN(Dt) > S
6/13/2006
2/13/2007
10/13/2007
|
6/13/2008
|
2/13/2009
|
10/13/2009
|
6/13/2010
|
2%
|
3%
|
5%
|
8%
|
10%
|
12%
|
|
Les résultats sont évocateurs. Les variations
laissent appara»tre une majorité
LN(Dt) > S
10
1
1/17/2008 9/17/2008 5/17/2009
2% 3% 5%
8% 10% 12%
des variations journalières supérieures ou
égales à 3%. Celles-ci se concentrent sur une période de
615 jours, du 17/01/2008 au 23/09/2009. Cela représente 53.57% des
données de l'étude46. Le DJIA, pendant la crise des
Subprimes, a donc connu statistiquement une distribution des cours formant des
queues de distribution épaisses en valeur absolue.
46 615
Le calcul est le suivant: .100=53.57, soit 53.57%
1148
Nous pouvons aussi émettre l'idée qu'il y a eu un
effet <<Clustering>> et un effet <<Momentum47
>> sur la période ventrale.
II.II.2.2 SÉLECTION DE SEUIL
Deux méthodes statistiques de modélisation des
queues sont possibles:
· La méthode BM
· La méthode POT
En finance de marché, nous allons privilégier
la méthode POT, plus adaptée, notamment parce qu'elle va en
adéquation avec un phénomène couramment observé: Le
<<clustering48 >>. De plus, comparée à la
méthode BM, qui ne considère pas toutes les valeurs susceptibles
d'être extrêmes49, cette méthode est à la
fois plus flexible et plus réaliste.
P&L Distribution |P&L|
15.00%
10.00%
5.00%
0.00%
-5.00%
-10.00%
12.000%
10.000%
8.000%
6.000%
4.000%
2.000%
0.000%
47 La Théorie des Marchés Efficients
(Efficient Market Theory) soutient que les marchés fonctionnent
de manière à retranscrire intégralement et
instantanément l'ensemble des informations disponibles. Jegadeesh et
Titman, en 1993, mettent en évidence l'effet <<momentum
>>. Ils observent que la tendance des titres par rapport au
marché semble se poursuivre dans une mouvance irrationnelle. Il en va de
même pour la variance journalière dans ce contexte.
48 Le phénomène de cluster, vu
précédemment en section théorique, se défini comme
une grappe de volatilités caractéristiques des
rentabilités liées aux actifs financiers.
49 La méthode BM extrait le maximum de
chaque période définie préalablement. Elle ne prend donc
pas en compte certaines données extrêmes liées aux cycles
financiers et peut en revanche prendre des valeurs faibles lors des blocks
précédents.
Cette modélisation de queue de distribution engage un
échantillon au-dessus du seuil u, lequel conduit à une
forme de loi GPD. Les méthodes utilisées reposent sur le
comportement graphique des valeurs considérées supérieures
à un seuil. Ces deux graphiques montrent d'une part la variation
décroissante du DJIA pendant la crise des subprimes. D'autre part, la
variation décroissante en valeur absolu e. Remarquons le
caractère asymptotique de la courbe. Le nombre de valeurs se
réduisant lorsque l'on approche la valeur nulle de l'abscisse. Il est
alors délicat de choisir un seuil u grand pour que l'estimation
de la distribution de Pareto généralisée soit valide.
Celui -ci ne peut également pas être trop élevé pour
garder une certaine cohérence avec le comportement réelle du
cours du DJIA. Le nombre de données supérieur à u
défini est en rapport direct avec l'espérance future
d'observer un tel évènement. Nous constatons au vu du tableau
présenté ci-dessous qu'il existe très peu de variation
supérieure à 5% (soit 4,86% des échanges). Environ la
même quantité est observée pour les valeurs
dépassant 4%. Les valeurs inférieures à 3% semblent
cohérentes en terme de volume d'observations, cependant, celles-ci
risquent de biaiser le modèle, se rapprochant trop de la tendance
centrale.
TAB 10: Nombre d'observation supérieure à
u
|
|
Variation> u
|
Nobs
|
2%
|
149
|
3%
|
58
|
4%
|
28
|
5%
|
15
|
6%
|
9
|
7%
|
5
|
8%
|
2
|
|
Nous présentons donc un seuil u = 0.03. Nous
obtenons 58 données. Le graphique ci-contre représente ce seuil,
qui semble correspondre aux valeurs extrêmes présentées par
la théorie.
12.00%
u = 3%
14.000%
MESURE DU RISQUE DE MARCHÉ ET THÉORIE DES VALEURS
EXTRæMES
9.00%
DJIA Return u
0 20 40 60 80
u = 3% Puissance (u = 3%)
100000%
Queue de distribution (log)
u >
3%
Log
y = 1.3562ln(x) - 0.8559
R2 = 0.74542
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
Extreme Enreg. (Extreme)
-10.8 -7.5 -4.2 -0.8 2.5 5.8 9.2
DJIA
12.000%
10.000%
6.00%
3.00%
0.00%
8.000%
6.000%
4.000%
2.000%
0.000%
5
4
3
2
1
0
10000%
1000%
100%
Distribution
y = 0.129x-0.353
R2 = 0.98599
II.II.3 VALUE-AT-RISK
La TVE appliquée à la Value-at-Risk permet
d'évaluer le degré de
résistance des variations des
marchés, au méme titre que le degré de
solidité
d'une voiture en phase de cra sh-test. Le comportement
stochastique des
extremes issus d'un échantillon permet la mise en
place d'un cadre
mathématique rigoureux. S'intéressant
directement à la queue de
distribution, faisant appara»tre le
degré d'importance statistique des
extremums, nous allons dans cette
section présenter, à partir des résultats
obtenus
précédemment, une stratégie de gestion basée sur le
calcul de la
Value-at-Risk. Notre étude va porter
sur la rentabilité ajustée du risque que
peut proposer la VaR
déterminée à partir du quantile des extremes sur
le
DJIA pendant la crise des Subprimes. En proposant une telle
stratégie, un
investisseur pouvait-il éviter les pertes
liées à cette crise ? Pouvait-il
bénéficier d'un
Tracking-Error avantageux en achetant lorsque la VaRt > Rt
et en
vendant lorsque la VaRt < Rt au seuil de probabilité
fixé ? Nous allons
71
mettre en avant deux mesures liées à la VaR:
dans un premier temps, nous sélectionnerons un modèle
adéquate quant à la validité du modèle
présenté, puis dans un second temps, nous calculerons, à
partir des résultats obtenus, la performance que pouvait
développer une stratégie long-short du 13/06/2006 au
31/12/2010.
II.II.3.1 COUVERTURE CONDITIONNELLE
Afin d'étudier le risque que peuts dégager la VaR
basée sur la théorie des
Valeurs Extremes pour p?(95%), avec t = 1, nous allons
procéder à un
exercice de backtesting capable de montrer les occurrences de
violations50. Celui-ci consiste en réalité à
confronter d'une part, la VaR calculée à l'aide du quantile des
valeurs extrêmes et d'autre part, les pertes et profits réels.
Pour valider cette méthode de prévision, les pertes effectives ne
devraient pas dépasser la VaR de plus cas 51
de 5% des . Dans le cas contraire, nous
devrions remettre en cause ce modèle. Nous proposons
d'adapter la Value-
at-Risk calculée de facon journalière sur
une fenêtre plus lointaine,
permettant ainsi de lisser les
observations. Nous utilisons donc une fenétre
glissante x1,x2,...,x de taille F. Cette
méthode nous présente le
dépassement de la Value-at-Risk lorsqu'elle est
supérieure à x, la rentabilité réelle du DJIA en
t en valeur absolue. Soit IF, la série des violations
définie par la variable dichotomique suivante :
1 si Rt <VaRt
Dgt =
0 si Rt VaRt 1 si x
<VaRt
IF =
1 si Rt >VaRt 0
si x > VaRt
Ddt =
0 si Rt VaRt
5 0 Initialement développé par Campbell S. D, en
2005.
51 En d'autres termes, 95% des variations journalières
seront contrôlées avec seulement 5% d'erreur de
prévision
x est le rendement absolu sur la fenétre F compris
entre 1 et F, symbolisant la fin du backtesting. Dg, les valeurs
représentées par la distribution négative située
à gauche et Dd, celles positives de droite. Ces deux
dernières données sont présentées de facons
indicatives. Le modèle de Value-at-Risk reste fiable lorsque les
violations comprises sur la fenétre F
52
respectent la propriété du ratio de couverture
conditionnelle . Il permet une
comparaison de la proportion p de
violat ion au niveau de risque 1 - p. Ce
test est dit
négatif lorsque le nombre d'observations diffère largement de
p.
!!!! !
Ce ratio est donné par oü somme des VaR
dépassan t x
! 'F est la sur
!
la fenêtre. Il est à noter qu'un bon mo
dèle ne doit ni sous-estimer, ni-sur- estimer le risque. L'avantage de
cette technique réside dans le fait qu'elle permet de capturer les
caractéristiques de la dynamique temporelle de l'échantillon
à travers le temps. Nous avons sélectionné une
fenétre F = 50 jours dans notre étude. Nous avons
également choisi d'étendre nos observations de part et d'autre de
la crise des Subprimes pour montrer l'exigence de la VaR des valeurs extremes
par rapport à celle retenue par la loi normale. Nous aurons donc 1 147
observations.
TAB 11: Dépassement de VaR
|
|
|
|
VaR Loi Normale
|
VaR GPD
|
Nobs
|
1147
|
1147
|
Nombre de dépassement
|
112
|
12
|
Couverture conditionnelle
|
9,76%
|
1,05%
|
< 0,05
|
NON
|
OUI
|
|
5 2 Le ratio de couverture fut développé par
Kupiec en 1995. Il fut ensuite repris par Christoffersen en 1998
Le modèle lié à la loi normale se
révèle inadapté pour estimer le risque réel.
Il
enregistre un taux de 9.91%, dépassant de 4.91 point le taux
d'échec
accepté. Cet échec est attendu dans la
[Echelle logarithmique]
100 Dépassement de VaR (95%) mesure
oü ce modèle de mesure du
(F = 50) risque ne permet pas de prendre en
compte le caractère leptokurtique des rendements.
10
1
6/13/2006 6/13/2009
VaR N(|x|) F=50 VaR GPD(|x|) F=50
En période de crise, la VaR GPD ne laisse
appara»tre qu'une infinité de dépassements journaliers sur
F = 50. Le ratio de couverture conditionnelle nous indique qu'il
existe un taux de dépassement de 1,05% pour une Value-at-Risk acceptant
5% de risque. Ce modèle rempli donc les conditions pour un
dépassement qui ne sous-estime, ni ne surestime le risque de
marché. Ce modèle conditionnel fournit une quantification plus
flexible de la VaR, qui tient compte de la dynamique de la volatilité.
En effet, lorsque le taux de croissance dépasse le seuil u
fixé à 3%, la VaR conditionnelle Ç vibre È,
couvrant le risque de perte extreme (Cf. : graphique, éléments
fléchés ). Le graphique ci -dessous souligne la différence
qu'il peut exister entre la VaR classique et celle liée aux valeurs
extremes.
Backtesting: Occurences de violations de
VaR(95%)
12.00% 9.00% 6.00% 3.00% 0.00%
|
|
|
6/13/2006 6/13/2007 6/13/2008 6/13/2009 6/13/2010
|R| VaR N(|x|) VaR GPD(|x|)
En outre, nous retenons le modèle de VaR GPD
conditionnée à partir d'un seuil fixé à 3%. Nous
allons, dans la sous-section suivante, établir une stratégie
long-short à partir des résultats obtenus ci-dessus.
II.II.3.2 MODéLE DE RENTABILITÉ
AJUSTÉE DU RISQUE
Cette sous-section montre comment la théorie des
valeurs extrême peut être utilisée comme stratégie de
couverture du risque de marché. Celle-ci implique la distribution
asymptotique univariée des taux de rendement minimum et maximum d'une
position de marché. La VaR est calculée en fonction d'une formule
d'agrégation du risque, laquelle prend en compte
· Le facteur de sensibilité des extrêmes,
à travers une méthode conditionnelle
· La corrélation entre les facteurs de risque et la
position du marché
Nous suivrons l'évolution de la VaR analysée
à partir cette hypothèse.
En pondérant celle-ci par la dynamique de prix de
l'actif étudié, nous
déterminerons la mesure du risque
que peut prendre la détention de l'actif
dans le portefeuille. Pour
établir une gestion performante basée sur la VaR,
pour p?(95%), avec t = 1, nous allons
préalablement, à travers l'étude des
extrême de la crise des Subprimes, confronter d'une
part, la MVaR calculée à l'aide du quantile
des valeurs extrêmes et d'autre part, les pertes et profits réels
du DJIA. Soit MVaR, l'agrégation de la M
à à la VaR, définie par les deux variables
suivantes :
Pt.(1+VaRt(q))
si Rt > 0
MVaR =
Pt si Rt < 0
(1+VaRt(q))
Oü Rt, le taux de rentabilité du DJIA en
t, Pt le prix auquel le DJIA est indexé en t
et q le quantile de la probabilité de perte maximum, ici
réduit à 95%.
Nous avons choisi de présenter un graphique exposant:
· L'évolution du cours du DJIA
· MVaR classique calculé à partir du
quantile de distribution de la loi normale
· La MVaR GPD initiée à
partir des éléments calculés précédemment
26000
PVaR
21000
16000
11000
6000
1000
6/14/2006 6/14/2008 6/14/2010
Price Normale GPO
Nous remarquons que la VaR GPD est réactive.
Conditionnée à partir du seuil u = 3%, elle tombe sous
le cours en septembre 2008, lors de la chute de la banque américaine
Lehman Brothers. Puis, passe au-dessus du cours lorsque la distribution
cumulée des rendements se recentre vers la tendance centrale, en 2010.
La VaR classique reste très proche du cours de l'indice en
période de perte extrême. Elle ne permet donc
pas d'assurer une gestion de portefeuille
sécurisée. La MVaR ayant
détectée une occurrence de perte extrême par le fait
qu'elle soit inférieure au cours du DJIA, se révèle
être un indicateur de décision intéressant dans une gestion
de portefeuille mettant en avant le risque. Afin de simuler cette aversion au
risque, nous pouvons alors prendre position à l'achat oü a la vente
en fonction de cette dernière. Soit WVaR, la
variable déterminant l'achat ou la ve nte de Pt, tel que:
Pt si PVaRt >
Rt
WVaR =
Pt 1 si PVaRt <
Rt
Oü Rt, le taux de rentabilité du DJIA en
t, Pt le prix auquel le DJIA est indexé en
t.
Nous présentons dans le tableau ci-dessous les
résultats empiriques de notre analyse :
Tab12: Résultats
|
|
|
|
Base 100
|
DJIA
|
Normale
|
GPD
|
Nobs
|
1148
|
1148
|
1148
|
Moyenne
|
98,20
|
88,83
|
98,87
|
Volatilité
|
19,14
|
17,18
|
14,08
|
Maximum
|
131,09
|
117,82
|
126,54
|
Minimum
|
55,58
|
59,92
|
69,65
|
Perte maximale
|
44,42
|
40,08
|
30,35
|
Skewness
|
-0,10
|
-0,02
|
0,27
|
Kurtosis
|
-1,21
|
-1,52
|
-1,38
|
Beta (MCO)
|
1,000
|
0,904
|
0,995
|
La performance relative du modèle lié 100% à
la loi normale et celui évalué à l'aide
90%
de la GPD sont présentés par rapport
80%
70% aux résultats empiriques du DJIA
60% pendant la période de test. Nous
50%
pouvo ns noter que la VaR GPD
40%
30% garantie un seuil de perte maximal de -
20% 3 0,5%, quand le cours descend à -
10%
44,42% . Nous remarquons également
0%
VaR GPO VaR Normale Prix
SVaR: Performance
125
115
85
des modèles. On remarque que le
75
coefficient d'asymétrie est négatif pour
65
le DJIA et la VaR normale, alors que
55
6/14/2006 6/14/2009
Price Normale GPO
celui de la VaR GPD est positif à 0,27.
Ceci
dénote que la loi des cours
comporte plus de mouvements à
la
baisse pour les deux premiers et une tendance plus haussière pour
le dernier.
77
CONCLUSION
Nous soulignons au terme de cette étude l'importance
des mouvements extrêmes lors de la crise des Subprimes. B. Mandelbrot
avait déjà émis des réserves en 1963 quant à
la validité du comportement aléatoire du mouvement brownien
caractérisé par les deux premiers moments de la loi normale. En
effet, les hypothèses qui les soutiennent, peuvent corrompre leur
validité intrinsèque dans le cas oü des
événements imprévisibles influencent de facon
prépondérante la moyenne de l'échantillon. La crise des
Subprimes en est l'exemple type. Nous pouvons apprécier la
fréquence du DJIA par l'exercice du calcul des rentabilités
anormales, se déplacant d'un niveau de stabilité vers celui
réalisé par la crise. Les résultats obtenus montrent que
la crise des Subprimes a enregistré une fréquence
journalière continue importante.
Le caractère imprévisible des
évènements rares est omniprésent en économie, en
finance et en assurance. Parallèlement aux travaux de P. Levy en 1920,
le développement des études statistiques des valeurs
extrêmes, mené par R. Fisher et L. Tippett en Grande- Bretagne, B.
Gnedenko en Union soviétique, M. Fréchet et E. Gumbel en France
et L. Mises en Autriche, a émergé. Ces études se
concentrent sur le maximum et le minimum d'une suite d'événements
dans un échantillon, événements d'occurrence faible, mais
de grande importance. Ces Ç événements
raresÈ forment ce que l'on nomme les queues de distributions. Ces
statisticiens ont montré que la valeur maximale de l'échantillon
ne peut obéir qu'à l'une parmi trois distributions
différentes : les distributions de Fréchet, de Gumbel et de
Weibull.
Il en est ainsi des étude s de fiabilité,
oü, pour calculer la probabilité de défaut, nous cherchons
à considérer la probabilité de défaillance de son
Ç maillon le plus faible È. Par exemple, pour
déterminer les caractéristiques d'un barrage, il faut connaitre
la pression maximale que l'ouvrage pourra être amené à
tolérer, et non sa pression moyenne qu'il supportera en situations
normales. Pour cela, il faut caractériser les variables extrêmes
de l'échantillon d'observations. C'est se que propose de quantifier la
Value-atRisk, qui mesure la perte potentielle maximale à un seuil de
probabilité et à un horizon de temps fixés. L'analyse de
cette dernière menée sur le DJIA nous a permis de comprendre
qu'il est possible de la quantifier, de facon analytique, en utilisant la loi
de distribution de Pareto généralisée, les
probabilités de pertes extrêmes. En
pondérant la VaR GPD, nous avons mesuré le risque de
marché, nous permettant de limiter les pertes encourues par la
détention du DJIA. Il est à noter que cette méthode peut
être facilement assimilable aux méthodes de gestion assuranc ielle
de portefeuille OBPI53 ou CPPI54, dans laquelle la VaR
GPD servirait de seuil dynamique de proportion au risque.
Paradoxalement, l'étude menée
précédemment nous a permis de remarquer que les statistiques ne
sont pas une science exacte. En modélisant statistiquement les valeurs
extrêmes du DJIA, un problème est apparu de manière
récurrente : La pertinence des données utilisées.
En effet, les méthodes de significativité de
Brown et Warner , de Pattel et de Bohemer, Musumeci et Poulsen impliquent une
constance de la volatilité dans le temps. Or nous savons que les
marchés financiers sont hétéroscédastique et qu'il
est nécessaire d'utiliser un processus ARCHGARCH afin de proposer un
modèle adéquat. Nous pouvons également remarquer que cette
hypothèse n'est plus vérifiée en phase de Ç
partitionnement des données È ou Ç Clustering
È dans lequel deux ou plusieurs titres réagissent, sur un
intervalle de temps i, à un même évènement.
Cette corrélation est souvent révélée à
travers de nombreux exemples sur les marchés financiers, notamment
lorsque Lehman Brothers disparue pendant la crise des Subprimes .
Aussi, il faut utiliser une fenêtre de taux de
rentabilité équilibré s entre stabilité et
précision afin de réduire l'effet de croissance de la variance
estimée à partir du nombre d'observations. En ce qui concerne la
théorie des valeurs extrêmes, le choix du seuil u de
sélection des données maximum et minimum est primordial pour la
validité de l'étude. Il s'agit d'une part de sélectionner
un seuil grand, au dessus duquel nous conservons assez de données pour
que l'approximation asymptotique soit à la fois applicable et
précise. D'autre part pas trop élevé pour ne pas donner
trop d'importance aux écart-types de l'estimateur. Cela
révèle d'une certaine approximation.
5 3 <<Option Based Portfolio Insurance>> est
une méthode d'assurance de portefeuille à base d'options,
conceptualisée par Leland et Rubinstein en 1981.
54 <<Constant Proportion Portfolio
Insurance>> est la méthode du coussin. Initialement
développée par P. Erold en 1986 et Black et Jones en 1978, elle
vise à maintenir une proportion constante d'exposition au risque.
De plus, Selon N. Taleb, il n'est pas possible de mesurer le
risque d'événements rares catastrophiques dont nous n'avons
jamais connu d'exemple par le passé. Ces <<cygnes noirs
>>, tels qu'il les appelle, invalideraient les approches
statistiques de modélisation du risque. Mais il reste encore beaucoup
à découvrir. La préface de la deuxième
édition du livre << Une approche fractale des marchés
È soulignait : Ç L'économie financière, en
tant que discipline, en est là oil en était la chimie au XVI e
siècle : c'était un ramassis de savoir-faire, de sagesse
populaire fumeuse, d'hypothèses non confirmées et de
spéculations grandioses È55.
La crise financière des Subprimes est-elle un cygne
noir au méme titre que l'accident subi par la centrale nucléaire
de <<Three Mile Island >>56, oü,
malgré la prudence établie par les instances de régulation
nucléaire, une erreur de nature non-quantifiable, mit en échec le
système de süreté ? Ou pouvons-nous plutôt la comparer
à la tempéte qui dévasta les Pays-Bas en 1953,
événement anormal, mais dont on pouvait mesurer la
probabilité ?
5 5 B. Mendelbrot et R. L Hudson: Une approche fractale des
marchés Ð Risquer, perdre et gagner ; Editions Odile Jacob,
Paris 2009, 358 pages.
56 La central nucléaire de Three mile
Island est situé dans l'est des Etats-Unis est connu pour avoir
subi un accident classé au niveau 5 l'échelle international des
évenements nucléaires (INES). C'était le 28 mars 1979.
BIBLIOGRAPHIE
BALKEMA A. A., DE HAAN L., 1974, "Residual life time at great
age", Annals of Probability 2, p 792-804.
BEIRLANT J., GOEGEBEUR Y.,s "Segers J. et Teugels J., 2004,
Statistics of Extremes - Theory and Applications", Wiley, England.
BERMAN S. M., 1963, "Limiting theorems for the maximum term
in stationary sequences", Annals of Mathematical Statistics, p 502-516.
BOEHMER E., MUSUMECI J. ET POULSEN A., 1991, "Event-study
methodology under conditionsof induced variance", Journal of Financial
Economics, vol. 30, n°2, p 253-272.
BROWN S. ET WARNERJ., 1980, "Measuring security price
performance", Journal of Financial Economics, vol. 8, n°3, p
205-258.
CAMPBELL J., LO A. ET MACKINLAY C., 1997, "The econometrics
of financial markets", Princeton University Press.
CLAUSS P., 2011, "Gestion de portefeuille", Dunod.
DANIELSSON J., DE VRIES C.G., 1997, "Value at risk and extreme
returns", Working Paper, London School of Economics, London, UK.
DEKKERS A. L. M., DE HAAN L., 1989, "On the estimation of the
extreme value index and large quantile estimation", The Annals of
Statistics, p 1795-1832.
EMBRECHTS P., KLPPELBERG C., MIKOSCH T., 1997,
"Modelling Extremal Events for Insurance and Finance",
Springer-Verlag, Berlin.
ENGLE R.F., 1982, "Auto-regressive conditional
heteroskedasticity with estimates of the variance of united kingdom inflation",
Econometrica, p 987-1007.
Fama E., 1970, "Efficient capital markets: a review of theory
and empirical work", The Journal of Finance, val. 25, n°1, p
383-417.
FISHER R., TIPPET L., 1928, "Limiting Forms of the
Frequency Distribution of the Largest or Smallest Member of a Sample",
Cambridge Philosophical Society, p 180-190.
GNEDENKO B.V., 1943. "Sur la distribution limite du terme
maximum d'une série aléatoire". Annals of Mathematics, p
423-453.
GUMBEL E J., 1958, "Statistics of Extremes", Columbia
University Press, New-York.
e
HAMON J., 2005, "Bourse et gestion de portefeuille" ,
Economica, 2edition.
HILL B M., 1975, "A simple general approach to inference
about the tail of a distribution", Annals of Statistics, p 1163-1173.
HULL J., 2006, "Options, futures et autres actifs
dérivés", 6e edition, Pearson Education.
JORION P., 1996, "Risk: Measuring the risk in value at
risk", Financial Analysts Journal, p 47-56.
JORION P., 1997, "Value at Risk: The New Benchmark for
Controlling Market Risk", McGraw-Hill, Chicago.
e
JORION P., 2006, "Value -at-Risk" , McGraw -Hill,
3edition.
JP MORGAN, 1995. RiskMetricsTM - Technical Document,
3rd ed
KUPIEC P. H., 1995, "Techniques for verifying the accuracy of
risk measurement models", Journal of Derivatives, p 73-84.
LO A. W., MACKINLAY A. C., 1990, "An econometric analysis of
nonsynchronous trading", Journal of Econometrics, p 181-211.
LONGIN F. M., 1997, "The threshold effect in expected volatility:
A model based on asymmetric information", The Review of Financial Studies,
837-869.
LONGIN F., 1993, "Volatility and extreme movements in
fianncial markets", Ph.D. Thesis, HEC.
LONGIN F., 1996, "The asymptotic distribution of extreme
stock market returns", Journal of Business, p 383-408.
LONGIN F., 2000, "From VaR to stress testing: The extreme value
approach". Journal of Banking and Finance, p 1097-1130
LONGIN F., SOLNIK, B., 2001, "Extreme correlation of
international equity markets", Journal of Finance, p 651-678
82
LUX T., SORNETTE D., 1999, "On rational Bubbbles and fat
tails", Journal of Monetary Economics.
MANDELBROT B., 196,. "The variation of certain speculative
prices", Journal of Business, p 394-419.
MANDELBROT B., 1997, "Fractales, hasard et finance",
Flammarion.
MANDELBROT B., 2001, "Stochastic Volatility, Power Laws And
Long Memory", Quantitative finance, vol. 1, n°6, December, p
558-559.
MANDELBROT B.,1963, "The Variation Of Certain Speculative
Prices", Journal of Business, vol. 36, n°4, p 394-419.
MCNEIL A. J., 1998, "Calculating quantile risk measures for
financial return series using extreme value theory", Working Paper, ETH,
Zurich, Switzerland.
PARKINSON M., 1980, "The Extreme Value Method For Estimating
The Variance Of The Rate OfReturn", Journal of Business, Vol. 53, p
61-66.
PATTEL J., "Corporate forecasts earning per share and stock
price behavior: empirical test", Journal of Accounting and Research, vol.
14, n°1, p 246-276.
PICKANDS J., 1975, "Statistical inference using extreme order
statistics". Annals of Statistics, p 119-131.
RIVA F., 2008, "Application financieres sous Excel en Visual
Basic", Economica, 3° edition.
SAPORTA G., 1990, "Probabilités, analyse des
données et statistique", Editions Technip.
SHARPE W., 1963, "A simplified model for portfolio
analysis", Management Science, vol. 9, n°1, p 277-293.
SIVERMAN B., 1986, "Density estimation for statistics and
data analysis", Chapman and Hall, London.
SMITH R., 1989, "Extreme Value Analysis of Environmental
Time Series: an Application to Trend Detection in Ground-Level Zone",
Statistical Science, p 367- 3 93
SORNETTE D., 1998, "Multiplicative processes and Power
laws", Physical review, p 4811-4814.
83
WHITE H., 1982, "Maximum Likelihood Estimation of
Misspecified Models", Econometrica, p 1-16.
ANNEXES
A. Graphiques : Sélection de seuil 86
B. Stratégie : Synthése
générale 87
C. Graphiques : VaR 88
D. Stratégie 89
E. Visual Basic Application : Loi de valeurs extremes
91
F. Visual Basic Application : Loi de probabilité
93
G. Origines macroéconomiques de la crise des
subprimes 97
85
A. GRAPHIQUES : SÉLECTION DE SEUIL
u > 3%
5
y = 1.3562ln(x) - 0.8559
R2 = 0.74542
4
3
2
1
0
u > 4%
5
y = 1.268ln(x) - 0.7444
R2 = 0.77269
4
3
2
1
0
Extreme Enreg. (Extreme)
Extreme Enreg. (Extreme)
u > 5%
u > 6%
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
5
4
3
y = 1.0948ln(x) - 0.5358
R2 = 0.80069
y = 0.8955ln(x) - 0.3101
R2 = 0.80966
5
4
3
2
1
0
2
1
0
Extreme Enreg. (Extreme)
Extreme Enreg. (Extreme)
86
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
Si VaR (q) >
t Rt
Long
B. STRATÉGIE : SYNTHéSE
GÉNÉRALE
Sélectionner un actif
Déterminer un période T
Choisir la fréquence des taux de rentabilités
Calculer les taux de rentabilités Rt
|
Sélectionner un seuil extreme u
|
L'hypothèse est
rejetée
Etablir un test d'ajustement sur les valeurs
réelles
observées correspondant au seuil 1 - q
Calculer la VaR en fonction du quantile q sur
une
période t
Estimé les paramètres !!,(3!
asymptotique à partir du rendement u
de la distribution
L'hypothèse est
acceptée
Calculer la VaR pondérée par le prix de l'actif en
t
87
125 115 105 95 85 75 65 55
C. GRAPHIQUES : VAR
DJIA
6/14/2006 6/14/2008 6/14/2010
Price
SVaR classique
125
55
6/14/2006 6/14/2008 6/14/2010
Normale
SVaR GPD
125
115
105
95
85
75
65
55
6/14/2006 6/14/2008 6/14/2010
88
GPD
D. STRATÉGIE
Nous vous présentons ici une stratégie
basée sur plusieurs actifs différents. Il s'agit, comme dans
l'exemple vu précédemment, d'une stratégie long-short
basée sur l'achat de call et de put. Soit R1,
R2,É,Rn, une suite de variables aléatoires
indépendantes et identiquement distribuées, calculées par
ln(Pt/Pt-1), oü P est le prix de l'actif en t.
Pour
Pt.(1+VaRt(q))
si Rt > 0
MVaR =
Pt si Rt < 0
(1+VaRt(q))
oÜ MVaR est la pondération de la
VaR à l'actif, et la VaR est donnée par
VaRq = uö +
|
ö fl
(
ö Nu
|
ö
(1 q) ) 1. Lorsque la VaR (q = 95%)
=R2, alors le
|
risque est dit faible. Inversement, le risque est dit
élevé. Nous avons donc
· L'achat d'un Call lorsque la VaR = cours
· L'achat d'un Put lorsque la VaR < cours.
DJIA; BOfA; IBM; Exxon
350
300
250
200
150
100
50
0
6/13/06 6/13/07 6/13/08 6/13/09
400
140
130
120
110
100
90
80
Call
ITM
Put
ITM
6/13/06 6/13/07 6/13/08 6/13/09
70
60
Cette étude nous permet de constater qu'il existe, sur
les marchés financiers,
une volatilité plus importante en
phase de baisse des cours. Il existe aussi
89
des effets "clusters" où la corrélation des actifs
se concentre en une période t, impliquant un risque de
non-diversification statistique (risque de marché).
40.00%
Performance
50.00%
30.00%
20.00%
10.00%
0.00%
Call/Put
Enreg. (Call/Put)
100Moy. mobile sur per. (Call/ Put)
Nous enregistrons une performance de 40,1% en prés de 2
ans et 6 mois de gestion, avec un maximum de 47,18%. Cette stratégie met
en avant le risque probabiliste pour en dégager une rentabilité.
Le risque extrême "Black Swan" est également pris en compte.
Cependant, Un test "Out-of-Sample"
doit être
établi pour confirmer cette
hypothèse. Les Calls et les Puts
sont
ici hors premium. Il serait nécessaire de minorer l'effet
de cette prime sur la performance de la stratégie.
Resultats
|
Données
|
Call
|
Put
|
Nobs
|
906
|
|
|
Moyenne
|
32.11%
|
122
|
90
|
Ecart-type
|
10.9%
|
8.80
|
10.88
|
Maximum
|
47.18%
|
140
|
100
|
Minimum
|
0.00%
|
100
|
65
|
Skewness
|
-0.94
|
-0.09
|
-0.59
|
Kurtosis
|
0.02
|
-0.77
|
-1.21
|
Jarque Bera
|
4.69
|
21.53
|
28.84
|
Performance
|
40.10%
|
20%
|
20%
|
90
E. VISUAL BASIC APPLICATION : LOI DE VALEURS EXTRæMES
'Indicateur de Hill (Pour Fréchet uniquement)
Function Hill(rank As Double, Nb As Double) As Double
medianrank = (1 / (1 - ((rank - 0.44) / (Nb + 0.12))))
Hill = WorksheetFunction.Ln(WorksheetFunction.Ln(medi anrank))
End Function 'Gumbel
Function Gumbel(x As Double, a As Double, b As Double) As
Double
If b <= 0 Then
Call MsgBox("b doit tre strictement positif", vbExclamation,
"Paramtre incorrect")
Exit Function End If
Gumbel = Exp(-(x - a) / b) * Exp(-Exp(-(x - a) / b)) / b
End Function 'Fréchet
Function Fréchet(x As Double, a As Double, b As Double) As
Double
If x <= 0 Then
FrÉchet = 0 Exit Function End If
91
If b <= 0 Then
Call MsgBox("b doit être strictement positif",
vbExclamation, "Parametre incorrect")
Exit Function End If
Fréchet = a / b * (b / x) ^ (a + 1) * Exp(-(b / x) ^ a)
End Function 'Weibull
Function Weibull(x As Double, a As Double, b As Double) As
Double
If x <= 0 Then
Weibull = 0 Exit Function End If
Weibull = a / b ^ a * x ^ (a - 1) * Exp(-(x / b) ^ a)
End Function
92
F. VISUAL BASIC APPLICATION : LOI DE PROBABILITÉ
Option Explicit
'ETAPE 1: COPIER ET TRIER
'Dans cette section, nous allons copier le nombre de série
pour les trier, dans le but de dessiner la fonction de distribution
cumulée
' La variable "Total" nous donne le nombre de donnÉe
existante
Public Sub Copy_and_Sort()
Dim Total As Integer
Let Total = Range("Total").Value
' Copier dans un tableau reconfiguré de Total lignes et de
1 colonne
Let Range("Y1").Resize(Total, 1) =
Range("Selection").Resize(Total, 1).Value
' Trier les données copiées
Call Range("Y1").Resize(Total,
1).Sort(Key1:=Range("Y1").Resize(Total, 1), Order1:=xlAscending,
Header:=xlGuess, OrderCustom:=1, MatchCase:=False, Orientation:=xlTopToBottom,
DataOption1:=xlSortTextAsNumbers)
End Sub
'ETAPE 2: DEFINIR L'INTERVAL DE DISTRIBUTION
'Dans cette section, l'intervalle est défini afin que
celui-ci soit le plus large possible en aberrant les cases vides
'La variable "Interval" est donnée 10 quand la borne
inférieure "borneinf" est Égale 0
'La fenêtre "step" est Égale à 0,1
93
'La variable "case_vide" est ici exprimée "as boolean",
c'est ö dire soit "Vrai" Il n'y a pas de case vide, soit "Faux"
il y a des cases vides
Public Sub Intervallecorrespondant ()
Const Interval = 10 Const borne_inf = 0 Const Step = 0.1
Dim intervalleconfiance As Double
Let intervalleconfiance = Interval
Dim case_vide As Boolean
' Montre la dimension de l'intervalle du plus grand au plus
petit
' S'arrête lorsque l'ensemble des cases de sont pas vides,
ou, par sécurité, lorsque la taille de l'intervalle est
Égale ö 0
Do
Let Range("Intervalleconfiance").Value = intervalleconfiance
Call Application.Calculate
Dim minimum As Integer
Let minimum = Application.WorksheetFunction.Min(Ra
nge("Distributions"))
Let case_vide = (minimum > 0) ' Vrai si le minimum >= 1
Let intervalleconfiance = intervalleconfiance - Step
'
Boucle
Loop Until case_vide Or
intervalleconfiance <= borne_inf
94
End Sub
'ETAPE 3: FONCTION DE DISTRIBUTION
'Dans cette section, nous allons créer une fonction afin
de faciliter les calculs de fonction de distribution
' Somme des returns (Ln(t) / Ln(t-1))
' Les champs doivent être vertical avec le meme nombre de
ligne
Public Function SumAbsLn(ByRef valeurscourrantes As Range, ByRef
DJIA As Range) As Double
Dim size As Integer
Let size = valeurscourrantes .Rows.Count
If size <> DJIA.Rows.Count Then
Call MsgBox("La taille des séries ne corresponde pas
!")
End If
Dim resultat As Double Let resultat = 0
Const petitesvaleurs = 0.01 Dim i As Integer
For i = 1 To size
Dim Borne As Double
' Si les données sont égales à 0, prendre la
plus petite value
Let Borne = Application.WorksheetFunction.Max(v a l e u r s c o u
r r a n t e s (i, 1).Value, petitesvaleurs)
' increment result with the absolute value of the log of the
ratio between actual and model data
95
Let resultat = resultat + Abs(Log(Borne / DJIA(i, 1).Value))
Next i
96
Let SumAbsLn = resultat End Function
G. ORIGINES MACROÉCONOMIQUES DE LA CRISE DES SUBPRIMES
Comité de B%ole
Ratio: Cooke, McDonough
|
|
Hausse des besoins en
fonds propres
|
|
|
Recherche
de rentabilité
Exigence de
rentabilité
Baisse de la
prime de
risque
Etats
Confiance
Ç Paradoxe
de
la
tranquillité »
Credibilité
des banques
centrales
Innovation
financiere
Concurrence
Baisse de
lÕinflation
Baisse des
taux long
terme
Rel%ochement
des critéres
Excédent commerciaux des pays émergents
Titrisation
Hausse de la
liquidité
Hausse de lÕépargne dans les pays
émergents
Expansion
du credit
Hausse de lÕinflation
Investissement
Hausse de la
consommation
Anticipation
des profits
Croissance
Hausse du
prix des
actifs
Choc de
productivité
Optimisme
Source : P. Artus, J-P Betbeze, C. Boissieu et
G. Capelle-Blancard, «La crise des subprimes», Conseil
d'analyse Cconomique, la documentation frangaise, 2008 , p 60
97 UNE VISION QUANTITATIVE DU RISQUE EXTRæME
APPLIQUÉE Ë LA CRISE DES
SUBPRIMES