INSTITUT DES HAUTES ÉTUDES ÉCONOMIQUES ET
COMMERCIALES
MÉMOIRE DE RECHERCHE
APPLIQUÉE
PEUT-ON EVITER LES CRISES?
MESURE DU RISQUE DE
MARCHÉ ET THÉORIE DES VALEURS EXTRæMES:
UNE VISION QUANTITATIVE DU RISQUE EXTRæME
APPLIQUÉE Ë LA CRISE DES
SUBPRIMES

MASTER : FINANCE DE MARCHÉ [SMT]
AUTEUR : J. MEILHOC
TUTEUR : A. AUBRY, QUANTITATIVE FUND MANAGER DATE : 2 JUIN
2012
RÉSUMÉ
Les récentes crises financières et
monétaires ont conduit le développement de nouveaux outils de
protection contre le risque de marché. Le théorème de la
limite centrale, qui décrit le comportement asymptotique de la moyenne
d'un grand nombre de variables indépendantes, ne semble plus
adéquat lorsque des événements rares ou extrêmes
deviennent normes, comme lors de la crise des Subprimes. A ce titre, la
Value-at-Risk, qui peut se définir comme le quantile déterminant
la plus grande perte que peut subir un portefeuille avec une probabilité
d'occurrence déterminé, permet de mesurer ce risque
extrême. La théorie des valeurs extrêmes (TVE),
étudiée dans le cadre de la recherche d'évènements
rares d'une suite de variable s aléatoires indépendantes,
associée à la Value-at-Risk peut être un excellent
indicateur. Ce mémoire de recherche prend son essence dans la recherche
des valeurs extrêmes appliquées à la Value-at-Risk, afin
d'y élaborer un modèle de prévention du risque
cohérent.
MOTS-CLÉS : FINANCE QUANTITATIVE; MODÉLISATION
MATHÉMATIQUE; PROBABILITÉS ET STATISTIQUES ; RISK MANAGEMENT ;
THÉORIE DES VALEURS EXTRæMES ; VALUE-AT-RISK (VAR)
ABSTRACT
Financial crises have become a principal concern to lead the
development of new market risk indicators. The central limit theorem, which
describes the average asy mptotic behavior of a random process, does not
characterize rare or extreme events, like subprime mortgage crises do. Value at
Risk (VaR) is defined by risk exposure at a given probability level at a
specified time horizon. Computing extreme value theory (EVT), focusing on the
tails of the sample distribution, is an excellent approach for its use in
managing risks. This research paper presents an application of extreme value
theory to compute to Value-at-Risk of a market position in order to provide a
consistent risk measurment.
KEY-WORDS: QUANTITATIVE FINANCE; MATHEMATICAL MODELING;
PROBABILITY AND STATISTICS; RISK MANAGEMENT; EXTREME VALUE THEORY ;
VALUE-AT-RISK (VAR)
Introduction 6
I. Section theorique 10
I.I. Modele de frequence des rentabilites anormales
10
I.I.1 Taux de rentabilites normales et anormales
11
I.I . 1 . 1 Processus d'évaluation 11
I.I . 1 .2 Procédure de test 12
I.I.2 Calcul des rentabilites anormales 12
I.I .2 . 1 Modèles théoriques 12
I. I .2 . 1 . 1 Modèle de moyenne 13
I. I .2 . 1 . 2 Modèle de marché 13
I.I .2 .2 Évaluation des paramètres 14
I.I.3 Rentabilites anormales 16
I.I.4 Test de significativite 17
I.I .4. 1 Moindres carrés ordinaires 17
I.I .4.2 Rentabilités anormales transversales et
cumulés 19
I.I .4. 3 Méthode de Brown et Warner 19
I.I .4.4 Méthode de Pattel 20
I.I .4. 5 Méthode de Bohemer, Musumeci et Poulsen 20
I.II. Mesure du risque 22
I.II.1 Mesure du risque gaussien 25
I.II. 1 . 1 Distribution de gauss 25
I. II. 1 .2 . 1 Loi des grands nombres 25
I. II. 1 .2 .2 Loi de Gauss 26
I.II. 1 . 2 Value-at-Risk classique 27
I.II.2 Distribution des valeurs extremes 29
I.II.2 1 Études fondamentales 30
I.II.2 . 2 Lois des maxima : résultat exacts 31
I.II.3 Mesure du risque extreme 33
I.II. 3 . 1 Théorème de Fisher-Tippet 33
I. II. 3 . 1 . 1 Modélisation paramétrique des
maxima par blocs 36
I. II. 3 . 1 .2 Sélection de la taille des blocs 36
I. II. 3 . 1 . 3 Estimation du modèle BM par le maximum de
vraisemblance 36
I.II. 3 . 2 Théorème de Balkema-de Haan -Picklands
39
I. II. 3 .2 . 1 Modélisation paramétrique de la
distribution des excès 42
I. II. 3 .2 .2 Estimation du modèle de seuil par le
maximum de vraisemblance 43
I.II. 3 . 3 4 Value-at-Risk extreme 43
3
II. Section empirique 46
II.I Mesure des fréquences anormales
46
II.I.1 Processus 46
II.I.2 Taux de rentabilités normales et anormales
52
II. I.2 . 1 Fréquences normales 52
II. I.2 . 2 Fréquences anormales 53
II.I.3 Résultat des fréquences anormales
54
II. I. 3 . 1 Rentabilités anormales stationnaires 54
II. I. 3 . 2 Rentabilités anormales cumulées 55
II.I.4 Test de significativité 56
II.II. Théorie des valeurs extremes et
Value-at-Risk 58
II.II.1 Analogie statistique de la distribution des
rendements et maximum
de vraisemblance 59
II. II. 1 . 1 Analogie statistique de la distribution des
rendements 60
II . II. 1 . 1 . 1 Comportement limite de la loi exponentielle
60
II . II. 1 . 1 .2 Comportement limite de la loi de Pareto 62
II . II. 1 . 1 . 3 Comportement limite de la loi normale 63
II. II. 1 .2 Maximum de vraisemblance 65
II.II.2 Modèle de sélection de maxima
66
II. II. 2 . 1 Réalité erratique 66
II. II. 2 .2 Sélection de seuil 69
II.II.3 Value-at-Risk 71
II. II. 3 . 1 Couverture conditionnelle 72
II. II. 3 .2 Modèle de rentabilité ajustée
du risque 75
Conclusion 78
Bibliographie 81
Annexes 85
A. Graphiques : Sélection de seuil 86
B. Stratégie : Synthèse
générale 87
C. Graphiques : VaR 88
D. Stratégie 89
E. Visual Basic Application : Loi de valeurs extremes
91
F. Visual Basic Application : Loi de probabilité
93
G. Origines macroéconomiques de la crise des
subprimes 97
4
Nous tenons à remercier sincèrement
Mr Aubry pour avoir accepté d'encadrer ce mémoire. Ses
orientations, ses conseils et ses contacts nous ont permis de mener à
bien cette recherche. Je remercie aussi tout particulièrement Mr
Assemat, directeur du pTMle finance de marché, pour avoir su transmettre
sa passion et son esprit d'analyse. Enfin, nous souhaitons remercier
également Mr Rudelle, professeur d'économie et
Mr Viar, professeur de mathématiques, sans qui tout cela
n'aurait été possible.
INTRODUCTION
<< [ÉJ Les idées, justes ou fausses,
des philosophes de l'économie et de la politique ont plus d'importance
qu'on ne le pense en général. Ë vrai dire le monde est
presque exclusivement mené par elles. Les hommes d'action qui se croient
parfaitement affranchis des influences doctrinales sont d'ordinaire les
esclaves de quelque économiste passé. Les illuminés du
pouvoir qui se prétendent inspirés par des voies célestes
distillent en fait des utopies nées quelques années plus tTMt
dans le cerveau de quelque écrivailleur de
Faculté.È
John Maynard Keynes
<< Théorie générale de l'emploi, de
l'intérêt et de la monnaieÈ Chapitre 24, 1936
Les récentes crises financières et
monétaires sont indubitablement une préoccupation majeure des
acteurs des marchés financiers, des banques, des pouvoirs politiques et
des instances de régulation. Les fluctuations extrêmes des cours
de bourse sont importantes pour l'activité économique
réelle. La hausse de la volatilité en temps de crise,
corrélée à la chute des marchés financiers est
particulièrement inquiétante. Nous pouvons donner à ce
titre l'exemple de la crise des Subprimes, qui a annoncé la chute de la
banque américaine Lehman-Brothers disparue le 15 septembre 2008. Ce
climat pousse les acteurs du marché, comme les régulateurs
bancaires, à développer de nouveaux outils de protection contre
le risque de marché. La finance moderne met en avant les
mathématiques du hasard et de la statistique, conceptualisées par
des lois mathématiques probabilistes capables de mesurer le risque de
marché. Celui-ci se matérialise par l'espérance de pertes
auxquelles les investisseurs sont impliqués. Les variations des
marchés financiers : marchés des instruments de base Ð
actions, obligations, devises, matières premières Ð mais
aussi les marchés des produits dérivés Ð contrats
à terme, options Ð sont par définition risquées et
instables. Il faut par conséquent déterminer ce risque de
manière précise pour mieux l'appréhender. Parmi ces
outils, il existe deux mesures générales : la mesure de
sensibilité et la mesure de variance.
La première peut être théorisée en
fonction de la sensibilité que représente un produit financier
par rapport à son indice de référence. Ainsi, le risque de
marché est la probabilité de perte liée aux
évolutions des marchés. Na
·vement, si nous
possédons une action du Dow Jones Industrial Average et que l'ensemble
du marché subit une baisse, il semble naturel de considérer qu'il
va en être de même pour notre action. Cette première mesure
s'assimile à la sensibilité relative d'un actif détenu par
rapport aux facteurs de risque de marché. Ainsi, des modèles de
risque se sont
1
développés comme le << Capital Asset
Pricing M odel (CAPM)pour le plus connu. Ils mesurent la variance de la
rentabilité implicite du marché par un coefficient de
régression à des facteurs de risque par rapport au marché
dans son ensemble. Cependant, le <<risk manager a besoin d'une
mesure pragmatique du risque d'exposition. En effet, lorsqu' un nombre
important d'instruments très différents compose le portefeuille,
il est difficile d'adjoindre l'ensemble des covariances pouvant exister. C'est
pour cette raison qu'il est décisif d'appréhender le risque
à partir de profils à la fois différents et
complémentaires : la dispersion des pertes et profits des actifs.
La deuxième met en exergue deux mesures de risque
venant de la distribution des rentabilités des actifs : la
volatilité et la Value-at-Risk (VaR). Ces mesures ne se concentrent pas
sur les mêmes paramètres: La volatilité mesure les
variations d'un actif autour de la tendance centrale. Cette mesure accorde le
même poids aux gains espérés qu'aux pertes potentielles. Or
la notion de risque est directement liée aux pertes émanant d'un
actif détenu, lequel implique un revenu aléatoire. Une mesure
asymétrique pouvant juger du risque de perte est nécessaire. La
volatilité prend donc en compte toutes les rentabilités,
positives ou négatives, extrêmes ou modéré. La
Value-at-Risk peut se définir comme le quantile déterminant la
plus grande perte que peut subir un portefeuille avec une probabilité
d'occurrence et sur un horizon de temps déterminé: C'est un
indicateur pouvant estimer le risque extrême. Ces deux indicateurs
donnent une information différente. D'une part, la volatilité
peut enregistrer un taux élevé et seulement capturer des risques
moyens, certes significatifs, mais pas extrêmes. Tout l'enjeu d'une
mesure du risque synthétique pertinente est d'estimer convenablement la
perte éventuelle que peut subir un actif. D'autre part,
déterminer le risque par la volatilité, moment2
d'ordre 2,
1 Voir : W F. Sharpe
2 Pour tout n ? N d'une variable aléatoire
réelle X est défini par mn =ö
E(Xn)
3 4
présuppose que les moments suivants, le skewness et le
kurtosis , ne nécessitent pas d'être ajoutés dans une
mesure de risque viable. La théorie sous- jacente en est la
normalité des rentabilités. La loi Normale est en effet
caractérisée par les deux premiers moments. La volatilité
n'est assurément pas la meilleure mesure de risque extrême.
Utiliser la Value-at-Risk permet de passer outre ces difficultés dans la
mesure oü le quantile de la distribution ne représente pas un
équilibre moyen mais prend en compte les pertes extrêmes. Ce
mémoire de recherche prend son essence dans la recherche des valeurs
extrêmes appliquées à la Value-at-Risk, afin d'y
élaborer une mesure de performance ajustée du risque
cohérente. La prévention des évènements
extrêmes est aujourd'hui en plein essor. Nous le constatons
régulièrement:
· Dans l'étude du vent: à
près de 650 km de rayon, ayant atteint un
5
maximum de 280 km/h, l'ouraganKatrina fut le plus puissant et
le plus meurtrier des phénomènes naturels qu'ont connu les
Etats-Unis, prenant près de 1836 vies et causant plus de 108 milliards
de dollars à la collectivité locale6.
· Dans l 'étude des plaques tectoniques: le
tremblement de terre Crustal, touchant Ha
·ti le 12 janvier 2010,
était d'une magnitude de 7.0 - 7.3. Il a causé blessés
7
la perte de 230 000 vies, faisant 300 000 . 1.2 million
d'hommes et de femmes furent privés de ressources
vitales.
· Dans l'étude séismologique: le
séisme de la côte pacifique de Töhoku, oü le japon fut
impliqué, le 11 mars 2011, dans l'une des plus importantes catastrophes
de son histoire: Le Tsunami de Fukushima. Cet accident majeur a impacté
les réacteurs d'une centrale nucléaire laissant un important
volume de rejet radioactif.
3 Le coefficient d'asymétrie (Skewness)
correspond à une mesure la distribution d'une variable aléatoire
réelle. En termes généraux, l'asymétrie d'une
distribution est positive si la queue de droite est plus longue ou
épaisse, et négative si la queue de gauche est plus longue ou
dense.
4 Le coefficient d'aplatissement ou coefficient de
Pearson (kurtosis) correspond à une mesure leptokurtique de la
distribution d'une variable aléatoire réelle.
5 Ouragan de catégorie 5
6 Chiffre officielle publié par Knabb Richard
D, Ç Tropical Cyclone Report: Hurricane Katrina: 23-30 August 2005, NHC
(National Hurricane center), 20 décembre 2005.
7 Soit plus de 2.5% de la population
L'ensemble de ces évènements, dont
l'espérance mathématique d'en conna»tre la manifestation est
mince, est de nature extrême. Ils existent effectivement et doivent
être pris en compte.
Les statisticiens ont mis en place des mesures de
prévention de ces mouvements, utilisant la Ç théorie des
valeurs extrêmes È. Aujourd'hui les domaines d'applications
utilisant ces analyses sont nombreux. En hydrologie, par exemple, les
données excessives sont particulièrement utiles pour la
prévision des crues. Dans le domaine assuranciel, elles sont
utilisées dans l'évaluation des grands sinistres. En finance, les
marchés financiers connaissent eux aussi des mouvements erratiques
extrêmes liés à l'incertitude de l'environnement
macro-économique. Faire appel à la théorie des valeurs
extrêmes appliquées à la Value-at-Risk dans un tel climat
est un bon point d'appui quant à la recherche de la
vérité. Expérimenter ces analyses pendant la crise des S
ubprimes est intéressant: un investisseur aurait-il pu contrTMler son
risque en mesurant le risque de perte extrême?
Ce mémoire met en évidence les méthodes
théoriques et empiriques d'évaluations des valeurs extrêmes
conditionnelles appliquées à la Value-atRisk afin
d'émettre une stratégie performante ajustée du risque.
Celui -ci est divisé en deux sections:
Dans la première section, nous verrons l'aspect
théorique de la fréquence des rentabilités anormales sur
les 30 composantes du DJIA. Cette fréquence nous permettra
d'apprécier la vélocité et l'ampleur avec laquelle les
rendements d'un actif se meuvent d'un niveau de stabilité donné
vers un niveau supposé par la crise, transformant ainsi le discernement
qu'ont les investisseurs du risque d'un actif. Puis, nous étudierons la
mesure du risque appliquée à la VaR liée aux
théories des valeurs extrêmes.
Dans la deuxième section, à travers la partie
empirique, nous pourrons nous intéresser à leurs applications sur
le DJIA en période de crise des Subprimes.
I. SECTION THÉORIQUE
« Imaginez une regle tenue verticalement sur votre
doigt : cette position tres instable devrait conduire à sa chute, au
moindre mouvement de la main ou en raison d'un tres leger courant d'air. La
chute est liee fondamentalement au caractere instable de la position ; la cause
immediate de la chute est, elle, secondaire »
Didier Sornette, 2002
I.I. MODéLE DE FRÉQUENCE DES
RENTABILITÉS ANORMALES
Les aspects macroeconomiques montrent de façon
indubitable les consequences d'une crise, particulièrement celle des
Subprimes, qui fut, pour les observateurs les plus avertis, aussi importants
que celle qui a vu le jour du jeudi noir de 19298. Cependant,
lorsqu' on se situe sur un marche financier, dans notre exemple le Dow Jones
Industrial Average (DJIA), comment considerer l'impact qu'a eu cette crise sur
les actifs le composant ? Évaluer la hausse de la volatilite, sur un
intervalle de temps representant la crise, afin d'y extraire des rentabilites
anormales, peut etre un bon point d'appui. Mais comment pouvons-nous juger de
ce que peut representer le niveau de la volatilite dite normale à titre
de comparaison ?
La technique de l' « etude d'evenement »,
initie par E. Fama9, a precisement
pour objectif d'apprecier la
precipitation et la profusion avec laquelle un
8 Le « krach de 1929 » est une
crise financière qui se deroula à la Bourse de New-York entre le
jeudi 24 octobre et le mardi 29 octobre 1929. Cet evenement marque le debut de
la « Grande depression », la plus grande crise economique du
XXe siècle. Les jours-cles du krach ont herite de surnoms
distincts : le 24 octobre est appele « jeudi noir », le 28 octobre
est le « lundi noir », et le 29 octobre est le « mardi noir
», dates obscures de l'Histoire des bourses de valeurs.
9 Hypothèse d'efficience des marches
enseignee par E. Fama dans «Market effifiency, long-term returns and
behavioural finance », journal of finance economics, 1998, dans
lequel il quantifie les effets que peuvent impliquer un evènement de
nature à changer la perception qu'ont les investisseurs de la valeur
theorique d'un titre.
actif se déplace, transformant ainsi le discernement
qu'ont les investisseurs du risque d'un actif.
Nous allons pour ce faire nous focaliser sur la recherche des
rentabilités anormales, puis juger de leur significativité
à travers des tests statistiques.
I.I.1 TAUX DE RENTABILITÉS NORMALES ET
ANORMALES
Les crises financières et monétaires
occasionnent donc des mouvements particuliers sur le cours d'un titre.
L'approche utilisée pour isoler ceux-ci des fluctuations liées
à l'influence de facteurs exogènes à la crise des
Subprimes repose ainsi sur le calcul de rentabilités anormales. Par
définition, ces taux de rentabilités sont obtenus par
différence entre les rentabilités observées,
influencées par l'incertitude qui règne sur les marchés en
période de crise, et les rentabilités dites normales,
données par l'absence de perturbations majeures.
Les rentabilités anormales sont nécessairement
calculées en fonction d'un modèle de calcul. A ce titre, nous
avons choisi d'en présenter deux dans notre étude:
· Le modèle de moyenne
· Le modèle de marché.
I.I.1.1 PROCESSUS D'ÉVALUATION
Les variables du modèle permettant le calcul des
rentabilités anormales font l'objet d'une évaluation
préalable. Cette estimation doit être conduite sur une
période de temps antérieure dans laquelle il n'y eu aucune
représentation de crise ou d'évènements extraordinaires
capables de biaiser l'étude10.
1 0 Pour l'étude de la crise des subprimes, il est
important d'éviter les mouvements de bourse liés au choc du 11
septembre 2001 et du scandale d'Enron en 2003 par exemple.
I.I.1.2 PROCÉDURE DE TEST
C'est lorsque nous avons calculé les rentabilités
anormales que nous pouvons juger de la robustesse de ceux-ci.
· Une première étape consiste à
calculer la somme des taux de rentabilités anormaux obtenue à
partir des différents titres de l'échantillon.
· Une deuxième étape sera également
réalisée pour calculer les rentabilités anormales
cumulées (RAC) des titres pendant la crise. Cette information nous
permet de conna»tre la véritable intensité d'un
évènement par rapport à ses fluctuations
exogènes.
· Une troisième étape montre statistiquement
comment, à un seuil de risque octroyé , la crise des subprime
agit sur le cours.
I.I.2 CALCUL DES RENTABILITÉS ANORMALES
I.I.2.1 MODéLES THÉORIQUES
Dans ce mémoire de recherche, nous allons analyser
deux méthodes couramment utilisées dans la littérature
financière. Ces méthodes repèrent de facon efficiente la
présence de trajectoire de cours anormaux. Selon Stephen J. Brown et
Jerold B. Warner11, il s'agit du:
· Modèle de moyenne (constant mean return model,
Ç CMRM È)
· Modèle de marché (market modele,
Ç MM È)
1 1 Dans leur ouvrage ÇMeasuring security price
performance È, journal of financial economics, publié en 1980.
I.I.2.1.1 Modèle de moyenne
Attachée à l'évaluation du modèle de
moyenne, l'évolution des taux de rentabilité de l'action i
est formulée par:
Ri,t = 11i +
i,t
Oü R
·, indique le taux de rentabilité de
l'action i à la période t, u1, le taux
de
rentabilité moyen de l'action i, est e!,! l'innovation en date
t,
hypothétiquement homoscédastique a2(er)
et d'espérance nulle. Un modèle
ARCH - GARCH12 peut également être
étudié afin d'estimer une variance non constante dans le
temps.
I.I.2.1.2 Modèle de marché
13
Le modèle de marché fut initié par
Sharpeen 1963. Ce modèle postule
pour une relation linéaire entre le taux de
rentabilité R
·, d'un actif et le taux
de rentabilité
Rm,t de l'indice de référence, mesuré à partir de
l'action i. Ce
1 2 (( (Generalized) Auto Regressive Conditional
Heteroskedasticity . Créé par Robert F. Engle en 1982. Ce
modèle est un outil statistique qui mesure le comportement de la
volatilité dans le temps. Son créateur voulait un outil plus
précis que l'ARMA (( Auto Regressive Moving Average , utilisant
une volatilité constante. A travers ce principe, une dynamique est
introduite dans la détermination de la volatilité. Pour cela, on
admet que la variance est conditionnelle aux renseignements dont nous
disposons. Le modèle ARCH est
composé de deux équations: = zt
E(zt ) = 0var(zt ) =1 Dans
l'équation,
t t t
est une fonction non constante, mesurable et positive de
l'information disponible en t -1. Tim Bollerslev, en 1986, proposa une
extension au modèle ARCH, le modèle GARCH.
Il sert à modéliser
les phénomènes de persistance des chocs de
variance. C'est une solution alternative qui permet de ne retenir un nombre
limité de retards q, par rapport à un modèle ARCH (q)
linéaire. Il se présente de la manière suivante:
2 t
|
q p
2 2
= + +
i t i i t i
|
=+ (L) t2 +(L)
t2
|
|
i=1 i =1
13 Estimation de la valeur théorique d'un
actif financier exprimé dans le ((Capital Asset Pricing Model
(CAPM)
modèle s'inscrit donc dans le cadre d'une mesure de
sensibilité du titre étudié. Expressément, nous
avons:
Ri,t = +iRm,t +
i i,t
Oü a! et f.? sont les deux éléments du
modèle de marché, et !!, et une
perturbation
homoscédastique a2(e1) d'espérance nulle. Comme pour
le
modèle de moyenne, la variance peut être
calculée selon des critères
hétéroscédastique avec ARCH - GARCH.
I.I.2.2 ÉVALUATION DES PARAMéTRES
En ce qui concerne le modèle de moyenne, nous devons
calculer un simple paramètre donné par la rentabilité
moyenne 4u de l'action i sur N, la période pour
laquelle nous tirons nos taux de rentabilités normales. Le modèle
de marché quant à lui requière l'intervention de deux
paramètres distincts, à
savoir a et f.? de i sur les mêmes
périodes.
Pour ce faire, nous pouvons estimer l'ensemble des
paramètres liés à chaque modèle à l'aide
d'une représentation matricielle de la période N. A ce
titre, nous pouvons consulter les études de John Y. Campbell, Andrew W.
Lo et Craig MacKinlay, publiées en 199714.
Deux composantes sont à calculer. Soit Ri, le
vecteur composer des N taux de rentabilité et Xi :
· Un vecteur de N lignes égales à 1
pour le modèle de moyenne
· Une matrice à deux colonnes et N
lignes dans le cas du modèle de marché dans laquelle les
lignes de la première colonne sont égales à 1 et celles de
la deuxième colonne prennent pour valeur le taux de rentabilité
du marché en N.
1 4 Ouvrage: Ç The econometrics of financial markets
È, Princeton University Press, Chapitre 4.
· Enfin, nous avons un vecteur 8
· de
paramètre agrégé au modèle utilisé,
soit ji. pour le modèle de moyenne, soit (a1,f3!) pour
le modèle de
marché.
Cette représentation donne formellement l'équation
suivante:
Ri = Xi +
i i
Pour chaque modèle, l'appréciation des
paramètres peut aussi s'effectuer par le calcul des moindres
carrés ordinaires (MCO). On peut observer à présent
l'expression des différents estimateurs comme suit:
ö = i
1Xi'Ri
(Xi'Xi)
'
ö 2( i) = (N k ö 1
iö i )
ö i
2( i)
= Ri Xi i
1
2( i) =
(Xi'Xi)
Oü k désigne le nombre de paramètres
du modèle utilisé.
· k = 1 pour le modèle de moyenne
·
15
k = 2 pour le modèle de marché
I.I.3 RENTABILITÉS ANORMALES
Énoncées précédemment, les
rentabilités anormales sont obtenues par
différence entre les
rentabilités étudiées en Ai et les
rentabilités dévoilées
par le modèle en
Ni. Estimé à partir d'une reproduction matricielle
des
données, le vecteur ö des A
rentabilités anorm ales estimées est décrite par
7
la relation:
ö i = Ri
Xi ö i
Dans lequel R!! et
X!4 sont les corollaires de R et X respectivement. Le
vecteur des taux anormaux sur Ai peut s'analyser de
telle sorte qu'il existe une ' erreur È commise dans la
prévision de la rentabilité du titre i.
Mathématiquement, cette ' perturbation È réelle
s'exprime comme:
L'espérance mathématique des taux de
rentabilités anormales, liés aux valeurs Xj!,
elles-mémes tirées des variables explicatives sur la
période de crise, est donnée par:
E ö i


Avec 8L, calculé précédemment,
l'équation donnée par !L - !! =
(X!!X1 ) ! 'X!! . Celle-ci montre une
espérance nulle dans la mesure oü la
perturbation est
supposée indépendante et identiquement identifiée sur
Ni et Ai.
I.I.4 TEST DE SIGNIFICATIVITÉ
Comment pouvons-nous juger de la significativité des
tests réalisés selon les modèles théoriques
réalisés précédemment? Plusieurs étapes
peuvent être mise en Ïuvre pour en tirer une hypothèse
viable. Afin de montrer la véracité du raisonnement
utilisé dans cette étude, nous allons dans un premier temps
étudi er, en passant par la technique des moindres carrés
ordinaires, un actif considéré indépendamment avant
d'initier une analyse sur données associées.
I.I.4.1 MOINDRES CARRÉS ORDINAIRES
Dans la littérature économétrique, une
rentabilité anormale est assimilable à un point aberrant par
rapport à une suite de variables iid. Dans notre étude, nous
usons des hypothèses classiques dans laquelle les moindres carrés
ordinaires sont donnés par le vecteur des espérances des
Ai lignes et de la matrice de variances-covariances des Ai
lignes et des Ai colonnes de cette erreur. Nous avons :
E öi Xi =
0
2
Vi ö i
|
'
Xi = 2( i) +
2( i) Xi
(Xi'Xi)
1Xi
|
|
vi, MM
vi,
MM
1
(Rm, Rm)2
Oü I montre formellement la matrice identifiée par
les Ai lignes et des Ai colonnes. Parce qu'il prend en compte
un élément additionnel lié à l'étude de
l'indice de référence, les indicateurs v!,, de la diagonal
Vi dans le modèle de marché prend l'expression
suivante:
= 2( i) 1+ +
N
(Rm,t Rm)2
N
t
=2( i).Cm,
Oü Rm se rapporte au taux de
rentabilité moyen de l'indice de référence sur
Ni. Nous le verrons dans la sous-section suivante lorsque Pattel dans
son ouvrage publié en 1976 et Boehmer dans sa publication de 1991,
utilisent cette expression dans leurs tests statistiques. En outre, cette
formule permet de dissocier la hausse de la volatilité, exprimée
par l'écart-type des fluctuations des cours, et la perturbation
liée aux rentabilités anormales. Logiquement, l'accroissement de
la variance est une fonction décroissante du nombre d'observations N
utilisé pour estimer les valeurs des paramètres. Cela a pour
effet de lisser la volatilité de l'étude des rentabilités
normales. C'est pour cette raison qu'il est justifié d'utiliser un laps
de temps N équilibré entre stabilité et
précision. L'augmentation sera d'autant plus forte que les conditions de
marché dans lesquelles sont calculées les rentabilités
anormales s'écartent de celles qui avaient cours lors de la phase
d'estimation des paramètres. Dans les faits, la valeur
de a2(E1) est inconnue. Nous utiliserons alors l'estimateur sans
biais noté a2(E1). Pour ce faire, nous serons amenés
à utiliser l'estimateur 11L de la matrice de
variances-covariances des taux anormaux dont la formule est
donnée par15:
öVi ö 2(
i) + ö 2( i)
Xi
'(Xi'Xi)
1Xi
Exprimé par la quantité, calculé avec :
övi, MM = ö 2(
i) 1+ N1
|
+
|
(Rm, Rm)2
|
|
|
t
övi, M M = ö 2(
i).Cm,
1 5 Nous devons savoir si l'analyse de cette dernière
donnée est homoscédastique. En cas contraire, le risque
spécifique peut biaiser les calculs. Boehmer se propose d'étudier
se corollaire à travers une étude statistique.
I.I.4.2 RENTABILITÉS ANORMALES TRANSVERSALES ET
CUMULÉS
L'analyse des rentabilités anormales transversale
permet de juger de la signification d'un échantillon donné
à une période T. Une quantité importante de travaux de
recherche a été réalisée en fonction du
comportement des rentabilités sélectionnées. Parce que
nous travaillons sur les queues de distribution, ces statistiques vont avoir
pour propriétés d'être asymptotiquement normales,
d'espérance nulle et de variance égale à 1. La convergence
vers la normalité étant vérifiée dès lors
que le nombre de données est important (Brown et Warner) ou que le
nombre d'actifs étudié soit supérieure ou égale
à 30 (Pattel, Boehmer et al.). Les rentabilités anormales
cumulées (RAC) permettent de juger de l'effet de la crise sur les
différents actifs que peut détenir un actionnaire. C'est la
représentation de l'amplitude des rentabilités anormales d'un
échantillon sur une période donnée.
I.I.4.3 MÉTHODE DE BROWN ET WARNER
La méthode de Brown et Warner, notée, est la plus
couramment utilisée dans l'industrie financière. Cette
statistique s'exprime:
Nous avons donc les rentabilités anormales
équipondérées de l'ensemble des titres sur la
volatilité que peuvent générer celles-ci. C'est donc la
rentabilité Ai obtenue divisée par le risque que
celle-ci génère par ses variations erratiques en période
de crise. Il est à noter que cette statistique implique une constance de
la volatilité dans le temps. Nous pouvons aussi remarquer que cette
hypothèse n'est plus vérifiée en phase de Ç
partitionnement des données È ou Ç Clustering
È dans lequel deux ou plusieurs titres réagissent, sur un
intervalle de temps i, à un évènement lambda.
Cette corrélation est exprimée à travers de nombreux
exemples sur les marchés financiers.
I.I.4.4 MÉTHODE DE PATTEL
La méthode de Pattel peut se conceptualiser en deux
parties. Les rentabilités anormales appartenant à la
période de crise sont pris un à un afin d'être
calculées par l'écart-type (soit le risque) de l'erreur
d'estimation. Cet écart- type correspond au Tème
élément de la dia gonale de la matrice V, donné par
l'expression öVi, MM = ö (
i).Cm, , vu précédemment. Pour la
méthode de Pattel, nous avons la formule de la rentabilité
anormale standardisée, telle que:
ö i,
i, övi,
Le poids que peut donner un titre à forte
volatilité historique dans le portefeuille est diminué. La
statistique de Pattel prend la forme de:
I=1
N
,
I

N

1
2
N
N
1
N(N 1)
N i =1
i =1
20
UNE VISION QUANTITATIVE DU RISQUE EXTRæME
APPLIQUÉE Ë LA CRISE DES
SUBPRIMES
I.I.4.5 MÉTHODE DE BOHEMER, MUSUMECI ET
POULSEN
Faisant foi d'une robustesse plus importante lorsque la
variance augmente, cette statistique cherche à valider ou non
l'hypothese selon laquelle A tend vers 0 pendant la période
d'échantillonnage. La méthode de Bohemer, Musimeci et Poulsen
s'exprime des lors comme:
1 N
N i =1
L'incertitude est au cÏur de la logique
financière. Le profil de risque que les investisseurs prennent à
travers leurs positions est par conséquent déterminant. Le test
des rentabilités anormales prend en compte deux paramètres:
l'espérance mathématique et l'écart-type. Lorsque les
marchés sont en équilibre, il est alors possible d'envisager une
relation entre la rentabilité attendue et son risque intrinsèque,
déterminé à partir de l'écart qu'il peut exister
entre la rentabilité moyenne historique amenée par cette
dernière. Le test des fréquences anormales sur un temps long a
donc pour objet de conna» tre l'ampleur, mais aussi la durée, que
peut amener de telles rentabilités en période d'incertitude. Nous
pouvons désormais reconna» tre, de facon plus rigoureuse,
l'état de crise, la quantifier, peut-être la comparer.
Cette introduction nous amène à penser qu'il est
nécessaire d'établir une solide gestion de mesure des risques.
I.II. MESURE DU RISQUE
Ç Les influences qui déterminent les
mouvements de la Bourse sont innombrables, des événements
passés, actuels ou même escomptables, ne présentant souvent
aucun rapport apparent avec ses variations, se répercutent sur son
cours. [ÉJ Mais il est possible d'étudier mathématiquement
l'état statique du marché à un instant donné, c'est
-à-dire d'établir la loi de probabilité des variations de
cours qu'admet à cet instant le marché. Si le marché, en
effet, ne prévoit pas les mouvements, il les considère comme
étant plus ou moins probables, et cette probabilité peut
s'évaluer mathématiquement È
Louis bachelier
Ç Théorie de la spéculation È.
Annales scientifiques de l'E.N.S. 3ème série, tome 17 (1900), p
21-86
La finance moderne met en avant les statistiques. Ceux-ci
rationalisent le mouvement de prix des marchés financiers. Le risque en
est par conséquent mesurable et gérable. Les travaux en ce
domaine ont débuté selon la connaissance générale
en 1900, quand un jeune mathématicien, Louis Bachelier, eut la
curiosité d'étudier la fluctuation des cours des marchés
financiers dans sa thèse : Ç Théorie de la
spéculation È. Inspiré par Pascal et Fermat, qui
avait initié le concept de probabilité, L. Bachelier
étudia dans sa thèse les bons du trésor francais.
Considéré comme le précurseur de la théorie moderne
du portefeuille et des mathématiques financières, L. Bachelier
met en avant un concept nouveau : les prix montent et descendent avec des
probabilités égales. Pour ainsi dire, si le nombre de
données augmente à un rythme élevé, les
échanges boursiers se fondent en un bruit stationnaire. Le risque de
marché matérialise l'espérance de pertes auxquelles les
investisseurs sont impliqués. Pour le gérer , il faut donc
l'évaluer de manière pr écise. A ce titre, parmi ces
outils, existe:
· Les mesures de sensibilité
· Les mesures de variance
Une première mesure du risque est en fonction de la
sensibilité que représente un actif par rapport à son
indice de référence. Cette première mesure s'assimile
à la sensibilité relative d'un actif détenu par rapport
aux facteurs de risque de marché. Elle mesure la variance de la
rentabilité implicite du marché par un coefficient de
régression à des facteurs de risque, tel le marché dans
son ensemble. Formellement, nous avons:
cov(Rp, Rm)
=
var(Rm)
16
Oü Rp est le taux de
rentabilité de l'action et Rm , celui du
marché .
Cependant, le <<risk manager È a besoin
d'une mesure pragmatique du risque d'exposition. En effet, lorsqu'un nombre
important d'instruments très différents compose le portefeuille,
il est difficile d'imbriquer de facon cohérente l'ensemble des
covariances pouvant exister. C'est pour cette raison qu'il est décisif
de capturer le risque à partir de profils différents : La
dispersion des pertes et profits des actifs.
Nous pouvons mettre en exergue deux mesures de risque venant
de la distribution des rentabilités des actifs : la volatilité et
la Value-at-Risk (VaR). Ces mesures ne se concentrent pas sur les mémes
paramètres:
· La volatilité mesure les variations d'un
actif autour de la tendance centrale. En effet son expression en fonction du
vecteur des taux de rentabilités R est17 :

= E (RE(R))2
1 6 Le modèle de marché, vu dans la sous-section
précédente, n'est qu'une relation statistique utilisant la
môme notification <<bôta È,
17 Regnault nous enseigne en 1863 qu'il existe une
loi mathématique qui règle les variations
et l'écart
moyen des cours de la Bourse: L'écart des cours est en raison directe de
la racine
carrée du temps. Cette écart se définit
dans la pratique par: t. , oü t représente la
fenôtre de temps pour laquelle la volatilité Ç
historique È est calculée.
Cette mesure accorde le même poids aux gains
espérés qu'aux pertes potentielles. Or la notion de risque est
directement liée aux pertes émanant d'un actif détenu,
lequel implique un revenu aléatoire. Une mesure asymétrique
pouvant juger du risque de perte est nécessaire. La volatilité
prend donc en compte toutes les rentabilités, positives ou non,
extrêmes ou non.
· la Value-at-Risk peut se définir comme le
quantile déterminant la plus grande perte que peut subir un portefeuille
avec une probabilité d'occurrence donné sur un horizon
déterminé à l'avance : nous sommes en présence d'un
indicateur pouvant estimer le risque extrême.
Ces deux indicateurs donnent une information
différente. D'une part, la volatilité peut enregistrer un taux
élevé et seulement capturer des risques moyens, certes
significatifs, mais pas extrêmes. Tout l'enjeu d'une mesure du risque
synthétique pertinente est d'estimer convenablement la perte
éventuelle que peut subir un actif. Or un titre ' a peut avoir
une volatilité de 10% mais ne pas observer d'extremum très
important, avec un maximum de 5% de perte sur une journée par exemple .
Au contraire, un actif ' b comptant une volatilité de 5%, peut
conna»tre des pertes, certes rares, de plus de 20%. Le titre ' b
nous semble donc plus risqué, même si ses risques Ç
moyens s'avèrent être moins importants que ceux du
premier.
18
D'autre part, d éterminer le risque par le
momentd'ordre 2, la volatilité,
19
présu ppose que les kurtosis 20
moments suivants, le skewness et le , ne nécessitent
pas d'être ajoutés dans une mesure de risque viable. La
théorie sous- jacente en est la normalité des
rentabilités. La loi Normale est en effet caractérisée par
les deux premiers moments. Utiliser la Value-at-Risk permet de passer outre ces
difficultés dans le sens oü le quantile de la distribution ne
représente pas un équilibre moyen mais prend en compte les pertes
extrêmes. En outre, nous pouvons souligner le fait que la
volatilité n'est assurément pas la meilleure mesure de risque
extrême. Nous allons
1 8 Pour tout n ? N d'une variable aléatoire
réelle X est défini par mn =ö
E(Xn)
19 Le coefficient d'asymétrie (Skewness)
correspond à une mesure la distribution d'une variable aléatoire
réelle. En termes généraux, l'asymétrie d'une
distribution est positive si la queue de droite est plus longue ou
épaisse, et négative si la queue de gauche est plus longue ou
dense.
20 Le coefficient d'aplatissement ou coefficient de
Pearson (kurtosis) correspond à une mesure leptokurtique de la
distribution d'une variable aléatoire réelle.
dans cette partie étudier plus en détail cette
mesure de risque en utilisant la théorie des valeurs extremes.
I.II.1 MESURE DU RISQUE GAUSSIEN
I.II.1.1 DISTRIBUTION DE GAUSS
I.II.1.2.1 Loi des grands nombres

D'un point de vue théorique, une variable continue prend
une infinité de
valeurs à l'intérieur de son intervalle
de définition. La loi des grands
nombres compte pour ce faire
un
échantillon assez important de
variables aléatoires. En
ce sens, la
théorie des grands nombres est
simple: Si la taille de
l'échantillon est
assez importante, la moyenne
empirique de la
variable étudiée tend
vers celle théorique de somme
unitaire .
Par conséquent, considérons un
échantillon d'observation x1,
x2...xn d'une variable aléatoire
X1 ,
d'espérance u et d'écart-type finis. Des
lors, la loi des grands nombres
Nous avons alors: P(lim Mn = u) =1.
La loi
n
énonce que, quand n , l
converge en direction de u .
a moyenne empirique
+...
Mn = (x1 +
x2 + xn)
n
des grands nombres est une loi asymptotique qui assure ainsi
que la moyenne empirique est un estimateur convergent de l'espérance
mathématique.
I.II.1.2.2 Loi de Gauss
La loi normale de la lois continues 21
partie
fait famille des . Elle est associée
aux noms de Carl Friedrich Gauss et de Pierre Simon Laplace.
Appelé, le théorème central limite, celui-ci indique que
la somme des variables est distribuée de facon aléatoire et
indépendante lorsque le nombre de données dans la somme augmente.
Cette loi est définie par la moyenne u , et la
2
variance parce qu'elle est symétrique par rapport
à la tendance centrale.
Nous exprimons la fonction de densité de
probabilité de la loi normale avec X + comme:
1
P(x) =
2
|
e
|
1X m
( )2
22
|
|
La loi normale a une tendance centrale nulle et un
écart typeégale à 1.
Nous avons donc par
définitionN (0,1). Puisque P( x) =
P(x), pour toute
variable centrée et réduite, la médiane,
la moyenne et le mode sont confondus. Pour exprimer la continuité de ce
théorème, nous pouvons écrire la fonction de distribution
cumulée pour P(x) = P(X x):
x
P(x) =
P(t)dt
2 1 Une loi de probabilité est dite continue
lorsqu'elle se rapporte à une mesure de Lebesgue. Pour plus
d'explication, se référer à l'ouvrage de G. Saporta:
Ç Probabilités, analyse des données et statistiques
È.
Si les différents écarts-types pris un à
un sont dérisoire s par rapport à
l'ensemble, le
théorème de la limite centrale reste valide. La
distribution
gaussienne d'écart-type proportionnel
Nb of standard deviations
Number 4000 of data
in
interval
3000
2000
1000
0
-6.0 -4.0 -2.0 0.0 2.0 4.0 6.0


1

à représente la différence entre le
n
moyenne empirique Mde
n
l'échantillon et l'espérance ude la
variable aléatoire X . L'approximation
de
la moyenne théorique upar la
moyenne empirique Mn permet de
contrôler l'erreur énoncée
précédemment. La probabilité que
Mn
soit dans l'intervalle [ u t ,u + t ]
se retrouve représentée par l'aire sous
la courbe comprise
entre les abscisses t et + t . Sur les marchés
financiers, la plupart des mouvements sont inférieurs
à une fois l'écart-type. Cette mesure représente 68% des
amplitudes à la hausse comme à la baisse. 95% doivent être
à moins de deux écarts-types et 98% à moins de trois
écarts-types. Selon cette loi de probabilité, il existe
très peu de grands mouvements.
La thèse de L. Bachelier fut largement ignorée
par ses contemporains. Cependant, ses travaux furent traduits,
réédités, puis développés pour aboutir au
grand édifice de l'économie et de la finance
moderne22.
I.II.1.2 VALUE-AT-RISK CLASSIQUE
La Value at Risk est une mesure de risque statistique
popularisée dans les années 1990 par JP Morgan. La Value-at-Risk
peut se définir par la perte maximale que peut engranger un portefeuille
sur un laps de temps et un niveau de confiance donnée.Ç The
greatest benefit of Value-at-Risk lies in the imposition of a structured
methodology for critically thinking about risk. Institutions that go through
the process of computing their VAR are forced to confront their exposure to
financial risks and to set up a proper risk management function. Thus the
process of getting to Value-at-Risk may be as important as the number itself
È souligne P. Jorion dans son ouvrage: Ç Value at Risk:
The New Benchmark for Controlling Market Risks È, paru
22 Développée initialement par H.
Markowitz en 1954
23

3000
2000
0
4000
Number
of data
in
interval
1000
VaR(q)
-6.0 -4.0 -2.0 0.0 2.0 4.0 6.0
Nb of standard deviations
en 1996. P. Jorionnous enseigne que
la valeur
W!T du portefeuille est
donnée

par W exp( RT ) avec W0,
la valeur
T
initiale d'un portefeuille de titres et
R!T son taux de
rentabilité continu sur un
P'
horizon T donné par ln( ) . Dès lors,
P' 1
nous notons l'équation
W =W0 exp(R ) ,
représentant la
valeur minimale du portefeuille que l'on étudiera avec
une probabilité égale au seuil q, le seuil de risque
dont nous voulons étudier la représentativité. La valeur
de la VaR est donnée par:
W W0 =W0 exp(R
) 1
De manière plus formelle, notons f(w), la distribution
des valeurs du
portefeuille à la date T, la valeur
W* est analogue à q = f
(w)dw. A ce
w
titre, si nous notons la probabilité
p=Prob(w=W*), l'espérance
mathématique de la valeur du portefeuille se situe
au-dessus de W*, nous obtenons:
W
p = f (w)dw =1
q
23 P. Jorion est professeur de finance à
l'université de Californie à Irvine. Ingénieur de
formation, il obtient un Ph.D en Çfinance internationaleÈ
à l'université de Chicago en 1983.
28
pème
D'un point de vue économétrique ,
W* se défini t comme le percentile
de la distribution de l'échantillon à la date
T. La Value-at-Risk s'intègre pleinement dans le cadre de la
gestion de portefeuille, pouvant signifier précisément au
gérant ou aux institutions financières à quelle valeur
peut être estimée le risque économique et
réglementaire24.
I.II.2 DISTRIBUTION DES VALEURS EXTRæMES
Ç Les théoriciens classiques ressemblent
à des géomètres euclidiens qui, dans un monde
non-euclidien découvrant par l'expérience que des lignes droites
parallèles se rencontrent souvent, reprocheraient aux lignes de ne pas
rester droites - comme seule remède aux collisions malheureuses qui se
produisent. Pourtant, en vérité, il n'existe pas d'autre
remède que de se débarrasser de l'axiome des parallèles et
de travailler dans une géométrie non-euclidienne. C'est une chose
similaire qui est requise aujourd'hui en économie È
John Maynard Keynes
La théorie des valeurs extrêmes (TVE) est
étudiée dans le cadre de la recherche d'évènements
rares d'une suite de variables aléatoires indépendantes et
identiquement identifiées. L'observation des cours des actifs financiers
montre que ceux-ci sont hypothétiquement influencés par leurs
cours passés, auquel l'aléa est souvent modélisé
par un mouvement brownien géométrique. La théorie des
valeurs extrêmes est donc un cas particulier de ce mouvement.
L'intérêt concret de l'étude des extrêmes se trouve
dans l'analyse des maxima et des minima des séries statistiques
concernées.
Sur les marchés financiers, nous gardons toujours
à l'esprit les grandes crises qui ont marquées notre histoire,
poussant les actifs à atteindre des valeurs extrêmes comme pour la
crise des Subprimes. En outre, bien conna»tre la distribution maximum et
minimum se révèle être un excellent
24 Notamment avec les directives B%ole II, III.
outil d'aide à la décision, voire une
opportunité de gestion en temps de crise.

La Théorie des Valeurs Extremes s'intéresse non
pas à la modélisation totale d'une distribution mais seulement
aux queues des lois spécifiques25.
N (x)
Deux théorèmes sont indispensables pour une
bonne compréhension de la Théorie des Valeurs Extremes : celui de
Fisher- Tippet et celui de Balkema - de Haan-Picklands. Deux méthodes
principales de modé lisation des
0%
3.0 4.0 5.0 6.0 7.0
évènements rares sont possibles : La
méthode <<Block Maxima>> (BM) qui modélise la
distribution des extremes par la Generalized Extreme Value Theory (GEV)
dérivant explicitement du théorème de Fisher-Tipett, et la
méthode <<Peaks Over Theshold>> (POT) qui modélise la
distribution des excés au-dessus d'un seuil élevé (faisant
appara»tre les queues de distribution) par la Generalized Pareto
Distribution (GPD) estimé par le théorème de Balkema-de
Haan-Picklands. Cette dernière méthode sera
modélisée en fréquence des rentabilités anormales
afin d'estimer le paramètre u de la crise des Subprimes.
I.II.2 1 ÉTUDES FONDAMENTALES
Concernant la loi faible des grands nombres, rappelons
cependant les études fondamentales permettant de lier la théorie
fondée sur le comportement asymptotique de la distribution d'une somme
de variable aléatoire et celui de la distribution du maximum et du
minimum.
25 Voir Embrechts, Kluppelberg, Mikosch et Beirlant,
Goegebeur, Segers, Teugels pour plus d'approfondissements.
Soit X une variable aléatoire appartenant au
domaine d'attraction d'une
fonction D(G ) avec (0,2) et
(bn) une suite croissante de nombre R
telle que P(X > bn) ~ 1
, F1 = X1 et Fn = max(X1,
X2,..., Xn),n > 2 , alors
n
lim P(Yn >
bnxn) = lim P(Yn >
bnxn) =1
n nP(X > bnxn) n
nP(Fn > bnxn)
Cela nous permet de conna»tre la probabilité,
pour un nombre n grand, du dépassement d'un seuil x
par l'ensemble de la composition d'une suite de n
variables aléatoires. Lorsqu'une de ces variables se
présente de facon extreme par rapport aux valeurs prises par chacun des
autres éléments de la suite, nous considérons que le seuil
x a été franchi. Ceci caractérise
l'événement rare dont nous cherchons à étudier la
distribution.
I.II.2.2 LOIS DES MAXIMA : RÉSULTAT EXACTS
Le phénomène empirique suit une marché
aléatoire, mesuré par une variable X, décrivant
l'évolution du prix d'un actif financier. La variable aléatoire
X présente la rentabilité logarithmique. Nous
dénommons
· gX la fonction de densité
notée [l, u ]
· GX la fonction de répartition
de probabilité de la variable aléatoire X. Soit X1,
X2,É, X une suite de variables aléatoires aux dates 1, 2
É, n .
n Nous
écrivons Fn la rentabilité
maximum et fn le minimum, dont ceux-ci observées sur
n séances boursières. Dans la suite de notre
mémoire de recherche, nous traiterons les résultats ne concernant
que le maximum (Fn), car ceux obtenus au minimum
(fn) s'en déduisent en considérant la
série opposée X1, X2,...,
Xn, démontrée par l'équation suivante
:
fn(X)Min(X1,
X2,..., Xn)
= Max( X1,
X2,..., Xn) Fn(
X)
Si les cours suivent une marche aléatoire
Pt+1 = Pt + X1,
X2,É,
t+1 .de variable
Xn indépendamment, alors les
distributions du maximum Fn sont
conférées
parGFn (x) = [
GX (x)]n. Les
propriétés statistiques du maximum dépendent de
GX pour les grandes valeurs de x. En ce qui
concerne les autres valeurs de x, l'influence de
GX(x) se révèle être de moins en moins
important avec n. C'est donc dans les queues de distribution de
X, par définition synonymes d'extrême, que nous allons
nous pencher dans cette étude. Nous pouvons en déduire la forme
de la loi limite de Fn en faisant tendre n vers
l'infini et en se servant de la formule. La fonction de répartition
x < u = 0 et x > u =1 . Dans ce cas,
la loi limite est dégénérée parce qu'elle se
réduit à une masse de Dirac26 portée en
u. Toutefois, les formules présentées ci-dessus
présentent un intérêt limité. La loi de la variable
X est rarement connue précisément en pratique, ainsi que
la loi du terme maximum. Nonobstant, même si la loi de la variable X
est exactement connue, le calcule de Fn peut
être vecteur de difficulté. Dépossédée
d'expression analytique, la distribution d'une variable normale se
révèle être une intégrale incalculable.
nème
Sa puissance nous conduit à de sérieux
problèmes numériques que ce
soit pour les grandes valeurs de n ou de x.
C'est pour ces différentes raisons que nous sommes astreints à
étudier le compor tement asymptotique du terme maximum
FnÕ.
Cependant, Il existe deux théorèmes distincts
capables de contourner le problème de
dégénérescence. Selon la méthode employée,
il s'agit du théorème de Fisher-Tippet et du
Théorème Balkema-de Haan-Picklands. Nous allons rentrer dans les
détails dans la section suivante.
26 Dans une masse de Dirac, mesuré a partir
d'un espace (X,) et un point a dans X, tel que A
,( a(A) =1 si a A et
a(A)=0 si a A.
I.II.3 MESURE DU RISQUE EXTRæME
I.II.3.1 THÉORéME DE FISHER-TIPPET
Théorème Fisher-Tippet:
Si pour une distribution G non connue, l'échantillon
des maxima normalisés converge en loi vers une distribution non
dégénérée, alors il est équivalent de dire
que G est dans le MDA de la GEV Hî
A partir des données de prix traitées de
façon journalière lors de la crise de Subprimes, nous supposons
avoir une suite première d'observations X1, X2,
É , Xn issue d'une fonction de distribution inconnue
F27. Cet échantillon peut être séparé en
k blocs28 disjoints de même longueur s. Les
données
X1(1),X2(1),...,X!(1),
i = 1, É, k sont de natures indépendantes et
identiquement identifiées avec comme fonction de
distribution F. Nous nous attachons à conna»tre les maxima
de ces k blocs comme:
Y S = max(X1 ,
X2 ,..., Xs )
Qui agence la base de
ce qui sera notre échantillon de données supposées
indépendante
Y!!,Y!!,...,Y,!. La loi
fondamentale à la modélisation des
maxima est la Generalized Extreme Value (GEV) définie par
la fonction de répartition suivante:
!
exp( (1+ x)
H ! (x) =

si
= 0
exp( e x)
27 A ce stade, aucune hypothèse n'est
présupposée
33
28 Un bloc peut correspondre à un mois, un an,
etc.
Oü x est tel que 1+ x > 0. est le
paramètre de forme. La GEV rassemble
trois distributions particulières:

§? Si >0, la loi de Fréchet (Type
I):
(x) = G1
k
|
x 1
( 1
|
0 x 0
) = exp( x k) x > 0
|
|
k

!
§? Si <0, la loi de Weibull (Type
II):
(x) = G
1
k
|
x 1
( 1+
|
exp( x k) x 0
) =
1 k > 0
|
|
k

|
|
§? Si =0, la loi de Gumbel (Type III):
(x)= G0(x)= exp( e
x)
|
|
|

Ainsi, nous avons exposé sur les graphiques
correspondant à chaque
itération deux
paramètres29 : Le paramètre de localisation 4u et
celui de
x u
dispersion o>0. La GEV prend alors la forme de : H !
(x) = H ! ( )
,u,
La démonstration fondamentale de la modélisation
des maximas est celui de
Fisher-Tippet30. Supposons que nous
ayons deux suites d'entiers réels tel
que a >0 et b
· tel que :
!
ai
1(Yis bi) H P {
ai 1(Y bi) y}=
Fs(aiy+bi)
H(y)
Avec H, une loi non
dégénérée.
ai 1(Yis
bi), et Pour s?8, les k maxima
normalisés. Alors, F est dans le
Çmaximum domain of attraction È (MDA)
de H, que nous pouvons écrire plus formellement
par F?MDA(H).
Fisher-Tippet montre alors que F?MDA(H) si, et seulement si,
H est du
type de H ! . La GEV est donc la seule distribution
limite non dégénérée
29 Les paramètres .i et a peuvent
également s'écrire respectivement et
30 Démontré en 1928
35
pour un échantillon de maxima normalisé. Nous
obtenons alors une méthode simple de sélection de forme F.
Le tableau ci-joint souligne quelles distributions sont associées
aux lois de la GEV.
TAB: MDA
Gumbel Fréchet Weibull
Normale Cauchy Uniforme
Exponentielle Pareto Beta
Lognormale Student
Gamma
I.II.3.1.1 Modélisation paramétrique des
maxima par blocs
La modélisation issue du théorème
Fisher-Tippet, suppose que l'échantillon de maxima suive exactement une
loi GEV.
I.II.3.1.2 Sélection de la taille des blocs
La littérature financière classique et
l'exercice des statistiques en finance ne définissent pas une dimension
standard dans la sélection des blocs. Il faut cependant que s
soit de taille suffisamment importante pour que la condition asymptotique
vue précédemment soit considérée.
L'ingénierie financière dans les faits prend en compte un nombre
de maxima caractéristique pour que l'estimation des paramètres de
la GEV soit assez précise. Il est donc usuel de prendre s = 21,
soit un mois boursier, ou s = 254, soit un an.
I.II.3.1.3 Estimation du modèle BM par le
maximum de vraisemblance
C'est à partir de l'échantillon lié
à la sélection des maximas précédente que nous
pouvons estimer les paramètres de la GEV. La méthode
utilisée pour l'évaluation du modèle BM se
réfère au maximum de vraisemblance initié pour la
première fois par Fisher au début du siècle dernier. Soit
l'échantillon
de maxima supposé indépendant
Y=(Y1,Y2,...,Yk) et h! , la densité de
,u,
x u !
la loi GEV H ! (x) = H ! ( ) pour ?0
:
,u,
1 ! Y u
h! (y) = 1+ ( )
,u,
|
!
1+
!
exp 1+
|
! y u
( )
|
1 !
|
|
|
"
La vraisemblance de l'échantillon Y est : !(
|
n
,u, ,Y)= h"
(Yi)
,u,
i=1
|
. Il fait
|
|
31
appel à des procédures numériques pour la
maximisation de la
vraisemblance. Il est alors aisé de calculer les
estimateurs dans le cadre de la
loi des grands nombres. En revanche, il est
difficile de donner un estimateur
asymptotique efficace et normal, particulièrement
lorsque l'échantillon est
!
de petite taille. R. Smith32 montre qu'il suffit
que =-0.5 pour que les
états de régularité du maximum de
vraisemblance soient conformes. Pour le
!
cas oü = 0, la log-vraisemblance est égale
à:
n Yi /1
l(0,/1, ,Y)= nln exp(
i= 1
|
nYi /1
)
i=1
|
|
Plus précisément, en dérivant cette
fonction afin de mettre en scène les deux paramètres
exposés antérieurement nous obtenons le système
d'équations suivant.
3 1 En réalité l'Algorithme de quasi-Newton
32 Dans son ouvrage: ÇExtreme Value Analysis
of environnemental Time series: an Application to Trend Detection of
Ground-Level ZoneÈ
37
Il est à noter pour conclure qu'il n'existe pas de
solution à ces équations de maximisation33.
) = 0
n Yi u
n exp(
i =1
n+
|
n
|
Yi u
|
Yi u
exp( ) 1 = 0
|
|
i= 1
3 3 Utilisation de méthodes numériques, type
algorithmes de Newton-Raphson
I.II.3.2 THÉORéME DE BALKEMA-DE
HAAN-PICKLANDS
Théorème Balkema-de Haan-Picklands:
Il s'en déduit que
la distribution des excès
au-dessus d'un seuil élevé converge
vers la GPD G!? lorsque le seuil tend vers la
lmite
,!(!)
supérieure du support de G.
Supposons que X1, X2, É,
Xn sont des variables aléatoires de prix
indépendantes appartenant à une distribution appelée
F(X). Soit xF, l'extrémité finie ou infinie de
la distribution F. Alors, la fonction de distribution dépassant
Xi après un seuil donné u, quand y =
0, est donné par:
y
Fu(y) = P(X u X
> u
|
+
= F(y u)
F(u)
1 F(u)
|
|
Belkema et de Haan en 1974, ou encore Pickands en 1975, ont
théorisé la fonction de Pareto généralisée
en montrant qu'elle s'apparente à une distribution limite F
u(y) quand le seuil u tend vers
l'extrémité de la fonction. Il s'agit d'une découverte
statistique majeure. Si F ? MDA (Hî), il est alors possible de
trouver une fonction positive mesurable par f.?(u) de telle sorte
que :
lim >
u xF
= 0
Fu(y) G !
(u)(y)
Pour 0=y=XF-u, ou G ! (u)(y)
correspond à la distribution Pareto
G ! (U)(Y) =
,
|
!'
1 (1+ )
(u)
!y
1 exp( )
(u)
|
si si
|
0
= 0
|
|
Ou y=0 pour î?=0 et
0=y=-!(!)!? pour î?<0.
Néanmoins, le choix
du seuil u est primordial pour la réussite de
cet exercice de modélisation de la distribution Pareto
généralisée. Comme pour le test de fréquence
anormale, oü nous devions choisir préalablement une fenétre
de test de plus ou moins longue distance, la valeur représentative est
généralement choisie en fonction d'un compromis, capable de
biaiser l'étude.
î? se révèle être un
paramètre de forme particulièrement important, quant à
f.?(u), il s'apparente à un paramètre
d'échelle. Nous pouvons dès à présent

émettre une conc ordance avec le
théorème précédant, respectivement
4u
et a. La GPD intègre par sa
particularité d'autres formes de
distribution. En considérant que î? >
0,
la version paramétrique de G se rapporte à la
distribution originaire de Pareto, laquelle est souvent utilisée en
actuariat dans l'approche des
probabilités d'erreurs. Vilfredo
Pareto34
décrivit la répartition de la
richesse selon la notation
suivante:
P(u) = (u / m) . En outre,
Quelle est la proportion P des ménages gagnant
plus qu'un niveau de revenu u? V. Pareto estimait -!
à -3/2. La puissance
est donc en premier lieu élevée au cube
puis à la racine carrée divisé par 1.
Ceci fut la base des premières lois !-stable de
Lévy 35
Paul , repris quelques
années plus tard par B. Mandelbrot36 dans
son étude sur les variations du prix du coton. A contrario, si
î? < 0 prend la forme d'une loi de Gumbel. Enfin, lorsque
î? = 0, sa correspondante est une distribution exponentielle.
Le premier cas ( î? > 0) se retrouve pertinent dans le
cadre d'une distribution réelle possédant des queues de
distribution épaisses. Les estimations de î?
et de f.?(u) sont calculées à partir de
l'expression G!?,!(U)y par la méthode
du maximum de vraisemblance37. Lorsque
î? > 0.5, Hosting et Wallis
34 Né en 1848, V. Pareto était un
industriel, un économiste et un sociologue italien. Son héritage
en tant qu'économiste fut ample, particulièrement en terme de
recherches scientifiques et d'équations mathématiques, recourant
de manières intensives aux données. Son étude la plus
connue concerne la répartition de la richesse correspondant à une
loi de puissance.
35 Paul. Lévy, né en 1886, est un
mathématicien francais. Il fait partie des fondateurs modernes des
probabilités. On lui doit les lois stables stochastiques: << La
distribution de Lévy È. Il fut professeur à l'école
polytechnique et enseigna les probabilités à B. Mandelbrot.
36 Né en 1924 à Varsovie, B.
Mandelbrot fut professeur de mathématiques à l'Université
Yale et membre émérite du Ç Thomas L. Watson
Laboratory È d'IBM. Il a notamment publié <<Les objets
fractalesÈ
37 Nous pouvons nous conférer à
l'étude d'Embrechts paru en 1997.
montrent que l'estimation tirée du maximum de
vraisemblance tend à être asymptotiquement normalement
distribué.
I.II.3.2.1 Modélisation paramétrique de
la distribution des excès
Cette modélisation de queue de distribution engage un
échantillon au-dessus du seuil u, lequel conduit à une
forme de loi GPD.

Dans la littérature financière et statistique,
les méthodes utilisées reposent sur le comportement graphique des
valeurs considérées supérieures à un seuil
donné. Cette méthode porte le nom de Ç
Peak-Over-Threshold È. Initialement développé par
Picklands en 1975, ce concept fut étudié par de
38
nombreux auteurs. Cependant, cette méthode reste
arbitraire. En réalité, u, doit être assez grand
pour que l'estimation de la distribution de Pareto
généralisée soit valide, mais pas trop
élevée pour garder une certaine cohérence
avec le modèle. Cet arbitrage est
analogue à la méthode BM vue
postérieurement.
3 8 Tel que Smith en 1987, Davison et Smith en 1990 ou Reiss et
Thomas en 2001, pour ne citer qu'eux.
42
I.II.3.2.2 Estimation du modèle de seuil par le
maximum de vraisemblance

Supposons que notre échantillon des
excès !=(!!,!!,...,!!U) est
indépendante et identiquement
identifiée avec comme fonction de
distribution la
GPD. La fonction de
densité g de G est alors pour
î??0 :
1
1 x 1
g(x) = (1+ ) .
Nous pouvons dès lors estimer la log-
vraisemblance:
N u
1
l( , , X)= Nu ln ( +1)
ln(1+
i= 1
|
Xi). Hosking et Wallis montre que
|
|
lorsque nous dérivons et , nous obtenons les
équations de
maximisation à partir desquelles nous calculons les
estimateurs du maximum de vraisemblance.
I.II.3.3 4 VALUE-AT-RISK EXTREME
Nous pouvons reconna»tre qu'il existe une similitude
certaine entre le concept de Value-at-Risk et la méthode d'approche des
queues de distribution des lois de valeurs extrêmes. Unir ensemble ces
deux fondements pourrait indubitablement donner un véritable outil de
contrôle du risque. Formulé précédemment, la
propriété des extrêmes peut être faite de deux facons
distinctes:
· Par la méthode des maximums d'une série de
variable aléatoire dans le temps : La méthode BM
· Par la méthode du seuil en prenant l'ensemble des
valeurs se situant
entre [#177;u; #177;8] : La méthode POT
Dans ce papier de recherche, nous utilisons la dernière
méthode énoncée qui
représente la plus
récente, mais aussi la plus efficace des méthodes connues
43
sur ce sujet. De plus, ce modèle se révèle
être pratique dans le fait qu'il considère un nombre limité
de donnée.
Afin de construire le modèle de Pareto
généralisée, nous allons donner un
seuil u
important. Soit Y1, Y2, É,
Yn, les données supérieures au seuil
défini
comme Y1=X -u. Belkema et de Haan en 1974 comme Picklands
en

1975 nous enseignent que F!y=G!,13 y est une estimation
assez
importante de u. A partir de !!y, prenons
x=u+y, nous pouvons
approximer F(x), pour x > u.
Nous obtenons:
F(x) = (1 F(u))G
F(u)
^, (u)(y)+
La fonction F(u) peut être
estimée empiriquement de facon nonparamétrique par la fonction de
distribution cumulative:
n
öF(u) Nu
=
n
Oü N représente le nombre d'occurrence
supérieure au seuil u et n

l'échantillon. En corroborant G!,! y et Fu à Fx,
nous pouvons ainsi
écrire:

ö
ö
ö
xu
ö
(
)
N u
F x
ö ( ) 1
= 1 +
1
n

Les paramètres î et f.? sont estimés
à partir de î et f.? respectivement, obtenus
à partir du maximum de vraisemblance.
44
Pour q > F(u), la VaRq peut
être calculé en résolvant x :
VaRq = uö +
|
ö nö
( (1 q) ) 1
ö Nu
|
|
Dans lequel u est le seuil défini, f.? est
l'estimation du paramètre d'échelle et î est l'estimation
du paramètre de localisation.
Le principal avantage de cette mesure non-paramétrique
réside dans le fait
0.4 qu'elle se concentre exclusivement sur

VaR(q) VaR 1/2(1-q)
les queues de distribution. Cependant, 0.35 nous pouvons en
conclure que cette 0.3 méthode ne considère pas les
0.25 rendements comme indépendants et 0.2 identiquement
distribués les uns des 0.15 autres.
0.1
0.05 0
45
II. SECTION EMPIRIQUE
Ce mémoire de recherche appliquée fut
réalisé à partir de données diffusées sur
Bloomberg®. L'estimation des taux de rentabilités anormales et le
calcul des lois de valeurs extremes appliquées à la Value-at-Risk
font l'objet de deux sous-parties. Nous distinguerons donc d'une part
l'estimation des fréquences anormales, représentant sta
tistiquement l'état de crise, et d'autre part la performance
ajustée du risque liée aux valeurs extremes.
II.I MESURE DES FRÉQUENCES ANORMALES
II.I.1 PROCESSUS
Nous nous sommes intéressés aux cours
journaliers spot des 30 valeurs composant le Dow Jones Industrial Average. La
première chronique dans laquelle nous calculons les taux de
rentabilités normales avant crise couvre la période du 13/06/2006
au 15/06/2007, soit 7 620 observations alors que la deuxième, d'oü
sont évaluées les rentabilités anormales, se
déploie sur une période allant du 02/07/2007 au 01/02/2010, soit
19 560 observations. Nous aurons donc à étudier 27 180
données totales.

Ce choix est justifié pour trois raisons:
· La période d'échantillonnage avant
crise représente une année boursière. Plus le nombre
d'observations augmente, plus la représentation graphique de la variance
s'aplatira, ce qui aura pour effet de donner une
39
volatilité moyenne biaisée , que l'on utilise
l'un ou l'autre des modèles .
3 9 Nous avons étudié le modèle de moyenne
et le modèle de marché. Pour plus d'information, voir section
I.I.2.1 Modèles théoriques
Il est justifié d'user de pragmatisme quant à
la précision et la représentation des données
utilisées. De plus, il serait hâtif de se précipiter sur un
nombre de données plus important dans le sens oü il n'est pas
très adéquate d'y incorporer l'instabilité de variance
dü à une autre crise antérieure.
· Les tests de cohérence statistiques ont tous
pour particularités d'être asymptotiquement normales avec N
~ (0, 1). Cette convergence est qualifiée à partir du moment
oü le nombre de jours post-crise est grand et que le nombre N de
valeur étudiée est supérieur ou égal à
3040. Ainsi, les 30 valeurs du DJIA et le nombre important de
données sont en accord avec les statisticiens.
· Pour des raisons de programmation en Visual Basic,
nous avons préféré laisser un espace-temps de 10
séances boursières entre la période de temps dite normale
et celle de la crise des Subprimes. Ce laps de temps fut fixé de facon
arbitraire.
· La crise des Subprimes a véritablement
commencé entre juillet et aoüt 2007. Pour des raisons de
cohérence et parce que les experts semblent divergents quant à la
date précise de commencement
de la crise, et parce que cela ne peut être absolument
incontestable, notre étude commence le 02/07/2007 et fini début
2010. Il s'agit d'une période particulièrement volatile sur
l'ensemble des marchés financiers, ce qui nous conforte dans le choix de
cet échantillonnage.
40 Ces indications ont été mises en
place par Brown, Warner, Pattel et Boehmer afin d'assurer la fiabilité
et la robustesse de l'étude.
6/13/2006 6/13/2007 6/13/2008 6/13/2009 6/13/2010
N A (T)
Statistiques préliminaires
Nous avons réalisé une étude statistique
préalable sur 4 titres de natures différentes, afin de mieux
appréhender nos rentabilités anormales. Nous allons
étudier 651 observations par titre, du 02/07/2007 au 01/01/2010, soit 2
604 données. Impacté par la crise des Subprimes et par une forte
volatilité des cours, nous avons sélectionné:
· Le DJIA
· Bank Of America
· IBM
· Exxon
Le DJIA est calculé en fonction de la moyenne des
fluctuations des 30 titres le composant. Il peut être un bon indicateur
de moyenne pour l'ensemble du marché. Cependant, ces variations sont par
définition lissées en fonction des différentes
sensibilités des titres concernés. Bank Of America, IBM et Exxon
ont été choisis d'une part, par leur importance en terme de
capitalisation et d'autre part, par leurs différences sectorielles les
unes des
autres. Nous avons donc un échantillon restreint, mais
représentatif du marché américain. Les tableau x
ci-dessous permettent de résumer les principaux états
statistiques des différents titres :
TAB 1: Statistiques DJIA
Rentabilités Rentabilités
Rentabilités de
anormales normales l'étude
Stat.
Distr.
Ecart (A)
Stat.
Distr.
Nobs Moyenne
Médiane Ecart-Type Maximum Minimum
Skewness
Kurtosis
Jarque-Bera
AMoyenne - Médiane
AN(x) Moyenne
AN(x) Ecart-Type
AN(x) Skewness
AN(x) Kurtosis
TAB 2: Statistiques BOfA
Nobs Moyenne
Médiane Ecart-Type Maximum Minimum
Skewness
Kurtosis
Jarque-Bera
AMoyenne - Médiane
AN(x) Moyenne
AN(x) Ecart-Type
AN(x) Skewness
AN(x) Kurtosis
651 -0,04% 0,03% 1,84% 10,51% -8,20%
|
253 0,09% 0,08% 0,62% 1,96% -3,35%
|
905 -0,01% 0,06% 1,59% 10,51% -8,20%
|
0,11355
|
-0,62499
|
0,05665
|
5,39216
|
4,05181
|
7,67157
|
1,57E+02
|
2,81E+01
|
8,23E+02
|
-0,08%
|
0,01%
|
-0,06%
|
0,044%
|
-0,090%
|
0,008%
|
-0,837%
|
0,378%
|
-0,593%
|
-0,11355
|
0,62499
|
-0,05665
|
-2,39216
|
-1,05181
|
-4,67157
|
|
|
|
Rentabilités
|
Rentabilités
|
Rentabilités de
|
anormales
|
normales
|
l'étude
|
651
|
253
|
905
|
-0,17%
|
0,03%
|
-0,12%
|
-0,13%
|
0,06%
|
-0,04%
|
6,26%
|
0,83%
|
5,33%
|
30,21%
|
3,07%
|
30,21%
|
-34,21%
|
-3,84%
|
-34,21%
|
-0,11217
|
-0,21515
|
-0,15918
|
6,87582
|
3,31565
|
10,53018
|
4,09E+02
|
3,00E+00
|
2,14E+03
|
-0,04%
|
-0,03%
|
-0,09%
|
0,174%
|
-0,033%
|
0,123%
|
-5,261%
|
0,172%
|
-4,327%
|
0,11217
|
0,21515
|
0,15918
|
-3,87582
|
-0,31565
|
-7,53018
|
|
Ecart (A)
49
TAB 3: Statistiques IBM
Nobs Moyenne
Médiane Ecart-Type Maximum Minimum
Skewness
Kurtosis
Jarque-Bera
AMoyenne - Médiane
AN(x) Moyenne
AN(x) Ecart -Type
AN(x) Skewness
AN(x)Kurtosis
Stat.
Distr.
Ecart (A)
TAB 4: Statistiques Exxon
Nobs Moyenne
Médiane Ecart-Type Maximum Minimum
Skewness
Kurtosis
Jarque-Bera
Ecart (A)
|
AMoyenne - Médiane
AN(x) Moyenne
AN(x) Ecart-Type
AN(x) Skewness
AN(x) Kurtosis
|
|
Stat.
Distr.
Rentabilités anormales
Rentabilités normales
|
Rentabilités de
l'étude
|
651 0,04% 0,05% 1,93% 10,90% -6,10%
|
253 0,16% 0,08% 1,13% 8,96% -3,35%
|
905 0,06% 0,06% 1,73% 10,90% -6,10%
|
0,22614
|
1,80300
|
0,28681
|
3,11525
|
14,92480
|
4,51118
|
5,91E+00
|
1,64E+03
|
9,85E+01
|
-0,02%
|
0,08%
|
0,00%
|
-0,037%
|
-0,156%
|
-0,062%
|
-0,934%
|
-0,127%
|
-0,732%
|
-0,22614
|
-1,80300
|
-0,28681
|
-0,11525
|
-11,92480
|
-1,51118
|
|
|
|
Rentabilités
|
Rentabilités
|
Rentabilités de
|
anormales
|
normales
|
l'étude
|
651
|
253
|
905
|
-0,04%
|
0,17%
|
0,02%
|
-0,01%
|
0,20%
|
0,06%
|
2,39%
|
1,21%
|
2,13%
|
15,86%
|
3,64%
|
15,86%
|
-15,03%
|
-4,85%
|
-15,03%
|
0,17919
|
-0,39195
|
0,11030
|
9,46848
|
0,84258
|
11,30631
|
1,14E+03
|
5,55E+01
|
2,60E+03
|
-0,02%
|
-0,03%
|
-0,04%
|
0,036%
|
-0,172%
|
-0,019%
|
-1,387%
|
-0,211%
|
-1,126%
|
-0,17919
|
0,39195
|
-0,11030
|
-6,46848
|
2,15742
|
-8,30631
|
|
Nous pouvons établir plusieurs commentaires:
· La loi normale standard défend l'idée
que la moyenne et la médiane sont confondues. Il existe une
différence de 0.08 pour DJIA montrant que les
50
critères ne sont pas respectés. Il en va de
méme pour les autres titres présentés.
§? L'écart-type moyen ne para»t pas très
élevé. Pourtant, nous assistons à des extremes
importants:
· DJIA: De +10.51% pour le maximum et de -8.20% pour le
minimum
· Bank Of America : De +30.21% pour le maximum et de
-34.21% pour le minimum
· IBM: De +10.90% pour le maximum et de -6.10% pour le
minimum
· Exxon: De +15.86% pour le maximum et de -15.03% pour le
minimum
§? Il est intéressant de noter que les mesures
d'asymétrie (Skewness) et d'aplatissement (Kurtosis), sous
l'hypothèse de normalité, prennent respectivement les valeurs 0
et 3. Ici, ces deux paramètres sont respectivement ?0 et >3, laissant
apparaitre un caractère leptokurtique des cours et la formation
empirique de queue de distribution épaisse par rapport à la loi
normale. Le skewness est positif pour l'ensemble des titres à l'ex
ception de Bank of America, montrant qu'il y a une quantité importante
de petits mouvements à la hausse et de grands déplacements
à la baisse.
· Le test de normalité de
Jarque-Bera41 est différent de 0 pour
l'intégralité des valeurs. Il rejette donc l'hypothèse
nulle de normalité pour n'importe quel niveau de pertinence.
En résumé, cette première étape
nous permet de rejeter l'hypothèse de normalité et de comprendre
qu'il existe effectivement des extremes conséquents.
4 1 Le test de Jarque Bera cherche à déterminer si
une suite de variables aléatoires suit une
2
loi de distribution normale. Cette statistique suit
asymptotiquement une loi du ֈ deux
!!!
6(s +!!!!!),
degrés de liberté. Nous avons JB= ou n
est le nombre d'observations, k
le nombre de variables explicatives, s le skewness
(moment d'ordre 3 d'une variable centrée-réduite) et K
le kurtosis (moment d'ordre 4 d'une variable
centrée-réduite). La statistique de JB indique qu'une suite de
variable suit une loi normale lorsqu'elle s'approche de 0.
II.I.2 TAUX DE RENTABILITÉS NORMALES ET
ANORMALES
II.I.2.1 FRÉQUENCES NORMALES
180 La période post-crise fut faste pour les
investisseurs. D'un point de vue

160
macroéconomique, on constate une
140
hausse de la liquidité au niveau
120
100 2007, le rapport entre la masse
80 monétaire et le PIB se situe à
30%,
60 alors qu'entre 1980 et 2000, celui-ci
40 n'était que de 18% à 20%. En l'espace
de 6 années, il augmente donc de 10 à
20
12%. Sous l'égide des différentes
6/13/06 8/13/06 10/13/06 12/13/06 2/13/07 4/13/07 6/13/07
0

Enron
11 Sept. 2001
1/3/00 1/3/03 1/3/06 1/3/09
V2X Index VIX Index
Subprimes
Corée du
Nord
100
90
80
70
60
50
40
30
20
10
0
52
banques centrales, garant de la stabilité des prix,
cette liquidité abondante n'a pas entra»né d'inflation. Bien
entendu, si toutes ces liquidités n'ont aucun effet sur les prix des
biens et des services, elles en ont sur les prix des actifs dont l'offre est
peu importante. Cet aspect, associé à une baisse des indicateurs
de risque, tel que la prime de risque ou la volatilité implicite,
majoré d'une forte croissance mondiale, a eu pour conséquence la
hausse des cours de bourse, notamment du DJIA. En outre, nous constatons le
parcours linéaire croissant des 30 titres du DJIA sur la période
énoncé précédemment.
Bien que la crise des Subprimes émane sans doute de
cette apparente stabilité, c'est dans un climat avantageux que nous
calculons nos rentabilités dites << normales È, qui ne
dévoilent pas de perturbations apparentes.
II.I.2.2 FRÉQUENCES ANORMALES
180
160

La crise des Subprimes démarre durant
l'été 2007 aux États-Unis. Celle-ci remet en cause
fondamentalement le système bancaire dans son ensemble.
140
120
100 Le problème se trouve dans la capacité
des établissements
80 financiers à gérer
leurs risques, tant dans leurs transferts
60
que dans le suivi qui en découle.
40
D'autre part, l'octroi de crédit
20
hypothécaire à une clientèle non-
7/2/07 11/2/07 3/2/08 7/2/08 11/2/08 3/2/09 7/2/09 11/2/09
3/2/10 7/2/10 11/2/10 solvable a mis à mal la titrisation
dépourvu de fonds propres. C'est aussi le
fonctionnement même des agences de notation qui semble être
problématique. Cette crise mondiale fut liée aux crédits
hypothécaires à risque aux États-Unis, ne
représentant pourtant qu'un marché de 1000 milliards de dollars.
Nous pouvons visualiser, en base 100, l'impact qu'a eu cette crise sur les
cours des 30 titres composants le DJIA. La crise des Subprimes se
révèle être complexe dans les faits. Nous allons dans cette
étude exprimer des résultats quantitatifs pouvant,
peut-être, donner une réponse quant à l'origine de cette
crise, à posteriori. Pour plus d'informations, nous vous invitons
à consulter le rapport du conseil d'analyse
économique42.
42 Rapport écrit par P. Artus, J-P
Betbèze, C. Boissieu et G. Capelle-Blancard, intitulé: «La
crise des subprimes» publié par <<La documentation
françaiseÈ en 2008. Celui-ci donne une analyse complète de
la situation micro et macro-économique de la crise des subprimes.
II.I.3 RÉSULTAT DES FRÉQUENCES
ANORMALES
II.I.3.1 RENTABILITÉS ANORMALES
STATIONNAIRES
Les résultats produits par chacun des modèles
sont intéressants. Il est à noter qu'il existe peu de
différence entre les résultats tirés des deux
modèles d'un point de vue globale, bien que le modèle de
marché semble, à première vue, apporter un appoint
d'information manifeste lié à la sensibilité des titres
par rapport à leur indice de référence. Dans le cadre d'un
travail de simulation, Brown et Warner aboutissent à la méme
interprétation lorsqu'ils comparent la force des deux modèles.
Nous avons donc un modèle de moyenne donnant -82.80% et
un modèle de marché estimé à 82.95%, soit 0.15% de
différence.
Il existe cependant des rentabilités proches de la
normalité, comme l'atteste le graphique présenté
ci-dessous :

-0.5%
-1.0%
0.5%
0.0%
1.0%
15.0%
10.0%
5.0%
0.0%
-5.0%
-10.0%
-15.0%


Rentabilité anormale
Rentabilité anormale
Cependant, en ce qui concerne la réaction des cours
dans leur globalité, les résultats nous prouvent statistiquement
que nous sommes bien sur une période d'instabilité. Comme en
atteste la majorité des rentabilités anormales significativement
différentes de 0.
II.I.3.2 RENTABILITÉS ANORMALES
CUMULÉES
Ce test exprime l'écart-type des fluctuations des
cours lié à la perturbation des rentabilités anormales.
Nous avons ici un pic, partant du début de l'expérience jusqu'au
3/10/2009, lequel enregistre un taux anormalement bas cumulé de
-115,20%.

20.0%
0.0%
10.0%
15.0%
-20.0%
5.0%
-40.0%
-60.0%
-115,20%
7/2/07 2/2/08 9/2/08 4/2/09 11/2/09
RAC Rentabilité
anormale
-80.0%
-100.0%
-120.0%
-140.0%
0.0%
-5.0%
-10.0%
-15.0%
P&L
Les rentabilités anormales progressent
de facon
croissante jusqu'au point bas
puis semblent stagner jusqu'à la fin
de

95%
10.00%
5.00%
l'étude. Le retour vers la normalité 2.5%
semble loin. Les stratégies basées sur
0.00% le retour à la moyenne (mean-
-5.00%
2.5%

Rentabilité anormale
reversion-model) semblent être difficile à
réaliser. Ce test montre que -10.00% les anormalités ont
été statistiquement multipliées par 5 au sommet de la
crise. Les statistiques préliminaires nous ont informés de la
non-normalité
des cours étudiés. Nous en avons ici un exemple
plus concret.
55
II.I.4 TEST DE SIGNIFICATIVITÉ
Il convient de noter par ailleurs que les trois statistiques
de représentativité
fournissent des conclusions globalement
convergentes. Celles-ci deviennent
de plus en plus significative au milieu
1.00 de
l'étude, autour du 3/10/2009, date à

laquelle les rentabilités anormales
0.50
cumulées sont les plus importante s. Il
existe cependant plusieurs phases
0.00 quant à la
validité de ce test. Certaines
valeurs semblent être plus
-0.50 significatives que d'autres. Les statistiques proches
de 0, comprises entre [ -1 ; 1], rejette nt l'hypothèse
-1.00
8/6/07 1/3/08 6/1/08 10/29/08 3/28/09 8/25/09
Test de Brown et Warner
Test de Boehmer Musumeci et Poulsen
Test de Pattel

d'anomalie statistique. D'autres sont,
sans nul doute,
incontestables au seuil
de [-10 ; -50] et [10; 60]. Cela nous laisse penser qu'il y a
des mouvements plus calmes et d'autres plus agités.
60.00

40.00 20.00 0.00 -20.00 -40.00
|
|
|

-60.00
8/6/07 1/3/08 6/1/08 10/29/08 3/28/09 8/25/09
Test de Brown et Warner
|
Test de Pattel
|
Test de Boehmer Musumeci et Poulsen
|
56
|
|
60.00 55.00 50.00 45.00 40.00
|
|
-10.00 -15.00 -20.00 -25.00
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
20.00 15.00
|
|
|
10.00
|
|
|
Test de Brown et Test de Test de Boehmer Warner Pattel Musumeci
et Poulsen
La statistique fréquentielle de Boehmer, ayant une
propension plus importante à accepter l'hypothèse selon laquelle
les rentabilités anormales sont nulles , est distinctement
supérieure de 0, élevé à 10.69 et 10.77 en valeur
absolue, respectivement pour le modèle de moyenne et celui de
marché. Ce tableau résume les observations menées dans
cette étude:
TAB 5: Fréquences anormales
|
|
|
|
|
|
|
Nobs
|
Moy
|
Ecart type
|
Max
|
Min
|
Modèle de moyenne
|
Modèle de marché
|
Rentabilités
|
|
|
|
|
|
|
|
anormales
|
19560
|
0%
|
2,02%
|
11%
|
-9%
|
-83.80%
|
-83.95%
|
Test de Brown et
|
|
|
|
|
|
|
|
Warner
|
19560
|
-0,59
|
9,4
|
50,29
|
-43,75
|
-15,11
|
-15,19
|
Test de Pattel
|
19560
|
-0,6
|
10,01
|
52,27
|
-47,06
|
-15,43
|
-15,5
|
Test de Boehmer
|
19560
|
-0,41
|
5,05
|
19,15
|
-13,54
|
-10,69
|
-10,77
|
RAC
|
19560
|
-52%
|
34%
|
3%
|
-115%
|
|
|
BWC
|
19560
|
-239,98
|
157,29
|
14,35
|
-536,74
|
|
|
PC
|
19560
|
-245,55
|
163,15
|
13,68
|
-562,12
|
|
|
BC
|
19560
|
-170,67
|
107,6
|
19,08
|
-315,39
|
|
|
|
Ce test est par conséquent concluant dans sa
globalité. Les rentabilités anormales calculées
précédemment montrent l'ampleur de la crise des Subprimes et la
nécessité d'instaurer une politique de mesure du risque viable.
Il nous montre également qu'il existe des taux de rentabilités
extremes dont la distribution asymptotique normale ne prévoit pas les
effets.
II.II. THÉORIE DES VALEURS EXTRæMES
ET VALUE-AT-RISK
V. Pareto XIX e
s'intéresse la
à fin du siècle à la distribution des
revenus
dans la société. Il en conclut que la
société humaine est fondée sur une loi mathématique
de forme décroissante, dans laquelle la distribution statistique prend
une forme hyperbolique, laissant appara»tre des queues épaisses.
Nous avons pu souligner l'importance des lois issues de la famille Ç
parétienne È, dont les applications en sciences sociales sont
croissantes au fil des années. L'abondante littérature disponible
sur le sujet en témoigne.
Le succès rencontré par ces lois nous a
incités à examiner leur apport sur le marché du DJIA en
période de crise des Subprimes. Cette application met en perspective
différents raisonnements en termes de rentabilité ajustée
du risque sur le marché des actions. La performance d'un investisseur
sur une période donnée est souvent liée à quelques
journées exceptionnelles. La distribution empirique de forme
leptokurtique en témoignant (La grande majorité des cours se
concentre vers la moyenne historique proche de 0). La plupart des
journées d'activité ne contribue donc que marginalement au
résultat. Les activités de marché témoignent d'une
forte instabilité, révélant des mouvements violents et
soudains. C'est dans cet état statistique, oü le nombre de
rentabilités anormale s est important, que nous pouvons parler de crise.
La réalité erratique des cours de bourse est quantifiable. Nous
allons donner une image de cette réalité statistique dans un
premier temps avant de calculer notre loi de valeurs extremes.
II.II.1 ANALOGIE STATISTIQUE DE LA DISTRIBUTION DES
RENDEMENTS ET MAXIMUM DE VRAISEMBLANCE
Cette section a pour objet d'exposer la
100000% Distribution logarithmique du DJIA

100% Lorsque la loi de valeurs extrêmes est
-10.8 -7.5 -4.2 -0.8 2.5 5.8 9.2
DJIA

identifiée, les conditions de distribution
théorique pe uvent être utilisées pour obtenir le type de
loi limite. Nous avons pu constater dans la section théorique que
certaine s lois convergent vers différentes lois parente s. En effet,
les lois à support borné, comme la loi uniforme,
appartienne nt au domaine d'a ttraction maximum de Weibull,
avec î?>0.
Les lois dont les queues décroissent de facon
exponentielle appartiennent au
MDA de Gumbel, avec î?=0. Nous pouvons citer
à ce titre la loi normale
et la loi exponentielle. Le s lois dont le paramètre
de libe rté est égal à î?, faisan t
appara» tre des queues de distribution épaisse s appartiennent,
comme la loi de student ou celle de Pareto, au MDA de Fréchet. Dans cet
exercice, nous avons choisi d'analyser quatre lois théoriques :
· La loi normale
· La loi de Laplace
· La loi de Pareto
·
59
La loi de student

II.II.1.1 ANALOGIE STATISTIQUE DE LA DISTRIBUTION DES
RENDEMENTS
II.II.1.1.1 Comportement limite de la loi
exponentielle
-10.8 -7.5 -4.2 -0.8 2.5 5.8 9.2
Laplace
-10.8 -7.5 -4.2 -0.8 2.5 5.8 9.2
DJIA LAPLACE
GUMBEL
100000%
Normale
100000%
DJIA NORMAL
10000%
1000%
100%
10000%
1000%
100%
100000%
10000%
1000%
100%
Student
Pareto
-10.8 -7.5 -4.2 -0.8 2.5 5.8 9.2
DJIA PARETO
-10.8 -7.5 -4.2 -0.8 2.5 5.8 9.2
DJIA STUDENT
100000%
10000%
1000%
100%
FRECHET
La fonction de répartition de la loi exponentielle de
paramètre A.=1 est
x
F(x) =1 e pour x=0. Avec b log(n) et
a =1, nous pouvons
résoudre l'équation donnée par le
théorème de Fisher-Tippet avec :
60
MESURE DU RISQUE DE MARCHÉ ET THÉORIE DES
VALEURS EXTRæMES
Fn (anx +
bn) = (1 --
e-x-k'g(n))n
)n
e-x
Fn(anx +
bn) = (1
n
Fn (anx + bn)
--> exp { --e -x}
Fn(anx +
bn) =
La loi de Laplace, ici représentée, et une loi
double exponentielle car sa densité peuvent etre vue comme l'association
de deux lois exponentielles indépendantes, situées de part et
d'autre de la tendance centrale.
Le maximum normalisé et le MDA de la loi exponentielle
convergent vers une loi de Gumbel. C'est pour cette raison que la loi de Gumbel
est aussi appelée « loi de type exponentiel ».
Prenons le théoreme de Balkema-de Haan-Picklands, en
prenant iu.=1, oil
u correspond au seuil défini. Alors :
Fu(y)= F(u + y)
-- F(u)
y 0
e
=
u e-u -y
eu
1 F(u)
Fu(y)= F(u+
y) F(u)
F(u)
1
Fu(y)= F(u+
y) F(u)
1 F(u)
|
= 1 -- e-y
|
|
Par conséquent, pour tout y>0, la GPD s'accorde
à etre une loi exacte
pour tout u pour le parametre î?=0
avec iu.=1.
Nous pouvons constater une nette amélioration
graphique entre le DJIA et la loi de probabilité concernée. Nous
retenons donc la loi de Laplace pour cette raison.
61
II.II.1.1.2 Comportement limite de la loi de
Pareto
La fonction de répartition de Pareto s'écrit
F(U) =1 Um , oü U > 0 et
!
a>0. Pour le théorème des BM, nous posons
f33=0 et a =(nU)a. Pour
x > 0=
Fn(anx +
bn) = (1 U(anx) = (1
Uan x )n
)n
x
Fn(anx +
bn) = (1
n
Fn(anx +
bn) exp { x }
Fn(anx
+bn) = (X)
La loi de Pareto appartient au MDA de la loi de Fréchet.
Communément, la loi de Fréchet est appelée loi de type
Pareto.
Concernant la méthode POT, nous posons
f33=ub pour /3>0. On obtient:
uby)
Fu(y) =
F(u+ F(u) y 0
1 F(u)
uby)
Fu(y) = F(u+
F(u)
1 F(u)
uby)
Fu(y) = F(u+
F(u)
1 F(u)
|
uby)
= Uu U(u+
Uu
=1 (1+ by)
|
|
La limite est alors la loi GPD de paramètre
î? pour î?=!
!
|
et /3=î?.
|
|
Remarquons les extremes qui sont d'avantages compris sous la
courbe, particulièrement du cTMté des valeurs
négatives.
62

II.II.1.1.3 Comportement limite de la loi normale
La fonction de répartition de la loi normale quand
N~(0,1) est F x =

. Nous avons donc 1-Fx~1
x21r
!!
e!2 quand x?+8,
alors43. En ce qui concerne la méthode des
blocks, nous aurons:
lim u +
|
z
1 F(u+
u
|
)
=
|
lim u +
|
z1 z
(1+ ) exp e
21 (u+
zu)2 + 21
u2 =
u2
|
|
|
|
|
si on suppose que f3,=1, nous avons pour x?+8 :
!
1
|
z
1 F(u+
u
|
) F(u)
= F(u + uz)
|
z
1 e
|
|
|
1 F(u) 1 F(u)
En ce qui concerne la méthode d'excès de seuil,
celle-ci convergera vers une
loi de type exponentielle. D'autre part, si b donne Fb
=1-1et a =
!
!, on aura:
b!
F(anx
n { 1 F(anx +
bn }= { 1 bn)
+ } x
e
1 F(bn)
lim n +
|
lim
Fn(anx
+bn) =
n +
|
x
e
(1
n
|
x
) = exp { e }
|
|
qui converge vers la loi de Gumbel. Smith nous enseigne en
2003 qu'il est
préférable d'utiliser les lois GEV et GPD pour
chaque théorème les
43 1
W. Feller démontre en 1968 que 1 Ð
F(x) équivaut à
x21r
|
!!
e!2 quand x?+8
|
63
|
|
concernant, plutôt que la loi de Gumbel et la loi
exponentiel le, bien qu'elles soient toutes deux de formes exactes. L'aspect
propre des lois généralisées semble être plus en
accord avec les méthodes vues précédemment.
La convergence avec la distribution réelle est
concordante graphiquement pour x [-4.2 ; 4.2]. Cependant, nous pouvons
constater, de part et d'autre de la courbe, qu'il existe des extrêmes non
pris en compte par la densité de probabilité normale. Cette loi
est alors également rejetée empiriquement par cette
méthode. Si l'on suppose une distribution gaussienne pour les rendements
journaliers, la probabilité qu'un rendement observé dévie
de sa moyenne de 4 écarts-types est inférieure à 0,01%,
soit un évènement observé en moyenne tous les 62 ans.
Le tableau ci-dessous nous montre la probabilité de
s'écarter de la moyenne
de écarts-types, tel que 1 P(
X ) La dernière colonne
représente le nombre d'années (sur 254
séances) assimilée à l'apparition d'un
événement:
TAB 6 : Probabiité normale
|
|
|
|
Probabiité
|
Années
|
1
|
0,31731050786291410283
|
0,012
|
2
|
0,0455002638963584144
|
0,086
|
3
|
0,0026997960632601891
|
1,46
|
4
|
0,00006334248366623984
|
62,20
|
5
|
0,00000057330314375839
|
6 867,3
|
6
|
0,00000000197317529008
|
1 995 265
|
7
|
0,00000000000255962509
|
1,5x109
|
8
|
0,00000000000000124419
|
3,22x1012
|
9
|
0,00000000000000000023
|
16
1,7x10
|
10
|
1,52x10 -23
|
2,58x1020
|
|
La probabilité de s'éloigner de plus de 5
écarts-types de la moyenne
convient à un
évènement extrêmement rare, lequel n'a peut-être
jamais été
observé. Or les variations réelles
retenues sur notre fenêtre de test prouvent
que la théorie gaussienne néglige les variations
extremes. Une autre approche est donc nécessaire pour assurer une
rentabilité ajustée du risque.
Il existe des modalités essentielles pour l'existence
de constantes de normalisation. Remarquons que les extremes sont tirés
asymptotiquement d'une loi non-conditionnelle, alors que la variable sortie des
lois de valeurs extremes est tirée d'une loi conditionnelle. Il est donc
important d'estimer la convergence la plus proche. Dès lors, l'indice de
queue représentera le poids des extrêmes dans la distribution.
TAB 7: Intervalle de confiance et
probabiités
Intervalle
|
DJIA
|
NORMALE
|
STUDENT
|
PARETO
|
LAPLACE
|
-10,83
|
0,00
|
0,00
|
0,00
|
0,11
|
0,00
|
-9,17
|
0,00
|
0,00
|
0,00
|
0,07
|
0,00
|
-7,50
|
2,00
|
0,00
|
0,01
|
0,16
|
0,02
|
-5,83
|
2,00
|
0,00
|
0,06
|
0,43
|
0,24
|
-4,17
|
3,00
|
0,27
|
0,44
|
1,65
|
2,57
|
-2,50
|
18,00
|
29,93
|
8,13
|
14,52
|
27,09
|
-0,83
|
310,00
|
285,80
|
307,35
|
299,05
|
286,07
|
0,83
|
272,00
|
285,80
|
307,35
|
299,05
|
286,07
|
2,50
|
23,00
|
29,93
|
8,13
|
14,52
|
27,09
|
4,17
|
5,00
|
0,27
|
0,44
|
1,65
|
2,57
|
5,83
|
2,00
|
0,00
|
0,06
|
0,43
|
0,24
|
7,50
|
0,00
|
0,00
|
0,01
|
0,16
|
0,02
|
9,17
|
1,00
|
0,00
|
0,00
|
0,07
|
0,00
|
10,83
|
0,00
|
0,00
|
0,00
|
0,11
|
0,00
|
Total
|
638,00
|
638,00
|
638,00
|
638,00
|
638,00
|
|
II.II.1.2 MAXIMUM DE VRAISEMBLANCE
Supposons que notre échantillon des excès
X=(X1,X2,...,XN!) est
indépendante et identiquement identifiée avec
comme fonction de distribution la GPD. Nous obtenons les équations de
maximisation à partir desquelles nous calculons les estimateurs du
maximum de vraisemblance. Nous avons donc la log-vraisemblance de chaque loi
estimée à partir de la distribution réelle. Ces
données sont présentées dans le tableau suivant:
TAB 8: MDA
NORMALE STUDENT PARETO LAPLACE
DJIA 41,85 75,77 86,54 82,83
Le maximum de vraisemblance le plus proche est celui de la
loi de Pareto avec 86.54. Le domaine d'attraction maximum est donc celui de la
loi de Fréchet.
II.II.2 MODéLE DE SÉLECTION DE
MAXIMA
II.II.2.1 RÉALITÉ ERRATIQUE
La théorie de la normalité des marchés
financiers est spécifiquement remise en cause avec la théorie des
valeurs extremes. Particulièrement en haute fréquence oü la
stationnarité des cours est plus erratique. L'étude menée
précédemment nous a permis de com prendre que le
développement de la gestion du risque dans un univers gaussien,
introduit par la normalité des rendements, est inadapté à
l'appréhension des comportements extremes.
44

L' << homme moyen >> de A. Queteletn'existe pas en
finance. Dans ce préambule sur les extremes de marché, nous
étudions les variations du DJIA sur la période de test. Cette
étude comprend 1 148 données de prix, du 13/06/2006 au
31/12/2010. Nous avons choisi d'illustrer nos propos en sélectionnant le
maximum |Dt| des variations Intra-Day45 en valeur absolue
en t, à partir d'un seuil s
prédéfini.
Placé sur une fenétre glissante
D1,D2,...,D! de taille F, lorsque le
seuil s
est supérieure à |Dt|, la
rentabilité réelle du DJIA en t en valeur absolue est
donnée par:

+
Pt
b
1
1
;
Pt
1
1
Pt
+
Pt
?? Pt
= 1; c=
Pt
D = max a =
t
44 A. Quetelet est un mathématicien,
astronome, naturaliste et statisticien belge du XIXème siècle. Il
présenta dans son ouvrage: << Sur l'homme et le
développement de ses facultés, essai d'une physique
social>> la notion d'homme moyen. << L'homme moyen d'une
population est un individu dont les caractéristiques physiologiques sont
chacune égale à la moyenne des autres caractéristiques
physiologiques de la population>>
45 Ensemble des variations comprises dans une
journée boursière.
Oü et !!! est le plus haut du jour,
P!! est le plus bas et P!_1 est le cours de
clTMture du jour précédent. Nous indiquons le
dépassement relatif.

0.00% 5.00% 10.00% 15.00%
6/13/2006
2/13/2007 10/13/2007 6/13/2008 2/13/2009 10/13/2009
6/13/2010
True Range
Soit IF, la fenétre de test, dont la
série des violations définie par la variable dichotomique est la
suivante:
1 siD > s
IF =
0 si D < s

s est le seuil appartenant à la fenétre
F compris entre 1 et F. Fest un
nombre > 1, pour lequel le
nombre de donnée |D| est inférieure au nombre
t
total de données compris dans l'échantillon.
Soit F < Dt Il s'agit de
2
déterminer jusqu'à quel point les variations du
marché se sont rendues en Çintraday È. A ce stade, nous
choisissons une fenêtre de 50 jours. Cette taille permet de lisser les
variations erratiques sans biaiser les informations d'une part, tout en
laissant appara»tre une légere variance d'autre part. Nous avons
également choisi d'étudier plusieurs seuils s distincts.
Nous avons donc :
TAB 9 : Seuil
S = 2% 3% 5% 8% 10% 12%
Nous donnons ci-après deux représentations
graphiques qui permettent de visualiser les valeurs ayant
dépassées s. Nous avons préféré les
présenter à partir d'une échelle logarithmique,
plutôt que sur échelle linéaire simple. Lorsque l'on
exprime un nombre en logarithme, on effectue une mise à l'échelle
ce qui permet, plutôt que de se concentrer sur la valeur absolue du
nombre comme on le fait couramment, de le comparer aux autres nombres qui
l'entourent. Ainsi, nous pourrons juger de la pertinence de chaque seuil sur la
fenétre F = 50.
LN(Dt) > S
6/13/2006
2/13/2007
10/13/2007
|
6/13/2008
|
2/13/2009
|
10/13/2009
|
6/13/2010
|
2%
|
3%
|
5%
|
8%
|
10%
|
12%
|
|
Les résultats sont évocateurs. Les variations
laissent appara»tre une majorité

LN(Dt) > S
10
1
1/17/2008 9/17/2008 5/17/2009
2% 3% 5%
8% 10% 12%
des variations journalières supérieures ou
égales à 3%. Celles-ci se concentrent sur une période de
615 jours, du 17/01/2008 au 23/09/2009. Cela représente 53.57% des
données de l'étude46. Le DJIA, pendant la crise des
Subprimes, a donc connu statistiquement une distribution des cours formant des
queues de distribution épaisses en valeur absolue.
46 615
Le calcul est le suivant: .100=53.57, soit 53.57%
1148
Nous pouvons aussi émettre l'idée qu'il y a eu un
effet <<Clustering>> et un effet <<Momentum47
>> sur la période ventrale.
II.II.2.2 SÉLECTION DE SEUIL
Deux méthodes statistiques de modélisation des
queues sont possibles:
· La méthode BM
· La méthode POT
En finance de marché, nous allons privilégier
la méthode POT, plus adaptée, notamment parce qu'elle va en
adéquation avec un phénomène couramment observé: Le
<<clustering48 >>. De plus, comparée à la
méthode BM, qui ne considère pas toutes les valeurs susceptibles
d'être extrêmes49, cette méthode est à la
fois plus flexible et plus réaliste.
P&L Distribution |P&L|

15.00%
10.00%
5.00%
0.00%
-5.00%
-10.00%
12.000%
10.000%
8.000%
6.000%
4.000%
2.000%
0.000%
47 La Théorie des Marchés Efficients
(Efficient Market Theory) soutient que les marchés fonctionnent
de manière à retranscrire intégralement et
instantanément l'ensemble des informations disponibles. Jegadeesh et
Titman, en 1993, mettent en évidence l'effet <<momentum
>>. Ils observent que la tendance des titres par rapport au
marché semble se poursuivre dans une mouvance irrationnelle. Il en va de
même pour la variance journalière dans ce contexte.
48 Le phénomène de cluster, vu
précédemment en section théorique, se défini comme
une grappe de volatilités caractéristiques des
rentabilités liées aux actifs financiers.
49 La méthode BM extrait le maximum de
chaque période définie préalablement. Elle ne prend donc
pas en compte certaines données extrêmes liées aux cycles
financiers et peut en revanche prendre des valeurs faibles lors des blocks
précédents.
Cette modélisation de queue de distribution engage un
échantillon au-dessus du seuil u, lequel conduit à une
forme de loi GPD. Les méthodes utilisées reposent sur le
comportement graphique des valeurs considérées supérieures
à un seuil. Ces deux graphiques montrent d'une part la variation
décroissante du DJIA pendant la crise des subprimes. D'autre part, la
variation décroissante en valeur absolue. Remarquons le caractère
asymptotique de la courbe. Le nombre de valeurs se réduisant lorsque
l'on approche la valeur nulle de l'abscisse. Il est alors délicat de
choisir un seuil u grand pour que l'estimation de la distribution de
Pareto généralisée soit valide. Celui -ci ne peut
également pas être trop élevé pour garder une
certaine cohérence avec le comportement réelle du cours du DJIA.
Le nombre de données supérieur à u défini
est en rapport direct avec l'espérance future d'observer un tel
évènement. Nous constatons au vu du tableau
présenté ci-dessous qu'il existe très peu de variation
supérieure à 5% (soit 4,86% des échanges). Environ la
même quantité est observée pour les valeurs
dépassant 4%. Les valeurs inférieures à 3% semblent
cohérentes en terme de volume d'observations, cependant, celles-ci
risque nt de biaiser le modèle, se rapprochant trop de la tendance
centrale.
TAB 10: Nombre d'observation supérieure à
u
|
|
Variation> u
|
Nobs
|
2%
|
149
|
3%
|
58
|
4%
|
28
|
5%
|
15
|
6%
|
9
|
7%
|
5
|
8%
|
2
|
|
Nous présentons donc un seuil u = 0.03. Nous
obtenons 58 données. Le graphique ci-contre représente ce seuil,
qui semble correspondre aux valeurs extrêmes présentées par
la théorie.

12.00%
u = 3%
14.000%
MESURE DU RISQUE DE MARCHÉ ET THÉORIE DES VALEURS
EXTRæMES
9.00%
DJIA Return u
0 20 40 60 80
u = 3% Puissance (u = 3%)
100000%
Queue de distribution (log)
u >
3%
Log
y = 1.3562ln(x) - 0.8559
R2 = 0.74542
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
Extreme Enreg. (Extreme)
-10.8 -7.5 -4.2 -0.8 2.5 5.8 9.2
DJIA
12.000%
10.000%
6.00%
3.00%
0.00%
8.000%
6.000%
4.000%
2.000%
0.000%
5
4
3
2
1
0
10000%
1000%
100%
Distribution
y = 0.129x-0.353
R2 = 0.98599
II.II.3 VALUE-AT-RISK
La TVE appliquée à la Value-at-Risk permet
d'évaluer le degré de
résistance des variations des
marchés, au méme titre que le degré de
solidité
d'une voiture en phase de cra sh-test. Le comportement
stochastique des
extremes issus d'un échantillon permet la mise en
place d'un cadre
mathématique rigoureux. S'intéressant
directement à la queue de
distribution, faisant appara»tre le
degré d'importance statistique des
extremums, nous allons dans cette
section présenter, à partir des résultats
obtenus
précédemment, une stratégie de gestion basée sur le
calcul de la
Value-at-Risk. Notre étude va porter sur la
rentabilité ajustée du risque que
peut proposer la VaR
déterminée à partir du quan tile des extremes sur
le
DJIA pendant la crise des Subprimes. En proposant une telle
stratégie, un
investisseur pouvait-il éviter les pertes
liées à cette crise ? Pouvait-il
bénéficier d'un
Tracking-Error avantageux en achetant lorsque la VaRt > Rt
et en
vendant lorsque la VaRt < Rt au seuil de probabilité
fixé ? Nous allons
71
mettre en avant deux mesures liées à la VaR:
dans un premier temps, nous sélectionnerons un modèle
adéquate quant à la validité du modèle
présenté, puis dans un second temps, nous calculerons, à
partir des résultats obtenus, la performance que pouvait
développer une stratégie long-short du 13/06/2006 au
31/12/2010.
II.II.3.1 COUVERTURE CONDITIONNELLE
Afin d'étudier le risque que peuts dégager la VaR
basée sur la théorie des
Valeurs Extremes pour p?(95%), avec t = 1, nous allons
procéder à un
exercice de capable de les de violations 50
backtesting montrer occurrences . Celui-ci consiste en
réalité à confronter d'une part, la VaR calculée
à l'aide du quantile des valeurs extrêmes et d'autre part, les
pertes et profits réels. Pour valider cette méthode de
prévision, les pertes effectives ne devraient
51
pas dépasser la VaR de plus de 5% des cas . Dans le
cas contraire, nous devrions remettre en cause ce modèle. Nous proposons
d'adapter la Valueat-Risk calculée de facon journalière sur une
fenêtre plus lointaine, permettant ainsi de lisser les observations. Nous
utilisons donc une fenétre
glissante x1,x2,...,x! de taille F. Cette
méthode nous présente le
dépassement de la Value-at-Risk lorsqu'elle est
supérieure à x, la rentabilité réelle du DJIA en
t en valeur absolue. Soit IF, la série des violations
définie par la variable dichotomique suivante :
1 si Rt <VaRt
Dgt =
0 si Rt VaRt 1 si x
<VaRt
IF =
1 si Rt >VaRt 0
si x > VaRt
Ddt =
0 si Rt VaRt
5 0 Initialement développé par Campbell S. D, en
2005.
51 En d'autres termes, 95% des variations journalières
seront contrôlées avec seulement 5% d'erreur de
prévision

x est le rendement absolu sur la fenétre F compris
entre 1 et F, symbolisant la fin du backtesting. Dg, les valeurs
représentées par la distribution négative située
à gauche et Dd, celles positives de droite. Ces deux
dernières données sont présentées de facons
indicatives. Le modèle de Value-at-Risk reste fiable lorsque les
violations comprises sur la fenétre F
52
respectent la propriété du ratio de couverture
conditionnelle . Il permet une
comparaison de la proportion p de
violation au niveau de risque 1 - p. Ce
test est dit négatif
lorsque le nombre d'observations diffère largement de p.
!!!! !
Ce ratio est donné par oü des VaR dépassan t
x
! 'F est la somme sur
!
la fen étre. Il est à noter qu'un bon
modèle ne doit ni sous-estimer, ni-sur- estimer le risque. L'avantage de
cette technique réside dans le fait qu'elle permet de capturer les
caractéristiques de la dynamique temporelle de l'échantillon
à travers le temps. Nous avons sélectionné une
fenétre F = 50 jours dans notre étude. Nous avons
également choisi d'étendre nos observations de part et d'autre de
la crise des Subprimes pour montrer l'exigence de la VaR des valeurs extremes
par rapport à celle retenue par la loi normale. Nous aurons donc 1 147
observations.
TAB 11: Dépassement de VaR
|
|
|
|
VaR Loi Normale
|
VaR GPD
|
Nobs
|
1147
|
1147
|
Nombre de dépassement
|
112
|
12
|
Couverture conditionnelle
|
9,76%
|
1,05%
|
< 0,05
|
NON
|
OUI
|
|
5 2 Le ratio de couverture fut développé par
Kupiec en 1995. Il fut ensuite repris par Christoffersen en 1998
Le modèle lié à la loi normale se
révèle inadapté pour estimer le risque réel.
Il
enregistre un taux de 9.91%, dépassant de 4.91 point le taux
d'échec
accepté. Cet échec est attendu dans la
[Echelle logarithmique]
100 Dépassement de VaR (95%) mesure
oü ce modèle de mesure du
(F = 50) risque ne permet pas de prendre en
compte le caractère leptokurtique des rendements.

10
1
6/13/2006 6/13/2009
VaR N(|x|) F=50 VaR GPD(|x|) F=50

En période de crise, la VaR GPD ne laisse
appara»tre qu'une infinité de dépassements journaliers sur
F = 50. Le ratio de couverture conditionnelle nous indique qu'il
existe un taux de dépassement de 1,05% pour une Value-at-Risk acceptant
5% de risque. Ce modèle rempli donc les conditions pour un
dépassement qui ne sous-estime, ni ne surestime le risque de
marché. Ce modèle conditionnel fournit une quantification plus
flexible de la VaR, qui tient compte de la dynamique de la volatilité.
En effet, lorsque le taux de croissance dépasse le seuil u
fixé à 3%, la VaR conditionnelle Ç vibre È,
couvrant le risque de perte extreme (Cf. : graphique,
éléments fléchés ). Le graphique ci -dessous
souligne la différence qu'il peut exister entre la VaR classique et
celle liée aux valeurs extremes.
Backtesting: Occurences de violations de
VaR(95%)
12.00% 9.00% 6.00% 3.00% 0.00%
|
|
|
6/13/2006 6/13/2007 6/13/2008 6/13/2009 6/13/2010
|R| VaR N(|x|) VaR GPD(|x|)
En outre, nous retenons le modèle de VaR GPD
conditionnée à partir d'un seuil fixé à 3%. Nous
allons, dans la sous-section suivante, établir une stratégie
long-short à partir des résultats obtenus ci-dessus.
II.II.3.2 MODéLE DE RENTABILITÉ
AJUSTÉE DU RISQUE
Cette sous-section montre comment la théorie des
valeurs extrême peut être utilisée comme stratégie de
couverture du risque de marché. Celle-ci implique la distribution
asymptotique univariée des taux de rendement minimum et maximum d'une
position de marché. La VaR est calculée en fonction d 'une
formule d'agrégation du risque, laquelle prend en compte
· Le facteur de sensibilité des extrêmes,
à travers une méthode conditionnelle
· La corrélation entre les facteurs de risque et la
position du marché
Nous suivrons l'évolution de la VaR analysée
à partir cette hypothèse.
En pondérant celle-ci par la dynamique de prix de
l'actif étudié, nous
déterminerons la mesure du risque
que peut prendre la détention de l'actif
dans le portefeuille. Pour
établir une gestion performante basée sur la VaR,
pour p?(95%), avec t = 1, nous allons
préalablement, à travers l'étude des
extrême de la crise des Subprimes, confronter d'une
part, la MVaR calculée à l'aide du quantile
des valeurs extrêmes et d'autre part, les pertes et profits réels
du DJIA. Soit MVaR, l'agrégation de la M
à à la VaR, définie par les deux variables
suivantes :
Pt.(1+VaRt(q))
si Rt > 0
MVaR =
Pt si Rt < 0
(1+VaRt(q))
Oü Rt, le taux de rentabilité du DJIA en
t, Pt le prix auquel le DJIA est indexé en t
et q le quantile de la probabilité de perte maximum, ici
réduit à 95%.
Nous avons choisi de présenter un graphique exposant:
· L'évolution du cours du DJIA
· MVaR classique calculé à partir du
quantile de distribution de la loi normale
· La MVaR GPD initiée à
partir des éléments calculés précédemment

26000
PVaR
21000
16000
11000
6000
1000
6/14/2006 6/14/2008 6/14/2010
Price Normale GPO
Nous remarquons que la VaR GPD est réactive.
Conditionnée à partir du seuil u = 3%, elle tombe sous
le cours en septembre 2008, lors de la chute de la banque américaine
Lehman Brothers. Puis, passe au-dessus du cours lorsque la distribution
cumulée des rendements se recentre vers la tendance centrale, en 2010.
La VaR classique reste très proche du cours de l'indice en
période de perte extrême. Elle ne permet donc
pas d'assurer une gestion de portefeuille
sécurisée. La MVaR ayant
détectée une occurrence de perte extrême par le fait
qu'elle soit inférieure au cours du DJIA, se révèle
être un indicateur de décision intéressant dans une gestion
de portefeuille mettant en avant le risque. Afin de simuler cette aversion au
risque, nous pouvons alors prendre position à l'achat oü a la vente
en fonction de cette dernière. Soit WVaR, la
variable déterminant l'achat ou la ve nte de Pt, tel que:
Pt si PVaRt >
Rt
WVaR =
Pt 1 si PVaRt <
Rt
Oü Rt, le taux de rentabilité du DJIA en
t, Pt le prix auquel le DJIA est indexé en
t.
Nous présentons dans le tableau ci-dessous les
résultats empiriques de notre analyse:
Tab12: Résultats
|
|
|
|
Base 100
|
DJIA
|
Normale
|
GPD
|
Nobs
|
1148
|
1148
|
1148
|
Moyenne
|
98,20
|
88,83
|
98,87
|
Volatilité
|
19,14
|
17,18
|
14,08
|
Maximum
|
131,09
|
117,82
|
126,54
|
Minimum
|
55,58
|
59,92
|
69,65
|
Perte maximale
|
44,42
|
40,08
|
30,35
|
Skewness
|
-0,10
|
-0,02
|
0,27
|
Kurtosis
|
-1,21
|
-1,52
|
-1,38
|
Beta (MCO)
|
1,000
|
0,904
|
0,995
|
La performance relative du modèle lié 100% à
la loi normale et celui évalué à l'aide

90%

de la GPD sont présentés par rapport
80%

70% aux résultats empiriques du DJIA

60% pendant la période de test. Nous

50%
pouvo ns noter que la VaR GPD

40%

30% garantie un seuil de perte maximal de -

20% 3 0,5%, quand le cours descend à -

10%
44,42% . Nous remarquons également
0%



VaR GPO VaR Normale Prix

SVaR: Performance
125
115
85
des modèles. On remarque que le
75
coefficient d'asymétrie est négatif pour
65
le DJIA et la VaR normale, alors que
55
6/14/2006 6/14/2009
Price Normale GPO

celui de la VaR GPD est positif à 0,27.
Ceci
dénote que la loi des cours
comporte plus de mouvements à
la
baisse pour les deux premiers et une tendance plus haussière pour
le dernier.
77
CONCLUSION
Nous soulignons au terme de cette étude l'importance
des mouvements extrêmes lors de la crise des Subprimes. B. Mandelbrot
avait déjà émis des réserves en 1963 quant à
la validité du comportement aléatoire du mouvement brownien
caractérisé par les deux premiers moments de la loi normale. En
effet, les hypothèses qui les soutiennent, peuvent corrompre leur
validité intrinsèque dans le cas oü des
événements imprévisibles influencent de facon
prépondérante la moyenne de l'échantillon. La crise des
Subprimes en est l'exemple type. Nous pouvons apprécier la
fréquence du DJIA par l'exercice du calcul des rentabilités
anormales, se déplacant d'un niveau de stabilité vers celui
réalisé par la crise. Les résultats obtenus montrent que
la crise des Subprimes a enregistré une fréquence
journalière continue importante.
Le caractère imprévisible des
évènements rares est omniprésent en économie, en
finance et en assurance. Parallèlement aux travaux de P. Levy en 1920,
le développement des études statistiques des valeurs
extrêmes, mené par R. Fisher et L. Tippett en Grande- Bretagne, B.
Gnedenko en Union soviétique, M. Fréchet et E. Gumbel en France
et L. Mises en Autriche, a émergé. Ces études se
concentrent sur le maximum et le minimum d'une suite d'événements
dans un échantillon, événements d'occurrence faible, mais
de grande importance. Ces Ç événements
raresÈ forment ce que l'on nomme les queues de distributions. Ces
statisticiens ont montré que la valeur maximale de l'échantillon
ne peut obéir qu'à l'une parmi trois distributions
différentes : les distributions de Fréchet, de Gumbel et de
Weibull.
Il en est ainsi des étude s de fiabilité,
oü, pour calculer la probabilité de défaut, nous cherchons
à considérer la probabilité de défaillance de son
Ç maillon le plus faible È. Par exemple, pour
déterminer les caractéristiques d'un barrage, il faut connaitre
la pression maximale que l'ouvrage pourra être amené à
tolérer, et non sa pression moyenne qu'il supportera en situations
normales. Pour cela, il faut caractériser les variables extrêmes
de l'échantillon d'observations. C'est se que propose de quantifier la
Value -at-Risk, qui mesure la perte potentielle maximale à un seuil de
probabilité et à un horizon de temps fixés. L'analyse de
cette dernière menée sur le DJIA nous a permis de comprendre
qu'il est possible de la quantifier, de facon analytique, en utilisant la loi
de distribution de Pareto généralisée, les
probabilités de pertes extrêmes. En
pondérant la VaR GPD, nous avons mesuré le risque de
marché, nous permettant de limiter les pertes encourues par la
détention du DJIA. Il est à noter que cette méthode peut
être facilement assimilable aux méthodes de gestion assurancielle
de portefeuille OBPI53 ou CPPI54, dans laquelle la VaR
GPD servirait de seuil dynamique de proportion au risque.
Paradoxalement, l'étude menée
précédemment nous a permis de remarquer que les statistiques ne
sont pas une science exacte. En modélisant statistiquement les valeurs
extrêmes du DJIA, un problème est apparu de manière
récurrente : La pertinence des données utilisées.
En effet, les méthodes de significativité de
Brown et Warner , de Pattel et de Bohemer, Musumeci et Poulsen impliquent une
constance de la volatilité dans le temps. Or nous savons que les
marchés financiers sont hétéroscédastique et qu'il
est nécessaire d'utiliser un processus ARCHGARCH afin de proposer un
modèle adéquat. Nous pouvons également remarquer que cette
hypothèse n'est plus vérifiée en phase de Ç
partitionnement des données È ou Ç Clustering
È dans lequel deux ou plusieurs titres réagissent, sur un
intervalle de temps i, à un même évènement.
Cette corrélation est souvent révélée à
travers de nombreux exemples sur les marchés financiers, notamment
lorsque Lehman Brothers disparue pendant la crise des Subprimes .
Aussi, il faut utiliser une fenêtre de taux de
rentabilité équilibré s entre stabilité et
précision afin de réduire l'effet de croissance de la variance
estimée à partir du nombre d'observations. En ce qui concerne la
théorie des valeurs extrêmes, le choix du seuil u de
sélection des données maximum et minimum est primordial pour la
validité de l'étude. Il s'agit d'une part de sélectionner
un seuil grand, au dessus duquel nous conservons assez de données pour
que l'approximation asymptotique soit à la fois applicable et
précise. D'autre part pas trop élevé pour ne pas donner
trop d'importance aux écart-types de l'estimateur. Cela
révèle d'une certaine approximation.
5 3 <<Option Based Portfolio Insurance>> est
une méthode d'assurance de portefeuille à base d'options,
conceptualisée par Leland et Rubinstein en 1981.
54 <<Constant Proportion Portfolio
Insurance>> est la méthode du coussin. Initialement
développée par P. Erold en 1986 et Black et Jones en 1978, elle
vise à maintenir une proportion constante d'exposition au risque.
De plus, Selon N. Taleb, il n'est pas possible de mesurer le
risque d'événements rares catastrophiques dont nous n'avons
jamais connu d'exemple par le passé. Ces <<cygnes noirs
>>, tels qu'il les appelle, invalideraient les approches
statistiques de modélisation du risque. Mais il reste encore beaucoup
à découvrir. La préface de la deuxième
édition du livre << Une approche fractale des marchés
È soulignait : Ç L'économie financière, en
tant que discipline, en est là oil en était la chimie au XVI e
siècle : c'était un ramassis de savoir-faire, de sagesse
populaire fumeuse, d'hypothèses non confirmées et de
spéculations grandioses È55.
La crise financière des Subprimes est-elle un cygne
noir au méme titre que l'accident subi par la centrale nucléaire
de <<Three Mile Island >>56, oü,
malgré la prudence établie par les instances de régulation
nucléaire, une erreur de nature non-quantifiable, mit en échec le
système de süreté ? Ou pouvons-nous plutôt la comparer
à la tempéte qui dévasta les Pays-Bas en 1953,
événement anormal, mais dont on pouvait mesurer la
probabilité ?
5 5 B. Mendelbrot et R. L Hudson: Une approche fractale des
marchés Ð Risquer, perdre et gagner ; Editions Odile Jacob,
Paris 2009, 358 pages.
56 La central nucléaire de Three mile
Island est situé dans l'est des Etats-Unis est connu pour avoir
subi un accident classé au niveau 5 l'échelle international des
évenements nucléaires (INES). C'était le 28 mars 1979.
BIBLIOGRAPHIE
BALKEMA A. A., DE HAAN L., 1974, "Residual life time at great
age", Annals of Probability 2, p 792-804.
BEIRLANT J., GOEGEBEUR Y.,s "Segers J. et Teugels J., 2004,
Statistics of Extremes - Theory and Applications", Wiley, England.
BERMAN S. M., 1963, "Limiting theorems for the maximum term
in stationary sequences", Annals of Mathematical Statistics, p 502-516.
BOEHMER E., MUSUMECI J. ET POULSEN A., 1991, "Event-study
methodology under conditionsof induced variance", Journal of Financial
Economics, vol. 30, n°2, p 253-272.
BROWN S. ET WARNERJ., 1980, "Measuring security price
performance", Journal of Financial Economics, vol. 8, n°3, p
205-258.
CAMPBELL J., LO A. ET MACKINLAY C., 1997, "The econometrics
of financial markets", Princeton University Press.
CLAUSS P., 2011, "Gestion de portefeuille", Dunod.
DANIELSSON J., DE VRIES C.G., 1997, "Value at risk and extreme
returns", Working Paper, London School of Economics, London, UK.
DEKKERS A. L. M., DE HAAN L., 1989, "On the estimation of the
extreme value index and large quantile estimation", The Annals of
Statistics, p 1795-1832.
EMBRECHTS P., KLPPELBERG C., MIKOSCH T., 1997,
"Modelling Extremal Events for Insurance and Finance",
Springer-Verlag, Berlin.
ENGLE R.F., 1982, "Auto-regressive conditional
heteroskedasticity with estimates of the variance of united kingdom inflation",
Econometrica, p 987-1007.
Fama E., 1970, "Efficient capital markets: a review of theory
and empirical work", The Journal of Finance, val. 25, n°1, p
383-417.
FISHER R., TIPPET L., 1928, "Limiting Forms of the
Frequency Distribution of the Largest or Smallest Member of a Sample",
Cambridge Philosophical Society, p 180-190.
GNEDENKO B.V., 1943. "Sur la distribution limite du terme
maximum d'une série aléatoire". Annals of Mathematics, p
423-453.
GUMBEL E J., 1958, "Statistics of Extremes", Columbia
University Press, New-York.
e
HAMON J., 2005, "Bourse et gestion de portefeuille" ,
Economica, 2edition.
HILL B M., 1975, "A simple general approach to inference
about the tail of a distribution", Annals of Statistics, p 1163-1173.
HULL J., 2006, "Options, futures et autres actifs
dérivés", 6e edition, Pearson Education.
JORION P., 1996, "Risk: Measuring the risk in value at
risk", Financial Analysts Journal, p 47-56.
JORION P., 1997, "Value at Risk: The New Benchmark for
Controlling Market Risk", McGraw-Hill, Chicago.
e
JORION P., 2006, "Value -at-Risk" , McGraw -Hill,
3edition.
JP MORGAN, 1995. RiskMetricsTM - Technical Document,
3rd ed
KUPIEC P. H., 1995, "Techniques for verifying the accuracy of
risk measurement models", Journal of Derivatives, p 73-84.
LO A. W., MACKINLAY A. C., 1990, "An econometric analysis of
nonsynchronous trading", Journal of Econometrics, p 181-211.
LONGIN F. M., 1997, "The threshold effect in expected volatility:
A model based on asymmetric information", The Review of Financial Studies,
837-869.
LONGIN F., 1993, "Volatility and extreme movements in
fianncial markets", Ph.D. Thesis, HEC.
LONGIN F., 1996, "The asymptotic distribution of extreme
stock market returns", Journal of Business, p 383-408.
LONGIN F., 2000, "From VaR to stress testing: The extreme value
approach". Journal of Banking and Finance, p 1097-1130
LONGIN F., SOLNIK, B., 2001, "Extreme correlation of
international equity markets", Journal of Finance, p 651-678
82
LUX T., SORNETTE D., 1999, "On rational Bubbbles and fat
tails", Journal of Monetary Economics.
MANDELBROT B., 196,. "The variation of certain speculative
prices", Journal of Business, p 394-419.
MANDELBROT B., 1997, "Fractales, hasard et finance",
Flammarion.
MANDELBROT B., 2001, "Stochastic Volatility, Power Laws And
Long Memory", Quantitative finance, vol. 1, n°6, December, p
558-559.
MANDELBROT B.,1963, "The Variation Of Certain Speculative
Prices", Journal of Business, vol. 36, n°4, p 394-419.
MCNEIL A. J., 1998, "Calculating quantile risk measures for
financial return series using extreme value theory", Working Paper, ETH,
Zurich, Switzerland.
PARKINSON M., 1980, "The Extreme Value Method For Estimating
The Variance Of The Rate OfReturn", Journal of Business, Vol. 53, p
61-66.
PATTEL J., "Corporate forecasts earning per share and stock
price behavior: empirical test", Journal of Accounting and Research, vol.
14, n°1, p 246-276.
PICKANDS J., 1975, "Statistical inference using extreme order
statistics". Annals of Statistics, p 119-131.
RIVA F., 2008, "Application financieres sous Excel en Visual
Basic", Economica, 3° edition.
SAPORTA G., 1990, "Probabilités, analyse des
données et statistique", Editions Technip.
SHARPE W., 1963, "A simplified model for portfolio
analysis", Management Science, vol. 9, n°1, p 277-293.
SIVERMAN B., 1986, "Density estimation for statistics and
data analysis", Chapman and Hall, London.
SMITH R., 1989, "Extreme Value Analysis of Environmental
Time Series: an Application to Trend Detection in Ground-Level Zone",
Statistical Science, p 367- 3 93
SORNETTE D., 1998, "Multiplicative processes and Power
laws", Physical review, p 4811-4814.
83
WHITE H., 1982, "Maximum Likelihood Estimation of
Misspecified Models", Econometrica, p 1-16.
ANNEXES
A. Graphiques : Sélection de seuil 86
B. Stratégie : Synthèse
générale 87
C. Graphiques : VaR 88
D. Stratégie 89
E. Visual Basic Application : Loi de valeurs extremes
91
F. Visual Basic Application : Loi de probabilité
93
G. Origines macroéconomiques de la crise des
subprimes 97
85
A. GRAPHIQUES : SÉLECTION DE SEUIL

u > 3%
5
y = 1.3562ln(x) - 0.8559
R2 = 0.74542
4
3
2
1
0

u > 4%
5
y = 1.268ln(x) - 0.7444
R2 = 0.77269
4
3
2
1
0
Extreme Enreg. (Extreme)
Extreme Enreg. (Extreme)



u > 5%
u > 6%
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
5
4
3
y = 1.0948ln(x) - 0.5358
R2 = 0.80069
y = 0.8955ln(x) - 0.3101
R2 = 0.80966
5
4
3
2
1
0
2
1
0
Extreme Enreg. (Extreme)
Extreme Enreg. (Extreme)
86
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
Si VaR (q) >
t Rt
Long

B. STRATÉGIE : SYNTHéSE
GÉNÉRALE
Sélectionner un actif

Déterminer un période T
Choisir la fréquence des taux de rentabilités

Calculer les taux de rentabilités Rt

|
Sélectionner un seuil extreme u
|

L'hypothèse est
rejetée
Etablir un test d'ajustement sur les valeurs
réelles
observées correspondant au seuil 1 - q
Calculer la VaR en fonction du quantile q sur
une
période t
Estimé les paramètres !!,(3!
asymptotique à partir du rendement u
de la distribution
L'hypothèse est
acceptée
Calculer la VaR pondérée par le prix de l'actif en
t
87
125 115 105 95 85 75 65 55
C. GRAPHIQUES : VAR

DJIA
6/14/2006 6/14/2008 6/14/2010
Price
SVaR classique
125
55
6/14/2006 6/14/2008 6/14/2010
Normale

SVaR GPD
125
115
105
95
85
75
65
55
6/14/2006 6/14/2008 6/14/2010
88
GPD
D. STRATÉGIE
Nous vous présentons ici une stratégie
basée sur plusieurs actifs différents. Il s'agit, comme dans
l'exemple vu précédemment, d'une stratégie long-short
basée sur l'achat de call et de put. Soit R1,
R2,É,Rn, une suite de variables aléatoires
indépendantes et identiquement distribuées, calculées par
ln(Pt/Pt-1), oü P est le prix de l'actif en t.
Pour
Pt.(1+VaRt(q))
si Rt > 0
MVaR =
Pt si Rt < 0
(1+VaRt(q))
oÜ MVaR est la pondération de la
VaR à l'actif, et la VaR est donnée par
VaRq = uö +
|
ö fl
(
ö Nu
|
ö
(1 q) ) 1. Lorsque la VaR (q = 95%)
=R2, alors le
|
risque est dit faible. Inversement, le risque est dit
élevé. Nous avons donc
· L'achat d'un Call lorsque la VaR = cours
· L'achat d'un Put lorsque la VaR < cours.

DJIA; BOfA; IBM; Exxon
350
300
250
200
150
100
50
0
6/13/06 6/13/07 6/13/08 6/13/09
400

140
130
120
110
100
90
80
Call
ITM
Put
ITM
6/13/06 6/13/07 6/13/08 6/13/09
70
60
Cette étude nous permet de constater qu'il existe, sur
les marchés financiers,
une volatilité plus importante en
phase de baisse des cours. Il existe aussi
89
des effets "clusters" oü la corrélation des actifs se
concentre en une période t, impliquant un risque de
non-diversification statistique (risque de marché).

40.00%
Performance
50.00%
30.00%
20.00%
10.00%
0.00%
Call/Put
Enreg. (Call/Put)
100Moy. mobile sur per. (Call/ Put)
Nous enregistrons une performance de 40,1% en prés de 2
ans et 6 mois de gestion, avec un maximum de 47,18%. Cette stratégie met
en avant le risque probabiliste pour en dégager une rentabilité.
Le risque extrême "Black Swan" est également pris en compte.
Cependant, Un test "Out-of-Sample"
doit être
établi pour confirmer cette
hypothèse. Les Calls et les Puts
sont
ici hors premium. Il serait nécessaire de minorer l'effet
de cette prime sur la performance de la stratégie.
Resultats
|
Données
|
Call
|
Put
|
Nobs
|
906
|
|
|
Moyenne
|
32.11%
|
122
|
90
|
Ecart-type
|
10.9%
|
8.80
|
10.88
|
Maximum
|
47.18%
|
140
|
100
|
Minimum
|
0.00%
|
100
|
65
|
Skewness
|
-0.94
|
-0.09
|
-0.59
|
Kurtosis
|
0.02
|
-0.77
|
-1.21
|
Jarque Bera
|
4.69
|
21.53
|
28.84
|
Performance
|
40.10%
|
20%
|
20%
|
90
E. VISUAL BASIC APPLICATION : LOI DE VALEURS EXTRæMES
'Indicateur de Hill (Pour Fréchet uniquement)
Function Hill(rank As Double, Nb As Double) As Double
medianrank = (1 / (1 - ((rank - 0.44) / (Nb + 0.12))))
Hill = WorksheetFunction.Ln(WorksheetFunction.Ln(medi anrank))
End Function 'Gumbel
Function Gumbel(x As Double, a As Double, b As Double) As
Double
If b <= 0 Then
Call MsgBox("b doit tre strictement positif", vbExclamation,
"Paramtre incorrect")
Exit Function End If
Gumbel = Exp(-(x - a) / b) * Exp(-Exp(-(x - a) / b)) / b
End Function 'Fréchet
Function Fréchet(x As Double, a As Double, b As Double) As
Double
If x <= 0 Then
FrÉchet = 0 Exit Function End If
91
If b <= 0 Then
Call MsgBox("b doit être strictement positif",
vbExclamation, "Parametre incorrect")
Exit Function End If
Fréchet = a / b * (b / x) ^ (a + 1) * Exp(-(b / x) ^ a)
End Function 'Weibull
Function Weibull(x As Double, a As Double, b As Double) As
Double
If x <= 0 Then
Weibull = 0 Exit Function End If
Weibull = a / b ^ a * x ^ (a - 1) * Exp(-(x / b) ^ a)
End Function
92
F. VISUAL BASIC APPLICATION : LOI DE PROBABILITÉ
Option Explicit
'ETAPE 1: COPIER ET TRIER
'Dans cette section, nous allons copier le nombre de série
pour les trier, dans le but de dessiner la fonction de distribution
cumulée
' La variable "Total" nous donne le nombre de donnÉe
existante
Public Sub Copy_and_Sort()
Dim Total As Integer
Let Total = Range("Total").Value
' Copier dans un tableau reconfiguré de Total lignes et de
1 colonne
Let Range("Y1").Resize(Total, 1) =
Range("Selection").Resize(Total, 1).Value
' Trier les données copiées
Call Range("Y1").Resize(Total,
1).Sort(Key1:=Range("Y1").Resize(Total, 1), Order1:=xlAscending,
Header:=xlGuess, OrderCustom:=1, MatchCase:=False, Orientation:=xlTopToBottom,
DataOption1:=xlSortTextAsNumbers)
End Sub
'ETAPE 2: DEFINIR L'INTERVAL DE DISTRIBUTION
'Dans cette section, l'intervalle est défini afin que
celui-ci soit le plus large possible en aberrant les cases vides
'La variable "Interval" est donnée 10 quand la borne
inférieure "borneinf" est Égale 0
'La fenêtre "step" est Égale à 0,1
93
'La variable "case_vide" est ici exprimée "as boolean",
c'est ö dire soit "Vrai" Il n'y a pas de case vide, soit "Faux"
il y a des cases vides
Public Sub Intervallecorrespondant ()
Const Interval = 10 Const borne_inf = 0 Const Step = 0.1
Dim intervalleconfiance As Double
Let intervalleconfiance = Interval
Dim case_vide As Boolean
' Montre la dimension de l'intervalle du plus grand au plus
petit
' S'arrête lorsque l'ensemble des cases de sont pas vides,
ou, par sécurité, lorsque la taille de l'intervalle est
Égale ö 0
Do
Let Range("Intervalleconfiance").Value = intervalleconfiance
Call Application.Calculate
Dim minimum As Integer
Let minimum = Application.WorksheetFunction.Min(Ra
nge("Distributions"))
Let case_vide = (minimum > 0) ' Vrai si le minimum >= 1
Let intervalleconfiance = intervalleconfiance - Step
'
Boucle
Loop Until case_vide Or
intervalleconfiance <= borne_inf
94
End Sub
'ETAPE 3: FONCTION DE DISTRIBUTION
'Dans cette section, nous allons créer une fonction afin
de faciliter les calculs de fonction de distribution
' Somme des returns (Ln(t) / Ln(t-1))
' Les champs doivent être vertical avec le meme nombre de
ligne
Public Function SumAbsLn(ByRef valeurscourrantes As Range, ByRef
DJIA As Range) As Double
Dim size As Integer
Let size = valeurscourrantes .Rows.Count
If size <> DJIA.Rows.Count Then
Call MsgBox("La taille des séries ne corresponde pas
!")
End If
Dim resultat As Double Let resultat = 0
Const petitesvaleurs = 0.01 Dim i As Integer
For i = 1 To size
Dim Borne As Double
' Si les données sont égales à 0, prendre la
plus petite value
Let Borne = Application.WorksheetFunction.Max(v a l e u r s c o u
r r a n t e s (i, 1).Value, petitesvaleurs)
' increment result with the absolute value of the log of the
ratio between actual and model data
95
Let resultat = resultat + Abs(Log(Borne / DJIA(i, 1).Value))
Next i
96
Let SumAbsLn = resultat End Function
G. ORIGINES MACROÉCONOMIQUES DE LA CRISE DES SUBPRIMES
Comité de B%ole
Ratio: Cooke, McDonough
|
|
Hausse des besoins en
fonds propres
|
|
|

Recherche
de rentabilité
Exigence de
rentabilité
Baisse de la
prime de
risque
Etats
Confiance
Ç Paradoxe
de
la
tranquillité »
Credibilité
des banques
centrales
Innovation
financiere
Concurrence
Baisse de
lÕinflation
Baisse des
taux long
terme
Rel%ochement
des critéres
Excédent commerciaux des pays émergents
Titrisation
Hausse de la
liquidité
Hausse de lÕépargne dans les pays
émergents
Expansion
du credit
Hausse de lÕinflation
Investissement
Hausse de la
consommation
Anticipation
des profits
Croissance
Hausse du
prix des
actifs
Choc de
productivité
Optimisme
Source : P. Artus, J-P Betbeze, C. Boissieu et
G. Capelle-Blancard, «La crise des subprimes», Conseil
d'analyse Cconomique, la documentation frangaise, 2008, p 60
97 UNE VISION QUANTITATIVE DU RISQUE EXTRæME
APPLIQUÉE Ë LA CRISE DES
SUBPRIMES