![]() |
Analyse comparative de modèle d'allocation d'actifs dans le plan Moyenne-Var relative( Télécharger le fichier original )par Alaeddine FALEH Université Claude Bernard Lyon 1 - Master 2 actuariat et finance 2007 |
La règle consiste à rejeter H0 si la statistique JB est plus grande que ÷2 avec deux degrés de liberté au seuil de signification choisie (1% par exemple). Notons que la stationnarité des rendements du portefeuille d'actions est une condition nécessaire pour appliquer la méthode de simulation historique (voir section suivante). Le test de racine unitaire ADF (augmented Dickey-Fuller) consiste à tester l'hypothèse nulle: H0 existence d'une racine unitaire série non stationnaire Ce test consiste à rejeter H0 si la statistique obtenue est inférieure à une valeur critique dite valeur de MacKinnon. I-3 Les principaux méthodes de mesure de la Value at Risk :Mathématiquement, la notion de la Value-at-Risk se traduit ainsi: Pr( Ä VpVaR)=1-c Avec: ÄV = la variation de la valeur V du portefeuille sur la période de détention. c = le niveau de confiance Plusieurs modèles ont été présentés pour l'estimation de la Value-at-Risk (Manganelli et Engle (2001)). L'élément clé qui distingue ces modèles est l'existence ou non d'une hypothèse de para métrisation de la distribution des pertes et des profits. Ainsi on classera ces méthodes en trois classes: les méthodes non paramétriques, les méthodes semi paramétriques et les méthodes paramétriques. I-3-1 Les méthodes non paramétriques :La méthode du quantile empirique : La méthode du quantile empirique (ou Historical Simulation) est une méthode très simple d'estimation des mesures de risque fondée sur la distribution empirique des données historiques de rendements. Formellement, la VaR est estimée simplement par la lecture directe des fractiles empiriques des rendements passés. Si l'on considère par exemple un niveau de confiance de 95% et que l'on dispose d'un échantillon de 1000 observations historiques de rendements, la VaR est donnée par la valeur du rendement qui correspond à la 50ème forte perte. La méthode du Bootstrap Une amélioration simple de la méthode de la simulation historique consiste à estimer la VaR à partir de données simulées par Bootstrap. Le Bootstrap consiste à ré échantillonner les données historiques de rendements avec remise. Plus précisément, dans notre contexte, la procédure consiste à créer un grand nombre d'échantillons de rendements simulés, où chaque observation est obtenue par tirage au hasard à partir de l'échantillon original. Chaque nouvel échantillon constitué de la sorte permet d'obtenir une estimation de la VaR par la méthode HS standard, et l'on définit au final une estimation en faisant la moyenne de ces estimations basées sur les ré échantillonnages. I-3-2 Les méthodes semi paramétriques :La méthode basée sur la théorie des valeurs extrêmes : Parmi les méthodes semi paramétriques figurent tout d'abord l'ensemble des méthodes et approches qui relèvent de la théorie des extrêmes (TVE) qui diffère de la théorie statistique habituelle fondée pour l'essentiel sur des raisonnements de type tendance centrale. Les extrêmes sont en effet gouvernés par des théorèmes spécifiques qui permettent d'établir sous différentes hypothèses la distribution suivie par ces extrêmes. Il existe deux principales branches de la théorie des valeurs extrêmes : la théorie des valeurs extrêmes généralisée et l'approche Peaks Over Threshold (POT) basée sur la loi de Pareto généralisée. L'approche POT permet l'étude de la distribution des pertes excessives au dessus d'un seuil (élevé), tandis que la théorie des valeurs extrêmes généralisée permet de modéliser la loi du maximum ou du minimum d'un très grand échantillon. Dans ce qui suit, on procèdera à l'application de cette approche. Pour cela, on définie la moyenne en excédent pour une distribution F par : e ( u ) = E(X -uX >u) C'est simplement une fonction de u qui s'exprime à l'aide de la fonction de survie de F. Plus les queues de distribution sont épaisses, plus cette fonction a tendance à tendre vite vers l'infini. En pratique, si n est le nombre total de l'échantillon et si est le nombre d'observations au Nu dessus du seuil u, on a : n 1 j=1 e( u) = ? ( x - u)1 { x>u }(x j) , u > 0N u Le problème du choix de u reste entier. Usuellement, on trace cette fonction Mean Excess pour différents niveaux du seuil u. Le bon seuil est celui à partir duquel e(u) est approximativement linéaire. Graphiquement, cela se traduit par un changement de la pente de la courbe qui ensuite reste stable. Ce résultat provient de la remarque que pour la distribution de Pareto généralisée, e(u) est linéaire en u. Une fois le seuil optimal choisi, on construit une nouvelle série d'observations au dessus de ce seuil, et la distribution de ces données suit une distribution généralisée de Pareto, qui se définit comme suit : 1 ? - î î ? ? 1 1 - ? + x ? ? si 0
î ? ? â G x Sisib=0 ( ) = ? ? ? ? î â , ? - ?- x ? 1 exp ? ? ? â ? est appelée l'indice de queue. Le paramètre â est un indicateur de la taille de la queue à une distance finie. L'estimation des paramètres î et â se fait par le maximum de vraisemblance. La densité de la distribution GPD s'écrit :
( x) i??i ? â î( â + 4) si - si 0 î = ? 0 â n + (( (1 - c))-î-1) VaR = u ? î ? Nu Et la log vraisemblance que nous maximisons est de la forme :
Une fois l'estimation terminée, on peut vérifier
graphiquement la pertinence des estimations ? La simulation historique filtrée : La méthode de la simulation historique filtrée est une forme de Bootstrap semiparamétrique qui vise à combiner les avantages de la simulation historique avec la puissance et la flexibilité des modèles à volatilité conditionnelle tel que le modèle GARCH. Elle consiste à faire un Bootstrap sur les rendements dans un cadre de volatilité conditionnelle, le Boostrap préservant la nature non paramétrique de la simulation historique, et le modèle à volatilité conditionnelle donnant un traitement sophistiqué de la volatilité. I-3-3 Les méthodes paramétriques :La méthode de Variance Covariance : Cette méthode connu aussi sous le nom de méthode Riskmetrics. Les principales hypothèses simplificatrices consistent à supposer, d'une part, que les lois de probabilité qui régissent les distributions des variations des prix de marché sont normales et, d'autre part, que les instruments présentent un profil de risque linéaire. Sous ces hypothèses, la matrice de Variances Covariances peut être appliquée assez directement aux positions détenues pour calculer la VaR.
Ainsi, on aura: T VaR = SCS Avec: S = le vecteur des VaR pour chaque position ou facteur de risque= [... qi ó i ù i ...] q i = le quantile de la loi normale ói = la volatilité historique des facteurs de risque ù i = la part de la richesse investie dans le facteur i C = la matrice des corrélations entre les facteurs de risque. Les calculs utilisés dans la méthode RiskMetrics sont rapides et simples, et requièrent uniquement la connaissance de la matrice des Variances Covariances des rendements du portefeuille. Néanmoins, cette méthode s'avère être inadaptée aux portefeuilles non linéaires (instruments optionnels), et théoriquement peu adaptée aux queues de distribution épaisses et aux distributions non normales des rendements. La Simulation Monte Carlo : La méthode de Monte Carlo consiste à simuler un grand nombre de fois les comportements futurs possibles des facteurs de risque selon un certain nombre d'hypothèses, et d'en déduire une distribution des pertes et profits à partir de laquelle on estime finalement un fractile. Plus précisément, on peut considérer l'exemple de l'hypothèse de normalité. La méthode Monte Carlo s'applique en trois étapes:
Si cette approche peut s'appliquer, en théorie, quelles que soient les lois de probabilité suivies par les facteurs de risque, elle est couramment utilisée en pratique, pour des raisons techniques, en supposant que les variations relatives des paramètres de marché suivent des lois normales. Cette méthode convient également à tous les types d'instruments, y compris optionnels, et permet de tester de nombreux scénarios et d'y inclure explicitement des queues de distribution épaisses (événements extrêmes pris en compte dans une certaine mesure) (voir Glasserman et al. (2001)) Méthodes basées sur les modèles GARCH La méthodologie d'estimation de la VaR en se basant sur la modélisation GARCH est largement étudiée en littérature (voir par exemple Christoffersen et al. (2001), Engle (2001)). En ce qui concerne la détection de l'effet ARCH dans la série des observations, deux principaux tests complémentaires peuvent être effectué. Le premier s'intéresse au phénomène d'auto corrélation entre les termes d'erreur au carré du modèle : Test Q (p) de Ljung-Box (1978). Si le processus est ARCH, les résidus au carré doivent être corrélés. L'hypothèse nulle est l'absence d'auto corrélation d'ordre p. La statistique du test est supposée suivre une loi ÷2 avec p degrés de liberté. Le deuxième test d'intéresse plutôt au phénomène d'homoscédasticité (constance de la volatilité des termes d'erreur): Test ARCH (p) d'Engle (1982). Ce test vérifie l'absence d'hétéroscédasticité autorégressive conditionnelle d'ordre p. Si le processus est ARCH, les résidus au carré doivent être hétéroscédastiques. L'hypothèse nulle est celle de l'homoscédasticité. La statistique du test est supposée aussi suivre une loi ÷2 avec p degré de liberté. La règle de décision est la même pour les deux tests: accepter H0 si la statistique du test est inférieure à la valeur critique de la loi ÷2 avec p degrés de liberté à un niveau de confiance donné. Notons que pour tester l'effet GARCH (p, q), il suffit de procéder à un test d'effet ARCH (p+q). La prévision de la Value-at-Risk à partir d'un modèle GARCH est effectué selon une démarche indirecte: dans un premier temps, on fait une hypothèse sur la distribution conditionnelle des rendements de l'actif, puis l'on estime les paramètres du modèle GARCH sur les observations de la période 1 à T, généralement par une procédure de type maximum de vraisemblance. Dans une seconde étape, on déduit du modèle GARCH estimé une prévision de la variance conditionnelle, qui couplée à l'hypothèse retenue sur la distribution des rendements, permet de construire une prévision sur le fractile de la distribution de pertes et profits valable pour T+1. Considérons l'exemple d'un modèle GARCH sous hypothèse d'une distribution quelconque (normale, student...) de paramètre v. On suppose ainsi que les rendements d'un actif, notés rt , satisfont le modèle suivant : rt = c+ åt åt = ztó t 2 2 2 1 - ót = á0 + á1 å t- 1 +â1ó t Les sont indépendantes identiquement distribués selon la loi mise en hypothèse. Les zt paramètres á0 , á1 , â1 ,c sont des réels à estimer vérifiant les contraintes suivantes: á0 >- 0 , á1 = 0 , â1 = 0 (v peut aussi faire partir des paramètres à estimer comme dans le cas de la distribution de student). Le terme ( \ t -1 ) désigne la variance conditionnelle du résidu ó t 2 = E å t å åt et donc des rendements . Une fois les variables sont estimées (par la méthode de maximum de rt vraissemblance par exemple), on obtient l'expression suivante:
Avec 2 ó1 donné et donc :
ó t 1 á á ( r t c ) â ó t 2 = + - + 2 + 0 1 1 Soit ( , ) la fonction de répartition de la loi de . La Value-at-Risk pour t+1 et pour un G 1 á v - zt niveau de confiance 1-a obtenue par la formule suivante: ? ? ? ? VaR t + 1 = ó t+1 G-1 (á , v) + c I-4 La VaR dans la littérature de la gestion de portefeuilleDepuis longtemps, les chercheurs dans le domaine de la finance reconnaissent l'importance cruciale de la mesure du risque d'un portefeuille d'actifs financiers dans le processus d'optimisation de l'allocation d'actifs. Ce souci remonte à quatre décennies lorsque Harry Markowitz (1952) initiant les recherches sur la sélection de portefeuille explore la définition et la mesure de risque. Depuis la mesure de risque devient une composante bien intégré dans l'activité financière. Dans le modèle proposé par Markowitz, les investisseurs maximisent l'espérance de rendement pour un niveau de risque donné, ce dernier est mesuré par la variance. Markowitz fait remarquer que les individus cherchent en fait à réaliser le meilleur compromis possible entre le gain espéré et son risque associé. Reste à formaliser ce compromis. Puisqu'on est dans une économie risqué, le gain espéré sera l'espérance du revenu, le risque sera simplement mesuré par la variance ou l'écart type du revenu aléatoire. La variance est une mesure de fluctuation. Faire ce choix comme mesure de risque de marché implique donc que l'on considère comme risqué tout ce qui bouge par rapport à la moyenne aussi bien les mouvements à la hausse que les mouvements à la baisse. De façon plus formalisée, le critère de Markowitz s'écrit : X Y E X E Y Var X VaR Y > ( ) ( ) et ( ) ( ) = p ou bien
E X E Y Var X VaR Y ( ) ( ) et ( ) ( ) = Le critère choisit par Markowitz est visualisé dans un plan appelé plan de Markowitz, où l'on représente en ordonnée le revenu (ou le rendement) attendu et en abscisse le risque. Chaque couple possible d'actifs peut être représenté dans ce plan. Pour chaque rendement, il existe un portefeuille qui minimise le risque. À l'inverse, pour chaque niveau de risque, on peut trouver un portefeuille maximisant le rendement attendu. L'ensemble de ces portefeuilles est appelé frontière d'efficience ou frontière de Markowitz. Cette frontière est convexe par construction : le risque n'augmente pas linéairement en fonction des poids des actifs dans le portefeuille. Dans le même cadre d'étude, Tobin (1958) résume le processus de décision d'investissement en deux étapes: la première est similaire pour tous les investisseurs et au cours de laquelle ils choisissent le même "meilleur" portefeuille d'actifs risqués sur la frontière efficiente (appelée le portefeuille de marché), la deuxième étape est spécifique à chacun d'entre eux. Elle dépend de leur attitude vis à vis du risque. En effet, chaque investisseur combine le portefeuille de marché avec un emprunt ou un prêt de façon à obtenir le niveau de risque qu'il désire supporter. Chaque investisseur ne doit donc placer son argent que dans deux actifs : d'une part un portefeuille risqué commun et d'autre part un actif sans risque ayant le caractère d'un prêt ou d'un emprunt. Il est utile de remarquer que le critère de Markowitz ne permet pas de comparer tous les projets de point de vue domination de l'un sur l'autre. Black et Litterman (1992) ont élargi le champ d'application possible de cette approche classique. L'extension du cadre classique pour tenir compte du skewness et du kurtosis ainsi que l'étude des mesures de risque alternative est aussi largement traitée en littérature (Kaplanski et Kroll (2002)). Fleming, Kirby et Ostdiek (2001) étudient la valeur économique de l'indexation temporelle de la volatilité et De Roon, Nijman et Werker (2003) montrent son utilité dans la couverture des risques de change pour les portefeuilles d'actifs internationaux. Certains désavantages de cette méthode, tel que l'incertitude au niveau de la matrice des covariances ou dans les espérances de rendement, sont évalués (Jorion (1985), Bouchaud et Potters (2000)). En effet, face aux inconvénient majeures du modèle de Markowitz, principalement l'hypothèse de normalité de la distribution des rendements et l'hypothèse de l'indifférence de l'investisseur vis-à-vis des pertes et des profits, d'autres critères de mesure du risque ont apparu comme mesure alternative capable d'éviter ces inconvénients. La plus importante de ces critères est la Value-at-Risk (ou valeur à risque). Cette notion est traitée depuis longtemps dans la littérature de sélection de portefeuille sous un autre concept qui est la notion de perte potentielle. En effet, présente dans les travaux de Roy (1952) sur la sélection de portefeuille sous les contraintes de perte de valeur potentielle, l'idée de mesurer le risque par ce phénomène revient évidemment à la notion de valeur à risque. Roy définit cette contrainte en terme de probabilité limite de la dévaluation de la valeur du portefeuille au dessous d'un niveau préfixé. Depuis, la littérature d'allocation d'actifs sous cette contrainte est élargit (voir par exemple Leibowitz et Kogelman (1991)). Lucas et Klaassen (1998) ont constitué des portefeuilles en maximisant l'espérance de rendement sous la contrainte d'un rendement positif minimal sur un horizon de temps donnée et pour un niveau de confiance prédéterminé. Alexander et Baptista (2001) comparent l'utilisation de la VaR et de la variance afin de construire la frontière d'efficience. Ils montrent que pour un investisseur averse au risque l'utilisation de la VaR peut conduire à la sélection de portefeuille avec des variances de rendement plus élevées comparées aux analyses Moyenne Variance. Le principal inconvénient de la VaR est qu'elle ne vérifie pas la condition de sous additivité, condition nécessaire pour considérer la mesure comme étant cohérente au sens de Artzner, Delbaen, Eber et Heath (2000). Pour cela certaines études se sont orientées vers des mesures alternatives cohérentes, dérivées de la notion de VaR, tel que l'expected shotfall appelé aussi VaR conditionnelle (CVaR) ( Pflug(2000), Acerbi et Tasche (2001, 2002), Rockafellar et Uryasev (2002)), la déviation absolue étudiée par Denneberg (1990) ou la semi variance mesurant le risque de base (Fischer (2001)). Certaines de ces études se sont focalisées sur l'étude l'utilisation des mesures alternatives de risque en gestion de portefeuille. Krokhmal, Uryasev et Zrazhevsky (2002) cherchent l'optimisation de portefeuille pour les fonds de couvertures sous différentes mesures de risque tel que le CVaR, la déviation absolue moyenne, la perte maximale. Ils montent que les résultats pour la frontière d'efficience coïncidente pour ces différentes mesures et que leurs combinaisons permettent d'obtenir une gestion de risque meilleure. Rockafellar et Uryasev (2000) présentent une approche de programmation linéaire permettant la construction de la frontière efficiente sous la contrainte d'expected shortfall empirique. Ils contribuent aussi à la résolution du problème d'optimisation dans le plan Moyenne-CVaR. De même, Konno et al (2003) fournissent des algorithmes d'optimisation sous la contrainte de semi variance qui sont facile à implémenter. Dans le cadre d'optimisation dans le plan Moyenne-VaR, Gaivoronski et Pflug (1999) traite d'une façon générale le cadre mathématique du processus d'allocation de la richesse. Campbell et al. (2001) analysent le problème d'optimisation dans le même plan en présence de rendements distribués sous différentes hypothèses (empirique, normale, student) et ça en présence de deux classes d'actifs. Rengifo et Rombouts (2004) procèdent à l'extension du cadre statique de cette étude de Campbell et al. (2001) vers un cadre dynamique d'allocation d'actifs en procédant à la comparaison des performances de deux modèles d'estimation de la VaR à savoir le modèle GARCH (1,1) et le modèle APARCH (1,1) sous différentes hypothèses de distribution. ). Chabaane et al. (2003) optimisent l'espérance de rendement sous différentes contraintes de risque : l'écart type, la semi-variance, la VaR et l'Expected Shortfall. Différentes méthodes d'estimation de la VaR sont utilisées. Ils concluent que l'optimisation sous la contrainte de la VaR est plus délicate au niveau des algorithmes et de l'implémentation que l'optimisation sous les autres contraintes. De même, le choix de la méthode d'estimation de la VaR a moins d'influence que le choix de la contrainte de risque sur les portefeuilles optimaux. Ils remarquent aussi que le portefeuille optimal sous la contrainte de la VaR se rapproche de celui obtenu sous la contrainte de l'Expected Shortfall. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|
W(0) + = B ?= ã ( ) ( , i P i i 1 |
0) (1) |
Le problème fondamental sera ainsi de déterminer les fractions ã (i) ainsi que le montant initial B à emprunter ou à prêter.
En choisissant le niveau désiré de la VaR comme VaR * (exprimé en valeur absolue), on peut formuler la contrainte de perte potentielle de valeur comme suit:
Pr( (0) ( ) *) 1 (2)
W - W T = VaR = - c
Avec W(T) est la richesse final de l'investisseur compte tenu de son remboursement de l'emprunt ou le cas éventuel de son recouvrement du prêt avec les intérêts y associés, c est le niveau de confiance. Ceci donne:
|
Pr( ( ) (0) *) 1 W T = W - VaR = - c |
(3) |
Du fait que la VaR est la perte maximale, sur l'horizon de temps T, qui peut avoir lieu avec un niveau de confiance c, on constate que le degré d'aversion au risque de l'investisseur est reflété à la fois par le niveau de VaR désiré et par le niveau de confiance associé. L'investisseur est intéressé par la maximisation de la richesse à la fin de la période T. Soit r(p) le rendement total espéré sur le portefeuille p sur cette période. La richesse finale espérée de l'investissement dans le portefeuille p peut s'écrire:
) (4)
E W T
0 ( ( )) ( (0) )(1 ) (1
= W + B r p B r 1
+ - +
Résolution du problème d'optimisation du portefeuille
A partir de l'équation (1), on détermine l'expression de B:
n
|
B |
= ?= ã ( ) ( i P i 1 |
i W ,0) - |
(0) |
Si on remplace cette expression dans l'équation (4), on obtient:
n
E W T W
( ( )) (0)(1 ) ( ) ( , 0)( )
= r 1 ã i P i r r
-
0 p 1
+ + ?=
i 1

|
?= i 1 |
(i) P( i, |
0) |
VaR * +W (0
) rf
=
q
(5)
rf
n
(c , p)
On suppose pour simplifier que E0 ( W( T )) = W(T ) , la valeur de rp est ainsi donné par:
)) -W (0 )rf + rf
(W( T ) W(0
?
ã(i) P ( i , 0 )
i =1
A partir de la contrainte de la perte de la valeur de l'équation (2), on essayera d'introduire rp dans l'inéquation. On a ainsi :
Pr( W (0) - W(T ) VaR*)1- c
Donc:
Pr( W (T ) - W(0) =- VaR*)1- c
Pr( rp = rf
VaR * +W (0

Donc:
=1-
) r
c
f
n
?= 1
ã (i) P ( i, 0)
i
Introduisons maintenant le terme q(c,p) qui représente le quantile correspondant à un niveau de confiance c dans la distribution des rendements du portefeuille. En effet, à partir de la dernière équation on peut obtenir les deux résultats souhaitées: d'une part l'expression de la valeur espéré de la richesse finale en fonction du quantile q(c,p) et d'autre part l'expression de B.
Ceci passe par les étapes suivantes :
ce qui donne:
n VaR W r
* (0)
+ 1
?= ã( ) ( , 0)
i P i =
r q c p
- ( , )
i 1 1
Une fois remplacé dans la dernière équation exprimant E0 ( W( T , p )) , on obtient:
r r
p 1
-
E W T W
0 ( ( )) (0)(1 )
= + +
r ( * (0) )
VaR W r
+
1 1
r 1
-
q
( , )
c p
En divisant par W(0) on obtient:
(6)
W T
( ) r r
p 1
-
E 0 ( ) (1 )
= + +
r ( * (0) )
VaR W r
+
1 1
W(0) W r W q c p
(0) (0) ( , )
-
1
Cette dernière équation implique que la maximisation de l'espérance de rendement de l'investisseur passe à travers la maximisation de l'expression M (p) suivante:
M ( )
p
r p - r 1
=
0) r W q c p
- (0) ( , )
1
W (
(7)
On constate que la richesse initiale W(0) n'affecte pas le choix du portefeuille optimal puisque elle est considérée comme une constante dans l'expression M (p) à maximiser. Le processus d'allocation d'actif est ainsi indépendant de la richesse. Cependant, l'avantage d'avoir la richesse initiale dans le dénominateur est son interprétation. En effet, M (p) est égale au ratio de prime de risque espéré du portefeuille par rapport au risque assumé. Ce dernier est reflété à travers une perte potentielle maximale relativement à une référence (le rendement au taux sans risque). Vu que le produit du quantile négatif par la richesse initiale constitue la VaR du portefeuille pour un niveau donné de confiance, on pourra trouver une nouvelle expression ö(c, p) pour le risque.
En notons VaR(c, p) la VaR du portefeuille (avec un signe négatif vu que q(c,p) est un quantile négatif), le dénominateur devient:
? ( c , p ) = W(0) r f -VaR(c, p ) (8)
Cette mesure du risque correspond au profil des investisseurs considérant le taux de rendement sans risque comme un benchmark pour le rendement de leur portefeuille et souhaitant en même temps que l'expression du risque soit en terme de perte potentielle. M (p) est ainsi une mesure de performance comme l'indice de Sharpe et peut être utilisé pour évaluer l'efficience de portefeuille (voir Sharpe (1994)). En plus sous l'hypothèse que l'espérance de rendement du portefeuille est normalement distribuée et que le taux sans risque est nul, M (p) converge vers un multiple de l'indice de Sharpe. Dans ce cas, les portefeuilles pour lesquelles ces deux indices sont maximisés sont les mêmes.
On constate aussi que le portefeuille optimal qui maximise M (p) est choisi indépendamment du niveau de la richesse initial ainsi que du niveau de VaR désiré (VaR *). En effet, la mesure de risque ö(c, p) pour les différents portefeuilles dépend de la VaR estimé du portefeuille et non de celui désiré. Les investisseurs débutent par la détermination de l'allocation optimale entre les actifs risqués, l'intervention ensuite du montant B vient pour montrer la différence entre la VaR estimé du portefeuille et la VaR désiré. Deux étapes séparées caractérisent le processus de décision comme dans le cas de l'approche de Moyenne Variance.
Afin de déterminer la valeur de B on combine l'équation (1) et l'équation (5). Ceci donne enfin :
=
W * ( VaR
* (
+ VaR c p '
B
))
(0)
,
|
? |
( |
c , |
p |
' |
) |
(9)
On note que dans cette dernière expression, la est exprimé en valeur absolue et
VaR *
que la VaR est de signe négative. On remarque aussi le fait que ce modèle est indépendant des hypothèses de distribution de sorte que le modèle est dérivé dans le cadre de la maximisation de l'espérance de rendement sous la contrainte de perte de valeur désiré.
Afin de déterminer l'effet de la déviation de l'hypothèse de normalité et de la variation de l'horizon d'estimation sur les portefeuilles optimaux à construire, nous avons choisit de se référer à deux indices du marché des capitaux des Etats-Unis : le Nasdaq 100 et le S&P500. Ces deux actifs représentent dans notre travail les actifs risqués. Rappelons que l'indice NASDAQ 100 contient 100 compagnies américaines de haute technologie cotées sur le marché du Nasdaq. La valeur des actions de ce type de sociétés est plus volatile que la valeur des actions des compagnies de l'économie traditionnelle. Le S&P 500 est un indice boursier basé sur 500 grandes sociétés cotées sur les bourses américaines. L'indice est possédé et géré par Standard & Poor's, l'une des trois principales sociétés de notation financière. Il représente sûrement un niveau de volatilité moins élevé que le Nasdaq 100. En fait, il contient plus de société ce qui implique un effet de diversification surtout que sa composition couvre des secteurs différents plus ou moins corrélés. Le logiciel utilisé pour l'analyse des données relatives à ces deux indices et l'implémentation du modèle sera le Matlab version 6.5. On suppose que les coûts de transactions sont négligeables et que les actifs financiers sont divisibles.
La période d'étude sera à partir du 01/04 /1997 jusqu'au 31/03/2007 et donc s'étale sur dix ans. Le nombre des observations des rendements journaliers est de 2515 (Figure 2). Le rendement journalier de l'indice est obtenu par la formule suivante :
C C
-
j j
j Cj
R

1

1

Avec :
Cj = valeur de l'indice pour le jour j
Cj- 1 = valeur de l'indice pour le jour j-1
Le taux de rendement sans risque est considéré comme celui des Bons de trésor américains sur trois mois (US Treasury Bill). Il est de l'ordre de 4,97% annuellement fin du mois de mars 2007. La richesse initiale de l'investisseur est supposée égale à 1000$ (dollar américain). Les horizons de détention considérés sont trois : un jour, une semaine et dix jours. Ceci correspond aux périodes les plus pratiquées par les agents financiers avant la liquidation
du portefeuille. On se réfère à la moyenne géométrique pour calculer les moyennes de rendement des indices sur les différents horizons. L'expression générale pour l'obtenir est la suivante :
n
- 1
R
|
= ? + ( ) [ (1 )] ( 1 / ) n R i h m i=1 |
Avec :
h = durée de la sous période de détention (soit le jour, la semaine ou dix jours) n=nombre de sous période de durée h dans la période totale m
Ri = rendement de la ième sous période de durée h
( h )
Rm =rendement sur la période totale m
Par exemple, le rendement journalier moyen de l'indice du Nasdaq 100 sur la période d'étude est de 0,032%. Celui de l'indice S&P 500 est moins élevé et il est égal à 0,025%. L'écart type journalier du rendement du Nasdaq est aussi supérieur à celui de l'indice S&P 500. La volatilité est presque doublée puisque celle du premier indice atteint 2,22% alors que celle du deuxième est de 1,15%. La nouvelle mesure de risque présentée dans la section précédente est calculée pour les différentes séries de rendement selon une approche empirique d'estimation de la VaR et à un niveau de confiance de 99%. Rappelons qu'elle est obtenue par la formule suivante :
? = W0 rf - VaR estimé
Les valeurs obtenues de cette mesure dans la table 1, montre bien sa croissance avec le temps. Plus l'horizon de détention est loin plus cette mesure est élevé. De même, la VaR relative du Nasdaq 100 reste toujours supérieure à celle du S&P 500 pour la même période de détention. Ceci est en conformité avec le fait que le premier indice offre un rendement espéré plus élevé et donc c'est évident qu'il fait supporter l'investisseur plus de risque.
En se référant à la table 1, on constate que le rendement moyen sur dix jours est supérieur à celui sur un jour, ceci est bien évident. L'écart type est lui aussi plus élevé mais il
dépasse les attentes données par la règle de la racine du temps (c'est-à-dire ó 10 j = 10ó 1 j ). Ceci indique l'existence du phénomène d'auto corrélation.
On constate aussi que pour les trois fréquences de données, les valeurs du coefficient d'asymétrie (skewness) et du coefficient d'aplatissement (kurtosis) sont différentes de celles données par une distribution normale. Pour le skewness, la seule valeur positive est celle du cas de rendement journalier du Nasdaq 100 ce qui indique une distribution asymétrique à droite. Dans tous les autres cas, la distribution est asymétrique à gauche. Pour le kurtosis les valeurs s'éloignent de 3. Ils sont plus élevés que cette valeur ce qui signifie de l'existence des queues épaisses pour les différentes cas. Ceci témoigne à priori de la non normalité des distributions. Le recours au test de Jarque et Bera à un niveau de confiance de 99% confirme ce constat puisque les statistiques JB calculées dépassent de loin la statistique de khi deux (2). On pourra penser dans ce cas à modéliser les distributions par la loi de student. Cette dernière a l'intérêt de tenir compte de phénomène leptokurtique. On sait qu'en s'appuyant sur la théorie des valeurs extrêmes, la mesure î de l'indice de queue peut être utiliser pour tester différents modèles de distribution. Cet indice prend la valeur 0 dans le cas normal. Il prend des valeurs entre 0 et 0.5 dans le cas de student. Le calcul de cet indice pour les rendements journaliers du Nasdaq 100 donne la valeur 0,186. Lorsqu'il est calculé pour les rendements journaliers du S&P 500 on le trouve proche de zéro. Les résultats sont similaires pour les autres horizons de détentions. Ceci témoigne du fait que la distribution du deuxième indice s'approche plutôt de la normalité que de la loi de student. Pour le cas de la distribution de student, le problème qui se pose est celui du choix du degré de liberté. Devant cette nuance provenant essentiellement de l'existence de queue épaisse, nous avons choisie dans les sections suivantes d'étudier le modèle d'allocation d'actifs en se référant à trois méthodes d'estimation de la VaR : la méthode empirique, la méthode normale (issu du modèle RiskMetrics) et la méthode TVE ( issu de la Théorie des Valeurs Extrêmes).
Notons enfin que l'estimation de la Value-at-Risk à partir des méthodes historiques requière théoriquement la stationnarité des séries des rendements. Pour cela on peut se référer au test de racine unitaire ADF (augmented Dickey-Fuller). A titre illustratif, l'application de ce test sur la série de rendement journalier sur la période d'étude du Nasdaq 100 donne une statistique égale à -20.50381 (le logiciel utilisé est Eviews 4.0). Cette dernière est inférieure à la valeur critique au seuil de signification de 1% qui est égale à -3,4575 ce qui indique la non stationnarité de la série. On suppose dans ce qui suit la stationnarité des séries de rendement des portefeuilles constitués par les deux indices.
Un élément fondamental du modèle d'allocation optimale d'actifs présenté dans cette étude est l'estimation de la Value-at-Risk. Pour cela, nous avons choisies d'appliquer et de comparer les résultats de certaines méthodes les plus traitées en littérature. Par hypothèse, on suppose que notre portefeuille est composé de 50% de l'indice Nasdaq 100 et de 50% de l'indice S&P 500. On se place dans le cas de rendement journalier. La période d'étude est celle mentionné ci-dessus, allant du 01/04/1997 jusqu'au 31/03/2007. Les résultats obtenus pour les différentes méthodes et pour les différents niveaux de confiance sont données dans la table 2 et représentée dans la Figure 3.
On constate que la méthode issue de la Théorie des Valeurs Extrêmes (EVT), que l'on appellera aussi méthode GPD (Generalised Pareto Distribution), a tendance à donner les valeurs de la VaR les plus élevées (en valeurs absolues) pour les différents niveaux de confiance. Le seuil (threshold) utilisé dans la méthode GPD est celui dépassé par 10% des observations de notre échantillon. On constate aussi qu'à un niveau faible de confiance, les différentes méthodes se rapprochent au niveau de l'estimation de la VaR. A un niveau élevé, on remarque que les deux méthodes non paramétriques (empirique et Bootstrap) convergent vers la même valeur estimée (-39,5). Dans le même cas de niveau élevé, les méthodes paramétriques basées sur l'hypothèse de normalité (Monte Carlo et Risk Metrics) donnent les valeurs les moins élevées de la VaR. Ceci est du à ce que l'hypothèse de normalité sous estime la VaR. Notons qu'on a procédé à 10 000 opérations de ré échantillonnage pour la méthode de Bootstrap et à 10 000 simulation de la loi normale centrée réduite pour la méthode MonteCarlo.
Comme mentionné précédemment, dans ce qui suit on choisi de comparer les résultats des modèles basées sur l'estimation de la VaR par la méthode empirique, la méthode normale (ou RiskMetrics) et la méthode GPD. Ceci est justifié par le caractère déterministe des estimations obtenues par ces méthodes. Il s'agit d'une condition nécessaire pour effectuer les opérations de maximisation. Les autres méthodes se basent plutôt sur la simulation et ont ainsi un caractère plus ou moins aléatoire.
Afin de construire la nouvelle frontière d'efficience dans le plan Moyenne-VaR relative, nous estimons simultanément l'espérance de rendement et la VaR relative des portefeuilles à différentes combinaisons de l'indice Nasdaq 100 et de l'indice S&P 500. En fait, en se basant sur ce nouveau plan, on arrive à construire la frontière d'efficience ,pour un niveau donné de confiance, en allant d'un portefeuille contenant 100% de l'indice Nasdaq 100 à celui contenant 100% de l'indice S&P 500. On garde la même période d'étude allant du 01/04/1997 jusqu'au 31/03/2007. Ainsi, l'estimation de la VaR est effectué selon les trois méthodes empiriques, normale et GPD sur trois horizons de détention possibles : le jour, la semaine et dix jours. A chaque horizon correspond, on établit les frontières d'efficiences pour trois niveaux de confiance : 95%, 97% et 99%. La nouvelle frontière d'efficience ressemble à celle du plan MoyenneVariance. Ce qui diffère est la définition du concept du risque : ici on fait recours à la VaR relative à un benchmark de rendement (qui est le taux sans risque) au lieu de l'écart type des rendements.
D'après les graphiques 4 à 6, on constate que les frontières d'efficiences obtenues par les trois méthodes tendent à se rapprocher pour des niveaux de confiance faibles et ce pour différents horizons de détention. A un niveau plus élevé (99%), la frontière d'efficience obtenue par la méthode normale se décale à gauche sur le graphique se situant ainsi au dessus des deux autres frontières d'efficience. Cela indique que les portefeuilles de cette frontière représentent pour un même niveau de rendement espéré, un niveau de risque moins élevé. Cela confirme une autrefois le caractère de sous estimation de la méthode normale. La frontière d'efficience de la méthode GPD s'éloigne parfois des deux autres d'une façon significative surtout dans le cas de niveau de confiance élevé (99%). Elle paraît plus proche de la frontière d'efficience empirique que de celle de la méthode normale dans les différents cas étudiés.
Dans cette section, on présente les résultats obtenus concernant les allocations optimales entre les deux actifs risqués pour différents niveaux de confiance et différents horizons de détention. De même le montant de prêt emprunt nécessaire au respect de la contrainte de la VaR est déterminé. Ceci étant effectué dans un cadre statique c'est-à-dire en se plaçant à un instant donné dans l'axe du temps (le 31/03/2007) et en effectuant les prévisions pour la période suivante (jour, semaine ou dix jours).
En ce qui concerne les allocations optimales, les tables 3,5 et 7 représentent les proportions retrouvés ainsi que la VaR estimé et la VaR relative du portefeuille optimal pour les différentes hypothèses de distribution. Ces résultats s'interprètent comme suit: Par exemple pour un investisseur qui cherche a constituer un portefeuille maximisant le rendement espéré sous la contrainte d'une VaR limite journalière a un niveau de confiance de 95% et en se basant sur une estimation empirique de la VaR, il aura intérêt a constituer un portefeuille dont la part de l'indice Nasdaq 100 est 48,18% et la part de l'indice S&P 500 est de 51,82%. La VaR a 95% de ce portefeuille calculé sur la base de la richesse initiale de l'investisseur sans recourir aux opérations de prêt-emprunt est égale a -19,856. D'une façon générale, le recours a ces opérations prend place si, pour un niveau de confiance donné, la VaR limite souhaité est différente de la VaR estimé du portefeuille optimal pour le même niveau de confiance (la VaR est retenu en signe négatif). Rappelons que le montant de liquidité B a prêter ou a emprunter est obtenu par la formule suivante :
B =
(0)
W * ( VaR
* (
))
,
+ VaR c p '
|
? |
( |
c , |
p |
' |
) |
Avec :
W(0) = la richesse initiale de l'investisseur.
VaR * = la VaR limite choisit par l'investisseur (retenu en valeur absolue)
VaR ( c, p ' ) = la VaR estimé du portefeuille optimal pour le niveau de confiance considéré
?( c , p ' ) = la VaR relative du portefeuille optimal pour le niveau de confiance considéré.
En effet, dans le cadre du modèle d'allocation optimale de cette étude, le profil de risque de l'investisseur est supposé être reflété par le niveau de la VaR limite y inclut bien évidemment le niveau de confiance recherché. Ainsi, nous avons pris le cas des investisseurs qui ont différents profils de risque ,allant de celui de 95% a celui de 99%, et qui cherchent tous a constituer un portefeuille optimal avec une VaR limite égale a la VaR estimé du portefeuille optimale a 95%. Ceci est effectué pour les différents horizons de détentions et pour les différentes méthodes d'estimation de la VaR. A titre d'exemple, si on choisit d'estimer la VaR par la méthode empirique et qu'on cherche a avoir un portefeuille avec une VaR journalière a 99% égale a -19,856 (ce montant de VaR limite correspond a la VaR du
portefeuille optimal journalier à 95%), l'investisseur devra prêter un montant de 295,552 dollars. Toutefois, l'allocation de la richesse restante sera à la hauteur de 40,86% dans le Nasdaq 100 et de 59,15% dans le S&P 500, ce qui correspond à la répartition optimale du niveau de confiance 99%. Ceci lui permet de diminuer la VaR du portefeuille initialement égal à -28,268 tout en gardant le même niveau de confiance. C'est cela qui constitue la richesse de ce modèle générale d'allocation d'actifs. D'une façon générale, si la VaR limite pour un niveau de confiance donné est inférieur en valeur absolue à la VaR du portefeuille optimal pour ce même niveau de confiance, l'investisseur sera invité à prêter un montant B (négatif) au taux sans risque. Ceci était le cas général des recommandations obtenues dans nos calculs. Le seul cas d'emprunt était dans le cadre de l'hypothèse empirique, un horizon de dix jours et un niveau de confiance de 96% (Table 4) : l'investisseur devra emprunter 76,03 dollar pour faire passer la VaR du portefeuille optimale pour ce niveau de confiance de -43,546 à -46,959.
L'interprétation reste identique pour le cas des rendements hebdomadaires ou sur dix jours ainsi que pour le cas d'estimation de la VaR par les deux autres méthodes : normale et GPD. Cependant, on remarque que dans le cas de l'hypothèse de distribution normale des rendements (Table 5), l'allocation optimale entre les deux actifs est indépendante des niveaux de confiance. A chaque horizon de détention, correspond une combinaison optimale qui reste inchangé même si on change le niveau de confiance. L'attitude de l'investisseur vis-à-vis du risque exprimé au niveau de ce paramètre de la VaR est ainsi négligée dans le cas de la normalité. Ce qui reste déterminant dans son profil est le montant de la VaR limite choisit. Ceci s'explique par le fait que les quantiles q(c,p) dans le cas de normalité sont des constantes quelque soit la composition du portefeuille. La maximisation de l'expression M (p) sera ainsi indépendante du niveau de confiance. Elle dépend uniquement du couple Espérance/Ecart type du rendement du portefeuille. Cela n'est pas le cas pour les allocations déterminées dans le cas empirique ou dans le cas de la méthode GPD où les combinaisons optimales varient en fonction du niveau de confiance.
On constate aussi que le niveau de risque pour ces portefeuilles optimaux, mesuré par la VaR relative, est généralement plus élevé dans le cas empirique que dans le cas normal. Le quantile issu de la distribution empirique est plus élevé en valeur absolue que le quantile de la distribution normale pour n'importe quel niveau de confiance. Le caractère leptokurtique de la distribution effective des rendements du portefeuille optimal explique donc ce constat.
Dans ce qui suit, l'objectif est de comparer et de valider les méthodes d'estimation de la VaR dans le modèle d'allocation proposé à savoir : la méthode Empirique, la méthode normale et la méthode GPD. Ceci est effectué en passant à un cadre dynamique d'étude. Chaque méthode permet d'avoir un modèle de gestion dynamique issu du modèle général proposé. Nous nous intéressons à la gestion optimale quotidienne sur une période appelée période de prévision (outof-sample). L'hypothèse de normalité sera donc présenté à travers le modèle dynamique de prévision de la variance conditionnelle : GARCH avec des innovations de loi normale.
Présentation des données :
On se réfère aux mêmes données journalières des sections précédentes sur l'indice Nasdaq 100 et sur l'indice S&P 500. La période totale de l'étude s'étale donc du 01/04/1997 jusqu'au 31/03/07 (2515 observations). Cette période initiale est séparée en deux sous périodes : une période d'estimation (in-sample) et une période de prévision (out-of-sample). Cela permet d'obtenir une séquence de prévision de la VaR et de comparer ensuite les pertes effectives historiques des portefeuilles optimaux avec les VaR limites prédéfinies pour les mêmes jours. Dans notre cas, on a choisit la période d'estimation comme celle allant du 01/04/1997 jusqu'au 24/05/2005 (2050 observations) et la période de prévision comme celle allant du 25/05/2005 jusqu'au 31/03/2007 (465 observations). La figure 7 représente l'évolution du rendement des deux indices sur la période de prévision. La table 9 indique certaines statistiques descriptives des deux séries de rendements sur cette même période ainsi que leur VaR relative. La table 10 présente les résultats des deux tests de détection de l'effet ARCH (2) à un niveau de confiance de 99% : test Q (2) et le test ARCH (2) d'Engle. Ils sont appliqués sur les deux séries de rendement des deux indices NASDAQ 100 et S&P 500 durant toute la période d'étude. Rappelons que pour tester l'effet GARCH (p, q) il suffit de procéder à un test d'effet ARCH (p+q) et à un test de LjungBox. Les résultats pour la série des observations du Nasdaq 100 affirment l'existence d'une auto corrélation entre les termes d'erreur au carré ainsi que l'hétéroscédascticité de ces derniers : une modélisation GARCH (1,1) est donc justifiable. Pour la série du S&P 500, on constate une absence d'auto corrélation entre les termes d'erreurs au carré vu que la statistique
calculée est inférieure à la valeur critique de (2). On peut conclure que la modélisation par un
÷ 2
processus GARCH (1,1) est invalide dans ce cas malgré
que le test d'effet ARCH (2)
affirme
l'hétéroscédasticité. La richesse
initiale de l'investisseur est supposée égale à 1000
dollars
américains. Le taux sans risque sur la période de gestion sera proche de la moyenne des taux des Bons de trésor américains sur trois mois (US Treasury Bill) pour la date du 24/05/2005 et du 31 /03/2007. Il est de l'ordre de 2,86% annuellement à la première date et de 4,97% dans la deuxième. Le taux sans risque journalier retenu sur la période de gestion sera ainsi de 0,016% (supposition de 250 jours ouvrables par an). Rappelons que les coûts de transactions sont supposés négligeables dans notre modèle. De même, on suppose que les actifs financiers sont divisibles. Dans le modèle GPD, on retient 9% des données (seuil u) pour estimer l'indice de queue.
Principe du modèle dynamique :
On suppose que la VaR limite recherchée par l'investisseur pour le jour j ( *
VaRj ) est égale
à 2% de sa richesse cumulée jusqu'à la fin du jour j-1. Avec l'information disponible jusqu'au jour j-1, chaque méthode permet de prévoir pour le jour j le montant qui doit être emprunter (Bj > 0) ou prêter (Bj < 0) compte tenu de l'aversion au risque de l'investisseur. Celle-ci étant exprimée par le montant de la VaR limite choisi et le degré de confiance souhaité. Chaque méthode permet aussi de prévoir le poids optimal de chaque actif risqué dans le portefeuille durant le jour j. Ensuite, avec les recommandations établit en j-1, on détermine l'évolution effective de la richesse de l'investisseur durant j pour après reprendre la même procédure en incluant les données du jour j dans la période d'estimation afin d'établir les recommandations de j+1.
L'idée est ainsi de déterminer les recommandations d'investissement journalière en terme de poids optimaux des actifs risqués dans le portefeuille et en terme de montant prêt-emprunt. Ensuite, on détermine le taux d'échec résultant du dépassement de la perte journalière effective à la VaR limite prévu pour le même jour (supposé égale à 2% de la richesse finale du jour précédent). Il s'agit du test de Kupiec-LR (1995). La perte journalière effective du jour j est obtenue à partir du rendement effectif du portefeuille optimal constitué pour le même jour déduction faite des charges financières si Bj > 0 (il s'agit d'un emprunt) ou en ajoutant les produits financiers si BjB < 0 (il s'agit de prêt). Le taux d'échec multiplié par 465 représente le nombre de fois où le rendement effectif dépasse cette VaR limite pendant la période de prévision. La méthode qui présente le taux d'échec le moins élevé sera considérée la plus fiable parmi les trois. Un deuxième critère peut être utilisé : la richesse finale à l'issu de la période de prévision. Si l'investisseur adopte ce point de vue, le modèle le plus adéquat pour lui sera celui qui procure la richesse finale la plus élevée.
Résultats empiriques :
On s'intéresse à la performance des trois modèles : Empirique, GARCH et GPD pour trois niveaux de confiance de la VaR : 95%, 97% et 99%. Ces derniers correspondent à une aversion au risque croissante. Les résultats obtenus par l'application des trois modèles sur une période de gestion de 465 jours (out-of-sample) sont présentés dans les tableaux 11 et 12.
Le premier tableau présente le taux d'échec des trois modèles pour les différents niveaux de confiance cités ci-dessus. On constate que pour les différents modèles, le taux de dépassement de la perte effective du portefeuille à la VaR limite respecte le seuil d'erreur prévu. Cela affirme le respect de la contrainte de notre modèle de base. De même, ce taux décroît avec le niveau de confiance souhaité ce qui est en parfaite conformité avec le fait qu'à un niveau de confiance plus élevé (et donc dans le cas d'un investisseur averse au risque) la marge d'erreur devra être plus faible. Autrement, les recommandations d'investissement issu d'un niveau de confiance de 95% implique plus d'erreur de prévision que les recommandations d'investissement issu d'un niveau de confiance de 99%. En se référant au raisonnement de Kupiec LR (1995), le modèle le plus adéquat pour l'investisseur sera le modèle GPD. Il présente le taux d'échec le moins élevé pour les différents niveaux de confiance. Ainsi, ce modèle sera recommandé pour un investisseur qui juge la prédominance du critère de taux d'échec sur les autres critères. Cependant, les taux d'échec de ce modèle apparaissent relativement faible ce qui reflète une aversion assez grande. Le graphique 18 montre l'écart important entre les VaR limites et les pertes effectives dans le cadre de ce modèle pour un niveau de confiance de 99%. Cela s'explique par des recommandations qui favorisent l'opération de prêt allant jusqu'à 800 $ (voir figure 16). Ainsi, la perte effective réalisée sur les 200 $ investi en actif risqué devienne assez faible devant une VaR limite de l'ordre de 2% de la richesse initiale investi (soit à peu prés 20 $ par jour). Cette perte effective est en plus atténuée par une stratégie recommandant l'investissement dans l'actif le moins risqué (S&P 500) ce qui a pour conséquence de diminuer l'exposition du portefeuille risqué au risque (voir figure 17). Le modèle GPD apparaît donc comme un modèle conservatif. Il recommande l'opération d'emprunt seulement sur la deuxième dizaine de jour sur les 465 jours de prévision. Pendant ces jours, la VaR limite est donc supérieur à la VaR du portefeuille optimal constitué pour le même jour.
Le modèle Empirique se place dans le deuxième rang selon le critère statistique de taux d'échec . On constate comme même un taux faible d'échec pour les différents niveaux de confiance. Les recommandations de ce modèle, pour un niveau de confiance de 99%, en terme de part de chacun des deux indices dans l'actif risqué sont moins sensibles à l'augmentation de la série de données historique (voir figure 9). Ainsi, w1 reste constante sur plusieurs jours consécutifs. Cela convient mieux dans le cadre de l'existence de coûts de transactions. Tout au long de la période out-of-sample, ce modèle suggère de recourir au prêt pour respecter la contrainte de VaR limite. En fait, ces deux premiers modèles reflètent implicitement par leur recommandation de prêter une tendance négative des rendements des deux indices ce qui conduit à une VaR du portefeuille optimale supérieur à la VaR limite et ainsi à Bj < 0 (prêt).
Le modèle GARCH respecte le taux d'échec maximal autorisé. Cependant, à un niveau de confiance de 99%, les stratégies recommandées par ce modèle tendent à favoriser l'investissement dans l'indice le plus risqué, le Nasdaq 100, tout au long de la période de prévision (voir figure 13). Les opérations sur l'actif sans risque oscillent entre opération de prêt et celle d'emprunt.
Le tableau 12 présente les résultats concernant le deuxième critère : la richesse finale. Dans c e cadre, l'investisseur aura intérêt à suivre les recommandations du modèle Empirique. Ce dernier permet d'avoir la richesse la plus élevée à l'issu de la période de gestion et ce pour les différents niveaux de confiance. Le modèle GPD arrive dans la deuxième position pour les niveaux de confiance de 95% et 97% et en troisième position pour un niveau de confiance plus élevé. Dans les graphiques 11,15 et 19 on a présenté l'évolution de la richesse durant la période de prévision avec les différents modèles ,à 99% de confiance, comparé à l'évolution de la richesse obtenu par l'investissement exclusif en Nasdaq 100, S&P 500 et l'actif sans risque.

Les limites de la variance comme mesure de risque ont mené les financiers à chercher d'autres mesures plus précises et plus pratiques. Parmi ces mesures, la Value-at-Risk s'est imposé comme un standard et une référence règlementaire incontournable aussi bien dans les milieux financiers que dans les milieux d'assurance. Dans ce travail, on a montré comment on peut intégrer cette notion dans le processus de sélection optimale de portefeuille dans une logique de contrôle de risque. Ainsi, à partir d'une Value-at-Risk souhaitée (et ainsi d'un niveau de risque assumé) on présente un modèle général permettant l'allocation optimale de la richesse entre les actifs risqués et les actifs non risqués. Ceci passe par la maximisation de l'espérance de rendement du portefeuille sous la contrainte de la VaR limite. Ce processus d'optimisation tient compte de l'estimation de la VaR. Ainsi, trois modèles sont choisis : le modèle empirique, le modèle GARCH et le modèle GPD. L'étude empirique se base sur deux actifs risqués : le Nasdaq 100 et le S&P 500 et ce pour une période de dix ans (1997-2007). La validation du processus d'optimisation sous chacun des trois modèles est effectuée à travers deux critères calculés sur une période de prévision s'étalant sur 465 jours. Le premier critère choisi est d'ordre statistique : le taux d'échec du modèle au niveau des stratégies d'allocations respectant la contrainte de la VaR limite. Le deuxième critère de performance est d'ordre économique : la richesse finale procuré par chaque modèle à la fin de la période de prévision. Les résultats montrent la supériorité du modèle GPD pour le premier critère et la dominance du modèle Empirique pour le deuxième critère. Cependant, on pourra se demander sur l'influence d'autres paramètres bien présents dans le cadre dynamique, tel que les coûts de transactions, sur les résultats obtenus. De même, inclure les produits dérivés dans le portefeuille risqué apparaît intéressant vu l'importance du volume de transaction de ces actifs à l'échelle mondiale. On sera ainsi mené à utiliser d'autres modèles d'estimation de la VaR tel que la méthode delta normal.

Figure 2 : Les rendements journaliers des deux indices sur la période d'étude du 01/04/1997 au 31/03/2007

Table 1- Les statistiques descriptives des rendements des deux indices
|
NASDAQ 100 |
Journalier |
Hebdomadaire |
10 jours |
|
Moyenne |
0,000317681 |
0,001458065 |
0,002223235 |
|
Erreur-type |
0,000443461 |
0,001903747 |
0,002839718 |
|
Médiane |
0,001248879 |
0,0034419 |
0,007728195 |
|
Mode |
0 |
0 |
#N/A |
|
Écart-type |
0,022239447 |
0,043703332 |
0,053879862 |
|
Variance de l'échantillon |
0,000494593 |
0,001909981 |
0,00290304 |
|
VaR relative (cas empirique 99%) |
57,17 |
105,83 |
134,42 |
|
Kurstosis (Coefficient d'aplatissement) |
7,353 |
6,7125 |
4,8481 |
|
- |
|||
|
Skewness (Coefficient d'asymétrie) |
0,362181238 |
-0,225398467 |
0,283755071 |
|
Plage |
0,286287108 |
0,463434319 |
0,466605164 |
|
- |
- |
||
|
Minimum |
0,098573958 |
-0,252490371 |
0,256512979 |
|
Maximum |
0,18771315 |
0,210943949 |
0,210092185 |
|
Somme |
1,418628296 |
1,275944057 |
1,328294549 |
|
Nombre d'échantillons |
2515 |
527 |
360 |
|
Jarque et Bera (JB) |
2,04E+03 |
302,9204 |
54,5011 |
|
S&P 500 |
|||
|
Moyenne |
0,000248808 |
0,001193247 |
0,001740883 |
|
Erreur-type |
0,000229436 |
0,001021361 |
0,001419755 |
|
Médiane |
0,000522287 |
0,001588924 |
0,004996629 |
|
- |
|||
|
Mode |
0,009116768 |
0 |
#N/A |
|
Écart-type |
0,011506178 |
0,023446856 |
0,026937964 |
|
Variance de l'échantillon |
0,000132392 |
0,000549755 |
0,000725654 |
|
VaR relative (cas empirique 99%) |
29,7677 |
67,2569 |
80,9452 |
|
Kurstosis (Coefficient d'applatissement) |
6,0947 |
5,1243 |
4,7567 |
|
- |
- |
||
|
Skewness (Coefficient d'assymétrie) |
0,023422279 |
-0,302961499 |
0,281109516 |
|
Plage |
0,125984128 |
0,188301993 |
0,218018302 |
|
- |
- |
||
|
Minimum |
0,068656812 |
-0,110501207 |
0,098852216 |
|
Maximum |
0,057327316 |
0,077800787 |
0,119166086 |
|
Somme |
0,792707206 |
0,774083881 |
0,757551233 |
|
Nombre d'échantillons |
2515 |
527 |
360 |
|
Jarque et Bera (B) |
1,00E+03 |
105,2544 |
49,5744 |
|
Khi deux (2) à 99% |
0,0201 |
0,0201 |
0,0201 |
|
Taux sans risque |
0,000194036 |
0,000933212 |
0,001348253 |

Table 2- Le montant de la Value at Risk journalière pour un portefeuille composé à 50% de l'indice NASDAQ 100 et à 50% de l'indice S&P 500
|
Empirique |
Bootstrap* |
MonteCarlo** |
RiskMetrics |
TVE(GPD)*** |
|
|
95% |
-26,228 |
-26,203 |
-26,574 |
-26,621 |
-26,466 |
|
96% |
-28,298 |
-28,219 |
-28,622 |
-28,334 |
-28,970 |
|
97% |
-30,161 |
-30,205 |
-30,563 |
-30,440 |
-32,311 |
|
98% |
-33,936 |
-33,786 |
-33,427 |
-33,239 |
-37,242 |
|
99% |
-39,513 |
-39,484 |
-36,926 |
-37,651 |
-46,316 |
* Pour la méthode de Bootstrap, on se base sur 10 000 réechantillonage
** Pour ces méthodes, on suppose la distribution normale des rendements du portefeuille (10 000 simulations pour la méthode Monte Carlo)
***Le seuil u pris en compte est celui dépassé par 10% des observations
Figure 3 : L'estimation de la VaR journalière (portefeuille à parts égaux de l'indice Nasdaq 100 et de l'indice S&P 500
Figure 4 : Les frontières d'efficience dans le cas de rendement journalier


Figure 5 : Les frontières d'efficience dans le cas de rendements hebdomadaires

Figure 6: Les frontières d'efficience dans le cas de rendement sur dix jours


Table 3- L'allocation statique optimale et VaR (estimé et relative) dans le cas empirique
|
Rendement journalier |
NASDAQ 100 |
S&P 500 |
VaR estimé |
VaR relative |
|
95% |
48,18% |
51,82% |
-19,856 |
20,050 |
|
96% |
40,03% |
59,97% |
-20,187 |
20,381 |
|
97% |
51,63% |
48,37% |
-23,664 |
23,858 |
|
98% |
47,71% |
52,29% |
-25,573 |
25,767 |
|
99% |
40,86% |
59,14% |
-28,268 |
28,462 |
|
Rendement hebdomadaire |
||||
|
95% |
53,04% |
46,96% |
-39,457 |
40,390 |
|
96% |
60,09% |
39,91% |
-45,305 |
46,239 |
|
97% |
44,11% |
55,89% |
-43,508 |
44,442 |
|
98% |
53,64% |
46,36% |
-49,995 |
50,928 |
|
99% |
30,46% |
69,54% |
-53,019 |
53,952 |
|
Rendement sur dix jours |
||||
|
95% |
56,18% |
43,82% |
-46,959 |
48,307 |
|
96% |
39,27% |
60,73% |
-43,546 |
44,894 |
|
97% |
57,38% |
42,62% |
-60,487 |
61,835 |
|
98% |
35,93% |
64,07% |
-57,513 |
58,861 |
|
99% |
31,74% |
68,26% |
-68,839 |
70,187 |
Table 4- Le montant de prêt-emprunt
nécessaire pour obtenir une VaR du portefeuille
égale à
celle du portefeuille optimal à 95% de confiance (cas
empirique)
|
B journalier |
B hebdomadaire |
B sur dix jours |
|
|
95% |
0 |
0 |
0 |
|
96% |
-16,2359 |
-126,478 |
76,0299 |
|
97% |
-159,5901 |
-91,1558 |
-218,7659 |
|
98% |
-221,8802 |
-206,9115 |
-179,2992 |
|
99% |
-295,5525 |
-251,3644 |
-311,7281 |
|
VaR limite |
19,856 |
39,457 |
46,959 |
Table 5- L'allocation statique optimale et VaR (estimé et relative) dans le cas de n ormalité
|
Rendement journalier |
NASDAQ 100 |
S&P 500 |
VaR estimé |
VaR relative |
|
95% |
45,55% |
54,45% |
-19,674 |
19,868 |
|
96% |
45,55% |
54,45% |
-20,958 |
21,152 |
|
97% |
45,55% |
54,45% |
-22,536 |
22,730 |
|
98% |
45,55% |
54,45% |
-24,634 |
24,828 |
|
99% |
45,55% |
54,45% |
-27,941 |
28,135 |
|
Rendement hebdomadaire |
||||
|
95% |
43,80% |
56,20% |
-38,974 |
39,906 |
|
96% |
43,80% |
56,20% |
-41,566 |
42,498 |
|
97% |
43,80% |
56,20% |
-44,752 |
45,684 |
|
98% |
43,80% |
56,20% |
-48,988 |
49,920 |
|
99% |
43,80% |
56,20% |
-55,664 |
56,596 |
|
Rendement sur dix jours |
||||
|
95% |
43,37% |
56,63% |
-44,948 |
46,296 |
|
96% |
43,37% |
56,63% |
-47,965 |
49,313 |
|
97% |
43,37% |
56,63% |
-51,675 |
53,023 |
|
98% |
43,37% |
56,63% |
-56,606 |
57,954 |
|
99% |
43,37% |
56,63% |
-64,378 |
65,726 |
Table 6- Le montant de prêt-emprunt nécessaire pour obtenir une VaR du portefeuille égale à celle du portefeuille optimal à 95% de confiance (cas de normalité)
|
B journalier |
B hebdomadaire |
B sur dix jours |
|
|
95% |
0 |
0 |
0 |
|
96% |
-60,6988 |
-60,9886 |
-61,19 |
|
97% |
-125,9237 |
-126,4829 |
-126,8715 |
|
98% |
-199,7895 |
-200,6016 |
-201,1654 |
|
99% |
-293,845 |
-294,8986 |
-295,6294 |
|
VaR limite |
19,6737 |
38,974 |
44,948 |
Table 7- L'allocation statique optimale et VaR (estimé et relative) dans le cas GPD
|
Rendement journalier |
NASDAQ 100 |
S&P 500 |
VaR estimé |
VaR relative |
|
95% |
48,57% |
51,43% |
-26,1317 |
20,430 |
|
96% |
48,57% |
51,43% |
-28,587 |
22,336 |
|
97% |
48,58% |
51,42% |
-31,871 |
24,884 |
|
98% |
48,58% |
51,42% |
-36,735 |
28,659 |
|
99% |
48,57% |
51,43% |
-45,731 |
35,640 |
|
Rendement hebdomadaire |
||||
|
95% |
28,48% |
71,52% |
-39,190 |
32,318 |
|
96% |
28,48% |
71,52% |
-42,029 |
34,604 |
|
97% |
28,48% |
71,52% |
-45,972 |
37,781 |
|
98% |
28,48% |
71,52% |
-52,117 |
42,730 |
|
99% |
28,84% |
71,16% |
-64,670 |
52,793 |
|
Rendement sur dix jours |
||||
|
95% |
38,68% |
61,32% |
-53,092 |
42,420 |
|
96% |
38,68% |
61,32% |
-57,061 |
45,512 |
|
97% |
38,68% |
61,32% |
-62,346 |
49,631 |
|
98% |
38,68% |
61,32% |
-70,129 |
55,695 |
|
99% |
38,68% |
61,32% |
-84,389 |
66,807 |
Table 8- Le montant de prêt-emprunt
nécssaire pour obtenir une VaR du portefeuille
égale à
celle du portefeuille optimal à 95% de confiance (cas de
GPD)
|
B journalier |
B hebdomadaire |
B sur dix jours |
|
|
95% |
0 |
0 |
0 |
|
96% |
-109,9456 |
-82,0205 |
-87,1954 |
|
97% |
-230,6458 |
-179,5135 |
-186,4525 |
|
98% |
-369,9973 |
-302,5267 |
-305,8919 |
|
99% |
-549,934 |
-482,6289 |
-468,466 |
|
VaR limite |
26,1317 |
39,190 |
53,092 |
Figure 7 : Les rendements des deux indices sur la période de prévision (out-of-sample)

|
Table 9- Les statistiques descriptives de l'échantillon de prévision Nasdaq 100 |
S&P 500 |
|
|
Moyenne |
0,000316 |
0,000374 |
|
Ecart-type |
0,0093 |
0,0068 |
|
Skewness |
-0,0677 |
-1,0852 |
|
Kurtosis |
4,0605 |
11,0183 |
|
VaR relative (cas empirique à 99%) |
22,098 |
18,476 |
Table 10- Les résultats des tests de détection de l'effet GARCH(1,1) pour un niveau de confiance de 99%
NASDAQ 100 S&P 500
|
Q(2) |
E(2) |
Q(2) |
E(2) |
|
|
Statistique du test |
19,543 |
197,764 |
4,584 |
136,733 |
|
Valeur critique ( ÷(2)) |
9,210 |
9,210 |
9,210 |
9,210 |
|
Décision |
C * |
C |
NC ** |
C |
* Confirmation de l'existence de l'effet ARCH
** Non Confirmation de l'existence de l'effet ARCH
Table 11- Le taux d'échec des trois méthodes (empirique, GARCH et GPD) pour différents niveaux de confiance
|
Empirique |
GARCH |
GPD |
|
|
95% |
0,86% |
3,66% |
0,43% |
|
97% |
0,43% |
2,58% |
0,22% |
|
99% |
0,43% |
0,86% |
0,00% |
Table 12- La richesse finale de l'investisseur en procédant à la gestion dynamique
|
Empirique |
GARCH |
GPD |
|
|
95% |
1161,900 |
1112,400 |
1130,4 |
|
97% |
1139,200 |
1111,800 |
1130,2 |
|
99% |
1144,700 |
1108,200 |
1107,8 |
Figure 8: Le montant de prêt-emprunt quotidien durant la période de prévision dans le cas de la méthode Empirique à un niveau de 99% de confiance

Figure 9: La part quotidienne de l'indice Nasdaq 100 durant la période de prévision dans le cas de la méthode Empirique à un niveau de 99% de confiance

Figure 10: L'évolution de la VaR limite et des pertes effectives des portefeuilles optimaux quotidiens durant la période de prévision dans le cas de la méthode Empirique à un niveau de 99% de confiance

Figure 11: L'évolution de la richesse durant la période de prévision avec le modèle Empirique (99% de confiance) comparé à l'évolution de la richesse obtenu par l'investissement en Nasdaq 100, S&P 500 et l'actif sans risque d'une façon individuelle.

Figure 12: Le montant de prêt-emprunt quotidien durant la période de prévision dans le cas de la méthode GARCH à un niveau de 99% de confiance

Figure 13: La part quotidienne de l'indice Nasdaq 100 durant la période de prévision dans le cas de la méthode GARCH à un niveau de 99% de confiance

Figure 14: L'évolution de la VaR limite et des pertes effectives des portefeuilles optimaux quotidiens durant la période de prévision dans le cas de la méthode GARCH à un niveau de 99% de confiance

Figure 15: L'évolution de la richesse durant la période de prévision avec le modèle GARCH (99% de confiance) comparé à l'évolution de la richesse obtenu par l'investissement en Nasdaq 100, S&P 500 et l'actif sans risque d'une façon individuelle.

Figure 16: Le montant de prêt-emprunt quotidien durant la période de prévision dans le cas de la méthode GPD à un niveau de 99% de confiance

Figure 17: La part quotidienne de l'indice Nasdaq 100 durant la période de prévision dans le cas de la méthode GPD à un niveau de 99% de confiance

Figure 18: L'évolution de la VaR limite et des pertes effectives des portefeuilles optimaux quotidiens durant la période de prévision dans le cas de la méthode GPD à un niveau de 99% de confiance

Figure 19: L'évolution de la richesse durant la période de prévision avec le modèle GPD (99% de confiance) comparé à l'évolution de la richesse obtenu par l'investissement en Nasdaq 100, S&P 500 et l'actif sans risque d'une façon individuelle.


Acerbi C., Tasche D. (2001) Expected Shortfall: a Natural Coherent Alternative to Value at Risk. Working Paper.
Acerbi C., Tasche D. (2002) On the Coherence of Expected Shortfall. Journal of Banking and Finance, vol. 26(7), 1487-1503.
Alexander G., Baptista A. (2001) A VaR-Constrained Mean-Variance Model: implications for Portfolio Selection and the Basle Capital Accord. Working Paper, University of Minnesota.
Artzner P., Delbaen F., Eber J.M., Heath D. (2000) Coherent measures of risk, Mathematical Finance, Vol 9 (3), 203-228.
Aussenegg W., Pichler S. (1997) Empirical Evaluation of Simple Models to Calculate Valueat-Risk of Fixed Income Instruments. Working Paper, Technische Universität Wien.
Black F., Litterman R. (1992) Global Portfolio Optimization. Financial Analysts Journal, vol. 48(5) 28-43.
Bouchaud J.P., Potters M. (2000) Theory of Financial Risks. Cambridge University Press.
Bredin D., Hyde S., (2001) FOREX Risk: Measurement and Evaluation using Value-at-Risk. Central Bank of Ireland, November.
Calvet A. L. (2000) La gestion globale des risques du marché : de la Value at Risk à Corporate MetricsTM. Revue Internationale de Gestion, volume 25, numéro 3, automne.
Campbell R., Huisman R., Koedijk K. (2001) Optimal Portfolio Selection in a Value-at-Risk Framework. Journal of Banking and Finance, 25, 1789-1804.
Chabaane A., Laurent J.P., Malevergne Y., Turpin F. (2006) Alternative Risk Measures for alternative Investments. Journal of Risk 8, n°4, 1-32.
Christoffersen P., Hahn J., Inoue A. (2001) Testing and comparing Value-at-Risk measures. Journal of Empirical Finance, 8, Number 3, July, pp. 325-342(18).
Crnkovic C., Drachman J. (1996) A Universal Tool to Discriminate Among Risk Measurement Techniques. Working Paper, J. P. Morgan, corporation.
Denneberg D. (1990) Premium Calculation: Why Standard Deviation Should Be Replaced By Absolute Deviation. ASTIN Bulletin, vol. 20, 181-190.
De Roon F., Nijman T., Werker B. (2003) Currency Hedging for International Stock Portfolios: the Usefulness of Mean-Variance Analysis. Journal of Banking and Finance, 27, 327-349.
Engle R. (1982) Autoregressive Conditional Heteroscedasticity with Estimates of the Variance of United Kingdom Inflation. Econometrica, 50, p 987-1007, 1982.
Engle R. (2000) The Use of ARCH/GARCH Models in Applied Econometrics. Journal of Economic Perspectives, 15(4), 157-168.
Fischer T. (2001) Coherent Risk Measures Depending on Higher Moments, Working Paper.
Fleming J., Kirby C., Ostdiek B. (2001) The Economic Value of Volatility Timing. Journal of Finance, (1), 329-352.
Gaivoronski A., Pflug G. (1999) Finding Optimal Portfolios with Constraints on Value at Risk. Working paper, University of Vienna.
Glasserman P., Heidelberger P., Shahabuddin P. (2001) Efficient Monte Carlo Methods for Value-at-Risk. Mastering Risk, Vol 2, published by Financial Times-Prentice Hall.
Glasserman P., Shahabuddin P., Heidelberger P. (2000) Variance Reduction Technics for Estimating Value at Risk. Management Sciences, Vol.46 No.10, October.
Hendricks D. (1996) Evaluation of Value at Risk Models Using Historical data. Federal Reserve Bank of New York. Economic Policy Review 2, pp 39-70, Avril.
Jackson P., Maude D., Perraudin W. (1997) Bank Capital and Value-at-Risk. Journal of Derivatives 4, pp73-90, spring.
Jorion P. (1985) International Portfolio Diversification with Estimation Risk. Journal of Busines. vol. 58,no. 3.
Jorion P. (2001) Value at Risk: The New Benchmark for Managing Financial Risk. second edition, McGraw- Hill, New York.
Kahneman D., Knetsch J.L., Thaler R.H. (1990) Experimental tests of the endowment effect and the coax theorem. Journal of public Economics, 98, 1325-1350.
Kaplanski G., Kroll Y. (2002) VaR risk measure vs. traditional risk measures: An analysis and survey . Journal of Risk, 4, Printemps , 1-27.
Konno H., Waki H., Yuuki A. (2002) Portfolio Optimization under Lower Partial Risk Measures. Working paper, Kyoto University.
Krokhmal P., Uryasev S., Zrazhevsky G. (2002) Risk Management for Hedge Fund Portfolios. The Journal of Alternative Investments, vol. 5(1), 10-29.
Kupiec P.H. (1995) Techniques for verifying the Accuracy of Risk Measurement Models. Board of Governors of the Federal Reserve System. Finance and Economics Discussion Series, 95/24 May.
Leibowitz M.L., Kogelman S. (1991) Asset Allocation under Shortfall Constraints. Journal of Portfolio Management, Winter, 18-23.
Linsmeier T. J., Neil D. P. (1996) Risk Measurement: An Introduction to Value at Risk. ACE OFOR 9604, University of Illinois at Urbana-Champaign Juillet.
Ljung G.M., Box G.E.P. (1978) On a measure of a lack of fit in Time Series Models. Biometrika, 65, p 297-303, 1978.
Lopez J. A. (1996) Regulatory Evaluation of Value at Risk Models. Working Paper, Federal Reserve Bank of New York.
Lucas A., Klaassen P. (1998) Extreme Returns, Downside Risk, and Optimal Asset Allocation. Journal of Portfolio Management, Fall, 71-79.
Manganelli,S., Engel R.F. (2001) Value at Risk models in finance. Working Paper n°75. Markowitz H. (1952) Portfolio Selection. Journal of Finance, vol. 7(1), 77-91.
Marshall C., Siegel M. (1997) Value at Risk: Implementing a Risk Management Standard. Journal of Derivatives 4, .p73-84, spring.
Pflug G. (2000) Some remarks on the Value-at-Risk and the conditional Value-at-Risk in Probabilistic Constrained Optimization: Methodology and Applications, Kluwer Academic Publishers. S. Uryasev (Ed.), Dordrecht.
Powell A., Balzarotti V. (1996) Capital requirement for Latin American Banks in Relation to their Market Risks: The Relevance of the Basle 1996 Amendment to Latin America. Working Paper, series 347, Washington, D.C.
Pritsker M. (1997) Evaluating Value at Risk Methodologies: Accuracy versus Computational Time. Journal of Financial Services Research, 12 (2/3), October/ December, 201-242.
Rengifo E.W., Rombouts J.V.K. (2004) Optimal portfolio selection in a VaR framework. Working Paper.
Rockafellar R.T., Uryasev S. (2002) Conditional Value-at-Risk for General Loss Distributions. Journal of Banking and Finance, vol. 26(7), 1443-1471.
Roy A.D. (1952) Safety-First and the Holding of Assets. Econometrica, 20, 431-449. Rockafellar R.T., Uryasev S. (2000) Optimization of Conditional Value-at-Risk. The Journal of Risk, vol 2(3), 21-41.
Sharpe W. (1994) The Sharpe Ratio. Journal of Portfolio Management, 21, 49-58.
Tobin J. (1958) Liquidity Preference as Behavior Towards Risk. Review of Economic Studies, vol. 67, pp 65-86.
Référence en ligne :
http://www.gloriamundi.org/
http://193.49.79.89/esa prof/index.php