WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Analyse comparative de modèle d'allocation d'actifs dans le plan Moyenne-Var relative

( Télécharger le fichier original )
par Alaeddine FALEH
Université Claude Bernard Lyon 1 - Master 2 actuariat et finance 2007
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

II- L'allocation optimale dans le plan Moyenne - VaR relative

II-1 La modélisation du problème d'optimisation du portefeuille p 25

II-2 Le cadre de l'étude empirique p 30

II-3 L'application des méthodes de mesure de la Value at Risk p 33

II-4 La construction des frontières d'efficience p 34

II-5 L'allocation optimale dans le cadre statique ..p 34

II-6 L'allocation optimale dans le cadre dynamique .p 37

Conclusion p 41

Annexes p 42

Bibliographie ..p 56

L'optimisation d'allocation d'actifs devient de plus en plus un enjeu important sur les marchés financiers. Les coûts relatifs à une mauvaise gestion de portefeuille et à un erreur de prévision des tendances du marché peuvent engendrer des situations financières précaires pour les sociétés voir même les exposer au risque de faillite.

En théorie moderne de portefeuille, l'allocation optimale de la richesse initiale se base sur la maximisation de la prime de risque espéré par unité de risque. L'approche traditionnelle de mesure de ce dernier est celle de la Moyenne Variance. Dans ce cas, le risque est définie en terme de variation possible des espérances de rendement du portefeuille dans les deux sens, celui de la hausse et de la baisse: on parle de la volatilité des actifs financiers. Elle est égale à la racine carrée de la variance des rendements. Néanmoins, cette approche présente des inconvénients. Le principal inconvénient est qu'elle considère l'investisseur comme indifférent devant l'évolution de la valeur du portefeuille dans le sens de la hausse ou dans le sens de la baisse. Il est supposé que pour lui, il s'agit toujours d'un risque à assumer. Un deuxième inconvénient important est l'hypothèse implicite de la symétrie de la distribution des rendements et plus précisément la normalité de cette distribution. En pratique, il est bien montré que la distribution de plusieurs séries de rendements financiers est non normale avec un coefficient d'asymétrie (skewness) et un coefficient d'aplatissement (kurtosis) trop élevés. De même, les agents économiques traitent évidemment les pertes et les gains d'une façon asymétrique. Il existe pas mal d'études sur l'aversion à la perte (voir par exemple, Kahneman et al.1990).

Le choix de l'approche Moyenne Variance apparaît ainsi comme une stratégie inefficiente pour optimiser l'espérance de rendement tout en minimisant le risque. Il sera plus intéressant de chercher une mesure de risque qui peut incorporer n'importe quel non linéarité dans la distribution des rendements des actifs financiers tout en se focalisant sur la valeur potentielle à perdre plutôt que sur l'évolution en valeur absolue. Dans ce cas on aura l'avantage de pouvoir considérer des payoff non normal tel que ceux des produite dérivés et ainsi un cadre d'étude plus générale. Cependant, il faut signaler qu'en finance la déviation à

l'hypothèse de normalité suggère des critiques dont on peut citer principalement la perte de l'opportunité de passage d'un cadre discret à un cadre continue.

Dans ce cadre de recherche, la notion relativement récente de la Valeur à risque (Value at Risk) apparaît être capable de répondre à la problématique présentée ci dessus. D'une part, l'estimation de cette mesure de risque peut incorporer la composante de non normalité de la distribution des rendements du portefeuille. D'autre part, cette mesure s'intéresse directement au montant de la perte potentielle à subir sur l'investissement. En effet, la Value at Risk (VaR) peut se définir simplement comme la perte potentielle maximale que l'investisseur peut subir dans un horizon de temps donné et pour un niveau de probabilité fixé. La Value at Risk mesure directement et en terme monétaire la perte future dans la valeur de portefeuille. Le résultat additionnel résultant d'une non normalité peut être inclut et absorbé dans l'estimation de la Value at Risk. Cette mesure semble à ce jour s'imposer comme le standard pour la mesure des risques de marché dans l'industrie financière et surtout bancaire.

L'objectif de ce travail est d'analyser un modèle d'allocation optimale de la richesse en se référant à la VaR comme la mesure du risque. On cherche aussi à valider les méthodes d'estimation de la VaR incorporé dans ce modèle. Dans le premier chapitre, on s'intéresse à la présentation de la VaR, de ses paramètres et des méthodes pratiquées pour son estimation. On étudie aussi le concept de la VaR ainsi que sa relation avec la gestion de portefeuille tel que cité en littérature financière.

Dans le second chapitre, on commence par présenter le modèle permettant de déterminer la répartition optimale entre les actifs risqués d'un portefeuille. Ce modèle permet aussi de calculer le montant de prêt emprunt nécessaire pour ramener la VaR du portefeuille optimal à un niveau prédéterminé. Ceci nous rappelle du théorème de séparation de Tobin (1958) dans l'approche traditionnelle de gestion de portefeuille. Ensuite, on élabore le cadre empirique de notre étude avec des hypothèses sur les différents facteurs. Cette étude empirique sera composé de trois parties : Dans la première partie, on applique et on analyse les différentes méthodes d'estimations de la VaR cités dans le chapitre précédent. Dans la seconde partie, on applique et on analyse les résultats de notre modèle dans un cadre statique. Les méthodes d'estimation de la VaR retenue sont la méthode empirique, la méthode de l'hypothèse de normalité et la méthode de la théorie des valeurs extrêmes (TVE ou aussi GPD en se référant à la distribution de Pareto Généralisé). Dans la troisième partie, on passe à un

cadre dynamique. L'objectif est de tester les trois approches d'estimation de la VaR dans notre modèle générale. Pour cela, on procède à l'application de ce dernier pour une gestion quotidienne sur 465 jours. On se réfère ensuite à un Backtesting en comparant les pertes effectives des portefeuilles optimaux constitués quotidiennement avec les VaR limites prévues par les investisseurs. Le critère retenu dans ce cas est donc le taux d'échec des prévisions pour les trois approches. Un deuxième critère peut être retenu qui est celui de la richesse finale obtenue à la fin de la période de gestion (après les 465 jours). Le modèle choisi sera celui qui maximise cette richesse.

I-1 Le concept de la Value at Risk :

Selon Berdin et Hyde (2001) la VaR est définie comme étant la mesure qui fournit une estimation statistique de la perte potentielle sur un actif ou un portefeuille qui peut survenir avec une probabilité donnée suite à des mouvements de prix ou de taux relativement adverses. Ceci est valable sous l'hypothèse que pendant une période de temps (l'horizon de calcul de la VaR) la composition du portefeuille resterait inchangée. D'après A. Louis Calvet (2000) la VaR d'un portefeuille d'actifs financiers correspond au montant de pertes maximales sur un horizon de temps donné, si l'on exclut un ensemble d'évènements défavorables (worst case scénarios) ayant une faible probabilité de se produire. Une autre définition de la VaR peut être avancée : il s'agit de la perte maximale par rapport à la valeur espérée du portefeuille et non par rapport à la valeur initiale. Dans ce cas, on parle de la VaR relative. La figure 1 illustre la notion de la VaR dans le cas d'une distribution normale centrale réduite des rendements du portefeuille étudié. Dans ce cas, dire que la VaR à 95% pour un jour est égale à -1,645% signifie qu'au maximum on aura 5 rendements sur 100, dans le jour suivant, qui soient inférieures à -1,645%.

Figure 1 : Un exemple de la Value-at-Risk sous la distribution normale

Selon Paul Glasserman et al.(2000), deux événements ont concouru à l'adoption généralisée de la VaR sur le secteur financier et un autre a favorisé son développement dans les entreprises surtout américaines.

> Le premier date de 1995. Réunis en comité à la banque des règlements internationaux à Bale, les représentants des banques centrales de dix grandes économies de l'ouest proposent de nouvelles règles amendant l'accord de Bale de 1988 et imposant aux établissements financiers un niveau de fonds propres proportionnels aux risques résultant de leurs engagements. Officiellement adoptés en 1996, cette proposition incite les banques à développer des modèles internes sophistiqués pour calculer leurs VaR. En effet, elles peuvent ainsi espérer une diminution des fonds propres qu'elles doivent détenir par rapport aux montants des fonds propres exigés sur les autres banques qui se fondent sur les modèles standard (édictés par les autorités de tutelle pour déterminer les besoins des banques en capitaux propres). Ainsi, dès le départ, la recherche d'un allègement des obligations règlementaires est un important facteur de la croissance de la VaR.

> Le deuxième évènement s'est produit sur Internet. En 1994, la banque américaine JP Morgan a mis gratuitement son système RiskMetrics à la disposition de tous sur Internet. Ce système fournissait les données financières et la méthodologie nécessaire au calcul de la VaR d'un portefeuille. Les autres établissements financiers et les entreprises peuvent utiliser le calculateur de VaR de RiskMétrics ou télécharger les données sur leurs propres systèmes de gestion des risques. Très vite, sont apparus de nouveaux fournisseurs de programmes de gestion des risques exploitant RiskMetrics, transformant cette méthodologie en une référence incontournable.

Un troisième évènement a probablement moins d'impact à ce jour, mais c'est l'un des grands facteurs d'expansion de la VaR parmi les entreprises américaines. En 1997 aux EtatsUnis, la Securities and Exchange Commission (SEC), préoccupée des risques cachés derrière les instruments hors bilan, a émis des règles de communication relative aux produits dérivés employés par les entreprises : celles-ci ont trois solutions pour faire état des risques associés

aux instruments dérivés : tableau des valeurs de marché, mesure de sensibilité ou VaR. C'est la raison pour laquelle les rapports annuels de Microsoft, de Philip Morris et de bien d'autres grandes sociétés présentent maintenant des calculs de la VaR. Récemment, les recommandations du comité Bale II publié en 2004 ont renforcé l'utilité de cette notion.

En ce qui concerne la littérature, plusieurs articles évaluent le risque de marché en se basant sur la technique de la Valeur à Risque et ses différentes méthodes. La VaR donne lieu à différents modèles d'évaluation qui lient le rendement des différents actifs aux différents facteurs de risque :

Le premier type de modèle repose sur la méthode des Variances Covariances développée et diffusée par JP Morgan grâce à son système RiskMetricsTM en 1996. Cette méthode qui se base sur une évaluation locale des positions est appelée aussi delta normal (Jorion 2001).

Le deuxième type de modèle utilisant une évaluation complète regroupe les méthodes de simulation historique et de Monte Carlo.

Il existe une quatrième méthode complémentaire aux trois précédentes appelée " Stress testing " recommandée par le régulateur pour évaluer la qualité des modèles de contrôle interne. Lopez (1996) compare ces méthodes et répartit les aptitudes de chacune. Jackson et al. (1997) examinent la possibilité de prédire la variance des facteurs de risque (taux d'intérêt, prix de l'actif et taux de change). Ils comparent les méthodes paramétriques et non paramétriques de la mesure de la VaR.

CrnKovic et Drahmann (1996) examinent la possibilité de prédire tous les paramètres de distribution des facteurs de risque. Kupiec (1995) étudie le Backtesting pour le modèle de la VaR et il examine la période du temps passé jusqu'au premier échec de l'estimation. A un niveau plus tardif, le comité de Bale adopte ces épreuves comme une base pour examiner les modèles internes des banques. Ces études ne fournissent pas des épreuves statistiques claires et manquent d'exactitude quant aux méthodes d'estimation. La plupart d'entre eux traitent l'exigence minimale du capital en utilisant plusieurs méthodes de calcul de la variance, et aussi par l'utilisation des données historiques de marché plutôt que des simulations.

Hendricks (1996), Pritsker (1997), Linsmeier et Pearson (1996), Jackson et al. (1997) et Aussenegg et Pichler (1997) comparent l'approche standard, présentée par le Comité Bale comme une alternative pour l'estimation du risque de marché, avec toutes les méthodes de calcul de la VaR. Ces études examinent les avantages et les inconvénients de chaque méthode en jouant sur les aspects suivants : le temps de calcul vis-à-vis de l'exactitude des évaluations (Pritsker, 1997) ; l'adaptation aux régions géographiques différentes (Powell et Balzarotti, 1996) ; l'effet des instruments financiers inclus dans le portefeuille d'investissement (Aussenegg et Pichler ,1997) .

Parmi les études qui examinent l'utilisation des modèles VaR, celle de Powell et Balzarotti (1996) qui fait une comparaison entre l'utilisation du modèle VaR et l'approche standard dans plusieurs pays latino américains. Powell et Balzarotti (1996) concluent que l'approche standard est préférable à plusieurs modèles VaR. Plusieurs modèles internes font des suppositions et des usages d'outils de mesures différentes qui peuvent produire des résultats variables pour le même ensemble de paramètres du marché et de position dans le portefeuille d'investissement. En outre, les modèles VaR sont très sensibles aux suppositions et aux données estimées, surtout dans le contexte d'actifs qui ne sont pas fondamentalement linéaires tels que les produits dérivés (Marshall et Seigel, 1997). Ces derniers notent que cette sensibilité, accompagnée de la liberté des banques dans le choix de leurs modèles internes, expose les systèmes bancaires et de surveillances au risque.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Il faut répondre au mal par la rectitude, au bien par le bien."   Confucius