Rechercher sur le site:
 
Web Memoire Online
Consulter les autres mémoires    Publier un mémoire    Une page au hasard

Le processus de gestion et de mesure du risque opérationnel selon les exigences de comité de Bâle


par Kawtar TanTan
Université TIME
Traductions: Original: fr Source:

précédent sommaire suivant

SECTION 2 : LES MESURES RÉGLEMENTAIRES DU RISQUE OPÉRATIONNEL SELON BÂLE II

La mesure du risque opérationnel correspond à une valeur en risque, similaire dans son principe à celle calculée dans les domaines du risque de marché et du risque de crédit. Elle doit donc couvrir à la fois les pertes attendues (expected loss) et les pertes exceptionnelles (unexpected loss). Pourtant, en théorie, les fonds propres réglementaires ne couvrent que les pertes exceptionnelles et non les pertes moyennes, ces dernières étant censées être couvertes par des provisions ou imputées sur le résultat courant. Le Comité de Bâle propose trois approches distinctes pour déterminer le capital réglementaire au titre du risque opérationnel :

· L'approche indicateur de base (Basic Indicator Approach ou BIA)

· L'approche standard (Standardised Approach ou SA)

· Les approches de mesures avancées (Advanced Measurement Approach ou AMA).

Les banques ont la possibilité de choisir celle qui leur paraît correspondre le mieux à la spécificité de leur activité, mais aussi à leur capacité globale d'action. Elles doivent en effet s'assurer qu'elles disposent de l'ensemble des moyens nécessaires à la mise en oeuvre de la solution retenue. Le degré de sophistication de chacune de ces trois méthodes est en effet croissant.

1. L'approche de l'indicateur de base :

Selon l'approche de l'indicateur de base (basic indicator approch ou BIA), le capital réglementaire en couverture du risque opérationnel est égale à un pourcentage, appelé facteur alpha, égale à 15% du revenu annuel brut moyen de l'établissement sur les trois dernières années. Celui-ci se définit comme la somme des intérêts créditeurs nets et autres produits d'exploitation. Il exclut les provisions, les plus ou moins values liées au portefeuille-titres, et les éléments exceptionnels.

La règle peut donc être exprimée de l'équation suivante :

K= á. RB

Avec k le capital réglementaire, RB est le revenu brut et á = 15%

Selon cette approche très simplifiée, l'ampleur du risque opérationnel est une fonction positive du volume des activités, dont les différents éléments du revenu annuel brut sont ici des estimateurs. Les données de revenus, directement puisées dans la comptabilité officielle, ont l'avantage d'être disponible pour toutes les institutions, à la différence d'autres indicateurs plus complexes.

Le taux de 15% a été retenu suite aux deux premières études quantitatives d'impact réalisées lors du calibrage de l'accord.

En effet il apparait qu'en moyenne 15% du revenu annuel brut représente le montant cible de capital réglementaire opérationnel, pour les 29 établissements ayant répondu aux premières études quantitatives d'impact lancées par le comité en mai 2001.

L'approche de l'indicateur de base vie spécifiquement les plus petits établissements, les petites structures de banques locales ou filiales, de moindre importance, d'autres grands établissements, pour lesquelles les quelles le cout de mise en place d'approches plus élaborées serait prohibitif ou économiquement déraisonnable.

2. L'approche standard:

L'approche standard est en fait un prolongement plus fin de la BIA en déclinant ce type de calcul par type d'activité.

Le capital réglementaire est ici fonction d'un pourcentage du produit brut, appelé facteur béta, établi à 12%, 15%, ou18% selon le niveau du risque opérationnel estimé de chaque activité.

Cela se traduit par la règle suivante :

K = Ó kLI = Ó âLI . RBLI

Avec kLI représente le capital réglementaire associé à la ligne i, RBLI est le revenu brut de la ligne correspondante, et âLI  est le coefficient associé.

L'approche standardisée permet en outre de prendre en compte la nature de l'activité de l'institution.

Ainsi une institution dont l'activité se concentre sur les opérations les moins risquées ou bénéficiera d'une charge en capital moindre que celle présente dans tous les types d'activités ou dans les plus risquées.

Le tableau ci-dessus détaille les lignes d'activités et les pourcentages de revenus correspondants pour le calcul du capital réglementaire.

Catégories d'activité

Taux â

Financement des entreprises

18%

Négociation et vente

18%

Banque de détail

12%

Banque commerciale

15%

Fonction d'agent

18%

Paiement et règlement

15%

Gestion d'actifs

12%

Courtage de détail

12%

Tableau 1 : Facteur béta par ligne d'activité- approche standardisé

Les taux de calcul du capital réglementaire proviennent de la deuxième étude quantitative d'impact, portant sur 29 établissements, ceux qui ont répondu à l'enquête lancé par le comité de Bâle.

A propos des méthodes standard et des coefficients béta, le comité reste d'ailleurs prudent, en précisant que : «  une banque doit élaborer des politiques spécifiques et disposer de critères consignés par écrit pour mettre en correspondance le produit brut des diverses catégories d'activité et unités avec le dispositif standardisé. Les critères doivent faire l'objet d'un examen et d'un ajustement, selon les besoins, de façon à intégrer les innovations/changement d'activité et de modification des risques ».

D'autre par on a Approche standard alternative et que selon le comité de Bâle : L'autorité de contrôle nationale peut, à sa discrétion, autoriser un établissement à appliquer l'approche standard alternative (ASA), à condition qu'il puisse démontrer que celle-ci apporte une amélioration, permettant par exemple d'éviter un double comptage des risques. Une fois qu'il aura adopté une approche ASA, l'établissement ne pourra pas revenir à l'approche standard sans l'autorisation de son autorité de contrôle. Il n'est pas envisagé de permettre aux grosses banques détenant des portefeuilles diversifiés sur les principaux marchés d'utiliser l'approche ASA.

Aux termes de l'ASA, l'exigence de fonds propres au titre du risque opérationnel et sa méthodologie de calcul sont identiques à celles de l'approche standard, sauf pour deux lignes de métier : banque de détail et banque commerciale. Pour celles-ci, les prêts et avances - multipliés par un facteur fixe « m » - sont utilisés au lieu du produit brut comme indicateur de risque ; les bêta sont identiques à ceux de l'approche standard. L'exigence de fonds propres ASA au titre du risque opérationnel pour opérations de détail (la formule de base étant identique pour l'activité de banque commerciale) est exprimée de la façon suivante :

KNI = âNI x m x PANI

Où KNI correspond à l'exigence de fonds propres pour l'activité de détail âNI correspond au bêta pour l'activité de détail, PANI correspond au total de l'encours des prêts et avances à la clientèle de détail (non pondérés des risques et avant déduction des provisions), calculé en moyenne sur les trois années écoulées m est égal à 0,035.

Aux fins de l'ASA, le total des prêts et avances dans l'activité de détail comprend l'ensemble des montants tirés sur les portefeuilles de crédit suivants : détail ; PME assimilées à la clientèle de détail ; acquisition de créances sur la clientèle de détail. Pour la banque commerciale, le total des prêts et avances comprend les montants tirés sur les portefeuilles de crédit suivants : entreprises ; emprunteurs souverains ; banques ; financement spécialisé ; PME assimilées aux entreprises ; acquisition de créances sur les entreprises. La valeur comptable des titres détenus dans le portefeuille bancaire doit également être incluse.

En appliquant l'ASA, les banques de détail et commerciales, si elles le désirent, peuvent agréger leurs activités de détail et de banque commerciale, en leur affectant un bêta de 15 %. De même, les banques qui ne sont pas en mesure d'affecter le produit brut aux six autres lignes de métier peuvent agréger le produit brut total correspondant et lui appliquer un bêta de 18 %, le produit annuel brut étant traité conformément au paragraphe 654.

Comme dans l'approche standard, l'exigence de fonds propres totale ASA représente la somme des exigences de fonds propres pour chacune des huit lignes de métier.

3. Les approches de mesures avancées :

  Il ne s'agit plus d'une approche unique, définie par le régulateur, mais d'un ensemble de modèles internes réunies sous le vocable « d'approche de mesures complexes » ou AMC (Advanced measurement approch ou AMA) approuvé par les autorités de contrôle sur la base d'une série de critère.

Selon l'AMa, l'exigence de fonds propres réglementaire équivaut à la mesure du risque opérationnel produite par le système interne de la banque, sur base de critères quantitatifs et qualitatifs.

Le Comité de Bâle propose plusieurs alternatives au sein du régime AMA : la méthode Scorecard, l'analyse de scénarios (Scenario-based AMA), et enfin, la méthode LDA (Loss Distribution Approach), la plus sophistiquée au plan technique. La pratique de chacune de ces méthodes est soumise au respect d'un ensemble de critères qualitatifs, notamment en termes d'évaluation du risque opérationnel et de procédure de collecte des données de perte. C'est là leur dénominateur commun. Sur le fonds, la différence concerne essentiellement le type d'information privilégié dans le calcul du capital réglementaire.

Les accords de Bâle II n'imposent aucune méthode particulière de calcul pour les banques adoptant l'approche de mesures complexes (AMA). Ce choix est laissé à la discrétion des banques, pourvu qu'elles satisfassent aux critères qualitatifs et quantitatifs énoncés dans l'accord.

Deux principales méthodologies sont utilisées pour le déploiement de ces approches de mesures avancées.

v La méthodologie Top -DOWN :

La méthodologie Top down donne une estimation du risque opérationnel sur la base des variations historiques des résultats après intégration de facteurs tels que l'évolution de l'activité où le coût lié aux changements. L'hypothèse sous-jacente est que les pertes historiques sont une bonne mesure des pertes futures.

Dans cette approche, certaines banques ont tendance à évaluer l'exigence de fonds propres pour le risque opérationnel en prenant simplement un pourcentage d'un indice d'activité comme le produit brut bancaire.

D'autres estiment le risque opérationnel selon un pourcentage fixe correspondant aux coûts opérationnels de l'établissement où de la ligne métier. La Bank of America prend par exemple 25 % des coûts fixes et 50 % des dépenses autre que les intérêts versés.

Selon cette approche, on peut envisager un schéma dans lequel le montant alloué en fonds propres pour couvrir le risque opérationnel serait égal :

Indice d'activité * multiplicateur de la ligne d'activité*k

Avec k est un score représentant l'environnement.

Cette approche présente l'avantage de sa facilité à mettre en place, une fois que l'élément inconnu de volatilité des résultats historiques des activités est résolu. Toutefois elle présente une faible valeur analytique ; un rapport difficile à établir entre perte et revenu variable et entre risque opérationnel et revenu variable.

On peut dire que les modèles proposés par cette méthode ne sont pas propices à la mise en oeuvre d'un contrôle interne, d'où son ignorance à la qualité du contrôle. Dans ce cadre et pour mieux maîtriser le risque opérationnel les établissements s'orientent d'avantage vers des approches à forte valeur ajoutée type " Bottom Up ".

v Méthodologie Bottom -Up :

Les modèles Bottom -Up correspondent à une approche structurelle dans laquelle l'identification, l'évaluation des pertes et risques sont définis à l'intérieur de la banque en fonction de la logique de comportement, en séparant tout ce qui peut provenir des personnes, des processus et de la technologie.

En effet, lors d'une telle approche, chaque opération est analysée de son initiation jusqu'à sa comptabilisation. A chaque étape les tâches et contrôles clés sont décrits, testés et évalués.

Le recensement et l'évaluation des risques opérationnels se faisant selon une cartographie (zones géographiques, ligne métier, entité, activité et productivité) qui se décline de la plus globale à la plus exhaustive.

Cette approche apparaît plus utile pour comprendre la nature du risque opérationnel et pour permettre un contrôle interne. Elle est à forte valeur ajoutée car elle intègre des cartographies des risques opérationnels liés aux activités et processus comprenant l'identification, l'analyse et l'évaluation des risques.

Elle permet de contribuer à la connaissance des risques opérationnels au niveau des activités, et au changement comportemental des différents acteurs et notamment les opérationnels.

Toutefois elle présente l'inconvénient de la subjectivité et la consistance des évaluations.

Les approches de mesures avancées sont :

3.1. La Loss Distribution Approach :

L'idée de base de LDA est assez simple : on considère que la perte annuelle totale d'une banque due au risque opérationnel se compose de deux éléments, la fréquence et la sévérité. Chacune se présente sous la forme d'une distribution statistique. La distribution de fréquence représente l'occurrence d'événements de pertes opérationnelles, c'est-à-dire le nombre de pertes observées. La distribution de sévérité traduit quant à elle l'amplitude de ces pertes, à savoir le montant, en unités monétaires, des pertes individuelles subies par la banque.

L'idée générale de la méthode LDA (Loss Distribution Approach) est de modéliser la perte liée au risque opérationnel pour une période donnée (par exemple, un an) et d'en déduire la valeur en risque. Frachot et al. (2003) proposent de procéder en cinq étapes pour implémenter cette méthode :

- Estimation de la distribution de sévérité ;

- Estimation de la distribution de la fréquence ;

- Calcul de la charge en capital;

- Calcul des intervalles de confiance;

- incorporation des avis d'experts.

Pour cette approche on ne va pas entrer dans la formulation mathématique de ces différentes étapes, mais simplement de comprendre l'idée générale de la méthode LDA.

A l'instar de la plupart des modèles de mesure du risque opérationnel, la LDA se fonde sur une approche actuarielle (fréquence/sévérité) très ancienne largement utilisée dans le domaine de l'assurance pour modéliser des problèmes similaires.

Pour que le modèle LDA puisse tourner, il faut lui fournir deux éléments essentiels : la distribution de la sévérité des pertes (loss severity distribution) et la distribution de la fréquence des pertes (loss frequency distribution). Ces deux distributions, qui forment l'historique des pertes, sont ensuite combinées par une technique statistique appelée « convolution »(Monte Carlo) afin d'obtenir la distribution de la perte totale. Celle-ci étant le résultat de plusieurs pertes successives, il s'agit d'une perte agrégée (aggregate loss distribution).

A partir de la perte totale, on dérive ensuite la perte attendue ou moyenne (expected loss) et la perte exceptionnelle (unexpected loss), pour un niveau de confiance donné. La Figure 5 illustre le principe de la méthode LDA.

Figure 4: La Méthode Loss distribution Approach (LDA)

L'accord stipule que « un établissement doit faire la preuve que sa mesure du risque opérationnel répond à un critère de solidité comparable à celui de l'approche NI pour le risque de crédit (correspond a une période de détention d'un an et à un intervalle de confiance de 99, 9éme percentile de la distribution de perte agrégées). On utilise souvent cette notion en matière de gestion des risques financiers sous le terme de Valeur-au-risque avec un intervalle de confiance de 99,9%.

Afin de différencier le risque opérationnel du risque de marché ou ce terme est né, nous utiliserons la terminologie « valeur-au-risque opérationnel » ou OpVaR.

Le comité de Bâle a décomposé les OpVaR en deux éléments : la perte attendues PA et les pertes inattendues(PI).

3.2. L'approche Scorecard :

L'appellation «  scorecard » regroupe un ensemble d'approche visant à identifier, mesurer et surveiller les risques opérationnels. Ces approches traduisent une évaluation qualitative des risques et des contrôles en une valeur numérique ou score.

L'un des objectifs poursuivis par les banques ayant développé et implémenté une approche Scorecard est de se doter d'un outil permettant de faire le lien entre la mesure et la gestion du risque opérationnel.

Les grandes étapes de mise en oeuvre de la démarche scorecard sont les suivantes :

Evaluation du capital initial en se basant sur une autre approche : celle-ci pourrait être l'approche LDA, l'approche des scénarios, l'utilisation du benchmarking ou une méthode forfaitaire. Il est crucial à ce stade de considérer ce capital initial crédible.

Définition de la structure de la scorecard et sa mise en oeuvre, permettant d'aboutir à un score pour chaque catégorie de risque et pour chaque ligne de service.

Allocation du capital initial aux lignes de service sur base du score et donc des performances de l'organisation en matière de maitrise du risque opérationnel. Par la suite, le capital alloué à chaque ligne de service va varier en fonction de l'évolution des résultats de scorecard. Dans cette approche, le capital initial n'est pas recalculé à chaque évaluation.

Conformément aux exigences du comité de Bâle, les données internes ont également un rôle à jouer dans l'approche scorecard.

Ces données internes et externes sont utilisées à plusieurs niveaux. En effet, elles peuvent être utilisées de la détermination du capital initial en utilisant une approche de distribution de pertes.une autre utilisation intéressante de ces pertes est leur analyse afin d'identifier les facteurs de risques ayant amené à la réalisation de ces pertes est leur analyse afin d'identifier les contrôles internes permettant de réduire l'impact ou de contrôler les facteurs de risque identifiés.

Une fois la scorecard établie et utilisée, les pertes internes et externes peuvent etre utilisées afin de valider la qualité des réponses apportées aux questionnaires. De plus, leur analyse régulière permet de s'assurer que les risques et facteurs de risque associés sont actualisés, ce qui permet de prendre en compte l'apparition de nouveaux facteurs de risque dans l'anlyse. La validation des résultats de la scorecard avec des donnés objectifs est importante, compte tenu des nombreux éléments subjectifs intervenant dans sa construction.

Le Comité de Bâle n'a fourni aucune formulation mathématique pour cette approche. Néanmoins, les groupes de travail au sein des banques ont proposé des formules de calcul du capital réglementaire (K) de la forme :

KScorecard = EIij × ùij × RSij

Avec EI l'indicateur d'exposition (Exposure Indicator), RS le score de risque (Risk Score) et ù un facteur d'échelle (Scale Factor).

3.3. L'approche par les scenarios :

L'approche scénarios est en fait un prolongement de l'approche scorecard. Le risque y est envisagé comme une combinaison de la sévérité et de la fréquence des pertes potentielles sur une période donnée. La fréquence et la sévérité (potentielles) de la perte peuvent être mesurées en unités monétaires et en nombre d'occurrences annuelles. Le risque reflète en quelque sorte la vulnérabilité de la banque. L'évaluation du risque devrait par conséquent se focaliser sur les vecteurs de cette vulnérabilité. Or, celle-ci provient pour l'essentiel des facteurs de risque sous-jacents. Réduire le niveau de risque opérationnel impose donc une bonne lisibilité de l'exposition du portefeuille de la banque aux différents facteurs de risque préalablement définis.

L'un des objectifs de l'utilisation de cette approche dans la quantification des risques opérationnels est de fournir une évaluation prospective du risque opérationnel.

En fait, on pourrait considérer que l'évaluation du risque est intrinsèquement liée à l'analyse de scénarios, qui s'applique d'ailleurs également aux risques de marché et de crédit.

De manière générale, les scénarios sont des événements susceptibles de se produire dans l'avenir. Ils expriment l'idée selon laquelle les experts d'une banque ont certaines intuitions ou des informations sur le risque qui ne sont pas contenues dans l'historique de données. Pour être réellement utile à des fins de décision en matière de risque, une analyse de scénarios doit être en mesure de répondre à ces deux questions : à quelle fréquence le scénario X est-il susceptible de se produire ? Quel est le montant de la perte si le scénario X se produit ?

L'axe principal de développement de cette approche est le développement et l'évaluation des scénarios, ces derniers doivent permettre d'évaluer les deux paramètres caractérisant le risque : la fréquence et la sévérité potentielle d'un événement générateurs de pertes.

Cette évaluation nécessite la constitution de scénarios, chaque scénario prenant en considération l'ensemble des facteurs de risque opérationnel.

Parmi les facteurs de risque opérationnel les plus courant, on recense le niveau de compétence/qualification du personnel, l'organisation interne/transferts d'information, l'infrastructure IT ( sécurité des systèmes), les procédures de contrôle des activités non autorisées/vol et fraude/erreurs non intentionnelles ( saisie, exécution et suivi des transactions), les mesures de protection contre des catastrophes et autres sinistres, ou encore, le respect des obligations légales ( conformité, diffusion d'informations et devoir fiduciaire).

En considérant ces différents éléments, la banque va donc générer des scénarios sous forme de questions «  what if ».

Pour chaque scénario, l'évaluateur considère plusieurs hypothèses, dont par exemple un cas normal, un cas extrême et un cas catastrophique.

En effet, les scénarios vont se construire en fonction de l'organisation de la banque et de la catégorisation d'événement de pertes. Les facteurs de risque et les indicateurs de risque associés serviront de contexte et de base a l'évaluation des scénarios.

Figure 5 : Les approches de mesure du risque opérationnel

4. Les critères d'agrément pour l'approche standard et l'approche de mesure avancées :

Les critères généraux sont identiques par définition entre les différents approches. Les critères qualitatifs sont quant à eux similaires entre les approches standardisé et complexes, qu'il est préférable de les présenter conjointement.

Ils sont relatifs aux modes d'organisation de la gestion des risques, et représentent en réalité une version synthétique du document « sound practices for the management and supervision of operational risk »qui complète le premier pilier en matière de risques opérationnels. Il vise à assurer un niveau minimum en matière de risques.il est applicable à l'ensemble des établissements, indépendamment de l'approche choisie. Seuls les critères quantitatifs d'agrément sont propres aux approches complexes.

v Critères généraux :

Ces critères doivent être rencontrés par toutes les institutions, quelle que soit l'approche adoptée :

· Participation active du top management de l'établissement (conseil d'administration et direction générale) à la surveillance du dispositif de gestion du risque opérationnel.

· Intégrité dans la mise en oeuvre d'un système sain de gestion des risques.

· Allocation de ressources suffisantes par rapport à l'approche choisie dans les unités principales et à l'audit interne.

v Critères qualitatifs :

Ces critères s'appliquent pour l'approche standardisé lorsqu'elles sont mises en oeuvre par des banques actives au niveau international, ainsi que pour l'approche de mesures complexes :

Définition des rôles : les fonctions et les responsabilités des gestionnaires des risques opérationnels doivent être clairement définies et attribuées. Ils sont responsables de la conception et de la mise en oeuvre du système d'identification, de mesure, de surveillance, d'atténuation et de notification du risque opérationnel au sein de la banque.

Collecte des données : la banque doit enregistrer systématiquement les pertes significatives par catégorie d'activité. Ces informations doivent tenir une place prépondérante dans la notification des données sur les risques dans les rapports adressés à la direction. La banque doit disposer de techniques permettant d'inciter à une meilleure gestion du risque opérationnel dans l'ensemble de l'établissement.

Notification et documentation :

L'exposition aux risques et notamment les pertes importantes doivent faire l'objet d'une notification régulière au top management. Le système de gestion et les procédures doivent faire l'objet d'une documentation correcte et complète au sein de la banque.

Révision périodique : les processus de gestion feront l'objet d'une validation et d'un examen périodique par les auditeurs externes et/ou les autorités de contrôles.

5. Critères quantitatifs propre à l'approche des mesures avancées :

v Critères de solidité :

Le comité de Bâle s'abstient délibérément de préciser l'approche, les hypothèses ou les distributions a utilisé pour quantifier le risque opérationnel.

Sa seule exigence est que la banque apporte la preuve que sa mesure du risque opérationnel présente une robustesse suffisante pour couvrir les pertes avec un intervalle de confiance de 99,9%. En d'autre terme le capital réglementaire doit être suffisant pour couvrir les pertes dans 99, 9% des cas possible.

v Critères spécifique :

· Le système de mesure interne des risques doit couvrir la totalité des types d'événements de risque opérationnel définis par le comité.

· La banque doit calculer les fonds propres suffisants pour couvrir ses pertes anticipées ou attendues et ses pertes inattendues, sauf si elle fait la démonstration que ses systèmes internes couvrent adéquatement les pertes attendues (parfois appelées pertes moyennes).

· La granularité du système de mesure doit être suffisante pour appréhender les sources de risque affectant les plus grands montants de pertes de la distribution.

· Pour le calcul des fonds propres, les différentes mesures individuelles et de pertes doivent être agrégées « la banque peut toutefois être autorisée à appliquer des corrélations déterminées en interne entre ces estimations individuelles ...la banque doit valider ses hypothèses de corrélation »

· Tout système interne de mesure du risque doit comprendre les éléments- clés suivant : utilisation des données externes pertinentes, analyses de scénarios, prise en compte de facteurs reflétant l'environnement de travail et les systèmes de contrôles internes.

· La banque doit disposer d'un système complet, bien documenté et transparent, décrivant la méthodologie de mesure du risque et justifiant les poids relatifs donnés aux différents éléments décrits au point précédent.

v Données internes :

La banque doit collecter ses données internes de pertes, afin de mettre en relation les estimations de risques et les pertes effectives.

La banque doit disposer de procédures claires afin de relier les pertes à un types d'activité ;

L'historique de pertes collectées doit être d'au moins cinq ans, avec une exception de trois années historique pour la première année de la mise en oeuvre de la méthode AMC (en 2007).

Le processus de collectes des données de pertes interne doit répondre aux caractéristiques suivantes :

· La mise en correspondance des données avec les catégories prudentielles définies, tant en terme de types d'événement que de lignes d'activité ; la banque doit donc documenter sa règle de conversion éventuelle entre ses catégories internes et les catégories officielles du comité.

· La fixation d'un seuil de notification des pertes. La banque doit disposer d'un montant minimum de pertes brutes à partir duquel elle notifie la perte. Un montant de 10000 euros est mentionné à titre d'exemple. Le seuil de notification doit être globalement similaire à celui de banques comparables.

· Outre le montant brut rapporté, divulgation d'une information complémentaire dans la notification. La quantité d'information à collecter est liée à l'empileur de la perte.

· Identification d'une clé spécifique pour l'allocation des pertes par ligne d'activité, en particulier pour la survenance d'événements dans les fonctions centrales.

· Isolation des pertes importantes associées au risque crédit et traitement comme résultant d'un incident opérationnel.

· Traitement des pertes opérationnelles liées à un risque de marché comme du risque opérationnel pour le calcul de l'adéquation du capital.

Les critères de données internes détaillent donc les exigences et le processus de collecte de données de pertes internes. Ce sont ces exigences qui ont constitué l'aiguillon le plus puissant pour le démarrage de la mise en place de la gestion de risques opérationnels dans les banques.la nécessité de disposer, au moment de la mise en oeuvre de l'accord, d'un historique de pertes de trois ans minimum a sorti brutalement les banques de leur torpeur et lancé le processus long. Couteux, mais indispensable pour la collecte des données de pertes, qui constitue la pierre angulaire de la modélisation du risque et des outils de sa gestion active.

v Données externes :

Le système de mesure du risque opérationnel d'une banque doit utiliser des données externes pertinentes notamment lorsqu'il existe des raisons de croire que la banque est exposée à des pertes peu fréquentes mais potentiellement lourdes, une banque doit disposer d'un processus systématique pour déterminer les situations nécessitant de recourir à des données externes et les méthodologies à utiliser pour incorporer ces données.  

v Analyse de scénarios :

D'après le comité de Bâle, la banque doit, sur base de son expérience et d'avis d'experts en gestion des risques, procéder à l'analyse des scénarios, permettant d'obtenir « des évaluations raisonnables des pertes sévères plausibles ».

v Environnement de contrôle interne :

Outre l'approche quantitative basée sur les données de pertes et les analyses de scénarios, la méthodologie doit intégrer les facteurs de risque pouvant modifier le profil de la banque. La prise en compte de ces facteurs doit répondre aux caractéristiques suivantes :

ü Chaque facteur doit représenter un vecteur de risque pertinent, basé sur l'expérience et sur un jugement d'expert.

ü La sensibilité des risques face à ce facteur, ainsi que le poids de chaque facteur doivent être justifiés.

ü Tous les aspects de l'application de chaque facteur, y compris ses conséquences sur l'ajustement des estimations empiriques, doivent être documentés et soumis à un examen indépendant de la banque. Le résultat modélisé doit être comparé aux données de pertes réelles collectées dans la banque.

Figure 6: les critères qualitatifs des approches de mesure du risque

Opérationnel

précédent sommaire suivant








® Memoire Online 2007 - Pour tout problème de consultation ou si vous voulez publier un mémoire: webmaster@memoireonline.com