WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Efficience des banques dans la CEMAC : Approche Data Envelopment Analysis

( Télécharger le fichier original )
par T.H. Jackson Ngwa Edielle
Institut Sous - Régional de Statistique et d'Economie Appliquée (ISSEA) - Ingenieur Statisticien Economiste 2007
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

3 Méthodologie : Une approche non paramétrique

Dans cette section nous nous intéressons aux méthodes statistiques utilisées dans toute notre analyse. Deux étapes principales définissent toute notre analyse. Dans un premier temps il s'agira d'évaluer empiriquement la surliquidité bancaire dans la zone CEMAC. Pour cela nous allons procéder a des régressions non paramétriques. Les méthodes que nous présenterons sont celles développées par Hasti et Tibshirani (1990). Le concept de surliquidité bancaire sera clairement précisé. Dans un second temps, il s'agira d'évaluer l'efficience technique des banques dans la zone CEMAC. Nous limiterons l' analyse a l'efficience de transformation technique des dépôts en crédits du fait des données dont on dispose. Précisément, cette évaluation consistera en l' estimation non paramétrique de la frontière technique afin de déterminer les différents ratios d' efficience des banques. Cette méthode d' estimation est fondée sur les travaux de Debreu (1951) et Koopmans (1951) qui ont développé les concepts mesurables d' efficience (Efficience technique et Efficience allocative). Il sera important a la fin de ces estimations de procéder aux tests d'hypothèses par la méthode Bootstrap afin d'inférer les différents résultats de notre analyse.

3.1 Mesurer la surliquidité bancaire

Il est important avant de mesurer l'efcience des banques dans la CEMAC de s'assurer que le problème de surliquidité peut être considéré comme une évidence statistique.

3.1.1 Définir la surliquidité bancaire

Pour évaluer la surliquidité bancaire, on part la plupart de temps du concept d' excédent de liquidité des banques (bank excess liquidity). Mais il ne suffit pas d'observer l'existence de l'excès de liquidité dans une banque pour conclure a la surliquidité. D'après KIM (2002) la liquidité d'une banque est sa capacité a faire face a ses engagements. Les banques conservent ainsi les ressources liquides sous forme d'encaisse de précaution. La surliquidité n'apparaIt que lorsque les réserves des banques s'écartent fondamentalement de niveau optimal requis. DIAMOND et DYBVIG (1983) formalisent cette idée en montrant qu'au delà du niveau optimal, l'excès de liquidité explose. En d'autres termes, toute variation permanente et en sens contraire des dépôts par rapport aux crédits se traduira dans le temps par la surliquidité du système bancaire. En fait, dans son calcul d'optimisation, les banques saisissent toutes les nouvelles opportunités de dépôts pour faire de nouveaux crédits suivant leur propre coefcient de transformation. Ainsi, toute augmentation des dépôts devrait être suivie par une hausse des crédits. S'il n'existe pas de réaction a la hausse des crédits on pourrait croire a un rationnement de crédit (BATTACHARYA et THAKOR, 1993) et dont a une surliquidité du système.

Définition 1

On parle de surliquidité du système bancaire lorsque le niveau de crédit, pour un niveau de transformation, n 'augmente pas dans une proportion près au niveau des dépôts.

Pour tester la surliquidité du système bancaire dans la CEMAC, nous allons tester la fonction de réaction des crédits bancaires. Il est possible que les excès de liquidité s' accroissent du fait du niveau très élevé du risque des projets. Par contre, si pour un niveau de risque donné, l'excès de liquidité augmente a taux croissant, alors on peut conclure a la surliquidité.

Proposition 1

Supposons que l'offre de crédit C(t) des banques soit unefonction linéaire des dépôts des clients D(t) tel qu'il suit:

Ct = ñDt + u (1)

u la composante des autres déterminants et p est le coefficient de réaction. Si pour tout t, p < 1 - r (r le taux de réserve obligatoire) alors il y a surliquidité du système bancaire.

3.1.2 Evaluer la surliquidité du système bancaire

Pour évaluer la surliquidité du système bancaire, nous allons estimer le modèle de régression suivant:

Ct=f(Dt)+Et (2)

et évaluer la dérivée première f'(t) de la fonction de réaction. Si la dérivée est positive et inférieur a 1 moins le taux de réserve obligatoire, on pourra admettre l'hypothèse de surliquidité. La proposition 1 ne donne aucune information dans le cas ott la fonction de réaction n'est pas linéaire. Il est dans ce cas possible de considérer que le coefficient de réaction p est variable et d'admettre la surliquidité si le coefficient de réaction passe significativement en dessous de 1 - r. On retiendra ainsi la spécification suivante:

Ct = â(t)Dt + Et (3)

Nous n'allons pas procéder dans cette analyse a des estimations paramétriques linéaires mais plutôt supposer que la forme fonctionnelle de la relation est inconnue. Nous procéderons donc a des estimations non paramétriques et semi paramétriques. Les modèles non paramétriques ont été introduits par Hasti et Tibshirani (1990). Cette idée de modèle flexible a été étendue dans les estimations des modèles a coefficient variant dans le temps par Hasti et Tibshirani (1993).

3.1.3 Estimations non paramétriques

Ces méthodes sont celles des modèles GAM qui supposent que les relations entre la variable expliquée et chacune des variables explicatives sont sous forme additionnelle et ne sont pas forcément linéaires. 0n spécifie ainsi le modèle suivant:

yi = a0 + f1(x1i) + f2(x2i) + ... + fk(xik) + Ei (4)

Ott yi est la variable endogène, xli l = 1. .k les variables exogènes et f(l) des fonctions lisses

iid

inconnues. On supposera que le terme d'erreur Ei? N(0, 1). On cherche a estimer les fonctions f(x) pour chaque point x. Les estimations des noyaux de densité de fl() sont obtenues en utilisant la méthode des moindres carrés ordinaires local (MCOL). On l'obtient en minimisant

sous la contrainte que chaque point est borné, la somme carrée des erreurs3:

(5)

(

n k (d2fl(xl))

k ) 2 Zb

yi-fl(xli)+Aldxl

dx2

a

i=1 l=1 j=1 l

Henderson et Ullah (2004) montrent que dans le cas ou les erreurs sont autocorrélées, il est possible de tenir compte de l'information contenue dans la matrice de variance covariance des erreurs en appliquant les moindres carres ordinaires local pondérés (MCOLP). Pour simplifier on peut supposer que les variables sont ordonnées et écrire les contraintes de la façon suivante a < xl1 < ... < xln < b. A le multiplicateur de Lagrange est le paramètre de lissage et son choix joue un rôle très important4. Une petite valeur de A réduit la variance de l'ajustement mais élève le biais. On parle de substitution biais-variance (Hasti et Tibshirani, 1990). Une façon de déterminer le paramètre de lissage A est de recourir au critère GCV5 (Hasti et Tibshirani, 1990, Chap 3). D'après ce critère, A est choisi de façon à ce que

n GCV(A) =

1

n

l=1

!

yi - àâë(xi)

(6)

1 - tr(S)/n

 

soit minimal. S est une matrice appelée le lisseur et àâë(xi) est l' ajustement au point xi. Ce critère fonctionne comme le critère Ordinary Cross Validation (OCV) : le model est ajuste aux données avec une observation en moins. Ensuite, on mesure la différence carrée entre la valeur du point ignoré et la prévision de ce point par le modèle. Le processus est répété pour chacune des observations. On calcule la différence moyenne entre le modèle (ajuster pour toutes les observations à l'exception d'une observation) et les points ignorés. Enfin, on cherche à minimiser cette différence moyenne. L'idée est que si le modèle est un peu trop lisse ou très peu lisse, il ne pourra pas faire une bonne prédiction de l' observation ignorée dans le processus d'ajustement. La différence entre OCV et GCV est que le critère GCV remplace les éléments de la diagonale du lisseur par leur valeur moyenne, tr(S)/n qui est plus facile à calculer. Il faut enfin noter que pour un grand nombre d'observations, les estimateurs MCOLP sont asymptotiquement sans biais et de variance minimale (Lin et R. J. Carroll, 2000).

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Aux âmes bien nées, la valeur n'attend point le nombre des années"   Corneille