WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Scoring crédit: une application comparative de la régression logistique et des réseaux de neurones

( Télécharger le fichier original )
par Fred NTOUTOUME OBIANG-NDONG
Université Cheikh Anta Diop (UCAD) - Master Methodes Statistiques et Econometriques 2006
  

Disponible en mode multipage

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

UNIVERSITE CHEIKH ANTA DIOP

FACULTE DES SCIENCES ECONOMIQUES ET DE GESTION

CENTRE DE RECHERCHE ET DE FORMATION POUR LE DEVELOPPEMENT ECONOMIQUE ET SOCIAL (CREFDES)

Année Universitaire 2006-2007

Mémoire de fin d'études pour l'obtention du diplôme de :

MASTER II Professionnel de

METHODES STATISTIQUES & ECONOMETRIQUES

Scoring du risque de crédit des PME par la modélisation

statistique et l'intelligence artificielle chez l'UMECUDEFS :

Une application comparative de la Régression Logistique et des Réseaux de Neurones

Présenté par :

Fred NTOUTOUME OBIANG-NDONG

Encadré par :

Octave JOKUNG NGUENA,

Ph. D. en Finance

HDR, 3e cycle en Mathématiques

Professeur à l'Université de Lille, et à l'EDHEC Business School

Fodiyé Bakary DOUCOURE

Ph. D. en Statistiques

Maître en Econométrie

Maître Assistant à l'Université Cheikh Anta Diop de Dakar

REMERCIEMENTS

Mes remerciements vont à l'endroit des personnes suivantes, qui ont de près ou de loin contribué à l'aboutissement de ce travail de recherche :

· DIEU le Tout Puissant ;

· Monsieur et Mme OBIANG-NDONG mes chers parents;

· Monsieur Octave JOKUNG NGUENA, mon Directeur Général ;

· Monsieur Wade, Directeur Général de l'UMECUDEF, associé de Babacar Mbaye ;

· Messieurs Bouna NIANG, Fodiyé Bacary DOUCOURE et Pape NGOME de l'université Cheikh Anta Diop (UCAD) de Dakar ;

· Mes frères et amis parmi lesquels Francis Mba Zue ;

· Mlle Ingrid Liliane Mengue Me Doumbeneny.

TABLE DES MATIERES

REMERCIEMENTS II

TABLE DES MATIERES III

LISTE DES TABLEAUX VI

LISTE DES FIGURES & GRAPHIQUES VIII

RESUME ANALYTIQUE IX

INTRODUCTION 1

PREMIERE PARTIE : CADRE DE REFERENCE 3

CHAPITRE IER : REVUE DE LA LITTÉRATURE 4

I/ Généralités sur le Scoring 4

1.1. Définition, Fondements historiques et théoriques 4

1.2. Les principales techniques de crédit scoring  6

1.3. L'utilisation des scores de risque 9

II/ Généralités sur la régression logistique 10

2.1. Définition de la régression logistique binaire 10

2.2. Principes et propriétés mathématiques de la régression logistique binaire 10

III/ Généralités sur les réseaux de neurone 12

3.1. Définition et historique des réseaux de neurone 12

3.2. Principes et propriétés mathématiques des réseaux de neurones 12

3.3. Mode et règles d'apprentissage des réseaux de neurones 14

3.4. Les principaux réseaux de neurone 15

IV / Enseignements de la revue de littérature 16

4.1- Les limites du Scoring 16

4.2- Les limites de la régression logistique 16

4.3- Les limites des réseaux neuronaux 17

CHAPITRE II : PROBLÉMATIQUE GÉNÉRALE 18

I/ Problématique 18

1.1. Contexte et justification de l'étude 18

1.1.1) Le contexte socio-économique, institutionnel, sectoriel et technologique 18

1.1.2) La justification pour les managers, les décideurs politiques

et les chercheurs 20

1.2. Problème de recherche et résultats attendus 21

II/ Cadre Conceptuel 23

2.1. Définition des concepts 23

2.2. Objectifs de recherche 26

2.3. Hypothèses et indicateurs 26

2.3.1) Hypothèses de recherche et cadre opératoire 26

2.3.2) Outils de collecte, sources d'information et difficultés rencontrées 28

III/ Cadre de l'étude : présentation de l'UMECUDEFS 29

3.1. Historique et Activités 29

3.2. Structure organisationnelle 29

3.3. Caractéristiques de l'activité 30

DEUXIEME PARTIE : METHODOLOGIE ET ANALYSE DES RESULTATS 31

CHAPITRE III : MÉTHODOLOGIE 32

I/ Les préalables au Scoring: Collecte et préparation des données 32

1.1. L'échantillon 32

1.2. Les paramètres analysés 32

1.3. Le traitement des données 32

II/ Le protocole de recherche 33

2.1. Le protocole général 33

2.2. Le protocole de la réduction des variables par l'analyse factorielle 34

2.3. Le protocole d'expérimentation par les réseaux de neurone 35

2.3.1) Le réseau utilisé: Perceptron multicouches (PMC) 35

2.3.2) Les paramètres 35

2.3.3) Apprentissage et généralisation 35

2.4. Le protocole d'expérimentation par la régression logistique 36

2.4.1) Génération des modalités discriminantes 36

2.4.2) Estimation du modèle par le maximum de vraisemblance 36

2.4.3) Test de significativité globale (Evaluation de la calibration du modèle :

le test de Hosmer et Lemeshow) 36

2.4.4) Evaluation du pouvoir discriminant du modèle : sensibilité, spécificité 37

CHAPITRE IV : PRÉSENTATION & ANALYSE DES RESULTATS DES

CLASSEMENTS PREDICTIFS 38

I/ Résultats de l'Analyse Factorielle des Correspondances Principales 38

1.1. Dimensions de la solution et valeurs propres (inerties) 38

1.2. Qualité de représentation (Fator Analisys Communalities) 41

1.3. Les variables explicatives retenues 42

II/ Résultats économétriques de la modélisation par régression logistique 43

2.1. Génération des modalités « Bon payeur » et « mauvais payeur » 43

2.2. Spécification du modèle logit et estimation des paramètres prédictifs 44

2.3. Qualité du modèle (Test de Significativité globale) 47

2.4. Test de Hosmer-Lemeshow (test d'ajustement du modèle) 48

2.5. Qualité de prédiction du modèle (performance de classification) 49

2.6. Discussions sur les déterminants du risque de crédit du modèle Logistique 50

2.6.1) Probabilité de non-remboursement et âge du dirigeant de la PME  50

2.6.2) Probabilité de non-remboursement et Niveau de Revenu

du dirigeant de la PME 51

2.6.3) Probabilité de non-remboursement et Durée d'existence de la PME 52

2.6.4) Probabilité de non-remboursement et Valeur de la garantie proposée 52

2.6.5) Probabilité de non-remboursement et Montant du crédit Octroyé  53

2.6.6) Probabilité de non-remboursement et sélection adverse  53

2.6.7) Probabilité de non-remboursement et Respect des échéances  54

2.7. Simulations sur le modèle logistique 55

III/ Résultats de la modélisation par réseaux de neurones 57

3.1. Identification des données en entrée et en sortie. 57

3.2. La fixation des paramètres du réseau & apprentissage 59

3.3. Les résultats de la modélisation par réseaux de neurones 61

3.4. Le réajustement de la structure du réseau de neurones et les résultats 62

IV/Comparaison des modèles logistique et neuronal 62

4.1. Comparaison des matrices de confusion (pourcentage de classement prédictif) 62

4.2. Choix du modèle de scoring final 63

TROISIEME PARTIE : RECOMMANDATIONS 64

CHAPITRE V : RECOMMANDATIONS 65

I/ Recommandations pour une utilisation du modèle de score 65

1.1. Implémentation informatique 65

1.2. Formation des utilisateurs du modèle de score 65

1.3. Suivi ponctuel par évaluation des utilisateurs 65

1.4. Suivi en continue par tableau de bord 66

II/ Recommandation sur les aspects organisationnels de l'UMECUDEFS 67

CONCLUSION 68

BIBLIOGRAPHIE XI

Pour l'analyse des données XI

Pour le scoring XII

Pour la régression logistique et les réseaux de neurones XII

Webographie XIII

ANNEXES XIV

LISTE DES TABLEAUX

Tableau 1 : L'histoire du scoring crédit en 10 dates 5

Tableau 2 : Comparatif des principaux modèles de Scoring 7

Tableau 3 : Objectifs opérationnels de notre étude 26

Tableau 4 : Présentation du cadre opératoire 28

Tableau 5 : Les 212 entreprises de l'échantillon 32

Tableau 6 : Descriptif des variables initiales 33

Tableau 7 : Fichier de syntaxe de l'analyse factorielle sous SPSS 39

Tableau 8 : Variance expliquée totale (Eigenvalues) 40

Tableau 9 : Qualité de représentation des variables 41

Tableau 10 : Matrice des composantes 42

Tableau 1 1 : Les variables explicatives retenues apres l'AFC 43

Tableau 12 : Codage de la varible dépendante (Y) 43

Tableau 13 : Récapitulatif du traitement des observation 45

Tableau 14 : Estimation des paramètres du modèle logistique 46

Tableau 15 : Récapitulatif des étapes de la régression logistique 47

Tableau 16 : Test de Log vraisemblance 48

Tableau 17 : Test de Hosmer-Lemeshow 48

Tableau 18 : Performances de classification du modèle logit 49

Tableau 19 : Signe des coefficients et significativité 50

Tableau 20 : Test du Khi Carré REM3MOIS & AGE 51

Tableau 21 : Test du Khi Carré REM3MOIS & NIVREV 51

Tableau 22 : Test du Khi Carré REM3MOIS & DUREEXIX 52

Tableau 23 : Test du Khi Carré REM3MOIS & VALGAR 53

Tableau 24 : Test du Khi Carré REM3MOIS & MONTANT 53

Tableau 25 : Test du Khi Carré REM3MOIS & DEMOCT 54

Tableau 26 : Test du Khi Carré REM3MOIS & DIFDEMRE 55

Tableau 27: Caractéristiques du réseau neuronal PMC utilisé 58

Tableau 28: Matrice de confusion avec marge

(avec 2 neurones dans la 2e couche cachée) 61

Tableau 29: Performances de classement du réseau de neurones

(avec 2 neurones dans la 2e couche cachée)

Tableau 30: Résultats de la modélisation neuronale

(avec 1 neurone dans la 2e couche cachée) 62

Tableau 31: Comparaison des pouvoirs discriminants 63

Tableau 32 : Tableau de Bord de suivi du fonctionnement du score 66

Tableau 33 : Tableau de Bord de suivi de l'utilisation du score 67

LISTE DES FIGURES

& GRAPHIQUES

Figure 1: Les propriétés de la régression logistique 11

Figure 2: Schéma d'un neurone formel 13

Figure 3: Les principaux modèles de réseaux de neurones 15

Figure 4: Organigramme de l'UMECUDEFS 30

Figure 5 : Schéma du protocole général de recherche 33

Figure 6: Graphique des valeurs propres 40

Figure 7: Procédure d'estimation du modèle logistique sous SPSS 44

Figure 8: Choix de la méthode logistique

« Descendante par rapport de vraisemblance » 45

Figure 9 : Simulation sur modèle de scoring logistique 56

Figure 10: Structure générale du réseau neuronal PMC utilisé 58

Figure 11: procédure de définition du modèle neuronal sous SPAD 59

Figures 12: Procédure de fixation des paramètres du modèle neuronal sous SPAD 60

RESUME ANALYTIQUE

Notre étude avait pour but de proposer à l'UMECUDEFS, qui est une Institution de Microfinance sénégalaise, un modèle de scoring-crédit afin d'améliorer la qualité de son portefeuille client, et plus généralement sa gestion opérationnelle. Pour ce faire nous nous sommes basés sur l'hypothèse centrale selon laquelle en dehors même des indicateurs et ratios purement comptables et financiers, d'autres variables d'ordres démographique, socioculturel, ou liées aux conditions d'octroi du crédit lui-même, peuvent expliquer le risque de contrepartie des PME sénégalaises opérant dans l'informel. Ce d'autant plus que pour cette frange de clients qui représente 80% du tissu industriel au Sénégal, les données comptables et financières rendant compte de leur volume d'activité demeurent rarement fiables, sinon inexistantes.

Partant de cela, notre stratégie de recherche s'est basée sur la mise en compétition de deux méthodes de discrimination prédictive, très robustes, l'une appartenant à la famille de la modélisation statistique (régression logistqiue) et l'autre à la famille de l'intelligence artificielle (réseaux de neurones). L'idée étant, en dehors de l'intérêt pratique de cette étude pour les dirigeants de l'UMECUDEF, de participer au débat actuel chez les chercheurs qui tente de trancher entre deux paradigmes: le constructivisme qui présuppose l'existence d'un modèle par lequel la solution est estimée, et le connexionnisme qui privilégie les résultats par apprentissage. A l'issue de notre démarche comparative, il s'agissait de sélectionner le modèle ayant les meilleures performances prédictives, afin de constituer l'hyperplan ou l'équation de la grille de score.

Les résultats de notre data mining se sont appuyés sur une base de données reconstituée par les agents de crédit de l'UMECUDEFS. Cette base portait sur 212 PME ayant sollicité et obtenu un crédit en 2005, 2006 et 2007. Une analyse factorielle (analyse en composantes principales sur données recodées) nous ayant permis de réduire la dimension des données de départ, nous avons poursuivi l'étude par une estimation de la probabilité de non remboursement des PME via la méthode du maximum de vraisemblance (maximum likelihood). L'équation de régression qui en a résulté nous a permis de retenir 7 variables comme étant réellement significatives dans la probabilité de non remboursement. En l'occurrence, ces variables sont l'age du dirigeant de la PME, son niveau de revenus, la durée d'existence de l'entreprise, la valeur de la garantie proposée, le montant du crédit octroyé, la sélection adverse des micropreteurs et le non respect des échéances qui met le doigt sur le suivi des dossiers. Après les tests statistiques nécessaires et les simulations de validation, nous avons enregistré un taux de prédiction de plus de 93% pour le modèle logistique.

A contrario, le modèle de prédiction neuronale, basé sur un réseau de type perceptron multicouches et sur un fonctionnement par rétroprogation du gradient de l'erreur, nous a fourni un taux de prédiction de 91%. Pourtant la structure du réseau a du être réajusté après un premier essai peu concluant, par soustraction d'un des neurones de la deuxième couche cachée. Les résultats prédictifs issus de la méthode par apprentissage sont restés malgré tout moins robustes (échantillon trop faible ?), que ceux issus de la méthode par estimation. Nous avons donc conclu à la supériorité du modèle logistique, que nous avons in fine gardé comme celui devant faire fonctionner notre grille de score.

Enfin, notre étude s'est achevée en recommandant le lancement du scoring-crédit à l'UMECUDEFS pour un premier test de 3 mois, et sous interface EXCEL dans l'immédiat, en attendant une implémentation informatique plus poussée. Ce lancement expérimental serait accompagné par un suivi ponctuel et continue des performances du score par tableau de bord.

Introduction

Depuis qu'elles existent les banques tentent de lutter contre le risque de contrepartie. Dans leur rôle d'intermédiation entre les agents en excédent de liquidité et les agents en besoin de liquidité, les banquiers ont presque toujours été préoccupés par les risques d'asymétrie de l'information des demandeurs de crédit. Le véritable enjeu étant de prévoir, pour une durée déterminée, la probabilité de remboursement d'un prêt. Ainsi au fil du temps, et conscients des risques encourus, les banquiers ont développé un certain nombre de techniques dont le but consistait à minimiser l'incertitude liée au niveau de défaillance de chaque demandeur de crédit. C'est dans ce contexte que le scoring ou précisément crédit-scoring est né aux USA au début du XXe siècle, comme instrument d'aide à la décision de crédit par la gestion et l'analyse systémique de l'information.

En effet, au coeur du risque de défaillance de crédit se situe la question épineuse et toujours contemporaine de l'information, de plus en plus massive, d'origines de plus en plus nombreuses, et de son interprétation. Ces incertitudes sont plus profondes dans le contexte des pays africains, où l'information aussi qualitative que quantitative sur les emprunteurs fait souvent défaut. Le « tout numérique » constaté dans les pays développés avec notamment au plan bancaire l'utilisation généralisée de la carte à puce, permet aux établissements de crédit du Nord d'accéder à une qualité et à une quantité d'informations absolument inédites. De plus la circulation et l'analyse de ces données reste exacerbée par le world wide web ou la toile mondiale communément appelée internet. Ceci alors qu'au contraire en Afrique, l'accroissement de la fracture numérique, de même que l'inaccessibilité du plus grand nombre au système bancaire ne permettent de rendre suffisamment compte ni des flux physiques et financiers, ni des informations y relatives entre acteurs économiques de façon à servir de base aux banquiers. Ce d'autant plus qu'une très grande part de l'économie africaine évolue dans l'informel. Les risques d'aléa moral résultant de ces incertitudes sont à l'origine d'un certain rationnement du crédit.

L'une des conséquences de ce rationnement du crédit, toujours d'actualité en Afrique, a d'ailleurs été de favoriser l'émergence d'un nouveau type de structures d'intermédiations financières. Celles-ci sont plus souples et moins exigeantes que les banques classiques, en plus d'être organisées sur la base d'une « solidarité mutualiste » : les Institutions de Microfinance (IMF), encore appelées Systèmes Financiers Décentralisés (SFD) du fait de leur proximité avec les populations défavorisées. Leur objet principal est donc de permettre aux couches de citoyens (ou d'entreprises) n'ayant pas accès aux services et produits du système bancaire classique d'avoir tout de même accès aux services financiers de base que sont l'épargne et le crédit.

Au Sénégal, les SFD connaissent un important développement depuis la fin des années 80, suite à la crise du système bancaire classique intervenue quelques années plus tôt. Aujourd'hui, on compte près de 800 structures financières décentralisées reconnues (mutuelles de base, groupements d'épargne et de crédit et structures signataires de convention). Ces structures offrent des services et produits financiers à des populations actives à divers niveaux et secteurs de l'économie nationale, contribuant ainsi à la croissance économique et à la lutte contre la pauvreté. Mais malgré leur développement, les IMF sénégalaises n'échappent pour autant pas à l'une des contraintes majeures auxquelles continuent d'être confrontées les banques dites classiques : le risque de contrepartie, encore appelé le risque de crédit. Pour le cas spécifique de la microfinance en effet, le dilemme vient du fait que les SFD souffrent de leur propre objet, qui consiste à faciliter l'accès des produits financiers aux plus pauvres (ou aux plus modestes des PME). Or cette cible est justement celle qui présente le moins de garanties quant au remboursement d'un crédit. La mauvaise qualité du portefeuille de crédit est de ce fait l'un des premiers écueils au développement des IMF sénégalaises.

Ainsi, l'intérêt d'étudier les facteurs qui déterminent le remboursement ou non d'un crédit à court terme, chez les PME, est de pouvoir développer un système de SCORING, ou d'évaluation du risque avant l'accord du crédit. En réponse aux problématiques réglementaires et opérationnelles de gestion du risque, les entreprises de banque dont les IMF, ont l'obligation de mettre en place une politique de cotation sur l'ensemble de leur portefeuille client afin d'obtenir une évaluation en tant réel. Cette évaluation est stratégique car elle permet à l'institution financière d'immobiliser les ressources en fond propre au plus juste pour disposer par ailleurs d'un maximum de liquidité.

Le principe du scoring est basé sur une espèce de caractérisation binaire entre mauvais payeur et bon payeur, principe qui d'ailleurs n'est pas nouveau en soi puisque utilisé (plus ou moins consciemment) par les banquiers depuis toujours. L'innovation du scoring tient plutôt à l'utilisation d'une méthode ordonnée et logique, fondée sur l'octroi d'une note fournie par un ordinateur mais dont le calcul résulte d'un modèle mathématique ou algorithme. Le scoring est donc issu d'une réflexion rigoureuse et empirique, par opposition à la « méthode d'expert » qui se base sur des appréciations subjectives, parfois émotionnelles et pas toujours reproductibles. Aussi et surtout, les modèles de scoring ne sont en fait ni plus ni moins que la régression d'un comportement type effectuée au moyen de données historisées. En ce sens établir un modèle de score nécessite une base de données.

Notre étude, en s'appuyant sur une méthodologie à la fois quantitative (modélisation statistique) et qualitative (prise en compte de déterminants sociaux comme le nombre d'enfants, le niveau d'étude du chef d'entreprise sollicitant le crédit, etc.), se propose de fournir un modèle de prédiction des risques de crédit chez les clients PME à court-terme d'une IMF sénégalaise. Ce modèle sera développé à partir de l'intelligence artificielle (réseaux de neurones) et de la modélisation mathématique (régression logistique). A terme, le système d'estimation attendu permettra aux gestionnaires et aux analystes crédit de prévoir, avec un très bon seuil de confiance, le niveau de risque lié à chaque nouveau demandeur de crédit.

Pour ce faire, trois phases seront proposées dans le présent mémoire. La première servira à poser les fondements des théories de scoring et de data mining, en cernant le sujet grâce à un cadre de référence. Ce sera l'occasion d'une brève revue de littérature sur la régression logistique et sur les réseaux de neurone, et d'une précision sur la problématique qui soutend l'étude. Dans une deuxième phase, la méthodologie de scoring par le data mining utilisée sera exposée, ainsi que les résultats qui auront été obtenus par nos deux modèles (logistique et neuronal). Après avoir procédé à l'analyse desdits résultats à l'aide des tests statistiques nécessaires, nous comparerons la robustesse des modélisations obtenues, avant de recommander une grille de score. La troisième phase nous permettra de poursuivre par des recommandations liées à une probable implémentation du modèle choisi, et à quelques autres recommandations liées aux aspects organisationnels propres à l'UMECUDEFS.

PREMIERE PARTIE 

CADRE DE REFERENCE

CHAPITRE Ier : Revue de la littérature

[The use of credit scoring technologies] has expanded well beyond their original purpose of assessing credit risk. Today they are used for assessing the risk-adjusted profitability of account relationship, for establishing the initial and ongoing credit limits available to borrowers, and for assisting in a range of activities in loan servicing, including fraud detection, delinquency intervention, and loss mitigation [...]

Alan GREENSPAN, U.S. Federal Reserve Chairman, in October 2002

Speech to the American Bankers Association1(*)

Un des problèmes principaux auxquels font face les banques en prêtant de l'argent c'est leur incapacité à déterminer avec certitude si le client va honorer ses engagements et rembourser l'emprunt en totalité, ou s'il va simplement faire défaut. Le scoring a été développé dans cette optique, avec des outils de plus en plus pointus.

Cette sous-partie présente quelques généralités fondamentales sur le scoring, nous permettant d'en préciser les principaux développements théoriques, de différencier les différents types de score retrouvés dans la littérature bancaire, et de brosser quelques avantages à l'utilisation du score de risque, objet de notre étude. Par la suite, les fondements des techniques de modélisation statistique (Régression logistique) et d'intelligence artificielle (Régression neuronale) que nous avons choisi d'éprouver seront exposés, afin d'en retenir les caractéristiques et propriétés principales.

I/ Généralités sur le « credit scoring ».

1.1. Définition, Fondements historiques et théoriques

Qu'est ce que le crédit scoring ?

Les risques auxquels font face les banques sont de nombreux ordres. G. Fong & A. O. Vasicek (1997)2(*) ont listé 11 risques dont les risques de marché, d'option, de liquidité, de paiement anticipé, de gestion et d'exploitation, de gestion, les spécifiques, ceux liés à l'étranger et le risque de crédit. Seul ce dernier encore appelé risque de contrepartie retiendra notre attention.

Dans la gestion du risque lié au crédit bancaire, le crédit scoring, ou scoring crédit, est compris selon R. Anderson (2007) comme étant le recours aux modèles statistiques en vue de transformer des données (qualitatives, quantitatives) en indicateurs numériques mesurables à des fins d'aide à la décision d'octroi ou de rejet de crédit. 3(*) L'objectif du crédit scoring est dans ce sens de pouvoir établir une différenciation entre des individus d'un même ensemble, pour l'identification des probabilités de défaillances associable à chacun d'eux en fonction de certains facteurs. La plus simple différenciation à l'origine est une catégorisation binaire entre « bons payeurs » d'un coté, et « mauvais payeurs » de l'autre. Stéphane Tufféry (2005) définit d'ailleurs cette catégorisation comme le score de risque, ou la probabilité pour un client [nouveau ou ancien] de rencontrer un incident de paiement ou de remboursement4(*).

Le scoring peut cependant revêtir plusieurs définitions en fonction du but pour lequel il lui est fait recours. Notamment, le scoring est très utilisé en marketing, dans le Customer Relationship Management (CRM). On note aussi les scores d'appétence, de recouvrement, etc. Toutefois, d'autres théoriciens du scoring pensent qu'il n'y a pas seulement scoring que sur la base de méthodes statistiques et de probabilités. M. Schreiner (2002) fait par exemple remarquer utilement que les démarches de scoring peuvent être menées sur une base empirique (subjective), c'est-à-dire évaluer plus ou moins intuitivement les liens entre le passé et le futur sur la base d'une simple lecture pratique de l'expérience.5(*)

Au plan historique, bien que le crédit scoring ait été pour la première fois utilisé dans les années 1960 aux USA, ses origines remontent en fait au début du XXe siècle, lorsque John MOODY publia la première grille de notation pour ses trade bonds (obligations commerciales). Brièvement, nous présentons les 10 dates clés du scoring crédit dans le tableau ci-dessous.

Tableau 1: L'histoire du scoring crédit en 10 dates

Dates

Evènements

2000

av. JC

1ere utilisation du crédit en Assyrie, à Babylone et en Egypte

1851

1ere utilisation de la notation (classement) crédit par John Bradstreet, pour ses commerçants demandeurs de crédit, USA

1909

John M. Moody publie la 1ere grille de notation pour les obligations commerciales négociées sur le marché marché, USA

1927

1er « crédit bureau » crée en Allemagne

1941

David Durand professeur de Gestion au MIT écrit un rapport, et suggère le recours aux statistique pour assister la décision de crédit, USA.

1958

1ere application du scoring par American Investments

1967-70

Altman crée le « Z-score » à partir de l'analyse discriminante mutivariée.

Réglementation des « crédits bureaux » par le credit reporting act, USA

1995

L'assureur d'hypothèques Freddy Mac & Fannie Mae adopte le crédit-scoring, USA

2000

Moody's KMV introduit le RiskCalc pour le scoring des ratios financiers (financial ratio scoring - FRS)

2004

Bâle II recommande l'utilisation des méthodes statistiques de prévision du risque de crédit

Source : tableau inspiré de Rayon Anderson, « The crédit scoring Toolkit »,

Oxford University Press, 2007, P. 28

Il faut cependant noter que le crédit scoring ne constitue pas la seule voie à ce jour de gestion du risque de crédit. Depuis quelques années, l'émergence de produits financiers dérivés permettant une protection contre le risque de défaut, ou encore, une protection contre une augmentation des probabilités de défaut pouvant être mesurées par l'écart de crédit. Il s'agit notamment des options (options sur écart de crédit, option sur le défaut), des contrats à terme sur l'écart de crédit et des credit default swaps.

1.2. Les principales techniques de crédit scoring 

Les techniques ou méthodologies utilisées dans la littérature pour mettre en place des modèles de scoring sont assez nombreuses, à cause des systèmes de crédit scoring qui sont eux-mêmes inspirés par de multiples besoins.

Selon A. Saunders & L. Allen (2002)6(*) les systèmes de crédit scoring peuvent être retrouvés dans plusieurs types d'analyse de crédit, depuis le crédit de consommation jusqu'aux prêts commerciaux. L'idée centrale en effet ne varie point, puisqu'il s'agit d'identifier dans un premier temps les facteurs qui déterminent la probabilité de défaut, et dans un second temps de pondérer leurs « poids » dans un score quantitatif. Ces systèmes sont mis en place, selon la même source, à partir de quatre principales formes de modélisation multivariée :

· le scoring par le modèle linéaire

· le scoring par le modèle logit

· le scoring par le modèle probit

· le scoring par le modèle d'analyse discriminante

M. Schreiner (2002)7(*) utilise principalement, dans une étude récente sur les IMF, des techniques de classement et de prédiction par « arbre de décision ». Ces techniques permettent de détecter des critères à même de répartir les individus d'une population en n classes (souvent n=2) prédéfinies. M. Schreiner distingue de ce fait :

· le scoring de l'arbre à 4 branches, qui corrèle le taux de remboursement et le croisement de deux facteurs d'analyse : le sexe de l'emprunteur et le fait que le prêt soit un premier prêt ou un renouvellement ;

· le scoring de l'arbre à 19 branches, qui prend en considération un beaucoup plus grand nombre de caractéristiques de la candidature du client de l'IMF ( le type de prêt ou le sexe du client, mais aussi l'âge du client, les éventuels retards antérieurs, le type de garanties ou même le nombre de lignes téléphoniques ).

Aux techniques présentées ci-dessus, S. Tuffery (2007)8(*) ajoute, en considérant les techniques de classement et de prédiction dans leur ensemble comme potentiel outil de scoring :

· le scoring par réseaux de neurones

· le scoring par »support vector machine » (SVM)

· le scoring par algorithmes génétiques

· le scoring par système d'experts

Une analyse approfondie de ces approches est disponible dans Caouette, Altman & Narayanan (1998), Sanders (1997), ainsi que dans S. Tuffery (2007). Toutefois, nous accorderons une attention particulière à trois modèles cités supra : le modèle logit, les réseaux de neurones, et l'analyse discriminante. Les deux premiers nous intéresseront plus bas car faisant l'objet du présent mémoire, tandis que le modèle d'analyse discriminante, le plus utilisé dans la littérature, mérite d'être exploré à travers ses principales applications en score.

L'analyse discriminante multivariée (ADM) est une technique statistique qui permet de classer des observations dans des sous-groupes homogènes fixés à priori. L'ADM consiste à réduire la dimension du plan dans lequel on travaille en faisant une projection d'un point représenté dans un espace de dimension N, dans un plan de dimension 1 par exemple. Elle traite les variables explicatives qualitatives binaires: pauvre/riche, bon client/mauvais client. La plupart des modèles de crédit-score ont été mis au point à partir de l'ADM. (cf tableau) :

Tableau 2 : Comparatif des principaux modèles de Scoring

 

« Z Score »

de Altman (1969)

Score de Conan Holder (1979)

Score Banque de France (BDFI 1995)

Score calculé dans le présent mémoire (par Fred Ntoutoume)

Méthode de prévision utilisée

Analyse discriminante

(méthodes paramétriques)

Analyse discriminante

(méthodes paramétriques)

Analyse discriminante

(méthodes paramétriques)

-Régression logistique

(méthodes paramétriques)

-Réseaux de neurones

(méthodes non-paramétriques)

Principe de la méthode

Classification des variables dans des groupes définis à l'avance

Classification des variables dans des groupes définis à l'avance

Classification des variables dans des groupes définis à l'avance

Double modélisation, comparaison des résultats issus des deux modèle l'un de classification l'autre de classement

Nombre de Variables mesurée dans l'élaboration du score

05 Variables

§ X1=  fonds de roulement / actif total

§ X2 = bénéfices non répartis / actif total

§ X3 = BAII / actif total

§ X4 = valeur marché des fonds propres / valeur comptable de la dette

§ X5 = ventes / actif total

05 variables

§ R1 = Excédent brut d'exploitation / Total des dettes

§ R2 = Capitaux permanents / Total de l'actif

§ R3 = Réalisable et disponible / Total de l'actif

§ R4 = Frais financiers / CA HT

§ R4 = Frais financiers / CA HT

§ R5 = Frais de personnel /valeur ajoutée

08 variables

§ X1=Frais Financiers/ EBE

§ X2= Ressources Stables/Actif Economique

§ X3= CA/Endettement

§ X4= EBE/ CA HT

§ X5= Dettes Commerciales/ Achats TTC

§ X6= Taux de variation de la Valeur Ajoutée

§ X7= (Stocks + Clients - Avances Clients)/ Production TTC

§ X8= Investissements Physiques/ Valeur Ajoutée

20 variables* réparties en 6 axes prédicteurs :

1-données démographiques du dirigeant

2-expérience passée du dirigeant en matière de crédit

3-forme et activité de l'entreprise

4- garanties

5-indicateurs temporels

6-montant de la demande de crédit

(*)le détail des 20 variables est fourni en annexe.

Types de variables

Quantitatives

Quantitatives

Quantitatives

Quantitatives

Qualitatives

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

S'il fallait ainsi faire la revue des principaux scores qui ont vu le jour depuis une quarantaine d'années, nous commencerons par évoquer le « Z-score » d'Altman mis au point en 1967. Sur un échantillon de 66 entreprises, 33 ayant connu la faillite et 33 ayant survécu, Altman utilise l'analyse discriminante multivariée comme technique statistique. La fonction discriminante de Altman transforme grâce à l'ADM la valeur des variables individuelles (qui sont les ratios) en un score discriminant appelé "Z-score" qui permettra de classer un client dans le groupe faillite, ou non faillite.  Sa fonction discriminante finale est:

· Z score = 1,2xX1 + 1,4xX2 + 3,3xX3 + 0,6xX4 + 0,9xX5

Les coefficients du score étant déterminés, il ne reste plus qu'à remplacer les variables (X1, X2, X3, X4 et X5...) par leur valeur pour chaque entreprise à évaluer. Plus le score Z est faible, plus le risque de défaut augmente. D'après l'étude de base de Altman, si >Z2,99 le client ne risque pas de faire défaut et si Z=1, 81 le client risque de faire défaut.

Après Altman, le score de CONAN et HOLDER (1979) est venu dix ans plus tard enrichir les modèles de scoring développés auparavant. Comme le « z score » le score calculé par Conan et Holder est une régression par analyse discriminante. Par référence au bilan financier, les deux chercheurs ont étudié les valeurs de 31 ratios applicables à 190 PME et ont obtenu la fonction-score suivante :

· Z = 0,24 R1 + 0,22 R2 + 0,16 R3 - 0,87 R4 - 0,10 R5

Plus la valeur du score Z est élevée, plus le risque de défaillance est faible.

Le score sectoriel AFDCC10(*) (2008) est un autre outil d'aide à la décision, qui probabilise le risque de défaillance d'une entreprise à partir de données comptables issues des liasses fiscales. Il débouche sur une note comprise entre 1 et 20. AFDCC 2008 accorde une place plus importante aux liquidités et aux cash flows que les précédent scores élaborés en 1997 et 1999.

Le score de la Banque de France (BDFI 1995) est aussi une méthodologie célèbre de prévision des risques de défaillances par l'analyse et la prévision statistique. Les scores opérationnels (utilisables par les banques et les entreprises) de première génération ont été mis au point par la Banque de France en 1982. Le score BDFI 1995, s'intéresse plus particulièrement à l'endettement financier (importance, structure et coût de l'endettement). La formule de ce score se présente comme suit :

· 100Z = - 1,255 X1 + 2,003 X2 - 0,824 X3 + 5,221 X4 - 0,689 X5 - 1,164 X6 + 0,706 X7 + 1,408 X8 - 85,544

Après tout ce qui précède, on ne recense que de très rares études de scores totalement conçus pour l'Afrique. L'un des tout premiers est dû à Viganô (1993) qui a construit un modèle de crédit scoring pour la Caisse Nationale du Crédit Agricole (CNCA), au Burkina Faso. Une étude plus récente a toutefois été effectuée par Diallo (2006)11(*), pour le compte d'une Mutuelle malienne, et a abouti à la construction d'un score via l'analyse discriminante et la régression logistique.

Ce pendant toutes ces études se sont faites sur la base d'hypothèses sur les déterminants du non remboursement.

Or les entreprises africaines, à n'en point douter, ont des facteurs de risques sensiblement différents de ceux de leurs consoeurs occidentales. Par exemple, les pesanteurs culturelles, les données socio-économiques, les charges familiales sont des éléments qui peuvent influer de façon significative dans l'érosion des capacités de remboursement pour les dirigeants d'une PME. Malheureusement, ces facteurs "qualitatifs" sont dans la plupart des cas mis en rade dans les scores jusqu'à présent conçus. Le score que nous proposons s'inscrit dans cette rupture.

1.3. L'utilisation des scores de risque

La littérature de ces dernières années s'accorde à dire qu'il existe en général 5 types de scores (S. Tuffery, 2007, pp. 401-402) :

· Le score d'appétence peut être définit comme la probabilité pour un client d'être intéressé par un produit ou un service donné.

· Le score de risque est la probabilité d'un client avec un compte courant, une carte bancaire, une autorisation de découvert ou un crédit, de rencontrer un incident de paiement ou de remboursement.

· Le score d'octroi (ou score d'acceptation) est un score de risque calculé pour un client qui est nouveau ou qui à une faible activité avec la banque. Notons qu'on peut aussi calculer un score d'octroi pour un client déjà connu, si l'on veut intégrer au calcul des éléments propres à la demande.

· Le score de recouvrement évalue le montant susceptible d'être récupéré sur un compte ou un crédit au contentieux, et peux suggérer les actions de recouvrement les plus efficaces, en évitant des actions disproportionnées pour des clients fidèles, rentables et sans véritable risque.

· Le score d'attrition est la probabilité pour un client de quitter la banque.

L'utilisation du score de risque, celui qui nous intéresse particulièrement, dans le domaine du crédit, permet d'améliorer : (i) la productivité des analyses de demande de crédit, en traitant assez rapidement les dossiers ; (ii) les possibilités de délégation en impliquant les jeunes analystes crédit ; (iii) le sentiment de sécurité des analystes crédit et des gestionnaires ; (iv) la satisfaction des clients qui voient leur demande traiter avec le maximum de diligence ; (v) l'homogénéité des décisions issues des différentes agences ; (vi) l'homogénéité des décisions issues d'un même analyste de crédit ou gestionnaire ; (vii) l'adaptation de la tarification du crédit au risque effectivement encouru, ou « pricing » ; (viii) une meilleure sécurité dans l'allocation des fonds propres, conformément aux préconisations du comité de Bâle dans la perspective du ratio Cooke, qui a fait place au ratio McDonough depuis le 1er Janvier 2008.

Par ailleurs, dans le contexte d'une amélioration de l'accès au crédit des PME, l'utilisation du score de risque permet aussi à la banque de limiter son risque de surendettement grâce à une réduction des impayés, tout en conquérant une frange de clientèle légèrement risquée pour laquelle le score permet d'adapter précisément le montant et le coût (taux d'intérêt, frais de gestion) du crédit, voire des garanties demandées, en fonction du risque encouru.

II/ Généralités sur la régression logistique

2.1. Définition de la régression logistique binaire

La régression logistique se définit selon Desjardins (2005)12(*) comme une technique permettant d'ajuster une surface de régression à des données lorsque la variable dépendante est dichotomique. Cette technique est utilisée pour des études ayant pour but de vérifier si des variables indépendantes peuvent prédire une variable dépendante dichotomique. Selon Wikipédia en outre, la régression logistique peut correspondre à une technique statistique dont l'objet est, à partir d'un fichier d'observations, de produire un modèle permettant de prédire les valeurs prises par une variable catégorielle, le plus souvent binaire, en se basant sur une série de variables explicatives continues et/ou binaires13(*). Contrairement  à  la  régression  multiple et l'analyse discriminante, la régression logistique n'exige pas une distribution normale des prédicteurs ni l'homogéneité des variances. Par ses nombreuses qualités donc, cette technique est de plus en plus préférée à l'analyse discriminante par les statisticiens et les spécialistes du scoring.

Ainsi dans le cadre du modèle linéaire généralisé, des perfectionnements ne cessent d'être apportés à la régression logistique (McFadden, prix Nobel d'économie en 2000 fut récompensé pour ses travaux à ce sujet), la confirmant comme l'une des méthodes de modélisation les plus fiables, et dont plusieurs indicateurs statistiques permettent d'en contrôler facilement la robustesse (LR ratio, R carré de McFadden, Test de Hosmer-Lemeshow).

La régression logistique est enfin largement répandue dans des domaines nombreux et divers. D'abord utilisée dans la médecine (caractérisation des sujets malades par rapport aux sujets sains par exemple), cette technique de classement et de prédiction s'est rependue dans la banque assurance (détection des groupes à risque), la science politique (explication des intentions de vote), le marketing (fidélisation des clients)..

2.2. Principes et propriétés mathématiques de la régression logistique binaire

Lorsque nous voulons modéliser une variable à réponse binaire, la forme de la relation est souvent non linéaire. On recourt alors à une fonction non-linéaire, de type logistique par exemple, en pareils cas. Le principe de la régression logistique binaire est de considérer une variable à prévoir binaire (variable cible admettant uniquement deux modalités possibles) Y = {0,1} d'une part, et p variables explicatives notées X = (X1, X2, ..., Xj),  continues, binaires ou qualitatives. L'objectif de la régression logistique est de modéliser l'espérance conditionnelle E(Y/X=x), par l'estimation d'une valeur moyenne de Y pour toute valeur de X. Pour une valeur Y valant 0 ou 1 (loi de Bernouilli), cette valeur moyenne est la probabilité que Y=1. On a donc :

E (Y/X=x) = Prob (Y=1/X=x)

Les propriétés principales de la régression logistique peuvent être exposées à travers l'exemple des deux graphiques ci-dessous (Cf. graphiques). On constate dans les deux cas de figure que la fonction logistique est monotone croissante ou décroissante, selon le signe de 1 d'une part, et que la fonction logistique est presque linéaire lorsque E(Y) est entre 0,2 et 0,8 et s'approche graduellement de 0 et 1 aux deux extrémités du support de X. Aussi, la distribution logistique est symétrique E (-Y) = 1 - E (Y), et de moyenne nulle ð2 / 6. (F. B. Doucouré, 2007).

Figures 1: Les propriétés de la régression logistique

Une autre propriété de la régression logistique est qu'elle n'exige pas que les prédicteurs (variables indépendantes) suivent une loi normale, ou soient distribués de façon linéaire, ou encore qu'ils possèdent une variance égale entre chaque groupe. La forme de courbe (en « s ») que nous remarquons par ailleurs sur les deux graphiques est appelé sigmoïde, ou courbe logistique. Si l'on suit l'expression de cette courbe, on peut écrire la fonction logistique E(Y) = pi = prob (Y=1/X=x) sous la forme:

La probabilité d'occurrence selon la formule logistique s'écrit :

Equation équivalente par transformation à :

En fait, en cherchant à expliquer la probabilité de réalisation de l'évènement Prob(Y=1/X=x), il nous faudrait une transformation de E(Y) qui étende l'intervalle de définition [0,1]. C'est le calcul des ratios de chance « odds ratio » qui permet d'envisager cette transformation. Ainsi le quotient pi /(1-pi) est appelé « odds », et la fonction f(p)=ln (pi/1-pi) est appelée « logit ».

Le fonctionnement consiste à calculer des coefficients de régression de façon itérative. En d'autres termes le programme informatique, à partir de certaines valeurs de départ pour Y0 et Y1, vérifiera si les log chances (odd ratios) estimés sont bien ajustés aux données, corrigera les coefficients, réexaminera le bon ajustement des valeurs estimées, jusqu'à ce qu'aucune correction ne puisse atteindre un meilleur résultat (Howell, 1998).

Sous ce rapport, le modèle logistique défini précédemment peut être utilisé pour :

· décrire la nature de la relation entre la probabilité espérée d'un succès pour la variable réponse (ex: probabilité d'acheter, probabilité de s'abonner) et une variable explicative X;

· prédire la probabilité espérée d'un succès étant donné la valeur de la variable X (ex: probabilité de rembourser un crédit étant donné les caractéristiques sociales, géo-marketing, etc de l'emprunteur, tel qu'est l'objet de notre présent mémoire).

Mais au cours de la dernière décennie d'autres techniques de modélisation, regroupées sous le vocable « algorithmes d'apprentissage » et initialement utilisées en bio-physiologie, ont peu à peu émergé dans les milieux académiques et professionnels pour leurs capacités de prédiction. Nous porterons notre attention sur l'une de ces techniques venue de la neurophysiologie, et de plus en plus utilisée dans le domaine du scoring : les réseaux de neurones artificiels (RNA).

III/ Généralités sur les réseaux de neurones

3.1. Définition et historique des réseaux de neurone

Pour appréhender la définition d'un réseau de neurones, nous commencerons par définir le neurone « formel ».

Le neurone formel est une modélisation mathématique visant à reprendre le fonctionnement d'un neurone biologique. Le fonctionnement de ce neurone formel est basé sur une règle de calcul assez simple : on cherche à évaluer la valeur d'une sortie y, à partir de plusieurs entrées x, qui elles mêmes sont pondérées par des coefficients appelés synapses ou poids synaptiques w. Selon cette description, chaque neurone est relié à d'autres par des connexions.

L'activation du neurone se produit lorsque celui-ci atteint un certain seuil (degré) d'activation. Cette activation est générée par les connexions qui ont pour propriété d'être excitatrices ou inhibitrices. La sommation des données reçues à l'entrée du neurone est transformée par une fonction d'activation ou fonction de sortie ö non linéaire. Ainsi, selon une définition proposée par A. Nigrin (1993)14(*), un réseau de neurones est un circuit composé d'un nombre très important d'unités de calcul simples basées sur des neurones.

Pour faire un bref historique, les réseaux de neurone ont connu leurs débuts dans les années 1943 avec les travaux de Warren Mc Culloch & Walter Pitt sur le « neurone formel ». En 1949, D. Hebb présente dans son ouvrage « The Organization of Behavior » une règle d'apprentissage. De nombreux modèles de réseaux aujourd'hui s'inspirent encore de la règle de Hebb En 1958 les travaux de Franck Rosenblatt sur « le perceptron »15(*) proposent au Cornell Aeronautical Laboratory le premier algorithme d'apprentissage permettant d'ajuster les paramètres d'un neurone. Il est à présent communément admis que le perceptron, comme classifieur linéaire, est le réseau de neurones le plus simple.

En 1969, Minsky et Papert publient le livre Perceptrons dans lequel ils utilisent une solide argumentation mathématique pour démontrer les limitations des réseaux de neurones à une seule couche. Ce livre aura une influence telle que la plupart des chercheurs quitteront le champ de recherche sur les réseaux de neurones. En 1982, Hopfield propose des réseaux de neurones associatifs et l'intérêt pour les réseaux de neurones renaît chez les scientifiques. En 1986, Rumelhart, Hinton et Williams publient l'algorithme de la rétropropagation de l'erreur, qui permet d'optimiser les paramètres d'un réseau de neurones à plusieurs couches. À partir de ce moment, la recherche sur les réseaux de neurones connaît un essor fulgurant et les applications commerciales de ce succès académique suivent au cours des années 90.

3.2. Principes et propriétés mathématiques des réseaux de neurones

Au plan mathématique, le calcul de la valeur prédite par un réseau de neurones se compose en deux principales étapes :

m

Ó wj xj

1ere étape : le calcul d'une série de combinaisons linéaires des variables explicatives, que F. Robert (1995) appelle l'entrée totale E, ou « total input » :

j=1

E = w1 x1 + w2 x2 + ... + wm xm = ( 1 )

m

Ó wj xj

Le seuil d'entrée w 0 est ensuite ajouté à la grandeur E, ce qui permet de noter :

j=1

E = w0 + ( 2 )

2e étape : Le calcul d'une sortie (le seuillage) par transformation16(*) non linéaire : un seuil w0 étant donné, la fonction à seuil ou fonction d'activation s'écrit :

f (x) = 1 si E > w 0

= 0 sinon

m

Ó wj xj - w0

Donc la sortie du neurone formel à prédire y = f (x) = f (x1, x2, ..., xm ) s'écrit :

j=1

y = f (x) = ö ( ) ( 3)

ö est la fonction d'activation non linéaire

y est la sortie du neurone (la valeur à prédire)

xj représente les valeurs d'entrée

m

Ó wj xj - w 0

wj représente les poids synaptiques (ou coeficients)

j=1

si > w0, alors y =1

m

Ó wj xj - w 0

j=1

si < w0, alors y = 0

Le neurone formel applique par conséquent {0, 1}m dans {0, 1}. D'où son nom de classifieur avec seuil d'entrées xj, coefficients synaptiques wj, et seuil w0.

Figure 2: Schéma d'un neurone formel

Variables explicatives

(Couches d'entrée)

Fonction de sortie (couche de sortie)

Fonction de sommation (couche cachée)

Poids synaptiques

x1

w1

m

Ó wj xj - w0

m

Ó wj xj

y = ö ( )

x2

w2

j=1

j=1

xm

wm

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

Les réseaux de neurones présentent les propriétés suivantes :

· ils sont universels (capables de résoudre des problèmes simples ou complexes) ;

· ils se comportent plus d'une façon adaptative que programmée ;

· Ils sont capables de fonctionner même en présence d'une information partielle ou d'une information brouillée ;

· Ils fonctionnent comme une machine de classification qui extrait les traits caractéristiques des objets  présentés lors de l'apprentissage, pour réorganiser sa connaissance en conséquence.

3.3. Modes et règles d'apprentissage du réseau de neurones (R. Ladjadj, 2002)17(*)

Nous l'avons dit, les RNA sont des algorithmes, ou un ensemble d'équations mathématiques, dont le principe de fonctionnement est schématiquement inspiré du neurone humain. Ce principe est l'apprentissage par l'expérience. Pour qu'un réseau fonctionne, on lui fournit des données en entrée qu'il doit « apprendre » à reconnaître, soit pour les classer en sous groupes homogènes (apprentissage non supervisé à des fins descriptives), soit pour les associer à une variable indicatrice de sortie (apprentissage supervisé à des fins prédictives, conformément aux objectifs du présent mémoire).

a) Modes d'apprentissage

· Le mode supervisé et le renforcement:

Dans ce type d'apprentissage, le réseau s'adapte par comparaison entre le résultat qu'il a calculé, en fonction des entrées fournies, et la réponse attendue en sortie. Ainsi, le réseau va se modifier jusqu'a ce qu'il trouve la bonne sortie, c'est-à-dire celle attendue, correspondant à une entrée donnée.


Le renforcement est en fait une sorte d'apprentissage supervisé et certains auteurs le classe d'ailleurs, dans la catégorie des modes supervisés. Dans cette approche le réseau doit apprendre la corrélation entrée/sortie via une estimation de son erreur, c'est-à-dire du rapport échec/succès. Le réseau va donc tendre à maximiser un index de performance qui lui est fourni, appelé signal de renforcement. Le système étant capable ici, de savoir si la réponse qu'il fournit est correcte ou non, mais il ne connait pas la bonne réponse.

· Le mode non-supervisé (ou auto-organisationnel) :

Dans ce cas, l'apprentissage est basé sur des probabilités. Le réseau va se modifier en fonction des régularités statistiques de l'entrée et établir des catégories, en attribuant et en optimisant une valeur de qualité, aux catégories reconnues.


b) Règles d'apprentissage

· Règle de correction d'erreurs :

Cette règle s'inscrit dans le paradigme de la retropropagation du radient. Si on considère y comme étant la sortie calculée par le réseau, et d la sortie désirée, le principe de cette règle est d'utiliser l'erreur (d-y), afin de modifier les connexions et de diminuer ainsi l'erreur globale du système. Le réseau ajuste ensuite les poids des différents noeuds. Il s'agit, comme dans une régression classique, de résoudre un problème de moindres carrés.

· Règles de Hebb

Selon Hebb « si des neurones, de part et d'autre d'une synapse, sont activés de manière synchrone et répétée, la force de la connexion synaptique va aller croissant ». Il est à noter ici que l'apprentissage est localisé, c'est-à-dire que la modification d'un poids synaptique wij ne dépend que de l'activation d'un neurone i et d'un autre neurone j.

· Règle d'apprentissage par compétitions :

La particularité de cette règle, c'est qu'ici l'apprentissage ne concerne qu'un seul neurone. Le principe de cet apprentissage est de regrouper les données en catégories.

3.4. Les principaux réseaux de neurone

Selon une classification en deux grands groupes (modèles à apprentissage supervisé et non supervisé), on peut généralement retenir 6 principaux réseaux de neurones.

Dans le groupe des RNA à apprentissage supervisé, encore dits non bouclés on distingue :

· Le perceptron monocouche

· Le perceptron multicouches (PMC)

· Les réseaux à fonction radiale de base (Radial basis fonction RBF)

Dans le groupe des RNA à apprentissage non supervisé, encore dits récurrents ou bouclés, on distingue

· Le réseau de Kohonen (ou réseau à compétition, SOM,..)

· Le réseau de Hopfield

· Les réseaux ART (Adaptative Resonance Theory)

Une description schématique de la représentation des différents réseaux de neurone est proposée ci-dessous.

Figure 3: Les principaux modèles de réseaux de neurones

Source : http://www-igm.univ-mlv.fr/~dr/XPOSE2002/Neurones/index.php?rubrique=Apprentissage

IV / Enseignements de la revue de littérature

4.1- Les limites du Scoring

Les limites d'une démarche de scoring sont nombreuses. Comme nous l'avons déjà dit plus haut, sa mise en place est souvent complexe d'un point de vue technique. De ce fait, les systèmes de scoring ne peuvent pas être mis en oeuvre par toutes les institutions financières qui le souhaitent, surtout de microfinance. Ils sont plus accessibles pour les institutions de microfinance dont les procédures d'octroi sont assez formalisées et qui ont aussi la possibilité de reconstituer des bases de données riches d'un important historique de prêts individuels.

Le principe est par ailleurs beaucoup plus adapté aux prédictions portant sur les prêts individuels; les prédictions sont beaucoup moins fiables et faciles sur les prêts octroyés à des groupes solidaires. La détermination et l'usage d'une classification qui établit des profils types de groupes est effectivement aussi délicate qu'incertaine.

Autre limite, le futur n'est pas forcément déductible du passé, ce qui reste pourtant l'un des postulats de la démarche. Les tendances s'infléchissent parfois et un environnement changeant ne répond plus aux mêmes déterminismes. Le fait que toutes les caractéristiques de la candidature du prêt et du risque ne soient pas quantifiables constitue par ailleurs une autre limite de principe.

Enfin, si les démarches de scoring prédisent le risque, elles ne disent pas forcément comment le gérer. La responsabilité des managers de l'entreprise reste entière quand il s'agit, in fine, de prendre la décision de financer ou non un prêt. En ce sens, le scoring est une sorte de « troisième voix » au sein du comité de crédit et elle ne saurait en aucun cas remplacer les agents de l'IMF. Schreiner (2002) ne manque pas d'évoquer alors le risque d'un mauvais usage du scoring si l'on s'en sert pour exclure tous les risques en évitant de prêter aux plus pauvres, et partant, en faire un outil de discrimination négative au point que le microcrédit génère plus d'exclusion qu'il ne prétend en combattre. Il insiste sur la nécessité de réfléchir sur les éléments d'une discrimination positive, sans forcément faire porter à un individu le poids des déterminismes qui sont supposés être les siens compte tenu de son appartenance à la catégorie de clients à laquelle il est intégré. Au lieu de procéder par exclusion, il s'agit alors de spécifier l'accompagnement du client supposé vulnérable.

4.2- Les limites de la régression logistique

Le modèle LOGIT est tiré de l'économétrie des variables qualitatives. La première limite de la régression logistique est qu'elle nécessite des échantillons de grande taille pour pouvoir prétendre un niveau acceptable de stabilité. Un nombre minimal de cinquante (50) observations par variables est en général nécessaire.

Une deuxième limite est que les catégories auxquelles appartiennent les variables indépendantes doivent être mutuellement exclusives et exhaustives, car un prédicteur ne peut pas appartenir aux deux groupes Y0 et Y1 à la fois. Les deux groupes sont en effet dichotomiques. Cette particularité s'avère très sensible à la multicolinéarité entre les prédicteurs, celle-ci pouvant se vérifier grâce à une matrice de corrélation. D'où la nécessité d'examiner les corrélations entre les variables prédicatrices avant de procéder à l'élaboration du modèle, afin d'éliminer celles qui semblent fortement corrélées entre elles (risques de variables redondantes).

Dans la même lancée la régression logistique présente aussi la limite de présumer que les réponses sont non reliées. Ainsi si les variables résultantes sont formées par la période de temps pendant laquelle les mesures sont prises (avant et après traitement), ou si les variables proviennent d'un groupe par couplage (chaque sujet du groupe expérimental est jumelé à un sujet du groupe contrôle), la régression logistique n'est plus licite compte tenu des risques probables de biais liés aux corrélations (Tabachnick & Fidell, 2000)18(*).

4.3- Les limites des réseaux neuronaux19(*)

Plusieurs limites dans l'utilisation des réseaux de neurones peuvent être retenues.

D'abord on mentionnera qu'il n'existe pas encore de théorie permettant de
déterminer la structure optimale d'un réseau. En particulier la détermination du nombre de couches cachées et du nombre de neurones sur chacune d'entre elles relève encore largement de l'intuition de l'utilisateur et de sa capacité à expérimenter plusieurs architectures, afin de retenir celle qui donne les résultats les meilleurs. Plus le réseau est complexe, c'est-à-dire plus il comporte de neurones cachés et de liens synaptiques, plus il est capable de reconnaître les formes qui lui sont présentées à travers l'échantillon d'apprentissage.

Mais malheureusement, l'accroissement de la complexité n'améliore pas nécessairement le taux de reconnaissance sur l'échantillon test. Il faut cependant remarquer que cette critique doit être nuancée, car plusieurs méthodes ont été proposées pour aider l'utilisateur dans cette tâche. Celles-ci s'appuient sur des techniques analytiques faisant intervenir la dimension du vecteur d'entrée, ou sur des algorithmes qui permettent soit la construction automatique pas à pas des couches cachées, soit l'élagage des connexions les moins pertinentes dans un réseau surdimensionné au départ.

Ensuite, un réseau de neurones reste encore en partie aujourd'hui une « boîte noire » de laquelle il reste difficile d'extraire les relations pertinentes entre les variables. De ce point de vue, le système n'a donc qu'un pouvoir explicatif médiocre contrairement aux systèmes experts qui sont capables de retracer le cheminement suivi pour atteindre le résultat. Pourtant, le phénomène de « boîte noire » n'est pas total puisque des analyses de sensitivité sont possibles, en faisant varier l'une des entrées pas à pas, de sa valeur minimale vers sa valeur maximale, les autres entrées du réseau restant figées à leur valeur moyenne.

Enfin, comme cela a été signalé pour ce qui est du choix de l'architecture, ces
systèmes font toujours trop largement appel à l'intuition de l'utilisateur. En particulier, l'apprentissage est guidé par des paramètres qu'il convient de régler manuellement.
Un taux d'apprentissage (paramètre réglant la vitesse de convergence de l'algorithme) trop important peut aboutir à une oscillation du système alors qu'un taux trop faible se traduira par une convergence très lente, ce qui peut se révéler prohibitif en temps de calcul.
Par ailleurs, il revient encore à l'utilisateur de choisir le point d'arrêt de l'apprentissage de façon à ce que le réseau conserve ses capacités de généralisation.

CHAPITRE II : Problematique Generale

[...] L'homme du XXIe siècle baigne dans un flot d'informations statistiques (...) dont il ne voit que l'écume sans en soupçonner les lames de fond [...]

Gilbert SAPORTA, 2007

Conservatoire National des Arts et Métiers (CNAM), Chaire de Statistique Appliquée,

in Préface of « Data Mining & Statistique Décisionnelle »20(*)

I/ Problématique

1.1. Contexte et justification

1.1.1. Le contexte socio-économique, institutionnel, sectoriel et technologique

Le contexte actuel de cette étude de data mining, en vue de l'élaboration d'un modèle prédictif des défaillances de remboursement dit « Score » chez les clients de l'UMECUDEFS, peut être appréhendé selon trois angles : le premier angle a trait à l'environnement socio-économique, le deuxième est lié à l'environnement institutionnel et politique, le troisième quant à lui, concerne l'évolution conjoncturelle du secteur de la Microfinance au niveau national et l'influence des avancées technologiques qu'il subit.

Au plan socio-économique, cette étude se fera alors que l'actualité au Sénégal est marquée par une inflation galopante des denrées de première nécessité. De 0% en 2003 ; 0,5% en 2004, 1,7% en 2005 et 2,1% en 2006, l'Agence Nationale de la Statistique et de la Démographie (ANSD) comptabilise une hausse de l'indice harmonisé des prix à la consommation de 6% entre septembre 2006 et septembre 2007. Cette augmentation généralisée et durable des prix n'est cependant pas une particularité de l'économie sénégalaise. En effet, la hausse du prix du baril de pétrole, associée à la financiarisation de l'économie mondiale, font flamber les cours du maïs, du blé, du riz, du coton,.. L'UMECUDEFS, dans ce contexte, voit sa clientèle PME-PMI directement ou indirectement touchée par les implications d'une telle inflation, dans la mesure où le coût des facteurs de production est affecté. Or l'ampleur de tels impondérables n'était pas forcément prévue dans les budgets prévisionnels.

Au plan institutionnel, cette étude se fera à l'UMECUDEFS dans le contexte du cadre réglementaire régissant l'activité des Institutions de la Micro-Finance (IMF) au Sénégal. Ce cadre est structuré autour de la loi 95-03 portant réglementation des institutions mutualistes d'Epargne et de Crédit, elle-même découlant de l'intégration au corpus juridique national de la loi PARMEC ou « Projet d'Appui à la Réglementation des Mutuelles d'Épargne et de Crédit » initiée par l'UEMOA. Aussi, les principaux objectifs de la loi PARMEC tiennent à 04 points: i) la protection des déposants, ii) la sécurité des opérations, iii)la recherche d'autonomie financière des SFD, iv)l'intégration de la finance informelle dans le cadre légal. Dans cette lancée, la loi 95-03 a été renforcée par certaines dispositions règlementaires d'accompagnement, telles que le décret d'application de la loi 97-1106 du 11 Novembre 1997, ainsi que les instructions de la BCEAO relatives aux normes et règles de gestion des structures financières décentralisées. Ce cadre institutionnel impose une plus grande rigueur de gestion des SFD, à laquelle n'échappe pas l' UMECUDEFS. C'est donc dans le sillage du deuxième objectif que s'assigne la loi PARMEC, à savoir oeuvrer à l'amélioration de la sécurité des opérations, que peut être appréhendé notre mission.

Au plan de la prévention des risques dans le secteur bancaire, le contexte est marqué par les préconisations du Comité de Bâle dans la perspective de la réforme du ratio Cooke, remplacé au 1er Janvier 2008 pat le ratio Mc Donough. En effet, bien que cette réforme ne modifie pas la valeur du ratio de solvabilité (8%), elle diversifie les risques pris en compte (en incluant les risques de taux et les risques opérationnels) et affine la méthode de pondération des risques, notamment en autorisant l'utilisation de systèmes de classification des emprunteurs ("notations internes") à partir des probabilités de défaillance prédites dans les différents types de portefeuille de la banque: souverain, interbancaire, entreprise, banque de détail (particuliers et professionnels), affacturage, titrisation et actions.

Au Sénégal, de tels systèmes de classification ne seraient en vigueur pour le moment, selon nos informations, que dans une banque (la Société Générale de Banque du Sénégal) sur une vingtaine. Le marché est ainsi quasiment vierge au plan national, dans la mesure où toutes les banques seront obligées dans un avenir proche a s'aligner sur ces normes de Bâle II.

Au plan sectoriel, la microfinance est en pleine évolution. En effet si l'on en croit les données de la Lettre de politique sectorielle, Stratégie et plan d'action 2005-2010 (Ministère des PME, de l'entreprenariat féminin et de la microfinance), le constat est clair : le secteur de la microfinance gagne du terrain. En effet le nombre d'institutions a été multiplié par 6 entre 1993 et 2003, atteignant les 620 Mutuelles d'Epargne et de Crédit. Dans la même période, le nombre de points de services (caisses de base, agences et bureaux...) est passé de 1136 à 2597; le nombre de clients/membres servis par ces institutions est passé de 313 000 à 4 millions; les dépôts collectés ont atteint 204,7 milliards FCFA; les prêts octroyés ont été multipliés par 10, passant de 19,4 milliards  à 200 milliards FCFA à fin 2003. Plus proche de nous, le seul réseau PAMECAS mobilisait 19 milliards CFA en 12 mois (2007). Aussi, le secteur est marqué par la domination de quelques réseaux de MEC. Avec le CMS, l'ACEP, l'UMPAMECAS et le REMECU, l' UMECUDEFS fait partie des principaux acteurs du système financier décentralisé au Sénégal.

Au plan technologique, cette étude aura lieu alors que tous les secteurs d'activités, de l'agroalimentaire à la banque, sont en proie au développement rapide des nouvelles technologies de communication (Internet, téléphonie mobile,..) et de traitement de l'information (entrepôts de données). La mondialisation des facteurs de production (k, W, technologie), exacerbée par les attentes plus exigeantes des clients sur la qualité des services ainsi que par une concurrence « mondialisée », a entraîné une sophistication des moyens de production, et plus particulièrement des moyens de collecte, de traitement et d'analyse de données, jusqu'à leur communication. Le secteur de la microfinance n'est pas en marge de ces évolutions, et se voit consacré de plus en plus d'applications qui sont propres à ses spécificités.

1.1.2. La justification pour les managers, les décideurs politiques et les chercheurs

L'objet de cette étude de data mining en vue de l'élaboration d'un modèle prédictif des défaillances de remboursement dit « Score » chez les clients de l'UMECUDEFS, peut revêtir un intérêt pour les managers, mais aussi pour les décideurs politiques.

Pour les managers de l'UMECUDEFS, recevoir une étude de data mining se justifie par des impératifs à la fois stratégique (réorientation/amélioration des services vers une cible particulière) et opérationnelle (réduction des impayés). En comparaison à l'évaluation implicite ou subjective, l'évaluation statistique quantifie le risque et présente de nombreux avantages potentiels. Aussi, sans prétendre à l'exhaustivité, les dirigeants de l'UMECUDEFS pourront bénéficier des attraits suivants inhérents à notre étude21(*) :

§ La quantification du risque comme probabilité. Le produit d'une évaluation statistique est une probabilité, le produit d'une évaluation subjective est un sentiment, et il est plus facile pour le microprêteur de gérer les probabilités que les sentiments.

§ La cohérence de l'évaluation statistique. Deux personnes ayant les mêmes caractéristiques auront les mêmes risques estimés. Alors que dans un système d'évaluation subjective, on pourrait obtenir des variations selon les agents de crédit responsables ou même l'humeur d'un responsable donné. La discrimination pour le sexe, l'âge ou l'ethnie n'a pas de place dans l'évaluation statistique ; les pondérations des caractéristiques sont basées sur des données historiques sans l'influence des jugements subjectifs.

§ L'explicité de l'évaluation statistique. Le procédé exact utilisé pour pronostiquer les risques avec l'évaluation statistique est connu et peut être communiqué. Par contre, l'évaluation subjective dépend d'un procédé flou que même les utilisateurs (les agents de crédit) auront du mal à expliquer.

§ La portée du nombre de facteurs évalués. Les directives des manuels de l'évaluation subjective peuvent spécifier qu'une candidature doit correspondre à certains indices financiers et d'autres règles de principes, mais contrairement à l'évaluation statistique, l'évaluation subjective ne peut tenir compte de 30 à 50 caractéristiques.

§ La réduction du temps de travail. La vertu majeure de l'évaluation statistique pour l'agent de crédit est qu'il passera nettement moins de temps au traitement des demandes de crédit, de même qu'au recouvrement.

§ L'influence sur les bénéfices financiers. Le bénéfice financier est le nombre de « mauvais » prêts qui seraient rejetés multiplié par le bénéfice financier net d'un « mauvais » prêt évité, ôté au nombre de « bons » prêts qui seraient rejetés multiplié par le coût financier net d'un « bon » prêt perdu. En effet, la pratique a montré qu'il est bien plus grave d'octroyer un prêt à une personne qui ne le remboursera pas (faux positif - erreur de type 1) que de ne pas octroyer un prêt à une personne fiable (faux négatif - erreur de type 2).

Pour les décideurs politiques dont l'une des préoccupations principales tient à l'élargissement de l'accès du plus grand nombre d'agents économiques à des services financiers adaptés et sécurisés, cette étude de data mining est intéressante à deux titres. En ce sens qu'à terme d'une part, elle aura pour corollaire une amélioration de l'accès des PME-PMI au crédit (donc à l'investissement), et d'autre part une limitation du risque de surendettement des mutuelles face à un portefeuille de crédit médiocre. En effet, un des axes de développement formulés dans des politiques macroéconomiques au Sénégal tient à l'accroissement des investissements intérieurs, ajouté aux investissements étrangers.

Cet accroissement est crucial pour atteindre un taux de croissance accéléré et durable à même de créer les conditions d'une économie émergente, via une hausse des créations d'emploi, de la consommation, et donc une baisse de la pauvreté (un des points des OMD). Or l'accroissement du niveau des investissements intérieurs ne peut se faire sans l'amélioration de l'accès au crédit des PME/PMI, qui représentent 80% du tissu industriel sénégalais. Ceci alors qu'une autre justification de cette étude, à l'endroit des décideurs, est liée à la limitation du risque de surendettement qui est à attendre, en ce sens que l'utilisation du score de risque dans le domaine de crédit permet à l'institution financière d'améliorer l'allocation de ses fonds propres, notamment relatif au ratio de solvabilité.

Par ailleurs, le système bancaire étant vulnérable au risque de crédit, un autre intérêt de cette mission de data mining est d'ordre monétaire, car les risques liés aux incidents de paiement qui touchent directement la trésorerie des SFD seront mieux appréhendés, et par conséquent mieux traités. Les crises financières (susceptibles de se muer en crise de confiance de plus grande empleur), qui pourraient être consécutives à l'état de cessation de paiement d'un réseau mutualiste, n'en seront que plus prévenues.

Pour les chercheurs, cette étude pourrait trouver une justification dans leur tentative d'imitation des organismes élémentaires, depuis une vingtaine d'année, s'appuyant sur la thèse selon laquelle « la tâche la plus ordinaire accomplie par l'insecte le plus infime le sera toujours plus rapidement qu'il ne serait possible en employant la stratégie computationnelle » (Varela, 1996, p. 56). Le bouleversement méthodologique est en effet profond, puisque deux paradigmes se font face : le constructivisme qui présuppose l'existence d'un modèle par lequel la solution est estimée (exemple le modèle par régression logistique), et le connexionnisme qui privilégie les résultats par apprentissage qui émergent de la coopération globale d'agents multiples (exemple les réseaux de neurones).

1.2. Problème de recherche et résultats attendus

Nous considérerons la problématique de recherche, ainsi que le recommande GAYE (2004) dans son « Cours de Méthodologie de la Recherche en Sciences Sociales » p.29, comme l'ensemble de l'exercice de réflexion qui inclut les étapes ou points suivants :

F le thème de recherche qui nous intéresse;

F la pertinence du thème à travers la préoccupation des chercheurs et/ou des décideurs ;

F le problème général et/ou la question générale de recherche en rapport avec le thème de recherche ;

F un cadre conceptuel établissant les théories modèles ou relations présupposées ;

F le problème spécifique est déterminé ;

F la question spécifique est clairement formulée pour orienter la collecte de données dont la réponse permettra de résoudre le problème spécifique ;

F des hypothèses clairement construites.

Nous avons choisis de travailler sur le thème du risque de crédit bancaire chez la cible PME/PMI. Plus concrètement, le sujet faisant l'objet du présent mémoire nous amènera à identifier, expliquer et prévoir les déterminants du risque de crédit chez les PME, grâce à une application comparative de la régression par la modélisation statistique (régression logistique) et par l'intelligence artificielle (réseaux de neurones). Pour appliquer notre recherche, nous nous appuierons sur l'historique client d'une Mutuelle d'Epargne et de Crédit (MEC) Sénégalaise qui s'appelle UMECUDEFS (Union des Mutuelles d'Epargne et de Crédit de l'UNACOIS).

La pertinence du sujet, ainsi que nous l'évoquions supra, peut être appréciée d'un point de vue scientifique tout d'abord, mais aussi et surtout d'un point de vue pratique. Pour les chercheurs d'abord, cette étude pourrait revêtir à notre sens un double intérêt. Le premier tient à la comparaison des capacités prédictives de deux techniques relativement récentes et non moins à la pointes. Nous serons amenés, grâce aux modèles de prévision issues de la modélisation statistique et de l'intelligence artificielle, à contribuer au débat actuel cherchant à trancher entre les décisions s'appuyant sur les espaces fonctionnels (le raisonnement logique formel) et celles s'appuyant davantage sur la perception et l'apprentissage automatisé. En effet, au sortir de cette étude seul le modèle le plus robuste sera retenu afin de constituer la fonction score recherchée. Le second intérêt de cette étude, à l'endroit des chercheurs est de contribuer à savoir dans quelles mesures les modèles de score s'appuyant uniquement sur des bases quantitatives, voire uniquement financières, sont pertinents ou non, dès lors que l'analyse porte sur des PME issues des pays du Sud.

Pour ce qui concerne les décideurs de l'UMECUDEFS, en plus des points que nous avons déjà évoqué supra (cf. justification de l'étude), nous pouvons préciser que le souci de gestion au quotidien est de pourvoir minimiser la sélection adverse afin de préserver la viabilité financière, dans le contexte de ce que Morduch (2000) a nommé le « schisme de la microfinance »22(*). Pouvoir adapter les taux d'intérêt et les rendre flexibles aux conditions d'octroi de crédit aux PME est une question à la fois délicate au plan pratique, et sensible si l'on considère les enjeux financiers engagés. Ainsi, les banquiers et les micro-préteurs ont tendance à se protéger en adoptant une stratégie de sélection adverse en majorant les taux d'intérêt, compte tenu de la visibilité limitée sur les capacités de remboursement de ses clients. Or il est maintenant établit que seuls les promoteurs de projets les plus risqués acceptent de contacter à des taux d'intérêts relativement élevés. La conséquence d'une telle stratégie de couverture de la part des préteurs est de ne finalement financer, malgré eux, que les dossiers présentant le plus de risques de défaillance. Par ailleurs, une autre préoccupation des décideurs de l'UMECUDEFS reste la réduction et l'optimisation du temps d'analyse et de traitement d'une demande de crédit, face à des flux hebdomadaires relativement importants et à une concurrence contraignante.

Notre problème général de recherche s'est largement inspiré de ces préoccupations à la fois scientifiques et managériales. Il est dans ce sens question pour nous d'améliorer notre connaissance sur les facteurs qui influencent le risque de crédit bancaire chez les PME, mais aussi sur les techniques qui permettent d'appréhender un tel risque. D'une manière générale donc, nous sommes posés la question suivante : Quels sont les déterminants d'une défaillance de remboursement lorsqu'une PME contracte un crédit ?

Pour répondre à cette question, la littérature fait état de certains éléments de réponse. Par exemple, les principaux chercheurs qui ont tenté de modéliser le non-remboursement (ou le risque que l'on peut y associer) se sont basés sur des déterminants de type comptable et financier dans les entreprises évaluées. C'est le cas des modèles de Altman, Conan-Holder, AFDCC, Banque de France pour ne citer que ceux-là. La logique de ces modèles est que le non-remboursement d'un crédit contracté par une PME est intimement lié à son risque de défaillance (son analogue juridique est la faillite). Pour eux, si on peut prédire la probabilité de faillite d'une entreprise grâce à certains indicateurs (ratios financiers), alors on peut en déduire le risque de contrepartie associable à la demande de crédit formulée par cette entreprise. Seulement cette vision semble réductrice et simpliste. En fait, il y'a des chances qu'une PME soit confrontée à des difficultés de remboursement, même si au plan strictement comptable ses indicateurs n'en présagent rien (les données comptables peuvent être falsifiées dans ce genre d'entreprises). De plus dans le contexte africain, la plus grande partie des PME évoluent dans le secteur informel, c'est-à-dire qu'elles ne peuvent produire, même si elles le souhaitaient, des états financiers crédibles.

Pour ce qui concerne la mesure et la prévision des déterminants du risque de crédit bancaire des PME, la principale technique utilise dans la littérature est l'analyse discriminante, parfois l'arbre de décision. Cependant d'autres techniques d'analyse et de prévision dans le vaste champ des méthodes statistiques sont de plus en plus utilisées. Au titre de celles-ci on relève le succès de plus en plus grandissant de la fonction gaussienne du modèle LOGIT, mais aussi du recours aux algorithmes d'apprentissage par les réseaux de neurones artificiels (RNA).

Sous ce rapport, notre problème spécifique de recherche consiste à interroger d'autres déterminants que les indicateurs financiers pour expliquer le risque de crédit bancaire chez les PME africaines notamment, et à envisager d'autres techniques que l'analyse discriminante pour expliquer et prévoir le risque de contrepartie (ou de non-remboursement) chez les PME. Ce problème est d'autant plus orienté au cas spécifique des PME africaines dont l'information comptable et financière n'est que très peu souvent disponible. Nous nous appuierons sur le Sénégal pour ce faire, en nous interrogeant de la façon suivante : Les ratios financiers sont-ils les véritables déterminants significatifs dans le dénouement d'un prêt bancaire contracté par une PME sénégalaise ? Une méthode de prévision de tels déterminants par modélisation statistique est elle plus fiable que par intelligence artificielle ?

II/ Cadre Conceptuel

Le cadre conceptuel nous aidera dans un premier temps à repréciser les définitions des principaux mots-clés utilisés tout au long du présent mémoire, et dans un second temps de présenter l'hypothèse sous-jacente de l'étude accompagnée du cadre opératoire qui traduit ses concepts en indicateurs (ou variables) mesurables.

2.1- Définition des concepts

Ø Aléa moral (ou hasard moral): Il s'agit d'une forme d'opportunisme post contractuel qui survient lorsque les actions mises en oeuvres ne peuvent être discernées. Les problèmes liés à l'aléa moral apparaissent lorsqu'un individu entreprend une action inefficace, ou procure une information inexacte parce que ses intérêts individuels ne sont pas compatibles avec les intérêts collectifs et parce que ni les informations données ni les actions entreprises ne peuvent être contrôlées (K. Arrow, 1963).

Ø Dans le cadre du risque de contrepartie, l'aléa moral se rapporte à toute situation dans laquelle les résultats de la relation de crédit dépendent d'actions entreprises par l'emprunteur après signature du contrat et imparfaitement observables par le créancier. Ainsi, une entreprise contractant un crédit pourra s'engager de façon plus ou moins forte dans la réussite du projet. Les dirigeants pourront accomplir des dépenses inutiles au développement de l'entreprise en détournant à leur profit une part des résultats du projet sous forme d'avantages en nature ou de rémunérations excessives.

Ø Data Mining: littéralement « fouille de données » ou « forage de données », et connu dans le milieu francophone sous l'appellation Extraction de Connaissances à partir de Données (ECD), le data mining peut s'entendre de l' application des techniques statistiques, d'analyse des données et d'intelligence artificielle à l'exploration et l'analyse sans à priori de grandes bases de données informatiques , en vue d'en extraire des informations nouvelles et utiles pour le détenteur de ces données (STUFFERY, 2007).

Ø Intelligence artificielle (IA) : Ce terme renvoie à une discipline à cheval entre statistique-mathématique d'une part et informatique d'autre part, qui cherche à représenter la connaissance de l'homme et à formaliser le raisonnement de façon à obtenir des algorithmes qui simulent la réflexion humaine. Par extension elle est aussi devenue une discipline qui cherche à simuler par les moyens de l'informatique des mécanismes cognitifs et neuronaux. Selon le CNTRL, l'IA est la « recherche de moyens susceptibles de doter les systèmes informatiques de capacités intellectuelles comparables à celles des êtres humains » (source : La Recherche, janv. 1979, no 96, vol. 10, p. 61, cité par le dictionnaire du CNTRL).

Ø Modélisation statistique : Nous entendons par ce terme la conception d'un modèle, ou la représentation simplifiée d'une réalité plus complexe, dans l'optique d'analyser des phénomènes réels et de prévoir des résultats à partir de l'application d'une ou plusieurs théories à un niveau d'approximation donné. Cette modélisation se fait par des méthodes statistiques, parmi lesquelles on retrouve la régression logistique (économétrie des variables qualitatives).

Ø PME, TPE, MPE : Dans notre étude, nous entendons par PME toute personne physique ou morale, productrice de biens ou de services marchands, dont les critères sont  pour les Petites Entreprises (PE) et les Moyennes Entreprises (ME) : i) un effectif compris entre 01 et 250, ii) un chiffre d'affaires hors taxe inférieur à 20 millions FCFA (PE) ou 15 milliards CFA(ME), un investissement net inférieur ou égal à 1 milliard FCFA. (Source : Charte des Petites et Moyennes Entreprises du Sénégal, 2003, pp.6 & 7). Dans la suite de notre mémoire, nous utiliserons indifféremment les signes PME et TPE, pour désigner la même réalité.

Ø Régression logistique : Comme définit plus haut, la régression logistique (ou régression par le modèle LOGIT) est une technique statistique qui a pour objectif, à partir d'un fichier d'observations, de produire un modèle permettant de prédire les valeurs prises par une variable catégorielle, le plus souvent binaire, à partir d'une série de variables explicatives continues et/ou binaires. (source : wikipédia).

Ø Réseaux de neurones artificiels (RNA) : Les RNA (ou Bayesian Machine Learning) sont des simulations logicielles qui relèvent du champ de l'intelligence artificielle. Il s'agit d'ensembles interconnectés de petites machines à additionner qui ont pour but d'imiter le fonctionnement des cellules grises humaines. Selon une définition proposée par A. Nigrin (1993)23(*), un réseau de neurones est un circuit composé d'un nombre très important d'unités de calcul simples basées sur des neurones. Dans la même lancée, S. Haykin (1994)24(*), les RNA ressemblent au cerveau sur deux aspects: i) la connaissance est acquise par le réseau au travers d'un processus d'apprentissage, ii) les connexions entre les neurones, connues sous le nom de poids synaptiques servent à stocker la connaissance.

Ø Risque de contrepartie : Le risque de contrepartie représente la perte potentielle réalisée par la banque dans l'hypothèse d'une défaillance future de sa contrepartie. Ce risque regroupe deux risques de natures différentes : le risque de livraison et le risque de crédit.

Ø Risque de livraison : Le risque de livraison concerne toutes les opérations de marché intégrant un échange simultané de devises ou de flux d'intérêts. Ainsi, le type d'opération le plus sensible est-il le change au comptant, mais le change à terme et certains swaps de taux sont également concernés.

Ø Risque de crédit (couramment désigné par risque de contrepartie) : Le risque de crédit est le risque http://fr.wikipedia.org/wiki/Risque que l'emprunteur ne rembourse pas sa dette http://fr.wikipedia.org/wiki/Dette à l'échéance fixée (wikipédia). Le risque est une perte http://fr.wikipedia.org/wiki/Perte potentielle, identifiée et quantifiable, inhérente à une situation ou une activité, associée à la probabilité http://fr.wikipedia.org/wiki/Probabilit%C3%A9 de l'occurrence d'un évènement ou d'une série d'événements. Le risque de crédit peut être donc défini comme la perte totale enregistrée sur une opération suite à la défaillance de la contrepartie. On l'appelle aussi parfois risque de signature. Dans le cas d'un crédit à taux révisable, cette perte est égale au capital restant dû augmenté des intérêts courus non échus.

Ø Scoring (crédit) : le crédit scoring, ou scoring crédit, est compris selon R. Anderson (2007) comme étant le recours aux modèles statistiques en vue de transformer des données (qualitatives, quantitatives) en indicateurs numériques mesurables à des fins d'aide à la décision d'octroi ou de rejet de crédit.

Ø Sélection adverse (ou antisélection) : Les travaux de G. Akerlof (1970) ont introduit la notion d'antisélection, appelée aussi sélection adverse, qui peut être définie comme un ensemble de stratégies complexes élaborées en vue d'anticiper des phénomènes de fraude du co-contratactant. Il s'agit d'un problème d'opportunisme pré contractuel induit par l'incapacité d'obtenir une information exhaustive sur la partie qui sollicite un crédit.

.

2.2- Objectifs de recherche

Les objectifs de notre recherche sont de trois 2 (deux) ordres :

F La description et l'explication : nous sommes intéressés par la distribution des clients (PME) au sein des « bon clients » et des « mauvais clients » de l'UMECUDEFS. En sus de la description nous avons un objectif additionnel qui est de faire une assertion sur une telle distribution. En pratique il s'agira d'examiner les relations entre le dénouement des crédits octroyés (remboursés in fine ou non), et les variables que nous avons prédéfinies. L'optique est de tenter d'expliquer pourquoi certaines PME ont plus de chances de rembourser que d'autres ;

F La prédiction : A partir de notre description-explication, nous tenterons de prédire l'issue d'un échantillon de dossiers tests prévus à cet effet. L'idée est de pouvoir produire un modèle de régression capable de prévoir le risque inhérent à un dossier de demande de crédit, sur la base d'une pondération de la valeur de ses caractéristiques.

Au plan opérationnel, les objectifs de notre présente étude se présentent comme suit :

Tableau 3: Objectifs opérationnels de notre étude

Objectif Général

Mise en place d'un modèle de prévision du risque de crédit, dit « modèle de score », chez la clientèle PME/PMI de l'UMECU

Objectif Spécifique I

(OS 1)

Explication des déterminants de la distribution des dossiers de demande de crédit PME, en fonction de leur remboursement ou de leur non-remboursement, chez l'UMECU entre 200 et 2007.

Objectif Spécifique II

(OS 2)

Prédiction du dénouement d'un échantillon test et définition d'une équation de régression à cet effet.

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

2.3- Hypothèses et indicateurs

Notre étude est basée sur une seule hypothèse principale qui est de type co-ralationnelle, et une hypothèse secondaire qui est de type mathématique.

2.3.1) Hypothèses de recherche et cadre opératoire

· Hypothèses de recherche

Au cours de notre étude nous tenterons de vérifiez les hypothèses suivantes

Hypothèse 1: En dehors des ratios financiers, les données démographiques du dirigeant, l'expérience du dirigeant en matière de crédit, la forme juridique de la PME, le secteur d'activité, le type de garantie, le facteur temps et le montant de la demande de prêt influencent le risque de crédit de manière significative.

Hypothèse 2: un modèle de prévision du risque de crédit bancaire des PME chez l'UMECU par la régression logistique a de meilleures performances prévisionnelles qu'un modèle de prévision par la régression neuronale.

· Cadre opératoire

La présente étude a pour objet de mettre en place un algorithme de scoring crédit qui sera du type score d'octroi (ou d'acceptation), type que l'on définit comme le score de risque calculé pour un client (ancien ou nouveau) qui sollicite un crédit. Une telle étude, puisque descriptive et prédictive, se fait sur la base de l'historique clients des 2 ou 3 dernières années de l'entreprise qui souhaite scorer ses futurs demandeurs de crédit.

Ainsi, en vue de la constitution de cette base de données historisées devant servir à « entrainer » les différents modèles de prévision retenus pour l'étude de scoring, il sera nécessaire de disposer d'un certain nombre d'informations sous formes de données qualitatives (catégorielles) et quantitatives (numériques). Ces données constitueront « l'échantillon d'apprentissage » et seront classées selon une nomenclature divisée en 4 axes descriptifs-prédicteurs sensés décrire la PME (personne morale ou physique), encore appelé le demandeur de crédit:

1- Qui est-il? = Identification

2- Que fait-il? = Description de l'activité

3- Que possède t-il ? = Garanties

4- Que veut t-il ? = Caractéristiques des prets

Les concepts issus de ces axes, évoqués dans les hypothèses, sont déclinés en indicateurs qui permettent de les mesurer (Cf. Tableau ci-dessous). Le périmètre de la clientèle à scorer définit par conséquent les aspects suivants :

§ Population Cible : les PME qui ont sollicité un crédit durant les 3 dernières années, et dont le remboursement portait sur le moyen terme (entre 6 mois et 18 mois).

§ Individus statistiques : l'entreprise.

§ Source de données : Système d'information de la mutuelle.

§ Phénomène à prédire : la défaillance de remboursement (le « Mauvais dossier »).

§ Définition du « «Mauvais Dossier » : Un mauvais dossier est celui qui qui n'a pas remboursé intégralement son crédit, intérêt et principal, au plus 3 mois après la dernière échéance.

§ Nombre d'individus (PME) constituant l'échantillon d'apprentissage : 212.

§ Répartition de l'échantillon d'apprentissage :

F 36 Dossiers de crédits avérés « bons »,

F 176 dossiers de crédit avérés « mauvais »,

Tableau 4: Présentation du cadre opératoire

Axes descriptifs-prédicteurs

Concepts contenus dans l'hypothese

Indicateurs (variables)

1

AXE PREDICTEUR 1 : IDENTIFICATION DU DIRIGEANT

(Qui est le demandeur de crédit ?)

Données démographiques du dirigeant de l'entreprise

§ Sexe 

§ Age

§ Statut matrimonial

§ Nombre d'enfants

§ Nombre de personnes à charge (y compris les épouses)

§ Nombre de personnes salariées dans le foyer

§ Lieu de domicile

§ Niveau d'étude

§ Niveau de revenus

2

Expérience passée du dirigeant en matière de crédit

§ Nombre de prêts déjà contractés par le dirigeant dans le passé 

3

AXE PREDICTEUR 2 : DESCRIPTION de L'ACTIVITE

(Que fait le demandeur de crédit ?)

Forme et Activité de l'entreprise

§ Secteur d'activité

§ Durée d'existence de l'entreprise

4

AXE PREDICTEUR 3 : GARANTIES

(Que possède le demandeur de crédit ?)

Garanties

§ Type de garantie

§ Valeur de la garantie

5

AXE PREDICTEUR 4 : CARACTERISTIQUES DES PRETS

(Que possède le demandeur de crédit ?)

Indicateurs temporels du crédit

§ Durée écoulée entre demande de crédit et réponse

6

Montant de la demande de crédit

§ Montant du crédit

§ Montant demandé = montant obtenu ?

§ Différence (en nombre de mois) entre nombre de versements demandés et obtenus

7

VARIABLE DISCRIMINANTE

 

§ Le Client a-t-il remboursé intégralement son crédit au plus 3 mois après la dernière échéance prévue ?

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

2.3.2) Outils de collecte, sources d'information et difficultés rencontrées

Le principal outil de collecte d'information aura été le questionnaire. Les données provenant de sources secondaires (système d'information de l'institution de micro finance), ont en effet dû faire l'objet d'un redimensionnement à notre convenance par cette voie. Ces questionnaires ont été renseignés par des agents de l'IMF commandités à cet effet, à partir des informations contenues dans leurs bases de données manuscrites.

Ainsi, à chaque dossier de client PME retenu dans l'échantillon et ayant sollicité un prêt ces 3 dernières années, correspondait un questionnaire dont les différentes modalités (issues de la traduction des concepts en indicateurs empiriques) auront été renseignées par les agents de crédit affectés à la tache.

La principale difficulté de cette étude est donc provenue de l'indisponibilité, sous format informatique, des données devants constituer notre base de données. Ce d'autant plus que le remplissage des questionnaires dans ces conditions aura nécessité un délai relativement important, en même temps qu'il aura occasionné à n'en point douter des biais certains.

III/ Cadre de l'étude : présentation de l'UMECUDEFS

3.1. Historique et Activités25(*)

 L'UMECUDEFS est la dénomination du réseau mutualiste de caisses d'épargne et de crédit créées depuis 1997 à l'initiative de l'UNACOIS (Union Nationale des Commerçants et Industriels du Sénégal) suite au regroupement et à la fédération des caisses de base en novembre 2002 au sein d'une Union, UMECUDEFS. Le  réseau dispose depuis le 22 mars 2000 d'un agrément officiel (n° DK 1 00 003U) délivré par le Ministère de l'Economie et des Finances en conformité à la réglementation régissant les institutions de microfinance du Sénégal.

L'Union dispose en son sein d'une Direction Générale composée de différents services techniques destinés à coordonner et superviser les actions du réseau. Celui-ci est constitué en fin 2006 de 60 caisses créées de manière endogène et sur fonds propres par l'UNACOIS sur toute l'étendue du territoire national.

En effet, soucieuse, d'un développement économique et financier sans faille dans les zones les plus reculées du Sénégal, l'UMECUDEFS a décidé de mener une politique d'extension de son réseau dans le but de se rapprocher des populations où qu'ils se trouvent. C'est dans cette perspective que l'Union a implanté des mutuelles dans les onze régions du pays à savoir Dakar, Thiès, Kaolack, Fatick, Diourbel, Saint-Louis, Matam, Ziguinchor, Tambacounda, Louga et Kolda et éventuellement dans les nouvelles régions que sont Sédhiou, Kaffrine et Kédougou.  

Les caisses sont localisées en majorité dans des centres commerciaux ou les marchés en référence au lien commun du réseau (sociétariat constitué majoritairement de commerçants, artisans et groupements féminins).

Actuellement le réseau dispose d'un potentiel important et fait partie des IMF les plus importantes du Sénégal grâce à une maîtrise de la croissance et à la qualité des produits et services.

L'UMECUDEFS s'est fixé les missions suivantes :

· Encourager l'esprit mutualiste au Sénégal;

· Faciliter l'accès au financement;

· Développer une culture d'entreprise chez les sociétaires;

· Sécuriser l'épargne des membres;

· Lutter contre la pauvreté.

3.2. Structure organisationnelle

L'organigramme actuel de l'UMECUDEFS se présente comme suit :

Figure : Organigramme de l'UMECUDEFS

Source : http://www.umecudefs.com/index.php?option=com_wrapper&Itemid=46

3.3. Caractéristiques de l'activité

La principale caractéristique à noter dans l'activité de l'UMECUDEF tient au fait que les prêts octroyés sont presque toujours de court terme, c'est-à-dire à échéancier de remboursement de 12 mois maximum. Ceci dans la mesure où les sommes prêtées n'excèdent pas en générale les 3 millions de FCFA.

Par ailleurs, l'UMECUDEF n'ayant bénéficié que très récemment d'un logiciel de traitement des opérations bancaires dénommé « E-BANKING », l'essentiel des données n'est de disponible que sur version papier, et non numérique.

DEUXIEME PARTIE 

METHODOLOGIE

&

ANALYSE DES RESULTATS

CHAPITRE III : Methodologie

I/ Les préalables au Scoring: Collecte et préparation des données

Avant de présenter les résultats de notre étude, il est nécessaire de préciser les caractéristiques liées à l'échantillonnage utilisé, à la préparation des données recueillies, et au protocole de recherche qui sera mis en oeuvre.

1.1. L'échantillon

Malgré les difficultés rencontrées (liées au format des données contenues dans des fiches géographiquement éparpillées à travers les mutuelles du réseau UMECU), nous avons pu renseigner les 20 variables pour 212 entreprises toutes des TPE pour les années 2005, 2006 et 2007. L'échantillon a été sélectionné par la méthode de l'échantillonnage systématique.

Tableau 5 : Les 212 entreprises de l'échantillon

 

2005

2006

2007

Nombre

%

Nombre

%

Nombre

%

TPE

102

48

76

36

34

16

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

1.2. Les paramètres analysés

L'originalité de notre étude, pour mémoire, est basé sur l'hypothèse selon laquelle dans le contexte africain où les TPE souvent dans l'informelle, présentent la particularité de ne pas disposer de données comptables sur lesquelles se baser pour une quelconque analyse, la prévision des risques de contrepartie pourrait se faire à partir de paramètres qualitatifs. Il s'agit notamment de critères sociaux sur le dirigeant de l'entreprise, couplé aux conditions d'octroi du crédit.

Ainsi, les paramètres utilisés, dont les variables constitutives sont présentées plus haut dans le cadre opératoire, sont :

Tableau 6: Les paramètres étudiés

 

Libellé des paramètres (concepts)

Nombre de

variables

1

données démographiques du dirigeant de l'entreprise

9

2

expérience du dirigeant en matière de crédit

1

3

forme et l'activité de l'entreprise

2

4

garanties proposées

2

5

indicateurs temporels du crédit

1

6

montant de la demande de crédit

3

7

Variables discrimante et nominative

2

 

TOTAL

20

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

1.3. Le traitement des données

Après obtention des questionnaires dûment remplis par les agents de crédit de l'UMECUDEFS, les données ont été recueillies sur le logiciel SPSS version 10.0. La stratégie de traitement des données a consisté, dans un premier temps, à une analyse fréquentielle des modalités prises pour chaque variable, afin de déceler des variables non significatives. En effet, comme le recommande Saporta (2006)26(*) «le fichier brut une fois constitué doit d'abord être «nettoyé» pour éliminer erreurs et incohérences. Il comporte alors en général un trop grand nombre de variables». Lors de cet examen dans notre cas, certaines variables retenues au départ ont été supprimées, car les réponses ne présentaient aucun intérêt dans la suite de note étude. C'est le cas pour la question liée à la présentation ou non d'une garantie, dont la réponse est « OUI » pour tous les individus. Il en a été ainsi pour 9 variables, qui ont été supprimées de notre base de données. L'étude s'est donc poursuivie avec 20 variables.

Dans un second temps, pour faciliter les étapes d'analyse factorielle et de modélisation/classification/prédiction, les données catégorielles ont fait l'objet d'une codification. L'idée est d'obtenir un tableau de contingence, utile à une analyse factorielle sensée réduire encore plus la dimension des variables.

II / Le protocole de recherche

2.1. Le protocole général

Le protocole général de recherche que nous nous proposons de mettre en oeuvre est présenté dans le schéma suivant :

Figure 5: Schéma du protocole général de recherche

Collecte et préparation des données

(Logiciel SPSS)

Analyse Factorielle

(Logiciel SPSS)

Revue de la littérature, Problématique & Cadre Opératoire

Modélisation et Prédiction par régression logistique (Logiciel SPSS)

Modélisation et Prédiction par réseaux de neurone

(Logiciel SPAD)

(F. B. Doucouré, 2006)

1- Génération des modalités discriminantes

2- Estimation du modèle par le maximum de vraisemblance

3- Test de sigificativité globale

4- Validation du modèle

5- Vérification des taux de prédiction

(Asselin de Beauville et Zollinger, 1995)

1- le choix d'un type de réseau :

2- le choix d'une architecture du réseau ;

3- le choix des fonctions de transfert ;

4- le choix d'un algorithme d'apprentissage ;

5- le choix d'une base d'apprentissage ;

6- la fixation des paramètres du réseau

7- Apprentissage & Validation du modèle prédictif

Comparaison de la performance des 2 modèles prédictifs (Courbes ROC)

MODELE DE SCORING

FINAL

2.2. Le protocole de la réduction des variables par l'analyse factorielle

L'étude de notre population statistique (les clients PME de l'UMECUDEFS) de taille n passe par le recueil d'un nombre élevé p de données quantitatives et qualitatives par élément observé. L'analyse de ces données, dont les qualitatives seront recodées, doit tenir compte de leur caractère multidimensionnel et révéler les liaisons existantes entre leurs composantes.


L'analyse factorielle des correspondances (AFC)27(*), est une méthode très puissante pour explorer la structure de telles données multidimensionnelles. Chaque donnée étant représentée dans un espace à p dimensions, l'ensemble des données forme un "nuage de n points" dans Rp. Le principe de l'AFC est d'obtenir une représentation approchée du nuage dans un sous-espace de dimension faible k par projection sur des axes bien choisis. Les composantes principales sont les n vecteurs ayant pour coordonnées celles des projections orthogonales des n éléments du nuage sur les k axes principaux. On parle de projection des variables de Rp sur R2 ou R3 .

Cette technique factorielle nous permettra surtout de pouvoir réduire les dimensions de notre problème (19 variables explicatives de départ), de sorte que nos modélisations logistique et neuronale ne se fassent que sur la base les variables les plus significatives de la défaillance des clients PME dans leur remboursement de crédit.

2.2.1) La technique et l'interprétation

La technique d'analyse des données par correspondances multiples que nous avons utilisé dans le présent mémoire respecte les étapes suivantes :

1ère étape : les données sont codées

· Les données quantitatives sont découpées en classes

· Les données qualitatives sont codées. Pour éviter des effectifs de classe trop faibles, on les regroupe des modalités.

· Dans cette étape, les logiciels demandent souvent de nommer les différentes modalités.

2ème étape : le tableau codé est transformé en tableau de contingence

· Cette étape est souvent effectuée par les logiciels sans intervention

de l'utilisateur.

3ème étape : une analyse des correspondances est effectuée sur le tableau de contingence

· Réduction et quantification des données

· Choix du nombre d'axes pertinents

· Sauvegarde des coordonnées factorielles et poids des individus

· Représentations graphiques : cartes factorielles et diagrammes interactifs

.

D'un point de vue mathématique, le traitement opéré sur les données du tableau de contingence lors d'une AFC nous a permis d'obtenir :

- des axes factoriels associés à des valeurs propres ;

- pour chaque ligne (ou colonne) du tableau de contingence, des coordonnées, des contributions à la formation des axes et des qualités de représentation.

Le tableau de Burt étant symétrique, les profils lignes et les profils colonnes sont identiques. Il en est de même des coordonnées des individus-lignes et des individus-colonnes. L'inertie totale du nuage des modalités a été déterminée uniquement par le nombre total de modalités q et le nombre de variables p. L'interprétation s'est faite essentiellement à partir des modalités qui ont les meilleures qualités de représentation selon chacun des septs axes factoriels ou dans le premier plan factoriel. Enfin, l'inertie relative par rapport à chaque axe nous a permi de retenir les modalités qui ont le plus fortement contribué à la formation de cet axe.

2.3. Le protocole de prédiction par les réseaux de neurone

Pour effectuer notre expérimentation par réseaux neuronaux, nous nous proposons de préciser le type et l'architecture du réseau, les paramètres caractéristiques et la base d'apprentissage utilisée.

2.3.1) Le réseau utilisé: Perceptron multicouches (PMC)

Compte tenu de la complexité des relations pouvant exister entre les données, et de la dispersion statistique importante des ratios aussi bien pour les entreprises défaillantes que pour les entreprises non défaillantes (Malécot, 1997), le réseau que nous avons utilisé est un réseau supervisé à rétropropagation à deux couches. La première couche est composée de 18 neurones. Le nombre de neurones de la deuxième couche est égal à 2, il est contraint par les valeurs cibles utilisées : « mauvais payeur » ou « bon payeur »

2.3.2) Les paramètres

§ La fonction de transfert de la première couche est logsigmoïde, la fonction de transfert de la deuxième couche est la fonction linéaire. Ces fonctions permettent, dans une architecture de taille suffisante, d'ajuster parfaitement toute fonction comprenant un nombre fini de discontinuités.

§ L'apprentissage a été réalisé par rétropropagation de l'erreur. De façon à éviter les minima locaux dans la surface d'erreur, nous avons utilisé un taux d'apprentissage variable et un moment. L'avantage des réseaux multicouches à rétropropagation réside dans leur faculté d'être très peu restrictifs quant à la fonction à réaliser et d'être des estimateurs très faiblement biaisés.

Les paramètres d'apprentissage du réseau sont les suivants :

- Coefficient d'apprentissage : 0,1 0

- Momentum : 0,5

- Temperature de fonction sigmoide : 0,5

§ Trois critères peuvent être utilisés pour définir l'arrêt de l'apprentissage (Asselin de Beauville et Zollinger, 1995) :

1- un seuil d'erreur quadratique cumulée en sortie du réseau : S.S.E.;

2- un nombre d'itérations préfixées ;

3- un seuil de taux d'efficacité du réseau sur la base d'apprentissage.

Nous avons fixé la fin de l'apprentissage à une valeur d'erreur de 0.01, critère numéro 1, à défaut à un nombre défini d'itérations : 10 000, selon le critère numéro 2

2.3.3) Apprentissage et généralisation

Deux tests différents ont été menés, l'un sur les défaillances à un an, l'autre sur les défaillances à deux ans et trois ans. Dans chacun des deux cas, le nombre d'entreprises défaillantes a été partagé en deux, une moitié pour l'apprentissage du réseau et une moitié pour la phase de généralisation.

Durant la phase d'apprentissage, le caractère « mauvais payeur » ou « bon payeur » était donné au réseau et les poids des neurones s'ajustaient au fur et à mesure des itérations. Puis les poids des neurones ont été figés et nous avons vérifié les performances du réseau. Nous avons présenté au réseau la moitié des entreprises défaillantes qui n'a pas été retenue pour la phase d'apprentissage. Pour que le test soit complet, nous avons présenté au réseau à la fois des entreprises défaillantes et des entreprises non défaillantes et nous avons relevé le nombre d'entreprises pour lesquelles le réseau réalisait un diagnostic exact

2.4. Le protocole d'expérimentation par la régression logistique28(*)

2.4.1) Génération des modalités discriminantes

La modélisation mathématique requière le choix d'une variable dépendante dont on aimerait connaître les déterminants ou variables explicatives qui l'influencent. Pour notre cas, les modalités « mauvais payeurs » et « bons payeurs » sont générées à partir de la variable dépendante rem3mois (l'entreprise a-t-elle remboursé son crédit 3 mois au plus après la dernière échéance prévue ?). Pour la réponse « non » à cette variable, l'individu est classé « mauvais payeur ». Pour la réponse « oui », l'individu est classé « bon payeur ».

2.4.2) Estimation du modèle par le maximum de vraisemblance

On a considéré que l'ajustement est satisfaisant si :

1. La distance entre la variable de sortie observé y et l'outcome prédit par le modèle y est petite (test de Hosmer-Lemeshow).

2. Le modèle est bien « calibré », i.e. les fréquences prédites sont proches de celles observées (test de Hosmer-Lemeshow)..

3. Le modèle permet de bien discriminer entre les valeurs de y = 0 et y = 1 en fonction des variables explicatives (matrice de confusions).

La démarche que nous avons adopté a consisté à évaluer, d'abord, globalement l'adéquation du modèle au moyen des différents tests de « Goodness of fit », puis lorsqu'on a été satisfait de la qualité de l'ajustement global, à déterminer s'il n'y a pas localement des observations très mal ajustées et ayant possiblement un effet important sur l'estimation des coefficients. Le but des ces évaluations globale et locale est de s'assurer que l'ajustement du modèle soit satisfaisant pour toutes les valeurs observées dans l'échantillon des variables explicatives. Finalement, l'évaluation du pouvoir discriminant du modèle nous a permis d'appréhender si nous avons choisi les « bonnes » variables explicatives ou s'il manque d'importants régresseurs pour arriver à prédire avec suffisamment de précision la variable de sortie.

2.4.3) Test de sigificativité globale (Evaluation de la calibration du modèle : le test de Hosmer et Lemeshow)

Le test de Hosmer et Lemeshow a été basé sur un regroupement des probabilités prédites par le modèle. On a calculé ensuite, pour chacun des groupes le nombre observé de réponses positives y = 1 et négatives y = 0, que l'on a comparé au nombre espéré prédit par le modèle. On a alors calculé une distance entre les fréquences observées et prédites au moyen d'une statistique du Khi 2. Lorsque cette distance est petite on considère que le modèle est bien calibré

2.4.4) Evaluation du pouvoir discriminant du modèle : sensibilité, spécificité

Il est intéressant de déterminer la performance du classement et comment celui-ci dépend du seuil (ou de la règle) choisi. Pour cela nous avons considéré les notions de sensibilité et spécificité. La sensibilité est définie comme la probabilité de classer l'individu dans la atégorie y = 1 (on dit que le test est positif) étant donné qu'il est effectivement observé dans celle-ci :

Sensibilité = P(test + | y = 1)

La spécificité est définie comme la probabilité de classer l'individu dans la catégorie y = 0 (on

dit que le test est négatif) étant donné qu'il est effectivement observé dans celle-ci :

Spécificité = P(test - | y = 0)

CHAPITRE IV : PRESENTATION & ANALYSE DES RESULTATS

« Le Credit Scoring n'approuve, ni ne rejette une demande de prêt,

il peut plutôt prédire la probabilité d'occurrence de mauvaise performance (défaut)

telle que définie par le préteur »

(Caire et Kossmann, 2003)

I/ Résultats de l'analyse factorielle des correspondances principales

Notre analyse va se baser sur nos données décrivant des individus (clients PME de l'UMECUDEFS) à l'aide de variables catégorielles (recodées en numériques) et quantitatives décrivant leurs données démographiques, leur expérience en matière de crédit, la forme et la nature de leur activité, les garanties proposées, les indicateurs temporels et le montant du crédit. Il y'a n=212 individus ou observations, et p=18 variables descriptives + une variable explicative (rem3mois), la variable nom_entr identifiant les 212 observations.

Tableau 6: Descriptif des variables initiales

Code

Nouveau

Code

Etiquette

Nombre de

modalités

nom_entr

Var1

Nom de l'entreprise (ou du dirigeant)

207

sexedir

Var2

Sexe du dirigeant de l'entreprise

2

statmat

Var3

Statut matrimonial du dirigeant de l'entreprise

4

age

Var4

Age du dirigeant de l'entreprise

11

nbenf

Var5

Nombre d'enfant du dirigeant de l'entreprise

2

persach

Var6

Nombre de personnes à charge dans le foyer du dirigeant d'entreprise

3

perssal

Var7

Nombre de personnes salariées dans le foyer du dirigeant d'entreprise

4

dom

Var8

Domicile du dirigeant d'entreprise

3

nivetude

Var9

Niveau d'étude du dirigeant de l'entr.

5

nivrev

Var10

Niveau de revenu du dirigeant de l'entr.

7

pretpass

Var11

Nombre de prêts déjà contractés par le dirigeant de l'entreprise dans le passé

6

Sectact

Var12

Secteur d'activité de l'entreprise

10

duréexis

Var13

Durée d'existence de l'entreprise

4

typgar

Var14

Type de garantie proposé par le demandeur de crédit

7

valgar

Var15

Valeur de la garantie proposée

8

durecoul

Var16

Durée écoulée entre demande de crédit et réponse de l'UMECUDEFS

4

montant

Var17

Montant du crédit octroyé

6

democt

Var18

Montant demandé = montant octroyé ?

2

difdemre

Var19

Différence entre nombre de versements demandés et obtenus

5

rem3mois

Var20

Le Client a-t-il remboursé intégralement son crédit au plus 3 mois après la dernière échéance prévue ?

2

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

1.1. Dimensions de la solution et valeurs propres (inerties)

La représentation graphique que l'on souhaite obtenir de ces données en termes de catégories et d'objets, s'effectue dans un repère orthonormé dont on doit préciser le nombre d'axes a, appelé la dimension de la solution. La dimension maximum du sous-espace de représentation est égale au nombre de catégories (m=95) moins le nombre de variables sans valeurs manquantes (p=19). Cependant pour des raison pratiques, notre représentation s'appuiera sur une solution à sept dimensions pour synthétiser les traits essentiels le l'information recherchée.

Pour obtenir une analyse en composantes principales sous SPSS, nous créons par recodage, à partir du tableau des données alphanumériques, un tableau numérique comportant l'ensemble des variables à analyser. Pour ce faire, nous utilisons la procédure de recodage automatique <Recoder Automatiquement> du menu de transformation <Transformer>, créant ainsi la variable Var2 (codage numérique), à partir de sexedir (codage alphanumérique), jusqu'à la variable Var20 à partir de rem3mois, par transformation des catégories prises dans un ordre lexical croissant.

Après recodage automatique des données, nous sélectionnons à partir du menu <Analyse>, la procédure <Analyse Factorielle> du menu <Factorisation>, en choisissant les options correspondantes à la syntaxe suivante :

Tableau 7: Fichier de syntaxe de l'analyse factorielle sous SPSS

FACTOR

/VARIABLES sexedir statmat age nbenf persachg perssal dom nivetude nivrev

pretpass sectact duréexis typgar valgar durecoul montant democt difdemre

/MISSING LISTWISE /ANALYSIS sexedir statmat age nbenf persachg perssal dom

nivetude nivrev pretpass sectact duréexis typgar valgar durecoul montant

democt difdemre

/PRINT INITIAL EXTRACTION FSCORE

/FORMAT SORT

/PLOT EIGEN

/CRITERIA MINEIGEN(1) ITERATE(25)

/EXTRACTION PC

/ROTATION NOROTATE

/SAVE REG(ALL)

/METHOD=CORRELATION .

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

Le tableau des Eigenvalues ci-dessous rend compte des valeurs propres (ou inerties) prises par chaque axe factoriel (ou composante), il rend compte aussi des taux d'inertie (% de la variance) et des taux d'inertie cumulés (% cumulés). En effet dans la solution initiale, nous avons autant de composantes que de variables explicatives (au nombre de 18), la colonne « Total » nous renseignant sur la contribution de la variance dans chaque variable observée et expliquée par chaque axe factoriel. Cette valeur est ensuite relativisée par rapport à l'inertie totale, puis cumulée.

En observant les inerties des 3 premiers axes, on constate que le premier représente 15,5% de l'inertie totale, le deuxième représente 10,6% de l'inertie totale et le troisième 9,4%. Leur cumul est de 35,6%, ce qui signifie qu'en s'appuyant sur une solution à 3 dimensions, nous résumerions 35,6% de l'information totale de départ. Ce qui est relativement insuffisant pour nous permettre de continuer. Nous retiendrons donc les sept premiers axes, dont l'inertie cumulée est de 61,7%.

Tableau 8: Variance expliquée totale (Eigenvalues)

Source : Recherche de Fred Ntoutoume (logiciel SPSS), Crefdes, 2007

Le choix que nous faisons de retenir les 7 premiers axes de l'analyse peut être conforté par le l'analyse du graphique suivant, où l'on constate qu'après le septième composant, la contribution reste marginale et décroissante.

Figure 6: Graphique des valeurs propres


Source : Recherche de Fred Ntoutoume (logiciel SPSS), Crefdes, 2007

1.2 Qualité de représentation (Factor Analisys Communalities)

La qualité de représentation indique la contribution de chaque variable expliquée. Les qualités de représentation initiales estiment la variance de chaque variable expliquée par l'ensemble des facteurs (composants).

Pour l'ACP la représentation initiale est toujours égale à 1 (analyse de corrélation) ou à la variance de la variable (analyse de covariance).

Les extractions étant estimées de la variance de chaque variable expliquée dans la solution factorielle, les plus petites valeurs représentent les variables qui ne s'ajustent pas assez à la solution factorielle, et qui peuvent par conséquent être supprimées de l'analyse.

Ainsi, on remarque que les 12 premières variances (inerties) les plus importantes sont, par ordre décroissant :

1-Nombre d'enfants..........................(0,803)

2-Nombre de personnes à charge ......... (0,775)

3-Sexe du dirigeant ......................... (0,697)

4-Secteur d'activité ..........................(0,662)

5-Montant du crédit octroyé ...............(0,654)

6-Durée entre demande et réponse ........(0,641)

7-Niveau de revenus du dirigeant ........(0,640)

8-Valeur estimée de la garantie ............(0,629)

9-Différence versements dem et obt.......(0,621)

10- Montant dem = montant octroyé ?.....(0,618)

11- Durée d'existence de l'entreprise .....(0,579)

12-Age du dirigeant de l'entreprise .......(0,569)

On en déduit que d'autres variables comme le type de garantie ou le statut matrimonial du dirigeant de l'entreprise n'expliquent pas assez la solution factorielle.

Tableau 9: Qualité de représentation des variables

Source : Recherche de Fred Ntoutoume (logiciel SPSS),

Crefdes, 2007

Notre interprétation des inerties peut être conforté à la lumière de l'analyse la matrice des composantes, qui renseigne sur la contribution de chaque variable à l'explication de chacun des 7 axes factoriels retenus.

Nous remarquons en effet, sur la ligne de la variable « Nombre d'enfants », que les inerties sont assez fortes pour chaque axe factoriel concerné. De même pour la variable « Nombre de personnes à charges », qui a d'assez bonnes contributions sur tous les sept axes. Par contre, la variable « Type de garantie présentée », qui semble pourtant bien expliquer l'axe 1, n'est pas assez explicative sur les 6 autres composantes.

Source : Recherche de Fred Ntoutoume (logiciel SPSS), Crefdes, 2007

Tableau 10: Matrice des composantes

1.3. Les variables explicatives retenues

Suite à notre analyse factorielle des correspondances principales, dont l'objectif de départ tenait à la réduction des variables, nous avons constaté que certaines d'entre les 18 variables explicatives de départ ne contribuaient pas assez à l'explication de la solution factorielle. En effet, dans les sept premières composantes, leurs taux d'inertie se sont révélés marginaux par rapport à d'autres, ainsi que nous l'avons présenté dans le tableau représentant la matrice des composantes.

Sous ce rapport, nous avons procédé à une sélection des principales variables qui nous semblent, au regard de leur inertie, prendre en charge assez fortement l'essentiel de l'information contenue dans notre échantillon de 212 PME. Leur composition, dont le nombre est passé de 18 à 12, est présentée dans le tableau qui suit:

Tableau 11: Les variables explicatives retenues apres l'AFC

 

Code

Etiquette

Nombre de

modalités

1

sexedir

Sexe du dirigeant de l'entreprise

2

2

nbenf

Nombre d'enfant du dirigeant de l'entreprise

2

3

persach

Nombre de personnes à charge dans le foyer du dirigeant d'entreprise

3

4

nivrev

Niveau de revenu du dirigeant de l'entr.

7

5

sectact

Secteur d'activité de l'entreprise

10

6

valgar

Valeur de la garantie proposée

8

7

durecoul

Durée écoulée entre demande de crédit et réponse de l'UMECUDEFS

4

8

montant

Montant du crédit octroyé

6

9

democt

Montant demandé = montant octroyé ?

2

10

difdemre

Différence entre nombre de versements demandés et obtenus

5

11

age

Age du dirigeant de l'entreprise

11

12

duréexis

Durée d'existence de l'entreprise

4

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

II/ Résultats économétriques de la modélisation par la régression logistique

Dans la mesure où notre étude, dont l'objectif est la construction d'un modèle de score sensé prédire le niveau de risque de contrepartie associé à un demandeur de crédit, implique le recours à une variable endogène qualitative discrète (Y = {0,1}), nous rappelons qu'un modèle linéaire n'est pas licite.

En effet, la matrice (X'X) des variables explicatives (exogènes) n'étant pas inversible, il n'est pas possible d'estimer les paramètres du modèle de notre étude par la méthode des moindres carrés ordinaires (MCO). Nous aurons recours à l'économétrie des variables qualitatives, en particulier à une méthode d'optimisation appelée la méthode du maximum de vraisemblance (maximum likelihood).

2.1. Génération des modalités « Bon payeur » et « mauvais payeur »

En posant que : 1 si la TPE est « mauvais payeur »

Y= probabilité de défaut (variable endogène), avec Yi=

0 sinon

Définition (Rappel) : une entreprise est « mauvais payeur » si elle n'a pas intégralement remboursé son crédit, intérêt et principal, au plus 3 mois après la dernière date d'échéance prévue.

Tableau 12: Codage de la varible dépendante (Y)

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

On peut donc écrire pour le modèle logit auquel nous aurons recours :

Probabilité de défaut de remboursement P(Y =1) = 1- F(S - Xi â),

Avec F  : la fonction de répartition du modèle logit qui est égal à F(x) = 1/(1+e-x)

Xi â  : vecteur des variables exogènes (explicatives)

S : le seuil (constante)

Donc :

1

1 + e -S+Xiâ

§ P (Y=1) = 1 -

2.2. Spécification du modèle logit et estimation des paramètres prédictifs

Figure 7: Procédure d'estimation du modèle logistique sous SPSS

Pour obtenir une spécification et une estimation du modèle par régression logistique sous SPSS, nous sélectionnons à partir du menu <Analyse>, la procédure <Logistique Binaire> du menu <Régression>, en choisissant les options « Diagramme de classement », « qualité d'ajustement de Hosmer-Lemeshow », « correlation des estimations » et « historique des itérations ».

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

Figure 8: Choix de la méthode logistique « Descendante par rapport de vraisemblance »

Nous choisissons ensuite d'utiliser la méthode « descendante par rapport de vraissemblance » de sorte que SPSS ne sélectionne que les variables réellement significatives dans le modèle final.

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

Le tableau ci-dessous récapitule le traitement des observations contenues dans notre base de données. Nous retrouvons nos 212 TPE inclues dans l'analyse.

Tableau 13: Récapitulatif du traitement des observation

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

Ce récapitulatif établi, il nous permet de savoir qu'aucune observation n'a été retirée (omise) de l'analyse suite à une probable valeur aberrante ou manquante. Nous pouvons dès lors présenter les résultats de l'estimation des paramètres du modèle Logit, par la méthode du Maximum Likelihood (descendante):

Tableau 14: Estimation des paramètres du modèle logistique

 

 

B

E.S.

Wald

ddl

Signif.

Exp(B)

Etape 12

AGE

0,316

0,144

4,818

1

0,028

1,372

 

NIVREV

-0,451

0,187

5,842

1

0,016

0,637

 

DURÉEXIS

-0,951

0,562

2,859

1

0,091

0,386

 

VALGAR

-0,273

0,154

3,129

1

0,077

0,761

 

MONTANT

0,888

0,327

7,378

1

0,007

2,43

 

DEMOCT

3,347

0,662

25,592

1

0

28,418

 

DIFDEMRE

1,268

0,321

15,636

1

0

3,554

 

Constante

-3,586

2,373

2,283

1

0,131

0,028

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

En considérant P comme la probabilité que la TPE soit un « mauvais payeur », l'estimation des paramètres du modèle permet d'aboutir à la régression (Equation) suivante :

= (-3,586) +0,316.AGE -0,451.NIVREV -0,951.DUREEXIS -0,273.VALGAR +0,888.MONTANT +3,347.DEMOCT + 1,268.DIFDEMRE

P

1-P

ln

D'où le modèle logistique P de probabilité de défaut de remboursement (ou modèle de crédit-scoring) dans notre présente étude peut finalement s'écrire :

1

1+e (- 3,586 +0,316.AGE -0,451.NIVREV -0,951.DUREEXIS -0,273.VALGAR +0,888.MONTANT +3,347.DEMOCT +1,268.DIFDEMRE)

P = 1-

A proprement parler, la valeur numérique des paramètres estimés en eux même n'ont pas d'intérêt dans une estimation logistique, dans la mesure où « ils ne correspondent aux paramètres de d'équation de la variable latente qu'à une constante multiplicative près » (Doucouré, 2006).

La seule information réellement utilisable est donc le signe des paramètres, car ceux-ci donnent une indication sur le sens de l'influence que la variable associée a sur la probabilité de non-remboursement à la hausse ou à la baisse. Par ailleurs, il apparaît après l'estimation des paramètres par le maximum de vraisemblance que seules sept variables sont réellement significatives dans notre modèle logistique, au vu des valeurs de leur probabilité (colonne « Signif. »). Il s'agit des variable AGE (2,8%), NIVREV (1,6%), DUREEXIS (« variable forcée » à 9,1%), VALGAR (« variable forcée » à 7,7%), MONTANT (0,7%), DEMOCT (0%) et DIFDEMRE (0%). Pour mémoire, on accepte l'hypothèse de non nullité du coefficient dès que la probabilité critique (significativité) est inférieure à 0,05, soit 5%.

Enfin, le logiciel SPSS indique à son 12e pas qu'« aucune autre variable ne peut être supprimée ou rajoutée au modèle en cours » (cf. tableau infra). En effet, à chaque étape, l'algorithme du modèle logistique élimine systématiquement les variables dont la significativité est trop faible quant à la classification des bons ou mauvais payeurs. Cette spécifié vient de l'option « régression logistique descendante » pour laquelle nous avons opté, en complément de notre analyse factorielle. Ainsi, comme le présente le tableau récapitulatif ci-dessous, la variable PERSACH a été « out » à l'étape 1, suivie de la variable TYPGAR à l'étape 3, puis de la variable NBENF à l'étape 4, et ainsi de suite jusqu'au 12e pas. Pour cette raison, nous ne discuterons infra que des variables significatives (cf paragraphe 2.6).

Tableau 15: Récapitulatif des étapes de la régression logistique

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

2.3. Qualité du modèle (Test de Significativité globale)

La qualité du modèle est évaluée par le Log likelihood (ou log vraisemblance). Cet indicateur vaut 96,827 à la 12e étape. On en déduit que la significativité globale du modèle est bonne.

Tableau 16: Test de Log vraisemblance


Source : Recherche de Fred Ntoutoume, Crefdes, 2007

2.4. Test de Hosmer-Lemeshow (test d'ajustement du modèle)

Le test de Hosmer-Lemeshow permet de savoir si le modèle spécifié est bon ou mauvais. Il s'appuie sur le test d'hypothèse suivant :

H0 : ajustement bon (Goodness of fit)

H1 : ajustement mauvais

La règle de décision est :

§ On accepte l'hypothèse H0 si la valeur de la probabilité (Significativité) est supérieure à 5% ;

§ On refuse l'hypothèse dans le cas contraire.

Le logiciel SPSS nous fourni les résultats ci-dessous :

Tableau 17: Test de Hosmer-Lemeshow

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

Interprétation du test : au seuil de 5%, l'ajustement du modèle est bon car la probabilité (ou significativité) du Khi carré à 8 degrés de liberté (ddl) vaut 0,56, soit 56%, d'où on accepte l'hypothèse H0. Ce d'autant plus que la distance entre les fréquences observées et prédites au moyen de la statistique du Khi 2 est petite (6,788). Le modèle est donc bien calibré.

2.5. Qualité de prédiction du modèle (performance de classification)

La qualité de prédiction du modèle est donnée par le tableau suivant

Tableau 18: Performances de classification du modèle logit

Source : Recherche de Fred Ntoutoume (Logiciel SPSS), Crefdes, 2007

Le modèle logit prédit correctement la défaillance des TPE dans 93,4% des cas. Le présent modèle de crédit scoring présente donc d'excellentes qualités prédictives. Ce d'autant plus qu'il prédit à 97,2 % les mauvais emprunteurs (sensibilité), et à 75% les bons (spécificité). Or les pertes financières issues d'un « mauvais prêt » sont plus importantes que les pertes financières issues du rejet par erreur d'un « bon prêt »29(*).

2.6. Discussions sur les déterminants du risque de crédit du modèle Logistique

Pour mémoire, nous rappelons les signes des coefficients dans le tableau qui suit :

Tableau 19 : Signe des coefficients et significativité

 

B

Signif.

AGE

0,316

0,028

NIVREV

-0,451

0,016

DURÉEXIS

-0,951

0,091

VALGAR

-0,273

0,077

MONTANT

0,888

0,007

DEMOCT

3,347

0

DIFDEMRE

1,268

0

Constante

-3,586

0,131

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

Notre discussion admettra systématiquement un test du Khi 2 de Pearson, afin d'évaluer la relation entre la variable endogène (non remboursement) et la covariable discutée. Le test d'hypothèse généralement admis est le suivant :

H0 : La variable exogène et la variable endogène ne sont pas dépendantes (aucun lien)

H1 : La variable exogène et la variable endogène sont dépendantes

Nous nous baserons sur une signification asymptotique (bilatérale) de 0,05 qui signifie qu'on a 5 chances sur 100 de se tromper en rejetant l'hypothèse nulle, c'est-à-dire en admettant que les colonnes et les lignes du cas traité sont indépendantes. En conséquence, on accepte l'hypothèse d'indépendance des variables si la signification asymptotique est supérieure à 5%.

2.6.1) Probabilité de non-remboursement et âge du dirigeant de la PME 

On remarque que le coefficient de la covariable AGE est positif et significatif. Ainsi, l'âge du dirigeant de la TPE est une fonction croissante de la probabilité de non-remboursement d'un crédit, chez les chefs d'entreprises du portefeuille de l'UMECUDEFS. En d'autres termes, plus le dirigeant se trouve dans une tranche d'âge élevée, et plus il présente de risques de non remboursement de la créance.

Cette relation entre l'age d'un client et le remboursement d'un crédit n'est en fait pas propre à l'Afrique. La plupart des banques ou IMF prennent en effet plus de précautions (souscription d'assurance par exemple) à mesure que le demandeur de crédit se révèle être avancé en age. Notre échantillon montre que ce sont les clients de la tranche 30 à 50 ans qui sont les plus nombreux dans l'effectif des mauvais payeurs, au prorata du profil de la population mère, qui comptent en majorité des PME dont les dirigeants appartiennent à cette tranche d'âge.

D'un point de vue purement statistique, il semble que l'âge des dirigeants des PME, bien qu'ayant une influence sur le risque de non-remboursement, n'en dépende pas pour autant. En effet, la signification du test du Khi-deux de Pearson révèle une valeur de 9,396 significative à 49,5%, ce qui nous pousse à accepter l'hypothèse d'indépendance entre les deux variables.

Tableau 20: Test du Khi Carré REM3MOIS & AGE

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

2.6.2) Probabilité de non-remboursement et Niveau de Revenu du dirigeant de la PME

En ce qui concerne le niveau de revenu du dirigeant de la PME, les résultats de l'estimation logistique nous révèlent un coefficient associé négatif. Cette influence en sens inverse revenu sur le risque de contrepartie était aussi attendue. En effet, si les revenus du client engagé auprès de la mutuelle augmentent, il a d'autant moins de risques de ne pas rembourser dans la mesure où il dispose d'une plus grande surface financière. Cette règle soutend d'ailleurs le dicton populaire qui recommande de ne prêter qu'aux riches.

La valeur du Khi-deux de Pearson est de 27,889. Au niveau de 0,005 de signification, l'hypothèse H0 d'indépendance des variables est rejetée car la probabilité de signification vaut 0. On en déduit que le niveau de revenu des dirigeants de TPE est bien lié, du point de vue statistique, au risque de contrepartie que présentent les individus de notre échantillon.

Tableau 21: Test du Khi Carré REM3MOIS & NIVREV


Source : Recherche de Fred Ntoutoume, Crefdes, 2007

2.6.3) Probabilité de non-remboursement et Durée d'existence de la PME

De même que le niveau de revenu, la durée d'existence de la PME (c'est-à-dire de l'activité commerciale) influence négativement le risque de crédit. Il est en effet négatif et significatif au seuil de 10%. Cette relation pourrait signifier que plus l'entreprise a acquis d'expérience dans son secteur d'activité, et moins elle présente de risques de défaillance dans le remboursement d'un prêt. Cette relation non plus n'est pas nouvelle, et se situe d'ailleurs au coeur de la sélection adverse que les prêteurs, banques et IMF, développent à l'égard des entreprises naissantes ou en phase de croissance.

D'un point de vue statistique toutefois, l'hypothèse d'indépendance entre les deux variables est acceptée au regard des résultats du test du Khi-deux. La signification asymptotique est en effet égale à 34,6%, donc bien largement supérieur aux 5% communément admisent comme seuil maximum de rejet de l'hypothèse H0. On en déduit que la durée d'existence des PME de notre échantillon n'admet aucune dépendance statistique avec le risque de contrepartie qu'elles présentent.

Tableau 22: Test du Khi Carré REM3MOIS & DUREEXIX

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

2.6.4) Probabilité de non-remboursement et Valeur de la garantie proposée

Pour ce qui est de la covariable VALGAR, elle est négative et significative à 8%. Cela signifie que le risque de contrepartie diminue à mesure que la valeur du type de garantie proposée (hypothèque, caution,..) est élevée. Cette relation aussi était plus ou moins attendue entre les deux variables, même si les banquiers s'accordent à dire que « la garantie ne fait pas le crédit ».En effet, dans la pratique c'est moins la valeur de la garantie qui est regardée que sa capacité à être réalisée.

Une garantie de grande valeur mais peu liquide n'est donc pas une garantie de grande qualité. De plus, les types de garantie proposées présentent souvent une valeur sociale importante, à l'instar de la mise en hypothèque d'une maison, ce qui en rend la réalisation parfois longue, difficile et non moins coûteuse pour le créancier.

Le lien statistique entre la valeur de la garantie et le risque de crédit n'est justement pas confirmé par le test du Khi deux de Pearson. En effet, la signification asymptotique prise par la valeur du test s'élevant à 31,1%, elle ne permet pas de conclure à une quelconque dépendance statistique entre les deux variables.

Tableau 23: Test du Khi Carré REM3MOIS & VALGAR

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

2.6.5) Probabilité de non-remboursement et Montant du crédit Octroyé 

On constate que la variable MONTANT a un paramètre associé dont le signe est positif et rès significatif (au seuil de 0,008). Ce signe est conforme à nos attentes, car un montant de crédit élevé diminue la probabilité pour le créancier d'honorer son engagement, toutes choses étant égales par ailleurs. Ce d'autant plus que les échéanciers de remboursement appliqués par l'UMECUDEFS n'excèdent que rarement les douze mois. Un montant élevé du principal, a par conséquent tendance à « gonfler » les échéances de remboursement, ajouté des intérêts.

Le test du Khi-deux postule l'inexistence d'une dépendance formelle entre le montant du crédit et la probabilité de non remboursement chez les PME constitutives de notre échantillon. En effet, la valeur de l'indicateur de Pearson vaut 6,416 à 5 degrés de liberté, mais n'est significative qu'à 26,8%, ce qui est largement supérieur à 5%, seuil requis pour rejeter l'hypothèse d'indépendance des variables.

Tableau 24: Test du Khi Carré REM3MOIS & MONTANT

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

2.6.6) Probabilité de non-remboursement et sélection adverse 

La variable  DEMOCT est significative et positive. L'analyse économétrique nous révèle donc que la probabilité de non remboursement augmente si le montant finalement octroyé par l'UMECUDEFS est inférieur à celui initialement sollicité par le demandeur de crédit. Ce résultat pourrait se justifier par le fait que le montant de la demande de crédit est souvent associé à un projet plus ou moins évalué par le client. Or, financer la moitié ou le tiers de ce projet porte à l'évidence atteinte au résultat dudit projet, et par conséquent à sa viabilité.

Le principe qui pousse le microprêteur à baisser le montant du crédit (ou à augmenter les taux d'intérêt) sur un dossier est imputable à la notion de sélection adverse, selon laquelle celui-ci espère réduire le risque de contrepartie en corsant (ou « sécurisant ») davantage l'opération. Or cette option a pour effet de produire le strict contraire de celui espéré : le risque de contrepartie augmente significativement, dans la mesure où d'une part le projet amputé d'une partie de son besoin de financement se retrouve compromis, et d'autre part, ce sont les projets les plus risqués qui accepteraient les conditions de crédit les plus contraignantes.

Le test du Khi-deux nous confirme avec un seuil de signification de 0,05% que la sélection adverse est bel et bien liée à la probabilité qu'un dirigeant de PME ne rembourse pas son crédit. Sa valeur est de 43,190 à 1 degré de liberté, ce qui nous permet d'accepter l'hypothèse de dépendance entre les deux variables.

Tableau 25: Test du Khi Carré REM3MOIS & DEMOCT

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

2.6.7) Probabilité de non-remboursement et Respect des échéances 

Le respect ou non des échéances semble jouer un rôle dans la probabilité de remboursement, après l'octroi du crédit. En effet le coefficient de DIFDEMRE étant significatif et positif, on en déduit que la probabilité de défaut de remboursement augmente si l'emprunteur présente de plus en plus de différés de remboursement. Ce constat soulève en filigrane la question du suivi des prêts et du recouvrement des échéances dans la balance âgée.

La relation tient au fait qu'un client qui accumule les échéances impayées augmente significativement son risque de contrepartie, ce qui est tout à fait logique toutes choses étant égales par ailleurs, dans la mesure où le coût d'opportunité du remboursement sera inférieur au coût du renoncement à un autre placement, ou à un autre poste de dépense avec la même somme.

Au plan statistique, nous remarquons une dépendance réciproque du respect des échéances et du risque de crédit, avec un seuil d'erreur de 0,005%. En effet, le test du Khi-deux de Pearson sur la variable exogène et la variable endogène prend une valeur de 48,796 à 4 degré de liberté, ce qui nous permet de rejeter l'hypothèse nulle d'indépendance des variables.

Tableau 26: Test du Khi Carré REM3MOIS & DIFDEMRE

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

2.7. Simulations sur le modèle logistique binaire

Nous nous proposons, après avoir présenté et discuté des déterminants du risque de crédit sur l'échantillon de notre étude, de procéder à quelques simulations du modèle sur 2 cas de demande de crédit hors échantillon de départ. Il s'agit de tester le modèle sur le plan empirique. Nous aurons donc recours à deux dossiers, pour éprouver notre modèle de scoring dont la formule aura été préalablement programmée dans un tableur, sous le logiciel EXCEL.

Ainsi, calculons la probabilité de non remboursement pour ces 2 cas:

§ 1er cas de demandeur de crédit : soit le dirigeant d'une PME (Boucherie) âgé de 46 ans, exerçant depuis 10 ans et percevant mensuellement un revenu compris entre 150.000 et 200.000 Fcfa, présentant une garantie (électroménager) d'une valeur estimée de 300.000 Fcfa, et dont la demande de crédit a été traitée pour un montant demandé et accordé de 500.000 FCFA. Le score de risque de ce client est présenté dans le tableau ci-dessous avec une première hypothèse sans retard de versement, puis une seconde hypothèse avec 1 retard (le cas présenté dans la figure) ;

§ 2e cas de demandeur de crédit : soit la dirigeante d'une PME (Commerce de textile) agée de seulement 32 ans mais avec un niveau de revenu atteignant les 400.000 Fcfa mensuels, exerçant dans le commerce depuis 6ans, proposant une garantie d'une valeur estimée à plus de 3 millions Fcfa (stock de marchandises), dont la demande de crédit initialement de 600.000 Fcfa, a été traitée et accordée à 400.000 Fcfa. Le score de risque de ce client est présenté dans le tableau ci-dessous avec une première hypothèse sans retard, puis une deuxième avec 1 retard (le cas présenté dans la figure) ;

Figure 9: Simulation sur modèle de scoring logistique

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

Dans le premier cas, notre modèle de scoring crédit associe au dirigeant de la PME demandeur de crédit une probabilité de défaillance de 15,32%. En d'autres termes, il y'aurait un peu plus de 8 chances sur 10 que ce client rembourse son crédit au plus tard 3 mois après la date de la dernière échéance prévue, toutes choses étant égales par ailleurs. Mais compte tenu du niveau de prédictions global du modèle qui est de 93%, cette probabilité de 15,29% peut varier à la hausse ou à la baisse d'à peu près 7 points. Ce qui reste très appréciable comme risque à prendre.

Pour ce même cas, nous pouvons faire quelques simulations avec notre modèle. Par exemple :

§ si le microprêteur décidait de ne pas attribuer par prudence une probable échéance impayée dans l'analyse du risque de ce client, et que par conséquent il admettait que la valeur de la covariable DIFDEMRE était égale à zero, la probabilité de défaut du dirigeant de la PME baisserait à 4,84%, toutes choses étant égales par ailleurs. Ce qui nous confirme que la prise en compte ex-ante d'une probable échéance impayée du demandeur de crédit a une influence significative sur la probabilité de remboursement.

§ Si le montant du crédit s'élevait à 600.000 FCFA (au lieu de 250.000 FCFA dans le cas initial), toujours avec le même dirigeant de la PME (boucherie), et toujours en admettant dans l'analyse que celui-ci aurait au moins une échéance impayée, la probabilité de non remboursement passerait à 51,64% (mais avec 100.000Fcfa de moins, c-à-d un montant de crédit à 500.000, le risque passe 30,53%). Cette augmentation du risque de contrepartie, d'environ 35 points au plus et 15 points au moins, à la suite d'une augmentation du montant du crédit alloué, illustre bien la significativité et la sensibilité de cette variable MONTANT dans l'influence négative de la capacité de remboursement.

Du point de vue empirique, notre modèle logistique a correctement classé le client de ce premier cas (à 15, 29% de risque de non remboursement), puisque dans les faits cette PME a en effet été en mesure de rembourser intégralement son crédit, moins de trois mois après la dernière échéance prévue.

Dans le second cas, le dossier du demandeur de crédit est se voit attribuer une probabilité de non remboursement de 67,12%, avec un seuil de plus ou moins 7 points. Ce client se révèle donc être plus risqué que la moyenne, ce malgré l'âge du dirigeant de la PME (32 ans), son niveau de revenus (400.000Fcfa mensuel environ), et surtout la valeur de la garantie qui semble importante (plus de 3 millions) alors que le crédit obtenu ne s'élevait qu'à 400.000Fcfa. Cette probabilité élevée de non remboursement est attribuable, selon notre modèle :

§ d'abord à l'effet de sélection adverse développé par le micropreteur qui en lieu et place des 600.000Fcfa demandés, a amputé la somme initiale de 30% à 400.000Fcfa. En effet, si le client avait obtenu le montant sollicité, c'est-à-dire si la valeur de la variable DEMOCT était égale à 1, notre modèle économétrique calcule dans ce cas une probabilité de défaut de l'ordre de 7%, soit une différence de 60 points environ. D'où l'on déduit la très grande significativité de cette variable pour le risque de crédit présent dans notre échantillon. En fait, la plupart des mauvais payeurs de l'UMECUDEFS n'ont pas obtenu le montant du crédit sollicité au départ.

§ Puis au différé d'un mois inclus dans l'analyse, en admettant que ce client présenterait au moins un défaut de paiement sur une échéance pendant le remboursement du crédit. En l'absence de cette hypothèse, et toutes choses étant égales par ailleurs, le score de cette cliente reviendrait à 36,48%, avec plus ou moins 7 points de variation. Ce qui l'aurait classée dans les « cas médians » ni trop risqués, ni trop fiables.

Dans les faits cependant, la probabilité de 67,12% calculée par notre modèle a été confirmée par l'issue réelle du cas N°2. Cette PME n'avait pas remboursé son crédit en intégralité, plus de trois mois après la dernière échéance prévue.

III/ Résultats de la modélisation par les réseaux de neurones

Après la modélisation logistique, notre étude s'attachera dans cette section à tenter une modélisation prédictive par la méthode neuronale. Pour mémoire, nous rappelons que la fonction de transfert utilisée dans la première couche cachée est la sigmoïde logistique ou logsigmoide Y=F(x) = 1/(1+exp(-x)), similaire à celle de la régression logistique que nous avons vu plus haut. Dans une deuxième couche, il s'agira d'une fonction linéaire. L'idée c'est d'obtenir une fonction qui présente un comportement linéaire lorsque les poids des noeuds sont petits (au voisinage de zero), et non linéaire lorsque l'on se situe aux extrémités.

3.1. Identification des données en entrée et en sortie.

Les données en entrées sont celles composant notre échantillon après épurement de l'analyse fréquentielle. En l'occurrence, il s'agit des 212 individus décrits à travers leurs 18 variables explicatives, qui constitueront les neurones input. Les données en sortie sont soit la modalité 1 pour « bon payeur », ou la modalité 2 pour « mauvais payeur ». Le type de réseau qui sera utilisé est le perceptron multicouches (PMC), encore appelé « Multi Layer Perceptron ». Celui-ci semble adapté aux modèles non linéaires, et se compose en plusieurs couches : les variables en entrée, les variables de sortie, les niveaux cachés.

Tableau 27 : Caractéristiques du réseau neuronal PMC utilisé

 

Libellé

caractéristiques

« poids »

Poids pi, et Poids qi

Couches cachées

Fonction de combinaison

Produit scalaire ?i pixi

Fonction transfert

Logistique

F(X)= 1/(1+exp(-X))

Nombre de couches cachées

2

Couche de sortie

Fonction de combinaison

Produit scalaire ?k pkxk

Fonction transfert

Logistique

F(X)= 1/(1+exp(-X))

 

Rapidité

Plus rapide en mode « application du modèle »

Avantage

Meilleure généralisation

Source : Recherche de Fred Ntoutoume, Crefdes, 2007 (inspiré de Tufféry, 2006)

Nous avons augmenté le pouvoir de prédiction en admettant deux couches cachées entre la couche d'entrée et la couche de sortie. La structure générale de notre réseau est de la forme :

Figure 10: Structure générale du réseau neuronal PMC utilisé

Variables explicatives

(Couches d'entrée)

& Poids synaptiques (p et q)

Fonction de sortie (couche de sortie)

Fonction de combinaisaon

(couches cachées)

Source et Format

des données

(pi)

(qi)

SEXEDIR

(pi)

(qi)

STATMAT

Ó pi xi

(pi)

(qi)

AGE

Y=F(X)= 1/(1+exp(-X))

Base de données UMECUDEFS

(212 individus)

Ó qi xi

(pi)

(qi)

NBENF

.

.

.

.

.

.

.

.

(pi)

(qi)

Source :

Recherche de Fred Ntoutoume, Crefdes, 2007

DEMOCT

Pour procéder à l'identification des données en entrée et en sortie sur le logiciel SPAD 5.5, nous procédons par exportation de la base de données d'origine de SPSS à SPAD, via une conversion en extension *.sba, puis par création et enregistrement d'une filière, non sans avoir précisé la méthode que nous souhaitions utiliser. Après un double clic sur l'icône de la méthode, nous obtenons la boite de dialogue de définition du modèle (cf figure ci-dessous).

Figure 11: procédure de définition du modèle neuronal sous SPAD

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

Cette procédure SPAD nous permet, d'une part, de définir la variable à discriminer (variable de sortie) qui correspond dans notre cas à la variable REM3MOIS (remboursement du crédit au plus 3 mois a près la dernière échéance). Cette variable est codée en V20 sur SPAD. D'autre part, le logiciel nous demande de spécifier les variables explicatives du modèle, ou variables d'entrée. Celles-ci correspondent aux variables V2 à V19.

Les réseaux de neurones souffrant fréquemment de « sur-apprentissage » on a scindé l'échantillon de base en deux : l'échantillon d'apprentissage et son complément l'échantillon test. Par ailleurs, on utilise la fonction sigmoïde et l'apprentissage s'effectue avec une fonction d'erreur quadratique (encore appelée coût). La vitesse de convergence est alors sensible au coefficient å.

3.2. La fixation des paramètres du réseau

Pour mémoire, nous rappelons que l'apprentissage a été réalisé par rétropropagation de l'erreur. De façon à éviter les minima locaux dans la surface d'erreur, nous avons utilisé un taux d'apprentissage variable et un moment. Nous avons admis deux couches cachées, en sus de la couche d'entrée et de la couche de sortie. Les paramètres d'apprentissage du réseau sont les suivants :

- Coefficient d'apprentissage : 0,1 0

- Momentum : 0,5

- Température de fonction sigmoïde : 0,5

Figures 12: Procédure de fixation des paramètres du modèle neuronal sous SPAD

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

3.3. Les résultats de la modélisation par réseaux de neurones

La modélisation du risque de crédit à des fins de prédiction par rétropropagation de gradient de l'erreur, sur réseaux neuronaux, nous fournit les résultats suivants :

Tableau 28: Matrice de confusion avec marge

(avec 2 neurones dans la 2e couche cachée)

DISCRIMINANTE NEURONALE A N GROUPES

INFORMATION SUR LE RESEAU UTILISE

ROLE DES INDIVIDUS ACTIFS : APPRENTISSAGE

NOMBRE DE COUCHES CACHEES : 2 COUCHES

NOMBRE DE NEURONES PAR COUCHE CACHEE

COUCHE 2 : 18

COUCHE 3 : 2

COEFFICIENT D'APPRENTISSAGE : 0.10000

MATRICE DE CONFUSION AVEC MARGES

EN LIGNE : Ce client a til remboursé integralement son credit au plus 3

EN COLONNE : CLASSES DE SORTIE

+----------------------+------+------+------+

| |CLA 1|CLA 2| ENS |

+----------------------+------|------|------|

| oui | 29 | 7 | 36 |

| non | 18 | 158 | 176 |

+----------------------+------+------+------+

| ENSEMBLE | 47 | 165 | 212 |

+----------------------+------+------+------+

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

La matrice des confusions calculée sur les données d'apprentissage permet de mesurer le taux d'erreurs, ou taux de mauvais classement. A la lumière des résultats observés dans le tableau ci-dessus, nous constatons que les performances prédictives du modèle neuronal ne sont pas assez satisfaisantes. En effet, la proportion d'individus orientés vers la bonne classe de sortie est de l'ordre de 88,21%, c'est-à-dire en deçà des 90%, seuil tolérable au grand maximum. Le tableau de pourcentages des biens classés indique dans le détail, que les « mauvais payeurs » classés par erreur chez les « bon payeurs » est supérieur à 1/10 (cf tablau ci-dessous).

Tableau 29: Performances de classement du réseau de neurones

(avec 2 neurones dans la 2e couche cachée)

POURCENTAGE DE BIEN CLASSES

+----------------------+---------+---------+---------+---------+---------+

| | BIEN | MAL | | %BIEN | |

| | CLASSES | CLASSES | TOTAL | CLASSES | PURETE |

+----------------------+---------+---------+---------+---------+---------+

| oui | 29 | 7 | 36 | 80.56 | 61.70 |

| non | 158 | 18 | 176 | 89.77 | 95.76 |

+----------------------+---------+---------+---------+---------+---------+

| TOTAL | 187 | 25 | 212 | 88.21 | 88.21 |

+----------------------+---------+---------+---------+---------+---------+

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

Compte tenu de ces premiers résultats relativement insuffisants, nous nous proposons de réajuster la structure du réseau, afin d'améliorer les performances prédictives. Nous pouvons opter soit pour l'ajout d'une couche supplémentaire, soit pour l'ajustement d'une couche déjà existante. La première solution a cependant l'inconvénient de complexifier d'avantage le réseau. Nous choisissons la seconde option, moins coûteuse.

3.4. Le réajustement de la structure du réseau de neurones et les résultats

Le réajustement de la deuxième couche consiste à lui retrancher un neurone, sur les deux de départ. Toutes choses étant donc égales par ailleurs, nous relançons le réseau et obtenons ce qui suit :

Tableau 30: Résultats de la modélisation neuronale

(avec 1 neurone dans la 2e couche cachée)

INFORMATION SUR LE RESEAU UTILISE

ROLE DES INDIVIDUS ACTIFS : APPRENTISSAGE

NOMBRE DE COUCHES CACHEES : 2 COUCHES

NOMBRE DE NEURONES PAR COUCHE CACHEE

COUCHE 2 : 18

COUCHE 3 : 1

COEFFICIENT D'APPRENTISSAGE : 0.10000

MATRICE DE CONFUSION AVEC MARGES

EN LIGNE : Ce client a til remboursé integralement son credit au plus 3

EN COLONNE : CLASSES DE SORTIE

+----------------------+------+------+------+

| |CLA 1|CLA 2| ENS |

+----------------------+------|------|------|

| oui | 28 | 8 | 36 |

| non | 10 | 166 | 176 |

+----------------------+------+------+------+

| ENSEMBLE | 38 | 174 | 212 |

+----------------------+------+------+------+

POURCENTAGE DE BIEN CLASSES

+----------------------+---------+---------+---------+---------+---------+

| | BIEN | MAL | | %BIEN | |

| | CLASSES | CLASSES | TOTAL | CLASSES | PURETE |

+----------------------+---------+---------+---------+---------+---------+

| oui | 28 | 8 | 36 | 77.78 | 73.68 |

| non | 166 | 10 | 176 | 94.32 | 95.40 |

+----------------------+---------+---------+---------+---------+---------+

| TOTAL | 194 | 18 | 212 | 91.51 | 91.51 |

+----------------------+---------+---------+---------+---------+---------+

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

Suite de notre réajustement structurel du réseau Perceptron Multicouches, nous observons que la performance globale des classements a été améliorée de 3 points environ. En effet, alors que le pourcentage des biens classés était de l'ordre de 88,21% dans le premier cas, il se situe à présent au niveau de 91,51%. Nous en déduisons que notre réajustement a permis d'obtenir l'une des plus robustes performances de classement possibles pour notre échantillon, et nous le gardons.

IV/ Comparaison des modèles logistique et neuronal

Après avoir procédé avec succès à la modélisation par la régression logistique binaire d'une part, et par les réseaux de neurones PMC d'autre part, nous nous proposons de comparer les performances de classement prédictif des deux modèles à des fin d'arbitrage.

4.1. Comparaison des matrices de confusion (pourcentage de classement prédictif)

La règle de décision associée à un score nous permet d'affecter chaque entreprise à un des groupes « mauvais payeur », ou « bon payeur ». Toutes les entreprises de notre base de données ont donc un groupe auquel elles appartiennent réellement, et un groupe auquel elles sont affectées. Le décompte des affectations correctes, c'est-à-dire correspondant au groupe réel, nous a fournit les pourcentages de bons classements, celui-ci dépendant du seuil de décision. Les pourcentages de classement pour les deux méthodes, sont comparés dans le tableau qui suit :

Tableau 31: Comparaison des pouvoirs discriminants

Classes à prédire

Modèles de classement prédictif

Régression Logistique binaire

RNA Perceptron Multicouches

« bons payeurs »

75,0

77,78

« mauvais payeurs »

97,2

94,32

Ensemble

93,4

91,51

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

La comparaison des pourcentages des bons classements prédictifs nous révèle que la modélisation du risque de contrepartie issue de notre échantillon d'apprentissage est plus fiable lorsque l'on se base sur une régression logistique, plutôt que sur une régression neuronale. En effet, l'ensemble des prédictions est correct à 93,4% dans le cas de la première méthode, alors qu'il n'est fiable qu'à 91,51% dans le deuxième cas. Ce constat nous suggère d'opter, dans le cadre du choix de notre scoring final, pour l'équation de régression définie par la procédure Logit.

La qualité de prédiction des mauvais payeurs, qui sont correctement classés dans 97,2% des cas en régression logistique conte 94,32% en régression neuronale, vient en appui à notre décision en raison de la sensibilité. La sensibilité est définie pour mémoire comme la probabilité de classer l'individu dans la catégorie y = 1 (on dit que le test est positif) étant donné qu'il est effectivement observé dans celle-ci. En effet, nous l'avons dit, il est bien plus grave d'octroyer un prêt à une personne qui ne le remboursera pas (faux positif - erreur de type 1) que de ne pas octroyer un prêt à une personne fiable (faux négatif - erreur de type 2).

Nous rappelons que nous avons fixé notre seuil à 0,5, cela signifie que l'on considère comme mauvais payeur tout individu dont la probabilité de non-remboursement dépasse 0,5.

4.2. Choix du modèle de scoring final

A la lumière de la comparaison des matrices de confusion, nous retenons le modèle logistique comme le meilleur modèle prédictif sur notre échantillon. En l'occurrence le modèle, non-linéaire qui servira de base à la grille de scoring avec un seuil fixé à 0,5 est :

1

1+e (- 3,586 +0,316.AGE -0,451.NIVREV -0,951.DUREEXIS -0,273.VALGAR +0,888.MONTANT +3,347.DEMOCT +1,268.DIFDEMRE)

P = 1-

TROISIEME PARTIE

RECOMMANDATIONS

CHAPITRE V : RECOMMANDATIONS

I/ Recommandations pour une utilisation du modèle de score

Pour l'utilisation du modèle de scoring que nous avons proposé, il est important que certaines mesures techniques soient prises, afin d'en assurer la bonne mise en oeuvre. Ces mesures passent par i) l'implémentation informatique, ii) la formation des utilisateurs du modèle de score, ainsi que par un suivi du modèle soit iii) ponctuel, soit iv) continue.

1.1. Implémentation informatique

Le préalable à l'utilisation des résultats de notre data mining pour l'action et à la mise à disposition du modèle aux utilisateurs est l'implémentation informatique.

Nous notons d'abord qu'il est plus complexe, pour l'UMECUDEFS de mettre à jour des fichiers poste de travail afin d'y implémenter la nouvelle grille de score, dans la mesure où il sera nécessaire de saisir de nouvelles informations par les micropreteurs pour une exécution en temps réelle, grâce a une remontée vers les fichiers centraux. Or le logiciel « E-Banking » utilisé à présent par l'IMF ne prévoit pas de tels aménagements.

Sous ce rapport, nous recommanderions donc : 

§ l'utilisation dans un premiers temps d'un fichier de tableur pour réaliser un publipostage, à l'aide d'un logiciel de traitement de données (EXCEL par exemple) ;

§ la mise en test de cette configuration pendant 3 à 6 mois, avec une mise à jour hebdomadaire des bases de données.

1.2. Formation des utilisateurs du modèle de score

Pour une bonne appropriation du nouvel outil d'aide à la décision des micropreteurs et des analystes crédits, il serait nécessaire d'envisager des séances de formation à leur profit.

Les objectifs de ces séances de formation pourraient être :

§ Présenter le but recherché par le scoring et y adhérer

§ Présenter les principes de l'outil grille de score et son fonctionnement

§ Présenter les limites de la grille de score

§ Présenter les apports de la grille de score dans la mission de l'analyste crédit (opérationnel et organisationnel)

1.3. Suivi ponctuel par évaluation des utilisateurs

Il importe, après la mise en oeuvre du modèle, de suivre et d'évaluer les résultats obtenus. Ce suivi peut se faire dans le cadre d'un programme précis de prêts, à l'instar des crédits « TAXI IRANIENS ». L'idée est d'analyser les résultats obtenus après la campagne d'octroi des crédits, en s'assurant que les taux de remboursement sont bien en rapport avec les valeurs du score, et que ce sont biens les demandeurs de crédit avec les scores les moins risqués qui ont le mieux honoré leurs engagements.

Nous recommanderions par ailleurs de compléter cette analyse quantitative, par une analyse qualitative basée sur l'avis des agents de crédit ayant utilisé le score. Ceux-ci peuvent en effet avoir une meilleure idée des phénomènes omis par le score d'une part, ou bien avoir identifié par intuition des populations mal scorées d'autre part.

En somme, nous recommanderions, dans le cas d'un suivi ponctuel :

· une analyse quantitative basée sur une comparaison du point de vue de la sensibilité et de la spécificité du score ;

· une analyse qualitative basée sur une approche participative des utilisateurs du modèle de score.

1.4. Suivi en continue par tableau de bord

En complément ou en substitut du suivi ponctuel, il serait de même nécessaire de s'assurer des bonnes performances du score de crédit et de sa bonne utilisation, par la mise en place d'un suivi continue à travers des tableaux récapitulatifs. Le tableau ci-dessous pourrait servir à surveiller le bon fonctionnement du score, au fil des n premiers mois :

Tableau 32: Tableau de Bord de suivi du fonctionnement du score

 

Mois M-1

Mois M-2

Mois M-3

...

Score

%

Nb de clients

% de clients / pop. Totale

Taux d'impayé

Nb de clients

% de clients / pop. Totale

Taux d'impayé

Nb de clients

% de clients / pop. Totale

Taux d'impayé

 

10

 
 
 
 
 
 
 
 
 
 

20

 
 
 
 
 
 
 
 
 
 

30

 
 
 
 
 
 
 
 
 
 

40

 
 
 
 
 
 
 
 
 
 

50

 
 
 
 
 
 
 
 
 
 

60

 
 
 
 
 
 
 
 
 
 

70

 
 
 
 
 
 
 
 
 
 

80

 
 
 
 
 
 
 
 
 
 

90

 
 
 
 
 
 
 
 
 
 

100

 
 
 
 
 
 
 
 
 
 

Total

 
 
 
 
 
 
 
 
 
 

Source : Recherche de Fred Ntoutoume, Crefdes, 2007 (inspiré de Tufféry, 2007, p.37)

Ce tableau, qui pourrait servir de support à un suivi en continue des performances du modèle de Scoring, présente à partir de sa deuxième colonne, pour le mois M-1 qui précède l'analyse et pour chaque valeur du score :

§ le nombre de clients qui sont classés dans ce score,

§ le rapport de ce nombre sur la population totale de clients,

§ le taux d'impayés enregistrés par les clients qui se sont vus attribués ce score.

Ces indicateurs valent pour les mois d'avant M-n, jusqu'au 3e mois (si l'on souhaite tester le score sur 3 mois), ou jusqu'au 12e mois (si l'on souhaite observer les performances du score sur une année).

De même, le suivi de la bonne utilisation de la grille est possible. L'idée est de vérifier que les agents de crédit tiennent compte de la probabilité de non-remboursement fournie par le score de risque, et limitent de ce fait leurs engagements avec les clients les plus risqués. Dans ce cas, le tableau précédent sert toujours, mais le taux d'impayé est remplacé par le nombre et l'encours de crédit des dossiers conclus durant le mois concerné.

Tableau 33: Tableau de Bord de suivi de l'utilisation du score

 

Mois M-1

Mois M-2

Mois M-3

...

Score

%

Nb de clients

% de clients / pop. Totale

Nb de crédits alloués

encours

Nb de clients

% de clients / pop. Totale

Nb de crédits alloués

encours

Nb de clients

% de clients / pop. Totale

Nb de crédits alloués

encours

 

10

 
 
 
 
 
 
 
 
 
 
 
 
 

20

 
 
 
 
 
 
 
 
 
 
 
 
 

30

 
 
 
 
 
 
 
 
 
 
 
 
 

40

 
 
 
 
 
 
 
 
 
 
 
 
 

.

.

.

 
 
 
 
 
 
 
 
 
 
 
 
 

100

 
 
 
 
 
 
 
 
 
 
 
 
 

Total

 
 
 
 
 
 
 
 
 
 
 
 
 

Source : Recherche de Fred Ntoutoume, Crefdes, 2007 (inspiré de Tufféry, 2007, p.37)

II/ Recommandation sur les aspects organisationnels de l'UMECUDEFS

Au plan organisationnel, nous recommanderions à l'UMECUDEFS d'améliorer la traçabilité des dossiers de crédit, afin de pouvoir assurer un meilleur suivi des tableaux de bord proposés supra. La traçabilité des dossiers de crédit est la capacité de l'UMECUDEFS à fournir aux clients un service indiquant la position de l'ensemble de leurs dossiers (clôturés ou en cours de traitement) dans l'espace (dans quelle service ou chez quel agent traitant) et dans le temps (délai de traitement déjà réalisé et estimation du délai restant) au sein de la chaîne de traitement. Ainsi, nos recommandations dans ce sens seront :

· étendre la notion de traçabilité au delà du simple suivi de dossier ne donnant qu'a posteriori les étapes qu'un dossier particulier a déjà franchie, et fournir aux usagers un service indiquant en temps réel les étapes que ses dossiers ont franchies, les étapes à venir et la position des dossiers dans la chaîne complète du traitement ;

· identifier les dossiers à rendre traçable en priorité et les connecter à leur processus de traitement ;

· débuter par une analyse et une formalisation métier des processus à rendre traçables ;

· identifier au sein de la formalisation métier les étapes du processus à rendre visibles pour l'usager ;

· compléter par une formalisation sous l'angle « système d'information » pour ce qui concerne les étapes visibles pour l'usager ;

· permettre aux usagers d'accéder à l'ensemble de leurs dossiers à partir du portail internet de l'UMECUDEFS.

CONCLUSION

En définitive, il ressort de notre étude que la prévision du risque de contrepartie, par la mise en place d'un scoring dont les données de bases sont en grandes majorité nominales, peut être fiable. L'idée que les modèles de scoring crédit étaient difficilement approchables dans le contexte de variables qualitatives, comme semblait le défendre l'esprit dans lequel les plus célèbres modèles de score sont nés, nous parait donc excessive du point de vue des résultats de notre recherche.

En effet, cette appréhension a d'abord été levée d'un point de vue méthodologique. Les premiers modèles de scoring crédit admettaient une liaison linéaire entre les « income » et les « outcome », ce qui n'est pas toujours le cas, nous l'avons vu. Or cette hypothèse de départ enferme de facto le modélisateur dans le difficile compromis de l'indépendance des observations et de normalité des variables explicatives, impossibles à satisfaire si on possède au moins une variable explicative qualitative. Nous avons donc opté pour une solution méthodologique non paramétrique, admettant des relations non linéaires entre variables exogènes et variable endogène.

Cette appréhension a ensuite été levée du point de vue de la performance statistique, puisque les résultats obtenus, dans les deux modèles prédictifs estimés étaient fiables à plus de 90%.. Ainsi, nous avons pu atteindre, avec un bon seuil de confiance, nos objectifs de départ qui tenaient à la description, à l'explication, puis à la prédiction par la modélisation statistique et l'intelligence artificielle.

Dans les deux premiers points en effet, nous nous sommes intéressés à la distribution des clients (PME) de l'UMECUDEFS au sein des « bon payeurs » et des « mauvais payeurs ». Il en ressort que les clients « mauvais payeurs » présents dans notre échantillon comptent plus de cas dont l'age est compris entre 30 et 50, et que le risque de crédit augmente avec l'âge. Il en ressort aussi que la relation entre le niveau de revenu des dirigeant des PME et le risque de crédit évolue en sens inverse, confirmant que « mieux vaut ne prêter qu'aux riches », de même d'ailleurs qu'entre la durée d'existence de l'entreprise elle-même et la probabilité de défaut.

Nous observons par ailleurs que la distribution des PME est plus forte chez les « mauvais payeurs » si la valeur de la garantie proposée baisse, ou si le montant du crédit a une tendance haussière. Enfin, la sélection adverse des agents de crédits ainsi que le nombre d'échéances de retard que peuvent accuser les débiteurs pendant le remboursement, ont une importante influence positive sur la distribution des « mauvais payeurs » de notre échantillon..

Dans le troisième point, l'objectif de prédiction aura été atteint à travers une régréssion logistique binaire, puis une régression neuronale par parceptron multicouches. Le modèle de scoring finalement retenu a confirmé notre hypothèse numero 1. En effet, nous avons admis dans notre hyperplan que les données démographiques du dirigeant, l'expérience du dirigeant en matière de crédit, la forme juridique de la PME, le secteur d'activité, le type de garantie, le facteur temps et le montant de la demande de prêt influencent le risque de crédit de manière significative.

En outre, nous avons confirmé que le modèle logistique présente de meilleures performances prédictives que le modèle neuronal, dans le cadre de notre deuxième hypothèse de recherche.

Cependant, cette étude tiendra son importance de l'applicabilité de la grille de scoring crédit à laquelle elle aura permis d'aboutir, via une implémentation informatique progressive au sein de l'UMECUDEFS, et via un système de suivi évaluation participatif continue ou ponctuel.

fred.ntoutoume@yahoo.fr

BIBLIOGRAPHIE

· Analyse de données et statistiques

DESJARDINS, « Tutorial in Quantitative Methods for Psychology », Université de Montréal, 2005, Vol. 1(1), 

TABACHNICK,  B.G.  &  Fidell,  L.S.  «Using  Multivariate statistics», Fourth Edition. United State of America:  Allyn  and Bacon, 2000.

NIGRIN, A, «Neural Networks for Pattern Recognition», Cambridge, MA: The MIT Press, (1993)

HAYKIN, S., «Neural Networks: A Comprehensive Foundation», NY: Macmillan, (1994)

Source :

GAYE, I., «Cours de méthodologie de la recherche en sciences sociales », Ecole Nationale d4economie Appliquée, 2004.

SAPORTA, G., «  Probabilités, analyses des données et statistiques » , Editions TECHNIP, Juin 2006

DROESBEKE, J.J. ; LEJEUNE, M. ; SAPORTA, G., « Méthodes statistiques pour données qualitatives », Editions TECHNIP, Septembre 2006

· Scoring

SCHREINER, M. ,« Les Vertus et Faiblesses de L'évaluation Statistique (Credit scoring en Microfinance », Microfinance Risk Management, septembre 2003

SCHREINER, M. «Scoring: The Next Breakthrough in Microfinance?» Occasional

Paper No. 7, Consultative Group to Assist the Poorest, Washington, D.C, 2002

SCHREINER, M. «Credit Scoring for Microfinance: Can It Work?», Journal of Microfinance,

Vol. 2, No. 2, 2000

SCHREINER, M. «A Scoring Model of the Risk of Arrears at a Microfinance Lender in Bolivia», manuscrit, Center for Social Development, Washington University de St.

Louis, 1999

FONG, G. & VASICEK, O. A. «A multidimensional framework for risk analysis», Financial. Analyst Journal, Juillet/Aout 1997

De SOUSA-SANTOS, F. « Le scoring est-il la nouvelle révolution du microcrédit ? », in BIM N°32, octobre 2002

SAUNDERS A.& ALLEN L., « Credit Risk Measurement », John Wiley & Son (Ed), 2002

SCHREINER, M. « Scoring: the next breakthrough in microcredit ? », CGAP, juin 2002

DIALLO, B. « Un modèle de `crédit scoring' pour une institution de micro-finance africaine : le cas de Nyesegisio au Mali », Laboratoire d'Economie d'Orléans (LEO), Mai 2006.

ANDERSON, R. « The crédit scoring Toolkit », Oxford University Press, 2007

· Réseaux de neurones et Régression logistique

DOUCOURE, F.B., « Cours de Méthodes économétriques », Centre de Recherche et de Formation pour le Développement Economique et Social (CREFDES), Université de Dakar, 2007

TAFFE, P., « Cours de Régression logistique Appliquée », Institut Universitaire de Médecine Sociale et Préventive (IUMSP), Lausanne, Août 2004

NIGRIN, A, «Neural Networks for Pattern Recognition», Cambridge, MA: The MIT Press, . (1993)

ROSENBLATT, F.. «The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain» In, Psychological Review, Vol. 65, No. 6, Novembre, 1958

TUFFERY,S. « Data Mining et Statistique décisionnelle, l'intelligence des données », Editions Technip, 2007

ESPAHBODI P., «Identification of problem banks and binary choice models», Journal of Banking and Finance, N°15, 1991

· Articles complémentaires

MEDSKER L., TURBAN E. et TRIPPI R.R., «Neural Network Fundamentals for Financial Analysts», «Neural Network in Finance and Investing», The Journal of Investing, printemps 1993, p.  3-25.

FELDMAN K. and KINGDON J., «Neural networks and some applications to finance» Applied Mathematical Finance, vol. 2, (1995), p. 17-42 (à la reserve)

ZHANG G., HU M.Y., PATUWO B.E. and INDRO D.C., «Artificial neural networks in bankruptcy prediction: General framework and cross-validation analysis», European journal of operational research 116 (1999) p.16-32.

COATS P. K. et FANT L. F., «Recognizing Financial Distress Patterns Using a Neural Network Tool«, Financial Management, vol., 22, no. 3, automne 1993, p. 142-155.

KRYZANOWSKI L., GALLER M. et WRIGHT, D. W., «Using Artificial Neural Networks to Pick Stocks«, Financial Analysts Journal, juillet-août 1993, p. 21-27.

Charte des Petites et Moyennes Entreprises du Sénégal, 2003, p.6

· Webographie

www.microfinance.com.

http://fr.wikipedia.org/wiki/R%C3%A9gression_logistique

http://fr.wikipedia.org/wiki/Neuronal_network

www.cedric.cnam.fr/

http://www.umecudefs.com/index.php?option=com_content&task=view&id=25&Itemid=43

http://www-igm.univ-mlv.fr/~dr/XPOSE2002/Neurones/index.php?rubrique=Apprentissage

www.pagesperso-orange.fr/levasseur.michel/ (Site du professeur Levasseur, Spécialiste en réseaux de neurones)

www.vieartificielle.com/article/?id=54

http://www.emse.fr/~pbreuil/amv/nn/index.html

www.zonecours.hec.ca/documents/H2006-1-701647.401600H06_Seance11.ppt

www.federalreserve.gov

www.formation.creascience.com/regression-logistique-p-250.html

fr.wordpress.com/tag/regression-logistique/

etc.

* 1 http://www.federalreserve.gov

* 2 G. Fong & O. A. Vasicek «A multidimensional framework for risk analysis», Financial. Analyst Journal, July/August 1997, p. 52

* 3 Rayon Anderson, « The crédit scoring Toolkit », Oxford University Press, 2007, p. 6

* 4 Stéphane Tufféry, « Data Mining et Statistique décisionnelle, l'intelligence des données », Editions Technip, 2005, p. 141

* 5Fréderic De Sousa-Santos, « Le scoring est-il la nouvelle révolution du microcrédit ? », in BIM N°32, octobre 2002, p.2

* 6 Antony Saunders & Linda Allen, « Credit Risk Measurement », John Wiley & Son (Ed), 2002, p. 21

* 7 Mark Schreiner « Scoring: the next breakthrough in microcredit ? », CGAP, juin 2002, 102 p.

* 8 9 Stéphane Tufféry, « Data Mining et Statistique décisionnelle, l'intelligence des données », Editions Technip (2e Ed), 2007

* 10 L'Association Française des Crédits Managers (AFDCC) calcule elle-même ses propres scores depuis les années 1997.

* 11 B. Diallo, « Un modèle de `crédit scoring' pour une institution de micro-finance africaine : le cas de Nyesegisio au Mali », Laboratoire d'Economie d'Orléans (LEO), Mai 2006.

* 12 J. Desjardins, « Tutorial in Quantitative Methods for Psychology », Université de Montréal, 2005, Vol. 1(1), p. 35,41 

* 13 http://fr.wikipedia.org/wiki/R%C3%A9gression_logistique (le 20 Novembre 2007)

* 14 A. Nigrin, (1993), «Neural Networks for Pattern Recognition», Cambridge, MA: The MIT Press, p. 11

* 15 ROSENBLATT, Frank. «The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain» In, Psychological Review, Vol. 65, No. 6, pp. 386-408, Novembre, 1958

* 16Plusieurs autres fonctions d'activation existent pour la transformation des données d'entrée du neurone, on peut citer la fonction logistique Y = F(X) = 1/(1 + exp(-d*X) dont nous allons nous servir, la tangente hyperbolique Y = 2 /(1+ exp(-2* X) -1), la fonction gaussienne Y = exp(-(X^2) /2), ou la fonction sigmoïde Y= (1 + e - âx) - 1

* 17 http://www-igm.univ-mlv.fr/~dr/XPOSE2002/Neurones/index.php?rubrique=Apprentissage

* 18 Tabachnick,  B.G.  &  Fidell,  L.S.  «Using  Multivariate statistics», Fourth Edition. United State of America:  Allyn  and Bacon, 2000.

* 19 Source : http://www.trader-workstation.com/finance/ia_critiques_reseaux_neurones.php

* 20 TUFFERY, Stéphane, « Data Mining & Statistiques Décisionnelles : l'intelligence des données », Technip (Ed), 2007

* 21 Schreiner, Mark ,« Les Vertus et Faiblesses de L'évaluation Statistique (Credit scoring en Microfinance », Microfinance Risk Management, septembre 2003

* 22 Il est en fait question de choisir entre privilégier les résultats financiers et comptables de l'IMF pour une pérennisation profitable à tous, ou bien mettre en avant la rentabilité sociale en termes de réduction de la pauvreté en assumant les risques de portefeuille médiocre pouvant entraîner la fermeture de l'IMF. Même si la question n'est pas tranchée entre les institutionnalistes (tenants de la viabilité) et les welfaristes (tenants de la rentabilité sociale), notre étude s'inscrit dans la ligne des premiers cités.

* 23 Nigrin, A, «Neural Networks for Pattern Recognition», Cambridge, MA: The MIT Press, p. 11. (1993)

* 24 Haykin, S., Neural Networks: A Comprehensive Foundation, NY: Macmillan, p. 2, (1994)

* 25 Source : http://www.umecudefs.com/index.php?option=com_content&task=view&id=25&Itemid=43

* 26 SAPORTA, Gilbet, « La notation statistique des emprunteurs ou `scoring' », Conservatoire National des Art et Métier, article paru en 2006. (edusol.education.fr)

* 27 L'ACP a été introduite en 1901 par K. Pearson et développée par H. Hotelling en 1933.

* 28 TAFFE, Patrick, « cours de Régression logistique Appliquée », Institut Universitaire de Médecine Sociale et Préventive (IUMSP), Lausanne, Août 2004

* 29 En effet, il est bien plus grave d'octroyer un prêt à une personne qui ne le remboursera pas (faux positif - erreur de type 1) que de ne pas octroyer un prêt à une personne fiable (faux négatif - erreur de type 2).






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Il y a des temps ou l'on doit dispenser son mépris qu'avec économie à cause du grand nombre de nécessiteux"   Chateaubriand