WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Scoring crédit: une application comparative de la régression logistique et des réseaux de neurones

( Télécharger le fichier original )
par Fred NTOUTOUME OBIANG-NDONG
Université Cheikh Anta Diop (UCAD) - Master Methodes Statistiques et Econometriques 2006
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

3.2. Principes et propriétés mathématiques des réseaux de neurones

Au plan mathématique, le calcul de la valeur prédite par un réseau de neurones se compose en deux principales étapes :

m

Ó wj xj

1ere étape : le calcul d'une série de combinaisons linéaires des variables explicatives, que F. Robert (1995) appelle l'entrée totale E, ou « total input » :

j=1

E = w1 x1 + w2 x2 + ... + wm xm = ( 1 )

m

Ó wj xj

Le seuil d'entrée w 0 est ensuite ajouté à la grandeur E, ce qui permet de noter :

j=1

E = w0 + ( 2 )

2e étape : Le calcul d'une sortie (le seuillage) par transformation16(*) non linéaire : un seuil w0 étant donné, la fonction à seuil ou fonction d'activation s'écrit :

f (x) = 1 si E > w 0

= 0 sinon

m

Ó wj xj - w0

Donc la sortie du neurone formel à prédire y = f (x) = f (x1, x2, ..., xm ) s'écrit :

j=1

y = f (x) = ö ( ) ( 3)

ö est la fonction d'activation non linéaire

y est la sortie du neurone (la valeur à prédire)

xj représente les valeurs d'entrée

m

Ó wj xj - w 0

wj représente les poids synaptiques (ou coeficients)

j=1

si > w0, alors y =1

m

Ó wj xj - w 0

j=1

si < w0, alors y = 0

Le neurone formel applique par conséquent {0, 1}m dans {0, 1}. D'où son nom de classifieur avec seuil d'entrées xj, coefficients synaptiques wj, et seuil w0.

Figure 2: Schéma d'un neurone formel

Variables explicatives

(Couches d'entrée)

Fonction de sortie (couche de sortie)

Fonction de sommation (couche cachée)

Poids synaptiques

x1

w1

m

Ó wj xj - w0

m

Ó wj xj

y = ö ( )

x2

w2

j=1

j=1

xm

wm

Source : Recherche de Fred Ntoutoume, Crefdes, 2007

Les réseaux de neurones présentent les propriétés suivantes :

· ils sont universels (capables de résoudre des problèmes simples ou complexes) ;

· ils se comportent plus d'une façon adaptative que programmée ;

· Ils sont capables de fonctionner même en présence d'une information partielle ou d'une information brouillée ;

· Ils fonctionnent comme une machine de classification qui extrait les traits caractéristiques des objets  présentés lors de l'apprentissage, pour réorganiser sa connaissance en conséquence.

* 16Plusieurs autres fonctions d'activation existent pour la transformation des données d'entrée du neurone, on peut citer la fonction logistique Y = F(X) = 1/(1 + exp(-d*X) dont nous allons nous servir, la tangente hyperbolique Y = 2 /(1+ exp(-2* X) -1), la fonction gaussienne Y = exp(-(X^2) /2), ou la fonction sigmoïde Y= (1 + e - âx) - 1

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Soit réservé sans ostentation pour éviter de t'attirer l'incompréhension haineuse des ignorants"   Pythagore