WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Scoring crédit: une application comparative de la régression logistique et des réseaux de neurones

( Télécharger le fichier original )
par Fred NTOUTOUME OBIANG-NDONG
Université Cheikh Anta Diop (UCAD) - Master Methodes Statistiques et Econometriques 2006
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

4.3- Les limites des réseaux neuronaux19(*)

Plusieurs limites dans l'utilisation des réseaux de neurones peuvent être retenues.

D'abord on mentionnera qu'il n'existe pas encore de théorie permettant de
déterminer la structure optimale d'un réseau. En particulier la détermination du nombre de couches cachées et du nombre de neurones sur chacune d'entre elles relève encore largement de l'intuition de l'utilisateur et de sa capacité à expérimenter plusieurs architectures, afin de retenir celle qui donne les résultats les meilleurs. Plus le réseau est complexe, c'est-à-dire plus il comporte de neurones cachés et de liens synaptiques, plus il est capable de reconnaître les formes qui lui sont présentées à travers l'échantillon d'apprentissage.

Mais malheureusement, l'accroissement de la complexité n'améliore pas nécessairement le taux de reconnaissance sur l'échantillon test. Il faut cependant remarquer que cette critique doit être nuancée, car plusieurs méthodes ont été proposées pour aider l'utilisateur dans cette tâche. Celles-ci s'appuient sur des techniques analytiques faisant intervenir la dimension du vecteur d'entrée, ou sur des algorithmes qui permettent soit la construction automatique pas à pas des couches cachées, soit l'élagage des connexions les moins pertinentes dans un réseau surdimensionné au départ.

Ensuite, un réseau de neurones reste encore en partie aujourd'hui une « boîte noire » de laquelle il reste difficile d'extraire les relations pertinentes entre les variables. De ce point de vue, le système n'a donc qu'un pouvoir explicatif médiocre contrairement aux systèmes experts qui sont capables de retracer le cheminement suivi pour atteindre le résultat. Pourtant, le phénomène de « boîte noire » n'est pas total puisque des analyses de sensitivité sont possibles, en faisant varier l'une des entrées pas à pas, de sa valeur minimale vers sa valeur maximale, les autres entrées du réseau restant figées à leur valeur moyenne.

Enfin, comme cela a été signalé pour ce qui est du choix de l'architecture, ces
systèmes font toujours trop largement appel à l'intuition de l'utilisateur. En particulier, l'apprentissage est guidé par des paramètres qu'il convient de régler manuellement.
Un taux d'apprentissage (paramètre réglant la vitesse de convergence de l'algorithme) trop important peut aboutir à une oscillation du système alors qu'un taux trop faible se traduira par une convergence très lente, ce qui peut se révéler prohibitif en temps de calcul.
Par ailleurs, il revient encore à l'utilisateur de choisir le point d'arrêt de l'apprentissage de façon à ce que le réseau conserve ses capacités de généralisation.

* 19 Source : http://www.trader-workstation.com/finance/ia_critiques_reseaux_neurones.php

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Piètre disciple, qui ne surpasse pas son maitre !"   Léonard de Vinci