WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Etude du calage, de la validation et des performances des réseaux de neurones formels à  partir des données hydro-climatiques du bassin versant du Bandama blanc en Côte d'Ivoire

( Télécharger le fichier original )
par Yao Blaise KOFFI
Université de Cocody Abidjan - Doctorat  2007
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

3.4. NEURONES ARTIFICIELS (OU FORMELS)

Le neurone formel de Mc Cullogh et Pitts (1974) est la cellule élémentaire de calcul dans un réseau de neurones formels. Il consiste en une unité d'addition et une fonction neurone ou fonction d'activation :

m

i. l'unité d'addition i

W ij X

i=1

effectue une somme pondérée des entrées Xi par les poids

des connexions (Wij, i=1, m). Wij est le poids de la connexion qui lie l'entrée Xi au neurone nj. Wij est positif, si la série Xi doit augmenter la sortie du neurone nj et Wij est négatif, si Xi doit la diminuer ;

ii. la fonction neurone (fj) sert à limiter la sortie du neurone nj dans un intervalle

prédéfini et/ou augmenter la non linéarité du neurone.

Le modèle du neurone peut inclure une valeur limite appelée Seuil (S). Dans la littérature le mot seuil est souvent remplacé par le terme biais.

Lorsque le niveau d'activation, (la somme pondérée WijXi) atteint ou dépasse ce biais, alors l'argument de la fonction d'activation devient positif ou nul ; sinon, il est négatif (Parizeau, 2004). L'équation de la sortie calculée est donnée par la relation (1).

Outj = fj(In j ) (1)

Inj = WijXi-Si (2)

Avec : Inj : l'entrée de la fonction d'activation du neurone j ; Outj : la sortie de la fonction d'activation du neurone j ; Xi : l'entrée i connectée au neurone j ; Wij : le poids de la connexion entre l'entrée Xi et le neurone j ; Sj : le seuil du neurone j ; m : le nombre d'entrées connectées au neurone j ; f : la fonction d'activation du neurone j.

Le schéma d'un neurone formel adapté des travaux d'Awadallah (1999) est présenté à la figure 19.

S

Xi

Xi+1

i

m

=

1

W X

ij i / Out f W X S

= ij i i

-

m

i = 1

Xm

Unité d'addition

Unité d'activation

Figure 19 : Schéma d'un neurone formel

La modélisation pluie-débit, objectif de ce travail de recherche ne s'intéresse pas aux neurones pris individuellement mais plutôt à leurs différentes combinaisons en réseaux.

3.5. ORGANISATION DES NEURONES EN RÉSEAUX

Un réseau de neurones est un maillage de plusieurs neurones, généralement organisés en couches. Les connexions entre les neurones, définies précédemment, qui composent le réseau décrivent la topologie ou l'architecture du modèle. Elle peut être quelconque, mais le plus souvent, dans la littérature, il est possible de distinguer une certaine régularité, (Touzet ,1992). Selon le chemin suivi par l'information dans le réseau on peut classer les réseaux de neurones en deux grandes catégories : les réseaux «feed-forward» et les réseaux «feed-back».

3.5.1. Réseaux «feed-forward»

Les réseaux «feed-forward» ou réseaux «nourrir en avant» appelés aussi «réseaux de type Perceptron», sont des réseaux dans lesquels l'information se propage de couche en couche, sans retour possible en arrière. Nous pouvons citer parmi ces réseaux les Perceptrons (objet de cette étude) et les réseaux à fonction radiale.

3.5.1.1. Modèle perceptrons

Il existe deux modèles Perceptrons : les modèles Perceptrons Monocouches et les modèles Perceptrons Multicouches (PMC).

Le Perceptron Monocouche est historiquement le premier réseau de neurones, c'est le Perceptron de Rosenblatt. C'est un réseau simple, puisqu'il ne se compose que d'une couche d'entrée et d'une couche de sortie. Il est calqué, à la base, sur le système visuel et de ce fait a été conçu dans un but premier de reconnaissance des formes. Cependant, il peut aussi être utilisé pour faire de la classification et/ou pour résoudre des opérations logiques simples («ET» ou «OU»). Sa principale limite est qu'il ne peut résoudre que des problèmes linéairement séparables, ce qui diffère de la relation pluie-débit qui est non-linéaire. Il suit généralement un apprentissage de type supervisé selon la règle de correction de l'erreur (ou selon la règle de Hebb (Parizeau, 2004)). La typologie des apprentissages sera détaillée dans la suite de cette étude. La figure 20 représente un Perceptron Multicouches simplifié avec une seule couche de neurones cachés. Les variables d'entrée sont la pluie et la température et la variable cible est le débit.

Figure 20 : Perceptron Multicouche simplifié avec une seule couche de neurones cachés

Le Perceptron Multicouches (PMC) est une extension du précédent, avec une ou plusieurs couches cachées entre l'entrée et la sortie. Chaque neurone dans une couche est connecté à tous les neurones de la couche précédente et de la couche suivante (excepté pour les couches d'entrée et de sortie) et il n'y a pas de connexions entre les cellules d'une même couche. Ce type de réseaux a été récemment classé comme outil de prévision et de simulation des débits (Fortin et al., 1997). Cependant, ces applications se sont largement diversifiées et les fonctions d'activation utilisées dans ce type de réseaux sont principalement les fonctions à seuil ou sigmoïdes. Il peut résoudre des problèmes non-linéairement séparables et des problèmes logiques plus compliqués comme la relation pluie-débit. Il suit aussi un apprentissage supervisé selon la règle de correction de l'erreur.

Le Perceptron Multicouches est le Réseau de neurones le plus utilisé en modélisation hydrologique (Coulibaly et al., 1999). Plusieurs auteurs considèrent que ce type de réseau comprend trois groupes de neurones. Par exemple, Awadallah, (1999) identifie trois groupes de neurones : un groupe d'entrée, un groupe intermédiaire et un groupe de sortie. Cette considération, faite notamment par plusieurs auteurs, paraît «impropre» ; car, d'après Dreyfus et al. (2004), la couche des entrées n'effectue aucune modification de l'information donc ne fait aucun calcul. L'équation générale d'un réseau de neurones formels de type Perceptron Multicouches, avec une seule couche cachée et une seule sortie scalaire, est formulée comme suit :

m n

(3)

Y f Wo f Wh X b b

= * + +

2 j * 1 ij i 1 2

j= 1 i = 1

Où :

Y : est la sortie calculée par le réseau,

f2 : est la fonction d'activation du neurone de la couche de sortie,

m : est le nombre de neurones cachés,

n : est le nombre de variables d'entrée

Woj : est le poids de la connexion entre la jième neurone sur la couche cachée et le neurone de sortie,

f1 : est la fonction d'activation du neurone de la couche cachée,

Whij : est le poids entre la iième entrée et le jième neurone sur la couche cachée,

Xi : est la matrice d'entrée,

b1 : est le biais de la fonction d'activation du jième neurone caché,

b2 : est le biais de la fonction d'activation du neurone de sortie.

Pour la classification des Perceptrons Multicouches deux critères peuvent être considérés :

i) le comportement dynamique des réseaux, qui dépend de la présence ou non de bouclages et ;

ii) ii) la complexité des opérations effectuées par le réseau, qui est liée à la présence de neurones cachés (Johannet, 2006).

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Là où il n'y a pas d'espoir, nous devons l'inventer"   Albert Camus