WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Identification et commande des systèmes non linéaires

( Télécharger le fichier original )
par LEMMOU Amira- BELLAKHDAR Khaoukha- LEDJEDEL Adila
université de M'Sila Algérie - Ingénieur en électronique 2011
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

II.5.Structure à perceptron multicouche(PMC)

Les perceptrons sont les réseaux de neurones artificiels les plus courants, ils correspondent de trois couches, la première correspond a la couche d'entrée, la deuxième est nommée couche cachée et la dernière est la couche de sortie. La première couche est constituée

neurones formels ,les neurones d'une couche à une autre sont relies par les poids synaptiques .Chaque neurone formel constitue une cellule effectuant une somme pondérée des entrées Xij du neurone (j) par les poids synaptiques Wij correspondant a ces entrées .Sa sortie est ensuite obtenue par l'intermédiaire de la fonction fj dite fonction d'activation .Cette fonction est en générale croissante ,monotone et bornée ,les plus utilisées sont les fonction signes de saturations ainsi que les fonction sigmoïde ,nous avons ajoute des termes d'entrées X0ij correspondant au biais .Il n'existe pas de regèle pour fixer l'architecture du réseaux ,les neurones des couches d'entrée et de sortie sont lies respectivement au nombre d'entrées et de sorties .Ainsi il a été prouver récemment que les réseaux a une seule couche cachée constitue un outil d'approximation .Pour notre cas ,l'information se propage de la couche d'entrée vers la couche de sortie ,qui fourni une réponse réelle (Y^ ) correspondant à la sortie désirée Y) .En résume pour enseigner une tache a ce réseau (adaptation des poids ) nous devons lui présente

un couple d'exemple(entrées /sorties) ou(Ucom,Y).l'apprentissage des poids se fait par retro ~ propagation de l'erreur( å) entre la grandeur de sortie du réseau (Y^ )et la grandeur désirée (Y) (critère de minimisation).l'algorithme permettant un telle apprentissage est dit « algorithme de retro-propagation »de Windrow --Hoff il est base sur la méthode du gradient toutes ces méthodes consistent a réduire une fonction se rapportant a l'erreur quadratique moyenne. Cet

algorithme d'apprentissage permet de déterminer les variations des poids synaptiques ?W1(k) et les biais ?b1(k) .il peut etre exprime par les relations suivantes [14] :

??????,?? ??) = ?? ???? ??) ??????

???????(??) ????? ??~ (???? ??~)? (II-5)

??????,?? ??) = ?????? ??) ??????

???????(??) ????? ??~ (II-6)

Xi(n) : représente le vecteur d'entrée du neurone (i) de la couche m ; l'équation de mise à jour de ces poids synaptiques et biais s'effectue sur la base relation suivante :

q ????,???? ?? + ??) = ????,???? ??) + ?????,????(??) (II-7)

?????? ?? + ??) = ?????? ??) + ? ?????? (??) (II-8)

Le calcul des grandeurs d'activation des unités d'entrées s'exprime symboliquement par :

??

???????? ?? ??~ = ????,??

?? ??~??????,??

?? ??~ + ???? ??(??) (II-9)

??=??

11 ??) = ?? ??[?????????? ??)] (II-10)
II.5. 1.Mise en oeuvre des réseaux PMCs :

On considère un réseau comportant une couche d'entrée à n neurones, une couche de sortie à m neurones et il comporte une à plusieurs couches cachées.

Supposons qu'on dispose d'un, ensemble d'apprentissage composé de k paires de vecteurs :

N ous allons suivre une démarche reprise par Wierenga et Kluytmans (1994) qui est composée de quatre étapes principales [11] :

> Etape 1 : fixer le nombre de couches cachées.

> Etape 2 : déterminer le nombre de neurones par couches cachées.

> Etape 3 : choisir la fonction d'activation.

> Etape 4 : choisir l'apprentissage.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Nous voulons explorer la bonté contrée énorme où tout se tait"   Appolinaire