WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Identification et commande des systèmes non linéaires

( Télécharger le fichier original )
par LEMMOU Amira- BELLAKHDAR Khaoukha- LEDJEDEL Adila
université de M'Sila Algérie - Ingénieur en électronique 2011
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

II.8. Modélisation neuronale des systèmes non linéaires :

L'utilisation des réseaux de neurones pour la modélisation des systèmes non linéaires découle naturellement des aptitudes de ces derniers à l'approximation et la généralisation. La détermination du modèle dynamique d'un système comporte en général les étapes suivantes

[3] :

> Acquisition des données d'apprentissage et de test.

> Choix de la structure du modèle.

> Estimation des paramètres du modèle.

> Validation du modèle identifié.

La première étape fournit les données entrées/sorties susceptibles de permettre l'extraction d'un modèle de procédé significatif. La deuxième étape consiste à choisir la structure du modèle susceptible de représenter la dynamique du système, l'architecture du réseau de neurones et ses entrées. Les réseaux multicouches statiques sont les plus utilisés à cause de la simplicité de leurs algorithmes d'apprentissage et leurs aptitudes à l'approximation et à la généralisation. Il n'existe pas de méthodes générales pour le choix du nombre de neurones sur chaque couche cachée ainsi que le nombre de ces dernières. Cependant un réseau à une seule couche cachée est dans la majorité des cas suffisant. En référence à la théorie des systèmes linéaires, plusieurs modèles non linéaires ont été proposés

- Le modèle NFIR : la régression est composée uniquement des entrées passées. yà(k) = f (u (k -1),..., u (k - n)) (II-14)

- Le modèle NARX : dans ce cas la régression est composée de sorties et entrées passées.
yà(k) = f (u (k -1),..., u (k - n), y (k -1),..., y (k -m)) (II-15)

- Le modèle NOE : la régression est composée d'entrées et sorties estimées passées. yà(k) = f (u (k -1),..., u (k - n), yà (k -1),..., yà (k -m)) (II-16)

-Le modèle NARMAX : la régression est composée de sorties et entrées passées Ainsi que d'erreurs d'estimation.

yà(k) = f (u(k -1),...,u(k - n), y(k -1),..., y(k -m),e(k-1),...,e(k-l)) (II-17)

II.9.Identification des processus par réseaux de neurones :

Le principe de l'identification par réseau neuronaux consiste à substituer aux modèles paramétriques classiques des modèles neuronaux, c'est-à-dire proposer un modèle établissant une relation entre son entrée et sa sortie et à déterminer, à partir du couple des signaux d'entrée-sortie, le comportement du modèle. Deux raisons importantes nous motivent [2] :

> Prédire le comportement d'un système pour différentes conditions de fonctionnement.

> Élaborer une loi de commande à appliquer au processus pour qu'il réalise l'objectif

assigné.

Nous citerons deux techniques d'identification à base de réseaux de neurones multicouches : la méthode d'identification directe et la méthode d'identification inverse.

II.9.1. Identification directe :

La figure (II .9) montre le schéma général d'identification directe d'un processus. Sur cette figure, le réseau de neurones identificateur RNI est utilisé en parallèle avec un processus de type boite noire. La sortie du processus, y, est comparée avec la sortie du réseau de

neurones, y, puis l'erreur e=y-y est utilisée afin d'affiner les paramètres du système neuronal

[2].

Figure. II.9 .Schéma d'identification directe d'un processus par réseau de neurones.

Pour considérer l'aspect dynamique du système, on a le choix d'utiliser les réseaux de neurones récurrents, ou bien d'accroître les entrées du réseau de neurones avec les signaux

En considérant l'aspect dynamique du système, l'équation différentielle de la sortie y l'instant t + 1peut être écrite de la façon suivante :

y(t+1)=f (y(t),..., y(t-1+n),..., u(t),...,u(t-1+m)) (II-18)

Ou y (t+1) est la sortie du processus à l'instant t+1 et f est la fonction non linéaire régissant le

fonctionnement du processus. Cette fonction dépend des sorties antérieures jusqu'à l'ordre n et des entrées antérieures jusqu'à l'ordre m du processus la sortie y(t+1) du réseau de neurones à l'instant t +1est décrite comme suit :

y(t+1)= ?? ^(y(t),...,y(t-1+n),...,u(t),...,u(t-1+m)) (II-19)

Ou ?? ^ représente la fonction d'approximation non-linéaire de la fonction f du processus. La sortie du réseau neurones y(t+1) dépend des sorties et entrées antérieures du processus respectivement jusqu'aux ordres n et m. Elle ne dépend pas des sorties antérieures du réseau neurones. Si la sortie de l'identificateur neuronal se rapproche de celle du processus après quelques itérations d'apprentissage, alors nous pouvons l'utiliser comme entrée. On aura ceci :

y (t+1)=?? ^ (y(t),..., y(t-1+n),..., u(t),..., u(t-1+m)) (II-20)

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Il y a des temps ou l'on doit dispenser son mépris qu'avec économie à cause du grand nombre de nécessiteux"   Chateaubriand