WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Identification et commande des systèmes non linéaires

( Télécharger le fichier original )
par LEMMOU Amira- BELLAKHDAR Khaoukha- LEDJEDEL Adila
université de M'Sila Algérie - Ingénieur en électronique 2011
  

Disponible en mode multipage

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

    REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE

    MINISTERE DE L'ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE

    SCIENTIFIQUE

    UNIVERSITE DE M'SILA

    FACULTE DE TECHNOLOGIE
    DEPARTEMENT D'ELECTRONIQUE

    MEMOIRE DE FIN D'ETUDES EN VUE DE L'OBTENTION DU DIPLÔME

    D'INGENIEUR D'ETAT EN GENIE ELECTRONIQUE

    OPTION

    CONTRÔLE
    THEME

    IDENTIFICATION ET COMMANDE DES SYSTEMES NON
    LINEAIRES

    Proposé et dirigé par : Présenté par :

    Mr Abdelaziz AOUICHE Amira LEMMOU

    Khaoukha BELLAKHDAR Adila LEDJEDEL

    N°d'ordre : 2011 / 06 / 10 / 21 / 360 /

    Nous rendons nos profondes gratitudes à DIEU qui nous a aidé à réalisé ce modeste

    travail. Nous exprimons nos profondes gratitudes à nos PARENTS pour leurs
    encouragements , leur soutien et pour les sacrifices qu'ils ont enduré et la patience qu'il

    a eu pendant ces années de travail.

    Tout d'abord, nous tenons à remercier notre encadreur de mémoire Dr. AOIUCHE
    Abdelaziz, qui est en grande partie à l'origine de notre intérêt et de mon engouement pour

    l'intérêt et surtout leurs qualités d'écoute, leur présence et conseils avisés ont permis

    l'aboutissement de ce travail.

    Nous remercions :

    Le chef de département d'électronique Mr. BOUCHLAGHEM.

    Les membres du jury d'examen pour l'intérêt qu'ils ont manifesté pour notre travail. L'ensemble des enseignants du département d'électronique.

    Nous adressons mes sincères remerciements à celles et ceux qui, par leur aide et leur soutien moral, ont contribué à la réalisation de ce travail.

    SOMMAIRE

    INTRODUCTION GENERALE.............................................................01

    CHAPITRE I : MODELISATION ET IDENTIFICATION DES

    SYSTEMES NON LINEAIRE INTRODUCTION .03

    I.1.MODELISATION«««« «« «« ««..03

    I.1.1.Modélisation de données statiques « «««« «« ««...03

    I .1.2.La modélisation de processus dynamiques non linéaires « «« 04

    I.1.2.1.Les modèle dynamiques `boites noires' « ««« ««««~.....04

    I.1.2.2.Modèle de connaissance«««««««««««««««««~.04
    I.1.2.3.Modèle de représentation««««««««««««««««~....05
    I.1.2.4Modèle quantitatif « ««« «««« «....05

    I.2.ETAPE DE MODELISATION «« ««« «««.05

    I.2.1.Caractérisation ««« «« «« «« 05

    I.3.PRINCIPE DE LA MODELISATION ETL'ESTIMATION«««« ~....05

    I.4.INTERET DE LAMODELISATION« ««« «««« ~..06

    I.5.L'IDENTIFICATION«« «« «« ««...06

    I.6.IDENTIFICATION DES SYSTEMES ET DYNAMIQUES

    07

    I.7.PROCEDURED'IDENTIFICATION

    .08

    I.8.ARCHITECTURES DES SCHEMASD'IDENTIFICATION

    ..09

    I.9.NATURE DES PERTURBATIONS ET DES ERREURS DE

     

    MODELISATION DANS LES SCHEMAS D'IDENTIFICATION«««

    ~..09

    I.10.IMPORTANCE ETUTILITEDE L'IDENTIFICATION

    ..10

    CONCLUSION

    11

    CHAPITRE II : LES RESEAUX DE NEURONES

    INTRODUCTION .13

    II.1.LES NEURONES ARTIFICIELS .13

    II.2.FONCTION D'ACTIVATION ..14

    II.2.1.Fonction binaire a seuil~ «« ««« «««« «..14

    II.2.2.Fonction linéaire««««««««««««««««««««««~.15 II.2.3.Fonction linéaire à seuil ou multiseuil ««« ««««««.15 II.2.4.Fonction sigmoúde«««««««««««««««««««««~..15

    II.3.ARCHITECTURE DES RESEAUX DE NEURONES 16

    II.3.1.Les reseaux non bouclés««««««««««««««««««« 16 II.3.2.Reseaux bouclés««««««««««««««««««««««~.17

    II.4.L'APPRENTISSAGE 17

    II.4.1.Types d'apprentissage«««««««««««««««««««« 17

    II.4.1.1.Apprentissage supervisé«««««««««««««««« 17

    II.4.1.2.Apprentissage non supervisé««««««««««««««~ 18

    II.4.1.3.Apprentissage autosupervisé««««««««««««««~ 18

    II.4.2.Les methodes d'apprentissage««««««««««««««««~ 18

    II.4.2.1.Regle de hebb««««««««««««««««««««~ 18

    II.4.2.2.Retropropagation du gradient de l'erreur~ « ~ 18

    II.4.2.2.1.Avantages et inconvénients««««««««~..19

    > Aventage««««««««««««««« ..19
    ,Inconvénienti« «««« ««19

    II.4.3.Le perceptron«««««««««««««««««««««««~..20 II.4.3.1.Description««««««««««««««««««««« ...20

    II.5.STRUCTURE A PERCEPTRON MULTICOUCHE(PMC) ..21

    II.5.1.Mise en oeuvre des reseaux PMCs~~~~~~~~~~~~~~

    22

     

    II.6.STRUCTURE A FONCTION DE BASE RADIALE RBF

    .22

    II.7.PROPRIETE DES RESEAUX DE NEURONES

    .23

    II.7.1.Le parallélisme

    23

    II.7.2.La capacité d'adaptation~~~~~~~~~~~~~~~~~~..23 II.7.3 .La mémoire distribuée~~~~~~~~~~~~~~~~~~~.23 II.7.4.La capacité de généralisation.~~~~~~~~~~~~~~~...24

    II.8.MODELISATION NEURONALE DES SYSTEMES NONLINEAIRES.....24

    II.9.IDENTIFICATION DES PROCESSUS PAR RESEAUX

    DE NEURONES .25

    II.9.1.Identification directe~~~~~~~~~~~~~~~~~~~~.25 II.9.2.Identification inverse .27
    II.10.AVANTAGES ET INCONVENIENTS DES RESEAUX

    DE NEURONES ..27

    II.10.1.Avantages des reseaux de neurones~~~~~~~~~~~~~~..27 II.10.2.Inconvénient des reseaux de neurones~~~~~~~~~~~~~..28 CONCLUSION ..28

    CHAPITRE III : LES TYPES DE LA COMMANDE

    INTRODUCTION ..30

    III.1.COMMANDE DE PROCESSUS .30

    III.2.LES RESEAUX DE NEURONES DANS LA COMMANDE

    DES SYSTEMES 31

    III.2.1.La commande inverse~~~~~~~~~~~~~~~~~~~~ 32

    III.2.2.Commande basée sur l'erreur de sortie~~~~~~~~~~~~~ 33

    III.2.3.Commande adaptative neuronale~~~~~~~~~~~~~~~ 34

    III.2.3.1. Commande adaptative neuronale indirecte~~~~~~~~ 35

    III.2.3.2.Commande adaptative neuronale directe~~~~~~~~~ 36

    III.3.STRUCTURE BASE DE LA COMMANDE ADAPTATIVE

    NEURONALE A RETOUR D'ETAT .36

    III.3.1.Les reseaux de neurones~~~~~~~~~~~~~~~~~~~.36 III.4.STRUCTURE DE LA COMMANDE ADAPTATIVE

    NEURONALE A RETOUR DE SORTIE 37

    III.4.1.La structure de base~~~~~~~~~~~~~~~~~~~........37

    III.4.2.Les observateurs non linéaire~~~~~~~~~~~~~~~ 38

    III.5.APPRENTISSAGE D'UN CONTROLEUR CONVENTIONNEL ..39

    CONCLUSION 40

    CHAPITRE IV : LES RESULTATS DE SIMULATION

    INTRODUCTION 42

    IV.1.PRESENTATION DES SYSTEMES A IDENTIFIER ET RESULTAT 42

    IV.2. LA SIMULATION 47

    IV.3 .INTERPRETATION DE RESULTAT 57

    CONCLUSION 58

    Introduction générale :

    La commande de processus au moyen des réseaux de neurones, a connu un très grand essor cette dernière décennie. La vision de la biologie a pris, dans le domaine de la théorie des Systèmes dynamiques, une tournure particulièrement intéressante. Elle a ouvert des perspectives de compréhension à la fois plus larges et plus méfiantes. Dans le dut d'élargir son champ d'application, la théorie de contrôle ressent actuellement un besoin d'intégrer de nouveaux concepts regroupés sous le terme de commande intelligente. L'objectif est d'introduire de nouveaux

    mécanismes permettant une commande plus simple, capable de s'adapter à des variations de l'environnement et démontrant des capacités d'apprentissage, telles les efforts et les interventions de l'home, tant dans les phases de conception que de conduite proprement dite, en soient significativement réduits. La plupart des commandes utilisant un réseau de neurones en tant que contrôleur se distinguent par une étape d'identification et une étape de contrôle. L'identification consiste à élaborer un modèle neuronal qui est une estimation du processus à commander et cela au moyen d'une phase d'apprentissage. Celle-ci peut être soit préalable (hors ligne), ou bien elle peut se faire intégralement en ligne. La commande utilise les connaissances acquises pendant la phase d'identification et/ou de l'apprentissage en ligne pour élaborer des signaux de commande. Un apprentissage en ligne, pendant la commande du système, est intéressant si des perturbations viennent affecter le processus ou son environnement.

    L'ensemble des travaux est regroupé dans quatre chapitres

    > Premier chapitre

    Ce chapitre nous exposons les éléments de base de modélisation et identification

    des systèmes non linéaires.

    > Deuxième chapitre

    Dans ce chapitre, nous allons présenter les fondements théoriques et les éléments de base des réseaux de neurones.

    > Troisième chapitre

    Nous allons présenter dans ce chapitre les fondements théoriques sur les types de commande

    > Quatrième chapitre

    Dans ce chapitre, tous les résultats de simulation vont être présentés .enfin, nous terminons par une conclusion générale et la liste des références.

    Chapitre I

    MODELISATION ET IDENTIFICATION

    DES SYSTEMES NON LINEAIRES

    Introduction :

    La modélisation des systèmes non linéaires par réseaux de neurones a fait l'objet de nombreux travaux de recherche depuis une dizaine d'années à cause de la capacité d'apprentissage, d'approximation et de généralisation que possèdent ces réseaux. En Effet

    systèmes non linéaires peuvent être modélisés sans une description mathématique précise. L'identification, c'est l'opération de détermination du modèle dynamique d'un système à partir des mesures entrées/sorties. Souvent la sortie mesurée des systèmes est entachée du bruit. Cela est dû soit à l'effet des perturbations agissant à différents endroits du procédé, soi à des bruits de mesure. Ces perturbations introduisent des erreurs dans l'identification des paramètres du modèle. Dans ce chapitre, nous présentons la modélisation et l'identification des systèmes non-linéaires.

    I.1.Modélisation:

    On dit qu'on a modélisé un processus physique, si on est capable de prédire quel était son comportement (sortie) lorsqu'on le soumet a une sollicitation (entrée) connus. Le problème de modélisation se pose lorsque l'ingénieur doit prendre une décision au sujet du phénomène dont il ne connaît le comportement qu'a partir des données expérimentales. Dans certains cas, la connaissance fondamentale des phénomènes en question nous permet de proposer un modèle mathématique précis, déterministe que l'on nomme modèle de connaissance. Pour des raisons de commodité pratique, le modèle sera mathématique afin d'être simulé sur calculateur numérique .On cherche donc une relation mathématique É qui lie les variables mesurées d'entrée u et de sortie y.

    É (u, ?)= 0 (I-1)

    Cette relation mathématique prend une certaine forme qui définit la structure du modèle. Elle fait intervenir des paramètres ? dont on ignore généralement a priori les valeurs numériques [4].

    I.1.1.Modélisation de données statiques :

    Il existe une immense variété de phénomènes statiques qui peuvent être caractérisés par une relation déterministe entre des causes et des effets ; les réseaux de neurones sont de bons candidats pour modéliser de telles relations à partir d'RENi1YalIRnN expérimentales, sous réserve que celles-ci soient suffisamment nombreuses et présentatives [1].

    I.1.2.La modélisation de processus dynamiques non linéaires :

    Modéliser un processus, c'est trouver un ensemble d'équations mathématiques qui décrivent le comportement dynamique du processus, c'est-à-dire l'évolution de ses sorties en fonction de celle de ses entrées ; c'est donc typiquement un problème qui peut être avantageusement résolu par un réseau de neurones si le phénomène que l'on désire modéliser est non-linéaire. La prédiction de séries chronologiques (prédictions financières, prédiction de consommation, etc.) entre dans ce cadre [1].

    I.1.2.1.Les modèles dynamiques "boîtes noires":

    Qui sont établis uniquement à partir des mesures effectuées sur le processus, sans intervention d'autre connaissance. Les réseaux de neurones sont souvent utilisés comme des modèles "boîtes noires". Néanmoins, nous verrons plus loin qu'ils peuvent aussi mettre en

    0 FiEinl FRP S1RP iN inl1i liN P RCèliNITERtvliN

    noires" et les modèles de connaissances.

    Pour réaliser un modèle dynamique, il convient alors d'utiliser des réseaux bouclés, qui comme indiqué plus haut, sont eux-mêmes des systèmes dynamiques.

    Comme précédemment, l'apprentissage est l'estimation des paramètres du modèle neuronal utilisé, l'objectif de l'apprentissage n'est pas ici d'annuler l'erreur de prédiction, puisque, si tel était le cas, le réseau serait capable de reproduire l'effet des perturbations non mesurables il s'agit plutôt d'obtenir une erreur de prédiction dont la variance est

    minimale, c'est-à- dire égale à celle du bruit. Si l'on peut obtenir un tel résultat, le réseau reproduit complètement le comportement déterministe du processus, bien que l'apprentissage ait été effectué en présence de perturbations. Des résultats théoriques prouvent que cet objectif est accessible, et de nombreux exemples montrent qu'il est effectivement atteint [1]

    I.1.2.2.Modèle de connaissance :

    Basé sur les lois de la physique, chimie, etc.... Ces modèle permettent une description assez complète des systèmes et sont utilisés pour la simulation et la conception de procédé.

    Les paramètres ?i du modèle de connaissance ont alors un sens physique : longueur, résistance électrique, inertie, etc. ... c'est-à-dire que l'on est susceptible de les retrouver avec la même signification dans les modèles d'autres processus. C'est en fait la voie classique de la mise en équation ou analyse phtisique conventionnelle qui tend à utiliser au mieux toutes les connaissances scientifiques et techniques disponibles :

    y= É (u,?i) (I-2)

    Ces modèles sont beaucoup plus riches en signification que les modèles de représentation et contiennent toutes les informations utiles sur les processus. Ils sont par contre beaucoup plus onéreux et difficiles à obtenir [4].

    I.1.2.3. Modèle de représentation:

    Ces modèles n'ont aucun pouvoir explicatif de la structure physique du système. Leur structure n'est qu'une relation mathématique qui va relier localement les mesures des différentes variables du processus. Les modèles de représentation sont de type « Boite noir » et ne sont informatif [4].

    Un modèle est quantitatif lorsque les fonctions qui définissent les équations sont spécifiées analytiquement. Dans un modèle quantitatif, une suite d'opération permet le calcul de la valeur numérique des fonctions du modèle à partir de leurs arguments (et des entrées du système) [6].

    I.2.Étape de modélisation :

    I.2.1. Caractérisation :

    La première étape du processus de modélisation consiste à faire une hypothèse sur la structure du système, c'est-à-dire à choisir un type de relation mathématique f liant les entrées et les sorties. Les paramètres structuraux, au départ inconnus, seront déterminés numériquement dans l'étape suivante dite l'identification dans ce choix de structure, on peut être guidé par :

    · Une analyse physique conventionnelle du processus.

    · Les expériences et le résultat qualitatif de tests simples.

    · Des contraintes de calcul ou des contraintes économiques...

    Cette étape, essentiellement qualitative, n'est éclairée et validée que par le reste de la procédure. C'est souvent la plus difficile ; elle fait appel a l'expérience *5+.

    I.3.Principe de la modélisation et l'estimation [6]:

    > L'automatique pour laquelle la connaissance du modèle est indispensable pour

    synthétiser une loi de commande

    > Les Sciences expérimentales, lorsque la validation d'une théorie se fait par des

    manipulations expérimentales (physique atomique, microélectronique...)

    > La biologie, l'économie, les statistiques

    > Partout où des observations sont validées par un principe de fonctionnement (Règle mathématique)

    I.4.Intérêt de la modélisation:

    Fournir un modèle mathématique acceptable pour un système dont on peut "Dériver" de nombreuses informations relatives à son fonctionnement dynamique [6] :

    > Donner des valeurs pour certains paramètres caractéristiques du processus

    étudié.

    > Évaluer des grandeurs endogènes (observateur d'état).

    > Donner des valeurs estimées/filtrées du signal de sortie.

    > Extrapoler/prédire le fonctionnement au delà des observations faites.

    > Interpoler le fonctionnement entre deux points observés.

    > Calculer la dérivée du signal de sortie, les dérivées successives.

    > Déterminer un extremum (local) du signal.

    > Évaluer la dérive d'un système.

    > Détecter la défaillance d'un système.

    I.5. L'identification :

    L'identification dans le domaine de l'automatique est un élément essentiel ayant pour vocation la description d'un système donnée par la détermination d'un modèle pour décrire son comportement .Identifier un système consiste à proposer une structure entre son entrée et sa sortie et à déterminer à partir du couple entrée-sortie, les valeurs

    des paramètres du modèle. Ainsi le modèle (mathématique) doit, dans son domaine de validité, se comporter comme la réalité (physique) ou tout au moins s'en approcher. Deux raisons importantes motivent les automaticiens :

    · Prédire le comportement d'un système pour différentes condition de fonctionnement (analyse, simulation)

    · Élaborer une loi de commande a appliquer au processus, pour qu'il réalise au mieux objectif assigné (synthèse des lois du commande). Lorsqu'on désire obtenir un model paramétrique pour un processus /système c.à.d. une relation mathématique comprenant un nombre fini de terme (par exemple fonction de transfert, équation ou aux déférences en peut souhaiter en premier lieu exprimer les lois physiques connues régissent sont fonctionnement et en déduire la relation mathématique cherchée on parle alors de modèle de connaissance.

    Toutefois, lorsque cette analyse interne n'est pas possible (lois internes inconnues, mesures internes impossible ou difficiles) ou trop complexes, on est amené considérer le système comme une boite noire. A partir l'observation de ses entrées- sorties (comportement externe) et de mesures expérimentales, on établit alors la relation mathématique qui lui correspond « au mieux » ; on parle alors de modèle de représentation ainsi un système complexe sera représenté par un modèle mathématique aussi simple que possible, est dont les coefficients sont ajustés de manière à représenter « le mieux » possible le système réel dans des conditions de fonctionnement. L'utilisation du calculateur peut aider a exécuter la tache d'identification par la génération de signaux de test, l'acquisition des données et mesures, leur traitement en temps différé ou en temps réel, et enfin la validation du

    modèle. L'identification est l'opération d'extraction du modèle dynamique d'un procédé à partir des mesures des entrées/sorties. Une fois le modèle du procédé obtenu, on peut calculer ou ajuster un régulateur approprié. Identification et commande des systèmes présente un ensemble cohérent de méthodes d'identification et de calcul de régulateurs numériques en tenant compte de la disponibilité des progiciels P.I.M. et PC-REG. Cette nouvelle édition a été grandement augmentée, tant sur les aspects de robustesse et de mise en oeuvre de la régulation numérique, que sur la présentation d'applications industrielles.

    Ceci signifie qu'il est possible de prélever l'entrée et les signaux de sortie d'un système et d'employer ces données pour produire un modèle mathématique [7].

    I.6.Identification des systèmes statiques et dynamiques :

    Dans une situation statique, identification est utilisée dans un objectif de reconnaissance moyennant un operateur ou fonction de décision P : U?Y.

    Dans les systèmes dynamiques, l'operateur P décrivant le système est définit, par exemple à partir d'un ensemble de couples entrée/sortie (Ui(t), Yi(t)) ? (U*Y)

    Avec la variable de temps t ? *0, T+.l'objectif de l'identification étant de trouve P tel que [8] : ? y^-y?=? P^(u)-P(u) ??å, u?U (I-3)

    I.7.Procédure d'identification:

    Pour obtenir un modèle consistant, il est important d'exciter le processus avec toutes les fréquences de sa plage de fonctionnement. Le signal d'entrée appliqué doit donc être riche en fréquences (posséder un large spectre). En général on applique un signal périodique pseudoaléatoire (PRBS).

    Lorsque le système possède plusieurs entrées/plusieurs sorties, il est important d'appliquer des signaux dé corrélés pour ne pas introduire de biais d'identification. Une idée commune consistant à exciter l'une après l'autre les entrées est une mauvaise méthode car elle introduit un biais d'identification et ne rend pas compte du fonctionnement normal du système. Il est important de respecter une procédure rigoureuse pour identifier un procédé :

    · Détermination d'un protocole de test : propriétés statistiques des signaux d'entrée pour balayer toutes les fréquences intéressantes, le ratio signal/bruit doit être suffisamment important et le nombre de points de mesures doit être significatif pour le test (>1000)

    · Détermination de la structure du modèle : type de modèle, ordre et retard.

    · Identification : choix d'un algorithme pour trouver le modèle en minimisant.

    · Les erreurs entre les mesures et le modèle, en général algorithme basé sur la méthode des moindres carrés (LS, RLS, RELS).


    · Validation du modèle : Réalisation de plusieurs tests de vérification. Il est nécessaire pour cette étape d'utiliser des mesures différentes de celles utilisées lors de l'identification *9+.

    Figure I.1.Schéma de Procédure d'identification I.8.Architecture des schémas d'identification :

    Nous focalisons l'attention ici sur la nature paramétrique ou non des schémas proposés. En effet, cet aspect revêt une importance plus grande en identification des systèmes non linéaires en blocs dans la mesure où ces derniers sont constitués de plusieurs sous- systèmes, le choix entre une représentation paramétrique ou non se pose pour chacun de ces sous-systèmes [10].

    > Système entièrement paramétrique : les deux sous-systèmes (linéaire et non Linéaire) sont caractérisés par une représentation paramétrique.

    > Système partiellement paramétrique : un des deux sous-systèmes est non paramétrique.

    > Système entièrement non paramétrique : les deux sous-systèmes sont non paramétriques

    I.9.Nature des perturbations et des erreurs de modélisation dans les Schémas d'identification :

    Les perturbations sont un fait réel que l'on peut difficilement ignorer dans le processus de modélisation ou d'identification des systèmes physiques. Elles représentent en fait l'influence non contrôlée de l'environnement du système sur celui-ci. Quand on essaie d'en tenir compte, on est confronté a deux types d'incertitudes : la nature (stochastique ou déterministe) de la source génératrice de ces perturbations et la manière dont celles-ci affectent le système (leurs points d'action). En identification des systèmes non linéaires, l'effet des perturbations est très souvent pris en compte dans le modèle à travers une erreur de sortie de type bruit blanc (avec des distributions plus ou moins clairement spécifiées) éventuellement filtré par un filtre stable. Toutefois certains travaux ont suggéré une prise en compte des perturbations à travers une erreur d'équation ou d'entrée assimilée a un bruit blanc filtré ou non. Les cas extrêmes sont ceux où aucune hypothèse n'est émise sur le processus générateur des erreurs et le cas opposé où ces erreurs sont supposées nulles. Il va sans dire que les hypothèses considérées dans tel ou tel travail sont avant tout motivées par le souci d'analyse de consistance des estimateurs considérés. Il convient de remarquer aussi que les erreurs en question (de sortie, d'équation et d'entrée) sont aussi le résultat d'erreurs de modélisation inhérente a l'approche « boite noire » [10].

    I.10.Importance et utilité de l'identification :

    Les systèmes abondent dans l'environnement de l'homme. Toute les choses qui nous entourent (la machine, l'économie, la plante, la société, etc....) Ó compris nous même les êtres humains, peuvent être étudiées et considérés comme des systèmes, à savoir modélisées, c'est-à-dire réduits à des formes de représentations plus abstraits et moins physiques que le système réel. L'analyse du modèle de représentation permet d'obtenir de meilleures connaissances sur le système et de le corrige par la suite dans le sens désiré. L'importance de la modélisation des systèmes et de l'analyse s'est fait sentir récemment,

    dans de nombreux domaines tels que l'économie, la biologie, la médecine et naturellement dans la commande automatique.

    Les modèles mathématiques développés a travers les techniques d'identification doivent être adéquats et robustes car ils peuvent être utilisée pour :

    > L'obtention d'une meilleure connaissance du procédé.

    > L'obtention des propriétés du modèle par étude des simulations temporelles et des propriétés structurelles (ordre, commandabilité, observabilité, stabilité) :C'est l'analyse du modèle.

    La conception et la mise en oeuvre d'un système performant de régulation. Le choix entre un ou plusieurs algorithmes de commande suivant les performances requises et test du schéma adopté par simulation de la boucle fermée, constituée du modèle initial et du régulateur : c'est la synthèse du système de commande [4].

    La prédiction des signaux.

    > L'optimisation du comportement du procédé.

    > Le calcul des variables expérimentalement inaccessibles.

    Conclusion :

    Dans ce chapitre nous considérons le problème de l'identification et modélisation des systèmes non linéaires .L'objectif est de construire un modèle pour le système à identifier e nous avons présentées la relation entre la modélisation et l'identification.

    Chapitre II

    Les Réseaux de neurones

    Introduction :

    L'un des défis de l'homme aujourd'hui est de copier la nature et de reproduire des modes de raisonnement et de comportement qui lui sont propre. Les réseaux de neurones, sont nés de

    cette envie ils constituent une famille de fonctions non linéaires paramétrées, utilisées dans de nombreux domaines (physique, chimie, biologie, finance, etc.), notamment pour la modélisation de processus et la synthèse de lois de commandes, leur application dans le domaine de l'électronique est assez récente.

    Ce chapitre décrit une technique intelligente nouvellement introduite dans le monde de

    l'électronique. Il s'agit principalement des réseaux de neurones artificiels et les différentes structures qui leurs sont associées ainsi que nous abordons par la suite l'identification et le contrôle de processus par les réseaux de neurones pour la synthèse de lois de commandes.

    II.1.Les neurones artificiels :

    Les réseaux de neurones biologiques réalisent facilement un certain nombre d'applications

    telles que la reconnaissance des formes, le traitement de signal, l'apprentissage par l'exemple la mémorisation et la généralisation. Ces applications sont pourtant, malgré tout les efforts déployés en algorithmique et en intelligence artificielle, à la limite des possibilités actuelles .C'est à partir de l'hypothèse que le comportement intelligent émerge de la structure et du comportement des éléments de base du cerveau que les réseaux de neurones artificiels se

    sont développes. Les réseaux de neurones artificiels sont des modèles, à ce titre ils peuvent être

    décrits par leurs composants, leurs variables descriptives et les interactions des composants.

    Figure II.1. Le modèle d'un neurone artificiel.

    Chaque neurone artificiel est un processeur élémentaire, il reçoit un nombre de variable d'entrées en provenance de neurones amont. A chacune de ces entrées est associé un poids (W) abréviation de poids représentatif de la force de connexion. Chaque processeur élémentaire est dote d'une sortie unique, qui se ramifie ensuite pour alimenter un nombre variable de neurones avals. A chaque connexion est associé un poids synaptique. Cette structure élémentaire est appelée perceptron [2].

    II.2. Fonctions d'activation :

    Cette fonction permet de définir l'état interne du neurone en fonction de son entré totale, Citons à titre d'exemple quelques fonctions souvent utilisées [11].

    II.2.1. Fonction binaire a seuil :

    Fonction Heaviside (figure II.2) définie par :

    f1, x> 0

    h(x) =10, sinon (II.1)

    Fonction Signe (figure II.3) définie par :

    (+1, x > 0

    sgr(x) = t-1, sinon (II.2)

    Le seuil introduit une non-linéarité dans le comportement du neurone, cependant il limite la gamme des réponses possibles à deux valeurs [11].

    II.2.2 Fonction linéaire :

    C'est l'une des fonctions d'activations les plus simples, sa fonction est définie par [11] : F(x)=x

    Figure. II.4. Fonction linéaire.

    II.2.3 Fonction linéaire à seuil ou multi-seuils : On peut la définir comme suit :

    IX , X E [U, v]

    F(X) = v ,Si X v (II.3)

    U , Si X < U

    II.2.4 Fonction sigmoïde :

    Elle est l'équivalent continu de la fonction linéaire. Etant continu elle est dérivable, d'autant plus que sa dérivée est simple à calculer, (figure. II.5) elle est définie par [11] :

    ??1 ??) = 1 ??2 ??~ = 1-??-??

    1+??-?? 1+??-??

    Figure. II.5. Fonction sigmoïde.

    II.3.Architecture des réseaux de neurones :

    II.3.1.Les réseaux non bouclés :

    Ce sont des réseaux unidirectionnels sans retour arrière (feedforward). Le signal de sortie est directement obtenu après l'application du signal d'entrée. Si tous les neurones ne sont pas des organes de sortie, on parle de neurones cachés [2]

    II.3.2.Réseaux bouclés :

    Il s'agit de réseaux de neurones avec retour en arrière (feedback network ou récurrent Network) [2].

    Figure II.7.Réseau bouclé.

    II.4.L'apprentissage :

    II.4.1.Types d'apprentissages :

    L'apprentissage et l'adaptation constituent deux caractéristiques essentielles des réseaux de neurones. Le rôle de l'apprentissage est de définir le poids de chaque connexion. De nombreuses règles existent pour modifier le poids des connexions et donc pour arriver à un apprentissage correct lorsque la phase d'apprentissage est achevée, le réseau doit etre capable de faire les bonnes associations pour les vecteurs d'entrées qu'il n'aura pas appris. C'est l'une des propriétés importante dans les réseaux de neurones, car elle permet de donner la capacité de reconnaître des formes ressemblantes et meme dégradées des prototypes, c'est la phase de reconnaissance. Les techniques d'apprentissage peuvent etre classées en trois catégories [2]:

    Un superviseur ou professeur, fournit au réseau des couples d'entrées-sorties. Il fait apprendre au réseau l'ensemble de ces couples, par une méthode d'apprentissage comme la rétro-propagation du gradient de l'erreur, en comparant pour chacun d'entre eux la sortie effective du réseau et la sortie désirée. L'apprentissage est terminé lorsque tous les couples entrées-sorties sont reconnus par le réseau. Ce type d'apprentissage se retrouve, entres autres dans le perceptron [2].

    II.4.1.2. Apprentissage non supervisé :

    Cet apprentissage consiste à détecter automatiquement des régularités qui figurent dans les exemples présentés et à modifier les poids des connexions pour que les exemples ayant les mêmes caractéristiques de régularité provoquent la même sortie. Les réseaux autoorganisateurs de Kohonen sont les réseaux à apprentissage non supervisé les plus connus [2].

    II.4.1.3. Apprentissage auto-supervisé :

    Le réseau de neurone évalue lui-mrme ses performances, sans l'aide d'un «professeur ». Un objet est présenté à l'entrée du réseau de neurones, à qui on a indiqué la classe à laquelle appartient cet objet. Si le réseau ne le classe pas correctement, il mesure lui-mrme l'erreur qui le faîte, et propage cette erreur vers l'entrée. Le réseau procède à autant d'itérations qu'il est nécessaire jusqu'à obtenir la réponse correcte [2].

    II.4.2Les méthodes d'apprentissage :

    Dans les systèmes experts, les connaissances de l'expert ont une forme énumérée : elles sont exprimées sous forme de règles. Dans le cas des réseaux de neurones, les connaissances ont une forme distribuée : elles sont codées dans les poids des connexions, la topologie du réseau, les fonctions de transfert de chaque neurone, le seuil de ces fonctions, la méthode d'apprentissage utilisée. Il existe un certain nombre de méthodes d'apprentissage [2]:

    II.4.2.1. Règle de Hebb :

    C'est la méthode d'apprentissage la plus ancienne (1949), elle est inspirée de la biologie. Elle traduit le renforcement des connexions liant deux neurones activés. Si un des deux neurones au moins n'est pas activé, le poids de la connexion n'est pas modifié.

    II.4.2.2. Rétro-propagation du gradient de l'erreur :

    Cet algorithme est utilisé dans les réseaux de type feedforward, ce sont des réseaux de neurones à couche, ayant une couche d'entrée, une couche de sortie, et au moins une couche cachée. Il n'y a pas de récursivité dans les connexions, et pas de connexions entre neurones de la même couche. Le principe de la rétro-propagation consiste à présenter au réseau un vecteur d'entrées, de procéder au calcul de la sortie par propagation à travers les couches, de la couche d'entrées vers la couche de sortie n passant par les couches. Cette sortie obtenue est comparée à la sortie désirée, une erreur est alors obtenue. A partir de cette erreur, est calculé le gradient de l'erreur qui est à son tour propagé de la couche de sortie vers la couche d'entrée, d'où le terme de rétro-propagation. Cela permet la modification des poids du réseau et donc l'apprentissage. L'opération est réitérée pour chaque vecteur d'entrée et cela jusqu'à ce que le critère d'arr~t soit vérifié [2].

    II.4.2.2.1Avantages et inconvénients de retro propagation du gradient de l'erreur : > Les Avantages :

    Ce f~t un des premiers algorithmes développés pour l'apprentissage des réseaux de neurones multicouches de types feedforward. Il permet de pallier une carence de l'algorithme du perceptron qui est incapable de modifier les poids des couches cachées , l'implémentation informatique ne présente pas de difficultés [2].

    > Les Inconvénients :

    En ce qui concerne l'algorithme :

    L'algorithme de rétro-propagation du gradient de l'erreur suit la descente du gradient

    de

    L'erreur [2] : un minimum local peut rapidement bloquer la recherche des optima globaux :

    > L'algorithme de rétro-propagation est gourmand en temps de calcul.

    > Importance du choix du coefficient d'apprentissage, si le coefficient est trop grand la dynamique du réseau va osciller autour de l'optimum, s'il est trop petit la convergence est lente.

    II.4.3.Le perceptron :

    Depuis les résultats des travaux de Mac Culloch et Pitts (1943), qui ont abouti à La définition du neurone formel, ainsi ceux de Hebb, expliquant les effets d'apprentissage de mémoire et de conditionnement à partir de groupes de cellules. Pour expliquer ces effets d'apprentissage, Hebb propose que les cellules apprennent à modifier l'intensité des connexions qui les relient, en fonction de leur activité simultanée. L'idée de certains chercheurs fut d'utiliser les modélisations des neurones et de l'évolution des synapses pour simuler des réseaux de neurones. Le premier modèle solide fut présenté en 1959 par F. Rosenblatt il s'agit du perceptron, autrement dit un réseau réduit à un seul neurone formel [2].

    II .4.3.1. Description :

    Les perceptrons sont des réseaux de type feedforward, possédant la structure suivante : Une couche de connexions fixes, située entre les unités d'entrée, la rétine, et les unités d'association. La seconde couche relie les unités d'association et les unités de réponse : c'est sur ces poids que l'adaptation agit. Dans le perceptron, il n'y a qu'une seule couche qui varie en fonction de l'adaptation. Dans le neurone du perceptron on utilise la fonction d'activation à seuil. Le modèle du neurone linéaire à seuil du perceptron à une cellule de décision et relié à N cellules d'entrée est présenté sur la (figure II.8)

    Le neurone linéaire à seuil réalise donc, une partition des vecteurs d'entrée qui lui sont soumis

    en entrée en deux domaines. La frontière entre ces deux dom

    S = E ?????? * Xj (II-4)

    m u S désigne le seuil de la cellule de décision.

    En effet, pour ?? E???? * Xj > S , le neurone répond 1 ;

    Pour ??E???? * Xj < S , il répond -1

    La frontière séparant ces deux domaines sera donc un hyperplan.

    :

    II.5.Structure à perceptron multicouche(PMC)

    Les perceptrons sont les réseaux de neurones artificiels les plus courants, ils correspondent de trois couches, la première correspond a la couche d'entrée, la deuxième est nommée couche cachée et la dernière est la couche de sortie. La première couche est constituée

    neurones formels ,les neurones d'une couche à une autre sont relies par les poids synaptiques .Chaque neurone formel constitue une cellule effectuant une somme pondérée des entrées Xij du neurone (j) par les poids synaptiques Wij correspondant a ces entrées .Sa sortie est ensuite obtenue par l'intermédiaire de la fonction fj dite fonction d'activation .Cette fonction est en générale croissante ,monotone et bornée ,les plus utilisées sont les fonction signes de saturations ainsi que les fonction sigmoïde ,nous avons ajoute des termes d'entrées X0ij correspondant au biais .Il n'existe pas de regèle pour fixer l'architecture du réseaux ,les neurones des couches d'entrée et de sortie sont lies respectivement au nombre d'entrées et de sorties .Ainsi il a été prouver récemment que les réseaux a une seule couche cachée constitue un outil d'approximation .Pour notre cas ,l'information se propage de la couche d'entrée vers la couche de sortie ,qui fourni une réponse réelle (Y^ ) correspondant à la sortie désirée Y) .En résume pour enseigner une tache a ce réseau (adaptation des poids ) nous devons lui présente

    un couple d'exemple(entrées /sorties) ou(Ucom,Y).l'apprentissage des poids se fait par retro ~ propagation de l'erreur( å) entre la grandeur de sortie du réseau (Y^ )et la grandeur désirée (Y) (critère de minimisation).l'algorithme permettant un telle apprentissage est dit « algorithme de retro-propagation »de Windrow --Hoff il est base sur la méthode du gradient toutes ces méthodes consistent a réduire une fonction se rapportant a l'erreur quadratique moyenne. Cet

    algorithme d'apprentissage permet de déterminer les variations des poids synaptiques ?W1(k) et les biais ?b1(k) .il peut etre exprime par les relations suivantes [14] :

    ??????,?? ??) = ?? ???? ??) ??????

    ???????(??) ????? ??~ (???? ??~)? (II-5)

    ??????,?? ??) = ?????? ??) ??????

    ???????(??) ????? ??~ (II-6)

    Xi(n) : représente le vecteur d'entrée du neurone (i) de la couche m ; l'équation de mise à jour de ces poids synaptiques et biais s'effectue sur la base relation suivante :

    q ????,???? ?? + ??) = ????,???? ??) + ?????,????(??) (II-7)

    ?????? ?? + ??) = ?????? ??) + ? ?????? (??) (II-8)

    Le calcul des grandeurs d'activation des unités d'entrées s'exprime symboliquement par :

    ??

    ???????? ?? ??~ = ????,??

    ?? ??~??????,??

    ?? ??~ + ???? ??(??) (II-9)

    ??=??

    11 ??) = ?? ??[?????????? ??)] (II-10)
    II.5. 1.Mise en oeuvre des réseaux PMCs :

    On considère un réseau comportant une couche d'entrée à n neurones, une couche de sortie à m neurones et il comporte une à plusieurs couches cachées.

    Supposons qu'on dispose d'un, ensemble d'apprentissage composé de k paires de vecteurs :

    N ous allons suivre une démarche reprise par Wierenga et Kluytmans (1994) qui est composée de quatre étapes principales [11] :

    > Etape 1 : fixer le nombre de couches cachées.

    > Etape 2 : déterminer le nombre de neurones par couches cachées.

    > Etape 3 : choisir la fonction d'activation.

    > Etape 4 : choisir l'apprentissage.

    II.6.Structure à fonction de base radiale RBF :

    L'utilisation du réseau précédent nécessite une structure riche en perceptrons .En tou rigueur, les réseaux à RBF peuvent être aussi parcimonieux que les réseaux à perceptrons, ma

    W(k)) »et le biais B

    non linéaire.

    L'algorithme d'apprentissage que nous avons utilise est celui de la descente du gradient cet algorithme consiste à réduire une fonction, se rapportant la moyenne des carres des erreurs il permet la mise a jour de la matrice Z(k) constituée des paramètres suivants :

    Z(k)=[W(k),ó(k),c(k),b(k)] (II-11)

    Ou :

    W(k), B(k), C(k), 1 (k) correspondent respectivement aux poids synaptiques, biais, centre, et largeur de la fonction d'activation. La variation ?Z(k) ainsi que sa mise a jour Z (k+1) sont données par les relations ci-dessous suivantes [2] :

    ?z(k)=-????

    ????(??)

    (II-12)

    ????

     

    Z (k+1)=z(k)-???? ??l??) (II-13)

    II.7. Propriété des réseaux de neurones :

    L'intér~t porté aujourd'hui aux réseaux de neurones tient sa justification dans les quelques propriétés intéressantes qu'ils possèdent et qui devraient permettre de dépasser les limitations de l'informatique traditionnelle, tant au niveau programmation qu'au niveau machine [11].

    II.7.1 Le parallélisme :

    Cette notion se situe à la base de l'architecture des réseaux de neurones considérés comme ensemble d'entités élémentaires travaillant simultanément. Par l'étude du fonctionnement des réseaux de neurones, on pourrait aboutir à des nouvelles techniques de formalisation de problème qui permettraient de les traiter en parallèle [11].

    II.7.2 La capacité d'adaptation :

    caractérisent aussi par leur capacité d'auto organisation qui assure leur stabilité en tant que systèmes dynamiques capables de tenir compte de situations non encore connues [11].

    II.7.3 La mémoire distribuée :

    Dans les réseaux de neurones, la mémoire correspond à une carte d'activation de neurones. Cette carte est en quelque sorte un codage du fait mémorisé ce qui attribue à ces réseaux l'avantage de résister aux bruits (pannes) car la perte d'un élément ne correspond pas jà la perte d'un fait mémorisé.

    II.7.4 La capacité de généralisation :

    Cette capacité est important surtout dans le cas oil la constitution de recueils d'expertise pour un système expert devient difficile (reconnaissance intuitive ou implicite). Les réseaux

    neuronaux peuvent apprendre à retrouver des règles à partir d'exemple [11].

    II.8. Modélisation neuronale des systèmes non linéaires :

    L'utilisation des réseaux de neurones pour la modélisation des systèmes non linéaires découle naturellement des aptitudes de ces derniers à l'approximation et la généralisation. La détermination du modèle dynamique d'un système comporte en général les étapes suivantes

    [3] :

    > Acquisition des données d'apprentissage et de test.

    > Choix de la structure du modèle.

    > Estimation des paramètres du modèle.

    > Validation du modèle identifié.

    La première étape fournit les données entrées/sorties susceptibles de permettre l'extraction d'un modèle de procédé significatif. La deuxième étape consiste à choisir la structure du modèle susceptible de représenter la dynamique du système, l'architecture du réseau de neurones et ses entrées. Les réseaux multicouches statiques sont les plus utilisés à cause de la simplicité de leurs algorithmes d'apprentissage et leurs aptitudes à l'approximation et à la généralisation. Il n'existe pas de méthodes générales pour le choix du nombre de neurones sur chaque couche cachée ainsi que le nombre de ces dernières. Cependant un réseau à une seule couche cachée est dans la majorité des cas suffisant. En référence à la théorie des systèmes linéaires, plusieurs modèles non linéaires ont été proposés

    - Le modèle NFIR : la régression est composée uniquement des entrées passées. yà(k) = f (u (k -1),..., u (k - n)) (II-14)

    - Le modèle NARX : dans ce cas la régression est composée de sorties et entrées passées.
    yà(k) = f (u (k -1),..., u (k - n), y (k -1),..., y (k -m)) (II-15)

    - Le modèle NOE : la régression est composée d'entrées et sorties estimées passées. yà(k) = f (u (k -1),..., u (k - n), yà (k -1),..., yà (k -m)) (II-16)

    -Le modèle NARMAX : la régression est composée de sorties et entrées passées Ainsi que d'erreurs d'estimation.

    yà(k) = f (u(k -1),...,u(k - n), y(k -1),..., y(k -m),e(k-1),...,e(k-l)) (II-17)

    II.9.Identification des processus par réseaux de neurones :

    Le principe de l'identification par réseau neuronaux consiste à substituer aux modèles paramétriques classiques des modèles neuronaux, c'est-à-dire proposer un modèle établissant une relation entre son entrée et sa sortie et à déterminer, à partir du couple des signaux d'entrée-sortie, le comportement du modèle. Deux raisons importantes nous motivent [2] :

    > Prédire le comportement d'un système pour différentes conditions de fonctionnement.

    > Élaborer une loi de commande à appliquer au processus pour qu'il réalise l'objectif

    assigné.

    Nous citerons deux techniques d'identification à base de réseaux de neurones multicouches : la méthode d'identification directe et la méthode d'identification inverse.

    II.9.1. Identification directe :

    La figure (II .9) montre le schéma général d'identification directe d'un processus. Sur cette figure, le réseau de neurones identificateur RNI est utilisé en parallèle avec un processus de type boite noire. La sortie du processus, y, est comparée avec la sortie du réseau de

    neurones, y, puis l'erreur e=y-y est utilisée afin d'affiner les paramètres du système neuronal

    [2].

    Figure. II.9 .Schéma d'identification directe d'un processus par réseau de neurones.

    Pour considérer l'aspect dynamique du système, on a le choix d'utiliser les réseaux de neurones récurrents, ou bien d'accroître les entrées du réseau de neurones avec les signaux

    En considérant l'aspect dynamique du système, l'équation différentielle de la sortie y l'instant t + 1peut être écrite de la façon suivante :

    y(t+1)=f (y(t),..., y(t-1+n),..., u(t),...,u(t-1+m)) (II-18)

    Ou y (t+1) est la sortie du processus à l'instant t+1 et f est la fonction non linéaire régissant le

    fonctionnement du processus. Cette fonction dépend des sorties antérieures jusqu'à l'ordre n et des entrées antérieures jusqu'à l'ordre m du processus la sortie y(t+1) du réseau de neurones à l'instant t +1est décrite comme suit :

    y(t+1)= ?? ^(y(t),...,y(t-1+n),...,u(t),...,u(t-1+m)) (II-19)

    Ou ?? ^ représente la fonction d'approximation non-linéaire de la fonction f du processus. La sortie du réseau neurones y(t+1) dépend des sorties et entrées antérieures du processus respectivement jusqu'aux ordres n et m. Elle ne dépend pas des sorties antérieures du réseau neurones. Si la sortie de l'identificateur neuronal se rapproche de celle du processus après quelques itérations d'apprentissage, alors nous pouvons l'utiliser comme entrée. On aura ceci :

    y (t+1)=?? ^ (y(t),..., y(t-1+n),..., u(t),..., u(t-1+m)) (II-20)

    II.9.2. Identification inverse :

    Dans cette méthode, l'entrée du processus est comparée avec la sortie de l'identificateur

    neuronal RNI est la sortie du processus est injectée comme entrée du réseau de neurones après

    un apprentissage hors ligne du modèle inverse, le RNI peut être configuré afin d'assurer un

    Figure. II.10. Schéma d'identification inverse d'un processus avec un réseau de neurones.

    II.10.Avantages et Inconvénients des réseaux de neurones :

    II.10.1. Avantages des réseaux de neurones :

    > Capacité de représenter n'importe quelle fonction, linéaire ou pas, simple ou complexe.

    > Faculté d'apprentissage à partir d'exemples représentatifs, par « rétro propagation des Erreurs ». L'apprentissage (ou construction du modèle) est automatique

    > Résistance au bruit ou au manque de fiabilité des données.

    > Simple à manier, beaucoup moins de travail personnel à fournir que dans l'analyse
    statistique classique. Aucune compétence en matis, informatique statistique requise.

    > Comportement moins mauvais en cas de faible quantité de données.

    > Pour l'utilisateur novice, l'idée d'apprentissage est plus simple à comprendre que les

    complexités des statistiques multi variables [2].

    II.10.2. Inconvénients des réseaux de neurones :

    > L'absence de méthode systématique permettant de définir la meilleure topologie du réseau et le nombre de neurones à placer dans la (ou les) couche(s) cachée(s).

    > L e choix des valeurs initiales des poids du réseau et le réglage du pas d'apprentissage,

    qui jouent un rôle important dans la vitesse de convergence.

    · Le problème du sur apprentissage (apprentissage au détriment de la généralisation).

    > L a connaissance acquise par un réseau de neurone est codée par les valeurs des poids
    sont inintelligibles pour l'utilisateur [2].

    II.11.Conclusion :

    Nous avons présenté dans ce chapitre les principes de base des réseaux de neurones

    inspiré de l'étude du cerveau humain, dont il s'est développé depuis des modèles plus complexes grâce à l'évolution de la neurobiologie et à l'utilisation d'outils théoriques plus puissants comme l'algorithme de rétro-propagation. Il est à noter que l'emplacement idéal pour l'intégration des réseaux de neurones artificielle, pourrait etre d'un intéret particulier pour l'identification du processus.

    Chapitre III

    Les types de la commande

    Introduction :

    Les réseaux de neurones artificiels ont trouvé une large utilisation dans le domaine de la commande des systèmes non linéaires. Ceci est d à leur propriété d'approximation universelle qui les rend capables d'approximer, avec un degré de précision arbitraire fixé, n'importe quelle fonction non linéaire. Les réseaux à base de perceptrons multicouches, (Multi Layer Perceptrons), MLP, et les fonctions radiales de base RBF, sont les plus utilisés. Les premières applications des réseaux de neurones en commande n'étaient pas basées sur des analyses de stabilité rigoureuses. En général, la loi de commande est exprimée en fonction des non linéarités du modèle du système suivant la méthode de linéarisation entrée-sortie. Les réseaux de neurones sont ensuite utilisés soit pour approcher directement la loi de commande soit pour approcher les non Linéarités formant ainsi une loi de commande neuronale adaptative. Le modèle non Linéaire utilisé dans ces études satisfait les conditions de linéarisation entrée sortie. Dans tous ces travaux, le signal erreur utilisé pour l'apprentissage dans les lois d'adaptations est basé sur l'erreur de poursuite. Dans ce mémoire, une structure de commande neuronale avec des lois d'adaptation basée sur le signal erreur de commande est étudiée. Dans ce cas la fonction à optimiser dépend alors directement des poids.

    III.1.COMMANDE DE PROCESSUS :

    L'utilisation des réseaux de neurones pour la commande (adaptative ou non) de processus non linéaires découle naturellement des aptitudes de ces derniers à la modélisation. Il s'agit essentiellement d'une extension non linéaire de la commande optimale avec coût quadratique sur un horizon infini. Considérons en effet une structure de commande typique (la commande avec modèle interne) représentée Sur la Figure III.1.

    Figure .III.1.Exemple d'architecture pour la commande neuronale robuste.

    Elle comprend :

    > Un modèle neuronal, obtenu comme indiqué au paragraphe précédent

    > Un correcteur neuronal dont les coefficients sont mis à jour périodiquement si la commande est adaptative ; dans le cas contraire, ses coefficients sont fixes une fois l'apprentissage terminé.

    Pour l'apprentissage de systèmes de poursuite, il est nécessaire de surcroît d'utiliser un modèle de référence qui traduit le cahier des charges en termes de dynamique de poursuite désirée. La commande de processus non linéaires semble être l'un des domaines les plus prometteurs pour es réseaux de neurones à l'heure actuelle. Les comparaisons entre commandes "neuronales" (faisant intervenir des connaissances a priori sur le processus) et commandes non linéaires redditionnelles ont montré que les réseaux de neurones permettent d'obtenir des résultats au moins aussi bons, et souvent meilleurs, mais surtout qu'ils sont de mise en oeuvre beaucoup plus simple en raison du caractère générique des algorithmes mis en oeuvre : quelle que soit l'architecture du réseau bouclé utilisé, c'est toujours le mrme algorithme qui est mis en oeuvre.

    III.2. Les réseaux de neurones dans la commande des systèmes :

    Par leur capacité d'approximation universelle, les réseaux de neurones sont bien adaptés pour la commande des systèmes non linéaires. En effet dans ce cas la fonction commande est une fonction non linéaire, l'objectif est alors d'approximer cette fonction par les RNA (réseaux de neurones artificiels). Cette approximation est réalisée par apprentissage des poids du réseau, l'apprentissage peut se faire hors ligne ou en ligne :

    ü Dans le cas de hors ligne, l'apprentissage est basé sur un ensemble de données définissant la fonction commande.

    ü Dans le cas de en ligne, la mise à jour des poids est essentiellement adaptative. Il existe alors plusieurs algorithmes de commande par RNA basés sur ces deux structures, principalement on peut distinguer :

    > La commande inverse (basée sur l'erreur de commande).

    > Commande basée sur l'erreur de sortie (d'état).

    > Commande adaptative.

    > Commande basée sur le critique adaptatif (Adaptif Critique).

    > Commande apprentissage d'un contrôleur conventionnel.

    III.2 .1. La commande inverse:

    Considérons un système non linéaire avec une entrée u(t) et une sortie y(t) peut dépendre de u(t) seulement ou de u(t) et les états précédents de y et/ou u

    y(t)= F (u(t)) (III-1)

    Ou

    y(t)=F (u(t), u(t-1), u(t-2),..., y(t-1), y(t-2),...) (III-2)

    L'objectif est de faire suivre y(t) une trajectoire de référenceyd(t). Le contrôleur idéal réalise l'égalité : y(t)=yd (t), mathématiquement il doit réaliser l'inverse F-1 de la fonction F.

    Figure III.2.principe de la commande neuronale inverse.

    Le principe de la commande inverse par réseau de neurones consiste à construire le réseau (en générale MLP) qui approxime la fonction F-1, cette approximation se fait par apprentissage hors ligne. Etant donné la fonction F, il faut construire un RNA pour réaliser l'approximation, on génère une base de données à partir de F. L'objectif de l'apprentissage est de déterminer la fonction inverse à partir de ces données. A l'instant t on donne au RNA : y(t), y(t-1), y(t-2) et on obtient à la sortie ur(t). La mise à jour des poids du réseau est basée sur la minimisation de l'erreur entre ur(t) et u(t)

    Figure III.3.Apprentissage de la commande inverse.

    / RIAINMESSIFQtiAAMAeAMIPiAPIDLOéAeIu SIIt ~IIIIMIliAPIFRP P 11FRQtrôleur

    iQverAe. Cette

    méthode peut être appliquée aux systèmes invariants dans le temps.

    III.2.2. Commande basée sur l'erreur de sortie:

    DIQAADIFIA UAFeMMISSERFK, IIEA'pBfiiliéIMP 1Qe10 1FRQt> TS 61 $ MEP IQiP iAe I

    MilECTeQtrIRI ARLIHNEMPIpIeQTH IIl A'PBarlRrAuIRQaiP eQtueP eQt dIPQ aSSIFQtiAAMITQT boucle fermée, alors faut il le réaliser en ligne ou hors ligne. La AtIuFIMI KI111SSIeQtiAAaIe est donnée par la Figure .III.4

    Figure .III.4.commande à modèle de référence.

    / IRENFtiIITAt O'eQtIaîQILID14hAeIXESROUIRMllileA SRIdA qX3P IQiP 1A1Qt

    J=1/2[37ra(0 -- 37(??)] 2=1/2[ea(??)]2 (III-4)

    La commande u(t) dépend des poids du réseau, la mise à jour est alors de la forme :

    ???? ???? ????

    ??(t+1)=??(t)-?? (III-5)

    ???? ???? ????

    Mais on ne connaît pas le Jacobien ????

    ????

    Plusieurs propositions ont été faites pour résoudre le problème du Jacobien, une des premières a été de créer un émulateur qui modélise le système.

    Figure III.5.structure de commande neuronale avec émulateur Cette méthode fonctionne si ???? ??) = ??(t) les étapes pour le développement de Cette approche :

    > Construire le RNA émulateur (à partir des données).

    > Initialiser hors ligne le contrôleur RNA.

    III.2.3. Commande adaptative neuronale:

    Dans cette stratégie de contrôle, les réseaux de neurones sont introduits pour construire des systèmes de commande adaptative stable basés sur la théorie de la stabilité de Lyapunov. Deux

    classes de méthodes ont été développées: directe et indirecte.

    III.2.3.1 La commande adaptative neuronale indirecte :

    Dans la première approche appelée commande adaptative neuronale indirecte, les réseaux de neurones sont utilisés pour approximer les non linéarités du système non linéaire. Une des méthodes qui a connu le plus de développement est basée sur la méthode de linéarisation par retour (feedback linearization) avec un système non linéaire sous forme affine :

    x (t) = É (x) + 9(x)u(t) (III-6)

    Y(t) = h(x)

    La loi de commande linéaire est de la forme :

    U(t)=v-É(x)

    (III-7)

    9(x)

    Lorsque les fonctions non linéaires f(x) et g(x) sont inconnues, deux réseaux de neurones sont utilisés pour obtenir leur approximations É à(x) et g(x) et construire la commande C(t) approximée dans cette approche se pose cependant un problème de singularité de la commande lorsque g(x) = 0. Plusieurs techniques ont été proposées pour éviter cette singularité, la plus intéressante étant la commande indirecte ci-dessous.

    Figure III.6.schéma de commande indirecte basée sur la linéarisation par retour. III.2.3.2. La commande adaptative neuronale directe :

    La deuxième approche appelée commande adaptative directe le seul réseau de neurones est introduit pour approximer directement la loi de commande idéale non constructible u(t) cidessus. Dans ces méthodes le signal d'adaptation est l'erreur de poursuite. Il faut noter cependant que les développements mathématiques sont plus élaborés pour cette méthode. Par exemple la méthode proposée dans consiste à approximer la loi :

    U (??)= ??

    ??(??)(É (??) +??) +2????)2 ???? (III-8)

    ????= ????

    ?? ??=?? ???? (III-9)

    Avec e =[????, ????, . . ????]??=????-??????-?? i=1,...n

    Et

    ??-??

    ??=-???? ??~+ ????

    ??=?? ???? (III-10)

    ???? est un signal de référence borné et supposé n fois dérivable. Les coefficients ???? Sont choisit tel que le polynôme ????+????-??????+...+???? a tous ses racines strictement dans le demi plan complexe gauche et ????=1 donc e(t)?0 tan que ???? ?0.

    III.3 Structure de base de la commande adaptative neuronale retour d'état :

    Dans ce paragraphe nous introduisons un contrôleur adaptatif u(t) à retour d'état pour un système non linéaire mono variable sous la forme générale :

    ?? = É(??,??)

    (III-11)

    ?? = ??(??)

    ??=[?? ??, ????, ... , ??]?? ? ???? est le vecteur d'état supposé complètement disponible U, y ? ?? sont

    l'entrée et la sortie du système respectivement. III.3 .1.Les réseaux de neurones :

    La sortie du réseau de neurones est donnée par :

    u(??)=????. ?? (???? .Z) (III-12)

    Où V= [??1, ??2, ..., ????]? R(??+1)×?? et W=[??1,??2, ... , ????]?? ? R??

    Sont les poids du réseau de neurones, z est le vecteur d'entrée, ?? = [??1, ??2, ... , ????]??est le vecteur d'état du système. La fonction lisse u* peut être approximée comme suit:

    ??*(??)=W??* .S (??*?. ??)+E (??) ? ?? ? ??? (III-13)

    Où å (z) est l'erreur d'approximation du réseau de neurones. La sortie du contrôleur neuronal avec les poids W à et V à peut ~tre écrite sous la forme :

    û (??)=W??.S(??à??. Z) (III-14)

    On définit l'erreur de commande :

    ??*??= û(??) -??*(??) (III-15)

    Si on veut trouver les poids qui minimisent cette erreur, l'objectif sera :

    ??

    J=?? (??*??)2 (III-16)

    Les lois de la mise à jour des poids sont obtenues par la dérivation de cette équation par rapport aux ces poids et en utilisant l'algorithme du gradient avec un pas prédéterminé :

    W =-??

    (??*?? . S (??à??. Z) + ???? . ??*?? .W) (III-17)

    ??à = -??

    (??*?? .Z.W??.OE( ??à?? . Z) + ???? . ??*?? .Và) (III-18)

    Où OE( ??à??. Z) = diag {oe1, oe2, ... , oe??} et oe?? = d[S(Z)] /dz ?? =???? , ??à??.Z=[??1, ??2, ... , ????]??
    Et ?? = ????.I > 0, ?? = ????.I > 0 sont les taux de mise à jour de ??*?? L'erreur de commande. III.4. Structure de la commande adaptative neuronale à retour de sortie:

    III. 4.1. La structure de base :

    Dans la section précédente, nous avons introduit la structure de commande neuronale en supposant que les états du système sont disponibles. Ceci n'est généralement pas le cas, pour cela nous introduisons maintenant une structure à retour de sortie basée sur un observateur non linéaire. Dans ce qui suit nous rappelons brièvement la théorie des observateurs non linéaires à gain élevé.

    III. 4.2 Les observateurs non linéaires:

    Dans les systèmes de commande à retour d'état la présence des variables d'états inconnues et non mesurables devient une difficulté qui peut être maîtrisée avec l'introduction d'un estimateur d'état approprié. Le développement d'algorithme pour permettre l'estimation a attiré l'attention de plusieurs chercheurs. Plusieurs techniques ont été introduites pour estimer les variables d'état en connaissant juste les valeurs mesurables du système. Il existe plusieurs formes d'estimateur qui peuvent être utilisées dépendant à la structure mathématique du modèle du processus et l'information du système. La forme non linéaire de certains processus a nécessité le développement d'observateurs non linéaire. Ces observateurs sont conçus de sorte qu'ils peuvent prendre en compte la non linéarité intrinsèque du processus dynamique. Nous considérons ici un modèle d'observateur appelé l'observateur à gain élevé (High-gain observer), pour un système non linéaire de la forme générale

    ?? = É(??) ??=h (??) ??? R??

    Supposons que la fonction y(t) et ses n dérivées sont bornées. Considérons le système linéaire suivant :

    ???? ??=?? ??+?? (III-19)

    E????=- ????

    ?? ??=?? .????-??+??+ y(t) (III-20)

    Oil

    Les paramètres ??1, ???? sont choisis tel que le polynôme ????+??1????-1 + ~ ????-1S +1 a tous ses racines strictement dans le demi-plan complexe gauche et avec ????=1 Alors il existe des constantes positives????, k2,3, ,n, et t* telles que pour tout t>t* on a:

    ????+?? v (??) =- ????(??+??) ,k = 1i ,n-1 (III-21)

    ???? -' --

    ????+?? (??) '-- _

    Y -??????+?? , k = 1I Q-1 (III-22)

    ???? -

    Avec å un petit nombre positif, ??= ????

    ?? ??=1 . ????-??+1 Et ???? = ????

    , ???? la dérivée d'ordre k de ??

    Alors l'estimé xà du vecteur x est donné par :

    ?? ???? ???? )T ??à=[?? ??, ?? ??, ... ??à??lT = [????, ?? , ???? , ... ????-??]?? (III-23)

    III.5.Apprentissage d'un contrôleur conventionnel :

    Un réseau de neurones peut reproduire le comportement d'un contrôleur conventionnel déjà existant (PI, PID, RST, ...) grkce à ses facultés d'apprentissage et d'approximation. Il suffit de le soumettre à un apprentissage hors ligne pendant une phase d'identification directe en considérant que le contrôleur est lui-même un processus. La figure III.8 montre le principe de l'identification directe d'un contrôleur conventionnel.

    Figure III.8. Schéma d'identification directe d'un contrôleur conventionnel avec un RNI

    Le but de cette architecture n'est pas de perfectionner les performances du contrôleur conventionnel déjà existant, mais de s'affranchir des contraintes d'implémentations matérielles que peuvent nécessiter certains régulateurs. La méthode de régulation de type RST par exemple est reconnue pour ses bonnes performances en commande mais elle pose de sérieux problèmes en intégration numérique.

    Conclusion :

    Dans ce chapitre nous avons présentées des notions fondamentales sur la commande, un algorithme de commande adaptative neuronale permettant une adaptation directe des poids du réseau de neurones. L'algorithme est basé sur la minimisation du signal erreur sur la commande. La fonction à optimiser dépend alors directement des poids. Le signal de commande idéale ne pouvant ~tre calculé, il est remplacé par une estimée. L'estimée ayant un signe correct, elle n'influe que sur le pas d'apprentissage.

    Chapitre ÉV

    Résultats de simulation

    Introduction :

    Plusieurs méthodes d'identification ont été établies pour les systèmes non linéaires

    l'avènement de la méthode des réseaux de neurones (MNN), présente des approches d'identification très efficace au non linéarité des systèmes

    Dans ce chapitre on va appliquer la technique d'identification sur quatre systèmes non

    linéaires selon leur complexité, et pour cela on va utiliser l'algorithme du rétro-propagation

    IV.1.Présentation des systèmes à identifier et Résultats :

    Système 1 :

    Le système 1 à identifier sera donné par l'équation récurrente suivante :

    y (k+1) =0.3y(k)+0 .6y(k -- 1)+f [u(k)] (IV-1)

    Où la fonction inconnue f a la forme :

    f (u)=0.6sin (ðu) +0.3sin (3ðu) +0.1sin (5ðu)

    (k + 1)=0.3y(k) + 0.6y(k -- 1) + f [u (k)] Pour le modèle neuronal, l'identification de F

    · L'entrée du système et du modèle doit etre u(k) = sin (2ðk / 250)

    · Pour l'identification nous avons trouvé 10000 itérations pour minimiser l'erreur avec

    une entrée aléatoire entre [ 1,1], le résultat est obtenu après 405s.

    · 02 couches cachées

    · 20 neurones dans la pr

    · 10 neurones dans la de

    · U

    · La fonction d'activation utilisée dans les deux couches cachées est la fonction sigmoïde.

    ·

    y (k)y (k -- 1)[y (k) + 2.5]

    Gain d'ajustement 0.1.

    v Calcul La commande de poursuite :

    Le modèle de référence est décrit par l'équation de différence de premier ordre

    m ù r(k)=sin (2*pi*k/250)

    La comm

    u(k)= -f^ [u(k)] +0,6y(k) +r(k)

    v Système 2 : e système 2 à identifier sera donné par l'équation récurrente suivante :

    y(k + 1) = f [y(k), yp (k -- 1)] + u(k) (IV-2)

    ù la fonction inconnue f a la forme :

    f [y(k), y (k -- 1)] =

    1 + y2 (k) + y2(k -- 1)

    Le modèle d'identification sera décrit par l'équation suivante :

    y^ (k + 1) = f [y(k), y(k -- 1)] + u(k)

    our le modèle neuronal, l'identification de on a choisis les paramètres suivants :

    · L'entrée du système et du modèle doit etre u(k) = sin (2ðk / 25)

    · Pour l'identification nous avons trouvé 10000 itérations pour minimiser l'erreur avec une entrée aléatoire entre [ 2,2], le résultat est obtenu après 129s.

    · 02 couches cachées.

    · 20 neurones dans la première couche cachée.

    · La fonction d'activation utilisée dans les deux couches cachées est la fonction sigmoïde.

    · Gain d'ajustement 0.1.

    v Calcul La commande de poursuite :

    Le modèle de référence est décrit par l'équation de différence de premier ordre yrn (k + 1) = 0,6yrn (k) + 0,2yrn (k -- 1) + (k)

    m ù r(k)=sin (2*pi*k/25)

    La commande de poursuite est calculée on utilisant :

    u(k)= -f^ [y(k), y (k-1)] +0,6y(k) + 0 ,2y (k-1) +r(k)

    v Système 3 :

    Le système 3 à identifier sera donné par l'équation récurrente suivante : y(k + 1) = f [y(k)] + g[u (k)] (IV-3)

    y(k)

    f [y(k)] =

    ù la fonction inconnue f est définie par :

    1 + y2(k)

    t la fonction g est définie par :

    g[u (k)] = u3(k)

    e modèle d'identification est décrit par l'équation suivante :

    y7 (k + 1) = f [y(k)] + g [u (k)]

    our le modèle neuronal, l'identification de on a choisis les paramètres suivants :

    · L'entrée du système et du modèle doit etre

    · Pour l'identification nous avons trouvé 2000 itérations pour minimiser l'erreur avec

    · 02 couches cachées.

    ?
    · 10 neurones dans la deuxième couche cachée.

    · Un seul neurone dans la couche de la sortie.

    · La fonction d'activation utilisée dans les deux couches cachées est la fonction sigmoïde.

    · Gain d'ajustement 0.1.

    Pour le modèle neuronal l'identification de on a choisis les paramètres suivants :

    · L'entrée du système et du modèle doit ~tre

    · Pour l'identification nous avons trouvé 50000 itérations pour minimiser l'erreur avec une entrée aléatoire entre [-2,2], le résultat est obtenu après 1.5111 e+003s.

    · 02 couches cachées.

    · 20 neurones dans la première couche cachée.

    · 10 neurones dans la deuxième couche cachée.

    · Un seul neurone dans la couche de la sortie.

    · La fonction d'activation utilisée dans les deux couches cachées est la fonction sigmoïde.

    · Gain d'ajustement 0.1

    v Calcul La commande de poursuite :

    Le modèle de référence est décrit par l'équation de différence de premier ordre :

    La commande de poursuite est calculée on utilisant

    v Système 4 :

    Le système 4 à identifier sera donné par l'équation récurrente suivante :

    y(k + 1) = f [y(k), y(k -- 1), y(k -- 2), u (k), u (k -- 1)] (IV-4)

    Où la fonction f a la forme :

    ??1??2??3??5 ??3 - 1 + ??4

    ?? ??1, ??2, ??3, ??4, ??5~ =

    1 + ??32 + ??22

    Le modèle d'identification est décrit par l'équation suivante :

    ??^ ?? + 1) = ?? [?? ??), ?? ?? - 1), ?? ?? - 2), u ??), u(?? - 1)]

    Pour le modèle neuronal, l'identification de on a choisis les paramètres suivants :

    L'entrée du système et du modèle doit ~tre :

    u ??) = sin 2ðk/250), ?? = 500

    0.8sin 2ð??/250) + 0.2sin 2ð??/25) ,?? = 500

    Pour l'identification nous avons trouvé 50000 itérations pour minimiser l'erreur avec une entrée aléatoire entre [-1,1], le résultat est obtenu après 1.465 e+3s.

    · 02 couches cachées.

    · 20 neurones dans la première couche cachée.

    · 10 neurones dans la deuxième couche cachée.

    · Un seul neurone dans la couche de la sortie.

    · La fonction d'activation utilisée dans les deux couches cachées est la fonction sigmoïde.

    · Gain d'ajustement 0.1.

    Calcul La commande de poursuite :

    Le modèle de référence est décrit par l'équation de différence de premier ordre :

    ???? ?? + 1) = 0,5???? ??) + ??(??)

    Où r(k)=cos (2*pi*k/250)

    La commande de poursuite est calculée on utilisant :

    u(k)= -f^ [y(k), y (k-1), y (k-2), u(k), u (k-1)] +0,5y(k) + r(k)

    IV.2.La simulation :

    + Système 1 :

    ? Identification neuronale :

    Figure .IV.1. Le modèle(Yiden) et le système 1(Yp).

    ? La commande neuronale :

    Figure IV.3.le système1 et le modèle de référence.

    Figure. IV.4. la commande de poursuite.

    Figure. IV.5. MSE entre le système1 et la sortie désirée. + Système 2 :

    ? Identification neuronale :

    Figure. IV .7.MSE entre le modèle et le procédé.

    ? La commande neuronale :

    Figure. IV.9. la commande de poursuite.

    Figure. IV .10. MSE entre le système2 et la sortie désirée.


    ·:
    · Système 3:

    . Identification neuronale :

    Figure. IV .11. Le modèle et le système 3.

    ? La commande neuronale :

    Figure. IV .13. Le système3 et le modèle de référence.

    Figure. IV .14. La commande de poursuite.

    Figure. IV .15. MSE entre le système3et la sortie désirée. + Système 4 :

    ? Identification neuronale :

    Figure. IV .17. MSE entre le modèle et le procédé. ? La commande neuronale :

    Figure. IV.19.La commande de poursuite.

    IV.3.Interprétation des résultats :

    Nous avons étudié l'identification des systèmes non linéaires selon leur complexité. Le système 1 est un système SISO (Single Input Single Output) d'entrée u(k) et de sortie fà Le système 2 est un système TISO (Two Input Single Output), est un système TISO d'entrée [y(k), y (k i-1)] et de sortie f^ .Le système 3 est un système SISO complexe contient deux parties à identifier F et G, F d'entrée [y(k)] et de sortie f^ G d'entrée [u(k)] et de sortie gà. Le système 4 est le plus complexe, est un système MISO d'entrées

    [ y(k) , y(k i-1) , y(k i- 2) ,u(k) ,u(k i-1) ] et de sortie y(k +1) .

    Le résultat Ede la simulation du système 1 ampliatif dans la figure (IV.1) pour la méthode neuronale dans la phase d'apprentissage, nous remarquons que le modèle convergent vers la sortie du système 1. Comme excitation nous avons pris pour entrée aléatoire. Nous avons opté comme critère la moyenne de la somme des erreurs au carré MSE (Mean Square Error).Égal à 1,2 e-3 qui est montre dans la figure (IV.2)

    Pour la commande nous avons trouvé la somme des erreurs moyennes entre la sortie désiré et la sortie du système est de 4,2454e-005.Et le temps de calcul qui nous allons trouver que pour l'identification est 405s pour 10000 itérations.

    La figure (IV-6) montre le résultat d'identification du système 2. Nous remarquons aussi une convergence de modèle vers la sortie du système 2. Comme excitation nous avons pris pour l'entrée aléatoire.

    Nous avons trouvé MSE égal à 2,47 e-2 ampliatif dans la figure (IV.7). Nous allons trouver que le temps de calcul pour l'identification est 129 s avec 10000 itérations. Pour la commande nous avons trouvé la somme des erreurs moyennes entre la sortie désiré et la sortie du système est de 2 ,5 e-2 montre dans la figure (IV.10).

    Pour le système 3 le résultat d'identification montre dans la figure (IV-11). La convergence des modèles vers le système est toujours assurée. Comme excitation nous avons pris pour l'entrée aléatoire pour F et G. nous avons trouvé MSE égal à 1.2289e-005.et le MSE égal à 0.0339 pour la commande montre dans figure. (IV-15)

    La figure (IV-16) montre le résultat d'identification du système 4. La convergence de modèle vers le système est toujours assurée. Comme excitation nous avons pris pour entrée aléatoire toujours. Pour l'identification nous avons trouvé MSE égal à 1,5 e-3 avec nombre d'itération 50000 et temps de calcul égale 1,465 e+3 s et MSE pour la commande égal à 2 e-3 montre dans figure. (IV-20).

    IV.4.Conclusion :

    Dans ce chapitre nous avons illustré l'identification et la commande et les réseaux de neurone par la simulation, nous avons pris quelques systèmes particuliers de niveaux de complexité différente, ainsi dans ce chapitre nous avons Interprété les résultats.

    Conclusion general :

    L'identification et la commande des systèmes non linéaires ne sont pas des taches triviales à cause de non linéarité qui les caractérise. La commande et l'identification doivent être appliqué par un système capable de parier à ce problème, La simulation étendue a montré qu'avec quelque information antérieure à propos d'un système non linéaire inconnu peut être contrôlé, tels identificateurs et contrôleurs résultent en performance satisfaisante. Pour une classe spécifique de système non linéaire, il a été montré que les lois adaptatives donnent la stabilité globale du système total. Et l'identification pour la commande consiste à trouver dans un ensemble des modèles un modèle qui a une distance minimale avec le vrai système et à quantifier L'incertitude du modèle dans une norme compatible avec celle de la commande. On peut considérer deux approches générales pour l'identification des systèmes. Dans l'approche probabiliste le modèle est considéré comme un élément aléatoire qui appartient à une classe paramétrique de distributions probabilistes et l'objectif est d'identifier asymptotiquement le vrai système considéré comme un élément de cette classe. Dans cette approche l'erreur du modèle est souvent quantifiée par des bornes probabilistes et déterministes. Au contraire l'approche ensembliste pour l'identification souvent suppose que

    le vrai système appartient à un ensemble connu de modèles et que les données expérimentales

    sont contaminées par une perturbation inconnue mais avec une borne connue. Contrairement

    au cas probabiliste, on présume très peu sur la perturbation et par conséquent on n'établit pas la convergence exacte du modèle vers le vrai système. On peut donc seulement parler de la convergence asymptotique du modèle vers un voisinage du vrai système.

    Les réseaux neuronaux artificiels ont été utilisés avec succès comme blocs structurels dans l'architecture de l'identification et la commande des systèmes dynamiques non linéaires. Cette architecture est basée sur l'entraînement du réseau utilisant les données d'entrée-sortie du système. En général, les paramètres du réseau sont ajustés en utilisant la méthode du gradient. Pour une classe spécifique de systèmes non linéaires.

    BIBLIOGRAPHIE

    [1] :G.DREYFUS « les réseaux de neurones »Ecole supérieure de physique et de chimie industrielle de la ville de Paris (ESPCI) laboratoire d'électronique 1998

    [2] : CHEKROUNE .Soufyane «commande neuro-floue sans capteur de vitesse d'une machine asynchrone triphasée », thèse magister Ecole Normale supérieure d'enseignement 2009

    [3] :k.kara « Application des réseaux de neurones à l'identification des systèmes non linéaire », thèse de magister Université de Constantine 1995.

    [4] : « modélisation et identification du signal ECG par logique floue »mémoire d'ingénieure université de M'sila, juin 2008.

    [5] :A.AOUICHE « rejection des perturbations dans les systèmes non linéaire : étude comparative », thèse de magister université de M'sila ,2006.

    [6] : « cours Identification » (PDF).

    [7] : « identification et contrôle par réseaux de neurones » mémoire d'ingénieure université de M'sila, juin 2006

    [8] : AHMIDA ZAHIR « contribution à la commande prédictive : stabilisation prédictive non linéaire d'une commande en poursuite basée sure une classe de réseaux neuroniques », thèse doctorat université Mentouri de Constantine .2006

    [9] : MEHRZAD .NAMVAR « Interaction entre Identification et commande », thèse doctorat, institut national polytechnique de Grenoble.2001

    [10] :YOUSSEF.ROCHDI « identification des systèmes non linéaire blocs », thèse doctorat .université de CEAN /basse #177;Normandie .2006

    [11] : « Application des réseaux de neurones artificiels dans le domaine de surveillance des eaux potables », thèse d'ingénieure universite M'sila 2006

    [12] : GUITANI .ISSAM « commande adaptation neuronale par retour de sortie des systèmes non linéaire », thèse magister .université Mentouri de Constantine 2007

    [13]: k .NARENDRA « identification and control of dynamical systems using neural networks », IEEE transactions on neural networks vol1NO1, March 1990

    [14]:AHRICHE.Aimad «réalisation d'une commande numérique avec différentes stratégies de commande et identification par réseaux de neurones artificiels .application au réglage de température », thèse de magister université Boumerdes, 2008.

    MEMOIRE DE FIN D'ETUDES D'INGINIORAT EN GENIE ELECTRONIQUE
    Proposé et dirigé par :
    Monsieur AOUICHE ABDELAZIZ

    Présenté par : Amira Lemmou, Khaoukha Bellakhdar, ledjdel Adila

    THEME :

    IDENTIFICATION ET COMMANDE DES SYSTEMES NON LINEAIRE RESUME :

    Les réseaux neuronaux avec ces architectures différentes ont été utilisés avec succès ces dernières années pour l'identification et la commande de systèmes non linéaires d'une classe large. Dans ce mémoire, Des systèmes dans une forme de simulation sont étudié utilisant cette méthode. Plusieurs étapes de complexité croissante sont discutées en détail, la justification théorique été fournie pour l'existence de solutions au problème de l'TdentTfTFItTon et la commande.

    MOTS CLES :

    Modélisation , Identification, Réseau de neurone, Commande ,Système non linéaire






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Nous voulons explorer la bonté contrée énorme où tout se tait"   Appolinaire