WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Modélisation et diagnostic des systèmes non linéaires par acp à  noyaux

( Télécharger le fichier original )
par Chemse-Eddine DJOUDI
Badji Mokhtar University - Master 2 - Robotique & informatique industrielle 2015
  

Disponible en mode multipage

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

    íãáÚáÇ ËÍÈá Çæ íáÇÚáÇ âþàÌà' ÉÑÇÒ?

    ÉÜÈÇäÚ

    BADJI MOKHTAR- ANNABA UNIVERSITY UNIVERSITE BADJI MOKHTAR ANNABA

    -ÑÇÊÎã ???? ?????

    Année : 2015

    Faculté: Sciences de l'Ingéniorat Département: Electronique

    MEMOIRE

    Présenté en vue de l'obtention du diplôme de :MASTER

    Intitulé

    Modélisation et diagnostic des

    systèmes non linéaires par ACP à

    noyaux

    Domaine : Sciences et Technologies Filière : Génie électrique

    Spécialité:

    Robotique et informatique industrielle

    Par :DJOUDI Chemse-Eddine

    DEVANT Le JURY

    Président: BENSAOULA.Salah M.C.A U.ANNABA

    Directeur de mémoire: HARKAT.Mohamed-Faouzi Pr U.ANNABA

    Examinateur: BOULEBTATECHE.Brahim M.C.A U.ANNABA

    i

    .emerciementf

    Les travaux présentés dans ce mémoire ont étéréaliséau sein du laboratoire des Systèmes et Matèriaux Avancés (LASMA) - Universit Badji Mokhtar Annaba

    Je remercie tout d'abord Dieu tout puissant de m'avoir donnéle courage, la force et la patience d'achever ce modeste travail.

    Je remercie tous les enseignants que j'ai eu tout au long de cette formation, qui m'ont appris énormément.

    Je tiens à exprimer mon respect et gratitude à mon tuteur et encadreur Professeur Mohamed-Faouzi HARKAT pour le suivi de mon mémoire, son aide ainsi que disponibilité.

    Mes remerciements vont également à Monsieur Tarek AIT IZEM pour ces judicieux conseils et soutien.

    Je remercier également les membres de jury d'avoir acceptéd'examiner et de juger ce travail.

    Ainsi que je ne saurais trop remercier mes parents pour leur soutien tout au long du parcours.

    ii

    A` ma mère

    A` mes proches et amis
    A` tout ceux qui m'ont soutenu

    A` ceux que j'aime et
    qui m'aiment et comptent pour moi

    Chemse-?ddine.

    iii

    ?'esum'e

    Dans ce travail, nous avons présentéune approche statistique multi-variables pour la modèlisation et le diagnostic des sysèmes non linéaires. Cette approche, appelée analyse en composantes principales à noyau, qui est une extension de l'ACP classique au cas non linéaire, est basée sur une transformation des données en utilisant une fonction Noyau(Kernel) pour la linéairasation des des variables non linéaires initiales.

    Ce travail est partagéen quatre chapitres, organiés de la façon suivante :

    Le premier chapitre présente un aperçu sur le principe de diagnostic. Nous exposant les différentes étapes pour la mise en place d'un système de surveillance, la structure générale et la classification des méthodes utilisées dans un système de diagnostic.

    Dans le deuxième chapitre on à présentéla description de la méthode ACP classique, ainsi que ses différentes étapes pour la modèlisation, détection et localisation de défauts.

    Le troisième chapitre est consacréà l'ACP à noyau. Oùla transformation noyau effectuant un changement de base qui permet de projeter les données dans un nouvel espace est mise en oeuvre, La modélisation est ainsi facilitée, par l'application de l'ACP linéaire, puisque on passe d'un système initialement non linéaire, à un autre linéaire. Par contre l'espace de représentation sera de dimension plus importante que l'espace de départ.

    Le dernier chapitre compte à lui a étéconsacréà l'application de la méthode du diagnostic, oùle principe de l'ACP à noyau et de modélisation et la génération de résidus sont présentés à l'aide d'un simulateur du processus chimique Tennessee Estman Challange Process (TECP).

    Mots-clés : Diagnostic, Détection et localisation de défauts capteurs, Analyse en Composantes Principales a' noyau, Tennessee Estman

    iv

    ?bstract

    In this work, we presented a statistical multivariable approach used for modeling and diagnosis of nonlinear systems, namely, Kernel Principal Component Analysis (KPCA). This approach, which is an extension of the classical PCA for nonlinear data, is based on a transformation of the nonlinear input data using a kernel function, thus resulting in a new representation with linear relations among the variables, where conventional PCA can be used for modeling and diagnosis. This work is composed of four chapters and is organized as follows:

    The first chapter presents a global preview of diagnosis, different steps for the establishment of a monitoring system are explained, along with the different methods and approaches used in diagnosis, organized in different classes.

    In the second chapter we presented the classical principal component analysis method, and its different steps, applied for modeling, and fault detection and isolation.

    The third chapteris devoted to the Kernel PCA, where a kernel transformation is used for the projection of nonlinear data into a new linear presentation space. The use of conventional PCA for modeling of the data is then possible because of the new linear nature of the obtained data. However, the new representation space is of higher dimension compared to the initial space.

    Finally, the last chapter contains the application of the kernel PCA method for the modeling phase as well as fault diagnosis by generating residuals on a chemical process, namely, the Tennessee Eastman challenge process TECP.

    Keywords : Diagnosis, Sensor fault detection and isolation, Kernel Principal Components Analysis, Tennessee Estman

    v

    Table des matières

    Table des Figures vii

    Introduction générale 1

    Chapitre 1

    Introduction au diagnostic

    1.1 Introduction 2

    1.2 Principe du diagnostic et définitions 3

    1.2.1 Principe du diagnostic 3

    1.2.2 Définitions 4

    1.3 Les différentes étapes du diagnostic d'un système 4

    1.4 Classification des approches de diagnostic 5

    1.4.1 Les approches relationnelles 6

    1.4.2 Les méthodes de traitement de données 6

    1.4.3 Les méthodes à base de modèles 7

    Chapitre 2

    Analyse des composantes principale

    2.1 Introduction à l'ACP 8

    2.2 Identification du modèle ACP 9

    2.3 Estimation des paramètres du modèle ACP 10

    2.4 Détermination de la structure du modèle 14

    2.4.1 Pourcentage cumuléde la variance totale (PCV) 14

    2.4.2 Variance non reconstruite (VNR) 15

    2.4.3 Validation croisée 16

    2.4.4 Moyenne des valeurs propres 17

    2.5 Détection et localisation de défauts 18

    2.5.1 Génération de résidus par estimation d'état 18

    2.5.2 Statistique SPE 21

    2.5.3 Statistique T2 de Hotelling 22

    2.5.4 Localisation de défauts par ACP partielle 22

    vi

    Table des matières

    Chapitre 3

    L'ACP à Noyau (Kernel PCA)

    3.1 Introduction 25

    3.2 Méthodes à noyaux et Kernel PCA 26

    3.2.1 Méthodes à noyaux 26

    3.2.2 Kernel PCA 28

    3.3 Détection et localisation en Kernel PCA 30

    3.3.1 Détection en Kernel PCA 30

    3.3.1.1 Statistique SPE . 31

    3.3.1.2 Statistique T2 32

    3.3.2 Localisation de défauts par KPCA partielle 32

    3.4 Algorithme de base du Kernel PCA 33

    Chapitre 4 Application

    4.1 Introduction 35

    4.2 Description du processus 36

    4.3 Identification du modèle Kernel PCA . 38

    4.4 Détection et localisation de défauts 38

    4.4.1 Détection de défauts 38

    4.4.2 Localisation de défauts 39

    Annexes

    Conclusion générale 42

    Bibliographie 43

    vii

    Table des figures

    1.1 Structure générale d'un système de diagnostic 3

    1.2 Les différentes étapes d'un système 4

    1.3 Les différentes méthodes de diagnostic 6

    2.1 Déroulement D'une analyse en composantes principales.(a) Distribution

    d'entrée.(b) Centrage et réduction de cette distribution 10

    2.2 Mesures simulées de x1...x7 du premier exemple d'illustration 12

    2.3 Évolution de toutes les composantes du premier exemple d'illustration . 13

    2.4 Évolution du PCV en fonction du nombre de composantes 15

    2.5 Évolution du VNR en fonction du nombre de composantes 16

    2.6 Évolution du PRESS en fonction du nombre de composantes 17

    2.7 Évolution des Valeurs propres en fonction du nombre de composantes . . 18

    2.8 Évolution de La projection de X sur les premiers (l) et dernièrs (in - l)

    vecteurs propre de 20

    2.9 Comparaison entre X et l'estimationXà à partir des composantes principale . 20 2.10 Indice SPE dans le cas sain et le cas défaillant avec un seuil de 95% . . . . 21

    2.11 Indice T2 dans le cas sain et le cas défaillant avec un seuil de 95% 22

    2.12 Procèdure de structuration de résidus par ACP partielles 23

    2.13 Procèdure de localisation par ACP partielles structurée 23

    2.14 L'évolution des SPE des modèles réduits 24

    2.15 Table des signatures théoriques 24

    3.1 Représentation des données non linéaire par ACP classique 25

    3.2 Représentation des données non linéaire par KPCA . 26

    3.3 Représentation en utilisant des fonctions de bases Ö 26

    3.4 Concept global du KPCA . 31

    3.5 Procédure de structuration de résidus par KPCA partielles 33

    3.6 Procédure de localisation par KPCA partielles structurée 33

    3.7 Représentation de l'algorithme de KPCA . 34

    4.1 La description du procéssus 36

    4.2 La description des variables mesurées 36

    4.3 Les variables mesurées pour la simulation 37

    4.4 Simulateur Tennessee Estman Process 37

    4.5 Évolution de l'indice SPE cas sain et défaillant 38

    4.6 Table des signatures théoriques 39

    4.7 L'évolution des SPE des modèles réduits 40

    1

    ntroduction générale

    Certes, l'automatisation des procédés industriels, de plus en plus complexes, a permis des gains importants en termes de productivitéet de qualité. Cependant, les systèmes

    automatisés de production sont devenus vulnérables aux défaillances. Une vulnérabilitéàl'origine de coûts importants en termes de sécuritépour faire face aux risques d'accidents,

    de pollutions, ... et en termes de disponibilitépour améliorer la productivité, ... En fait, une défaillance d'une partie du processus peut endommager tout le système de production pouvant engendrer des pertes en vies humaines et des dommages sur le plan économique et écologique. Ainsi, les défaillances plus ou moins critiques représentent une limite aux bénéfices résultant de l'automatisation.

    Cette situation a justifiéla mise en oeuvre d'une recherche scientifique ayant pour objectif le développement des approches fiables de surveillance de systèmes afin de détecter de façon précise et précoce l'apparition des défauts et de trouver des solutions adaptées à chaque procédéindustriel.

    Dans la littérature, il existe une multitude de méthodes pour aborder ce type de

    problème, parmi ces méthodes, l'Analyse en Composantes Principales (ACP), qui a étélargement utilisée pour la détection et la localisation des défauts de capteurs. Cette technique est classée parmi les méthodes sans modèle à priori, le modèle se révèle àposteriori par la collecte de données recueillies sur le systéme en fonctionnement normal

    sans effectuer une distinction entre ses entrées et ses sorties.

    Son principe consiste à transformer les variables d'un système en un nombre restreint de nouvelles variables, appelées composantes principales, via une projection orthogonale exploitant les combinaisons linéaires ou quasi-linéaires entre les variables d'origine. Le nouvel espace de repr'sentation réduit est partitionnéen deux parties, à savoir, l'espace principal et résiduel, à partir desquels les techniques de détection et de localisation des défauts sont utilisées pour la surveillance du processus.

    Seulement, la plupart des systémes sont dynamiques et non linéaires. Ainsi l'application de l'ACP classique n'est pas trés adaptée à ce type de données, afin de contourner cette difficulté, plusieurs approches ont étédéveloppées, l'ACP non linéaire basée sur les réseaux de neurones (Tan and Mavrovouniotis, 1995), l'ACP non linéaires avec l'utilisation de la programmation génétique (Hiden et al. 1999), l'ACP à noyau (Kernel PCA) (Schokopf et al. 1998). d'autre auteurs y ont contribué, on peut en citer Jie Yu(2012), Qin et al(2001), Lee et al(2004).

    Dans ce travail, nous avons choisi d'exploiter l'ACP à noyau (kernel PCA), pour aborder la modèlisation et le diagnostic des défauts dans les applications industrielles qui possèdent un grand nombre de variables (capteurs/actionneurs) non linéaires. L'ACP à noyau, a attirél'attention des chercheurs, par sa capacitéd'extraire la corrélation non linéaire entre les variables et du fait qu'elle ne fait appel à aucune procédure d'optimisation pour l'estimation du modèle ACP non linéaire, comme c'est le cas de l'ACP utilisant les réseaux de neurones. C'est ce qui conforte notre choix.

    2

    ntroduction au diagnostic

    Sommaire

    1.1 Introduction 2

    1.2 Principe du diagnostic et définitions 3

    1.3 Les différentes étapes du diagnostic d'un système 4

    1.4 Classification des approches de diagnostic 5

    1.1 Introduction

    En raison d'une modernisation incessante des outils de production, les systèmes industriels deviennent de plus en plus complexes et sophistiqus. En parallèle, la fiabilité, la sûretéde fonctionnement sans oublier la protection de l'environnement sont devenues de véritables enjeux pour les entreprises actuelles. Le diagnostic des systèmes est apparu dans le but d'améliorer les points précédents. Discipline de l'automatique à part entière, ce module de surveillance qu'est le diagnostic fait l'objet d'un engouement prononcédepuis des décennies. En effet, la recherche dans ce domaine n'a fait que prendre de l'importance dans le monde entier, aussi bien de manière théorique que pratique.

    Dans ce contexte, de nombreuses approches sont développées, en vue de la détection de défaillances et du diagnostic, par les différentes communautés de recherche en automatique, intelligence artificielle... etc. Les méthodes se différencient par rapport au type de connaissance a priori sur le processus qu'elles nécessitent. Ainsi, elles peuvent être classées, de faon générale, comme des méthodes à base de modèles, à base de connaissances et des méthodes à base de données historiques. Les méthodes à base de modèles considèrent un modèle structurel du comportement du processus basésur des principes physiques fondamentaux. Ces modèles peuvent être de type quantitatif, exprimés sous forme d'équations mathmatiques ou bien de type qualitatif, exprimés par exemple sous forme de relations logiques. Les méthodes à base de connaissance exploitent les compétences, le raisonnement et les connaissances des experts sur le processus pour les transformer en règles, de manière à résoudre des problèmes spécifiques. Enfin, les méthodes à base de données cherchent à découvrir des informations, sous forme d'exemples type ou tendances, au sein des mesures venant des capteurs et des actionneurs, pouvant identifier le comportement du procédé. Ces méthodes comprennent, parmi d'autres, les méthodes d'apprentissage et de classification (ou reconnaissance de formes).

    Principe du diagnostic et définitions Introduction au diagnostic

    Sachant que nous ne disposons pas souvent d'un modèle de comportement réel, un travail de simulation s'impose. Au cours de ces vingt dernières années, les outils informatiques pour la modélisation et la simulation des procédés se sont développés conjointement avec les outils et techniques informatiques. La technologie des ordinateurs a considérablement évoluéet les langages ont progressé, passant d'une approche procédurale à une approche orientée objet. En cette dernière décennie, les simulateurs dynamiques se sont améliorés en termes de structure et de fonctionnalité. L'informatique est aujourd'hui le carrefour de plusieurs voir toutes sciences.

    1.2 Principe du diagnostic et définitions

    1.2.1 Principe du diagnostic

    De manière générale, un système industriel est composéde trois parties : - Les actionneurs

    - Le procédé- Les capteurs

    Les défauts peuvent survenir sur chacune de ces trois parties.

    Le diagnostic de défaut consiste donc en la détermination du type, de l'amplitude,

    de la localisation et de l'instant d'occurrence td d'un défaut, il comprend trois étapes

    successives :

    - La détection du défaut

    - l'isolation du défaut

    - L'identification du défaut

    3

    Figure 1.1 - Structure générale d'un système de diagnostic

    Principe du diagnostic et définitions Introduction au diagnostic

    1.2.2 Définitions

    La surveillance et la supervision constituent un complément du diagnostic. La surveillance d'un système est une tâche continue et en temps réel pour déterminer l'état d'un système. Elle se fait à travers l'enregistrement des informations pouvant indiquer la survenue d'éventuelles anomalies dans le comportement du système. Quant à la supervision, elle consiste en la prise de décisions appropriées, lors de l'étape de

    surveillance du système, afin de maintenir le fonctionnement nominal du système malgrél'apparition de défauts.

    L'ensemble de ces tâches vise à assurer les performances optimales du système, en termes de disponibilité, fiabilitéet maintenabilité. Cela équivaut à prévenir la survenue de pannes. Une panne est un dysfonctionnement voire une défaillance autrement dit un arrêt de fonctionnement momentanéet accidentel, d'une partie ou de tous les composants d'un système matériel.

    Il est opportun, lors du diagnostic d'un système, de différencier défaut et perturbation. Une perturbation est une entrée inconnue et non commandée qui agit sur un système. Contrairement au défaut, qui est interne au système, une perturbation est une entrée exogène au système.

    1.3 Les différentes étapes du diagnostic d'un système

    Le diagnostic d'un système industriel nécessite un certain nombre d'étapes (Fig 1.2)

    Figure 1.2 - Les différentes étapes d'un système

    4

    Les différentes étapes du diagnostic d'un système Introduction au diagnostic

    5

    Acquisition de données : La procédure de diagnostic nécessite de disposer de l'information sur le fonctionnement du système à surveiller, les fonctions suivantes doivent être réalisées:

    - conditionnement et pré-traitement du signal.

    - validation du signal de mesure.

    Étape d'élaboration d'indicateurs de défauts: À partir des mesures réalisées et des observations issues des opérateurs en charge de l'installation, il s'agit de construire des indicateurs permettant de mettre en évidence les éventuels défauts pouvant apparaître au sein du système. Dans le domaine de diagnostic, les indicateurs de défauts sont couramment dénommés les résidus aux symptômes. Un résidu représente un écart entre une grandeur estimées et mesurées. Cet écart de comportement doit donc être idéalement nul en l'absence de défaut et différent de zéro dans le cas contraire.

    Étape de détection : C'est l'opération qui permet de décider si le système est en fonctionne- ment normal ou non. On pourrait penser qu'il suffit de tester la non nullitédes résidus pour décider de l'apparition d'un défaut.

    Étape de localisation: la localisation suit l'étape de détection, elle attribue le défaut à un sous-système particulier (capteur, actionner, organe de commande, processus...).

    Étape de prise de décisions : le fonctionnement incorrect du système étant constaté, il s'agit de décider de la marche à suivre afin de conserver les performances souhaitédu système sous surveillance. Cette prise de décision doit permettre de générer, eventuelle-

    ment sous le contrôle d'un opérateur humain, les actions correctrices nécessaires à un retour à la normale du fonctionnement de l'installation.

    1.4 Classification des approches de diagnostic

    La classification des approches est déterminéselon le type de méthode ou de modèle utilisés. Dans la plupart des cas, les méthodes du diagnostic sont liées à la connaissance disponible sur le procédéou à sa représeutation et sont classées de différentes façons.

    A partir de ces considérations, nous proposons une classification non exhaustive des méthodes de diagnostic selon trois axes : les approches relationnelles, les méthodes de traitement de données (méthodes qualitatives et méthodes quantitatives) et les approches à base de modèles. Pour ce dernier, nous avons fait apparaître deux branches concernant les méthodes quantitatives et les méthodes qualitatives liées au domaine du continu et une branche spécifique concernant les méthodes discrètes. Cette organisation est présentée sur la (Fig 1.3)

    6

    Classification des approches de diagnostic Introduction au diagnostic

    Figure 1.3 - Les différentes méthodes de diagnostic

    1.4.1 Les approches relationnelles

    Les approches relationnelles sont des méthodes issues du contexte de la sûretéde fonctionnement qui associe des causes à des symptômes. Elles sont basées, en général, sur des systèmes à base de règles, de dictionnaires de défauts ou de graphes avec un raisonnement de parcours ou adductif, sur la méthode AMDEC (Analyse des Modes de D'efaillance, de leurs Effets et de lours Criticités), sur les graphes PCEG (Possible Cause and effect graph), HDG (Hazap-digraph) ou sur les réseaux Boyesians. Ce sont des approches de diagnostic fondées sur une connaissance associative dépendante du système et sur une connaissance a priori des défauts et de leurs effets. Elles manquent d'un pouvoir de réutilisabilitéet nécessitent une énumération de tous les défauts possibles. Dans le cas des prorédés complexes qui nous préoccupe, le nombre élevéde variables, de composants et de modes opératoires, rend leur utilisation peu adaptée.

    1.4.2 Les méthodes de traitement de données

    Les méthodes de traitement de données exploitent des observations quantitatives et/ou qualitatives disponibles sous la forme de données historiques ou de résultats de traitement en ligne de signaux issus des capteurs. Ce sont des approches envisageables quand l'obtention d'un modèle analytique du procédés'avère difficile, et lorsqu'un raisonnement sur les comportements dynamiques (variables et relations) du procédén'est pas utile. Le comportement de référence d'un signal, en général statistique, peut être représentatif de l'état normal de l'installation ou d'un défaut particulier. Les approches de classification

    Classification des approches de diagnostic Introduction au diagnostic

    7

    de données (reconnaissance de formes) sont fondées sur l'analyse des données issues des signaux corrélés entre eux pour la discrimination des différentes modes de fonctionnement et certains modes de défaut. Toutes ces approches sont fortement dépendantes d'un grand volume des données, ce qui les limitent en général à la détection. Le diagnostic dépend donc de la représentation et de la discrimination de tous les modes de défaut. Dans le cadre du suivi de régions transitoires, les méthodes d'AQT sont les plus utilisées. Le diagnostic cependant est fondésur un mécanisme d'inférence qui dépend d'une connaissance assez large des modes de défaut et de la prise en compte des techniques d'alignement temporel.

    1.4.3 Les méthodes à base de modèles

    Les approches à base de modèles s'appuient sur des modèles comportementaux explicites du système soumis au diagnostic. Un grand avantage de ces approches par rapport aux approches relationnelles et de traitement de données, réside sur le fait que seule l'information du comportement normal du procédéest prise en compte par l'intermédiaire d'un modèle de référence. La précision du modèle, liée aux besoins de la surveillance et aux critères de performance du diagnostic, définit le choix de l'utilisation de modèles quantitatifs, qualitatifs ou semi-qualitatifs. Selon, les méthodes de diagnostic à base de modèles présentent les avantages suivants :

    - La connaissance sur le système est découplée de la connaissance de diagnostic

    - Il s'agit de connaissance de conception plutôt que d'exploitation

    - Les fautes et les symptômes ne doivent pas être anticipés

    - Le coût de développement et de maintenance est moindre

    - Les modèles fournissent un rapport adéquat pour l'explication (structure du système explicitement repnésentée).

    8

    ?nalyse en composantes principales

    Sommaire

    2.1 Introduction à l'ACP 8

    2.2 Identification du modèle ACP 9

    2.3 Estimation des paramètres du modèle ACP 10

    2.4 Détermination de la structure du modèle 14

    2.5 Détection et localisation de défauts 18

    2.1 Introduction à l'ACP

    L'analyse en composantes principales (ACP) est une méthode mathématique d'analyse graphique de données qui consiste à rechercher et mettre en évidence les relations qui existent entre les variables, sans tenir compte, à priori d'une quelconque structure, et élabore un modèle du système à partir de données prélevées sur ce dernier L'ACP élabore un modèle du système à partir de données prélevées sur ce dernier.

    L'identification du modèle repose sur deux étapes : la première consiste à estimer ses paramètres alors que la seconde consiste à déterminer sa structure.

    Une fois le modèle ACP identifié, des résidus peuvent être générés en comparant le comportement observéà celui donnépar le modèle ACP de référence, Ces résidus permettent de détecter puis de localiser l'ensemble des variable en défaut.

    Le but de l'ACP est donc de trouver un ensemble de facteurs (composantes) qui ait une dimension inférieure à celle de l'ensemble original de données et qui puisse décrire correctement les tendances principales.

    Ce chapitre concernera la présentation et le développement des différentes procédures de diagnostics à base d'ACP en termes de traitement de données recueillies, et détection et de localisation de défauts capteurs.

    Identification du modèle ACP Analyse en composantes principales

    9

    2.2 Identification du modèle ACP

    L'identification du modèle ACP débute par la construction d'une matrice contenant l'ensemble des données disponibles sans distinction entre les entrés et les sorties du système.

    Ces données sont supposées être recueillies sur un système statique en fonctionnement normal (données saines).

    Au départ on aura des données recueillies sur différents capteurs x1 xm :

    Notre matrice de données Xd ? [N×m] formée par la concaténation des vecteurs xi(K) obtenus à différents instants est :

    Xd (k) = [x1(K)T x2(K)T ... ... xm(K)T

    Où: i [1 : m]

    N étant le nombre de mesure ou itération (k) m est le nombre de capteurs ( variables ) Ce qui donnera la Matrice de données suivante :

    x1 (1) ? x1 (2)

    Xd = ???????

    .

    x1 (N)

    x2 (1) .

    x2 (2) .

    .

    x2 (N) .

    . . xm (1)

    . . xm (2) ?

    ???????

    .

    . . xm (N)

    Généralement les données sont exprimées par des unités et des échelles différentes. Pour cela on centre les données en premier lieu. Puis afin de rendre les résultats indépendants des unités utilisées pour les différentes variables, on réduit ces dernières par rapport a leur variance respective. Les données ainsi obtenues sont centrées et réduites, elles sont de moyenne nulle et de variance unité.

    Chaque colonne Xj de la nouvelle matrice de donnée centré-réduite est donnée par :

    Xj =

    Xd j - Mj ój

    Où: Mj = La moyenne de tout les prélèvements [1 : N] de la colonne j ój = écart type ( qui est égale à la racine carrée de la variance)

    Xd j - Mj pour le centrage de nos données, qu'on divise par la suite sur ój pour la réduction.

    La moyenne est donnée par :

    XN

    1

    Mj = N

    k=1

    xj(k)

    Identification du modèle ACP Analyse en composantes principales

    La variance est donnée par :

    XN

    ó2 j = 1

    N

    k=1

    (xj (k) - Mj)2

    10

    La nouvelle matrice des données normalisées est donnée par :

    X = ( X1 ... Xm)

    La matrice de corrélation est donnée par :

    X=

    1

    N - 1XTX

    l'effet du centrage et de réduction d'une distribution de données est illustrépar la Figure ci-dessous :

    Figure 2.1 - Déroulement D'une analyse en composantes principales.(a) Distribution
    d'entrée.(b) Centrage et réduction de cette distribution

    2.3 Estimation des paramètres du modèle ACP

    L'estimation des paramétres du modèle ACP se résume en une estimation des valeurs et vecteurs propres de la matrice de corrélation Ó . Une décomposition spectrale de cette dernière nous donne :

    Estimation des paramètres du modèle ACP Analyse en composantes principales

    > >m

    = P ? PT =

    i=1

    ëipipTi

    Où: pi est le ieme vecteur propre de Ó et ëi est la valeur propre correspondante.

    S'il existe q relations linéaires entre les colonnes de X, on aura q valeurs propres nulles. La matrice X peut être représentée par les première (m-q) = l composantes principales.

    l correspond au nombre de valeurs propres non nulles. Toutefois les valeurs propres égales à zéro sont rarement rencontrées en pratique (relation quasi-linéaire, bruits, ... etc). Donc, il est nécessaire de déterminer le nombre l représentant le nombre de vecteurs propres correspondant aux valeurs propres dominantes.

    Pour illustrer ce qui a étédit jusqu'a présent sur l'ACP linéaire, on va présentéun exemple de simulation, qui sera ensuite utilisépour illustrer les différentes méthodes présentéprécédemment, et qui va nous suivre tout au long de ce chapitre.

    Nous disposons de 7 variables qui représentent notre système et qui sont décrites par les équations suivantes :

    x1 = u1 + î1

    x2 = u2 + î2

    x3 = x1 + î3

    x4 = x1 + î4

    x5 = x2 + î5

    x6 = x2 + î6

    x7 = x2 + î7

    Où: les bruits de mesureîi,j sont des bruits aléatoires qui prennent des valeurs réparties entre -0.05 et + 0.05, u1 et u2 sont des signaux en forme créneaux dont les amplitudes sont comme suite :

    1

    u1 = sin t - 3 sin 3t +

    1

    5 sin 5t

    11

    1 1

    u2 = cos t- 3 cos 3t + 5 cos 5t

    Les mesures simulées des variables sont représentéci-dessous :

    Estimation des paramètres du modèle ACP Analyse en composantes principales

    Figure 2.2 - Mesures simulées de x1...x7 du premier exemple d'illustration

    La matrice de corrélation des variables est donnée par :

    1.0000

    0.0056

    0.9269

    0.8714

    -0.0013

    0.0170

    -0.0070

    ?

    0.0056

    1.0000

    -0.0043

    0.0131

    0.8807

    0.9509

    0.9488

    ?

    0.9269

    -0.0043

    1.0000

    0.8098

    -0.0097

    0.0029

    -0.0151

    ? ?

    0.8714

    0.0131

    0.8098

    1.0000

    0.0016

    0.0268

    0.0010

    ? ?

    -0.0013

    0.0170

    0.8807

    0.9509

    -0.0097

    0.0029

    0.0016

    0.0268

    1.0000

    0.8431

    0.8431

    1.0000

    0.8422

    0.9013

    ? ? ?

    -0.0070

    0.9488

    -0.0151

    0.0010

    0.8422

    0.9013

    1.0000

    ?

    X= [

    12

    Les matrices des valeurs et vecteurs propres sont données par :

    ë = [

    3.6883

    0

    0

    0

    0

    0

    0

    0

    2.7443

    0

    0

    0

    0

    0

    0

    0

    0.1967

    0

    0

    0

    0

    0

    0

    0

    0.1845

    0

    0

    0

    1

    0

    0

    0

    0

    0.0913

    0

    0

    0

    0

    0

    0

    0

    0.0657

    0

    0

    0

    0

    0

    0

    0

    0.0291

    Estimation des paramètres du modèle ACP Analyse en composantes principales

    ?

    p=

    ?????????

    0.0061 0.5133 0.0003 0.0100 0.4831 0.5018 0.5013

    -0.5902 0.0034 -0.5772 -0.5642 0.0083 -0.0038 0.0110

    0.1817 -0.0490 0.5537 -0.7533 0.2658 -0.1217 -0.0716

    -0.0534 -0.1848 -0.1744 0.2411 0.8284 -0.2938 -0.3191

    0.0393 0.0164 -0.0113 -0.0481 -0.0074 0.7006 -0.7106

    0.7837 -0.0129 -0.5742 -0.2315 -0.0011 -0.0292 0.0390

    0.0089 0.8364 -0.0126 0.0027 -0.0978 -0.3942 -0.3678

    ?

    ? ? ? ? ? ? ? ? ?

    t1 =

    t2 =

    t3 =

    t4 =

    t5 =

    t6 =

    t7 =

    +0.0061x1

    + 0.5133x2

    + 0.0003x3

    + 0.0100x4

    + 0.4831x5

    + 0.5018x6

    + 0.5013x7

    -0.5902x2

    + 0.0034x2

    - 0.5772x3

    - 0.5642x4

    + 0.0083x5

    -

    0.0038x6

    + 0.0110x7

    +0.1817x1

    - 0.0490x2

    + 0.5537x3

    - 0.7533x4

    + 0.2658x5

    -

    0.1217x6

    - 0.0716x7

    -0.0534x1

    - 0.1848x2

    - 0.1744x3

    + 0.2411x4

    + 0.8284x5

    -

    0.2938x6

    - 0.3191x7

    +0.0393x1

    + 0.0164x2

    - 0.0113x3

    - 0.0481x4

    - 0.0074x5

    + 0.7006x6

    - 0.7106x7

    +0.7837x1

    - 0.0129x2

    - 0.5742x3

    - 0.2315x4

    - 0.0011x5

    -

    0.0292x6

    + 0.0390x7

    +0.0089x1

    + 0.8364x2

    - 0.0126x3

    + 0.0027x4

    - 0.0978x5

    -

    0.3942x6

    - 0.3678x7

    Ainsi, on peut tracer l'évolution des composantes t1, ..., t7 de cet exemple.

    13

    Figure 2.3 - Evolution de toutes les composantes du premier exemple d'illustration

    Détermination de la structure du modèle Analyse en composantes principales

    14

    A partir de (Fig 2.3), on remarque que les composantes t1, ..., t7 ne représentes que du bruit alors que les deux premières composantes sont porteuse d'information et sont corrélées avec les variables originelles (car elle sont obtenues par combinaison linaire de ces dernires).

    Cependant, pour l'estimation des variables originelles on ne doit conserver que les composantes porteuses d'information significative permettant d'expliquer les différentes variables. La prochaine partie de ce chapitre sera consacréla détermination de la structure du modèle ACP, c'est a dire la détermination du nombre de composantes à conserver ou à retenir dans le modèle.

    2.4 Détermination de la structure du modèle

    L'analyse en composantes principales a pour but d'établir une approximation de la matrice initiale des données X, par une matrice de rang inférieur. La question qui se pose alors et qui a étélargement débattue dans la littérature, concerne le choix du nombre de composantes à retenir, de nombreuses règles sont proposées dans la littérature pour déterminer ce nombre.

    Dans le carde de l'application de l'ACP au diagnostic, le nombre de composantes a un impact significatif sur chaque étape de la procédure de détection et de localisation, si peu de composantes sont utilisées, on risque de perdre des informations et voir établir un faux diagnostic ce qui provoquera des fausses alarmes, si par contre beaucoup de composantes sont utilisées, on risque de prendre des composantes ayant les valeurs propres les plus faibles, qui sont porteuses de bruit ce qui est indésirable. On peut voir ce type de composantes dans la (Fig 2.3).

    En plus il y a risque de non détection des défauts, si certaines variables sont projetées dans le sous-espace des composantes principale alors qu'elles doivent être projetées dans le sous-espace résiduel.

    On va citéquelques critères qui vont nous permettre de bien choisir ce nombre.

    2.4.1 Pourcentage cumuléde la variance totale (PCV)

    Il mesure le pourcentage de la variance capturée par les l composantes retenues. Sachant que chaque composantes principale est représentative d'une portion de la variance des mesures du processus étudié. Les valeurs propres de la matrice de corrélation sont les mesures de cette variance et peuvent donc être utilisées dans la sélection du nombre de composantes principale.

    Le nombre de composantes est alors le plus petit nombre pris de telle sorte que ce pourcentage soit atteint ou dépassépar exemple 90% ou 95% ou voir 99%.

    Pl j=1 Àj

    P CV (l) = 100(Im )%

    j=1 Àj

    Détermination de la structure du modèle Analyse en composantes principales

    15

    Sa capacitéa fournir le nombre correct de composantes principale dépend fortement du rapport signal sur bruit, car la variance du bruit est inconnue à priori, donc ce critère reste un peut subjectif.

    Figure 2.4 - Évolution du PCV en fonction du nombre de composantes 2.4.2 Variance non reconstruite (VNR)

    Lorsque le modèle ACP est utilisépour reconstruire des valeurs manquantes ou des variable défectueuses, l'erreur de reconstruction est une fonction du nombre de composantes principale. Le minimum trouvédirectement dans le calcul du V NR (variance non reconstruite) détermine le nombre de composantes à retenir, le V NR de la jemme variable est une fonction de l.

    ój (l) = var {îT j (x - xj)} =

    îT P îj j

    ( )2

    îT j îj

    Où: îj =

    j et îj correspond au jemme colonne de la matrice identité.

    Détermination de la structure du modèle Analyse en composantes principales

    Pour trouver le nombre optimal des composantes, il faut minimiser la variance ój (l). En considérant tous les défauts possibles, le critère VNR à minimiser est le suivant :

    V NR (l) =minl

    Xm j=1

    ój (l)
    var {îT j x}

    =minl

    Xm j=1

    ój (l)

    îT P îj j

    16

    Figure 2.5 - Évolution du VNR en fonction du nombre de composantes 2.4.3 Validation croisée

    La validation croisée est un critère statistique très populaire pour le choix du nombre de composantes utile pour un modèle ACP. Cette procédure de validation croisée est basée sur la minimisation de la somme des carrées des erreurs de prédiction (PRESS) entre les données observées et celles estimées par le modèle obtenu à partir d'un jeu d'identification différent :

    XN

    1

    PRESS (l) = Nm

    k=1

    N étant la taille du jeu de validation.

    Xm i=1

    ( )2

    àx(l)

    i (k) - xi (k)

    Détermination de la structure du modèle Analyse en composantes principales

    17

    Une version simplifiée de l'algorithme permettant le calcul du nombre de composantes principales par la validation croisée est la suivante :

    1 - Diviser les données en un jeu d'identification et un jeu de validation.

    2 - Réaliser une ACP avec l composantes (l = 1,...., in) sur le jeu d'identification et calculer les critère correspondant sur le jeu de validation PRESS(1), ..., PRESS(in).

    3 - La leme composante pour laquelle le minimum de PRESS apparait sera la dernière composante à retenir et l sera le nombre de composantes retenu.

    Figure 2.6 - Évolution du PRESS en fonction du nombre de composantes 2.4.4 Moyenne des valeurs propres

    Il consiste à prendre en considération que les composantes pour lesquelles la valeur propre est supérieure à la moyenne arithmétique de toutes les valeurs propres.

    En ACP on travaille sur des données centrées réduites, cela revient à négliger les composantes ayant une variance inférieur a l'unité

    1

    in

    strace( ) = 1

    Détection de défauts Analyse en composantes principales

    18

    Figure 2.7 - Évolution des Valeurs propres en fonction du nombre de composantes 2.5 Détection de défauts

    En diagnostic à base de modèle analytique, la phase de détection de défaut est liée à l'étape de génération de résidus qui a pour but de générer, à partir d'un modèle de bon fonctionnement du processus et des mesures disponibles, des signaux révélateurs de la présence de défauts, appelés résidus. A partir de l'analyse de ces résidus, l'étape de prise de décision doit alors indiquer si un défaut est présent ou non. Il existe deux approches pour la génération des résidus : l'approche par estimation d'état et l'approche par estimation des paramètres. Dans ce memoire on va utiliséla première approche.

    2.5.1 Génération de résidus par estimation d'état

    La présence d'un défaut affectant l'une des variable provoque un changement dans les corrélations entre les variables indiquant une situation inhabituelle, les relations entre les variables ne seront plus vérifiées.

    La projection du vecteur de mesures dans le sous-espace des résidus va croitre par rapport à sa valeur dans les conditions normales, et le défaut nous sera alors visible, pour détecter un tel changement dans les corrélation entre les différentes variables, l'ACP utilise plusieurs indices,notamment La statistique SPE, ou T2de Hotelling.

    Détection de défauts Analyse en composantes principales

    19

    Une fois le nombre de composantes à retenir est déterminé, la matrice X peut être approximée à partir des l premières composantes principale qui correspondent au l plus

    grandes valeurs propres de la matrice :

    Xà =

    Xl i=1

    TipT i =

    Xl i=1

    XpipT i

    La matrice des vecteurs propres et la matrice des composantes principales peuvent

    être décomposées en deux sous-matrices : P = [ Pà P] et T = [

    Tà T ]

    Où:
    P à et

    T àreprésentent les matrices des l premiers vecteurs propres qui correspondent aux l premières composantes principale, et l'inverse pour P et T représentent les matrices des (m - l) vecteurs propres qui correspondent aux dernières composantes principales. Sachant que TN×m est donnée par:

    T = X P = X [ Pà P]

    On peut dire ainsi que:

    Tà = X Pà

    Et :

    Xà = Tà Pà T

    T àreprésente la projection de X sur l les premiers vecteurs propre de .

    T = X P

    Et :

    X = T P T

    Où:

    T représente la projection de X sur les (m - l) derniers vecteurs propres. X représente la matrice des résidus qu'on notera E.

    Détection de défauts Analyse en composantes principales

    20

    Figure 2.8 - Évolution de La projection de X sur les premiers (l) et dernièrs (m - l)
    vecteurs propre de E

    La décomposition de la matrice X donnera :

    X = Xà + X = Xà + E

    On note :

    E = X C et Xà = X Cà

    Oû:

    Cà= PàPàT et C = (I - Cà)

    Figure 2.9 - Comparaison entre X et son estimation Xà à partir des l premières
    composantes principale

    Détection de défauts Analyse en composantes principales

    2.5.2 Statistique SPE

    L'indicateur de détection SPE (Squared Prediction Error) réalise la détection de défauts dans l'espace résiduel. A l'instant k, il est donnépar :

    SPE (k) = k1 (k)k 2 = xTx = Êm ~x2j(k)

    j=1

    Le processus est considéréen fonctionnement anormal (présence d'un défaut) à l'instant ksi:

    SPE (k) > ä2á

    Oùä2 est le seuil de détection du SPE(k) qui est approximépar : :

    " 2

    cá V2è2h6 è2h0(h0 - 1)

    äá = è1 è1 + 1 + è2

    1

    1 h0

    Soit :

    èi =

    m

    Ê j=l+1

    ëi j

    Pour i=1,2,3 et ëi est la jemme valeur propre de la matrice E .

    Où: h0 = 1 - 2è1è3

    3è2 2 et Cá =

    [(11e112)h0-1-è2h0(hè20-1

    1

    v2è2h2

    0

     

    Cá est la limite au seuil de confiance (1 - á).

    21

    Figure 2.10 - Indice SPE dans le cas sain et le cas défaillant avec un seuil de 95%

    Détection de défauts Analyse en composantes principales

    2.5.3 Statistique T2 de Hotelling

    L'indice T2 de Hotelling mesure les variations des projections des observations dans l'espace principal. Il est calculéà partir des l premières composantes principales :

    T2(k) =

    Xl i=1

    àt2 i (k) Ài

    Le seuil de détection peut être approximé, pour un seuil de confiance á donné, par une distribution du x2.

    Le processus est considéréen fonctionnement anormal (présence d'un défaut) à l'instant k si :

    T2 (k) > x2 l,á

    Où:

    x2 l,á = l(N - 1)(N + 1)

    N(N - l) Fl,(N-l)

    Fl,(N-l),á est la distribution de Fisher avec : l, N - l degrés de liberté, et N nombre d'observations.

    22

    Figure 2.11 - Indice T2 dans le cas sain et le cas défaillant avec un seuil de 95% 2.5.4 Localisation de défauts par ACP partielle

    L'ACP partielle consiste à utiliser des bancs de modèles avec des ensembles de variables réduits et différents d'un modèle à l'autre. L'application d'une ACP sur un vecteur de données réduit oùquelques variables sont écartées par rapport au vecteur originel. Donc les résidus deviennent sensibles uniquement aux défauts associeés aux variables qui forment le vecteur réduit, et insensibles aux défauts associés aux variables éliminées.

    Détection de défauts Analyse en composantes principales

    La procédures consiste à structurer les indices de détection en calculant les ACP partielles ainsi que les seuils de détection des indices correspondants (Fig 2.13).

    Procédure de structuration des résidus

    1. Appliquer l'ACP sur la matrice des données.

    2. Construire une matrice d'incidence fortement localisable (Matrice des signatures théoriques).

    3. Construire un ensemble de modèles d'ACP partielles, chacune correspondant à une ligne de matrice d'incidence (prendre les variable ayant un 1 sur cette ligne).

    4. Déterminer les seuils pour la détection des défauts (seuil pour T i 2 ou SPEi).

    Figure 2.12 - Procèdure de structuration de résidus par ACP partielles

    23

    Figure 2.13 - Procèdure de localisation par ACP partielles structurée

    Localisation de défauts Analyse en composantes principales

    Cette approche sera utilisée pour localiser le défaut simulésur la première variable de notre exemple et qui a étédétectéprécédemment. Dans ce cas simple d'un seul défaut, on aura besoin de déterminer plusieurs modèle dont chacun est insensible à une seule variable. Par la suite, le calcul des indices de détection pour les différents modèles réduits nous permettra de localiser le défaut détecté.

    Figure 2.14 - L'évolution des SPE des modèles réduits

    On remarque que le modèle ACP1 n'est pas affectépar le défaut ce qui implique que l'ACP1 est insensible à la variable en défaut X1.

    24

    Figure 2.15 - Table des signatures théoriques

    ?'ACP à Noyau (Kernel PCA)

    Sommaire

    3.1 Introduction 25

    3.2 Méthodes à noyaux et Kernel PCA 26

    3.3 Détection et localisation en Kernel PCA 30

    3.4 Algorithme de base du Kernel PCA 33

    3.1 Introduction

    L'Analyse en composantes principale à montréson efficacitédans le traitement des données linéaire comme on la vu dans le chapitre précédent, par contre quand il s'agit de données non linéaires on aura des difficultés à exploiter la corrélation potentielle entre les variables pour réduire la dimension. Car l'ACP consiste à trouver des relations linéaires entre les variables, or dans la projection de données non linéaires il nous est impossible de faire une séparation linéaire. Celle-ci sera erronée et pas représentative de nos variables et données. Comme le montre la figure ci-dessous :

    Figure 3.1 - Représentation des données non linéaire par ACP classique

    25

    Méthodes à noyaux et Kernel PCA L'ACP à Noyau (Kernel PCA)

    26

    Afin de corriger ce problème, la Kernel PCA entre en jeu, en exploitant des relations potentiellement non linéaires entre les variables. Qui aboutira par une représentation plus correct de nos données, comme le montre la figure ci-dessous :

    Figure 3.2 - Représentation des données non linéaires par KPCA 3.2 Méthodes à noyaux et Kernel PCA

    L'ACP à noyau est une extension de l'ACP classique, qui permet d'exploiter les relations potentielles non linéaires entre les variables. Le principe de cette extension est d'envoyer nos données par une application I : RN -? F , X -? ?(x) appelée Feature map dans un nouvel espace de grande dimension H muni d'un produit scalaire.

    La kernel PCA agit sur les ?(x) de la même façon que l'ACP agit sur les Xj. Les données dans le nouvel espace fonctionnel deviennent linéairement séparables.

    3.2.1 Méthodes à noyaux

    Pour se familiariser avec l'astuce de noyau on va donnéquelques notions :

    Figure 3.3 - Reprsentation en utilisant des fonctions de bases I

    Méthodes à noyaux et Kernel PCA L'ACP à Noyau (Kernel PCA)

    Dans la Figure (3.3) : on a deux classe différentes (bleu et rouge), il nous est impossible de trouver tout d'un seul coup une séparation linéaire entre ces deux dernières. Par contre si on utilise seulement deux fonctions de bases gaussiennes à noter :

    Ij = e(- kX-ujk2

    2ó2 )

    X est le vecteur de données, et uj est un vecteur de moyenne qu'on a placéjudicieuse-ment comme le montre la Figure (3.3)

    On obtient un système de représentation I1 , I2. Ainsi avec des fonctions de base on a finalement pu convertir notre problème qui était pas résolvable avec une méthode ou modèle linéaire en un problème facilement résolvable avec un modèle linéaire.

    Par contre lorsque X est de grande dimension, notre représentation dans le Feature space sera d'une dimension gigantesque.

    Exemple d'un mapping polynômial de X E Rd, de degréK(tous les produits entre k éléments de X), on doit calculer un (x) dans un espace de dimension et d'ordre dk . Ex: d = 100, k = 5 donne 10000000000, ou même infinie si on prends le cas de l'exemple d'illustration gaussien-(Figure 3.3) avec X de grande dimension.

    Dans la kernel PCA on utilise l'astuce du noyau qui nous laisse supposer qu'on peut calculer le produit scalaire ( (xi), (xj)) directement sans jamais avoir à calculer explicitement un (x).

    Notre but est de calculer la matrice K : k(Xi, Xj) = ( (xi), (xj))

    Dans la kernel PCA on utilisera le noyau gaussien pour le calcul de la matrice, ce choix est fais après le test de plusieurs noyaux connus.

    K(X, Y ) = e(- 'IX-Y "2

    2ó2 )

    On rappelle que le noyau gaussien est bien un noyau valide, et cela peut être démontréfacilement.

    Règles pour construire de nouveaux noyaux valides :

    k(X, Y ) = ck1(X, Y )

    k(X, Y ) = f(X)k1(X, Y )f(Y ) k(X,Y ) = q(k1(X,Y )) k(X, Y ) = e(k1(X,Y ))

    k(X, Y ) = k1(X, Y )) + k2(X, Y ))

    k(X,Y ) = k1(X,Y )k2(X,Y ) k(X, Y ) = k3( (X), (Y )) k(X, Y ) = XTAY

    k(X, Y ) = ka(Xa, Ya) + kb(Xb, Yb) k(X, Y ) = ka(Xa, Ya)kb(Xb, Yb)

    27

    c > 0, f(x)est une fonction, q(a)est un polynôme avec coefficients positifs, A est une matrice définie positive et X = (Xa, Xb). Les noyaux k1, k2, k3, ka, et kb doivent être valides.

    Méthodes a` noyaux et Kernel PCA L'ACP a` Noyau (Kernel PCA)

    'Ix-Y"2

    K(X, Y ) = e(- PU H2)

    On a` :

    11X - Y 112 = (X - Y )T(X - Y ) = XTX - 2XTY + YTY

    K(X,Y ) = e( XT X

    2ó2 )e( XT2ó2Y)e( Y T Y

    2ó2 )

    Ainsi on a démontréque ce noyau est bien valide et les règles utilisées pour arriver au noyau gaussien sont les suivantes :

    1 - k(X, Y ) = ck1(X, Y )

    2 - k(X, Y ) = e(k1(X,Y ))

    3 - k(X,Y ) = f(X)k1(X,Y )f(Y )

    3.2.2 Kernel PCA

    Aprés avoir transforménos données, on doit construire notre modèle. On suppose

    ö(Xn) = 0 )

    N

    pour l'instant que les données (transformées) sont centrées (

    n=1

    La matrice de covariance est alors :

    1

    C = N

    XN n=1

    ö (Xn)ö (Xn)T

    28

    Et on cherche ses vecteurs propres vi :

    Cvi = ëivi

    (le défi est de trouver les vi sans vraiment calculer explicitement la matrice C) Équivaut a` ce que vi satisfasse :

    1

    N

    XN n=1

    ö (Xn){ö (Xn)T vi} = ëivi

    On divise sur ëi et on note le scalaire : ain = ö(Xn)T vi

    ëiN

    On peut donc écrire vi sous la forme :

    vi = XN ainö (Xn) n=1

    Méthodes à noyaux et Kernel PCA L'ACP à Noyau (Kernel PCA)

    On replace vi par cette forme et on aboutit à :

    1 N

    XN n=1

    ö (Xn)ö (Xn)T

    N m=1

    aimö (Xm) = ëi

    XN n=1

    ainö (Xn)

    Le but étant d'éliminer les ö(Xn), et de n'avoir que des évaluations de noyau. On multiplie par ö(Xl)T les deux côtés (Xl tiréde mon exemple d'entrainement)

    1 N

    XN n=1

    k(Xl, Xn)

    N m=1

    aimk(Xn, Xm) = ëi

    XN n=1

    aink(Xl, Xn)

    Avec : k(Xl, Xn) = ö (Xl)T ö (Xn) Et : k(Xn, Xm) = ö (Xn)T ö (Xm)

    OùK est la matrice de Gram : Kn,m = k(Xn, Xm)

    Sachant qu'une somme de deux éléments peut être notéde la sorte :

    N

    E aink(Xl, Xn) = Kl,:ai

    n=1

    Où: ai est le vecteur contenant toutes les valeurs ain comme suit :

    ai = [ai1 ai2 . . . ain]T Et : Kl,: est le vecteur contenant la lemme rangée de la matrice de Gram. On répète la même opération pour ces sommes ce qui nous donnera :

    1

    N Kl,:Kai =

    ëiKl,:ai

    On a ainsi obtenu une équation, on doit maintenant généraliser ca, et générer N équations en considérant n'importe quel Xl de l'ensemble de l'entrainement :

    K2ai = ëiNKai

    En multipliant par K-1, on obtient :

    Kai = ëiNai

    Pour obtenir les ai, on trouve les M vecteurs propres (ai) de K ayant les plus grandes valeurs propres (ëiN)

    Au final, on doit s'assurer que les vi soient de norme 1 :

    1 = vT i vi =

    XN n=1

    N m=1

    ainaimö (Xn)T ö (Xn) = aTi Kai = ëiNaTi ai

    29

    On divise les ai par la racine carrée des valeurs propres ëiN

    ai ?-

     

    ai

     
     

    vëiN

    Méthodes à noyaux et Kernel PCA L'ACP à Noyau (Kernel PCA)

    On peut finalement calculer chaque élément ti(X) de la projection t(X) comme suit :

    ti(X) = 0(X)Tvi = XN ain0 (Xn)T 0 (Xn) = XN aink(X, Xn)

    n=1 n=1

    Centrage du noyau

    On a supposéque les 0(Xn) sont centrés, mais ce n'est probablement pas le cas. Pour avoir des données centrés, Il nous faudrait donc soustraire la moyenne, dans l'espace des 0(Xn) tel que :

    1 N

    (Xn) = 0(Xn) - N E

    l=1

    0(Xl)

    Par contre, on ne peut pas travailler avec les 0(Xn) directement, puisqu'ils peuvent être de taille infinie. On va travailler avec la matrice (K) de Gram tel que :

    Kn,m = 0(Xn)T 0(Xm)

    N

    = 0(Xn)T0(Xm) - N E

    l=1

    0(Xn)T 0(Xl) - 1N

    N 1 N

    0(Xl)T 0(Xm) + N2 E

    l=1 j=1

    l=1

    0(Xj)T0(Xl)

    30

    Qui va nous donner :

    1 ~N`

    Kn,m = k(Xn,Xm) -NL~

    l=1

    XN

    1

    k(Xl, Xm) - N

    l=1

    k(Xn, Xl) + N1 2

    H

    XN

    j=1 l=1

    k(Xj, Xl)

    D'oùl'expression finale :

    K = K - 1NK - K1N + 1NK1N Avec : 1N est une matrice N x N oùtous les éléments sont 1N

    La première chose à faire donc est de calculer notre noyau K grâce auquel on va pouvoir trouver le nouveau noyau K, dont on va extraire les valeurs et vecteurs propres.

    Détection et localisation en Kernel PCA L'ACP à Noyau (Kernel PCA)

    31

    Figure 3.4 - Concept global du KPCA

    3.3 Détection et localisation en Kernel PCA

    3.3.1 Détection en Kernel PCA

    Une approche pour la surveillance des processus par ACP à noyau implique l'utilisation des indices de détection tel que les deux statistiques T2(Hotlling) et Q (SPE).

    3.3.1.1 Statistique Q (SPE)

    La technique de surveillance de la KPCA est similaire à la procédure utilisée dans l'ACP classique mais calculée dans l'espace caractéristique (Feature space). La statistique SPE pour la détection de défauts est donnée par :

    SPE = kÖ(X) - bÖp(X)k2 = k4;N(X) - bÖp(X)k2_

    = ÖN(X)TbÖN(X) - 2bÖN(X)T Öp(X) + Öp(X)T Öp(X)

    =

    XN j=1

    tjVjT

    XN k=1

    tkVk - 2

    XN j=1

    tjVjT

    X p

    k=1

    tkVk +

    X p

    j=1

    tjVjT

    X p

    k=1

    tkVk

    =

    XN j=1

    t2j - 2

    X p

    j=1

    t2j +

    X p

    j=1

    t2 = j

    XN j=1

    t2j -

    X p

    j=1

    t2 j

    On donne :

    N N

    tk = hVk, Ö(Xt)i = aki hÖ(Xi), Ö(Xt)i = akikt(Xi, Xt)

    i=1 i=1

    Détection et localisation en Kernel PCA L'ACP à Noyau (Kernel PCA)

    32

    tk représente les dernières composantes. Le processus est considéréen fonctionnement anormal (présence d'un défaut) à l'instant k si :

    SPE(k) > ä2 á

    Oùä2 est le seuil, le même que pour l'ACP classique (voir chapitre 2).

    3.3.1.2 Statistique T2

    T2 = tË-1tT

    Oùt sont les composantes principales et Ë les premières valeurs propres de la matrice de Gram.

    Le seuil de détection peut être approximé, pour un seuil de confiance á donné, par une distribution du ÷2.

    Le processus est considéréen fonctionnement anormal (présence d'un défaut) à l'instant k si :

    T2 (k) > ÷2 l,á

    Où:

    ÷2 l,á = l(N - 1)(N + 1)

    N(N - l) Fl,(N-l),á

    3.3.2 Localisation de défauts par KPCA partielle

    Le principe est le même que l'ACP classique, la procédures consiste à structurer les indices de détection en calculant les KPCA partielles ainsi que les seuils de détection des indices correspondants (Fig 3.6).

    Procédure de structuration des résidus

    1. Appliquer l'ACP à noyaux sur la matrice des données.

    2. Construire une matrice d'incidence fortement localisable (Matrice des signatures théoriques).

    3. Construire un ensemble de modèles de KCPA partielles, chacune correspondant àune ligne de matrice d'incidence (prendre les variable ayant un 1 sur cette ligne).

    4. Déterminer les seuils pour la détection des défauts (seuil pour T i 2 ou SPEi).

    Algorithme de base du Kernel PCA L'ACP à Noyau (Kernel PCA)

    33

    Figure 3.5 - Procèdure de structuration de résidus par KPCA partielles

    Figure 3.6 - Procèdure de localisation par KPCA partielles structurée 3.4 Algorithme de base du Kernel PCA

    A la fin de ce chapitre on peut dire que l'algorithme de base de modèlisation et diagnostic à base du Kernel PCA se décompose en deux parties:

    Partie 1 : Transformation de la fonction Kernel.

    1. La matrice X qui contient les échantillons des différentes variables du système en bon fonctionnement.

    2. Calcul de la matrice K : k(Xn, Xm) = (ö(xn), ö(xm)).

    3. Calcul de la matrice K centrée (matrice de Gram) : G = K - 1nK - K1n + 1nK1n.

    Algorithme de base du Kernel PCA L'ACP à Noyau (Kernel PCA)

    Partie 2 : Application de l'ACP.

    1. Diagonalisation de la matrice G (trouver les valeurs/vecteurs propres).

    2. Calcul des projections sur les composantes principales.

    3. Calcul des indices de détection SPE et T2.

    4. Développement de la procédure de localisation et isolation.

    34

    Figure 3.7 - Reprsentation de l'algorithme de KPCA

    35

    ?pplication

    Sommaire

    4.1 Introduction 35

    4.2 Description du processus 36

    4.3 Identification du modèle Kernel PCA 38

    4.4 Détection et localisation de défauts 38

    4.1 Introduction

    Tennesse Estman Challenge Process a étépubliépar le Tennessee Estman Compagnie (Downs et Vogel, 1993) comme une simulation du processus pour la recherche acadmique. Le simulateur du processus chimique (TECP), considérécomme une installation pilote de l'industrie chimique, il est largement utilisépar la communautéscientifique pour évaluer les performances des algorithmes de commande et de diagnostic. Le TECP est un réacteur chimique multi-variable non linéaire, de grande dimension. Ce processus fournit les produits chimiques finis G et H à partir de quatre réactifs A, C, D et E. L'installation possède 7 modes de fonctionnement opératoire, 41 variables mesurées et 12 variables manipulées, il existe en plus 20 perturbations IDV1 à IDV20 qui peuvent être simulées pour perturber le fonctionnement. Le TECP offre une opportunitépour les études qui concernent la commande, la détection et le diagnostic des défauts. Un diagramme simplifiédu processus est montrédans la (Fig 4.1). Les 41 variables mesurésont un mélange de continu et discret et de dynamiques rapides et lentes incluent le niveau, pression, température, courant et indicateurs de la composition (des variables qui sont mesurés d'une façon continue (chaque seconde) et d'autres avec une pèriode d'échantillonnage T ), tel que 22 variables sont continues et le reste 19 variables sont les mesures des concentration de l'alimentation du réacteur, gaze purgéavec différentes fréquences d'échantillonnage 6 ou 15 minutes. Chaque mesure est corrompue par un bruit additif, les propriétés statistiques du bruit sont inconnues. Dans notre cas on a choisis 20 variables parmi 41, qui sont mesurées d'une façon continue (chaque seconde). La liste de ces variables est montrédans (Fig 4.2)

    Description du processus Application

    36

    4.2 Description du processus

    Figure 4.1 - la description du processus

    Figure 4.2 - La description des variables mesurées

    Description du processus Application

    Pour bien illustrer ces variables on va présenter quelques unes sur la (Fig 4.4). Ces figures représentent l'évolution des mesures des capteurs de température, pression et niveau du réacteur et séparateur de produits pendant 10 heurs de mesures avec une pèriode d'échantillonnage T = 1 seconde.

    Figure 4.3 - Les variables mesurées pour la simulation

    37

    Figure 4.4 - Simulateur Tennessee Estman Challange Process

    Identification du modèle Kernel PCA Application

    4.3 Identification du modèle Kernel PCA

    Dans cette partie on va appliquer l'ACP à noyau sur ces 20 variables qui sont mesurées de façon continue. Les sets de données (entrainement et test) sont généréà partir du simulateur (TECP). Le choix du nombre de composantes principales est important, on utilisera le critère PCV à 95% tel que : on prend les composantes dont la somme de leurs valeurs propres dépasse 95% de la somme de toutes les valeurs propres. Ainsi qu'un u approprié, on abouti à un nombre de composantes principales l = 7

    Remarque : Dans l'intègralitédes figures de localisation ainsi que détection, les SPE, T2 ont étédivisépar leurs seuils respectives, ainsi que pour les seuils (prennent la valeur 1).

    4.4 Détection et localisation de défauts

    4.4.1 Détection de défauts

    Une fois que le modèle KPCA a bien étéidentifié, on peut passer à l'étape de détection et localisation de défauts. Deux défauts ont étésimulées sur les variables X3, X18 du nouveau set de données, entre les instants [450, 550] et [650, 750] respectivement, avec une amplitude qui s'élève à environ 25% de la plage de variation de ces variables.

    KPCA Indice SPE cas sain

    4

    2

    8

    6

    0

    SPE

    Seuil à 95%

    100 200 300 400 500 600 700 800

    KPCA - Indice SPE cas défaillant

    4

    2

    8

    6

    0

    SPE

    Seuil à 95%

    100 200 300 400 500 600 700 800

    38

    Figure 4.5 - Évolution de l'ndice SPE cas sain et défaillant

    Détection et localisation de défauts Application

    39

    4.4.2 Localisation de défauts

    Une fois le défaut est bien détectépar l'indice de détection, une étape d'isolation de ce défaut intervient pour savoir la provenance de cette défaillance. On utilisera la méthode du Kernel PCA partielle pour l'isolation des défauts. Elle permet une structuration des résidus par construction d'un ensemble de modèles, de tel sorte que chaque modèle est sensible à certaines variables et insensible à d'autres. Les modèles sont construits d'après la matrice d'incidence suivante (Table des signatures théoriques).

    Figure 4.6 - Table des signatures théoriques

    Dans cette approche on a construit 20 modèles du KPCA. Chaque modèle est insensible à une (01) variable comme il est bien illustrésur la table des signatures théoriques qui montre la structuration des modèles choisis. La (Fig 4.7) montre l'évolution de la signature expérimentale lorsqu'un défaut intervient sur les variables (capteur/actionneur)

    du système. La signature expérimentale est obtenue après codification des résidus. un dépassement est codépar 1 et un non dépassement est codépar 0. Ce qui permet d'obtenir les deux signatures théoriques :

    La premiére : ( 1 1 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 ). Cette signature est identique à la 3emme colonne de la table des signatures théoriques. Cela veut dire que la variable (capteur/Actionneur) affectépar le premier défaut est X3.

    La deuxième : ( 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 1 1 ). Cette signature est identique à la 18emme colonne de la table des signatures théoriques. Cela veut dire que la variable (capteur/Actionneur) affectée par le deuxième défaut est X18.

    Détection et localisation de défauts Application

    40

    KPCA Indice SPE pour les dix premiers modèles réduits

    5

    0

    SPE 1

    100 200 300 400 500 600 700 800

    5

    0

    SPE 2

    0 100 200 300 400 500 600 700 800

    5

    0

    SPE 3

    0 100 200 300 400 500 600 700 800

    5

    0

    SPE 4

    100 200 300 400 500 600 700 800

    5

    0

    SPE 5

    100 200 300 400 500 600 700 800

    5

    0

    SPE 6

    100 200 300 400 500 600 700 800

    5

    0

    SPE 7

    0 100 200 300 400 500 600 700 800

    5

    0

    SPE 8

    0 100 200 300 400 500 600 700 800

    5

    0

    SPE 9

    100 200 300 400 500 600 700 800

    5

    0

    SPE 10

    100 200 300 400 500 600 700 800

    Détection et localisation de défauts Application

    KPCA - Indice SPE pour les dix derniers modèles réduits

    5

    0

    SPE-11

    0 100 200 300 400 500 600 700 800

    5

    0

    SPE-12

    0 100 200 300 400 500 600 700 800

    5

    0

    SPE-13

    0 100 200 300 400 500 600 700 800

    5

    0

    SPE-14

    0 100 200 300 400 500 600 700 800

    5

    0

    SPE-15

    0 100 200 300 400 500 600 700 800

    5

    0

    SPE-16

    0 100 200 300 400 500 600 700 800

    5

    0

    SPE-17

    0 100 200 300 400 500 600 700 800

    5

    0

    SPE-18

    0 100 200 300 400 500 600 700 800

    5

    0

    SPE-19

    0 100 200 300 400 500 600 700 800

    5

    0

    SPE-20

    0 100 200 300 400 500 600 700 800

    41

    Figure 4.7 - L'évolution des SPE des modèles réduits

    42

    Conclusion générale

    Dans ce mémoire, nous avons présentéun outil flexible et puissant pour l'analyse et la modèlisation des systèmes non linéaires en vue du diagnostic, à savoir, l'Analyse en composantes principales à noyaux. Deux approches ont étéprésentées : d'une part, l'analyse en composantes principales conventionnelle pour les données linéaires, ainsi que son application pour le diagnostic, et d'autre part sa variante non linéaire à base de noyau et son adaptation pour la détection et la localisation des défauts.

    Nous avons expliquéen détails, dans un premier temps,la mise en oeuvre d'un modèle ACP linéaire et son exploitation pour la détection et la localisation des défauts. Nous avons mis l'accent particulièrement sur les différentes méthodes existantes pour la détermination de la structure optimale du modèle ACP, ainsi que les différentes approches et techniques de détection en utilisant des indices statistiques, notamment, la statistique Q aussi dénommée SPE et la statistique T2 de Hotteling. Plusieurs techniques de localisation à base d'ACP existent dans la littérature. Toutefois, nous n'avons présentéque l'approche dite ACP partielle qui se base sur des modèles réduits pour la localisation de défauts, pour sa forte adaptabilitédans le cas non linéaire à noyau. Pour illustrer la procédure de surveillance en utilisant l'ACP classique, nous avons démontréles performances des approches citées par un exemple de simulation.

    Par la suite, nous avons entaméla variante non linéaire de l'ACP qui repose sur la notion de noyau pour la linéarisation des données, et son application pour le diagnostic. D'abord, un aperu général des différents noyaux utilisés, et la logique suivie pour définir un noyau valide a étéprésenté, puis nous avons expliquél'utilisation de cette notion pour l'exploitation des données à tendance non linéaire. A l'aide d'une transformation vers un nouvel espace appeléespace des caractéristiques, les méthodes à noyaux nous permettent de linéariser les données non linéaires, qui passe notamment par la construction de la matrice dite 'de Gram', oùl'utilisation de l'ACP classique devient possible pour la modèlisation en vue d'une application au diagnostic et à la surveillance à l'aide des différents indices de détections et des approches de localisation. Enfin, une application sur un processus réel a étéabordée pour illustrer le principe de l'ACP à noyau. Le système proposé, appeléEastman Tennessee, est un processus chimique à plusieurs variables non linéaires et fortement corrélées, qui offre un environnement parfait pour la validation de la méthode présentée. L'ACP à noyau a démontréson efficacitéà parfaitement détecter et localiser les défauts capteurs.

    L'ACP à noyau présente toutefois des désavantages quant au temps de calcul due à l'immense taille de la matrice de Gram, ce qui engendre bien évidemment quelques complications dans le cadre d'une supervision en ligne des processus. Autour du thème de l'optimalitéde l'espace de représentation, il serait intéressant d'étudier les différentes possibilités pour la réduction du temps de calcul, une approche particulière et bien prometteuse est appelél'ACP à noyau locale qui permet de diminuer la taille de la matrice de Gram (m × m) au lieux de (N × N) mais qui comporte bien des inconvénients reste àétudier.

    ?ibliographie

    [1] Nello Cristianini. John Shawe-Taylor.

    Book Kernel Methods for Pattern
    Analysis,
    . Cambridge university press, 2004.

    [2] M. Jelali A. BAthelt, N. Lawrence-Ricker. Revision of the tennessee east-man process model. International Symposium on Advanced Control of Chemical Processes, 2015.

    [3] Smola-K. R Muller B. Scholkpof, A.j. Nonlinear component analysis as a kernel eigenvealue problem. Neural Computation Vol 10, pp 1299-1319, Jully 1998.

    [4] Mohamed-Faouzi HARKAT. Détection et localisation de d'efauts par analyse en composantes principales. Automatic. PhD thesis, Institut National Polytechnique de Lorraine - INPL, 2003.

    [5] Chakour.C Harkat.M-F, Djeghaba.M. New adaptive kernel principal component analysis for nonlinear dynamic process monitoring. Applied Mathematics & Information Science Vol 9, pp 1833-1845, 2015.

    [6] J. j. Downs and E. F. Vogel. A plant-wide industrial process control problem. Computers & Chemical Engineering, Vol 17, pp 245-255, Marche 1993.

    [7] J. M Lee S.W Choi D. K Lee I. B Lee J. H, Cho. Fault identification for process monitoring using kernel principal component analysis. Chemical Engineering Science Vol 60, pp 279-288, Jan 2005.

    [8] Choi S W et al Lee J M, Yoo C K. Nonlinear process monitoring using kernel

    43

    principal component analysis. Chemical Engeneering Science. Vol 59, pp. 223-234, 2004.

    [9] Guizeng Wang Peiling Cui, Jun-hong Li. Improved kernel principal component analysis for fault detection. Expert Systems with Applications Vol 34, pp. 1210-1219, 2008.

    [10] Yvon Tharrault. Diagnostic de
    fonctionnement par analyse en com-

    posantes principales application a'
    une station de traitement des eaux usées. Automatic
    . PhD thesis, Institut National Polytechnique de Lorraine - INPL, 2008.

    [11] Sheng Chen Xiaogang Deng,

    Xuemin Tian. Modified kernel
    principal component analysis based on local structure analysis and its application to nonlinear process fault diagnosis. Chemometrics and Intelligent Laboratory Systems Vol 127, pp. 195-209, 2013.

    [12] H. Zhou S. J Qin Y. W, Zhang. Decentralized fault diagnosis of large scale processes using multiblock kernel principal component analysis. Act Auto-matica Sinica Vol 36, pp 593-597, April 2010.

    [13] Jie Yu. A nonlinear kernel gaussian mixture model based in ferential monitoring approach for fault detection and diagnosis of chemical processes nature. 2012.

    [14] Q. X Zhu Z. Q, Geng. Multiscale non linear principal component analysis (nlpca) and its application for chemical process monitoring. Industrial and Engineering Chemistry Research Vol 44, pp 3585-3593, 2005.

    ?'esum'e ?bstract

    Dans ce travail, nous avons présentéune approche statistique multi-variables pour la modèlisation et le diagnostic des sysèmes non linéaires. Cette approche, appelée analyse en composantes principales à noyau, qui est une extension de l'ACP classique au cas non linéaire, est basée sur une transformation des données en utilisant une fonction Noyau(Kernel) pour la linéairasation des des variables non linéaires initiales.

    Ce travail est partagéen quatre chapitres, organiés de la façon suivante:

    Le premier chapitre présente un aperçu sur le principe de diagnostic. Nous exposant les différentes étapes pour la mise en place d'un système de surveillance, la structure générale et la classification des méthodes utilisées dans un système de diagnostic.

    Dans le deuxième chapitre on à présentéla description de la méthode ACP clas-

    sique, ainsi que ses différentes étapes pour la modèlisation, détection et localisation de défauts.

    Le troisième chapitre est consacréàl'ACP à noyau. Oùla transformation noyau

    effectuant un changement de base qui permet de projeter les données dans un nouvel espace est mise en oeuvre, La modélisation est ainsi facilitée, par l'application de l'ACP linéaire, puisque on passe d'un système initialement non linéaire, à un autre linéaire. Par contre l'espace de représentation sera de dimension plus importante que l'espace de départ.

    Le dernier chapitre compte à lui a étéconsacréà l'application de la méthode du di-

    agnostic, oùle principe de l'ACP à noyau et de modélisation et la génération de résidus sont présentés à l'aide d'un simulateur du processus chimique Tennessee Estman Chal-lange Process (TECP).

    Mots-clés : Diagnostic, Détection et localisation de défauts capteurs, Analyse en Composantes Principales a' noyau, Tennessee Estman

    44

    In this work, we presented a statistical multivariable approach used for modeling and diagnosis of nonlinear systems, namely, Kernel Principal Component Analysis (KPCA). This approach, which is an extension of the classical PCA for nonlinear data, is based on a transformation of the nonlinear input data using a kernel function, thus resulting in a new representation with linear relations among the variables, where conventional PCA can be used for modeling and diagnosis. This work is composed of four chapters and is organized as follows:

    The first chapter presents a global preview of diagnosis, different steps for the establishment of a monitoring system are explained, along with the different methods and approaches used in diagnosis, organized in different classes.

    In the second chapter we presented the classical principal component analysis method, and its different steps, applied for modeling, and fault detection and isolation.

    The third chapteris devoted to the Kernel PCA, where a kernel transformation is used for the projection of nonlinear data into a new linear presentation space. The use of conventional PCA for modeling of the data is then possible because of the new linear nature of the obtained data. However, the new representation space is of higher dimension compared to the initial space.

    Finally, the last chapter contains the application of the kernel PCA method for the modeling phase as well as fault diagnosis by generating residuals on a chemical process, namely, the Tennessee Eastman challenge process TECP.

    Keywords : Diagnosis, Sensor fault detection and isolation, Kernel Principal Components Analysis, Tennessee Estman






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Qui vit sans folie n'est pas si sage qu'il croit."   La Rochefoucault