WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Etude de la stabilité aux petites perturbations dans les grands réseaux électriques: Optimisation de la régulation par une méthode metaheuristique

( Télécharger le fichier original )
par Hasan ALKHATIB
Université Paul Cézanne Aix Marseille III - Diplôme de Doctorat en Génie Electrique 2008
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

Chapitre V

Optimisation par

algorithmes génétiques à

contraintes dynamiques

5.1- Introduction.

x

Dans la littérature, plusieurs méthodes sont proposées pour améliorer la performance des AGs, dans la recherche de l'optimum global, telles les méthodes des opérateurs génétiques auto-adaptatifs (Bäck, 1992; Angeline, 1995; Deb, 1999; Régnier, 2003), la parallelisation des AGs (Alba et al., 1999; Tomassini, 1999; Hongesombut et al., 2005), ... . Ces méthodes présentent de bons résultats, mais si le point optimal global cherché ne se trouve pas dans l'espace de recherche proposé du problème (figure (107)), ces méthodes ne permettent pas aux AGs de trouver ce point.

f(x)

OG

xmin xmax

Figure 107. Problème d'optimum global situé en dehors de l'espace de recherche proposé.

Le bon déroulement d'un programme d'AG dépend de la détermination de l'espace de recherche, borné par une valeur maximale et minimale, associées à chaque paramètre à optimiser.

L'espace de recherche du problème définissant un ensemble des solutions potentielles peut ainsi contenir la solution optimale globale et/ou d'autres solutions locales. Ainsi, pour l'obtention de l'optimum global, il est alors très important de bien déterminer cet espace de recherche, autrement dit il faut bien choisir ses contraintes.

Dans la plupart des problèmes d'optimisation, il n'y a pas de critères rigoureux pour déterminer précisément les contraintes de l'espace de recherche. Dans la pratique, le choix de ces contraintes reste ainsi arbitraire.

Lors de l'optimisation de problèmes à grand nombre de paramètres tels les PSSs, il est souvent très difficile de déterminer pour des paramètres de même type (constantes de temps, gains, ....) des espaces de recherche différents. Ainsi, ces espaces de recherche sont généralement fixés par l'expérience et le savoir faire ; ils ont souvent des valeurs identiques. Ces espaces restent enfin fixes tout au long du processus d'optimisation. Ainsi, la valeur d'un paramètre peut atteindre une des limites de l'espace de recherche associé. Le fait d'atteindre cette limite peut arriver après un certain nombre de générations ou même dès le début de l'optimisation. Par conséquent, l'évolution de la fonction objectif peut se décélérer, voire se stabiliser, bien avant de converger vers la solution optimale.

Une solution peut être proposée pour améliorer la convergence de l'algorithme et la qualité de la solution optimale recherchée. Cette solution est basée sur la libération des contraintes de l'espace de recherche au cours de l'application de l'AG qui permet de leur donner des valeurs différentes selon les besoins du processus d'optimisation. Nous permettons ainsi à l'AG de diversifier sa population par de nouvelles valeurs qui n'étaient pas accessibles avec un espace de recherche fixe. Nous réalisons donc un espace de recherche dynamique qui s'adapte à la recherche de l'optimum global.

Nous allons dans ce chapitre appliquer cette approche à l'optimisation des PSSs. 5.2- Approche proposée.

Rappelons que la forme générale d'un problème d'optimisation (maximisation) est :

max( ( )) : R ? R (151)

F X n k

X S

?

· { } n

X = x 1 , x 2 , L , x n ? R : vecteur des paramètres à optimiser de dimension n.

· { } k

F = f 1 , f 2 , L , fn ? R : fonction objectif de dimension n. Pour k = 1, le problème est dit monoobjectif, autrement il est multiobjectif.

· n

S ? R : espace de recherche du problème a des contraintes aux limites. Les points de cet espace de recherche doivent correspondre à des solutions réalisables. Les contraintes définissants ses limites peuvent être données par des valeurs minimales xi,min et maximales xi,max associées à chaque paramètre à optimiser :

x i x i x i i { n}

,mi n ,max : 1,2 ,

= = = L(152)

Les figures (108) et (109) donnent respectivement le principe général et l'organigramme de l'approche proposée. Dans cette approche, nous initialisons l'AG avec un espace de recherche fixe. Lorsque l'évolution de la fonction objectif ne s'améliore plus de façon significative, nous utilisons alors des contraintes dynamiques sur l'espace de recherche. Une marge de tolérance (åm, ån) est fixée pour chacune des deux extrémités de l'espace de recherche. Lorsque la valeur d'un paramètre atteint cette marge pendant un certain nombre de générations successives (Ng), les limites associées à l'espace de recherche de ce paramètre vont être modifiées par des valeurs prédéterminées (Äm, Än). L'espace de recherche du paramètre se déplacera en gardant toujours sa taille initiale. Ce processus peut se répéter plusieurs fois au cours de l'optimisation. Enfin, pour que les valeurs attribuées aux paramètres soient des solutions réalisables (valeurs positives dans notre cas), il faut limiter l'évolution des valeurs minimales de l'espace de recherche à une valeur faible (åp > 0).

An

An

An

An

xmin xmax

åm

xmax

0

xmin

ån

x

x

xmin

xmax

ån

åm

Am

Am

Am

Am

Figure 108. Le principe général de l'approche des contraintes dynamiques.

Pour i = 1 : Nvar

Non

xi,max = xi,max + Äm
xi,min
= xi,min + Äm

Si xi > xi,max - åm

Oui

Opérateurs d'AG

Si Gener > = Nd

Pour j = 1 : Ng

xi,max = xi,max
xi,min
= xi,min

Si xi < xi,min - ån & xi > åp

Oui

xi,min = xi,min - Än
xi,max
= xi,max - Än

Oui

Non

Non

Figure 109. Organigramme de l'approche des contraintes dynamiques. 5.3- Première application.

Nous appliquons l'approche au premier cas étudié dans le chapitre précédent. 5.3.1- Optimisations par contraintes fixes.

Les espaces de recherche utilisés dans l'optimisation des PSSs disposent des contraintes fixes tout au long du processus d'optimisation. Ces espaces de recherche (pour les trois paramètres (KPSS,i, T1,i, T3,i) à optimiser par PSS) sont soumis aux contraintes données par la relation (144). Les valeurs choisies des paramètres de l'AG sont donnés au tableau (7).

L'évolution de la fonction multiobjectif en fonction du nombre de générations a été déjà donnée à la figure (61). Nous remarquons que la valeur finale de la fonction multiobjectif, atteinte pour la génération maximale prédéterminée de 250, est de 1.097.

La figure (110) montre la variation, pour chaque génération de l'AG, des valeurs des trois paramètres choisis (KPSS (13), T1 (14), T3 (9)).

40

39

38

37

36

35

0 50 100 150 200 250

a

Génération

0.1

0.08

0.06

0.04

0.02

0.001

0.04

0.03

0.02

0.01

0.001

0 50 100 150 200 250

Génération 0 50 100 150 200 250

Génération

b c

Figure 110. Variation des valeurs des trois paramètres (a : KPSS (13), b : T1 (14), c : T3 (9)).

Sur cette figure, nous pouvons remarquer les points suivants :

- Le gain du 1 3ème PSS converge, à partir de la 1 80ème génération, vers une valeur très proche de la limite maximale de l'espace de recherche associé.

- La constante de temps T1 du 14ème PSS converge, à partir de la 100ème génération, vers une valeur très proche de la limite minimale de l'espace de recherche associé.

- La constante de temps T3 du 9ème PSS atteint dès la 40ème génération une valeur très proche de la limite maximale de l'espace de recherche associé. Au-delà de la 200ème génération, elle atteint une autre valeur située loin des limites de l'espace de recherche.

Rappelons que la répartition des modes électromécaniques du système dans le plan complexe, donnée à la figure (63), montre que tous les modes électromécaniques, sauf deux d'entre eux, sont déplacés dans la zone D de stabilité ; le facteur d'amortissement minimum est æmin = 15.02 % et la partie réelle maximale des valeurs propres est ómax = - 0.9485.

5.3.2- Optimisations par contraintes dynamiques.

Nous appliquons maintenant l'approche proposée pour optimiser les paramètres des 14 PSSs, avec des espaces de recherche modifiables tout au long du processus d'optimisation.

Les contraintes initiales des espaces de recherche et les valeurs choisies des paramètres de l'AG sont les mêmes que précédemment (relation (144) et tableau (7) respectivement).

Sur la figure (61), nous remarquons que l'évolution de la fonction multiobjectif s'arrête généralement de s'améliorer d'une façon significative à partir de la 75ème génération. Nous pouvons donc considérer que cette génération (Nd = 75) est le point de départ des contraintes dynamiques.

Les marges de tolérance (åm, ån) des deux extrémités de l'espace de recherche de chaque paramètre sont choisies comme suit :

( ) 1 , ( ) 0 . 05

K K

PSS i n PSS i

, ,

å m

= =

å

å m

( ) 0 .0 1 , ( )

T T

1 , 1 ,

i n i

= å

0.0005

(153)

å m (T3

, 1 ,

i n i

) 0. 0 1 , ( ) 0 . 0005

= =

å T

Le nombre des générations successives nécessaire pour permettre aux contraintes de changer leurs valeurs est déterminé à Ng = 50.

Les valeurs de changement possible des contraintes (Äm, Än) sont choisies, quant à elles, comme suit :

Äm

( ) 2 , ( ) 0 . 05

K K

PSS i n PSS i

, ,

= Ä =

Äm

( ) 0 . 0 1 , ( )

T T

1 , 1 ,

i n i

= Ä

0.0005

(154)

Äm (T3

, 1,

i n i

) 0. 0 1 , ( ) 0 . 0005

= Ä =

T

L'évolution de la fonction multiobjectif en fonction du nombre de générations est donnée à la figure (111).

 

1.2
1
0.8
0.6

 

0 50 100 150 200 250

Generations

Figure 111. Evolution de la fonction multiobjectif.

Sur cette figure, nous constatons que la fonction multiobjectif atteint une valeur égale à la valeur finale du cas précédent, soit 1.097, pour la génération 120. Ensuite, elle atteint la valeur de 1.234 pour la génération maximale prédéterminée de 250. Ainsi, par rapport au cas précédent, la convergence est assurée en moins de 130 générations. Au bout de 250 générations, nous obtenons un gain de 12,4 %.

Les valeurs optimales des paramètres des PSSs sont données au tableau (21).

N° PSS

N° G.

KPSS

T1

T3

1

54

37.7248

0.0790

0.0452

2

55

23.4329

0.0238

0.0441

3

56

33.6390

0.0637

0.0462

4

57

32.2578

0.0673

0.0460

5

58

38.3750

0.0608

0.0850

6

59

23.0859

0.0851

0.0809

7

60

01.5685

0.0862

0.0812

8

61

12.6048

0.0098

0.0293

9

62

10.4482

0.0398

0.1051

10

63

14.6773

0.0511

0.0755

11

64

23.7698

0.0552

0.1231

12

65

16.5094

0.0039

0.0143

13

67

43.8539

0.0090

0.0081

14

68

34.4827

0.0048

0.0003

Tableau 21. Paramètres des PSSs optimisés par AG à contraintes dynamiques. Les valeurs des paramètres fixés des PSSs sont les mêmes que le cas précédent : Tw,j = 10 et T2,j = T4,j = 0.02.

Pour montrer l'évolution des valeurs des paramètres des PSSs lors de l'optimisation, nous donnons à la figure (112) la variation des trois paramètres les plus représentatifs (KPSS (13), T3 (9), T3 (14)) pour chaque génération d'AG.

Sur cette figure, nous pouvons remarquer les points suivants :

- Le gain du 13ème PSS prend, à partir de la 75ème génération, de nouvelles valeurs plus

élevées que la limite maximale initiale. La valeur finale atteinte est de 43.853.

- La constante de temps T3 du 9ème PSS dépasse aussi sa limite maximale initiale. Sa

valeur optimale est de 0.1231.

- La constante de temps T3 du 14ème PSS atteint, à partir de la 120ème génération, une valeur très proche de sa limite minimale initiale. Ensuite, elle prend des valeurs inférieures à cette limite. Elle atteint au bout de l'optimisation la valeur 0.0003.

44

42

40

38

36

a

0 50 100 150 200 250

Génération

0.001

0 50 100 150 200 250

Génération

0 50 100 150 200 250

Génération

0.14

0.011

0.12

0.009

0.1

0.08

0.007

0.06

0.005

0.04

0.003

0.02

0.001

b c

Figure 112. Variation des valeurs des trois paramètres (a : KPSS (13), b : T3 (9), c : T3 (14)).

Un indice intéressant, défini par la relation suivante (Wood, 2006), permet de comparer les deux résultats. Il s'agit du rendement ç de la valeur optimale de la fonction multiobjectif (Fobjmax) pour la génération courante itr :

Fobj itr

ç (155)

= ( max ) · 100 %

itr

Nous pouvons ainsi tracer l'évolution de ce rendement pour les deux résultats (optimisation par contraintes fixes et dynamiques), figure (113). L'analyse de cette figure montre qu'au-delà de la 150ème génération, le rendement est quasi linéaire. Un gain de 25 générations est constaté pour une valeur fixée du rendement.

Pour évaluer la performance du réglage des PSSs sur le système étudié, nous montrons par la figure (114) la répartition des modes électromécaniques du système dans le plan complexe. Tous les modes électromécaniques sont bien déplacés dans la zone D de stabilité ; cela traduit bien l'amélioration réalisée sur l'optimisation de la fonction multiobjectf. Le facteur d'amortissement minimum est æmin = 14.82 % et la partie réelle maximale des valeurs propres est ómax = - 1.085.

0.4

75 100 125 150 175 200 225 250

1.4

Contraintes fixes Contraintes dynamiques

1.2

1

0.8

0.6

Génération

Figure 113. Evolution du rendement de la fonction multiobjectif.

Modes locaux Modes interrégionaux

20

dz = 10 %

10

0

-10

-20

-6 -5 -4 -3 -2 - 0

-1

Axe réel

Figure 114. Valeurs propres du système.

Les résultats obtenus montrent que l'approche proposée a élargi l'espace de recherche initial de certains paramètres. En prenant maintenant un espace de recherche initial aussi étendu que celui obtenu par l'approche à contraintes dynamiques, nous vérifions son évolution par l'AG à contraintes fixes. Nous appliquons ainsi les contraintes fixes suivantes :

0.1 45

= =

K PSS j

,

0.0005 0 . 1 3

= =

T 1 , j

0.0005 0 . 1 3

= =

T 3 , j

(156)

avec

j

1,2,

 

, NPSS

L'évolution de la fonction multiobjectif correspondante en fonction du nombre de générations, (figure (115)), montre que la valeur atteinte au bout de l'optimisation est égale seulement à 0.984. Par conséquent, nous trouvons que ce résultat est inférieur à celui obtenu par l'optimisation à contraintes dynamiques. En effet, le fait d'élargir l'espace de recherche de tous les paramètres du problème restreint la recherche du point optimal : plus l'espace de recherche est large, plus la possibilité d'être piégé par les optima locaux est grande.

1

0.9

0.8

0.7

0.6

0.5

0.4

0.3 0 50 100 150 200 250

Générations

Figure 115. Evolution de la fonction multiobjectif.

Au-delà de ces résultats et pour montre l'efficacité de notre approche des contraintes dynamiques, nous proposons de l'appliquer sur un petit espace de recherche se trouvant assez loin de la solution optimale que nous avons déjà trouvée.

Nous prenons, par exemple, la moitié de l'espace de recherche initial identifié par la relation (144), soit l'espace donné par la relation (157). En optimisant, en premier lieu, les paramètres des PSSs avec contraintes fixes, nous trouvons que la fonction multiobjectif converge à une valeur trop faible, soit 0.5 13, figure (116).

0.1 20

,

= =

K PSS j

0 . 00 1 0 .05

= =

T 1 , j

0 . 00 1 0 . 05

= =

T 3 j

,

(157)

avec

j

1,2,

 

, NPSS

Par contre, lors de l'application des contraintes dynamiques, l'espace de recherche s'élargit successivement et la valeur de la fonction multiobjectif s'améliore jusqu'à l'arrivée à une valeur très proche de la solution optimale trouvée précédemment, soit 1.225, figure (116).

1.2

1.1

1

0.9

0.8

0.7

0.6

0.5

0.4

0 50 100 150 200 250 300

Générations

Espace de recherche initial

Demi-espace de recherche

Contraintes fixes Contraintes dynamiques

Contraintes fixes Contraintes dynamiques

Espace de recherche élargi

Contraintes fixes

Figure 116. Evolution de la fonction multiobjectif des résultats de la 1ère application.

Nous résumons dans le tableau suivant l'ensemble des cinq résultats d'AG obtenus avec : - l'espace de recherche initial à contraintes fixes (ERICF).

- l'espace de recherche à contraintes dynamiques (ERCD).

- l'espace de recherche élargi à contraintes fixes (ERECF).

- la moitié de l'espace de recherche initial à contraintes fixes (MERICF).

- la moitié de l'espace de recherche à contraintes dynamiques (MERCD).

 

ERICF

ERCD

ERECF

MERICF

MERCD

Valeur finale de la
fonction multiobjectif

1.097

1.234

0.984

0.513

1.222

Valeur finale relative %
(par rapport à l'ERICF)

_____

12.4 %

? 10.3 %

? 53.2 %

11.4 %

Taux de convergence %
(par rapport à l'ERICF)

_____

- 52 %

non-
convergeant
à 1.097

non-
convergeant
à 1.097

- 6 %

Tableau 22. Résultats de la 1ère application.

En analysant ces résultats nous pouvons dire que :

- Vu le nombre important des paramètres à optimiser (42 paramètres dans ce cas), il très difficile de donner à chaque paramètre un espace de recherche différent. Nous les proposons donc identiques.

- Dans le cas de l'optimisation avec espace de recherche fixe ; si la taille de cet espace est faible, il y a très peu de chance qu'il contienne la meilleure solution du problème. On converge souvent vers un optimum local.

- D'autre part, si l'espace de recherche fixe est très large ; l'exploration et l'exploitation de cet espace risquent de ne pas être efficaces. L'optimisation, dans ce cas, est souvent piégée par un optimum local.

- Par contre, lors de l'utilisation des contraintes dynamiques, seuls les paramètres qui ne trouvent pas leurs valeurs optimales dans l'espace de recherche initial vont évoluer pour prendre des valeurs supérieures ou inférieures. Cela se traduit donc par une convergence rapide vers la solution optimale, avec une amélioration de la robustesse de l'AG et de la performance de l'optimisation.

5.4- Deuxième application.

Nous allons maintenant valider notre approche pour un autre cas d'optimisation. Nous l'appliquons au troisième cas (12 PSSs).

5.4.1- Optimisations par contraintes fixes.

Rappelons que l'optimisation des PSSs du troisième cas, par contraintes fixes, a été faite dans le chapitre précédent (§§-5.5.1). Les espaces de recherche des 12 PSSs à optimiser par PSS sont soumis aux contraintes données par la relation (149). Les paramètres du réglage de l'AG sont donnés au tableau (14).

L'évolution de la fonction multiobjectif en fonction du nombre de générations est donnée à la figure (91). Sur cette figure, nous remarquons que la fonction multiobjectif atteint la valeur finale, soit 1.223, pour la génération maximale prédéterminée de 300.

Rappelons aussi que la répartition des modes électromécaniques du système dans le plan complexe est donnée à la figure (93). Cette dernière montre que tous les modes dominants se trouvent dans la zone D de stabilité ; le facteur d'amortissement minimum est æmin = 13.96 % et la partie réelle maximale des valeurs propres est ómax = - 1.0836.

5.4.2- Optimisations par contraintes dynamiques.

Comme nous l'avons proposé dans cette nouvelle approche, le processus d'optimisation est initialisé par les contraintes des espaces de recherche fixes (relation (149)). Les paramètres de réglage choisis pour l'AG restent les mêmes, (tableau (14)).

La figure (91) représentant l'évolution de la fonction multiobjectif montre que, à partir de la 120ème génération, cette fonction ne s'améliore plus d'une façon "importante". Les contraintes dynamiques sont appliquées à partir de cette génération, (Nd = 120).

Les marges de tolérance (åm, ån) des deux extrémités de l'espace de recherche de chaque paramètre sont choisies comme suit :

å å

m PSS i n PSS i

( ) 1 , ( ) 0 .2

K K

, ,

= =

å å

m i n i

( ) 0. 0 1 , ( ) 0 . 002

T T

1 , 1 ,

= =

(158)

å å

m i n i

( ) 0 . 0 1 , ( )

T T

3 , 1 ,

=

0.002

Le nombre des générations successives nécessaire pour permettre aux contraintes de changer leurs valeurs est déterminé à Ng = 20.

Les variations possibles des contraintes (Äm, Än) sont choisies, quant à elles, comme suit : ( ) 2 , ( )

Äm

0.2

K K

PSS i n PSS i

, ,

= Ä

Äm

( ) 0 . 02 , ( )

T T

1 , 1 ,

i n i

= Ä

0.002

(159)

Äm (T3

, 1,

i n i

) 0. 02 , ( ) 0 . 002

= Ä =

T

Les valeurs optimales des paramètres des PSSs sont données au tableau (23).

N° PSS

N° G.

KPSS

T1

T3

1

53

22.7145

0.0715

0.1371

2

54

36.6309

0.0369

0.0450

3

55

34.2725

0.0953

0.0889

4

57

01.8484

0.0869

0.0689

5

58

28.9526

0.0864

0.0397

6

59

11.5439

0.0712

0.0398

7

61

45.8373

0.0529

0.1102

8

62

20.5999

0.0149

0.0494

9

64

17.9713

0.0466

0.0452

10

66

49.3448

0.0192

0.0179

11

67

43.6407

0.0044

0.03 11

12

68

39.1085

0.0506

0.0793

Tableau 23. Paramètres des PSSs optimisés par AG à contraintes dynamiques. Les valeurs des paramètres fixés des PSSs sont les mêmes que le cas précédent : Tw,j = 10 et T2,j = T4,j = 0.02.

L'évolution de la fonction multiobjectif en fonction du nombre de générations est donnée à la figure (117).

 

1.4
1.2

1 0.8 0.6 0.4 0.2

0

 

0 50 100 150 200 250 300

Génerations

Figure 117. Evolution de la fonction multiobjectif.

Nous présentons dans le tableau suivant les résultats de l'AG obtenus dans cette application avec :

- l'espace de recherche à contraintes fixes (ERCF).

- l'espace de recherche à contraintes dynamiques (ERCD).

 

ERCF

ERCD

Valeur finale de la fonction
multiobjectif

1.223

1.387

Valeur finale relative %
(par rapport à l'ERCF)

_____

13.4 %

Taux de convergence %
(par rapport à l'ERCF)

_____

- 30 %

Tableau 24. Résultats de la 2ème application.

Comme dans la 1ère application (relation (155)), la figure (118) montre qu'à partir de la 175ème génération, un gain progressif du nombre de générations est constaté par l'optimisation à contraintes dynamiques. Le gain maximum, pour une valeur fixée du rendement, est de 35 générations.

La répartition des modes électromécaniques du système équipé des 12 PSSs optimisés est donnée à la figure (119). Cette figure montre clairement que tous les modes électromécaniques du système sont bien déplacés dans la zone D de stabilité. Le facteur d'amortissement minimum et la partie réelle maximale des valeurs propres sont respectivement æmin = 13.74 %, ómax = - 1.249. Ce résultat d'optimisation garantit la stabilité globale du système et une performance robuste pour un grand nombre de scénarios.

0.8

Contraintes fixes Contraintes dynamiques

0.7

0.6

0.5

0.4

125 150 175 200 225 250 275 300
Génération

Figure 118. Evolution du rendement de la fonction multiobjectif.

Modes locaux Modes interrégionaux

20

dz = 10 %

10

0

-10

-4 -3 -2 -1 0

-1

-20

Axe réel

Figure 119. Valeurs propres du système.

5.5- Conclusion.

Dans ce chapitre, nous avons proposé une approche d'optimisation d'AG à contraintes dynamiques permettant la recherche du point optimal du problème hors des contraintes initiales de l'espace de recherche.

Pour mettre en évidence l'apport de cette approche, nous l'avons appliquée à l'optimisation des PSSs. Nous avons également comparé les résultats obtenus avec ceux de l'AG à contraintes fixes.

Par rapport à l'optimisation utilisant l'AG à contraintes fixe, l'analyse des résultats obtenus montre que la nouvelle approche assure :

- une amélioration de la valeur finale de la fonction multiobjectif (plus de 12 % dans les deux cas étudiés).

- une accélération de la convergence (plus de 30 % sur le nombre de générations, dans les deux cas étudiés).

Par conséquent, cette amélioration de la fonction multiobjectif conduit à une meilleure stabilité globale du système. Elle garantit aussi une bonne performance du système pour divers points de fonctionnement et scénarios.

En conclusion, nous pouvons dire qu'il est possible de bien améliorer la convergence de l'AG et la performance de son résultat. Cela améliore en outre la robustesse de l'AG et sa désensibilisation vis-à-vis de l'espace de recherche proposé.

De ce fait, l'approche de l'AG à contraintes dynamiques ouvre des nouvelles possibilités dans l'utilisation des AGs.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Et il n'est rien de plus beau que l'instant qui précède le voyage, l'instant ou l'horizon de demain vient nous rendre visite et nous dire ses promesses"   Milan Kundera