WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Optimisation de l'énergie réactive dans un réseau d'énergie électrique

( Télécharger le fichier original )
par Brahim GASBAOUI
Université BECHAR - Magister 2008
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

Conclusion :

L'importance de l'étude de la répartition des puissances dans un réseau est

capitale pour l'obtention d'un état de réseaux à partir duquel nous avons appliqué le

system de minimisation des pertes réelles. Parmi c'est méthode on choisit la méthode

de Newton-Raphson qui est très robuste surtout pour les réseaux de grandes tailles elle

converge rapidement au contraire de la méthode de Gauss Seidel qui très simple .Elle

convient très bien avec les réseaux de petites tailles mais elle diverger pour les réseaux

de grands tailles.la méthode F.D.L.F et une méthode convergente très rapide puisque les

matrices utilisées par cette méthode sont constantes, tandis que pour la seconde, elles

varient à chaque itération. Elle est utilisée dont les system de contrôle de la tension

basée sur le calcul des sensibilités. Pour cela, on a choisi la méthode de Newton-Raphson

pour la comparaison entre la méthode de Lagrange et l'algorithme génétique. Vu le

calcul des matrices Jacobéennes pour chaque itération.

chapitre 3

Optimisation des systeme électrique

1.9. INTRODUCTION

Le problème d'optimisation dans les systèmes électriques de puissance, résulte à

partir du moment où deux unités ou plus de production devaient alimenter plusieurs

charges, obligeant l'opérateur à décider comment répartir la charge entre les différentes

unités. Historiquement, les premières méthodes d'optimisation ont été réalisées par

rapport au contrôle de la puissance active. Ce qui est connue, actuellement, sous la

dénomination de la répartition économique classique, dont l'objectif principal est de

déterminer la puissance active à générer par les différentes unités de production, en

minimisant les coûts de génération. Mais, après il a été constaté que l'optimisation de la

puissance active n'est pas suffisante. Une mauvaise gestion de la puissance réactive

augmente les pertes d'où un accroissement des coûts de production. Il y a deux classes

de technique d'optimisation. Dans la première, les conditions d'optimalité du premier-

ordre qui sont dérivées du Lagrangien, sont simultanément résolues par la méthode

Newton-Raphson. Des que les équations du réseau et les contraintes d'inégalités

apparaissent explicitement dans le Lagrangien, des solutions fiables sont disponibles

jusqu'à la convergence du processus itératif.

Dans la vie, nous sommes fréquemment confrontés à des problèmes

d'optimisation plus au moins complexes .Cela peut commencer au moment où l'on tente

de ranger notre bureau, de placer nos mobiliers, de gérer notre espace dans la maison de

minimiser nos trajet en voiture et aller jusque à un processus industrielle On définit

alors une fonction objective (fonction des pertes réal ou de profit), que l'on cherche à

optimiser par rapport à tous les paramètres concernés.

En pratique l'objectif n'est pas d'obtenir un optimum absolu, mais seulement une

bonne solution, et la garantie de l'inexistence d'une solution sensiblement meilleure

.Pour atteindre cet objectif au bout d'un temps de calcul raisonnable, il est nécessaire

d'avoir recoures à des méthodes appelées « heuristique » Ces dernières produisant des

solutions proches de l'optimum et la plupart d'entre elles sont conçues pour un type de

problème donné. D'autre au contraire, appelés « méta heuristique », sont capables de

s'adapter aux différents types problèmes.

L'objectif de l'optimisation est de déterminer une solution qui minimise (ou

maximise) une fonction .appelée dans la littérature fonction objective ou fonction

d'adaptation tout en vérifiant un certain nombre de contraintes.

La méthode de programmation non linéaire a été la première méthode à connaître

un essor remarquable, attirent ainsi l'attention des chercheurs et des ingénieurs ; les

solutions qu`elles Offrent couvrent un large champ d'application.

Dans les années quatre vingt .Le développements rapide de l'outil informatique a

permis d'élaborer d'autres méthodes :

Des méthodes de programme successives.

Des méthodes de lagrangienne augmenté.

Des méthodes de programmation quadratique mentionnent les méthodes de

Newton et Quasi -Newton.

Les spécialistes de l'optimisation combinatoire ont ensuite orienté leur recherche

vers le développement des méthodes stochastique tel que : le recuit simule, la

rechercher tabou et

3.1.1. Les algorithmes évolutionnistes.

Depuis quelques années, un nombre croissant de méthode d'optimisation de la

littérature proposent de faire hybrider les méthodes heuristiques entre elles

.Actuellement, l'hybridation s'effectue aussi entre méthode heuristique et méthode

analytiques. Cette approche hybride permet d'obtenir des méthodes d'optimisation

efficaces sur des problèmes de plus difficiles .d'allier leurs atouts, dans le but

d'améliorer les différentes méthodes les performances globale obtenues par chacune

d'elles, Actuellement, poussées par les performances générales de tels algorithmes, un

nombre croissant d'étude proposent ce type d'approche.

1.10. FORMULATION D'UN PROBLEME D'OPTIMISATION :

Un problème d'optimisation (P) de type « minimisation » et de dimension n peut

être Formulé de façon générale comme suite :

Où :

Est un vecteur à n composante représentant les variables objets du problème.

Est un espace des paramètres (ou espace de recherche).

Critère à minimiser.

Les contraintes d'inégalité.

Les contraintes d'égalité.

Un point de l'espace est un minimum local si tel que :

Où : désigne la distance entre le point .

La figure 7 présente, à titre d'exemple, une distribution possible des optimums

d'une fonction objectif unidimensionnelle et multimodale.

Point

D'inflexion

Figure 7 : Point singuliers d'une fonction unidimensionnelle et

multimodale

Méthodes d'optimisation :

Pour la résolution des problèmes d'optimisation, de nombreuse méthode de

recherche ont été Développées la littérature technique permet d'identifier trois type de

méthodes

Les méthodes analytiques.

Les méthodes énumératives.

Les méthodes heuristiques.

Figure 8: Principales méthode d'optimisation

1.11. METHODE ANALYTIQUE

Ces méthodes sont basées sur l'existante de dérivées, donc sur l'existence

d'équation ou de système d'équation, linéaire ou non linéaire .Le point principal

générale consister à recherche d'un extremum hypothétique en déterminant les points

de pente nulle dans toutes les direction dépendent du gradient de la fonction objective

.On trouve essentiellement deux type de méthode :les méthodes directe et les méthodes

indirectes.

Les méthodes indirect cherchant des optima locaux en résolvant l'ensemble

d'équation généralement no linéaire, résultant de l'annulation du gradient de la fonction

objectif.

Les méthodes directes évaluent en gradient en certaine points de l'espace de

recherche et se déplacent dans une direction liée à la valeur locale de gradient. Ces les

notions de descente de gradient dans la dilection de la plus forte pente. Bien que ces

deux méthodes aient été développe, amélioration et étudier sous toutes les formes, elles

présentant des inconvénients .Elles s'appliquaient localement, les extremums .Qu'elles

atteignent sont optimaux au voisinage du point de départ et l'existence de dérivées n'est

pas systématique. Ces méthodes sont donc difficilement applicable telles quelles pour

l'optimisation d'une fonction multimodale exemple (Fig.7) comportant plusieurs optima

locaux. Parmi les méthodes analytiques on peut citer :

3.1.2. Méthode du gradient

Cette méthode fait partie d'une grande classe de méthode numérique appelées

méthode de descente .Le principe de base de ces méthode repose sur les démarches

suivantes :On part d'un point initial arbitraire et on calcul le gradient en ,

comme Indique la direction de plus grande augmentation de f, on se déplace

d'une quantité Dans la direction opposé au gardien, et on définie le point :

La procédure est répéter et engendrer le point suivant la relation :

Où : est le pas de déplacement (

 

Cette méthode a pour avantage d'être très facile à mettre en ouvre, mais

malheureusement, les conditions de convergence sont assez lourdes.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Un démenti, si pauvre qu'il soit, rassure les sots et déroute les incrédules"   Talleyrand