WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Approche de résolution par régularisation des problèmes de programmation mathématique à  deux niveaux dans le cas de la non unicité de la solution du problème du suiveur

( Télécharger le fichier original )
par Francisque FOUODJI DEDZO
Université de Yaoundé I - Diplôme d'étude approfondie en mathématiques appliquées 2007
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

CHAPITRE TRIS

Approche de résolution par régularisation

des PBN dans le cas de la non unicité.

(y) = Argmin

x

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji c~UYI 2007-2008

Soit le PBN :

\ min

y

{ }

» F (x, y) : y ? Y, x ? (y) (3.1)

{ }

f(x, y) : g(x, y) = 0, h(x, y) = 0 (3.2)

Y est un fermé deRm

F : Rn × Rm -? R, f : Rn × Rm -? R
g : Rn
× Rm -? Rq, h : Rn × Rm -? Rk

Nous voulons résoudre (3.1 - 3.2) dans le cas où le problème du suiveur

{ }

min f(x, y) : g(x, y) = 0, h(x, y) = 0 (3.3)

x

n'admet pas une solution unique.

Au chapitre deux, nous avons vu qu'on peut pour ce faire utiliser l'approche optimiste ou l'approche pessimiste; mais il nous a été donné de constater que ces deux approches présentent de graves défauts dont certains (par exemple le problème d'instabilité de la solution) peuvent être contournés tandis que d'autres, (par exemple le problème d'éloignement de la solution optimiste ou péssimiste de la solution optimale du PBN) n'ont pas encore pu être résolus.

Pour éviter ces défauts, une autre approche a été développée dans la littérature et fait actuellement l'objet de nombreuses recherches : c'est l'approche par régularisation. A ce jour on distingue deux techniques de régularisation : la régularisation de Tykhonov et la régularisation par l'élément de plus petite norme.

3.1 La régularisation de Tykhonov

Cette technique consiste à introduire un paramètre (dit de régularisation) dans le problème du suiveur de façon à ce que le nouveau problème (le problème du suiveur régularisé) admette pour chaque paramètre de régularisation une solution unique fortement stable. Cette solution unique converge vers une solution du problème du suiveur original lorsque le paramètre de régularisation tend vers zéro (sous l'hypothèse que les fonctions qui définissent le problème

Approche de résolution par régularisation des PBN dans le cas de la non unicité. 31

satisfont certaines conditions de régularité).

Par cette technique, la solution obtenue est une approximation de la solution du PBN original, mais qui a l'avantage d'être stable et qui parfois est même meilleure que la solution optimiste ou péssimiste.

Lemme 3.1.1. Si le problème du suiveur (3.3) est convexe, (i.e les fonctions f(. , y), gi(. , y) i = 1, ... ,p sont convexes et les fonctions hj(. , y) j = 1, ... ,q sont affines linéaires sur Rn pour y fixé dans Rm.)

Si en plus F(., y) est strictement convexe pour y fixé dans Rm, alors :

(i) la fonction f(. , y) + áF(. , y) est strictement convexe Vá > 0 Vy E Rm ;

(ii) le problème

{ }

min f(x, y) + áF(x, y) : g(x, y) < 0, h(x, y) = 0 (3.4)

x

admet une solution unique pour tout á > 0 tel que l'ensemble des solutions admissibles de (3.4) est non vide.

preuve :

(i) Montrons que f(. , y) + áF(. , y) est strictement convexe Vá > 0 Vy E Rm. Soient y E Rm , á > 0, x, z E Rn, t E [0, 1]

on a :

f(tx + (1 - t)z, y) < tf(x, y) + (1 - t)f(z, y) (car f(. ,y) est convexe)

~áF(tx + (1 - t)z, y) < á~tF(x, y) + (1 - t)F(z, y) (car F(. ,y) est strictement convexe ) < átF(x, y) + á(1 - t)F(z, y).

d'où

f(tx+(1-t)z, y)+áF(tx+(1-t)z, y) < t(f(x, y)+áF(x, y))+(1-t)(f(z, y)+áF(z, y)) Donc f(., y) + F(., y) est strictement convexe.

(ii) Soit á > 0 tel que l'ensemble des solutions admissibles de (3.4) est non vide.

Montrons que (3.4) admet une solution unique ;

Supposons que (3.4) admet deux solutions distinctes {x(y)}et{z(y)}. g étant convexe et h affine linéaire, pour y fixé dans Rm, 2x(y) + 2z(y) est une solution admissible de (3.4). En effet,

g (1x(y) + 2z(y),y) ~ 2g(x(y),y) +12g(z(y),y) ~ 2.0+ 12.0 = 0

h (x(y) + 2z(y),y) = 2h(x(y),y) + 2h(z(y),y) = 2.0+ 12.0 = 0

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

Approche de résolution par régularisation des PBN dans le cas de la non unicité. 32

Puisque f(. , y) + áF(. , y) est strictement convexe,

f (x(y) + 2z(y), y + áF (2x(y) + 2z(y), y) < 2 (f(x(y), y) + áF(x(y), y))+

1 ~f(z(y), y) + áF(z(y), y)

2

<

2min { f(x, y) + áF(x, y) : x E M(y)}+

x

1

2

{ }

min f(x, y) + áF (x, y) : x E M(y)

x

{ }

< min f(x, y) + áF (x, y) : x E M(y)

x

ce qui est absurde.

Si les assertion du theorème1.3.1 sont satisfaites, alors

Øá(y) = Argmin

x

{ }

f(x, y)+áF(x, y) : g(x, y) < 0 , h(x, y) = 0 est semi-continue supérieurement.

La régularisation de Tykhonov consiste à remplacer le problème (3.1)-(3.2) par :

{ }

min F(x, y) : y E Y, x E Øá(y) (3.5)

y

Øá(y) = Argmin

x

{ }

f(x,y) + áF(x,y) : g(x,y) < 0 ,h(x,y) = 0 (3.6)

F : 1[8n x 1[8m -? 1[8 est strictement convexe par rapport à la première variable; f : 1[8n x 1[8m -? 1[8 ainsi que toutes les fonctions composantes de g : 1[8n x 1[8m -? 1[8p sont convexes par rapport à la première variable; h : 1[8n x 1[8m -? 1[8kest affine linéaire sur 1[8n par rapport à la première variable. Le problème du suiveur régularisé est défini par :

min

x

{ }

f(x,y) + áF(x,y) : g(x, y) < 0, h(x, y) = 0 (3.7)

L'idée d'utiliser cette méthode est due à A.N.Tykhonov [25]. On a le résultat suivant :

Théorème 3.1.1. Si les assertions (C), (MFCQ) sont satisfaites pour (3.5)-(3.6) en y = y° et si V xxF(x, y) est définie positive en tout point (x, y), alors :

(i) l'unique solution optimale xá(y) E Øá(y) est fortement stable pour tout á > 0 et est directionnellement différentiable.

(ii) Pour tout á > 0, on a les inégalités suivantes :

F(xá(y), y) < min { }

F (x, y) : x E Ø(y)

x

f(xá(y), y) > ?(y) = min { }

f(x, y) : g(x, y) < 0, h(x, y) = 0

x

(iii) Pour y fixé dans 1[8m ,

{ }

lim ~xá(y)~ = Argmin F(x, y) : x E Ø(y)

á?)+ x

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

Approche de résolution par régularisation des PBN dans le cas de la non unicité. 33

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

Preuve :

On se place sous les hypothèses du théorème.

(i) Puisque (3.4) est un problème d'optimisation paramétrique convexe et que V xxF(x, y) est définie positive, les conditions du théorème 1.3.1 sont satisfaites [26] ; d'où xá(y) est fortement stable pour tout á > 0 et est directionnellement différentiable.

(ii) On a g(xá(y), y) < 0 et h(xá(y), y) = 0

d'où

f(xá(y), y) >_ min {f(x,y) : g(x, y) < 0, h(x, y) = 0} = ?(y).

Montrons que F(xá(y), y) < min { }

F (x, y) : x E Ø(y)

x

Supposons que

F(xá(y), y) > min { }

F (x, y) : x E Ø(y)

x

alors

x E Ø(y) = {?(y), y E Rm} : F(xá(y), y) > F(x, y)

d'où

?y0 E IIBm : áF (xá(y0), y0) > áF (?(y0), y0) (car á > 0)

Or on a

f(xá(y), y) >_ ?(y) Vy E 118m

donc

f(xá(y0), y0) + áF(xá(y0), y0) > ?(y0) + áF(x, y0) ce qui contredit le fait que xá(y) E Øá(y).

(iii) D'après (ii), on a F(xá(y), y) < min { }

F (x, y) : x E Ø(y)

x

Puisque F est continue, on a :

lim

á?0+

d'où

F(xá(y), y) = F (áli ô+ xa(y), y) = min {F(x, y) : x E Ø(y)}

x

{ }

lim ~xá(y)~ = Argmin F (x, y) : x E Ø(y)
·

á?0+ x

L'assertion (iii) de ce théorème peut être interprétée comme suit : pour y fixé dans Rm, lorsque á tend vers 0+, l'unique solution du problème du suiveur régularisé par la méthode de Tykhonov converge vers la solution du problème original du suiveur, qui permet au leader de minimiser sa fonction objectif.

Ainsi, {xá(y)} tend (lorsque á --* 0+) vers la solution du problème du suiveur recherchée dans l'approche optimiste. L'avantage ici est que xá(y) est fortement stable et même lorsque l'approche optimiste n'est pas envisageable, cette approximation de la solution du PBN pourra être atteinte.

En utilisant le concept de å-optimalité, S.Addoune dans [27] énonce une autre version du théorème précédent. Avant d'y arriver, Commençons par définir la notion de solution å-optimale.

Approche de résolution par régularisation des PBN dans le cas de la non unicité. 34

Définition 3.1.1. Soit e > 0

Une solution e-optimale du problème du suiveur (3.7) est un élément de l'ensemble

{ }
T
á,E(y) := x E M(y) : f(x, y) + áF(x, y) < ?á(y) + e

M(y) est l'ensemble des solutions admissible de (3.7) et

{ }

?á(y) := min f(x, y) + áF (x, y) : x E M(y)

x

Théorème 3.1.2. Soit á > 0 , e > 0

Si l'assertion (C) est satisfaites pour le problème du suiveur (3.4), alors il existe une constante c telle que

Tá,E(y) C T0,E+ác(y) pour tout y E Y

Preuve :

{ }

D'après (C) K = (x, y) E Rn x Y : x E M(y) est compact. Puisque F est continue, il existe des réels b et c tels que

b < F(x, y) < b + c V(x, y) tels que y E Y et x E M(y)

Ceci implique que

f(x, y) + áF(x, y) > ?(y) + áb V(x, y) tels que y E Y et x E M(y)

{ }

?(y) = ?0(y) = min f(x, y) : x E M(y) .

x

Soit x E Tá,E(y) alors,

f(x, y) + áb < f(x, y) + áF(x, y) < ?á(y) + e (par definition de Tá,E(y))

i.e

f(x,y) + áb < min

x

< min

x

{ }

= min f(x, y) : x E M(y) + á(b + c) + e

x

{ }

f(x,y) + áF(x,y) : x E M(y) + e

{ }

f(x,y) + á(b + c) : x E M(y) + e

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

d'où

f(x, y) < ?(y) + ác + e

i.e x E T0,E+ác(y) donc

Tá,E(y) C T0,E+ác(y) pour tout y E Y

Dans le théorème précédent, T0,E+ác(y) représente l'ensemble des solutions (e+ác)-optimale du problème du suiveur original pour le paramètre fixé y, donc plus rigoureusement, on devrait écrire TE+ác(y) au lieu de T0,E+ác(y).

Le théorème que nous allons à présent énoncer permet de comparer la solution du problème régularisé et celle du problème original.

Approche de résolution par régularisation des PBN dans le cas de la non unicité. 35

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

Théorème 3.1.3. Si les hypothèses du théorème 3.1.2 sont satisfaites, alors pour tout x ? Wá,å(y), y ? Y on a :

min {F(x, y) : x ? W(y)} + a = F(x, y) = min {F(x, y) : x ? W0,å+ác(y)}

x x

Ceci implique que :

et

x,y

min {F(x, y) : x ? W(y)} + á = min {F(xá,å(y), y) : x ? W(y)} y
min {F(xá,å(y),y) : x ? W(y)} = min {F(x, y) : x ? W0,å+ác(y), y ? Y}

y x,y
xá,å(y) ? W0,å+ác(y) ?y

Preuve :

Soit y ? Y, x ? Wá,å(y) alors,

{ } {F(x(y), y) : x ? W0,å+ác(y)}

F(x, y) = min F(x, y) : x ? Wá,å(y) = min

x y

(car Wá,å(y) ? W0,å+ác(y) pour tout y ? Y )

D'autre part, on a par définition :

{ }

f(x, y) + áF(x, y) = ?á(y) + å = min f(x, y) + áF(x, y) : x ? M(y) + å

x

= min

{} + å (carW(y) ? M(y)) f(x,y) + áF(x, y) : x ? W(y) { }

x

= min

x

= ?(y) + min

x

= f(x, y) + á min

?(y) + áF(x,y) : x ? W(y) + å

{ }

áF(x,y) : x ? W(y) + å

{ }

x

d'où donc

F(x, y) : x ? W(y) + å

F(x, y) = min {F (x, y) : x ?Ø(y)} + a

min {F(x, y) : x ? W(y)} + a = F(x, y) = min {F(x, y) : x ? W0,å+ác(y)}

x x

En prenant le minimum de chaque membre de ces inégalités, on obtient la dernière implication du théorème.
·

Le corollaire suivant découle de la dernière implication du théorème 3.1.3 :

Corollaire 3.1.1. Sous les hypothèses du théorème 3.1.2, si á?0+å?0+tel que åá?0, alors

{ } { }

min F(x, y) : x ? Wá,å(y) -? min F(x,y) : x ? Ø(y)

x x

et

{ } { }

min F(x, y) : x ? Wá,å(y), y ? Y -? min F(x,y) : x ? W(y), y ? Y

x,y x,y

Approche de résolution par régularisation des PBN dans le cas de la non unicité. 36

Notons que les assertions du théorème 3.1.1 ne sont pas toujours vérifiés lorsque simultanément on fait tendre á vers 0+ et y vers y0. L'exemple 3.1.1 illustre ce fait :

Exemple 3.1.1. Soit le PBN

n o

y

min (x - y)2 + y2 : -20 < y < 20, x E Ø(y)

Ø(y) = Argmin nxy : -y - 1 < x < -y + 1o

x

Le problème régularisé correspondant par la méthode de Tykhonov est :

n o

min (x - y)2 + y2 : -20 < y < 20, x E Øá(y)

y

Øá(y) = Argmin

x

n o

xy + á(x - y)2 + áy2 : -y - 1 < x < -y + 1

Posons

F(x, y) = (x - y)2
f(x, y) = xy

fá(x, y) = xy + á(x - y)2 + áy2

On a

V2 xxF(x, y) = 2 > 0 d'où F est strictement convexe.

V2xxf(x, y) = 0 d'où f est convexe.

Donc le problème régularisé admet une solution unique pour chaque paramètre de régularisation.

On a

Vxfá(x, y) = y + 2á(x - y) = 2áx + y(1 - 2á) Vxfá(x,y) = 0 ~x = y(1 - 2a)

Dont le seul point critique est x = y(1 - 12á), pour á fixé. posons 0 < á < 41

-y - 1 < x < -y + 1 ~-y - 1 < y(1 -21á) < -y + 1

?

< y <

4á - 1

4á - 1

Si y > -

4á-1,

alors puisque 0 < á < 14, y>0

on a

Argmin

x

nxy + á(x - y)2 + áy2 : -y - 1 < x < -Y+11=--Y-- 1

y+1}=--y-1

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

Si y <

4á-1

alors y < 0 d'où

Argmin

x

n o

xy + á(x - y)2 + áy2 : -y - 1 < x < -y + 1 = -y + 1

Approche de résolution par régularisation des PBN dans le cas de la non unicité. 37

donc pour 0 < á < 14,

Pour y = 2á, on a

xá(y) =

{

- y - 1 si y > -

4á-1

y(1 - 1 2á) si

4á-1 = y = - 4á-1

- y + 1 si y <

4á-1

= y =

4á - 1

4á - 1

d'où xá(y) = y - y2á = y - 1 Or on a

lim

á?0+

xá(y) = lim y - 1 = -1 =6 0 = Argmin {x2 : x ? Ø(0)}

x

y?0

Malgré ce défaut, la solution du problème du suiveur régularisé est plus régulière que les solutions du problème du suiveur original. En plus {xá(y)} étant directionnellement différen-tiable, on peut envisager l'application de l'algorithme de descente pour la détermination de la solution du PBN [11].

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Piètre disciple, qui ne surpasse pas son maitre !"   Léonard de Vinci