WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Approche de résolution par régularisation des problèmes de programmation mathématique à  deux niveaux dans le cas de la non unicité de la solution du problème du suiveur

( Télécharger le fichier original )
par Francisque FOUODJI DEDZO
Université de Yaoundé I - Diplôme d'étude approfondie en mathématiques appliquées 2007
  

Disponible en mode multipage

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

Année Académique 2007/2008

APPROCHE DE RÉSOLUTION PAR
RÉGULARISATION DES PROBLÈMES DE
PROGRAMMATION MATHÉMATIQUE À DEUX
NIVEAUX DANS LE CAS DE LA NON UNICITÉ DE
LA SOLUTION DE LA SOLUTION DU PROBLÈME DU
SUIVEUR.

MÉMOIRE

Présenté et soutenu en vue de l'obtention du Diplôme d'Études Approfondies (D.E.A.) Option : ANALYSE NUMÉRIQUE

Par :

FOUODJI DEDZO FRANCISQUE
Matricule 02W026

Sous la direction de :

PAULINE LAURE FOTSO Maître de Conférence

Dédicaces

Je dédie ce travail

? A mon père,

? A ma mère,

? A la famille Tsapi,

? A mes frères et soeurs.

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji c~UYI 2007-2008

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji c~UYI 2007-2008

Remerciements

Ce travail n'aurait pu être réalisé sans le concours, le soutien et les encouragements de plusieurs personnes que je tiens à remercier particulièrement. Il s'agit de :

? Professeur Pauline Laure Fotso, qui malgré ses nombreuses occupations à accepté d'encadrer ce travail, et ainsi guider mes pas dans ce premier travail de recherche;

? mr Calixte.O.Pieume, dont la disponibilité infinie et les conseils avisés m'ont permis d'éviter bien d'écueils;

? le Dr Guy Merlin Mbakop, qui m'a ouvert généreusement sa bibliothèque personnelle;

? les enseignants du département de mathématiques de l'université de Yaoundé I et de l'école normale supérieure de Yaoundé, à qui je doit la majeure partie de mes connaissances en mathématiques;

? mon père Mr Dedzo André et ma mère Mme Kamené Marie, qui m'ont transmis le goût de l'effort, et qui n'ont jamais cessé de m'apporter leurs support tant matériel que psychologique;

? les familles Tsapi, Nzangué et Zietchou, pour leur aide matérielle et leur encouragements;

? mes frères aînées Theophile, Merlin et Gustave, qui ont été mes guides éclairés durant mes premières années d'université et dont l'apport à ma formation universitaire et intellectuelle ne saurait être quantifié.

? mes camarades de promotion: Daoussa Daniel, Tchouaké Hervé, Kenfac Brice, Ngongang Eric, Ekwadi cyrille, Moualeu Dany, Batkam cyrille, Kenmogne Marcelin;

? mes amis Chassep Joel, Tagne Takam Cyrille, Mbah .N.Serge, Tewa Jean Claude, Meta-gheu Gisèle, Pokouo Sandrine, Tagne.K.Steve william;

? tous ceux que je n'ai pas cité ici et qui m'ont apporté leur aide durant ce travail.

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji c~UYI 2007-2008

Table des matières

Dédicaces i

Remerciements ii

Table des matières iv

Table des figures v

Résumé vi

Abstract vii

Introduction générale viii

1

Genéralités sur la programmation mathématique à deux niveaux

1

 

1.1

Formulation générale des PBN

2

 
 

1.1.1 Définition et présentation

2

 

1.2

Quelques propriétés des PBN

3

 

1.3

Quelques résultats d'optimisation paramétrique

6

 

1.4

Conditions d'optimalités

12

 
 

1.4.1 Cas des PBN linéaires

12

 
 

1.4.2 Cas général

13

 

1.5

Algorithmes et méthodes de résolution des PBN

14

 
 

1.5.1 Algorithme de descente

14

 
 

1.5.2 L'algorithme du paquet

15

 

1.6

Les applications de la PBN

16

 
 

1.6.1 Production agricole , production de biocarburant

16

 
 

1.6.2 Le problème principal-agent [10]

18

 

2

Non unicité de la solution du problème du suiveur : les différentes techniques

 
 

d'approches.

20

 

2.1

Position du problème

21

 

2.2

L'approche optimiste

22

 

2.3

L'approche pessimiste

24

TABLE DES MATIÈRES iv

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji c~UYI 2007-2008

3 Approche de résolution par régularisation des PBN dans le cas de la non

unicité. 30
3.1 La régularisation de Tykhonov ............................ 30 3.2 régularisation par l'élément de plus petite norme .................. 37

3.2.1 première méthode ............................... 37

3.2.2 Deuxième méthode .............................. 41

3.3 Algorithme de résolution d'un PBN dans le cas de la non unicité ......... 43

3.3.1 La methode du paquet ............................ 43

3.3.2 Présentation de l'algorithme ......................... 44
3.4 Convergence de l'algorithme du paquet modifié ................... 47

Conclusion et perspectives 50

Bibliographie 51

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji c~UYI 2007-2008

Table des figures

1.1 Sur les effets du transfert de la contrainte x = 0 du premier niveau dans (BLP1)

au second niveau dans (BLP2). ........................... 4

1.2 Sur l'importance de l'ordre du jeu .......................... 5

2.1 Sur les difficultés rencontrées dans le cas de la non unicité ............ 22

2.2 Fonction objectif du leader .............................. 27

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji c~UYI 2007-2008

Résumé

Les approches classiques de résolution des PBN (Problème de programmation mathématique à deux-niveaux) dans le cas de la non unicité de la solution du problème du suiveur qui sont : l'approche optimiste et l'approche pessimiste présentent de nombreux défauts. Parmi lesquels le problème d'instabilité des solutions optimiste et pessimiste ainsi que celui de leurs l'éloignement, par rapport à la solution réelle du problème [11]. Dans ce document, nous présentons une approche de résolution des PBN dans le cas de la non unicité qui permet de contourner ces défauts : l'approche de résolution par régularisation des problèmes de programmation à deux-niveaux dans le cas de la non unicité de la solution du problème du suiveur. Cette méthode consiste à introduire dans le problème du suiveur un paramètre (le paramètre de régularisation) de sorte que le nouveau problème du suiveur (le problème du suiveur régularisé) admette une solution unique fortement stable. Lorsque le paramètre de régularisation tend vers zero, la solution du problème régularisé converge vers une approximation de la solution du problème original qui présente de meilleures propriétés de régularité que les solutions obtenues par les approches classiques (approches optimiste et pessimiste) de résolution des PBN de ce type. Nous présentons également un algorithme de S.Dempe issu de cette approche, dont nous étudions la convergence théorique.

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji c~UYI 2007-2008

Abstract

Optimistic and pessimistic approaches are classical methods uses for solving bilevel programming problems with non-unique lower level solutions. But, both the optimistic and pessimistic solutions can in general not be assumed to be good approximations of realized solutions in practice, and small changes in the problem data can result in drastic changes of theses solutions [11]. We present in this document an approach which circumvents these difficulties : the regularization approach for solving bilevel problems with non-unique lower level solutions. This approach consists (in general) of introducing a regularization parameter in the lower level problem such that the new problem (regularized problem) has a unique lower level solution which is strongly stable. This solution converges (when the regularization parameter converges to zero) to an approximation of the original problem which is more regular (and even better) than optimistic and pessimistic solutions respectively. We present also an algorithm by S.Dempe resulting from regularization approach and show the convergence of this algorithm.

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji c~UYI 2007-2008

Introduction générale

Les Hommes recherchent en général ce qu'il y'a de meilleur, et lorsqu'ils sont face à un problème de prise de décision, tous voudraient prendre la décision optimale.

Un des traits caractéristiques de notre époque est l'intérêt croissant porté aux problèmes de planification économique, de gestion, et de contrôle de systèmes. Comme jamais dans l'histoire, on ressent de nos jours la nécessité d'une gestion fructueuse et efficace des ressources naturelles et humaines, des moyens matériels et techniques.

Ainsi se pose le besoin de disposer d'outils objectifs susceptibles d'aider à prendre face à un problème, la meilleure décision.

Le domaine des mathématiques qui permet de modéliser les processus de prise de décision est la programmation mathématique. Au fil du temps et en fonction des besoins, se sont développées la programmation linéaire (PL), la programmation non linéaire (PNL), la programmation multiobjectif (POM) et la programmation à deux-niveaux.

La PL et la PNL permettent de modéliser des processus de prise de décisions dans les systèmes centralisés; c'est-à-dire dans les systèmes où un seul décideur est préoccupé par l'optimisation d'une fonction objectif soumise à des contraintes éventuelles. La POM quant à elle permet d'aborder les problèmes d'optimisation dans lesquels le décideur voudrait atteindre plusieurs objectifs simultanément.

Pour ce qui est de la programmation à deux-niveaux (PBN), elle permet de modéliser des processus de prises de décision dans un système décentralisé. Ici, deux décideurs ne pouvant agir indépendamment l'un de l'autre, mais suivant une certaine hiérarchie, souhaitent prendre chacun la meilleure décision par rapport à des objectifs généralement différents. La stratégie choisie par l'un des décideurs (le leader ou décideur du premier niveau) influence la fonction objectif et/ou la région réalisable de l'autre (le suiveur ou décideur du second niveau). Par conséquent, la décision de ce dernier est fortement liée à celle du leader. Ainsi un PBN est constitué de deux problèmes d'optimisation qu'on ne peux résoudre séparément.

La PBN suscite depuis quelques décennies déjà un grand intérêt dans la communauté de la programmation mathématique; ceci grace à ses nombreuses applications en économie, en ingénierie et dans plusieurs autres domaines des sciences.

La plupart des méthodes de résolution des PBN développées dans la littérature suppose au préalable que le problème du second niveau admet une solution unique; ceci dans le but de transformer le PBN en un problème d'optimisation à un niveau classique. Mais il se trouve que la majorité des problèmes modélisés sous forme de PBN sont tels que le problème du suiveur n'admet pas une solution unique [11].

C'est pourquoi la recherche depuis plus d'une décennie déjà, est tournée vers la résolution des PBN dans le cas de la non unicité de la solution du problème du second niveau.

Notre travail consiste à présenter une approche de résolution des PBN qui fait actuellement l'objet de recherches profondes : l'approche de résolution par régularisation des PBN dans le

TABLE DES FIGURES 0

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji c~UYI 2007-2008

cas de la non unicité de la solution du problème du suiveur.

Ce travail est organisé ainsi qu'il suit :

? au chapitre un, nous présentons les généralités sur la PBN dans le cas de l'unicité de la solution du problème du second plan;

? au chapitre deux nous présentons les différentes techniques d'approches des PBN dans le cas de la non unicité;

? enfin au chapitre trois nous présentons l'approche par régularisation, ainsi qu'un algorithme de résolution basé sur cette approche développé par S.Dempe, dont nous étudions la convergence.

CHAPITRE PREMIER

Genéralités sur la programmation

mathématique à deux niveaux

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji c~UYI 2007-2008

Introduction

La programmation mathématique à deux niveaux (PBN) est une branche de la programmation mathématique qui résoud des problèmes ayant une structure hiérarchique constituée de deux unités indépendantes de prise de décision. Chaque unité de la hiérarchie souhaite minimiser (ou maximiser) sa fonction objectif, en tenant compte du contrôle partiel exercé à l'autre niveau de prise de décision. La PBN modélise des problèmes de prise de décision qui exigent des compromis parmi les objectifs de deux individus ou entités qui interagissent. Un décideur se voit assigner le rôle de meneur (ou leader ou décideur du premier plan) et prend sa décision en fonction de la (ou des) décision(s) éventuelle(s) d'un décideur de second plan appelé suiveur. La première utilisation d'un modèle hiérarchique date de 1934 et a été faite par H.V Stackelberg [2] dans une monographie sur l'économie de marché, pour décrire la situation de plusieurs décideurs qui veulent réaliser leurs objectifs respectifs mais ne peuvent le faire indépendamment les uns des autres. Cependant les toutes premières formulations liées aux PBN proprement dit sont l'oeuvre d'auteurs tels que Kornaj et Liptack [3] en 1965, Ross [4], Simaan et Cruz [5] ou Bracken et McGill [6]. Toutefois, Candler et Norton [7, 8] furent les premiers à utiliser la terminologie programmation à deux niveaux ou à plusieurs niveaux dans un rapport de la banque mondiale. C'est finalement au début des années 1980 que, vu ses applications dans la résolution d'une multitude de problèmes concrets (problèmes de gestion, de planification économique, de contrôle de systèmes, de chimie, de sciences environnementales,....), la PBN a commencé à susciter une attention particulière. Motivés par la théorie des jeux de H.V Sta-ckelberg [2], plusieurs auteurs se sont lancés dans l'étude de la PBN; ce qui a permis son essor dans la communauté de la programmation mathématique.

Dans ce chapitre, après avoir donné une présentation générale et quelques propriétés des PBN, nous présenterons des résultats d'optimisation paramétrique généralement utilisés pour leur résolution. Ensuite, nous donnerons quelques conditions sous lesquelles les PBN admettent des solutions dans le cas de l'unicité de la solution du problème du suiveur; ce qui nous permettra de présenter des algorithmes développés afin de construire de manière effective ces solutions. Nous terminerons en donnant quelques unes des nombreuses applications de la PBN.

Genéralités sur la programmation mathématique à deux niveaux 2

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji c~UYI 2007-2008

1.1 Formulation générale des PBN

1.1.1 Définition et présentation

Un problème de programmation mathématique à deux niveaux peut être défini comme un problème d'optimisation dont l'une des contraintes est un autre problème d'optimisation. La formulation générale d'un PBN est la suivante :

min F(x,y)

(1.1)

y

 

sujet à : G(x,y) = 0

(1.2)

min f(x,y)

x

(1.3)

sujet à : g(x,y) = 0

(1.4)

La fonction F : Rn × Rm -? R ; n, in ? N représente la fonction objectif du leader tandis que la fonction f : Rn × Rm -? R ; n, in ? N représente celle du suiveur.

Les fonctions G : Rn ×Rm -? Rp et g : Rn ×Rm -? Rq sont respectivement les contraintes du problème du leader et du problème du suiveur.

Le leader est le décideur qui à la possibilité de prendre une décision sans tenir compte des opinions d'autres décideurs que lui. Mais étant donné (comme c'est le cas dans plusieurs problèmes d'optimisations concret) que la possibilité de prendre une décision optimale (i.e celle qui minimise sa fonction objectif) ne dépend pas uniquement de sa personne, le leader se voit contraint de prendre en compte les réactions d'un autre décideur qu'on appelle le suiveur.

les vecteurs x et y qui apparaissent dans le problème (1.1) - (1.4) sont respectivement appelés variable du problème du suiveur et variable du problème du leader.

La structure hiérarchique du problème (1.1) - (1.4) suggère que le problème du leader (1.1) - (1.2) ne peut être résolu si l'on ne connaît pas la (ou les ) solutions du problème du suiveur (1.3) - (1.4); ce qui permet de définir une autre formulation du PBN comme suit :

«min

y

{ }

» F (x, y) : G(x, y) = 0 et x ? (y) (1.5)

avec pour y fixé dans Rm :

{ }

(y) := Argmin f(x, y) : g(x, y) = 0 (1.6)

x

(y) représente l'ensemble des solutions du problème d'optimisation paramétrique (1.3) - (1.4). Les guillemets dans (1.5) expriment l'incertitude de la définition du PBN dans le cas où (y) n'est pas réduit à un singleton ( non unicité de la solution du problème du suiveur) La formulation (1.5) - (1.6) est celle que nous utiliserons tout au long de cet exposé.

Pour y fixé dans Rm , l'ensemble M(y) := {x ? Rn : g(x, y) = 0} représente l'ensemble des

décisions admissibles du suiveur ( ou encore la région réalisable du suiveur ).

{ }

L'ensemble R := (x, y) ? Rn × Rm : G(x, y) = 0 et x ? (y)est la région réalisable du

leader.

Le PBN peut encore se mettre sous la forme :

min

(x,y)?R

F(x,y)

Définissons à présent ce qu'on entend par solution d'un PBN

Genéralités sur la programmation mathématique à deux niveaux 3

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

n o

Définition 1.1.1. On considère le problème (1.5) - (1.6) On pose Y = y E 1[8m : G(y) < 0 .

On suppose que Ø(y) est réduit à un singleton pour tout y E Y .

Un point (x*, y*) E 1[8n x 1[8m est appelé solution optimale locale du problème (1.5) - (1.6) si y* E Y, x* E Ø(y*) et il existe une boule ouverte centrée en y* (Uä(y*), 8 > 0) avec F(x, y) > F(x*, y*) pour tout (x, y) satisfaisant y E Y n Uä(y*) , x E Ø(y).

(x*, y*) est solution optimale globale si 8 = oo.

Remarques 1.1.1.

1) Si le problème (1.3) - (1.4) admet une solution unique x(y) pour chaque paramètre y vérifiant les contraintes du leader, alors sous des hypothèses de régularité sur les fonctions contraintes du second plan [ 9,10 ], la fonction

x : 1[8m -? 1[8n y H x(y)

est continue. avec {x(y)} = Ø(y) .

2) Si le problème (1.3) - (1.4) n'admet pas une solution unique pour tout paramètre y vérifiant les contraintes du premier niveau, alors le leader se trouve face à un dilemme [11] en ce sens que même s'il connaît sa région réalisable, il ne sait pas quelle sera la décision du suiveur. L'analyse des différentes approches permettant d'attaquer (1.1) - (1.4) dans ce cas de figure fera l'objet du chapitre suivant.

3) Les contraintes du leader sont dites couplées lorsque la fonction contrainte du premier niveau G dépend effectivement de la variable x contrôlée par le suiveur. Rechercher les solutions réalisables qui vérifient ces contraintes en étant compatibles avec la reaction du suiveur est aussi difficile que la résolution du PBN lui même [10].

Nous allons maintenant présenter quelques propriétés caractéristiques des PBN :

1.2 Quelques propriétés des PBN

Propriété 1.2.1. Dans la formulation du PBN (1.1) - (1.4), la position des fonctions contraintes n'est pas arbitraire. En effet, en transférant les contraintes du leader au problème du suiveur, la région réalisable de celui-ci s'en trouve réduite (ou restreinte) ; ce qui peut modifier la solution (si elle existe ) du problème du suiveur, et partant la solution du problème (1.1) - (1.4). Il en est de même si on transfère plutôt les contraintes du suiveur au problème du leader. Nous illustrons cette propriété par cet exemple tiré de [13] :

On considère le PBN linéaire :

(BLP1) :

max

y

y

sujet à : 0 < y < 1

{w:w<y}

x = 0

x E Argmax

w

et le problème : (BLP2) :

max

y

y

Genéralités sur la programmation mathématique à deux niveaux 4

sujet à : 0 < y < 1

x E Argmax

w

{w : w < y et w = 0}

Les problèmes (BLP1) et (BLP2) ont les mêmes contraintes excepté le fait que la contrainte du premier niveau dans (BLP1) est transféré au deuxième niveau dans (BLP2).

Comme le montre la figure ci-dessous, les deux problèmes ont une même région réalisable.

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji c~UYI 2007-2008

FIG. 1.1 Sur les effets du transfert de la contrainte x = 0 du premier niveau dans (BLP1) au second niveau dans (BLP2).

{ }

On a 1 = (0, y) : 0 < y < 1

pour les deux problèmes; mais pour y fixé dans R, on a pour (BLP1) : Ø(y) = {y} tandis que (

{0} si y = 0

pour (BLP2) : Ø(y) = w sinon .

Il s'ensuit que pour (BLP1) la seule solution réalisable et qui s'avère être la solution optimale est y = 0. La solution optimale pour (BLP2) est y = 1.

Propriété 1.2.2. La solution optimale du PBN change en général lorsque l'ordre du jeu

est changé (i.e lorsque le problème du leader est décalé au second plan tandis que le suiveur devient le leader). Ceci est dû au fait que le problème étant hiérarchique, les deux décideurs ne peuvent prendre leurs décisions simultanément; ce qui signifie que le leader se doit d'anticiper sur le choix du suiveur sous réserve que celui-ci à le droit et la possibilité de choisir une solution optimale sous les conditions posées par les choix du leader [11]. Nous illustrons cet exemple par la figure 1.2 tirée de [11], sur laquelle (x, y) et (x', y') représente respectivement la solution

Genéralités sur la programmation mathématique à deux niveaux 5

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji c~UYI 2007-2008

FIG. 1.2 Sur l'importance de l'ordre du jeu

optimale lorsque le ieme décideur à le premier choix.

Propriété 1.2.3. La solution optimale d'un PBN n'est pas en général indépendante des

{ }

min (x - 1)2 + (y - 1)2 : x E Ø(y) .

y

contraintes inactives ajoutées au problème du suiveur. L'exemple suivant tiré de [14] illustre bien cette propriété :

Soit le PBN :

{ }

avec Ø(y) = Argmin 0.5x2 + 500x - 50xy .

x

{ }

. Ce problème est équivalent à : min (x-1)2 +(y -1)2 : x+500-50y = 0 . La solution

x, y

unique de ce problème est (x*, y*) = (0.82; 10.02) et la valeur optimale de la fonction objectif est F(x*, y*) = 81.33.

Ajoutons la contrainte x ~ 0 au problème du suiveur; alors (x*, y*) est un point réalisable pour le problème et x* ~ 0; mais la solution optimale du suiveur est :

1

50y - 500 si y ~ 0

En introduisant cette fonction dans fonction objectif du leader, on a :

1

(50y - 501)2 + (y - 1)2 si y ~ 0

F (x(y), y) =

x(y) = 1 + (y - 1)2 si y ~ 10

.

1 + (y - 1)2 si y ~ 10

La valeur minimale de cette fonction est 1 et est atteinte en (x°, y°) = (0, 1). Une condition nécessaire et suffisante garantissant au PBN l'existence d'une solution optimale globale indépendante par ajout ou suppression de contraintes inactive peut-être trouvé dans [14].

Genéralités sur la programmation mathématique à deux niveaux 6

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

Dans toute la suite, nous ne considérerons que les PBN dans lesquels les contraintes du leader ne sont pas couplées ; i.e la fonction contrainte du leader ne dépend pas de la variable du problème du suiveur. Ainsi les contraintes du leader s'écriront : G(y) < 0 au lieu de G(x, y) < 0.

Dans le but de prendre en compte les contraintes du type égalité, les contraintes du deuxième plan seront désormais de la forme g(x, y) < 0 et h(x, y) = 0 où h : 1[8n x 1[8m -> 1[8k

le problème (1.1) - (1.4) devient donc :

{ }

min F(x, y) : G(y) < 0, x E Ø(y) . (1.7)

y

avec Ø(y) = Argmin

x

{ }

f(x, y) : g(x, y) < 0 et h(x, y) = 0 .

Ø(y) représente l'ensemble des solutions du problème d'optimisation paramétrique :

{ }

min f(x, y) : g(x, y) < 0 et h(x, y) = 0 . (1.8)

x

comme nous l'avons indiqué précédemment, la résolution de (1.7) - (1.8) suppose la résolution au préalable du problème d'optimisation paramétrique que constitue le problème du suiveur (1.8). Par ailleurs, la plupart des méthodes de résolution des PBN exploitent des conditions nécessaires et suffisantes permettant de montrer l'équivalence du PBN à un problème d'optimisation à un niveau classique de la forme :

min

y

{F(x(y),y). : G(y) < 0}. (1.9)

x(y) représente la solution de (1.8) pour le paramètre y. La résolution de (1.9) nécessite outre la régularité des fonctions F et G, la continuité au moins de la fonction à valeur optimale x : y i-> x(y). Ainsi donc, la résolution d'un PBN est fortement lié à la résolution d'un problème d'optimisation paramétrique.

Dans le paragraphe à venir, nous présentons les résultats d'optimisation paramétrique nécessaires à la résolution des PBN.

1.3 Quelques résultats d'optimisation paramétrique

On considère le problème (1.8) pour y fixé dans 1[8m ; avec les fonctions f, g et h suffisamment régulières.

On considère l'application M : 1[8m -> 2' définie par :

{ }

M(y) := x E 1[8n : g(x, y) < 0 et h(x, y) = 0 pour tout y E 1[8m.

M(y) est l'ensemble réalisable de (1.8) pour le paramètre fixé y. On défini l'ensemble des minimaux locaux de (1.8) par

{ }

Øloc(y) = x E M(y) : ?E > 0 avec f(x, y) < f(z, y) Vz E M(y) n Vå(x) ;

{ }

Vå := z E Rn : 11x - z11 < E est la boule ouverte centré en x et de rayon E.

Soit L(x, y, À, u) := f(x, y) + ÀTg(x, y) + uTh(x, y) , le lagrangien du problème (1.8).

Genéralités sur la programmation mathématique à deux niveaux 7

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

On pose :

{ }

A(x, y) := (À, u) E 1[8p x 1[8q : À > 0, ÀTg(x, y) = 0, VxL(x, y, À, u) = 0

{ }

L'ensemble SP(y) = x E M(y) : A(x, y) =6 0 est appelé l'ensemble des points station-

naires du problème (1.8)

Dans la suite, nous utiliserons abondamment l'assertion suivante :

{ }

(C) : l'ensemble (x,y) E 1[8n x 1[8m : g(x, y) < 0, h(x, y) = 0 est non vide et compact

Définition 1.3.1. Soit y0 E 1[8m, x0 E M(y0)

On dit que lescontraintes de qualification de Mangasarian-Fromowitz (MFCQ) sont satisfaites au point (x0, y0) s'il existe une direction d E 1[8n satisfaisant :

Vxgi(x0, y0)d < 0 pour tout i E I(x0.y0) := {j : gj(x0, y0) = 0}

Vxhj(x0, y0) = 0 pour tout j = 1, ...., q

}, , q sont linéairement indépendants.

{et les gradients Vxhj(x0,y0) : j = 1

Définition 1.3.2. soit y0 E 1[8m et x0 E SP(y0)

On dit que les conditions suffisantes d'optimalités forte (SSOC) sont satisfaites au point (x0, y0) si pour tout (À, u) E A(x0, y0) et pour tout d =6 0 satisfaisant :

(i) Vxgi(x0, y0)d = 0 pour tout i E J(À) := {j : Àj > 0}

(ii) Vxhj(x0, y0) = 0 pour tout j = 1, ..., q on a dTV xxL(x0, y0, À, u)d > 0.

Définition 1.3.3. On dit que les contraintes de constance de rang (CRCQ) sont satisfaites au point (x0, y0) si il existe une boule ouverte centrée en (x0, y0) de rayon e > 0 Wå(x0, y0)

tel que pour tout sous ensembles I Ç I(x0, y0) := {i : gi(x0, y0) = 0} ; J Ç {1, ...., q} , la

{ } { }

famille de gradients Vxgi(x,y) : i E I U Vxhj(x0,y0) : j E J ait le même rang pour tout (x, y) E Wå(x0, y0).

Définition 1.3.4. Une fonction f : 1[8k -- 1[8 est dite semi-continue inférieurement au point

zn = z on a lim inf

n?oo

f(zn) > f(z) .

z E 1[8k si pour toute suite {zn}oon°1 Ç 1[8k avec lim

n?oo

f est dite semi-continue supérieurement au point z E 1[8k si pour toute suite {zn}oon°1 Ç 1[8k

avec lim

n?oo

zn = z on a lim sup

n?oo

f(zn) < f(z) .

Genéralités sur la programmation mathématique à deux niveaux 8

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

Définition 1.3.5. Une fonction F : Rk -? 2Rl est dite semi-continue supérieurement au point z ? Rk si pour tout ensemble ouvert Z avec F(z) ? Z , il existe une boule ouverte centrée en z, Uä(z); 8 > 0 telle que F(z') ? Z pour tout z' ? Uä(z).

F est dite semi-continue inférieurement au point z ? Rk si pour tout ensemble ouvert Z avec F(z) n Z =6 Ø , il existe une boule ouverte centrée en z, Uä(z); 8 > 0 telle que F(z') n Z =6 Ø pour tout z' ? Uä(z).

Définition 1.3.6. Une fonction F : Rk -? 2R1 telle que F(y) est non vide et compact pour tout y ? Rk est dite Lipchitz-continue supérieurement en un point z ? Rk si il existe une boule ouverte centrée en z, (Uä(z); 8 > 0) et une constante K < 8 telle qu'on a pour tout z' ? Uä(z), l'inclusion F(z') ? F(z) + Kkz - z'kBl ; où Bl désigne la boule unité de Rl.

F est dite Lipschtz-continue inférieurement en un point z ? Rk si il existe une boule ouverte centrée en z,( Uä(z); 8 > 0) et une constante L < 8 telles que pour tout z', z'' ? Uä(z), on a l'inclusion F(z') ? F(z'') + Kkz'' - z'kBl.

Définition 1.3.7. L'optimum local x0 ? Øloc(y0) est dit fortement stable s'il existe une boule ouverte centré en y0 (Uä(y0), 8 > 0) , une boule ouverte centré en x0 (Vå(x0), å > 0) et une fonction continue

x : Uä(y0) -? Vå(x0) tel que x(y) soit l'unique optimum local du problème (1.8) dans Vå(x0) pour tout y ? Uä(y0).

Théorème 1.3.1. [16] Soit y0 ? Rm. On suppose que les assertions (MFCQ) et (SSOC) sont satisfaites pour (1.8) en (x0, y0) avec x0 ? Øloc(y0). Alors l'optimum local x0 est fortement stable.

La preuve originale de ce théorème dans [16] utilise une théorie que nous n'avons pas abordé dans ce travail : la théorie du degré. Dans [11], ce résultat est démontré autrement en supposant qu'en plus, ( 1.8) satisfait les contraintes d'indépendance linéaire (LICQ) en (x0, y0).

Définition 1.3.8. On dit que (1.8) satisfait les contraintes d'indépendance linéaire (LICQ) en (x0, y0) si la famille de gradients :

n o [ n o

?xgi(x0, y0), i ? I(x0, y0) ?xhj(x0,y0),j = 1, ..., q est linairement independante.

I(x0, y0) := i : gi(x0, y0) = 0

Définition 1.3.9. Une fonction f : Rp -? Rq est dite localement Lipschitz-continue au point x0 ? Rp s'il existe une boule ouverte centré en x0, (Vå(x0), å > 0) et une constante K < 8 tel que

f(x) - f(x') . = Kkx - x0k pour tout x, x' ? Vå(x0)

F est dit localement Lipschitz-continue supérieurement en x0 si pour toute boule ouverte centrée en x0 ? Vå(x0), å > 0 et pour une certaine constante K < 8, on a l'égalité :

f(x) - f(x0) = Kkx - x'k pour tout x ? Vå(x0)

Genéralités sur la programmation mathématique à deux niveaux 9

Définition 1.3.10. Une fonction f : 1[8p -? 1[8q est appelé PC-function (piecewise continuously differentiable function) en x0 s'il existe une boule ouverte centrée en x0 (Vå(x0) , e > 0) et un nombre finie de fonctions continûment différentiables

fi :Vå(x0) -? 1[8q, i = 1, ..., t

tel que f est continue sur Vå(x0) et f(w) ? {f1(w), ..., ft(w)}. pour tout w ? Vå(x0).

Théorème 1.3.2. [17] Les PC-functions sont localement Lipschitz-continues avec pour constante de Lipschitz la plus grande constante de Lipschitz de la famille de fonction qui définit la PC-function.

La preuve de ce théorème nécessite le lemme suivant :

Lemme 1.3.1. [24]

Soit g : [0,1] -? 1[8p une fonction continue et soit la famille d'ensemble non vide fermé {Ai}qi=1 ? 1[8m telles que

[

g([0,1]) :=

x?[0,1]

{g(x)} ?

[ q i=1

Ai

alors, il existe une suite de réels {ti}r+1

i=0 avec t0 = 0, tr+1 = 1, ti < ti+1 ?i et la suite {ji}ri=0

i = 0, ...,r telle que

{g(ti), g(ti+1)} ? Aji i = 0, ..., r.

La preuve de ce lemme ce fait par induction sur le nombre r des différents ensembles Ai pour lesquels il existe des points t tels que g(t) ? Ai. On peut la trouver dans [11].

Preuve (du théorème) :

Soit f : 1[8p -? 1[8q une PC-function. Soit x0 ? 1[8p ; f est une PC-function en x0.

Par définition, il existe une boule ouverte Vå(x0) centrée en x0 de rayon e > 0 et un nombre finie de fonctions continûment différentiables

fi : Vå(x0) -? 1[8q, i = 1, ..., k

telles que f est continue sur Vå(x0 et

f(u) = {f1(u), ..., fk(u)} ?u ? Vå(x0)

soit x, y ? Vå(x0) Posons :

w(t) = f(x + t(y - x)), t ? [0, 1]

wi(t) := w(t) si fi (x + t(y - x)) = f(x + t(y - x))

x.

n o

Ai = x ? Vå(x0) : fi(x) = f(x) .

Puisque f est continue sur Vå(x0), Ai est fermé.

En effet, soit {xk}k ? Ai une suite de points telle que xk ?

k?+8

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

Genéralités sur la programmation mathématique à deux niveaux 10

Il suffit de montrer que x ? Ai. On a :

(xk ?

k?+8

x) =f(xk) ? f(x) (car f est continue sur Vå(x0)) k?+8

De même, puisque fi est continue sur Vå(x0), on a

(xk ?

k?+8

x) fi(xk) k?+8 fi(x)

Étant donné que xk ? Ai ?k ? N, on a fi(xk) = f(xk) ?k ? N d'où

f(xk) ? f(x) et f(xk) ? fi(x)

k?+8 k?+8

et par unicité de la limite, on a f(x) = fi(x)

d'où x ? Ai. et par suite, Ai est fermé.

D'après le lemme 1.3.1, il existe des points t0 = 0 < t1 < ... < tr < tr+1 = 1 tels que :

w(ti), w(ti+1) ? Ajz, i = 0, ..., r (i)

on a

f(y) - f(x) 1 1 = 1 lw(1) - w(0)Il=

r
i=0

w(ti+1) - w(ti)

=

r
i=0

wjz(ti+1) - wjz(ti)

(d'après (i))

r

= E

i=0 r

= E

i=0

wjz(ti+1) - wjz(ti)11

fjz (x + ti+1(y - x) - fjz(x + ti(y - x) 11

r

= E

i=0

Kjz x - ti+1(y - x) - ti(y - x) (car fjz est lip sur Vå(x0))

r

= E

i=0

Kji (ti+1 - ti)(y - x)

= max

1=j=k

Kjzky - xk

r i=0

|ti+1 - ti|

= Kky - xk

Où K = max

j

Kjz est la plus grande constante de lipschitz des fonctions fi, i = 1, ... , k

Donc f est localement lipschitzienne.
·

L'intérêt des PC-function est qu'elles possèdent un grand nombre de propriétés qui sont d'une grande utilité dans l'optimisation paramétrique. Nous allons maintenant définir la notion de gradient généralisé au sens de Clarke.

Définition 1.3.11. Soit f : Rp -? R une fonction localement Lipschitz- continue. Le gradient généralisé au sens de Clarke de f en x0 est défini par :

?f(x0) = convn lim k?8 ?f(xk) : k J

xk = xo, V f (xk) existeVk ?

00

où conv désigne l'enveloppe convexe.

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

Genéralités sur la programmation mathématique à deux niveaux 11

Théorème 1.3.3. [11] Soit f : 118p -> 118 une PC-function alors

n o

?f(x0) = conv ?fi(x0) : x0 E cl int supp(f, fi)

supp(f, fi) = {x : f(x) = fi(x)} ; cl int supp(f, fi) est l'adhérence de l'intérieur de l'ensemble supp(f, fi).

La preuve de ce théorème peut être trouvé dans [11]

Définition 1.3.12. Une fonction f : 118p -> 118 est dite différentiable en x0 dans la direction r E 118p si la quantité suivante existe et est finie :

f0(x0, r) := lim

t?o+

[f(x0 + tr) - f(x0)]

t

f0(x0, r) est la dérivé de f dans la direction r en x0.

Définition 1.3.13. Une fonction directionnellement différentiable f : 118p -> 118 est dite Bouligand-différentiable (B-différentiable) en x0 si la dérivée directionnelle d'ordre 1 de f en x0 ; i.e

lim

x?x0

= 0

f(x) - f(x0) - f0(x0, x - x0)

kx - x0k

. Une fonction f localement Lipschitz-continue, directionnellement différentiable est B-différentiable

[20] et f0(x0, .) est une sélection continue de fonction linéaires :

n o

f0(x0, r) E ?fi(x0)r : i E Io f(x0)

n o

Io f(x0) = i : x0 E supp(f, fi)

Définition 1.3.14. Une fonction f : 118p -> 118 est dite pseudodifférentiable en x0 si il existe une boule ouverte centrée en x0, (Vå(x0), å > 0) et une fonction semi-continue supérieurement Pf : Vå -> 2Rp avec Pf(y) non vide, convexe et compact pour tout y E Vå(x0) telles que

f(x) = f(x0) + g(x - x0) + o(x, x0, g) Vx E Vå(x0)

g E Pf(x) et lim o(xk,x0,gk)= 0 Pour toute suite {xk}k i , {gk}k 1 avec lim xk = 0, gk E

k?0 kxk-xok -- k--

Tf(xk)

.

Le théorème suivant est fondamental en ce sens qu'il permet de transformer (1.7)-(1.8) en un problème d'optimisation à un niveau.

Théorème 1.3.4. Considèrons le problème (1.8) en y = y0 et supposons que les assertions (MFCQ), (SSOC), et (CRCQ) sont satisfaites en un point stationnaire x0 E sp(y0). alors x0 est fortement stable et l'unique fonction x(y) avec {x(y)} = Øloc(y) n Vå(x0) est une PC-function.

La preuve de ce théorème nécessite des notions que nous n'avons pas jusqu'ici abordées ; elle peut être néanmoins trouvée dans [11].

Le corollaire suivant découle des propriétés des PC-functions.

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

Genéralités sur la programmation mathématique à deux niveaux 12

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

Corollaire

Sous les hypothèses du Théorème 1.3.4 on a que la solution optimale locale x(y) est

? Localement Lipschitz-continue de jacobien généralisé au sens de Clarke donné par :

{ }

Ox(y0) = conv Vxi(y0) : i E Io x(y0)

? Directionnellement différentiable avec

{ }

x'(y0, r) = Vxi(y0)r : i E Io x(y0)

? B-différentiable

? Pseudodifférentiable de différentielle

{ }

x(y0) = conv Vxi(y0) : i E Ix(y0)

Nous allons maintenant présenter quelques conditions sous lesquelles le problème (1.7)-(1.8) admet une solution locale ou globale. Nous ne traiterons dans le paragraphe suivant par soucis de clarté de notre exposé , que le cas où le problème du suiveur (1.8) admet une solution pour chaque paramètre y ; le cas de la non unicité qui constitue le coeur de notre travail sera traité au chapitre suivant.

1.4 Conditions d'optimalités

1.4.1 Cas des PBN linéaires

Définition 1.4.1. Un PBN est dit linéaire si toutes les fonctions contraintes et les fonctions objectifs du leader et du suiveur respectivement sont linéaires. La formulation générale d'un PBN linéaire est la suivante :

{ }

min < d1,x > + < d2,y >: A3y = b,y = 0,x E Ø(y) . (1.10)

y

avec Ø(y) = Argmin

x

{ }

< c,x >: A1x < a - A2y,x = 0 où x E IIBn,y E IIBm a E IIBp,b E IIBl et

les matrices A1, A2,A3 ainsi que le vecteur c sont de dimensions appropriées. Ø(y) est l'ensemble des solutions du problème du suiveur donné par :

{ }

min < c,x >: A1 < a - A2y,x = 0 (1.11)

x

Définition 1.4.2. Une fonction : IIBp -? 2Rq est dit polyédrique si son graphe

{ }

grph() := (x, y) E IIBp x IIBq : x E (y) s'écrit comme réunion finie d'ensemble convexes

polyédriques.

Un ensemble convexe polyédrique est une intersection finie de démi-espaces [15].

Théorème 1.4.1. La fonction

Ø(.) : IIBm -? 2Rn

y H Argmin

x

{ }

< c, x >: A1x < a - A2y, x = 0 est polyédrique.

Genéralités sur la programmation mathématique à deux niveaux 13

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

Corollaire

{ }

(x,y) : A1 + A2 < a, A3y = b, x > 0, y > 0

Si le problème (1.11) admet une solution unique pour chaque paramètre y, alors le problème (1.10) - (1.11) admet une solution optimale qui est le sommet du polyèdre que constitue l'ensemble

.

Si le problème du suiveur admet une solution unique pour chaque paramètre y alors, ces solutions définissent une application y i- " x(y) linéaire ; le PBN se reformule de la façon

suivante :

Preuve :

{ }

min < d1, x(y) > + < d2, y >: A3y = b, y > 0 y

ce qui est un problème de programmation linéaire simple dont on sait que la solution optimale est atteinte sur les sommets du polyèdre que constitue l'ensemble des contraintes.
·

1.4.2 Cas général

Définition 1.4.3. On suppose que card Ø(y) = 1 pour tout y E Y . On appelle fonction à valeur optimale la fonction

? : 1[8m - " 1[8n

{ }

y i- " ?(y) = Argmin f(x, y) : g(x, y) < 0 et h(x, y) = 0

x

On convient de noter ?(y) = x(y) pour tout y E Y .

Théorème 1.4.2. Si les assertion (C), et (MFCQ) sont satisfaites, alors la fonction ø(.) est semi-continue supérieurement et la fonction à valeur optimale ?(.) est continue.

Ce theorème est démontré dans [11]

Théorème 1.4.3. On considère le PBN (1.7) - (1.8) et on suppose que les assertions (C) et (MFCQ) sont satisfaites en tout point (x, y) E 1[8n x Y , avec x E M(y) ; on suppose en plus que R =6 0 et que card Ø(y) = 1 pour tout y E Y . Alors le PBN admet une solution optimale globale.

Preuve :

Puisque card Ø(y) = 1 pour tout y E Y le problème (1.7) - (1.8) est équivalent au problème :

{F(x, y) = F(x(y), y), y E Y}

min . (1.12)

y

où Vy E Y, x(y) = ?(y) est la solution du problème du suiveur. La fonction F est continue et d'après le lemme, ?(.) est continue. D'autre part Y est un fermé borné de 1[8m donc est compact ; d'où , (1.12) admet une solution optimale globale.

Genéralités sur la programmation mathématique à deux niveaux 14

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

D'autres conditions d'optimalités des PBN peuvent être trouvées dans [11].

Maintenant que nous sommes en possession de quelques résultats nous permettant d'affirmer sous certaines conditions l'existence de solutions globales ou locales du PBN (1.7) - (1.8), il se pose la question de savoir : comment déterminer de façon effective ces solutions ?

1.5 Algorithmes et méthodes de résolution des PBN

La littérature nous propose dans le cas de l'unicité de la solution du problème du suiveur, plusieurs algorithmes permettant le calcul de la (ou des) solution(s) de (1.7) - (1.8). Nous présentons dans ce paragraphe un algorithme inspiré de la méthode de descente connue en optimisation à un niveau et un algorithme dit du paquet.

1.5.1 Algorithme de descente

Si le problème du suiveur admet une solution unique pour tout paramètre y alors (1.7) - (1.8) est equivalent à (1.12).

Supposons que (1.8) est un problème d'optimisation paramétrique convexe et que les assertions (MFCQ), (CRCQ) et (SSOC) sont satisfaites en tout point (x, y) tel que

x E Ø(y), G(y) < 0. Alors, d'après le théorème 1.3.1 l'unique solution optimale de ce problème est fortement stable. Par le théorème 1.3.5 elle est une PC-function et par conséquent la dite solution est localement Lipschtz-continue . Il s'ensuit que la fonction objectif de (1.12) est di-rectionnellement différentiable.

Ce qui motive à envisager un algorithme de descente[11]. La méthode consiste en : étant donné un point réalisable x chercher une direction de descente d E Rn suivant laquelle F(.) décroît. Un nouveau point x + Ed (E > 0) est déterminé de façon à assurer une décroissance raisonnable de F(.) tout en demeurant réalisable pour le PBN. On construit ainsi une suite qui converge vers une solution stationnaire au sens de Clarke.

Définition 1.5.1. Soient f E C(Rp, R) et x E Rp.

1. On dit que d E Rp\{0} est une direction de descente en x s'il existe Eo > 0 tel que

f(x + Ed) < f(x) VE E [0, E0].

2. On dit que d E Rp\{0} est une direction de descente stricte en x s'il existe Eo > 0 tel que f(x + Ed) < f(x) VE E [0, Eo].

Définition 1.5.2. Soit f : Rp -> R une fonction et z E Rp. Si f est localement Lipschtz-continue, z est dit stationnaire au sens de Clarke si 0 E ?f(z) ; si f est pseudodifférentiable, le point z est dit pseudostationnaire si 0 E (z).

Genéralités sur la programmation mathématique à deux niveaux 15

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

Algorithme de descente

Entrée : Les paramètres du PBN (1.7) - (1.8). Sortie : Une solution stationnaire au sens de Clarke.

1. Choisir y0 satisfaisant G(y0) < 0;

2. Initialiser k := 1

3. Déterminer une direction rk, 1rk1 > 1 satisfaisant F(yk, xk) < sk VyGi(yk)rk < -Gi(yk) + sk, Z = 1, ..., l et sk < 0;

4. Choisir un pas de longueur tk tel que F(yk + tkrk) < F(yk) + Etksk, G(yk + tkrk) < 0

5. Initialiser xk+1 := xk + tkrk , déterminer xk E ø(yk) ; incrementer k := k + 1;

6. Si un critère d'arrêt est satisfait, arrêter ; sinon aller à l'étape 2.

On se donne en général un critère d'arrêt de la forme xk+1 - xk ~< E. De plus, puisque la convergence n'est pas toujours assuré, une règle de base est de fixer le nombre d'itérations maximale Kmax.

Sous certaines conditions de régularité, on montre [11] que chaque point d'accumulation de la suite (xk, yk) obtenue au moyen de l'algorithme est un point stationnaire de (1.7) - (1.8) au sens de Clarke.

1.5.2 L'algorithme du paquet

On considère le problème (1.8) en y = y0 et on suppose que les assertions (MFCQ), (SSOC) et (CRCQ) sont satisfaites en x0 E SP(y0) . Alors (1.12) est un problème de minimisation d'une fonction Lipschtz-continue.

Nous présentons l'algorithme dans le cas où la contrainte G(y) < 0 est absente.

Soit v(y) le gradient généralisé au sens de Clarke de F ; la méthode du paquet s'inspire de la méthode dite de découpage de plan (cutting plane method) pour la minimisation de fonctions convexes.

Soit {yi}ki=1 ; {zi}ki=1 des points d'essaie et des itérées déjà évalués. La méthode de découpage du plan consiste à minimiser la fonction :

mia k nv(yi)d + v(yi)(zk - yi) + F(yi)o (1.13)

La direction d qui minimise ce modèle est une direction de descente si y n'est pas un point stationnaire. Mais il s'avère que l'utilisation du modèle (1.13) pour trouver une direction de descente à une vitesse de convergence très lente; c'est pourquoi à (1.13) on ajoute le terme de

régularisation quadratique (2tkjdT d pour obtenir le modèle

e1<rm

1

nv(yi)d - áik > + F(zk) + (2t )dTd (1.14)

-- = J k

Avec áik = F(zk) - v(yi)(zk - yi) - F(yi)

La solution optimale d de (1.14) est une direction de descente pour F(y) en y = zk sous réserve que le modèle donne une approximation suffisamment bonne de F(y) dans un voisinage du point non stationnaire zk. Une nouvelle itérée est zk+1 = zk + d est calculée de manière à faire décroître de façon considérable la fonction modèle ; i.e F(zk + d) < F(zk).

Genéralités sur la programmation mathématique à deux niveaux 16

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji c~UYI 2007-2008

Si dans le voisinage de zk la direction de descente n'est pas assez bonne, alors aucune nouvelle itérée n'est calculée mais les nouveaux points d'essaie yk+1 et zk seront utilisés pour rechercher une nouvelle direction de descente dans (1.14) après ajout d'un gradient généralisé ?..F(yk+1).

Algorithme du paquet

Entrée : Suite d'itérée {zi}k i=1 et des points d'essaie {yi}k i=1, le paramètre de régularisation tk

Sortie : Une meilleure itérée zk+1 ou un modèle amélioré.

1. Calculer une solution optimale dk de (1.14); initialiser : yk+1 := zk + dk

2. Si ..F(yk+1) est suffisamment petit comparé à ..F(zk) alors :

a) Agrandir tk et retourner à 1 ou

b) Poser zk = yk+1 . Si ..F(yk+1) n'est pas suffisamment petit comparé à ..F(zk) alors

c) réduire tk et retourner à 1 ou

d) poser zk+1 = zk calculer v(yk+1) E ?..F(yk+1)

Il existent plusieurs critères pour le choix de tk à l'étape 2; ils peuvent être trouvés dans [11].

Pour terminer ce chapitre , nous allons présenter quelques unes des nombreuses applications de la PBN.

1.6 Les applications de la PBN

1.6.1 Production agricole , production de biocarburant

Nous présentons ici un modèle qui nous a été inspiré par la lecture de [18] et dont la résolution permettrait non seulement d'augmenter la production agricole du Cameroun (jugulant ainsi la crise alimentaire dont est sujet le pays), mais aussi de réduire la pollution de l'air par les gaz d'échappement d'automobiles et la pollution du sol et des eaux par les engrais chimiques.

Gêné dans sa politique de développement par la faiblesse de la production agricole, face à la nécessité de réduire la pollution associé à l'émission des gaz d'échappement des automobiles et la pollution des sols et des eaux par les engrais chimiques, le gouvernement Camerounais décide d'explorer les possibilités afin d'encourager l'industrie pétrochimique à utiliser les produits agricoles pour produire du biocarburant. Différents produits agricoles tels que le tournesol, le soja, les graines de coton, ou l'arachide peuvent être utilisés à cette fin [18]. Mais il s'avère que le coût de production de biocarburant est plus élevé que le coût de production de carburant en utilisant les hydrocarbures. Dans le but d'encourager les industriels à utiliser les produits agricoles, le gouvernement leurs accordent une réduction de taxe suffisante. En contrepartie, l'industrie s'engage à être neutre (i .e à ne pas spéculer sur les prix) et à produire du biocarburant.

Le secteur agricole est représenté par un ensemble d'exploitations agricoles; nous décrivons le modèle pour une seule exploitation agricole; il pourra être facilement généralisé dans le cas de plusieurs exploitations.

L'exploitant peut librement laisser une partie de sa plantation en jachère (au quel cas plus tard cette partie pourra être cultivé sans usage d'engrais chimiques) ou l'utiliser à la production de plantes pour biocarburant. Dans les deux cas, il engrange des revenues sous forme de

Genéralités sur la programmation mathématique à deux niveaux 17

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

prime du gouvernement pour avoir laissé une partie de ses terres au repos ou sous forme de subventions de l'État plus les bénéfices faits après la vente de sa production à l'industrie.

Pour maximiser son profit, le fermier décide par lui même quelle surface de terre il va laisser en jachère, quelle surface il va utiliser pour la culture de plantes destinées à la production de biocarburant et quelle surface utiliser pour la production des autres produits.

Soit xj E IR, xn E 1[8p, xd E 1[8q respectivement la surface de terre laissée en jachère, utilisée pour la production de produits pour biocarburant et utilisée pour la production des autres denrées. On considère les vecteurs ep = (1, ....,1)T E 1[8p ; eq = (1, ....,1)T E 1[8q. (Les entiers p et q representant le nombre de produits agricoles utilisés pour la productions de biocarburants et le nombre de produits destinés à la consommation. Chaque composante des vecteurs xn et xd representant la surface utilisée pour la culture d'un produit fixé.)

Le problème du fermier consiste à maximiser l'argent qu'il gagne grace à son exploitation :

< pd + u - cd,xd > + < pn + s - cn,xn > + ãxj --* max

(1.15)

xj,xd,xn

 

< ep, xn > + < eq, xd > +xj C t

(1.16)

< ep, xn > + xj C ó1t

(1.17)

< ep, xn > + < eq, xd > C ó2t

(1.18)

xd C t', xn > 0, xd > 0 , xj > 0

(1.19)

Où :

D pn,pd désignent respectivement le vecteur argent gagné par unité de surface cultivé de produits pour biocarburant et le vecteur bénéfice par unité de surface cultivés pour les autres produits.

D s est le vecteur subventions accordées par l'État pour les produits pour biocarburant ; cn le coût de la production de ces plantes.

D ã est la prime par unité de surface de terre laissée en jachère.

D u est la subvention accordée par unité de surface de terre utilisée à la production d'autres produits ; cd leurs coût de production.

D t est la surface de terre arable que dispose le fermier.

D ó1 et ó2 sont des proportions fixé par le gouvernement.

D (1.15) est la fonction objectif du fermier.

D (1.16) est la contrainte sur la surface de terre arable disponible dans l'exploitation agricole. En effet, on ne peut utiliser que ce que l'on possède.

D (1.17) les restrictions de l'État sur la proportion de terre laissée en jachère ou utilisée à la production de plantes pour biocarburant. Car il faut encourager la production des produits agricole destinées à la consommation.

D (1.18) les considérations agronomique visant à limiter la surface de terre cultivé (pour éviter

Genéralités sur la programmation mathématique à deux niveaux 18

la pollution du sol).

D La première inégalité de (1.19) représente la contrainte sur certaines denrées qu'on ne veut pas produire au delà de certaines quantités.

Le gouvernement joue le rôle de leader dans ce problème. Son objectif est de minimiser le total des primes et des subventions accordées aux exploitants. Soit kr le vecteur volume de biocarburant r, r = 1, ..., w produit par unité de surface ; Soit Tr la réduction de taxe (proportionnelle au volume de biocarburant produit) accordée à l'industrie pour le biocarburant r.

Alors le gouvernement doit résoudre le problème :

Xw r=1

Tr < kr, xn > + ãxj + < ueq, xd > + < sep, xn >? « min

ô,ã,u,s

» (1.20)

 

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

< ep, xn > < t' (1.21)

Xw < kr, xn > < H (1.22)

r=1

pn = pn(T) > 0, T > 0, ã > 0, u > 0 (1.23)

xn, xj, xc résolvent(1.15) - (1.19) (1.24)

D t' et H sont des données fixés par le gouvernement

D (1.20) est la fonction objectif du gouvernement

D (1.21) est la contrainte sur la surface de terre utilisé pour la production de biocarburant.

D (1.22) la contrainte sur la quantité de biocarburant produit.

D (1.23) traduit la neutralité de l'industrie, le prix du biocarburant est fonction des réductions de taxes T et est fixé une fois pour toute.

Nous obtenons ainsi un PBN. Ce modèle peut être élargie à un problème d'optimisation à trois niveaux en y incluant le problème de l'industrie pétrochimique.

1.6.2 Le problème principal-agent [10]

Ceci est un cas particulier des problèmes de la théorie du principal - agent.

Un décideur appelé le principal engage un autre l'agent pour le représenter dans l'une de ses structures. Les décideurs signent un contrat ou il est consigné que le principal délègue (une partie de) son autorité à l'agent ; en lui donnant ainsi la liberté de choisir ses actions (de façon limitée ou non) en fonction de ses propres objectifs seulement. Ainsi, uniquement dans l'espoir d'atteindre ses objectifs, l'agent cherche à maximiser l'impact de son action a E A en résolvant le problème :

Z

max

a?A

X

G(s(x), ag(x|a)dx .

Genéralités sur la programmation mathématique à deux niveaux 19

Où la fonction d'utilité G : 118 x A -? 118 permet de mesurer la valeur de la rémunération s(x) à recevoir du principal représentant la contrepartie des efforts consentis pour son action a et X est l'ensemble des résultats possibles des actions a E A de l'agent. La densité désignée par la fonction g(x|a) est utilisée pour décrire les probabilités de réalisation des résultats x E X si l'agent mène une action a E A. La remuneration s(x) est payée à l'agent si le résultat x est obtenu. La fonction s : X -? 118 fait aussi partie du contrat signé par les deux parties. Du point de vue du principal, la fonction s représente aussi un ensemble de primes servant à motiver l'agent à agir afin qu'il puissent atteindre ses objectifs. Ainsi, le principal doit choisir cette fonction de façon à approcher son but au maximum. En supposant que le principal utilise la fonction d'utilité H : 118 -? 118 pour mesurer son profit x - s(x) provenant des activités de l'agent et qu'il utilise la même densité g pour évaluer les probabilités requises pour la réalisation du résultat x, il aura besoin pour la réalisation de ses objectifs de résoudre le problème :

msESax J

X

H(x - s(x))g(x|a')dx).

où S désigne l'ensemble de tous les systèmes de remuneration possible et a' une solution du problème de l'agent pour une fonction fixé s(.). Le modèle obtenu ne saurait être complet sans la condition

J G(s(x), a')g(x|a')dx > c

X

,où a' résoud le problème de l'agent. Si cette inégalité n'est pas satisfaite, l'agent n'acceptera pas de signer le contrat avec le principal. Cette inégalité représente donc une contrainte que doit respecter le leader. Ce problème peut être résumé par :

max JsES

X

H(x - s(x))g(x|a')dx).

Jsujet :

X

G(s(x), a')g(x|a')dx > c

a' E Argmin

aEA

J

X

G(s(x), a)g(x|a)dx).

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

D'autres applications de la PBN peuvent être trouvés dans [11] ou [10].

Conclusion

Nous avons dans ce chapitre donné une présentation générale de la programmation mathématique à deux niveaux et présenté quelques algorithmes de résolution dans le cas de l'unicité de la solution du suiveur. Mais il se trouve que dans la plupart des cas, les problèmes modélisés sous formes de PBN sont tels que le problème du second plan admet plus d'une solution ; ce qui complique considérablement le problème. Dans le chapitre suivant, nous allons présenter les différentes techniques développées pour attaquer les PBN dans ce cas ; ce qui nous permettra par la même occasion de définir la notion de problèmes d'optimisation mal posés.

CHAPITRE DEUX

Non unicité de la solution du problème du

suiveur : les différentes techniques

d'approches.

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji c~UYI 2007-2008

Dans toute la suite, lorsque nous dirons "cas de la non unicité", ce sera pour dire "cas de la non unicité de la solution du problème du suiveur".

Introduction

Au chapitre un, nous avons présenté quelques résultats d'optimalité et quelques algorithmes de résolution des PBN dans le cas de l'unicité de la solution du suiveur. Il se trouve cependant que dans la plupart des applications, le problème du suiveur n'admet pas une solution unique; d'où la nécessité d'explorer de nouvelles techniques afin de résoudre les PBN dans ce cas plus général.

Les PBN dans le cas de la non unicité font partie d'une classe plus large de problèmes de programmation mathématique : les problèmes de programmation mathématique mal-posés.

Définition 2.0.1. Soit E un espace de Banach reexif, ó une topologie sur E, K un convexe fermé non vide de E et h : K -* R U {+oo}

Le problème de programmation mathématique :

inf

v?K

h(v) (2.1)

est dit bien-posé au sens de TIKHONOV (resp bien-posé au sens général) suivant la topologie ó, s'il existe une solution unique u0 à (2.1) et toute suite minimisante 1 de (2.1) ó-converge vers u0 (resp (2.1) a au plus une solution et toute suite minimisante admet une sous suite qui ó-converge vers la solution unique.)

Un problème de programmation mathématique est dit mal-posé s'il n'est pas bien-posé.

Commençons par présenter la position du problème dans la resolution des PBN dans le cas de la non unicité.

1Une suite (un)n ? K est appelé suite minimisante si uim

n?+8

h(un) = inf h(v).

v?K

Par définition de l'infimum, une telle suite existe toujours.

Non unicité de la solution du problème du suiveur : les différentes techniques d'approches. 21

2.1 Position du problème

Considérons une nouvelle fois le PBN :

«min

y

{ }

» F(x, y) : G(y) < 0, x E Ø(y) (2.2)

Ø(y) = Argmin

x

{ }

f(x, y) : g(x, y) < 0, h(x, y) = 0 (2.3)

Pour y fixé, Ø(y) est l'ensemble des solutions du problème.

{ }

min f(x, y) : g(x, y) < 0, h(x, y) = 0 (2.4)

x

F : Rn X Rm -? R, f : Rn X Rm -? R, G : Rn X Rm -? Rp,

g : Rn X Rm -? Rq sont des fonctions suffisamment2 régulières.

{ }

Posons Y = y E Rm : G(y) < 0 et supposons que Y est fermé.

Les guillemets dans (2.2) expriment l'incertitude de la définition de (2.2) dans le cas de la non unicité; car lorsque Ø(y) n'est pas réduit à un singleton pour tout y E Rm, le leader se trouve face à un dilemme.

En effet, pour prendre sa décision (qu'il souhaite optimale), le leader doit savoir qu'elle sera la décision du suiveur. Dans le cas où il existe plusieurs décisions possibles pour le suiveur, le leader se trouve dans l'embarras (car il ne sait sur laquelle portera le choix de celui-ci).

La question qu'on se pose ici est celle de savoir : comment aborder le PBN (2.2)-(2.3) dans le cas de la non unicité de la solution de (2.4) ?

L'exemple suivant illustre les difficultés qu'on peut rencontrer dans le cas de la non unicité.

Exemple 2.1.1. On considère le PBN :

«min

y

{ }

» x2 + y2 : x E Ø(y), -1 < y < 1

Ø(y) = Argmin

x

On a :

{-xy : 0 < x < 1}

Ø(y) :=

{

{0} si y < 0
{1} si y > 0
[0,1] si y = 0

Ainsi,

F(x(y), y) =

{

y2 si y < 0

1 + y2 si y > 0 E [0,1] si y = 0

. (2.5)

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

Le tracé de F est le suivant :

2Suivant les résultats que nous énoncerons, nous exigerons que ces fonctions satisfassent des propriétés de régularité parfois différentes

Non unicité de la solution du problème du suiveur : les différentes techniques d'approches. 22

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji c~UYI 2007-2008

FIG. 2.1 Sur les difficultés rencontrées dans le cas de la non unicité

pour y = 0; on a W(y) = [0, 1]. Donc pour ce paramètre, W(y) contient une infinité d'éléments. On se trouve donc ici dans le cas de la non unicité.

d'après (2.5), l'expression de la fonction objectif n'est connue que si le suiveur annonce clairement son choix; la solvabilité du problème du leader dépend de ce choix. En effet, si le suiveur fait le choix x(0) = 0 E W(0) alors le problème du leader est solvable; la solution optimale du PBN est (0, 0) et la valeur de la fonction objectif du leader est 0.

{ F (x(y), y) = y2 : -1 y < 0 }

min

y

le PBN n'admet pas de solution dans ce cas car F(x(y), y) = y2 est dérivable et on a

Si le choix du suiveur se porte sur x(y) = 0 E W(y), avec y < 0 alors le problème du leader devient :

VF(x(y),y) = (0,2y)

VF(x(y),y) = 0 =' y = 0

Or y = 0 ne satisfait pas à la contrainte -1 y < 0 donc le problème du leader n'admet pas de point critique et par conséquent n'admet pas de solution.

Jusqu'ici, trois approches ont été développées dans la littérature pour résoudre les PBN dans le cas de la non unicité : l'approche optimiste, l'approche péssimiste et l'approche par régularisation sur laquelle porte notre travail.

2.2 L'approche optimiste

Cet approche est envisageable dans le cas où le leader à la possibilité de persuader le suiveur de prendre une décision qui lui sera favorable (favorable est compris ici au sens ou la dite décision permet au leader d'atteindre son objectif).

la formulation optimistique de (2.2)-(2.3) est la suivante :

min

y

{ }

?o(y) : y E Y (2.6)

Non unicité de la solution du problème du suiveur : les différentes techniques d'approches. 23

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

{ }

?o(y) = min F(x, y) : x E W(y) (2.7)

x

Définition 2.2.1. Un point (x*, y*) E 1[8nx1[8m est appelé solution optimiste locale de (2.2)-(2.3) si y* E Y, x* E W(y*) avec

F(x*, y*) < F(x, y*) Vx E W(y*)

et il existe Uä(y*), 8 > 0 boule ouverte centrée en y* de rayon 8 telle que

?o(y*) < ?o(y) Vy E Uä(y*) n Y

(x*, y*) est appelé solution optimiste globale si 8 = o0

Énonçons maintenant un théorème d'existence de solution optimiste :

Théorème 2.2.1. Si les assertions (C) et (MFCQ) sont satisfaites en tout points (x, y) E 1[8n x Y avec x E M(y), alors

Le problème (2.2)-(2.3) admet une solution optimistique globale.

Preuve :

Considérons le problème

{ }

min F(x, y) : y E Y, x E W(y) (2.8)

x,y

Les solutions globales de (2.8) et le problème optimiste (2.4)-(2.6)-(2.7) coincident.

En effet si (x*, y*) vérifie (2.8) alors (x*, y*) vérifie (2.4)-(2.6)-(2.7).

réciproquement, si (x*, y*) vérifie (2.4)-(2.6)-(2.7) alors par définition de solution optimiste globale, on a :

F(x*, y*) < F(x, y*) Vx E W(y)

et

?o(y*) < ?o(y) Vy E Y

{ }

F (x*, y*) < F (x, y*) Vx E W(y*) = F (x*, y*) < min F (x, y*) : x E W(y*)

x

Or

{ } { }

?o(y*) < ?o(y)Vy E Y ? min F(x, y*) : x E W(y*) < min F(x, y) : y E Y, x E W(y)

x x

{ }

Ce qui implique que min F(x, y*) : x E W(y*) < F(x, y) Vy E Y, Vx E W(y)

x

d'où F(x*, y*) < F(x, y) Vy E Y, Vx E W(y) autrement dit,

(x*, y*) E Argmin

x,y

{ }

F(x,y) : y E Y,x E W(y)

donc (x*, y*) est optimum global de (2.8).

D'autre part, puisque les assertions (C) et (MFCQ) sont satisfaites, la fonction à valeur optimale

(voir définition 1.4.4) est continue ; ce qui permet de montrer que l'ensemble

{ }

(x, y) : x E W(y) est fermé. D'autre part, étant donné que Y est fermé, l'assertion (C) nous

Non unicité de la solution du problème du suiveur : les différentes techniques d'approches. 24

.

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

garanti que l'intersection de {(x, y) : x E Ø(y)} avec Rn x Y est compact (comme fermé dans un compact).

D'où puisque F est continue sur Rn x Rm, le problème (2.8) admet un optimum global. En vertu de l'équivalence que nous avons établie entre (2.8) et le problème optimiste, on conclut que (2.4)-(2.6)-(2.7) admet une solution optimistique globale.
·

Exemple 2.2.1. Reconsidérons le PBN de l'exemple 2.1.1 :

« min

y

n o

» x2 + y2 : x E Ø(y), -1 < y < 1

Ø(y) = Argmin

x

n o

- xy : 0 < x < 1

Comme trouvé précédemment, on a ?0(y) = minnx2 + y2 : x E Ø(y)=(1 + y2 si y > 0

x

siy < 0

y2

Le problème optimiste s'écrit donc :

n o

min ?0(y) : -1 < y < 1

y

et la solution optimiste globale est (x0, y0) = (0, 0).

L'un des défauts de l'approche optimiste est qu'elle n'est pas envisageable dans la plupart des cas concrets. En effet, en économie par exemple, dans le but de faire régner une concurrence loyale entre des entreprises concurrentes, la législation interdit le plus souvent une quelconque coopération entre les dites entreprises et leurs éventuels clients.

Aussi, dans grand nombre de problèmes modélisés en PBN, le suiveur ne constitue que rarement une personne physique avec qui le leader pourrait envisager une coopération. En plus, même si la coopération est permise, le leader n'a pas de garanti sur le fait que le suiveur respectera ses engagements.

Ceci constitue quelques limites de l'approche optimiste.

2.3 L

'approche pessimiste

Lorsqu'il est impossible au leader d'influencer les choix du suiveur, une décision optimale du leader, étant donné qu'il n'a aucun contrôle sur le problème, est celle qui limite au mieux les dégâts lorsque le suiveur prend des décisions qui lui sont nuisibles.

Mathématiquement, la formulation pessimiste de (2.2)-(2.3) s'écrit :

n o

min ?p(y) : y E Y (2.9)

y

?p(y) = max

x

n o

F(x, y) : x E Ø(y) (2.10)

Définition 2.3.1. Un point (x*, y*) E Rn x Rm est appelé solution pessimiste locale de (2.2)(2.3) si y* E Y, x* E Ø(y*) avec

F(x, y*) < F(x*, y*) V x E Ø(y*)

et il existe Uä(y*), 8 > 0 boule ouverte centrée en y* de rayon 8 telle que

?p(y*) < ?p(y) Vy E Uä(y*) n Y

(x*, y*) est appelée solution pessimiste globale si 8 = +oo.

Le problème 2.4)-(2.9)-(2.10) est appelée formulation péssimistique de (2.2)-(2.3)).

Non unicité de la solution du problème du suiveur : les différentes techniques d'approches. 25

Énonçons un théorème d'existence de solution pessimiste.

Théorème 2.3.1. Considérons le PBN 2.4)-(2.9)-(2.10). Supposons que Ø(.) est semi-continue inférieurement (Sci) en tout point de Y et que l'assertion (C) est satisfaite. Supposons que (2.9) admet une solution admissible, alors 2.4)-(2.9)-(2.10) admet une solution optimale globale.

Preuve :

{ }

Posons K = (x,y) ? Rn × Rm : g(x, y) = 0 et h(x, y) = 0 . L'assertion (C) nous garanti que K est compact.

Soit P2 : Rn × Rm -? Rm

(x, y) 7-? y la deuxième projection.

P2(K) n Y est l'ensemble des solutions admissible de (2.9). P2 étant continue, P2(K) est compact ; d'où P2(K) n Y est compact comme intersection d'un fermé et d'un compact.

Montrons que : cpp est semi-continue inférieurement (Sci).

Soit y0 ? Rm, montrons que cpp est Sci en y0.

soit (yk)k?N une suite de Rm telle que (yk)k -? y0

k?+8

Il suffit de montrer que lim inf cpp(yt) = cpp(y0)

k?+8

i.e

sup

k?N

inf cpp(yt) = cpp(y0)

t=k

On a F(x, yt) = cpp(yt) ?x ? Ø(yt) d'où

inf

t=k

F(x, yt) = inf cpp(yt) ?x ? Ø(yt) ?k ? N

t=k

et

F(x, yt) = sup

k?N

inf

t=k

inf

cpp(yt) ?x ? Ø(yt)

t=k

sup

k?N

i.e

lim inf

t?+8

F(x, yt) = lim inf cpp(yt)

t?+8

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

Or F est continue sur Rn × Rm ;

d'où F(x,.) est continue sur Rm ?x ? Rn fixé ; il vient alors que :

lim inf

t?+8

F(x, yt) = lim

t?+8

F(x, yt) = F(x, y0) ?x ? Rn

Donc

liminf cpp(yt) = F(x, y0) ?x ? Ø(y0) ? Rn t?+8

d'où

lim inf cpp(yt) = max

x {F(x, y0) : x ? Ø(y0)}

t?+8

Non unicité de la solution du problème du suiveur : les différentes techniques d'approches. 26

i.e

lim inf ?p(yt) > ?p(y0)

t?+8

Donc ?p est Sci.

Comme l'ensemble des solution admissibles de (2.9) P2(K) n Y est compact, le problème 2.4)-(2.9)-(2.10) admet un minimum global.
·

Exemple 2.3.1. On considère une nouvelle fois le PBN de l'exemple 2.1.1. La formulation pessimiste de ce problème est :

n o

min ?p(y) : -1 < y < 1

y

(

2 1+ y2 si y > 0

?p(y) = max{x + y2 : x E Ø(y) y

}= si <0

y

avec

Ø(y) =

{

{0} si y < 0
{1} si y > 0
[0,1] si y = 0

.

Ø(y) =

{

[-1,1] si y = 0

{-y - 1} si y > 0 {-y + 1} si y < 0

(x0, y0) = (1, 0) est une solution pessimiste locale et la valeur péssimistique de la fonction objectif est 1.

Mais la résolution des PBN en utilisant l'approche pessimiste présente également des défauts :

En effet les solutions pessimiste sont en général instables, dû [11] au manque possible de semi-continuité de la fonction Ø(.) qui à chaque paramètre du problème du leader associe l'ensemble des solutions du problème du suiveur correspondant.

Ce défaut conduit à deux conséquences majeures :

r Les solutions péssimiste ne sont pas en général de bonnes approximations des solutions réalisables en pratique.

r Une petite perturbation sur les données du problème peut conduire à un changement drastique de la solution du suiveur. Ainsi, si le leader ne résolvait pas son problème réel mais une approximation (ce qui est le cas la plupart du temps), ses solutions peuvent être éloignées des solutions réelles.

Les exemples 2.3.2 et 2.3.3 suivants illustrent bien ces défauts :

Exemple 2.3.2. Considérons le PBN

min

y

{(x - y)2 + y2 : ?20 < y < 20, x E Ø(y)}

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

Non unicité de la solution du problème du suiveur : les différentes techniques d'approches. 27

Pour y = 0; on a Ø(y) = [-1,1] et le problème du suiveur admet pour ce paramètre une infinité de solutions.

Posons F(x, y) = (x - y)2 + y2 ; en introduisant dans F la solution du suiveur , on obtient :

F(x(y), y) =

{

(-2y - 1)2 + y2 si y > 0 (-2y + 1)2 + y2 si y < 0

E [-1,1] si y = 0

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

FIG. 2.2 Fonction objectif du leader la formulation optimiste du problème est la suivante :

min

y

n o

?0(y) : -20 < y < 20

n o

?0(y) = min (x - y)2 + y2 : x E Ø(y)

x

Il est clair que la solution optimiste du problème est (x0, y0) = (0, 0). Le graphe de F nous permet d'ailleurs de confirmer ce résultat.

Une fois de plus, d'après le graphe de F, quelque soit le signe de y, y =6 0 , la fonction F

atteint son infimum lorsque y --* 0 et on a : lim

y?0

F(x(y), y) = 1.

Ainsi, la solution réalisable en pratique du problème est atteinte lorsque y --* 0 et la valeur de la fonction objectif est 1; ce qui est bien éloigné de la valeur optimistique qui est 0 .

Exemple 2.3.3. Considérons le PBN

n o

min - x + y2 : -0.5 < y < 0.5, x E Ø(y)

y

Ø(y) = Argmin

x

{xy2 : -1 < x < 1}

Non unicité de la solution du problème du suiveur : les différentes techniques d'approches. 28

On a alors

(

{-1} si y =6 0

W(y) =

[-1,1] si y = 0

Pour y = 0, le problème du suiveur admet une infinité de solutions; on est donc dans le cas de la non unicité. La formulation optimiste du problème est :

min

y

{?0(y) : -0.5 < y < 0.5}

n o

?0(y) = min (-x + y2 : x E W(y)

x

L'unique solution optimiste est (x0, y0) = (0, 1) ; et la valeur optimiste de la fonction objectif du leader est -1

Supposons maintenant que le problème du suiveur soit perturbé de telle sorte que l'ensemble des solutions du problème du suiveur se réécrivent :

Wá(y) = Argmin

x

á > 0 et suffisamment petit. Posons fá(x, y) = xy2 + áx2 On a Vxfá(x, y) = y2 + 2áx

{xy2 + áx2 : -1 < x < 1}

2

Vxfá(x,y) = 0 = x = -2

On a

V2 xxfá(x,y) = 2á > 0

d'où pour y admissible, x = -y2

est solution du problème du suiveur. Ainsi,

(

{-1} si y2 > 2á

- y2

si y2 <

Wá(y) =

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

En insérant cette solution dans la fonction objectif du leader, on obtient :

(

F(xá(y), y) = y2 + 1 si y2 > 2á

y2 - y2

si y2 < 2á

Le problème devient donc

n F (xá(y), y) : -0.5 < y < 0 o

min

y

L'unique solution de ce problème est yá = 0 Vá > 0

Lorsque á --* 0 , la solution du problème perturbé est (0, 0) et la valeur de la fonction objectif tend vers 0; valeur qui est éloigné de la valeur optimiste-1.

Ainsi, la solution optimiste est instable.

Non unicité de la solution du problème du suiveur : les différentes techniques d'approches. 29

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji c~UYI 2007-2008

L'étude tant du point de vue théorique que numérique d'un problème d'optimisation instable est très difficile. Néanmoins une possibilité d'éviter ce problème d'instabilité existe. Elle consiste à prolonger (une sorte de prolongement par continuité) la fonction W(.) de façon à obtenir une nouvelle fonction W' : Rm -? 2R7 continue. D'après les résultats énoncés dans [23], le nouveau problème "réagira" de façon régulière aux perturbations "régulières" (i.e pour de petites perturbations, la solution du problème perturbé ne sera pas éloignée de la solution du problème non perturbé) ; et ainsi, le problème d'instabilité sera résolu.

L'approche pessimiste de résolution des PBN dans le cas de la non unicité à été intensive-
ment étudié par P.Loridan, J.Morgan et leurs Co-auteurs. Dans plusieurs articles, ils étudient le PBN (2.2)-(2.3) dans un cas plus général, en ce sens que les fonctions f, g, h, F, et G qui définissent le problème sont perturbées et la convergence vers un problème non perturbé est étudiée. (voir par exemple les articles [19, 20, 21]). Dans [22], le concept de å-optimalité est utilisé pour régulariser le problème pessimiste.

Malgré tous ces résultats, certains problèmes demeurent :

? l'approche optimiste est très peu souvent envisageable;

? les solutions péssimistes, même lorsqu'elles sont stables sont le plus souvent éloignées des solutions réelles;

? comment discriminer entre l'approche péssimiste et optimiste? Autrement dit dans une situation donnée, comment savoir quelle approche (optimiste ou péssimiste) est la plus adéquate?

Afin de contourner ces difficultés, il serait préférable pour le leader, non pas de calculer la solution "réelle" optimiste ou péssimiste de son PBN mal-posé qui dans ce cas cours de grands risque d'être instable (donc inutilisable), mais d'en calculer une approximation dans un voisinage des solutions admissibles qui aurait la propriété d'être fortement stable. L'approche par régularisation permet de calculer de telles solutions.

Dans le chapitre suivant, après avoir présenté les différentes techniques de régularisation développées jusqu'ici dans la littérature, nous exposons un algorithme de résolution des PBN dans le cas de la non unicité développé par S.Dempe en 2000 basé sur l'approche par régularisation. Nous-nous pencherons enfin sur l'étude de la convergence de cet algorithme.

CHAPITRE TRIS

Approche de résolution par régularisation

des PBN dans le cas de la non unicité.

(y) = Argmin

x

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji c~UYI 2007-2008

Soit le PBN :

\ min

y

{ }

» F (x, y) : y ? Y, x ? (y) (3.1)

{ }

f(x, y) : g(x, y) = 0, h(x, y) = 0 (3.2)

Y est un fermé deRm

F : Rn × Rm -? R, f : Rn × Rm -? R
g : Rn
× Rm -? Rq, h : Rn × Rm -? Rk

Nous voulons résoudre (3.1 - 3.2) dans le cas où le problème du suiveur

{ }

min f(x, y) : g(x, y) = 0, h(x, y) = 0 (3.3)

x

n'admet pas une solution unique.

Au chapitre deux, nous avons vu qu'on peut pour ce faire utiliser l'approche optimiste ou l'approche pessimiste; mais il nous a été donné de constater que ces deux approches présentent de graves défauts dont certains (par exemple le problème d'instabilité de la solution) peuvent être contournés tandis que d'autres, (par exemple le problème d'éloignement de la solution optimiste ou péssimiste de la solution optimale du PBN) n'ont pas encore pu être résolus.

Pour éviter ces défauts, une autre approche a été développée dans la littérature et fait actuellement l'objet de nombreuses recherches : c'est l'approche par régularisation. A ce jour on distingue deux techniques de régularisation : la régularisation de Tykhonov et la régularisation par l'élément de plus petite norme.

3.1 La régularisation de Tykhonov

Cette technique consiste à introduire un paramètre (dit de régularisation) dans le problème du suiveur de façon à ce que le nouveau problème (le problème du suiveur régularisé) admette pour chaque paramètre de régularisation une solution unique fortement stable. Cette solution unique converge vers une solution du problème du suiveur original lorsque le paramètre de régularisation tend vers zéro (sous l'hypothèse que les fonctions qui définissent le problème

Approche de résolution par régularisation des PBN dans le cas de la non unicité. 31

satisfont certaines conditions de régularité).

Par cette technique, la solution obtenue est une approximation de la solution du PBN original, mais qui a l'avantage d'être stable et qui parfois est même meilleure que la solution optimiste ou péssimiste.

Lemme 3.1.1. Si le problème du suiveur (3.3) est convexe, (i.e les fonctions f(. , y), gi(. , y) i = 1, ... ,p sont convexes et les fonctions hj(. , y) j = 1, ... ,q sont affines linéaires sur Rn pour y fixé dans Rm.)

Si en plus F(., y) est strictement convexe pour y fixé dans Rm, alors :

(i) la fonction f(. , y) + áF(. , y) est strictement convexe Vá > 0 Vy E Rm ;

(ii) le problème

{ }

min f(x, y) + áF(x, y) : g(x, y) < 0, h(x, y) = 0 (3.4)

x

admet une solution unique pour tout á > 0 tel que l'ensemble des solutions admissibles de (3.4) est non vide.

preuve :

(i) Montrons que f(. , y) + áF(. , y) est strictement convexe Vá > 0 Vy E Rm. Soient y E Rm , á > 0, x, z E Rn, t E [0, 1]

on a :

f(tx + (1 - t)z, y) < tf(x, y) + (1 - t)f(z, y) (car f(. ,y) est convexe)

~áF(tx + (1 - t)z, y) < á~tF(x, y) + (1 - t)F(z, y) (car F(. ,y) est strictement convexe ) < átF(x, y) + á(1 - t)F(z, y).

d'où

f(tx+(1-t)z, y)+áF(tx+(1-t)z, y) < t(f(x, y)+áF(x, y))+(1-t)(f(z, y)+áF(z, y)) Donc f(., y) + F(., y) est strictement convexe.

(ii) Soit á > 0 tel que l'ensemble des solutions admissibles de (3.4) est non vide.

Montrons que (3.4) admet une solution unique ;

Supposons que (3.4) admet deux solutions distinctes {x(y)}et{z(y)}. g étant convexe et h affine linéaire, pour y fixé dans Rm, 2x(y) + 2z(y) est une solution admissible de (3.4). En effet,

g (1x(y) + 2z(y),y) ~ 2g(x(y),y) +12g(z(y),y) ~ 2.0+ 12.0 = 0

h (x(y) + 2z(y),y) = 2h(x(y),y) + 2h(z(y),y) = 2.0+ 12.0 = 0

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

Approche de résolution par régularisation des PBN dans le cas de la non unicité. 32

Puisque f(. , y) + áF(. , y) est strictement convexe,

f (x(y) + 2z(y), y + áF (2x(y) + 2z(y), y) < 2 (f(x(y), y) + áF(x(y), y))+

1 ~f(z(y), y) + áF(z(y), y)

2

<

2min { f(x, y) + áF(x, y) : x E M(y)}+

x

1

2

{ }

min f(x, y) + áF (x, y) : x E M(y)

x

{ }

< min f(x, y) + áF (x, y) : x E M(y)

x

ce qui est absurde.

Si les assertion du theorème1.3.1 sont satisfaites, alors

Øá(y) = Argmin

x

{ }

f(x, y)+áF(x, y) : g(x, y) < 0 , h(x, y) = 0 est semi-continue supérieurement.

La régularisation de Tykhonov consiste à remplacer le problème (3.1)-(3.2) par :

{ }

min F(x, y) : y E Y, x E Øá(y) (3.5)

y

Øá(y) = Argmin

x

{ }

f(x,y) + áF(x,y) : g(x,y) < 0 ,h(x,y) = 0 (3.6)

F : 1[8n x 1[8m -? 1[8 est strictement convexe par rapport à la première variable; f : 1[8n x 1[8m -? 1[8 ainsi que toutes les fonctions composantes de g : 1[8n x 1[8m -? 1[8p sont convexes par rapport à la première variable; h : 1[8n x 1[8m -? 1[8kest affine linéaire sur 1[8n par rapport à la première variable. Le problème du suiveur régularisé est défini par :

min

x

{ }

f(x,y) + áF(x,y) : g(x, y) < 0, h(x, y) = 0 (3.7)

L'idée d'utiliser cette méthode est due à A.N.Tykhonov [25]. On a le résultat suivant :

Théorème 3.1.1. Si les assertions (C), (MFCQ) sont satisfaites pour (3.5)-(3.6) en y = y° et si V xxF(x, y) est définie positive en tout point (x, y), alors :

(i) l'unique solution optimale xá(y) E Øá(y) est fortement stable pour tout á > 0 et est directionnellement différentiable.

(ii) Pour tout á > 0, on a les inégalités suivantes :

F(xá(y), y) < min { }

F (x, y) : x E Ø(y)

x

f(xá(y), y) > ?(y) = min { }

f(x, y) : g(x, y) < 0, h(x, y) = 0

x

(iii) Pour y fixé dans 1[8m ,

{ }

lim ~xá(y)~ = Argmin F(x, y) : x E Ø(y)

á?)+ x

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

Approche de résolution par régularisation des PBN dans le cas de la non unicité. 33

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

Preuve :

On se place sous les hypothèses du théorème.

(i) Puisque (3.4) est un problème d'optimisation paramétrique convexe et que V xxF(x, y) est définie positive, les conditions du théorème 1.3.1 sont satisfaites [26] ; d'où xá(y) est fortement stable pour tout á > 0 et est directionnellement différentiable.

(ii) On a g(xá(y), y) < 0 et h(xá(y), y) = 0

d'où

f(xá(y), y) >_ min {f(x,y) : g(x, y) < 0, h(x, y) = 0} = ?(y).

Montrons que F(xá(y), y) < min { }

F (x, y) : x E Ø(y)

x

Supposons que

F(xá(y), y) > min { }

F (x, y) : x E Ø(y)

x

alors

x E Ø(y) = {?(y), y E Rm} : F(xá(y), y) > F(x, y)

d'où

?y0 E IIBm : áF (xá(y0), y0) > áF (?(y0), y0) (car á > 0)

Or on a

f(xá(y), y) >_ ?(y) Vy E 118m

donc

f(xá(y0), y0) + áF(xá(y0), y0) > ?(y0) + áF(x, y0) ce qui contredit le fait que xá(y) E Øá(y).

(iii) D'après (ii), on a F(xá(y), y) < min { }

F (x, y) : x E Ø(y)

x

Puisque F est continue, on a :

lim

á?0+

d'où

F(xá(y), y) = F (áli ô+ xa(y), y) = min {F(x, y) : x E Ø(y)}

x

{ }

lim ~xá(y)~ = Argmin F (x, y) : x E Ø(y)
·

á?0+ x

L'assertion (iii) de ce théorème peut être interprétée comme suit : pour y fixé dans Rm, lorsque á tend vers 0+, l'unique solution du problème du suiveur régularisé par la méthode de Tykhonov converge vers la solution du problème original du suiveur, qui permet au leader de minimiser sa fonction objectif.

Ainsi, {xá(y)} tend (lorsque á --* 0+) vers la solution du problème du suiveur recherchée dans l'approche optimiste. L'avantage ici est que xá(y) est fortement stable et même lorsque l'approche optimiste n'est pas envisageable, cette approximation de la solution du PBN pourra être atteinte.

En utilisant le concept de å-optimalité, S.Addoune dans [27] énonce une autre version du théorème précédent. Avant d'y arriver, Commençons par définir la notion de solution å-optimale.

Approche de résolution par régularisation des PBN dans le cas de la non unicité. 34

Définition 3.1.1. Soit e > 0

Une solution e-optimale du problème du suiveur (3.7) est un élément de l'ensemble

{ }
T
á,E(y) := x E M(y) : f(x, y) + áF(x, y) < ?á(y) + e

M(y) est l'ensemble des solutions admissible de (3.7) et

{ }

?á(y) := min f(x, y) + áF (x, y) : x E M(y)

x

Théorème 3.1.2. Soit á > 0 , e > 0

Si l'assertion (C) est satisfaites pour le problème du suiveur (3.4), alors il existe une constante c telle que

Tá,E(y) C T0,E+ác(y) pour tout y E Y

Preuve :

{ }

D'après (C) K = (x, y) E Rn x Y : x E M(y) est compact. Puisque F est continue, il existe des réels b et c tels que

b < F(x, y) < b + c V(x, y) tels que y E Y et x E M(y)

Ceci implique que

f(x, y) + áF(x, y) > ?(y) + áb V(x, y) tels que y E Y et x E M(y)

{ }

?(y) = ?0(y) = min f(x, y) : x E M(y) .

x

Soit x E Tá,E(y) alors,

f(x, y) + áb < f(x, y) + áF(x, y) < ?á(y) + e (par definition de Tá,E(y))

i.e

f(x,y) + áb < min

x

< min

x

{ }

= min f(x, y) : x E M(y) + á(b + c) + e

x

{ }

f(x,y) + áF(x,y) : x E M(y) + e

{ }

f(x,y) + á(b + c) : x E M(y) + e

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

d'où

f(x, y) < ?(y) + ác + e

i.e x E T0,E+ác(y) donc

Tá,E(y) C T0,E+ác(y) pour tout y E Y

Dans le théorème précédent, T0,E+ác(y) représente l'ensemble des solutions (e+ác)-optimale du problème du suiveur original pour le paramètre fixé y, donc plus rigoureusement, on devrait écrire TE+ác(y) au lieu de T0,E+ác(y).

Le théorème que nous allons à présent énoncer permet de comparer la solution du problème régularisé et celle du problème original.

Approche de résolution par régularisation des PBN dans le cas de la non unicité. 35

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

Théorème 3.1.3. Si les hypothèses du théorème 3.1.2 sont satisfaites, alors pour tout x ? Wá,å(y), y ? Y on a :

min {F(x, y) : x ? W(y)} + a = F(x, y) = min {F(x, y) : x ? W0,å+ác(y)}

x x

Ceci implique que :

et

x,y

min {F(x, y) : x ? W(y)} + á = min {F(xá,å(y), y) : x ? W(y)} y
min {F(xá,å(y),y) : x ? W(y)} = min {F(x, y) : x ? W0,å+ác(y), y ? Y}

y x,y
xá,å(y) ? W0,å+ác(y) ?y

Preuve :

Soit y ? Y, x ? Wá,å(y) alors,

{ } {F(x(y), y) : x ? W0,å+ác(y)}

F(x, y) = min F(x, y) : x ? Wá,å(y) = min

x y

(car Wá,å(y) ? W0,å+ác(y) pour tout y ? Y )

D'autre part, on a par définition :

{ }

f(x, y) + áF(x, y) = ?á(y) + å = min f(x, y) + áF(x, y) : x ? M(y) + å

x

= min

{} + å (carW(y) ? M(y)) f(x,y) + áF(x, y) : x ? W(y) { }

x

= min

x

= ?(y) + min

x

= f(x, y) + á min

?(y) + áF(x,y) : x ? W(y) + å

{ }

áF(x,y) : x ? W(y) + å

{ }

x

d'où donc

F(x, y) : x ? W(y) + å

F(x, y) = min {F (x, y) : x ?Ø(y)} + a

min {F(x, y) : x ? W(y)} + a = F(x, y) = min {F(x, y) : x ? W0,å+ác(y)}

x x

En prenant le minimum de chaque membre de ces inégalités, on obtient la dernière implication du théorème.
·

Le corollaire suivant découle de la dernière implication du théorème 3.1.3 :

Corollaire 3.1.1. Sous les hypothèses du théorème 3.1.2, si á?0+å?0+tel que åá?0, alors

{ } { }

min F(x, y) : x ? Wá,å(y) -? min F(x,y) : x ? Ø(y)

x x

et

{ } { }

min F(x, y) : x ? Wá,å(y), y ? Y -? min F(x,y) : x ? W(y), y ? Y

x,y x,y

Approche de résolution par régularisation des PBN dans le cas de la non unicité. 36

Notons que les assertions du théorème 3.1.1 ne sont pas toujours vérifiés lorsque simultanément on fait tendre á vers 0+ et y vers y0. L'exemple 3.1.1 illustre ce fait :

Exemple 3.1.1. Soit le PBN

n o

y

min (x - y)2 + y2 : -20 < y < 20, x E Ø(y)

Ø(y) = Argmin nxy : -y - 1 < x < -y + 1o

x

Le problème régularisé correspondant par la méthode de Tykhonov est :

n o

min (x - y)2 + y2 : -20 < y < 20, x E Øá(y)

y

Øá(y) = Argmin

x

n o

xy + á(x - y)2 + áy2 : -y - 1 < x < -y + 1

Posons

F(x, y) = (x - y)2
f(x, y) = xy

fá(x, y) = xy + á(x - y)2 + áy2

On a

V2 xxF(x, y) = 2 > 0 d'où F est strictement convexe.

V2xxf(x, y) = 0 d'où f est convexe.

Donc le problème régularisé admet une solution unique pour chaque paramètre de régularisation.

On a

Vxfá(x, y) = y + 2á(x - y) = 2áx + y(1 - 2á) Vxfá(x,y) = 0 ~x = y(1 - 2a)

Dont le seul point critique est x = y(1 - 12á), pour á fixé. posons 0 < á < 41

-y - 1 < x < -y + 1 ~-y - 1 < y(1 -21á) < -y + 1

?

< y <

4á - 1

4á - 1

Si y > -

4á-1,

alors puisque 0 < á < 14, y>0

on a

Argmin

x

nxy + á(x - y)2 + áy2 : -y - 1 < x < -Y+11=--Y-- 1

y+1}=--y-1

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

Si y <

4á-1

alors y < 0 d'où

Argmin

x

n o

xy + á(x - y)2 + áy2 : -y - 1 < x < -y + 1 = -y + 1

Approche de résolution par régularisation des PBN dans le cas de la non unicité. 37

donc pour 0 < á < 14,

Pour y = 2á, on a

xá(y) =

{

- y - 1 si y > -

4á-1

y(1 - 1 2á) si

4á-1 = y = - 4á-1

- y + 1 si y <

4á-1

= y =

4á - 1

4á - 1

d'où xá(y) = y - y2á = y - 1 Or on a

lim

á?0+

xá(y) = lim y - 1 = -1 =6 0 = Argmin {x2 : x ? Ø(0)}

x

y?0

Malgré ce défaut, la solution du problème du suiveur régularisé est plus régulière que les solutions du problème du suiveur original. En plus {xá(y)} étant directionnellement différen-tiable, on peut envisager l'application de l'algorithme de descente pour la détermination de la solution du PBN [11].

3.2 régularisation par l'élément de plus petite norme

3.2.1 première méthode

Si la fonction objectif du leader F ne possède pas toutes les propriétés requises pour que puisse être appliquée la régularisation de Tykhonov, une autre méthode dénommée régularisation par l'élément de plus petite norme peut être appliquée.

Cette méthode consiste à prendre comme approximation de la solution du problème du suiveur

{x(y)} = Ø0(y) ; (sous réserve que Ø0(y) est un singleton)

Où pour tout y ? 1[8m

Ø0(y) = Argmin

x

{kxk : x ? Ø(y)}

Cette technique de régularisation à été utilisée pour la première fois par P.Loridan et J.Morgan en 1992 dans [28] en appliquant une idée de V.F.Solohovic émise en 1970 dans [29].

Mais il se trouve malheureusement que l'utilisation de cette approche ne permet pas de contourner toutes les difficultés rencontrées dans les approches optimiste et péssimiste respec-

tivement. En effet, la fonction Ø0(.) : y 7? Argmin

x

{kxk : x ? Ø(y)} n'est pas en général

semi-continue inférieurement. Ceci peut être observé dans l'exemple suivant :

Exemple 3.2.1. [28] On considère le PBN :

min

y

{ - xy : x ? Ø(y)}

Ø(y) = Argmin {(y - 0.5)x : 0 = x = 1}

x

Ø(y) =

{

{0} si y > 0.5

[0,1] si y = 0.5

{1} si y < 0.5

On a

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

Approche de résolution par régularisation des PBN dans le cas de la non unicité. 38

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

°(y) ={{0}

si y = 0.5

{1} si y < 0.5

d'où

(

0 si y = 0.5

F(x(y), y) =

-y si y < 0.5

{xá(y)} = Ø°(y)

L'infimum de F sur [0,1] est égal à -0.5 Pourtant, il n'existe pas de y appartenant à [0,1] tel que F(x(y),y) = -0.5

donc Ø°(.) n'est pas semi-continue inférieurement.

Il est tout de même possible de contourner cette difficulté. Ceci se fait en utilisant à nouveau le concept de solution å-optimale.

On pose :

Ø°E(y) = Argmin

x

n o

kxk : x ? ØE(y)

n o

ØE(y) = x ? M(y) : f(x, y) = ?(y) + å

Si le problème (3.4) est convexe, alors ØE(y) est réduit à un singleton sous réserve que Ø(y) =6 Ø [11]. On alors note xE(y) l'unique élément de ØE(y).

On a le théorème suivant :

Théorème 3.2.1. [28]

On considère le problème d'optimisation paramétrique convexe (3.3) en y = y°.

Si les assertions (C) et (MFCQ) sont satisfaites en tout point (x, y°) avec x ? M(y°), alors

E?°+

lim xE(y) = x°(y)

preuve : On a

n o n o

x ? M(y) : f(x,y) = ?(y) ? x ? M(y) : f(x,y) = ?(y) + å ?å > 0

i.e

Ø°(y) ? ØE(y) ? å > 0

ainsi

x°(y) ? ØE(y)

d'où

xE(y) = min kxk, x ? ØE(y) = x°(y) < +8, ? å > 0

x n o

Donc la suite {xE(y)}E est borné et par conséquent admet un point d'accumulation x.

Ainsi, la suite {xE(y)}E admet une sous suite que nous notons encore {xE(y)}E qui converge vers x

Or

xE(y) ? M(y) et f(xE(y), y) = ?(y) + å ?å > 0

Approche de résolution par régularisation des PBN dans le cas de la non unicité. 39

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

d'où lorsque å ? 0+, x ? M(y) et f(x, y) = ?(y) i.e

x ? Ø0(y) = Ø(y)

Par ailleur, on a

i.e

kxk = lô

å

Ilxå(y) Ilx0(y) Il

kxk = Ilx0(y) avec x, x0(y) ? Ø(y)

d'où x = x0(y) par unicité de l'élément de plus petite norme de Ø(y) = Ø0(y) (grace à la convexité du problème (3.3))
·

Ainsi, le PBN régularisé par la méthode de la plus petite norme s'écrit :

n o

min F (xå(y), y) : y ? Y

y

{xå(y)} = Argmin

x

n o

kxk : x ? Øå(y) ,å > 0

Posons

S = {(x,y) : y ? Y, x ? Ø(y), F(x, y) = inf ?p(z) }

n o

?p(z) = max F (x, z) : x ? Ø(z)

x

S est l'ensemble des solutions admissibles du problème du leader qui sont plus bonnes que la solution péssimistique du PBN (3.1)-(3.2). On l'appelle ensemble des sous-solutions optimales de (3.1)-(3.2).

On a le résultat suivant :

Théorème 3.2.2. [28]

On suppose que le problème du suiveur (3.3) est convexe et que les assertions (C) et (MFCQ) sont satisfaites en tout point (x, y), x ? M(y) et y ? Y .

Pour toute suite (åk)k (åk > 0 ?k) convergeant vers 0+, on considère la suite (yk)k tel que

yk ? Argmin

y

n o

F(x, y) : x ? Ø0 åk(y), y ? Y ?k.

Tout point d'accumulation (x, y) de la suite {k(yk), yk}8k=1 est une sous-solution optimale du PBN (3.1)-(3.2) ; i.e (x, y) ? S.

Preuve :

n o

Posons K = (x, y) ? Rn × Y : x ? M(y) ; d'après (C), K est compact.

Soit (x, y) un point d'accumulation de {k(yk), yk}k=1 ( qui existe car (k(yk), yk) ? K ?O ;

On veut montrer que (x, y) ? S, i.e F(x, y) = inf

z

?p(z).

Supposons que F(x, y) > v = inf

z

?p(z).

{xåk(yk),yk}8k=1 admet une sous-suite que nous notons encore {xåk(yk),yk}8k=1 qui converge

Approche de résolution par régularisation des PBN dans le cas de la non unicité. 40

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

vers (x, y). Soit

(F (x, y) - v)

0 < ä <

3

Puisque F est continue,

F (xåk(yk), yk) -?

k--00 F(x, y)

d'où

~~ < ä

?K1 ? N : k > K1 = ~~F(xåk(yk), yk) - F(x, y)

= -F(xåk(yk), yk) + F(x, y) < ä

= F (xåk(yk), yk) > F(x, y) - ä > 3ä + v - ä

= F(xåk(yk), yk) > v + 2ä

Puisque K est compact et ?p semi-continue inférieurement, v est fini et ?z ? P2(K) : v = ?p(z)

z

z ? P2(K) = ?(zt) ? P2(K) : zt -?

t--00

= ?(zt) ? P2(K) : ?p(zt) -??p(z) = v

t--00

d'où ?t1 ? N : t > t1 = ?p(zt) = v + ä.

zt.

Soit t > t1 fixé. Puisque zt ? P2(K),

?(vk)k ? P2(K) : vk -?

k--00

Soit la suite (uk)k définie par uk ? Øåk(vk) ?k

{ }

F(x, zt) : x ? Ø(zt)

Soit u un point d'accumulation de (uk)k (qui existe car (uk)k ? P2(K)) ; d'après le theorème 3.2.1, u ? Ø(zt) ;

d'où

F(u, zt) = ?p(zt) = max

x

(uk)k admet une sous-suite que nous notons encore (uk)k qui converge vers u ; étant donné que F est continue, on a :

d'où

F(uk, vk) -?

k--00

F(u, zt)

?K2 ? N : k > K2 = F(uk, vk) = F (u, zt) + ä = F(uk, vk) = ?p(zt) + ä

Ainsi pour t > t1 et k > max (K1, K2), on a

F(uk, vk) = ?p(zt) + ä = v + 2ä < F(xåk(yk), yk)

Ce qui contredit le fait que yk ? Argmin

y

{ }

F(x, y) : x ? Ø0 åk(yk), y ? Y .

donc F(x, y) = inf

z

?p(z).
·

Ce théorème montre qu'en résolvant le PBN (3.1)-(3.2) en utilisant cette méthode, on aboutit à une solution qui est meilleure que la solution pessimiste.

Approche de résolution par régularisation des PBN dans le cas de la non unicité. 41

3.2.2 Deuxième méthode

Si la fonction objectif du leader ne possède pas les propriétés nécessaires pour l'application de la régularisation de Tykhonov, une autre méthode de régularisation de(3.1)-(3.2) consiste à remplacer le problème du suiveur par :

{ }

min f(x, y) + á11x112 : x E M(y) pour á > 0 (3.8)

x

Soit Wá l'ensemble des solutions de (3.8)pour y fixé; Le PBN régularisé s'écrit alors :

{ }

min F(x, y) : y E Y, x E Wá(y) (3.9)

y

Wá(y) = Argmin

x

{ }

f(x, y) + á11x112 : x E M(y) (3.10)

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

Des relations entre le problème régularisé (3.9)-(3.10) et le problème original (3.1)-(3.2) sont présentées dans [28].

On a le théorème suivant :

Théorème 3.2.3. Considérons les problèmes (3.3) et (3.8). Si les assertions (C) et (MFCQ) sont satisfaites, alors :

1) Pour toute suite (yk)k avec yk E Y Vk et (ák)k C 1[8+ convergeant vers y et á respectivement, toute suite (xk)k satisfaisant xk E Wák(yk) V k, admet un point d'accumulation x tel que x E Wá(y)

2)

lim

yk?y ák&0

Pour á = 0, on a :

xák(yk) = x(y)

Sous réserve que W(y) = {x(y)}

Preuve :

1)

xk E Wák(yk) Vk = g(xk, yk) < 0 et h(xk, yk) = 0

{ }

= (xk, yk)k C K := (x,y) E 1[8n X 1[8m : g(x,y) < 0, h(x, y) = 0

d'après l'assertion (C), K est compact.

Si on note P1(K) la première projection de K sur 1[8n, puisque P1 est continue, P1(K) est compacte.

(xk)k C P1(K) = (xk)k admet un point d'accumulation x

montrons que x E Wá(y)

D'après le théorème 1.4.2, W.(.) est semi-continue supérieurement. (xk)k admet x comme point d'accumulation implique que (xk)k admet une sous-suite que nous notons encore (xk)k qui converge vers x.

xk E Wák(yk) Vk = x E Wá(y) (car W.(.) est semi-continue sup)

Approche de résolution par régularisation des PBN dans le cas de la non unicité. 42

D'après le théorème 1.4.2, x.(.) est continue d'où

lim

yk?y ákN0

xák(yk) = x(y)
·

Notons qu'en général, sans l'hypothèse Ø(y) = {x(y)} ; on n'a pas

lim

yk?y ák&0

xák(yk) = x(y) ? Argmin

x

{ }

kxk : x ? Ø(y)

L'exemple suivant illustre ce fait :

Exemple 3.2.2. On considère le problème :

{ }

min xy : x ? [-1, 1]

x

on a

Ø(y) =

{ [-1,1] si y = 0 {-1} si y > 0

{1} si y < 0

Le problème régularisé est

{ }

min xy + áx2 : x ? [-1, 1]

x

On a ?x(xy + áx2) = y + 2áx ?x(xy + áx2) = 0 ? x = -y2á en plus, ?2 xx(xy + áx2) = 2á > 0

-1 = x = 1 ? -1 = - y = 1

?-2á = y = 2á

donc

{

Øá(y) =

{-y} si y ? [-2á, 2á]

{1} si y = -2á
{-1} si y = 2á

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

la suite (xák(yk))k = (-k) n'admet pas de limite dans [-1,1] lorsque yk ? 0 et ák ? 0

{ }

alors que Argmin x |x| : x ? Ø(0) = {0}

On montre que si (3.3) est convexe, alors pour á > 0 fixé, le problème (3.8) admet une solution unique et le fonction xá(.) est continue [28]

pour á > 0 fixé et Sous certaines conditions (que nous mentionnerons par la suite) l'unique solution optimale de (3.8) est Lipschitz-continue par rapport à á et y.

Il s'ensuit que le PBN régularisé

min

y

{Fá(y) := F(xá(y), y) : y ? Y} (3.11)

est un problème de minimisation d'une fonction Lipschitz-continue, et par conséquent peut être résolu par un algorithme du paquet.

Nous allons dans la paragraphe qui suit présenter un algorithme développé par S.Dempe [12] qui résoud les PBN dans le cas de la non unicité en se basant sur cette méthode de régularisation.

Approche de résolution par régularisation des PBN dans le cas de la non unicité. 43

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji c~UYI 2007-2008

3.3 Algorithme de résolution d'un PBN dans le cas de la non unicité

Nous allons présenter l'algorithme lorsque le problème du suiveur n'est pas soumis à la contrainte h(x, y) = 0. Le problème du suiveur régularisé est alors donné par

{ }

min f(x, y) + ákxk2 : g(x, y) = 0 (3.12)

x

On suppose que les assertions (C), (MFCQ) et (CRCQ) sont satisfaites. Ceci nous garanti que la fonction x.(.) qui à (á,y) associe la solution de (3.10) pour le paramètre á > 0 et y fixé est une PC-function; et par conséquent est Lipschitz-continue. Le problème consiste donc à minimiser la fonction Lipschitz-continue Fá(y).

3.3.1 La methde du paquet

L'algorithme que nous présentons dans cette section est un algorithme du paquet. Cet algorithme se construit à partir de la méthode du paquet, qui est une généralisation de la méthode de descente (connue en optimisation diérentiable) à des fonctions qui ne sont pas diérentiables, mais au moins Lipschitz-continue.

F(y)

Rappelons qu'une méthode de descente pour la recherche de y telle que F(y) = min

y

consiste à construire la suite (yn)n vérifiant :

1. initialisation : y0 donné;

2. nime itération : on suppose y1, y2, ..., yn connus;

a) chercher dn une direction de descente stricte en yn ; i.e chercher dn tel que ? p0 > 0 avec

F(yn + pdn) < F(yn) ?p ?]0, p0]

b) prendre yn+1 = yn + pdn (avec p bien choisi). On a le Lemme suivant :

Lemme 3.3.1. Soit y ? Rm.

Si F ? C1(Rm, R) et si ?F(y) =6 0; alors w = -?F(y) est une direction de descente stricte en

y.

Preuve :

Soit ? la fonction de R dans R définie par

?(p) = F(y + pw)

Puisque F est C1,

? ? C1(R,R) et ?'(p) = w.?F(y + pw)

.

Supposons que ?F(y) =6 0.

On veut montrer que ?p0 > 0 tel que si p ?]0, p0] alors F(y + pw) < F(y); ou encore que ?(p) < ?(0).

On a

?'(0) = w.?F(y) = - |?F(y)|2 < 0

Approche de résolution par régularisation des PBN dans le cas de la non unicité. 44

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

d'où comme ?' est continue, il existe ä0 > 0 tel que si ñ E [0,ä0] alors ?'(ñ) < 0.

Soit ñ E]0, ä0]. Alors f

?(ñ) - ?(0) = J

cp'(t)dt < 0 (car Vt E]0, ñ], ?'(t) < 0)

o

donc on a

?(ñ) < ?(0) Vñ E]0, ä0]

Il suffit donc de prendre ñ0 = ä0 pour conclure.
·

Ce lemme nous montre que lors de la minimisation d'une fonction différentiable F, pour trouver une direction de descente stricte en un point y il suffit de considerer la direction

d = -VF(y). Le prototype de l'algorithme de descente pour la minimisation des fonctions différentiables est donc :

Entrée : y0 donné ;

Sortie : la suite (yn)n

On suppose y1, y2, ..., yn connus ;

a) calculer dn = -VF(yn)

b) prendre yn+1 = yn + ñdn (avec ñ bien choisi).

Supposons à présent que F est juste Lipschitz-continue ; alors le gradient de F n'existe pas en tous points y, mais on peut calculer en ces points un gradient généralisé (par exemple le gradient généralisé au sens de Clarke). On montre [30] que si v(y) est le gradient généralisé au sens de Clarke de F en y, alors d = -v(y) n'est pas forcément une direction de descente stricte de F en y.

Dans la méthode du paquet, on commence par calculer le gradient généralisé de F en y; si la direction opposée à celle de ce gradient (d = -v(y)) est une direction de descente stricte, on construit un nouveau point z = y + ñd qui améliore la fonction F.

Sinon on cherche une autre direction de descente. On montre [11] qu'en général, si {yi}ki=1 et {zi}ki=1 sont des points d'éssaie et des itérées déjà évalués, la direction d qui minimise le modèle

max1

ik {v(yi)d - áik} + F(zk) + (2t )dT d (3.13)

1< k

Avec áik = F(zk) - v(yi)(zk - yi) - F(yi) est une direction de descente stricte de F en zk. Nous avons déjà présenté le prototype de l'algorithme du paquet à la section 1.5.1 du chapitre un.

3.3.2 Présentation de l'algorithme

Le principe de l'algorithme est le suivant : pour la valeur fixée á0 du paramètre de régularisation et pour å0 > 0, utiliser l'algorithme du paquet que nous avons présenté au chapitre un pour calculer la solution å0-optimale z0 du problème régularisé de paramètre á0 ; ensuite considerer un nouveau paramètre á1 < á0 et å1 < å0 et calculer la solution å1-optimale z1. Si z1 est meilleure que z0, alors z1 est une itérée; sinon y1 = z1 est un point d'éssaie (ce point sera utilisé pour le calcul d'une nouvelle direction de descente en z0). Ainsi de suite jusqu'à ce que soit satisfait un certain critère d'arrêt (qui ici portera sur å).

le prototype de cet algorithme est le suivant :

Approche de résolution par régularisation des PBN dans le cas de la non unicité. 45

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

étape1 : Choisir å0, á0 et un point de départ z0

initialiser s := 0

étape2 : Avec comme point de départ zs, calculer en utilisant l'algorithme du paquet une solution ås-optimale zs+1 du problème (3.11)

étape3 : Poser ås+1 := ås2 , ás+1 := ás2 , s := s + 1 et répéter l'étape 1 jusqu'à ce qu'un critère d'arrêt soit satisfait.

On montre [30] que si la valeur de ás n'est pas très petite, l'étape 2 peut s'effectuer en un nombre fini d'itérations ; ceci est également garanti si la suite (zs)sEN obtenue en appliquant l'algorithme converge vers un point z où l'unique solution x0(z) du problème du suiveur est fortement stable.

Utilisant ce prototype, K.C.Kiwiel dans [30] construit un algorithme qui consiste en une suite d'applications de l'algorithme du paquet à différents problèmes. Lors de l'utilisation de cet algorithme, les itérées zs calculées sont réutilisées même lorsqu'elles ne permettent pas d'avoir une décroissance significative de Fá par rapport aux itérées calculées précédemment ; ce qui peut conduire au pire des cas à un recommencement infini de l'algorithme(on dit que l'algorithme boucle).

C'est face à ce défaut de l'algorithme de K.C.Kiwiel que S.Dempe dans [12] a proposé un nouvel algorithme : l'algorithme du paquet modifié.

Cet algorithme consiste à : étant donné le paramètre ás à la sme itération, déterminer l'itérée zs qui permet à Fás(zs) = F(xás(zs), zs) d'approximer au mieux F(x(zs), zs) ; ensuite faire décroître ás et ne considérer que les zs significatifs.

On note v(y) le gradient généralisé de Fás(y). D'après [30] ; on a

{?xF~xá(y), y~d + ?yF~xá(y), y : d E ?yxá(y)}

v(y) E

Soit {yk}sk=1 une suite de points d'essaie; {zk}sk=1la suite d'itérées calculées jusqu'à l'étape s. On considère le modèle suivant :

{ } + Fá(zs) + usdT d

max v(yk)Td - âk,s

2 (3.14)

kEJs

Où Js ? {1,...,s};us > 0 et

âk,s = Fá(zs) - v(yk)(zs - yk) - Fá(yk)

Comme nous l'avons déjà mentionné au chapitre un, le réel d qui minimise le modèle (3.14) est une direction de descente pour Fá(y) en y = zs.

Soit å > 0 le réel positif tel que ?å' = å , (3.12) n'admet pas de solution å'-optimale. å est appelé seuil d'optimalité. Soit %s > 0 le rayon de la région de confiance (c'est le rayon de la plus petite boule dans laquelle on est sûr de trouver une solution). Soit mL un paramètre positif (paramètre de recherche en ligne [12]). Soit us = umin > 0 , ás le coefficient de régularisation et ds le réel qui minimise (3.14).

On pose

s - 1

ås := max mp(IIusdsII +Eçsjâj,s) , jEmax0{IIyj - zjII+EIIzk+1 - zkII}

jEJs k=j

Approche de résolution par régularisation des PBN dans le cas de la non unicité. 46

Où (7sj)j sont les multiplicateurs de lagrange du problème de minimisation de (3.14) et

Js ? {j : 7s j =6 0}

Es est utilisé pour mesurer la qualité de l'approximation zs de la solution du PBN calculé à la seme iteration. Durant la procédure Es doit tendre vers 0 ; mais pour des raisons pratiques, (impossibilité de trouver des solutions E'-optimale pour les valeurs de E' plus petite qu'une certaine valeur seuil) on arrête l'algorithme si Es < E.

Soit k = 1 une certaine constante utilisée pour borner le changement de la région de confiance. 81 un paramètre donné.

Les principales étapes de l'algorithme sont les suivantes :

Algorithme du paquet modifié

Entrée : Suite d'itérée {zk}sk=1, les points d'essaie {yk}sk=1, les paramètres ás > 0, Es > 0, us, Ss

Sortie : Une meilleure itérée zs+1. Etape1 :

a) Calculer en augmentant si nécessaire la valeur de us, le réel ds qui minimise le modèle (3.13) ainsi que les multiplicateurs de Lagrange çsj, j E Js tel que MsII < Os

b) Tester le critère d'arrêt Es < E, réduire Es et Js si nécessaire. Si Es < Ss alors

Ss := ùSs

Etape2 :

n o

Si Fás(zs + ds) < Fás(zs) + mL max v(yk)T ds - âk,s alors

k?Js

zs+1 := zs + ds, ts := 1

Sinon

a) Rechercher ts > 0 tel que

Fás(zs + tsds) < Fás(zs) + mLts max {v(yk)Tds ? âk,s}

k?J l

et faire zs+1 := zs + tsds

b)Ou considerer que l'étape est nulle et calculer un nouveau point d'essaie yk+1 := zs + tds avec t > 0

ts := 0

Si t > 0, calculer un nouveau coefficient de régularisation ás+1 E]0, ás] tel que

Fás+1(zs+1) - Fás(zs) < 0.5 (Fás(zs+1) - Fás(zs)~ , ys+1 := zs+1

Sinon

ás+1 := ás

Etape3 : Choisir un nouveau rayon de la région de confiance Os < êSs Réactualiser l'ensemble Js et les autres paramètres. Calculer le gradient généralisé de la fonction Fás+1(y) au point y = ys+1 Faire Ss+1 := Ss,s := s + 1 et répéter l'étape 1.

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

Approche de résolution par régularisation des PBN dans le cas de la non unicité. 47

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

La méthode pour la recherche de ts à l'étape 2 et la méthode utilisé pour le choix de la région de confiance peuvent être trouvées dans [30].

Pour l'étude théorique, on choisi le seuil d'optimalité å = 0. L'algorithme précédent génère une suite (ás, xás(zs))s qui théoriquement est infinie. Si (ás)s converge vers zero, alors le problème est résolu avec succès.

La modification apporté par ce nouvel algorithme réside dans le contrôle de la région de confiance, en posant que %s < êäs ave ê > 1. L'ajout de ce contrôle garanti que que toutes les itérées et points d'essaie générés durant l'exécution de l'algorithme ont toujours un intérêt.

Étant donné que l'algorithme génère une suite (zs)s ayant une infinité de termes (du point de vu théorique), il est impossible de le dérouler manuellement sur un exemple de PBN donné. Néanmoins, dans le paragraphe qui suit, nous allons étudier la convergence théorique de l'algorithme du paquet modifié afin de montrer que la suite (zs)s calculée converge vers une approximation de la solution du PBN original qui est stationnaire au sens de clarke. Ce qui permettra de conclure puisque la solution du problème du suiveur est fortement stable, que l'approximation de la solution du problème original calculée via l'algorithme est également fortement stable [11].

3.4 Convergence de l'algorithme du paquet modifié

Définition 3.4.1. Soit ë0 E Ëá(xá(y0), y0)

On dit que l'assertion (NE) est satisfaite si la matrice

~ V2xxL(xá(y0), y0, ë0) + 2áE VTxgJ0(xá(y0), y0) ~

VxgI0(xá(y0), y0) 0 VygI0(xá(y0), y0)
est de rang maximal : n + I(xá(y0), y0)

}où J0 = j : ë0 j > 0 et I0 = I(xá(y0), y0) = { j : gj (xá(y0), y0) = 0 , E est la matrice
identité.

On suppose que les assertions (C), (MFCQ), (CRCQ) et (NE) sont satisfaites pour le problème (3.12). Alors [11] la différentielle au sens de Clarke Fá en y0 E Y est donné par {VxF(xá(y0), y0)?yxá(y0) + VyF(xá(y0), y0)}

?Fá(y0) =

posons Y = 1[8m, et supposons également que la suite (zs)s généré par l'algorithme est infini et borné.

Si le seuil d'optimalité å = 0 est choisi, alors [30] le critère d'arrêt de l'algorithme est {VxF(xás(zs), zs)d + VyF(xás(zs), zs) : d E ?yxás(zs)}

0 E .

i.e dès que zs est stationnaire au sens de Clarke.

Montrer que l'algorithme converge revient à montrer que la suite (zs)s converge vers un

point stationnaire au sens de Clarke. C'est-à-dire qu'il faut montrer que :

{VxF (xá(y), y)d + VyF(xá(y), y) : d E ?yxá(y)}

0 E .
où (xá(y), y, á) est un point d'accumulation de la suite {xás(zs), zs, ás}8s=1 . On a le résultat suivant :

Approche de résolution par régularisation des PBN dans le cas de la non unicité. 48

Théorème 3.4.1. Soit {xás(zs), zs, ás}00s=1 la suite généré par l'algorithme du paquet modifié pour å = 0. Supposons que la suite (ás)s est borné par á0 > 0, alors tout point d'accumulation (xá(y), y, á) de cette suite satisfait

}.

{ ?xF (xá(y), y)d + ?yF (xá(y), y) : d ? ?yxá(y)

0 ?

preuve :

Rappelons que dans l'algorithme du paquet modifié, la modification apporté à l'algorithme de Kiwiel consiste à contrôler le renouvellement de la région de confiance à chaque itération ; ainsi certains résultats de [30] reste vraies pour l'algorithme modifié.

Soit y un point d'accumulation de la suite (zs)s. La solution optimale ds du problème de minimisation de (3.13) vérifie [30] :

ds ? ?Fás (zs; max {kyj - zjk +

\ jEJssj 0

Es - 1 k=1

}~kzk+1 - zkk

Si l'assertion (SSOC) est satisfaite en (x0(y), y),

alors

{?xF(x0(y), y)d + ?yF(x0(y), y) : d ? ?yx0(y) }

0 ?

Où ?Fá(z; å) est l'å-sous différentielle de Goldstein définie par

{ }

?Fá(z; å) = conv ?Fá(y) : kz - yk = å

?Fá(z; å) est semi-continue supérieurement et localement borné [31]. D'où si (á, y, 0,0) est un point d'accumulation de la suite

s- 1 00

{ás, zs, ds, max {yj -- z'k + E kzk+1 _ zkk } ,

jEJss j

k=1 s=1

alors 0 ? ?Fá(y) et le théorème 3.9 de [30] nous permet de conclure que

{ ?xF (xá(y), y)d + ?yF (xá(y), y) : d ? ?yxá(y) }

0 ? .
·

Si la suite (ás)s converge vers zero, alors la condition suffisante d'optimalité forte (SSOC) aux points d'accumulations de {xás(zs), zs}00s=1 est nécessaire pour garantir que l'algorithme du paquet modifié sera à mesure de calculer toutes les données nécessaire a la résolution du PBN.

Si cette condition d'optimalité (SSOC) est satisfaite, le théorème précédent montre que les points d'accumulations de la suite {xás(zs), zs}:1 sont des points stationnaires au sens de Clarke.

Notons que la suite (zs)s converge grace à la modification apporté par l'algorithme du paquet modifié.

Le corollaire suivant découle du théorème précédent.

Corollaire 3.4.1. Soit {xás(zs), zs, ás}00s=1 la suite générée par l'algorithme du paquet modifié, où {ás}00s=1 converge vers zero. Soit y = lim zs et x0(y) ? Ø(y)

s?00

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji (c)UYI 2007-2008

Approche de résolution par régularisation des PBN dans le cas de la non unicité. 49

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji c~UYI 2007-2008

Ce résultat nous garanti que en résolvant le PBN (3.1)-(3.2) par régularisation (utilisant l'algorithme du paquet modifié), on aboutit à une approximation de la solution de la solution du problème original qui est stationnaire au sens de Clarke (par consequent fortement stable). Donc plus régulière que les solutions optimiste et péssimiste respectivement qui sont le plus souvent instables.

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji c~UYI 2007-2008

Conclusion et perspectives

Notre travail consistait à présenter l'approche par régularisation de résolution des PBN dans le cas de la non unicité de la solution du problème du suiveur, qui fait actuellement l'objet de nombreuses recherches.

Après avoir présenté les approches optimiste et pessimiste qui sont les techniques classiques de résolution des PBN dans le cas de la non unicité, nous avons montré que la solution du PBN régularisé, même si elle n'est qu'une approximation de la solution du PBN original, possède de meilleures propriétés de régularité que les solutions optimiste et pessimiste. Nous avons pour terminer présenté un algorithme de résolution basé sur cette approche développé par S.Dempe, dont nous avons étudié la convergence théorique.

Mais il se trouve que la convergence théorique d'un algorithme n'implique pas forcément sa convergence numérique (i.e après l'implementation de l'algorithme). Nous envisageons dans un travail futur implementer cet algorithme et étudier sa convergence numérique. Nous pourrons également voir dans quelle mesure généraliser les résultats que nous avons présentés dans les espaces Rn aux espaces de Hilbert, afin qu'ils puissent être utilisés dans les applications en ingénierie par exemple.

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji c~UYI 2007-2008

Bibliographie

[1] I.D.Prete, M.B.Lignola, And J.Morgan. New concept of well-posedness for optimization problems with variational inéquality constraints.Journal of Inequalities in Pure and Applied Mathématics, 2002.

[2] H.V.Stackelberg. Marktform und Gleichgewicht. Springer-Verlag, Berlin, 1934. Engl transl : The theory of the market economy, Oxford University press, 1952.

[3] Kornaj,J et Liptak,T. Two-level planning. Econometrica, 33 :141-169, 1965.

[4] Ross, S.A .The economic theory of agency : the principal's problem. AER, 63 :134-139, 1973.

[5] Simaan, M et Cruz,J.B. On the stackelberg strategy in non zero-sum games.Journal of optimization theory and applications, 11 : 533-555, 1973.

[6] Bracken, J et McGill, J. Mathematical programs with optimization problems in the constraints. Operations reseach, 21 :37-44, 1973.

[7] Candler, W et Norton, R. Multi-level programming . World Bank developement research center discussion paper.20.Washington.DC, 1977.

[8] Candler, W et Norton, R. Multi-level programming and development policy. World Bank developement research center discussion paper.258. Washington.DC, 1977.

[9] A.Auslander. Regularity theorems in sensivity theory with nonsmooth data. In J.Guddat, H.Th.Jongen, F.Nozicka, and B.Kummer, editors, Parametric optimisation and related topics, page 9-15. Akademic Verlag, Berlin, 1987.

[10] A.B.Zemkoho. Approche multicritère de résolution des problèmes de programmation à deux niveaux. Memoire de DEA, Université de Yaoundé I, 2006.

[11] S.Dempe. Foundation of bilevel programming. Kluwer Academic Publishers, Dor-drecht/Boston/London, 2002.

[12] S.Dempe. A bundle algorithm applied to bilevel programming problems with non-unique lower level solutions.

[13] C.Audet, J.Haddad, G.Savard. A note on the definition of the linear bilevel solu-tion.Elsevier Science, 2005.

[14] C.M.Macal and A.P.Hurter. Dependence of bilevel mathematical programs on irrelevant constraints. Computer and Operations Research, 24 :1129-1140, 1997.

[15] R.T.Rockafellar. Convex analysis. Princeton University press, Princeton, 1970.

[16] M.Kojima. Strongly stable stationary solutions in non linear programs. In S.M.Robinson,editor,Analysis and computation of fixed points, pages 93-138; Academic press, new york, 1980.

[17]

BIBLIOGRAPHIE 52

Mémoire de DEA * Laboratoire d'analyse numérique * UYI Francisque.D.Fouodji c~UYI 2007-2008

W.W.Hager. Lipschitz continuity for constrained processes. SIAM Journal on control and optimization, 17 : 251-269, 1979.

[18] J.F.Bard, J.Plummer and J.C.Sourie. Determining tax credit for converting nonfood crops to biofuels : an application of bilevel programming. In A.Migdalas, P.M.Pardalos and P.Varbrand, editors, multilevel optimization : Algorithm and applications, Page 23-50. Kluwer Academic Punlishers, Dordrecht,1998.

[19] P.Loridan and J.Morgan.Approximate solutions for two-level optimization problems.In K.Hoffman.J.Hiriart-Urruty,C.Lemarchal and J.Zowe,editor,trends in mathematical opti-mization,volume 84 of international series of numerical mathematics.Pages 181-196. Bir-khäuser Verlag,Basel,1988.

[20] P.Loridan and J.Morgan.New results on approximate solutions in two-level optimization. Optimization.20 : 819-836, 1989.

[21] P.Loridan and J.Morgan. å-regularized two-level optimization problems : approximation and existence results.In optimization-fifth French-German conference (Varez), page 99-113. Lecture notes in mathematics, Springer Verlag, Berlin,No.1405.1989.

[22] P.Loridan and J.Morgan. On strict å-solutions for two level optimization problem.In proceedings of the international conference on operations research 90, pages 165-172. Spriger Verlag, Berlin, 1992.

[23] B.Bank, J.Guddat, D.Klatte, B.Kummer, and K.Tammer. Non-linear parametric optimi-zation.Akademic Verlag, Berlin,1988.

[24] S.Scholtes.Introduction to piecewise differentiable equations. Technical report, Universität Karlsruhe, Institut für Statistick und mathematische Wirtschaftstheorie,1994.No.53/1994.

[25] A.N.Tykhonov.Methods for the régularization of optimal control problems. Soviet Mathematical Doklady,6 :716-763,1965.

[26] D.Klatte and B.Kummer.Strong stability in nonlinear programming revisited. Journal of the australian Mathematical society, Ser.B, 40 :336-352,1999.

[27] S.Addoune.Optimisation à deux-niveaux : condition d'optimalité, approximation et stabilité. PhD thesis. Université de Bourgogne, Département de Mathématique,1994.

[28] P.Loridan and J.Morgan. Least-norm régularization for weak two-level optimization problems. In optimization, optimal control and partial Differential Equations, volume 107 of International Series of Numerical Mathematics, page 307-318. Birkhäuser Verlag, Basel, 1992.

[29] V.F.Solohovic. Unstable extremal problem and geometric properties of Banach Spaces. Soviet Mathematical Doklady. 11 :1470-1472, 1970.

[30] K.C.Kiwiel. Restricted step and Levenberg- Marquard techniques in proximal bundle method for nonconvex nondifferentiable optimization. SIAM Journal on Optimization, 6 :227-249, 1996.

[31] K.C.Kiwiel. Method of descent for nondifferentiable optimization. Springer-verlag, 1985.






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Aux âmes bien nées, la valeur n'attend point le nombre des années"   Corneille