WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Processus stochastiques et équations aux dérivés partielles

( Télécharger le fichier original )
par Mohamed HANECHE
Université Mohamed BOUGARA Boumerdès -  2008
  

Disponible en mode multipage

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

République Algérienne Démocratique et Populaire

Ministère de l'Enseignement Supérieur et de la Recherche Scientifique

Université
M'hamed BOUGARA
Boumerdès

 

Faculté
des Sciences
Boumerdès

DEPARTEMENT DE MATHEMATIQUES

MEMOIRE DE MAGISTER
SPECIALITE : MATHEMATIQUES
OPTION : MODELES STOCHASTIQUES

Thème
PROCESSUS STOCHASTIQUES ET EQUATIONS AUX
DERIVEES PARTIELLES

Présenté par

HANECHE MOHAMED Soutenu publiquement le :29/06/2009

Devant le jury composé de:

Présidente :

Mme H. GUERBYENNE

Maitre de conférences A

USTHB Alger

Promoteur :

Mr K. KHALDI

Maitre de conférences A

UMBB Boumerdès

Co-promoteur :

Mr A. ABASSOV

Maitre de conférences A

UMBB Boumerdès

Examinateur:

Mr H. OSMANOV

Professeur

UMBB Boumerdès

Examinateur:

Mr S.MAKDECHE

Maître de conférences B

UMBB Boumerdès

Remerciement

J'exprime mes profonds remerciements à mon promoteur le Docteur KHALDI Khaled pour l'aide compétente qu'il m'a apportée, pour sa patience et son encouragement à finir ce travail.

Je tiens à remercier Monsieur ABASSOV Assim mon co-promoteur et Monsieur MAKDECHE Said pour leurs conseils et remarques pertinentes.

Ensuite, je tiens à exprimer mes remerciements aux membres du jury, Mme Hafida GUERBYENNE, Présidente ainsi que Messieurs Hamid OSMANOV et Said MAKDACHE, membres, qui ont accepté d'évaluer mon travail.

Certaines personnes ne peuvent être oubliées, mes professeurs: Monsieur OSMANOV Hamid, Monsieur DOUMAZE, et tous les enseignants du département de mathématiques, sans oublier tous les personnels administratif et de soutien du département de mathématiques

Je remercie enfin toute l'équipe de ma promotion et en particulier mon ami et collègue d'études TAZEROUTI Moussa.

J'ai également une pensée pour tous mes proches, famille et amis, qui ont fait preuve de beaucoup de patience et m'ont toujours encouragé. J'espère maintenant être plus disponible et leur rendre ce que je leur dois. Enfin, je souhaite remercier en particulier mes parents pour leurs efforts, encouragements, pour le temps qu'ils ont consacré pour moi et pour tout.

Abstract

The aim of this work is to show the relation between the partial differential equations of the second order and the stochastic processes of diffusion, and present some results obtained recently on the partial derivative equations by probabilistic methods.

These results provide a probabilistic method that we allow to avoid the complication of numerical methods and written the solution as expectation of functional of diffusion process. This work is presented in five chapters:

The chapter I, present the basic mathematics tools, the Brownian motion and the stochastic process solution of stochastic differential equation (SDE) well-known with noun of diffusion process i.e. that their future is not depending of any other state excepting the present state, is key notion of this study. We introduce a new character of integral, is the stochastic integral says Itô integral that allow to give a sense to the differential of Brownian motion, the important notion upon rest the SDE theories.

In the chapter II, we give the generality of partial differential equations (PDE) of second order and explain the method of finite difference method this method is used in case where the resolution by the analytic method is impossible.

In the chapter III, we exhibit the profound relation existed between the notion of partial differential equations and stochastic differential equations through the certain theory (Feynman-Kac), the generalization of this theory given a probabilistic interpretation of PDEs.

The chapter IV is an application which we help to comprehend the notions of the president chapter, we start by simulating the trajectory of Brownian motion, and next, we simulate the diffusion process and resolve a PDE by the probabilistic method.

The chapter V, it is an application in finance, where we applied the Black and Scholes formula by different methods.

????

ÉíäÇËáÇ ÉÌÑÏáÇ äã ÉíÆÒÌáÇ ÊÇÞÊÔãáÇ Ê?ÏÇÚã äíÈ ÉÏæÌæãáÇ ÉÞ?ÚáÇ ÑÇåÙÅ ìáÅ áãÚáÇ ÇÐå á?Î äã Ïåä

ÇåáÍ æ ÉíÆÒÌáÇ ÊÇÞÊÔãáÇ Ê?ÏÇÚãÈ ÉÞáÚÊãáÇ ÌÆÇÊäáÇ ÖÚÈ ìáÅ ÞÑØÊáÇ ìáÅ ÉÇÖ?ÇÈ

,

ÑÔäáá ÉíÆÇæÔÚáÇ ÊÇíáãÚáÇæ

. ÉíáÇãÊÍÇ ÞÑØÈ

: áæÕ ÉÓãÎ

ìáÅ

áãÚáÇ ÇÐå ãÓÞäí

,

ÇåáÂÇÔã

ÈäÌÊæ áÍáá ÉíãÞÑáÇ ÞÑØáÇ áÇãÚÊÓÇ ÈäÌÊ äã ÇääßãÊ ÌÆÇÊäáÇ åÐå

ÉÂÑÍ ÇåäíÈ äã æ , ÉÓÇÑÏáÇ åÐå í ÇåÌÇÊÍä íÊáÇ ÉíÖÇíÑáÇ ÊÇíÓÇÓ?Ç ÒÇÑÈÅ ìáÅ áæ?Ç áÕáÇ á?Î äã ÞÑØÊä

ÉíÆÇæÔÚáÇ ÊÇíáãÚáÇ ÇÖí ìãÓí íÐáÇæ,ÉíÆÇæ ÔÚáÇ ÉíáÖÇÊáÇ ÉáÏÇÚãáá áÍ æå íÐáÇ íÆÇæÔÚáÇ ÑíÓáÇ æ äÇíäæÑÈáÇ

. äÇíäæÑÈáÇ

ÉÂÑÍ

ìáÅ ÉÈÓäáÇÈ áÖÇÊáá ìäÚã ÁÇØÚÅ äã Çääßãí íÐáÇ æÊíÇ áãÇßÊ ìáÅ ÞÑØÊä Çã ,?????

ÍÑÔä ãË

, ÉíäÇËáÇ ÉÌÑÏáÇ äã ÉíÆÒÌáÇ ÊÇÞÊÔãáÇ Ê?ÏÇÚã áæÍ ÊÇíãæãÚ ìáÅ íäÇËáÇ áÕáÇ á?Î äã ÞÑØÊä

.Ê?ÏÇÚãáÇ åÐåá

?????? ??

ÇäíØÚÊ íÊáÇæ

,ÉíåÊäãáÇ ÞæÑáÇ ÉÞíÑØ íå æ Ê?ÏÇÚãáÇ åÐå áÍáÉíãÞÑáÇ ÞÑØáÇ ìÏÍÅ

ÉíÆÇæÔÚáÇ

ÉíáÖÇÊáÇ

Ê?ÏÇÚãáÇæ ÉíÆÒÌáÇ ÊÇÞÊÔãáÇ Ê?ÏÇÚã äíÈ ÉÏæÌæãáÇ ÉÞíãÚáÇ ÉÞ?ÚáÇ äíÈä

ËáÇËáÇ áÕáÇ í

?????

ÁÇØÚÅ äã

Çääßãí ÉíÑÙäáÇ åÐå ãíãÚÊ , ÓíÇ ????? ãÓÇ áãÍÊ íÊáÇ ßáÊ ÉÕÇÎ ÉÕÈæ

ÊÇíÑÙä á?Î äã

 
 

. íÈíÑÞÊ áÍ íáÇÊáÇÈæ ÉíÆÒÌáÇ ÊÇÞÊÔãáÇ

Ê?ÏÇÚãá ÉíáÇãÊÍÇ

äÇíäæÑÈáÇ ÉÂÑÍ ÑÇÓã áíËãÊÈ ÞíÈØÊáÇ ÇÐå ÄÏÈä æ, ÉÞÈÇÓáÇ áæÕáÇ í ÁÇÌ Çãá ÞíÈØÊ äÚ ÉÑÇÈÚ æå ÚÈÇÑáÇ áÕáÇ ,áãÚáÇ ÇÐåá ãå?Ç ÁÒÌáÇ ìáÅ áÞÊää ãË,ÑáíÇ ??íÑØ ÚÇÈÊÅÈ ßáÐæ ÉíÆÇæÔÚáÇ ÉíáÖÇÊáÇ ÉáÏÇÚãáá ÑÇÓã áíËãÊ ìáÅ áÞÊää ãË Çääßãí íÊáÇ ÉíÆÒÌáÇ ÊÇÞÊÔãáÇ ÉáÏÇÚã ÑÇÊÎä ÞíÈØÊáÇ áíåÓÊá , ÉíÆÒÌáÇ ÊÇÞÊÔãáÇ Ê?ÏÇÚãá ÉíáÇãÊÍ?Ç ÉãÌÑÊáÇ æåæ

äã ÇåíáÚ áÕÍÊãáÇ ÌÆÇÊäáÇ äÑÇÞäæ ÉíåÊäãáÇ ÞæÑáÇ ÉÞíÑØÈ ÇåáÍä ãË,( ÆÇßã ÚØÞ ÉáÏÇÚ?) ÉíáíáÍÊáÇ ÞÑØáÇÈ ÇåáÍ

 
 
 

. ÉáãÚÊÓãáÇ ÞÑØ áÇ á?Î

áæÕáÇ í ÇåíáÚ

áÕÍÊãáÇ ÌÆÇÊäáÇ áÇãÚÊÓÇÈ

ßáÐæ íáÇãáÇ ãÇÙäáÇ í ÞíÈØÊ æå ÑíÎ?Ç æ ÓãÇÎáÇ áÕáÇ

ÇääßãÊ íÊáÇ ÞÑØáÇ

?????

ãíÏÞÊ á?Î äã,ÒáæÔ ß?È

ÌÐæãä í ÊÇÑÇíÎáÇ ãííÞÊ ìáÚ ÉÓÇÑÏáÇ ÒÂÑä ËíÍ ÉÞÈÇÓáÇ

,

ÊÇÞÊÔãáÇ ÉáÏÇÚãÈ

ÑæÑãáÇ

ÉÞíÑØ ÑíÎ?Ç íæ áÇíãæäíÈ ÉÞíÑØæ æáÑÇ íÊäæã ÉÞíÑØ í,ÊÇÑÇíÎáÇ ÉãíÞ ÏÇÌíÅ äã

. ÒáæÔ ß?Èá ÉíÆÒÌáÇ

Sommaire

INTRODUCTION : . 1

CHAPITRE I: Mouvement Brwonien et calcul stochastique

0. Introduction : 3

1. Processus aléatoires : 4

2. Processus gaussien : 5

3. Mouvement brownien : 6

3.1. Construction du mouvement brownien : 6

3.2. Régularité des trajectoires du mouvement brownien : 8

3.3. Mouvement brownien standard : 9

3.4. Transformations du mouvement brownien standard : 10

3.5. Semi-groupe du mouvement brownien : 10

3.6. Mouvement brownien multidimensionnel : 13

4. Martingales et temps d'arrêt : 13

4.1 Martingales : 13

4.2. Comportement d'une martingale à l'infini : 14

4.3 Temps d'arrêt : 16

4.4. Tribu du passé d'un temps d'arrêt : 17

5. Intégrales stochastiques : 19

5.1. Variation quadratique : 19

5.2. Intégrales stochastiques : 21

5.2.1 Propriétés de l'intégrale stochastique : 23

5.2.2. Extension de l'intégrale stochastique : 24

5.3. Formule d'Itô : 25

6. Equations différentielles stochastiques : 28

6.1. Introduction : 28

6.2. Solutions d'une équation différentielle stochastique : 29

CHAPITRE II : Généralité sur les EDPs et la méthode des différences finies

0. Introduction : 34

1. Généralité sur les équations aux dérivées partielles : 35

1.1. Définitions : 35

1.2. Conditions initiales et conditions aux limites : 36

1.3. Classification des EDPs du second ordre : 37

1.4. EDPs du second d'ordre à plusieurs variables indépendantes: 39

1.5. Besoins en termes de conditions initiales et aux limites : 39

2. Méthode des différences finies pour les EDPs paraboliques : 40

2.1. Problèmes du premier ordre en temps: équation de la chaleur : 41

2.2.1. Schémas numériques de discrétisation par différences finies : 42

2.2.2. Erreur de troncature, consistance et ordre d'un schéma : 45

2.2.3. Stabilité des schémas numériques : 46

2.2.4. Convergence des schémas : 50

CHAPITRE III : Interprétation probabiliste des EDPs

0. Introduction : 52

1. Générateur infinitésimal : 53

2. Interprétation probabiliste des EDP: 54

2.1 Equation de la chaleur : 54

2.2. Formule de Feynman-Kac multidimensionnelle: 56

2.3.Problème de Cauchy pour des opérateurs généraux : 57

2.4. Interprétation des EDP de type elliptique : 58

a)Problème elliptique sans frontière : 59

b) Problème elliptique avec condition de Dirichlet : 59

2.5. Interprétation des EDP de type parabolique : 60

a. Problème parabolique sans frontière : 61

b. Problème parabolique avec condition de Dirichlet : 62

3. Discrétisation de problèmes : 63

3.1. Le schéma d'Euler : 63

3.2. La méthode de Monte Carlo : 63

CHAPITRE IV : Application

0. Introduction : 67

1. Discrétisation du mouvement brownien : 68

2. Discrétisation d'un processus de diffusion: 71

2.1. Schéma d'Euler- Maruyama : 71

2.2. Exemple de discrétisation d'un processus de diffusion: 72

3. Application à l'interprétation probabiliste des EDPs : 75

3.1. Problème N°=1 : 75

3.1.1. Illustration numérique du problème par la méthode déterministe(La méthode des différences finies) : 76

3.1.2. Illustration numérique du problème par la méthode probabiliste : 80

3.2. Problème N° 2 : 84

3.2.1. Illustration numérique du problème par la méthode des différences finies : 85

3.2.2. Illustration numérique du problème par la méthode probabiliste : 88

CHAPITRE V : Application en finance

0. Introduction : 91

1. Modèle du prix de l'actif: 91

2. Formule de Black et Scholes : 93

a. La méthode de Monte Carlo : 95

b. La méthode Binomiale : 96

c. EDP de Black et Scholes : 98

i. Mèthode des différences finies pour l'EDP de Black et Scholes : 99

ii. Méthode probabiliste pour l'EDP de Black et Scholes : 100

CONCLUSION : 103

ANNEXE... ..104

BIBLIOGRAPHIE... 111

INTRODUCTION:

Le but de ce travail est de montrer le lien entre les équations aux dérivées partielles du second ordre et les processus stochastiques de diffusion ainsi que de présenter quelques résultats obtenus récemment sur les équations aux dérivées partielles par des méthodes probabilistes.

Ces résultats fournissent une méthode probabiliste qui nous permet d'éviter les complications des méthodes numériques et écrire la solution comme l'espérance d'une fonctionnelle d'un processus de diffusion. Ce travail est présenté en cinq chapitres :

Le chapitre I, présente les outils mathématiques de base ([5], [9], [11], [12], [16], [17], [19], [26], [29], [31], [37], [38], [40], [42], [45], [48], [51]) entre autres le mouvement Brownien et les processus stochastiques solution d'équations différentielles stochastiques (EDS) connu sous le nom de processus de diffusion qui sont markoviens i.e. que leur état futur ne dépend que de leur état présent, notion clé de cette étude. Nous introduisons un nouveau type d'intégrale qui est l'intégrale stochastique dite d'Itô qui permet de donner un sens à la différentielle d'un mouvement brownien, notion importante sur laquelle repose la théorie des EDS.

Dans le chapitre II, on donne des généralités sur les équations aux dérivées partielles (EDP) de second ordre ; ensuite nous présentons une méthode

numérique pour la résolution des EDP: la méthode des différences finies ([3], [4], [10], [18], [23], [32], [54]), méthode utilisée dans les cas où la résolution par les méthodes analytique est impossible. Dans ce cas la solution trouvée est une solution approchée.

Dans le chapitre III, Nous exhibons le lien profond existant entre la notion des équations aux dérivées partielles (EDP) et celle des EDS à travers des théorèmes, en particulier, ceux dit de Feynman-Kac ([6], [9], [15], [16], [23] , [24], [35], [40], [49], [52]). La généralisation des ces théorèmes nous permet de donner une interprétation probabiliste des EDPs, et par conséquent, une solution approchée sous forme d'une espérance d'une fonctionnelle.

Le chapitre IV, est une application des notions introduites dans les chapitres I, II et III. Nous commençons par simuler les trajectoires du mouvement Brownien, ensuite, la simulation de la diffusion par la méthode d'Euler ([2], [4], [28]) et enfin à la plus important dans ce travail, qui est l'interprétation probabiliste des EDPs. Dans cette partie, on choisit une EDP (parabolique) que nous pouvons résoudre analytiquement, pour ensuite la résoudre par la méthode des différences finies, et on compare la solution donnée par les méthodes utilisées ([1], [13], [25], [26], [30], [34], [35], [50]). Dans le chapitre V, nous abordons l'application en finance. On s'intéresse particulièrement à l'évaluation d'options dans le modèle de Black et Scholes ([29], [41], [43], [44], [46], [53]). On illustre les différentes méthodes pour obtenir la valeur de l'option, c'est à dire, la méthode de Monte Carlo, Binomiale et le passage par l'EDP de Black et scholes (parabolique).

CHAPITRE I :

Mouvement brownien et

calcul stochastique

0. Introduction:

Le mouvement brownien est associé à l'analyse de mouvements dont l'évolution au cours du temps est si désordonnée qu'il semble difficile de la prévoir, même pour un temps très court, tel le mouvement d'une particule microscopique en suspension dans un liquide et soumise à l'agitation thermique.

Celui-ci joue un rôle central dans la théorie des processus aléatoires, d'une part parce que, dans de nombreux problèmes appliqués, le mouvement brownien sert à modéliser les erreurs ou les perturbations aléatoires, et d'autre part parce que le mouvement brownien ou les processus de diffusion qui en découlent permettent de construire des modèles simples sur lesquels des calculs peuvent être faits.

Le calcul stochastique, ou calcul d'Itô, du nom d'un des pionniers en ce domaine, est en fait un calcul d'intégrale par rapport au mouvement brownien. Ce dernier étant une fonction qui n'est pas à variation finie, cette notion d'intégrale n'est pas usuelle et sa définition en est probabiliste. Elle permet en particulier de définir la notion d'équation différentielle stochastique qui est une équation obtenue par la perturbation aléatoire d'une équation différentielle ordinaire. Les solutions de ces équations définissent de nouveaux processus, appelés processus de diffusion, et qui sont à la base du calcul probabiliste moderne. Ces processus sont souvent markoviens, au sens où leur comportement futur, conditionnellement au passé, ne dépend en fait que de l'état présent. Cette propriété, dite de Markov, est souvent vérifiée dans la réalité, en particulier, en physique, dans les réseaux de télécommunication, ou en mathématiques financières. Ainsi, les processus de diffusion sont précieux dans la modélisation de nombreux phénomènes aléatoires. On verra par ailleurs qu'il existe des liens importants entre leur loi et certaines équations aux dérivées partielles. Ces liens sont à la base de beaucoup de développements récents liant des résultats d'analyse et des résultats probabilistes.

1. Processus aléatoires : Définition 1:

On appelle processus aléatoire X = (Xt)t"une famille de variables aléatoires indexée par IR+, toutes ces variables étant définies sur le même espace de probabilité (fl, Jl, P). On suppose ici que chaque Xt est à valeurs réelles.

On peut également voir le processus comme une variable aléatoire X définie sur (fl, Jl, P) et à valeurs dans l'ensemble des fonctions de t 1-0 Xt de IR+ dans IR .

La théorie moderne des probabilités repose sur les résultats fondamentaux de Kolmogorov qui permettent, en particulier, de construire sur cet espace de fonctions une tribu qui rend l'application X mesurable (et permet donc de parler de variable aléatoire). Kolmogorov montre également que la loi de cette variable est caractérisée

par ses lois marginales de dimension finie, définies comme étant les lois des k-uplets (Xt1, ...,Xtk) , pour tous temps (t1, ..., tk).

Définition 2:

Les variables aléatoires Xt -- Xs , t > s ~ 0, sont appelées accroissements du processus (Xt).

Définition 3:

On dit qu'un Processus Xt est à accroissements indépendants et stationnaires si : (Indépendance): Xt -- Xs 1 Fsx = o-(Xs, 0 s t), V t > s ~ 0

(Stationnarité) : Xt -- Xs-- Xt+s -- X0, V t > s ~ 0

Pour de tels processus, donner la loi de Xt+s -- X0,Vt > 0, ainsi que celle de X0 suffit à caractériser entièrement le processus.

2. Processus gaussien : Définition 4:

Le processus X est un processus gaussien si chaque famille finie (Xt1, ...,Xtk) est un vecteur aléatoire gaussien.

Notons par m(t) = E(Xt) la « fonction » moyenne du processus, et par C(s, t) = cov(Xt,Xs) la fonction de covariance, les deux fonctions m et C déterminent complètement la loi de toute famille finie(Xt1, ...,Xtk), et donc aussi la loi du processus X, On a de manière évidente C(s, t) = C(t, s), réciproquement, on a le théorème suivant.

Théorème 1:

Soit une fonction m de 11+ à valeurs réelles, et une fonction C de 11+ x 11 à valeurs réelles, on suppose de plus que C est de type positif, c'est-à-dire que pour tous réels positifs (t1, ..., tk):

IC(tk,t1)tkt1 > -0

k,1

Alors, il existe un processus gaussien (Xt)t unique (en loi), tel que :

Vt E IR+, m(t) = E(Xt)

V t, s E IR+, C(s, t) = E ((Xt -- m(t))(Xs -- m(s)))

Ce théorème est une conséquence du théorème fondamental de Kolmogorov sur la construction des processus aléatoires.

Supposons maintenant que X soit un processus gaussien à trajectoires continues, au sens où, pour tout w, l'application t 1-0 Xt(w) est continue. On peut alors définir

t

l'intégrale : Yt = f o Xt(w) ds

et obtenir ainsi un nouveau processus Y. Puisque la limite de toute suite de lois normales est encore une loi normale (cela se prouve en utilisant la fonction caractéristique), on vérifie, en utilisant une approximation de Riemann de l'intégrale ci-dessus, que Y est encore un processus gaussien. Par un calcul on peut montrer que sa fonction moyenne m' et sa fonction de covariance C' sont données par :

t

me(t) = f m(s)ds

o

sC'(t, s) = f t

du f C(u, v)dv

o o

3. Mouvement brownien :

3.1. Construction du mouvement brownien :

Le mouvement brownien, ou processus de Wiener, joue un rôle fondamental dans de nombreux domaines. Il fut introduit pour la première fois en 1827 par le botaniste Robert Brown en observant des mouvements de grains de pollen dans un liquide. Ensuit par Louis Bachelier en 1900 pour des applications à la finance et a de nouveau,

à l'heure actuelle, un rôle important en mathématiques financières. Il fut redécouvert peu après Bachelier par Einstein, et est devenu depuis un des outils majeurs de la modélisation en physique. On le note : W = (Wt)t,0 ou B = (Bt)t,0 , Il peut être construit de différentes manières. Les définitions les plus usuelles du mouvement brownien sont les suivantes :

Définition 5 : un processus gaussien

Le mouvement brownien est un processus gaussien centré (E(Wt) = 0) pour tout t, de covariance C(s, t) = min (s, t) .

Définition 6 : un processus à accroissements indépendants stationnaires

Le mouvement brownien est un processus à accroissements indépendants et stationnaires. Plus précisément, pour tous s, t 0, la variable Wt+s -- Wt est indépendante des variables (Wr: r t), Wo = 0, et de plus la loi de l'accroissement Wt+s -- Wt est la loi normale N (0, s). Elle ne dépend donc que de s.

Commentons les équivalences entre ces deux définitions. Si W est un processus gaussien centré de covariance C(s, t) = min (s, t), ses accroissements ont de manière évidente la distribution souhaitée. Puisque, pour r < t: E((Wt+s -- Wt)Wr) = E(Wt+sWr) -- E((WtWr) = 0, la variable Wt+s -- Wt est indépendante des variables (Wr: r t), par les propriétés des vecteurs gaussiens. Le processus W est donc un processus gaussien à accroissements indépendants et stationnaires. Si, réciproquement, le processus W satisfait les propriétés de la définition 2, il est presque immédiat de vérifier que c'est un processus gaussien possédant les caractéristiques voulues.

Il existe une troisième approche classique du mouvement brownien, qui consiste à l'obtenir comme limite de marches aléatoires. Ce résultat fondamental est donné par le théorème de Donsker et est, en fait, au niveau des processus, une version du théorème usuel de la limite centrale.

Théorème 2 :

Soit une suite (Xn)n>0 de variables aléatoires réelles indépendantes, identiquement distribuées, avec E(Xn) = 0 et E(Xn2) = 1 . Soit Sn = E i<i.<n Xi. avec So = 0 .

Les processus des sommes normalisées Yt n = vin S[nt] (où [nt] désigne la partie

entière de nt ) convergent en loi, en tant que processus, vers le mouvement brownien.

3.2. Régularité des trajectoires du mouvement brownien :

Ainsi défini, le mouvement brownien n'a pas spécialement de régularité, en tant que fonction du temps à valeurs réelles. On va voir que, dans certains cas, le modèle mathématique permet de construire un processus « équivalent » au processus initial, et qui possède une propriété de continuité presque sure.

Définition 7 :

Deux processus X et X', définis sur le même espace de probabilité, sont dits des modifications l'un de l'autre si pour tout t , X = X' presque surement.

Le critère suivant, appelé critère de Kolmogorov, montre que sous certaines conditions, un processus peut avoir une modification qui est presque sûrement continue, au sens où, pour presque tout w, la trajectoire t 1-0 Xt(w) est continue. Théorème 3:

Si un processus X est tel qu'il existe trois constantes strictement positives a, /3, C avec, pour tous t et h :

E(|Xt+h. -- Xt|a) <Ch1+16 (1.1)

alors X admet une modification presque surement à trajectoires continues.

Dans le cas du mouvement brownien, la variable aléatoire Wt+h. -- Wt est gaussienne centrée de variance h, donc :

E(|Wt+h. -- Wt|4) < 3h2

Le critère de Kolmogorov s'applique et on obtient :

Théorème 4:

Il existe un processus W = (Wt)t,0 presque surement à trajectoires continues, à accroissements indépendants et stationnaires, et tel que, pour tout t, la variable aléatoire Wt est gaussienne centrée et de variance t.

Cette propriété peut également se comprendre grâce au théorème 1 de Donsker. Choisissons des variables Xn, qui prennent seulement deux valeurs -1 et 1, avec probabilité 1/2 pour chacune d'entre elles. Dans ce cas, les processus discontinus Yn ont des sauts de taille #177;1/Vn, qui convergent, uniformément sur tout intervalle de temps borné, vers 0. On peut donc s'attendre à ce que, à la limite, le processus W soit continu.

Dans la suite, nous considérons toujours des mouvements browniens ayant des trajectoires continues et qui sont nuls au temps 0. On appelle souvent un tel processus un mouvement brownien standard.

En affinant le critère de Kolmogorov, on peut également montrer que les trajectoires du mouvement brownien sont höldériennes d'ordre a, pour a < 1/2, c'est-à-dire que, presque sûrement |Wt+h -- Wt| C|h|a, pour une constante C. En dehors de ces résultats de continuité, les propriétés de régularité du mouvement brownien sont très mauvaises. On montre par exemple que :

Proposition 1 :

Les trajectoires t 1-0 Wt sont presque sûrement nulle part dérivables, et qu'elles sont même à variation infinie sur chaque intervalle de longueur positive. Cela signifie donc qu'il n'y a pas de mesure it,,(dx) telle que Wt(w) = it,,([0, t[). Pour cette raison, on ne pourra pas définir l'intégrale f f(s)dWt(w) qui serait l'intégrale de Stieltjes de la fonction f par rapport à la mesure (non existante) it,,(ds).

3.3. Mouvement brownien standard :

Définition 8:

Un mouvement brownien standard (abrégé M.B.S.) est un processus aléatoire à temps continu(Wt, t E IR+) tel que :

i) Wo = 0 p. s,

ii) (Wt) est à accroissements indépendants et stationnaires

iii) (Wt)--N(0, t), Vt > 0.

Cette définition permet de démontrer la propriété que (Wt) est à trajectoires continues.

Remarque :

De cette définition, il suit que pour t ~ s ~ 0, Wt -- Ws--Wt_s--N(0, t -- s) c'est à dire :

E(Wt -- Ws) = 0 et E((Wt -- Ws)2) = t -- s.

En appliquant la loi des grands nombres, on trouve encore que /qtt --> 0 p. s, lorsque t --> 00. De plus, on a /q,/: --N(0,1), pour tout t > 0.

3.4. Transformations du mouvement brownien standard :

Soit W un mouvement brownien standard. Alors les cinq processus ci-dessous sont également des mouvements browniens standards :

1) Wt(1) = --Wt (propriété de symétrie du mouvement brownien).

2) soit T E IL+ fixé : Wt(2) = Wt+T -- WT, t E IL+ (stationnarité).

3) soit T E IL+ fixé : Wt(3) = WT -- WT_t, t E [0, T] (renversement du temps).

4) soit a > 0 fixé : Wt (4) = 1 ,/a Wat, t E IL+ (loi d'échelle).

5) Wt(5) = tWi

t

, t > 0 et Wt(5): = 0 (inversion du temps).

3.5. Semi-groupe du mouvement brownien :

Définissons tout d'abord la notion de filtration, qui modélise l'évolution de l'information au cours du temps.

Soit un processus X = (Xt)t>0 sur un espace de probabilité (12, Jl, P). Nous notons Ft la tribu engendrée par les variables aléatoires Xs pour s t, qui est la plus petite
tribu rendant toutes ces variables mesurables. Nous avons Ft c Jl, et également Fs c Ft si s t.

Définition 9 :

1) La famille croissante F = (Ft)t>0 est appelée la filtration engendrée par le processus X, et est aussi notée F" = (Ft")t>0.

2) Plus généralement, une filtration est une famille F = (Ft)t,0 de tribus de A satisfaisant Fs c Ft si s t.

Propriété de Markov :

Considérons un mouvement brownien W sur (12,A,P), et la filtration F = (Ft)t,0 qu'il engendre. Puisqu'il est à accroissements indépendants, la variable Y := Wt+s -- Wt est indépendante de la tribu Ft, on a pour chaque fonction f borélienne bornée sur IR :

E(f(Wt+s)\Ft) = E(f(Wt + Y)\Ft)

= f IR 1/ ,2 its e'2/ 2s f (Wt + x)dx (1.2)

Cette formule montre que conditionnellement à Ft, la loi de Wt+s ne dépend pas de tout le passé (c'est-à-dire de toutes les variables W. pour r t), mais seulement de la valeur « présente » Wt du processus. On dira que le mouvement brownien est un processus de Markov.

Définition 10:

Un processus (Xt)t est un processus de Markov si, étant donné la filtration (Ft')t engendrée par le processus, celui-ci vérifie la propriété de Markov, à savoir que pour tous s, t 0 et pour toute fonction f borélienne bornée sur IR :

E(f(Xt+s)\Ft') = E(f(Xt+s)\Xt) (1.3)

Dans le cas du mouvement brownien, les variables W. pour r t d'une part, et les variables W. pour r t d'autre part, sont indépendantes, conditionnellement à la valeur de Wt. De plus, la loi de Wt+s sachant Ft dépend bien sûr de s, mais pas de t. On dit que le mouvement brownien est un processus de Markov homogène en temps.

Définition 11 :

Un processus (Xt)t est un processus de Markov homogène en temps si pour tous s, t 0 et pour toute fonction f borélienne bornée sur IR, il existe une fonction borélienne hs telle que :

E(f(Wt+s)\Ft') = hs (Xt) (1.4)

Si X = (Xt)t>0 est un processus de Markov, son evolution est decrite par une famille (Ps,t(x, dy))o.s.tde probabilites de transition de Ir vers Ir, (ou plus

generalement de (E,E) vers (E,E) si X prend ses valeurs dans l'espace mesurable (E,E) . La probabilite Ps,t(x,
·) represente la loi conditionnelle de Xt quand Xt = x .

Grâce à la propriete de Markov et à la relation E( E(X\3)\~) = E(X\~), on montre la propriete de semi-groupe. Pour 0 r s t :

Pr,t(x, A) = f Ir Pr,s(x,, dy) Ps,t6 7 , A) (1.5)

qui s'ecrit plus rapidement Pr,t = Pr,sPs,t .Observons que Ps,s(x, dy) est la mesure de Dirac 8x(dy) au point x.

Dans le cas ou X est un processus de Markov homogène, la probabilite de transition

Ps,t depend seulement de la difference t - s. En ecrivant Pt = P~,t = Ps,s+t pour tout t , on definit alors le semi-groupe de transition.

Définition 12 :

Soit X un processus de Markov homogène. On appelle semi-groupe de transition de X la famille (Pt)t>0 d'operateurs positifs lineaires :

Pt: 4) e L'(Irt) 1-0 Pt4) e L'(Irt)

Pt4)(x) = E(4)(~t)\X0 = x) = .1" 4)(y)Pt(x, dy)

Ird

qui satisfait Pt1 = 1 et la propriete de semi-groupe :

Po = Id, Pt+s = Pt 0 Ps , Vs,t > 0 (1.6)

Dans le cas du mouvement brownien, qui est un processus de Markov homogène, le semi-groupe (Pt)t>0 est donne par :

Pt(x, dy) = 1

V 27rt exp (-- (y_ 2:)2) dy (1.7)

comme le montre immediatement la formule (1.2).

En utilisant les relations (1.2) et (1.7), on obtient facilement les proprietes :

E(Wt\Fs) = Ws ; E(Wt2\~s) = Ws2 + t -- s (1.8)

3.6. Mouvement brownien multidimensionnel :

Définition 13:

Un mouvement brownien d-dimensionnel est une collection W = (Wt)1,t,d de dmouvements browniens à valeurs réelles Wt = (Wtt)t~o, qui sont indépendants entre eux.

Ce processus est encore un processus de Markov homogène (et même un processus à accroissements indépendants). Son semi-groupe vaut alors :

Pt(x, clY) =

1 exi 11Y -- x112Vcl

(V2mt) P 2t rY

où x et Y appartiennent à Rd, 11
·11désigne la norme euclidienne sur Rd, et clY la mesure de Lebesgue sur Rd.

4. Martingales et temps d'arrêt :

4.1 Martingales :

Nous allons maintenant définir et étudier en détails une classe fondamentale de processus, qui vérifient la propriété de la relation (1.3).

Définition 14:

Soit(Sl, c 4, P) un espace de probabilité, muni d'une filtration1F = (Ft)t~o.

· Un processus à valeurs réelles M = (Mt)t,o est une 1F-martingale si :

a) il est adapté à la filtration(Ft)t,o, ce qui veut dire que pour tout t, Mt est Ftmesurable ;

b) chaque variable Mt est intégrable, et :

s < t Ms = E(Mt\F~) (1.9)

· On dit que M est une 1F-surmartingale (resp. une 1F-sousmartingale) si l'égalité cidessus est remplacée par :

Ms > E(Mt\F~) (resp. Ms < E(Mt\F~) ) (1.10)

En particulier, l'espérance E(Mt) d'une martingale, (resp. d'une surmartingale,
sousmartingale), est une fonction constante du temps (resp. décroissante,
croissante). De manière évidente, une martingale est un processus qui est à la fois

une surmartingale et une sous-martingale et si M est une surmartingale, alors --M est une sous-martingale.

Remarque 1 :

Le mot « martingale » vient du monde des jeux, et a été donné initialement à la suite d'une mauvaise interprétation des « martingales » soi-disant trouvées par les joueurs pour gagner à coup sûr.

En fait, le sens mathématique de ce terme, appliqué à un jeu, est le suivant. Supposons que la variable Mt, égale au gain du joueur s'il arrête de jouer au temps t, soit une martingale. L'espérance « conditionnelle » du gain du joueur, si celui-ci arrête de jouer en un temps t strictement supérieur à s, et sachant le passé jusqu'au temps s, est alors égale au gain Ms qu'il obtiendrait s'il arrêtait de jouer au temps s. Ainsi, le jeu est équitable en espérance ou, en d'autres mots, le joueur maximisera la moyenne de ses gains en ne jouant pas du tout !

Exemples :

Soit W = (1/10t,0 un mouvement brownien, et F = (Ft)t,0 la filtration qu'il engendre.

Exemple 1 : le processus W est une F -martingale. En effet, Wt+s--Wrest centré et indépendant de Ft , et donc E(Wt+s--Wt\Ft) = 0.

Exemple 2 : le processus Mt = Wt2 -- t est une F -martingale. En effet :

Mt+s-- Mt = (Wt+s--Wt)2 + 2(Wt+s--Wt) -- s

~ ~ ~~~ ~~~~ ~ ~~

Exemple 3 : soit ~ ~ ~. Le processus ~~ t) est une F- martingale.

2

En effet :

~ ~ ~~~ ~~~~~~~~~~~ ~ ~~

~~~~

~ /~~ 2 ~~

A2 0-2

le fait que si U est une variable N(0, a2), alors E(exp(A.U)) = exp 2 .

4.2. Comportement d'une martingale à l'infini :

Soit M une surmartingale ou une sous-martingale pour la filtration F. On peut montrer qu'il existe une « version » de M pour laquelle toutes les trajectoires sont

continues à droite et ont des limites à gauche. Nous ne considérerons dorénavant que de telles versions. En fait, presque toutes les surmartingales et sousmartingales que nous rencontrerons dans ce travail auront des trajectoires continues.

Nous allons énoncer une propriété remarquable des martingales.

Proposition :

Si M est une martingale satisfaisant :

suptER+ E(|Mt|) < +00 (1.11)

alors t 1-> Mt(w) admet, pour presque tout w, une limite (qui peut être infinie) quand t 1-> +00 , et cette limite est notéet 1-> M,(w).

Observons que cette propriété ne s'applique pas à l'exemple 1 ci-dessus, pour

lequel E(|Wt|) = .12t h r, ni pour l'exemple 2, pour lequel E(|Mt|) = ct pour une
constante c > 0, tandis qu'il s'applique pour l'exemple 3, puisque E(IMt~~) =

E(Mt~) = 1.

Une importante question est alors de savoir quand cette égalité (1.9) reste vraie pour s = 00 . La réponse (non triviale) est la suivante.

Théorème 5:

Mt = E(Mc\Ft) <=> Mt - Moo dans L1 (1.12)

Ces propriétés sont, comme on l'a vu grâce à l'exemple 3, strictement plus fortes que la relation (1.11). Elles sont en fait équivalentes au fait que M est une martingale uniformément intégrable, au sens suivant.

Définition 15:

La famille des variables aléatoires (Mt)t>0 est uniformément intégrable si :

lim sup t E(|Mt|1|m~|>a) = 0 (1.13)

a-+oo tER+

Inégalité de Doob :

L'inégalité suivante est fondamentale et spécifique aux martingales. Elle donne un contrôle en norme LP du supremum d'une martingale, sur un intervalle de temps fini, en fonction de la valeur absolue de sa valeur terminale.

Théorème 6:

Soit M une martingale nulle en 0. On note. Mt~ = sup

.s..t

IMsI.

Alors, pour tout entier p > 1,

E(( MnP) ( )

P 13

1 - p E(PMt|P)

4.3 Temps d'arrêt :

Cette notion joue un rôle très important en théorie des probabilités.

Définition 16:

Soit F une filtration. Une application T : 12 1-> [0, oo] est un temps d'arrêt si (T t} E Ftpour tout t 0.

Un temps d'arrêt est donc un temps aléatoire, tel que sur chaque ensemble

(w: T(w) t}, l'application w 1-> T(w) dépend seulement de ce qui s'est passé avant le temps t.

Un joueur honnête, qui ne peut pas anticiper sur les événements futurs, peut décider d'arrêter le jeu au temps aléatoire T uniquement si T est un temps d'arrêt. Un exemple trivial de temps d'arrêt est donné par T(w) = t pour tout w.

En dehors des temps constants, l'exemple fondamental de temps d'arrêt est le temps d'atteinte d'un ensemble borélien A par un processus x à trajectoires continues à droite et adapté à la filtration F. On définit plus précisément :

T = inf(t 0 ; xt E A)

(avec la convention que l'infimum de l'ensemble vide vaut+oo).

Le fait que le temps d'atteinte de l'ensemble A est un temps d'arrêt est difficile à prouver pour un borélien A arbitraire, mais facile à prouver quand A est un ensemble ouvert. En effet, dans ce cas :

(T t} = (xt E A} U (urEQn[0,t] (xr E A}) ce qui permet de conclure.

Considérons X et A comme ci-dessus et S un temps d'arrêt. Un nouvel exemple de temps d'arrêt est T = inf(t: t > S ; Xt E A). Ce temps est le temps d'atteinte de A par X, après le temps S.

En revanche, le dernier temps avant un temps fixé s où un processus adapté X visite un ensemble borélien A, défini par T = sup(t: t > s ; Xt E A) (où le supremum de l'ensemble vide est égal à 0) n'est pas un temps d'arrêt. En effet, T est mesurable, mais la valeur de T(w) dépend de tout ce qui s'est passé pour le processus X entre les temps 0 et s.

4.4. Tribu du passé d'un temps d'arrêt :

Définition 17:

Soit T un temps d'arrêt. On appelle tribu du passé T, la tribu notée FT égale à l'ensemble de tous les événements A E A tels que A n (T t) E Ft pour tout t.

Il est facile de voir que FT est une tribu, et cette notation est cohérente avec la notation Ft car si T est identiquement égal à t, il est clair que FT = Ft. La tribu FT est appelée tribu du passé de T, car elle peut être interprétée comme suit : A E FT si, quand on s'arrête au temps T, on sait si A est réalisé ou non.

Voici quelques propriétés simples. Ci-dessous, S, T, (R)n désignent des temps d'arrêt, et la filtration F est supposée vérifier que Ft =ns>t Fs.

(U < t) E Ft , Vt = U est un temps d'arrêt.

S < T =FscFT

(S < T) E Fs n FT, (S T) E Fs n FT

R = infn(Rn) est un temps d'arrêt et FR =nn FRn

R = supn(Rn) est un temps d'arrêt.

Théorème d'arrêt :

Soit M une martingale. La propriété (1.9) peut facilement être étendue aux temps d'arrêt bornés.

Théorème 7:

Si S et T sont deux temps d'arrêt et si a E 11., alors :

Ms = E(MT\Fs) sur l'ensemble (S T a) (1.14)

En particulier, si T est un temps d'arrêt qui est borné, on a :

E(MT) = E(Mo) (1.15)

Quand Mt désigne de nouveau le gain d'un joueur au temps t , la propriété (1.15) peut être interprété comme suit. Quelle que soit la stratégie non anticipante que le joueur choisit pour arrêter le jeu, et s'il doit finir de jouer avant un temps déterministe donné (aussi grand que soit ce temps), alors la valeur espérée de son gain est constante et égale à son capital initial.

Observons que la relation (1.14) est, en général, fausse sur l'ensemble(S T}, et de même (1.15) est fausse si T n'est pas borné.

Par exemple si M = W est un mouvement brownien et si T = inf(t: Mt = 1), alors E(M0) = 0 < E(MT) = 1 Dans ce cas, le temps aléatoire T est presque sûrement fini, mais n'est pas borné et a même une espérance infinie.

En revanche, dans le cas d'une martingale uniformément intégrable, tout se passe bien.

Théorème 8:

Si M est une martingale uniformément intégrable, alors la relation (1.14) est satisfaite sur (S T}, et (1.15) a lieu pour tout temps d'arrêt T.

Remarquons que l'on peut considérer des temps d'arrêt qui peuvent prendre la valeur infinie, pourvu que l'on pose Mt = M0 sur l'ensemble( T = 0}.

Une autre propriété importante, en lien avec la propriété (1.14), concerne le processus arrêté au temps T, défini par MtT = Mini,i(t,T).

On peut facilement déduire de (1.14) que si M est une martingale et T un temps d'arrêt, alors :

MTest une martingale.

Définition 18:

Si M est une martingale et T un temps d'arrêt par rapport à la même filtration, on appelle martingale arrêtée au temps T la martingale MT.

5. Intégrales stochastiques :

On a vu que le mouvement brownien est à variation infinie, et que l'on ne peut donc pas definir une integrale de Stieltjes qui lui serait associee. On va toutefois voir qu'il est possible de definir une integrale d'une autre nature, definie dans un sens quadratique.

5.1. Variation quadratique :

Soit X un processus à valeurs reelles. On appelle « variation quadratique approximee » de X au niveau n le processus suivant :

V(X, n)t = E_i (Xi/n -- X(i_1)/n)2 (1.16)

où [nt]est la partie entière de nt.

Si X est un processus continu et à variation finie, au sens où X est la difference de deux processus Y et Z dont les trajectoires sont croissantes et de valeurs finies, il est facile de verifier que V(X,n)t tend vers 0 quand n tend vers l'infini.

Supposons maintenant que X = W soit un mouvement brownien. Chaque accroissement W/n -- W(i_1)/n a une loi normale .N(0, 1 /n ), et donc [nt]

n

E(V(W,n)t) = . On en deduit que E(V(W,n)t) tend vers t quand n tend vers

l'infini. Il est alors naturel et facile de prouver que V(W,n)t converge vers t dans L1. Au vu de ce resultat, nous disons que la variation quadratique du mouvement brownien est (W, W)t = t. Cela montre en particulier que les trajectoires du mouvement brownien ont une variation infinie sur les intervalles finis.

On considère maintenant plus generalement une martingale continue M. Définition 19 :

La martingale continue M est dite de carre integrable si pour chaque t , Mt E L2. On peut alors, grâce au resultat suivant, definir la variation quadratique de M. Proposition 20:

Soit M une martingale continue de carre integrable. La variable aleatoire

V(M,n)t converge dans L1, quand n tend vers l'infini, vers une variable

(M,M)t notée ( (M,M)t)tn. Le processus est croissant, continu, et est appelé la variation quadratique de M. De plus, il vérifie que :

Mt2 -- (M,M)t est une martingale (1.17)

En fait, (M,M)t est l'unique processus croissant, continu et adapté, nul en 0, tel que l'on ait (1.17).

Remarque 2 :

On a donc :

(W, W)t = t ; Wt2 -- t est une martingale.

En fait ceci est caractéristique du mouvement brownien d'après le théorème de Paul Lévy suivant.

Théorème 9 :

Toute martingale M continue de carré intégrable, et telle que Mt2 -- t soit encore une martingale, est un mouvement brownien.

L'application M 1-0 (M,M)t se comporte comme une forme quadratique, ce qui explique la notation. Si a, b sont des réels, par la caractérisation ci-dessus, on obtient facilement que (aM, bM) = ab(M, M). On peut lui associer une sorte de « produit scalaire », en posant, pour chaque paire M,N de martingales de carré intégrable et continues :

(M, N) = 4i ((M + N, M + N) -- (M -- N, M -- N)) (1.18)

formule qui pourrait être comparée à la formule :

(x, 17) =

4 (11x + 17112 -- 11x -- 17112)

1

pour le produit scalaire usuel et la norme euclidienne dans IRY.

Observons que MN -- (M, N) est une martingale, et (M, N) est l'unique processus Y continu, adapté, nul en 0, et à variation finie, tel que MN -- Y soit une martingale.

En particulier, si W = (Wt)i,t,d est un mouvement brownien d-dimensionnel, on a :

(Wt, Wl)t = Stlt (1.19)

où Sii = 1 si i = j et 8' = 0 sinon. C'est evident si i = j, et pour i # j le fait que (Wi, W1) = 0 vient du fait que le produit WiWi est une martingale, comme produit de deux martingales independantes.

En fait, cette propriete caracterise le mouvement brownien. En effet, on peut enoncer le théorème de Paul Lévy suivant.

Théorème 10:

Toute martingale M d-dimensionnelle, continue, de carre integrable, telle que :

(Mt, Mi)t = atit,

est un mouvement brownien d-dimensionnel.

5.2. Intégrales stochastiques :

Nous souhaitons maintenant donner un sens à l'integrale fot HAM. quand W est un

mouvement brownien et H = (Ht)t,0 un processus, dont nous preciserons ces proprietes dans ce paragraphe.

Nous nous limiterons essentiellement à des integrants H qui sont continus en la

variable t. L'idee est alors d'obtenir C HAWs comme limite de sommes de Riemann: I(H,n)t = ? ~~~~~~ /~

~~~~ ~~~ ~ ~ ~~~~~~

~ ~ ~1.20~

~~~

La variable W/n -- 1/17(i_1)/n a une taille d'ordre 1/vn, car elle est centree et de variance 1/n, et donc H(i_i) /n (Wi/n -- 14i_1/n) est egalement d'ordre 1/vn . La

taille de I(H,n)t devrait donc être vn. Mais, dans ce cas, les variables I(H,n)t ne pourront en general pas converger ; cela est coherent avec le fait que les trajectoires de W sont à variation infinie.

Pourtant, une sorte de « miracle » a lieu, quand on suppose de plus que le processus H est adapte à la filtration du mouvement brownien. Par simplicite, on supposera aussi que ce processus H est borne par une constante, mais cette hypothèse peut être allegee.

Dans ce cas, la variable

Y(n, i) = 1(i-1) /n (Wi/n -- W(i-1)/n)

satisfait E(Y(n, i) /F(i-1) /n ) = 0

et E(Y(n, i)2/F(i-1) /n ) = H(i-1) /n , n c2 /n , de telle sorte que

[nt]

I(H,n)t = 1 Y(n, i)

i=1

est centrée, de variance :

[nt]

1 E(Y(n, i)2)

i=1

< c2t

Il n'est alors pas totalement déraisonnable de penser que la suite I(H,n)t converge et, effectivement, on peut montrer le théorème suivant.

Théorème 11:

Soit H un processus borné, continu et adapté à la filtration du mouvement brownien. Alors la suite :

[nt]

I(H,n)t = IH(i-i) /n (Wi/n -- W4i-1)/n)

i=1

converge dans L2 , quand n tend vers l'infini, vers une limite, notée :

f

t HAW, o et appelée l'intégrale stochastique de H par rapport à W sur l'intervalle [0, t].

Remarque 3 :

1. Si H n'est pas adapté, les sommes de Riemann ne convergent pas en général.

2. On observe que la relation (1.20) est une forme particulière de somme de Riemann.

Si on remplace

H(i-i) /n (Wi/n -- W(i-1)/n)

par W

Ht(n,i)( i/n -- W(i-1)/n) ,

avec (i -- 1) /n t(n, i) i/n comme il est possible de le faire pour les

approximations par les sommes de Riemann pour les intégrales usuelles, la suite

associée I(H, n)t ne converge pas nécessairement et, si elle converge, la limite peut être différente def ot HsdWs.

3. La terminologie « intégrale stochastique » permet d'insister sur le fait que cette intégrale n'est pas une intégrale de Stieltjes usuelle, prise séparément pour chaque valeur de co, mais une limite dans L2 .

4. Il est possible de définir l'intégrale f ot HsdWs pour des intégrants H bornés qui ne

sont pas continus en temps. Mais, dans ce cas, l'adaptation de H à la filtration n'est pas suffisante et il faut supposer plus de mesurabilité. (La propriété requise s'appelle la mesurabilité progressive).

5. Il est aussi possible de définir l'intégrale f otHsdWs. pour des intégrants continus non bornés H, ou même pour des intégrants non bornés satisfaisants la mesurabilité progressive mais, dans ce cas, on doit supposer que l'intégrale f otHs2ds est finie pour tout t.

5.2.1 Propriétés de l'intégrale stochastique :

Les propriétés d'adaptation sont ici implicitement définies par rapport à la filtration du mouvement brownien W.

Théorème 12:

Soit H et K des processus bornés, continus et adaptés.

1. Pour tous réels a,13,

f o

t t t

(aHs + 13Ks)dWs = a f HsdWs + 13 f KsdWs

o o

2. Le processus M défini par Mt = f(t) HsdWs est une martingale continue de carré intégrable, nulle en 0.

3. Si, de plus, Nt = f: KsdWs, on a :

(M,N)t = f(t) HsKsds (1.21)

En particulier, on a l'isométrie fondamentale, donnée par la formule suivante :

2

E ((f: HsdWs)) = E(f o t Hs2ds ) (1.22)

5.2.2. Extension de l'intégrale stochastique :

Si l'on souhaite definir l'integrale stochastique d'un processus continu adapte H par

rapport à une martingale M de la forme Mt = f(t) Ks.dWs., il suffit de poser :

f : Hs.dMs. = f ot(Hs. Ks.)dWs. (1.23)

Plus generalement, on peut definir l'integrale stochastique d'un processus continu

adapte H par rapport à une martingale continue M, dès que (f (t) Hs.2d (M, N)s.) < 00
Cette integrale, encore notee par f :Hs.dMs., est obtenue comme limite des sommes
de Riemann (1.20) où M remplace W. Si Mt = f(t) Ks.dWs., on retrouve le processus

defini par la relation (1.23).

Nous avons les proprietes suivantes :

Proposition 2 :

Soit M, M' des martingales continues, H et K des processus continus, adaptes à Fm,

et H' continu et adapte à Fm' .

t t

1. H 1-> f o HdMs.et M 1-> f o Hs.dMs. sont lineaires.

2. Si Nt = f :Hs.dMs., alorsf o t Ks.dNs. = f : Hs.k.dMs. .

3. Si Nt = f : Hs.dMs. et N' = f :H;dM;, on a :

(N, N')t = f ot Hs.H;d (M, M')s. (1.24)

En particulier, la formule ci-dessous generalise (1.22) :

2

E ((f : Hs.dMs.) ) = E(f:Hs.2d (M, M)s.) (1.25)

4. Si H est borne, le processus N defini par Nt = f ot Hs. dMs. est une martingale

continue nulle en 0. Si H n'est pas borne, le manque possible d'integrabilite en fait ce qu'on appelle une « martingale locale », mais nous ne developperons pas ce point dans cette partie.

5.3. Formule d'Itô :

Quand t 1-0 x(t) est une fonction réelle, continue et à variation finie, la formule d'intégration par parties implique que pour toute fonction f continûment dérivable, on a :

f(x(t)) = f(x(0)) + f ot f' (x(s))dx(s) (1.26)

et il existe également une version multidimensionnelle de cette formule.

Celle-ci devient fausse quand la fonction x est remplacée par un mouvement brownien W, ou par une martingale continue M.

En effet, si la relation (1.26) était vraie, en prenant f(x) = x2 , on obtiendrait

Wt2 = 2 f : Ws.dWs. et, puisque le processus défini par l'intégrale stochastique est

encore une martingale, on pourrait en déduire que Wt2 est une martingale. Or, on a vu au paragraphe précédent que la variation quadratique de W au point t est égale à t, et donc le processus Wt2 -- t est aussi une martingale. Par différence, le « processus » t devrait alors être une martingale, ce qui est évidemment faux.

Ainsi la relation (1.26) est fausse pour le mouvement brownien. Pour obtenir une formule juste, on doit ajouter un terme de plus (appelé quelque fois terme de correction d'Itô) et supposer plus de régularité sur f.

Théorème 13:

Considérons une martingale continue X, de variation quadratique ( X, X). Soit f est une fonction de classe C2, alors on a :

f(Xt) = f(Xo) + f o t f'(Xs.)dXs. + 21 f ot f" (Xs.) d(X, X)s. (1.27)

où f"est la dérivée seconde de f.

Cette formule est connue sous le nom de « formule d'Itô » et est extrêmement utile.

La formule d'Itô appliquée au mouvement brownien X = W et à donne

Wt2 = t + 2 f : Ws.dWs. et on retrouve bien la propriété que Wt2 -- t est une martingale.

Cette formule n'est pas suffisante pour les applications. On a souvent besoin de considérer des processus de la forme plus générale suivante.

Définition 21 :

Un processus X de la forme X = M + A , où M est une martingale continue et A un processus adapté, continu et localement à variation finie (à variation finie sur tout compact de IR+ ), est appelé une semi-martingale continue.

En regroupant l'équation (1.26) pour A et (1.27) pour M, on obtient pour f de classe CZ une version de la formule d'Itô pour les semi-martingales.

Théorème 14:

Soit X = M + A une semi-martingale, et f une fonction de classe C2. On a:

~ ~~

~~~~~ ~ ~~~~~ ~ ~ ~~~~~~ ~~~ ~ ~ ~~~~~~ ~~~ ~ 2 1 ~ ~~~~~~~ ~~~, ~~~ ~1.28~

~ ~ ~

Donnons égalementt la forme « multidimensionnelle » de la formule d'Itô.. Théorème15::

Soit X = (Xt)i,t,d des semi-martingales de décompositionss XL = Mt + At , oùu les Mt sont des martingales continues et les At des processus adaptés,, continus et localement àa variation finie. Soit f une fonction de classe C2 sur Irt, dont les~~ dérivées partielles des premier et second ordres sont notées ~~ ~ et ~~~ b respectivement.

On a:~

~~~~~ ~ ~~~~~ ~ ? ~~ ~~

~ ~

~~~~~ ~~~~ ~ ~ ~~ ~~~~~ ~~~~~

~~~ ~ ~ 0~1.29~

~ 2 1 ? ~ ~~~

~ ~ ~~~~~~ ~~~~, ~~~~

~,~~~ ~ s

Remarque 4 :

Par abus de notation, on écrit souvent cette équationn sous une forme différentielle, bien que ce soit purement formel :

d

<Ant = fx(t)(dAlt + dmo i,j=1

1

~2 ft7(Xt)d(1',, Mi)t (1.30)

Observons que ces formules impliquent en particulier que le processusf(X),, image
d'unee semi-martingale X par une fonction f de classe C2, est encore une

semi-martingale, et que sa décomposition en somme d'une martingale et d'un processus localement à variation finie, les deux continus et adaptés, est donnée directement par (1.29). L'intégrale stochastique par rapport à M est la partie martingale, et le processus à variation finie est formé de la somme des autres termes. Exemple 1 :

Considérons deux semi-martingales continues X et Y avec :

Xt = Mt + At; Yt = Nt + Ct

M et N étant les parties martingales. En prenant f(x, y) = xy, on obtient immédiatement :

t t

XtYt = X0Y0 + 1 Ys dXs + 1 XsdY~ + (M,N)t

o o

Exemple 2 :

et ~~~, ~~ ~ ~~~ ~~~ ~ ~~

Appliquons (1.28) pour ~ ~ 2, et ~~ ~ ~ ~~, ~~ ~ ~ ~ ~ y). On

~ ~ ~ ~~

a ~~ ~ ~ ~~, ~~ ~ ~ 0, ~~ ~ ~ 0, ~~ ~ ~ ~, et ~~ ~ ~ ~~ , ~~~

~~ ~ ~~~ , ~~ ~ f On

obtient ainsi :

~

~~ ~ ~ ~~~ ~~~~ ~ ~~ 2 ~~ ~ 1 ~ ~ ~~~ ~~~~ ~ ~~ 2 s) dWs

~

~

et on retrouve le fait que ~~ est une martingale, comme on l'avait déjà. Exemple 3:

Plus généralement, si H est un processus borné, continu, adapté, on définit :

~ ~

~~ ~ ~~~ ~~ ~~~~~ ~ 2 1 f Hsds)

~ ~

et on montre par la formule d'Itô que Z est solution de l'équation :

Zt = 1 + fot ZsHsdWs; t 0

Cette équation est un exemple d'équation différentielle stochastique, équation que l'on étudiera au paragraphe des EDS.

Exemple 4 :

Un deuxième exemple d'équation différentielle stochastique, appelé le modèle non homogène de Black et Scholes, utilisé en finance, est donné par l'équation formelle:

dSt = St11(t)dt + Sta(t)dWt , SO = 1 (1.31)

Les fonctions 11 et a ?sont à valeurs réelles, avec a(t) > 0, W est un mouvement brownien, et S est le processus « inconnu ». C'est une équation linéaire, qui peut être résolue explicitement. La solution est de la forme St = exp(Mt + At), où M est une martingale continue et A un processus adapté, continu et localement à variation finie. Pour trouver M et A, on applique la formule d'Itô (1.30) à la fonction f(x, y) = ex+Y , ce qui donne :

dSt = StdMt + StdAt +

1

2 Std(M, M)t

En identifiant avec (1.31), on obtient dMt = a (t)dWt, d'où Mt = f : a (t)dWt. On en déduit que (M, M)t = fot a(s)2ds, d'où dAt + 21 a(t)2 dt = 11(t)dt et

At = f ot (11(s)-- 21 a(s) 2 ) ds Finalement une solution de (1.31) est dormée par :

t

1

St = exp (1 a (s)dWs. + f (11(s)-- t

2 a(s)2) ds)

~ ~

6. Equations différentielles stochastiques :

6.1. Introduction :

De manière informelle, on appelle équation différentielle stochastique une équation différentielle ordinaire perturbée par un terme stochastique. Plus précisément, c'est une équation du type suivant :

dXt = b(t, Xt)dt + a(t, Xt)dWt, X0 = x0 , (1.32)

Dans cette équation, dWt est la « différentielle » d'un mouvement brownien W, et b, a sont les coefficients de l'équation (ce sont des fonctions de 11+ x 11 dans 11), et x0 E 11 est la valeur initiale. Tous ces termes sont donnés. La notation (1.32) est la plus usuelle, mais elle n'a pas de sens (car la différentielle dWt n'a pas de sens). Le sens mathématique sera donné sous forme d'une équation intégrale.

Définition 22 :

Rechercher une « solution » de l'équation (1.32) consistera à rechercher un processus X = (Xt)t>0 satisfaisant l'équation intégrale :

t t

Xt = f 0 b(s,Xs)ds + f 0 a(s,Xs)dWs (1.33)où la seconde intégrale est une intégrale stochastique.

L'équation (1.32) ou l'équation (1.33) étaient jusqu'à présent unidimensionnelles. On peut également définir une équation d-dimensionnelle de la manière suivante. Le processus inconnu X = (Xt)i,t,d est une famille de processus à valeurs réelles Xt = (Xtt)t,0, la condition initiale x0 = (xt0)i,t,d appartient à Rd , le mouvement brownien W = (Wt)i<t<ti est q-dimensionnel, et les coefficients ont les dimensions appropriées, soit b = (bt)i,t,d et a = (at,i)i,t,d,i,i<ti, où les coefficients bt et at,i sont des fonctions de R+ x Rd dans R. On écrit encore l'équation sous les formes (1.32) ou (1.33), mais cela signifie maintenant que l'on a :

Xtt = xt0 + f :bt(s,Xs)ds + Eci=i f :at,i (s,Xs)dWst , i = 1, ...., d (1.34)

Définition 23 :

Quand les coefficients b et a ne dépendent pas du temps et sont seulement des fonctions définies sur Rd , on dit que l'équation est homogène.

Le coefficient b est appelé le coefficient de dérive, tandis que a? est le coefficient de diffusion. Un processus qui résout l'équation (1.32), ou de manière équivalente (1.34), est appelé processus de diffusion ou, plus simplement, une diffusion. On notera par EDS le terme « équation différentielle stochastique ».

6.2. Solutions d'une équation différentielle stochastique :

Notre première tâche est de donner un sens précis au mot « solution » de l'équation différentielle stochastique (1.33).

Définition 24 :

Soit un mouvement brownien W = (Wt)i<t<ti q-dimensionnel sur un espace de probabilité (12,A,P) , et F = (Ft)t,0 la filtration qu'il engendre. Les coefficients b et a, de même que la condition initiale x0 E Rd , sont donnés. Nous appelons solution forte de (1.34) tout processus d-dimensionnel X = (Xt)i,t,d, continu, adapté à la filtration, et tel que (1.34) a lieu.

Observons que l'adaptation de X est nécessaire pour que l'intégrale stochastique dans (1.34) ait un sens.

Remarque 5 :

Il existe une autre notion de solution, qui en un sens est plus naturelle, bien que moins intuitive. Plus précisément, nous appelons solution faible de l'EDS (1.34) la loi d'un processus X qui résout l'équation (dans un certain espace de probabilité muni d'un mouvement brownien). On peut montrer que si l'on a unicité de la solution forte, alors, on a unicité de la solution faible.

Le premier problème à résoudre concerne l'existence et l'unicité d'une solution. Considérons tout d'abord le cas d'une équation différentielle ordinaire, de la forme:

dXt = b(t, Xt)dt , X0 = x0 (1.35)
où le coefficient b et la condition initiale x0 sont donnés.

Bien sûr, un tel problème est purement déterministe. Un résultat classique énonce que (1.35) admet une et une seule solution dès que :

11b(t,x) -- b(t,Y)11 C11x -- Y11 , 11b(t, 0)11 C (1.36)

où C est une constante, et 11
·11est la norme euclidienne dans Wi.

La première condition dans (1.36) est appelée condition de Lipschitz. Revenons maintenant à l'EDS (1.34). On peut prouver essentiellement le même résultat. Théorème 16 :

~ (1.37)

Sous les hypothèses de la définition 24 et si, de plus, les coefficients b et a- satisfont, pour tous t, x, Y :

11b(t, x) -- b(t, Y)11 + 110(t, x) -- a(t, Y)11 C11x -- Y11

11b(t,0)11 + 110(t, 0)11 C

(où 11.11 désigne la norme euclidienne dans Wi ou Wig et C une constante positive), alors pour tout T > 0, il existe une et une seule solution forte X dans l'espace :

t.T

Li = [Xcontinus, adaptés; E (sup11Xt112) < 00}

Remarque 6 :

1) L'unicité est comprise au sens presque sûr : si X et X' sont deux solutions fortes, alors, en dehors d'un ensemble de P-mesure nulle, on a Xt = X; pour tout t.

2) Le fait que l'on obtienne une solution dans un espace de type L 2 n'est pas surprenant : c'est en effet dans ce cadre que l'on a développé le calcul stochastique. Nous avons déjà rencontré, l'EDS non homogène linéaire suivante :

dXt = pt(t)Xtdt + a(t)XtdWt, X0 = 1 (1.38)

où pt? et a? sont des fonctions continues bornées sur IR+ . Elle a une solution explicite donnée par :

t

1

Xt = exp (1 a(s)dWs. + 1 (pt(s)-- t

2 a(s)2) ds)

~ ~

on a ici d = q = 1 et les coefficients b(t,Xt) = pt(t)x et a(t,x) = a(t)x

satisfont à (1.37). Le théorème implique alors que la solution explicite est l'unique solution forte de cette équation.

Quand pt(t) = pt et a(t) = a sont constants, la solution est appelée «mouvement brownien géométrique avec drift ».

Comme pour les équations différentielles ordinaires, les hypothèses (1.37) de lipschitzianité et de bornitude sont suffisantes, mais pas nécessaires, pour obtenir l'existence et l'unicité de la solution. Par exemple, on a le résultat plus fort suivant, spécifique à la dimension 1.

Théorème 17 :

Dans le cas d'une EDS unidimensionnelle, si on a :

|b(t,x) -- b(t,Y)| + |a(t,x) -- a(t,Y)|2 C|x -- Y|

|b(t, 0)| + |a(t,0)| C

~ (1.39)

alors il existe une unique solution forte.

Ici, a n'est plus lipschitzienne, mais seulement höldérienne de rapport 1/2. Remarque 7 :

Très souvent, on considère des EDS homogènes. Pourtant, en pratique (spécialement en finance), les EDS non homogènes sont utiles. Dans ce cas, l'hypothèse (1.37) est un peu restrictive, car souvent, les coefficients « explosent » quand le temps tend vers l'infini. Il est alors utile de savoir que l'existence et l'unicité sont préservées, quand (1.37) est remplacée par :

Ilb(t, x) -- b(t, y)Il + Ila(t, x) -- a(t, y)Il CtIlx -- yIl

I

Ilb(t, 0)Il + Ila(t, 0)Il Ct

où t 1-0 Ct est une fonction croissante à valeurs finies. Processus d'Ornstein-Uhlenbeck :

Le mouvement brownien a ete construit pour modeliser le deplacement d'une particule microscopique, en suspension dans un liquide, soumise à l'agitation thermique. Une critique importante faite à cette modelisation est que les accroissements sont independants et ne dependent pas de la vitesse de la particule au debut de chaque periode. Un modèle plus sophistique, tenant compte de la vitesse de la particule, conduit alors au processus suivant.

Définition 25 :

On appelle processus d'Ornstein-Uhlenbeck le processus X à valeurs reelles, solution de l'EDS :

dXt = --bXtdt + cdwt , Xo = xo (1.40)

où xo E R , b E R et c > 0.

Les coefficients de cette equation satisfont (1.37), donc il y a une solution et une seule. On peut montrer à l'aide du calcul stochastique que X a la forme explicite :

Xt = xoe-bt + c f :e-b(t-s)dws (1.41)

Nous observons que Xt est egal à l'integrale stochastique d'une fonction deterministe par rapport à un mouvement brownien. Nous en deduisons que Xt est une variable aleatoire gaussienne, comme limite (à une constante additive près) des approximations de Riemann de l'integrale stochastique, qui sont gaussiennes. On en deduit même que le processus X est gaussien. Il est facile de calculer sa fonction moyenne m(t) et sa fonction de covariance C(s, t) qui, pour s t , valent :

m(t) = xoe-bt , C(s, t) = 2C2b (e-b(t-s) -- e-b(t+s))

(1.42)

Modèle de Vasicek :

Ce modèle, introduit par Vasicek en 1977, sert à modéliser un taux de placement à court terme. Ce taux fluctue suivant l'EDS décrite ci-dessous, qui généralise la précédente. Ici, x0 E I1 , b, b' E I1 et c > 0 :

dXt = (--bXt + b)dt + cdWt , X0 = x0 (1.43)

Les coefficients de cette équation satisfont (1.37), donc il y a une solution et une seule. De nouveau, on peut trouver une forme explicite pour la solution :

t

Xt = b' + (x -- b') e-bt + c 1 e-b(t-s)dWs (1.44)

0 b 0

et, par le même argument que pour le processus de Ornstein-Uhlenbeck, nous voyons que cette unique solution forte X est un processus gaussien.

Remarque 8 :

Une caractéristique commune aux exemples précédents est que les coefficients dépendent linéairement de X, ou n'en dépendent pas du tout. C'est pourquoi on peut trouver une solution explicite. Dans le cas de coefficients plus généraux, il n'y a en général pas de solution explicite, comme pour une équation différentielle ordinaire.

CHAPITRE II :

Généralités sur les EDPs et la

méthode des différences finie

0. Introduction:

Le métier d'ingénieur est toujours besoin d'utilisation des logiciels de modélisation. Ces logiciels résolvent des équations telles que les équations aux dérivées partielles, mais la résolution ici est faite par une méthode discrète. Donc ces équations différentielles ne peuvent en général pas être résolues de façon exacte. Elles sont résolues de façon approchée, à l'aide des méthodes numériques.

Les méthodes numériques ne donnent pas la solution véritable du problème que l'on cherche à résoudre. Des méthodes numériques mal employées peuvent conduire à des résultats totalement faux, Il est indispensable pour un ingénieur de posséder des notions de base sur les méthodes numériques utilisé pour résoudre son problème.

Dans ce chapitre on présente une méthode numérique pour la résolution des EDPs,

La méthode des différences finies.

1. Généralité sur les équations aux dérivées partielles :

1.1. Définitions :

· Equation aux dérivées partielles :

Une équation aux dérivées partielles fait intervenir plusieurs variables indépen- dantes (temps et espace pour les équations de l'ingénieur), ainsi que les dérivées partielles de la variable dépendante ( c.-à-d. la solution recherchée) par rapport à ces variables indépendantes.

Exemple : l'équation de convection (parfois appelée advection)

=

ax 0 (2.1)

ac

+
at +u

ac

est une EDP, la variable dépendent est c , les variables indépendantes sont le temps t et l'espace x. La grandeur u (homogène à une vitesse) peut (ou non)être fonction de t ,x et c.

· Ordre d'une EDP :

L'ordre d'une EDP est défini exactement de la même façon que pour une EDO : c'est l'ordre le plus élevé parmi toutes les dérivées partielles de l'EDP.

Exemple : l'EDP (2.1) est une EDP d'ordre 1 (par rapport à t ou x ). En revanche, l'EDP suivant :

ac

+
at +u

ac

+ D

ax

ax2 = 0 (2.2)

a2c

est une EDP d'ordre 2 car sa dérivée partielle d'ordre le plus élevé est une dérivée seconde(en l'occurrence par rapport à x).

· EDP linéaires, quasi-linéaires et non- linéaires :

EDP linéaire : est une EDP qui ne fait intervenir que des combinaisons linéaires des dérivées partiales de la variable dépendante.

Exemple : l'équation suivante est linéaire :

a2u A+2B ax2

a2u ~~~

~~~~ ~ ~ ~2.3~

~~~ ~ ~ ~~, ~, ~~

~~ , ~~ ay) = 0

 

où les coefficients A, B et C sont dépend de X et Y (connues), F est une fonction lineaire et U est la fonction inconnue (à déterminer).

EDP quasi-linéaire : est une équation linéaire par rapport aux dérivées partielles d'ordres supérieurs.

Exemple : l'équation précédente (2.3) est quasi-linéaire si les coefficients A, B et C sont en fonction de U et/ou de X, Y et F peut être non linéaire.

EDP non-linéaire : est une EDP où l'une des dérivées partielles intervient comme argument d'une fonction non-linéaire.

Exemple : l'équation suivante:

Co

~~~~

~~~~ ~ ~~ ~~~~ ~2.4~

~~~~ ~ ~~ ~~~

~~~ ~ ~~ ~~~

~~~ ~ 0

 

est non-linéaire si au moins des fonctions Co(x) et C1(x) n'est pas linéaire par rapport à x.

1.2. Conditions initiales et conditions aux limites :

Contrairement aux EDOs, les conditions initiales ne suffisent pas à assurer l'unicité de solution. Il faut également fournir des conditions aux limites. Pour certains types d'équations (ex. EDPs elliptiques), le concept de condition initiale n'a pas de sens.

Les conditions initiales et les conditions aux limites se distinguent de la manière suivante :


· Une condition initiale s'applique pour une valeur donnée (et unique) d'une variable indépendante. A partir de cette condition initiale, il est possible de déduire la solution pour toutes les autres valeurs de la variable indépendante.


· Une condition aux limites est appliquée en tout point de la frontière du domaine sur lequel on souhaite résoudre l'équation (et non en un point unique). Il n'est pas possible de déterminer la solution en partant simplement d'un seul point de la limite de domaine et en progressant à l'intérieur de celui-ci, car la solution est également conditionnée par sa valeur en tous les autres points de la frontière.

1.3. Classification des EDPs du second ordre :

Les EDPs du second ordre représente une classe importante des EDPs du monde de l'ingénierie, on traite dans quel suit des EDPs second ordre quasi-linéaires de la forme générale :

a2u A + B
aX2

a2u a2u

+

aY2 D

au

+ E

aX

aY + F = 0 (2.5)

au

où A ,B,C,D,F sont des fonctions de X,Y et u. X et Y sont les variables
indépendantes (ce pourrait être t,x,y etc) de l'EDP et u la variable dépendante.

Selon la valeur des coefficients A ,B et C, l'EDP est dite hyperbolique, parabolique ou elliptique.

EDPs hyperbolique :

Une EDP du type (2.5) est dite hyperbolique si son discriminant A= B2 -- 4AC est strictement positif.

Exemple : l'équation suivante est du type hyperbolique :

a2u

at2

A. ax2

2 = 0 (2.6)

En effet, l'équation (2.5) peut être mise sous la forme (2.6) en posant X = t, Y = x, A = 1, C = --A.2, et B = D = E = F = 0. Il est facile de vérifier que A= B2 -- 4AC > 0. A noter que A. est homogène à une vitesse.

EDPs paraboliques :

Une EDP du type (2.5) est dite paraboliques si son discriminant A= B2 -- 4AC est nul.

Exemple : l'équation suivante est du type paraboliques :

ax2 = 0, v > 0 (2.7)

au

-- v

at

a2u

En effet, l'équation (2.5) peut être mise sous la forme (2.7) en posant X = t, Y = x , D = 1, C = v, et A = B = E = F = 0. On vérifiera que A= B2 -- 4AC = 0.

EDPs elliptique :

Une EDP du type (2.5) est dite elliptique si son discriminant A= B2 -- 4AC est strictement négatif.

Exemple : l'équation suivante est du type elliptique :

0y2 = Q (2.8)

a2u ax2 +

a2u

En effet, l'équation (2.5) peut être mise sous la forme (2.8) en posant X = t, Y = x , A = C = 1, et B = D = E = F = 0, on peut vérifier que A= B2 -- 4AC < 0.


· Une aide mnémotechnique :

L'<< astuce >> suivante peut etre utilisé pour déterminer la nature d'une EDP du seconde ordre : il suffit, dans l'équation originale, de remplacer les dérivées aPu / a XP (p = 1,2) par XP et aPu / a YP (p = 1,2) par YPet le second membre par une constante. Ainsi (2.5) devient :

AX2+BXY + Y2 + DX + EX + F = Cst (2.9)

L'équation (2.9) est l'équation d'une courbe conique dans le plan(X, Y). Si cette courbe est une ellipse, l'EDP est elliptique ; si la courbe est une parabole, l'EDP est parabolique ; enfin, si la courbe est une hyperbole l'EDP est hyperbolique.

Exemple : en appliquant la méthode ci-dessus à l'équation(2.6), on obtient :

T2 -- A.2X2 = Cst (2.10)
qui est l'équation d'une courbe hyperbolique dans le plan(X, T).

1.4. EDPs du second d'ordre à plusieurs variables indépendantes:

Le principe de classification des EDPs reste le même quand on se trouve en présence de 3(ou 4) variable indépendantes. Par exemple, l'EDP (2.6) peut être généralisée à deux dimensions d'espace :

a2U a2u a2u

A.2 A2 = 0 (2.11)

at2 x ax2 Y ay2

où A.x2 et 4 sont les vitesses de propagation des ondes les directions x et y (elles sont égales dans un milieu isotrope). En utilisant la transformation exposée dans le paragraphe précédent. On obtient :

T2 -- A.x2X2--A.Y2Y2 = Cst (2.12)

1.5. Besoins en termes de conditions initiales et aux limites :

· EDPs hyperboliques :

Les EDPs hyperbolique abordées dans ce chapitre comprendrons en général une variable de temps et une (ou deux) d'espace. Elles seront de la forme (2.6). On cherche une solution de (2.6) en tout point d'un domaine de calcul SI = [x1,x2] et pour des dates t 0. Pour pouvoir déterminer la solution de (2.6) de façon unique, il faut connaître :

· la valeur de U en tout point du domaine de calcul à t = 0 (condition initiale) ;

· la valeur de U à tout date t 0 aux limites du domaine (condition aux limites) ;

Comme il y a des EDPs hyperbolique n'ont besoin que d'une condition à la limite.

· EDPs paraboliques :

La plupart des EDPs paraboliques de l'ingénieur sont d'ordre 1 par rapport au temps et d'ordre 2 par rapport à une (ou plusieurs) dimension(s) d'espace. C'est le cas de l'équation (2.7). Les conditions aux limites nécessaires à l'existence et l'unicité de la solution sont les mêmes pour que les EDPs hyperboliques.

· EDPs elliptique :

Les EDPs elliptiques étudiées dans ce qui suit impliquent 2 dimensions de l'espace et aucune de temps. Cela signifie que la solution ne dépend pas du temps. Dans ce cas, seules des conditions aux limites sont nécessaires.

2. Méthode des différences finies pour les EDP paraboliques :

Dans ce paragraphe nous avons aborderons la résolution numérique de problèmes d'équations aux dérivées partielles d'évolution par la méthode des différences finies. Nous étudierons un type de problèmes d'évolution du premier ordre en temps, dénommés également problèmes paraboliques.

Les équations intervenant dans ces problèmes sont constituées pour partie d'une combinaison de dérivées partielles par rapport à la variable temporelle dont nous détaillerons le traitement numérique et pour partie d'une combinaison de dérivées partielles par rapport à la variable spatiale ; le problème pouvant être posé dans un domaine , monodimensionnel, bidimensionnel ou tridimensionnel; pour simplifier l'exposé nous considérerons que le domaine est le segment [0, 1], le cas bi et tridimensionnel ne présentant pas de difficultés majeures.

2.1. Problèmes du premier ordre en temps : équation de la chaleur :

· Position du problème :

On considère une barre métallique de longueur unité; on suppose que cette barre est soumise à un apport de chaleur f (x, t ) par unité de longueur et de temps et

que, de plus, la température u (x, t) de la barre est maintenue à zéro à chacune de ses extrémités. On désigne par C la capacité thermique et par K le coefficient de diffusion de chaleur ; rappelons que le coefficient de diffusion de chaleur exprime qu'en tous les points de la barre les températures ont tendance à s'uniformiser. En supposant que la dimension transversale de la barre est négligeable par rapport à sa dimension longitudinale, la modélisation de ce problème conduit à déterminer u (x, t) en chaque point x E[0,1] et pour tout instant t E[0,T ], T représentant l'horizon d'intégration, solution de l'équation de la chaleur :

~ ~ ~~~~, ~~

~~ ~ ~ ~~~~~, ~~

~~~ ~ ~~~, ~~, ~ ~ ~0,1~ ; ~ ~ ~0, ~~

~ ~~0, ~~ ~ ~~1, ~~ ~ 0, ~ ~ ~0, ~~

~

u(x, 0) = uo(x), x E [0,1]

avec uo(x) température initiale de la barre.

Remarque :

Les conditions aux limites de type Dirichlet homogènes u (0, t) = u (1, t) = 0 correspondent, évidemment, au fait que les extrémités de la barre sont maintenues à une température nulle.

Remarque :

Dans le cas d'un matériel non homogène, le problème précédent est remplacé par :

~ ~~~~ ~~~~, ~~ ~~ ~~~~~ ~~~~, ~~

~~ ~ ~ ~~~, ~~, ~ ~ ~0,1~ ; ~ ~ ~0, ~~

~~ ~ ~

~

~ ~~0, ~~ ~ ~~1, ~~ ~ 0, ~ ~ ~0, ~~

~

~ ~ ~ ~0,1~
~~~, 0 ~ ~~~~~, Dans la suite, on supposera pour simplifier que C = 1,K = a (constante positive) ;

on ne considérera de plus que les conditions aux limites de Dirichlet homogènes, ce qui conduira à la formulation du problème modèle suivant :

~~~~~, ~~

~~ ~ ~ ~~~~~, ~~

~~~ ~ ~~~, ~~, ~ ~ ~0,1~, ~ ~ ~0, ~~

~ ~~0, ~~ ~ ~~1, ~~ ~ 0, ~ ~ ~0, ~~

~

u(x, 0) = uo(x), x E [0,1]

2.2.1. Schémas numériques de discrétisation par différences finies :

La discrétisation du problème précédent consiste à remplacer par une technique appropriée le problème continu par un système linéaire algébrique. L'approximation s'effectue par la manière suivante:

~

on divise l'intervalle [0,1] en (n + 1) intervalles de longueur h = .

n+1

on divise l'intervalle [0, T ] en M intervalles de temps k, tels que T = Mk. On pose xi = ih, pour i E f 1 , 2 , ..., n}, tm = mk pour m E (0, 1, . . . , M} ; on écrit le problème modèle au point (xi, tm ) avec 1 i n et m 0:

(au ~~ ~ ~ ~~~

~~~~ ~~~, ~~~ ~ f(xi,ti)

~~~~~,~~~ ~~~~~~,~~~

On remplace et par des quotients différentiels faisant intervenir

~~ ~~~

les valeurs de u aux points xi, 0 i n + 1, et aux instants tm, m > 0 . Exemple : on écrira :

a2u(xi, tm)

~~~~~~, ~~~ ~ 2, ~~~ ~ ~~~~~~, ~~~

~ + O(h2)

h2

axe

 

 

au(xi, tm)

u(xi, tm+i) -- u(xi, tin)

= + O(k)

k

et on obtient ainsi :

at

 

u(xi, tm+i) -- u(xi, tm)

~

~

~~ ~~~~~~, ~~~ ~ 2, ~~~ ~ ~~~~~~, ~~~

~ ~ O, ~~ ~ ~~~~, ~~~

~~

~ 1 ~ ~ ~ ~ ~~ ~ ~ 0

u(xo, tm) = u(xn+1, tm) = 0 u(xi, 0) = uo(xi)

~

~

Cette écriture permet de définir les schémas numériques définissant um r-r, u(xi, tm), en traitant de manière particulière le terme temporel. La façon la plus générale de définir les schémas aux différences finies est de considérer une combinaison convexe de l'équation de la chaleur aux instants tm et tm+1 ; plus

précisément, soit 0 E [0,1] un nombre réel ; écrivons l'approximation de (1 - 0) fois le problème modèle considéré à l'instant tm et de 0 le même problème à l'instant tm+1, ce qui permet de définir le 0 -- schema suivant :

uro. -- 2uim + ur 1r Er -- 241+1 + uTV

ui um-- a ((1 -- 0) + 0u

k h2 h2

= (1 -- 0)fim + 0fim+1 , 1 < i < n et m > 0

~ ug = unp +1 = 0, p = m et p = m + 1

~ uio = uo(ih)

avec fip = f(xi, tp), pour p = m ou p = m + 1

Pour 0 = 0, le schéma précédent définit un schéma explicite, c'est-à-dire que les valeurs um étant connues (par la condition initiale lorsque m = 0, et pour m > 0 par le calcul de l'itéré en temps précédent), les valeurs sont url déterminées par la récurrence :

1

ur + 1 = k f in' + ur + a (ur. 1-- 24 ' + 41: 1) , 1 < i < n et m > 0 um = um = 0 o n+1
uio = uo(ih)

avec a =

ak h2.

Si l'on définit les vecteurs de dimension n par :

Fm = (kf~ m, ... , kfnm)t Um = (um, ,unm)t et la matrice B de dimension n par :

2 --1

--1 2

B =
·..

)

--1 2 --1

--1 2

le schéma explicite s'écrit matriciellement :

Um+1 = Fm + (I -- aB)Um

Pour 0 # 0, le schéma précédent définit un schéma implicite, c'est-à-dire qu'à chaque pas de temps, en supposant connu le vecteur Um (toujours par la condition

ainsi que le schéma rétrograde implicite, également à trois niveaux, suivant :

~~ ~~~ ~ ~~ ~~~ ~~~ ~ ~~ ~~~ ~ ~~~~

~

~~~~

~ ~ ~~

~ ~ ~

~ 2 ~~

1

~ ~~ ~ ~ ~~~~

~~~ ~ 0

~ ~ ~~ ~ ~ ~~~~~~

~ ~~ ~

~ ~ ~ ~ ~~ ~ ~ 0

initiale lorsque m = 0 et pour m > 0 par le calcul de l'itéré en temps précédent), le vecteur Um+1 est obtenu en résolvant le système linéaire suivant:

(I -- a0B)Um+1 = (1 -- 6)Fm + OF' + (I -- a(1 -- 6)B)Um

Notons immédiatement que, pour 0 E0, 1], la matrice (I -- a0B) est inversible ; dans le cas du problème monodimensionnel en espace, la résolution de ce système s'effectue par une simple adaptation de la méthode de Gauss, (pour l'adaptation de cet algorithme au cas des matrices tridiagonales). Pour des valeurs particulières du paramètre 0, on retrouve des schémas numériques particuliers ; ainsi pour 0 = 1, on obtient le schéma purement implicite qui s'écrit matriciellement :

(I -- aB)Um+1 = Fm+1 + Um

alors que pour 0 = 0,5, on obtient le schéma implicite de Crank-Nicolson:

1 a

(I --a2 13) Um+1 = 2 (Fm + Fm+1) + -- 2 /3) Um

Remarque :

Il existe d'autres types de schémas numériques pour résoudre le problème modèle, par exemple le schéma saute-mouton défini par :

~ ~

~~ ~~~ ~ ~~

~ ~ ~~ ~

2 ~ ~ ~~~~

~ ~ 2 ~ ~ ~~~~

1 ~ ~ ~ ~ ~~ ~ ~ 0

~~

~ ~ ~~~~

~ ~ 0

~ ~~

~

u° = uo(ih)

C'est un schéma à trois niveaux explicite qui, bien que plus précis que les schémas précédents, n'est pas intéressant sur le plan numérique car il est instable, c'est-à-dire sensible à la propagation des erreurs systématiques d'approximation, de chute ou de troncature. Citons également le schéma explicite à trois niveaux proposé par Du Fort et Frankel:

~~~

~ 1 ~

~3 ~~~~ ~ ~ ~~~~

~~~ ~ 2

2 ~~ ~ ~ ~~~~

2 ~~ ~~~ ~ 2 ~ ~ 1 ~ ~~

~ ~ ~~

1 ~ ~ ~ ~ ~~ ~ ~ 0

~ ~~ ~~~ ~ ~~~~

= 1.10(ih)

~~~ ~ 0

~ ~ ~~ ~

2.2.2. Erreur de troncature, consistance et ordre d'un schéma :

~

Pour chacun des schémas précédents, on remplace dans le schéma le terme ~~ par

u(xi, tm) et l'on définit l'erreur de troncature, notée, comme la différence entre le premier et le second membre de ces quantités. Ainsi pour le 0 -- schéma considéré au paragraphe précédent, on a l'expression suivante de l'erreur de troncature :

~~~~, ~~~~~ ~ ~~~~, ~~~ ~ ~ ~~1 ~ ~~ ~~~~~~, ~~~ ~ 2, ~~~ ~ ~~~~~~, ~~~

~~ ~ ~ ~

~~

~~~~~~, ~~~~~ ~ 2, ~~~~~ ~ ~~~~~~, ~~~~~

~ ~ ~ ~ ~1 ~ ~~~~~~, ~~~ ~ ~~~~~, ~~~

~~

Remarque :

On définit l'erreur de troncature associée au schéma saute-mouton, au schéma rétrograde et au schéma de Du Fort et Frankel de manière analogue.

On adapte à la situation des problèmes d'évolution les notions d'erreur de troncature, de consistance et d'ordre de schéma comme suit :

Définition 1 : On appelle erreur de troncature E, la quantité définie par : E = Max(E1 n, 1 < i < n,1 < m < M}

Définition 2 :

Un schéma numérique est consistant si E --> 0 lorsque h --> 0 et k --> 0. Définition 3 :

Un schéma est précis à l'ordre p en espace et à l'ordre q en temps, s'il existe une constante C', indépendante de h et k telle que |E| Ci(hP + k q)

On a le résultat suivant:

Théorème 1 :

On suppose que la solution du problème modèle est suffisamment régulière ; alors pour 0 E [0, 1], 0 # 0,5, le 0-schéma est d'ordre 2 en espace et d'ordre 1 en

temps. Pour 0 = 0,5, le schéma de Crank-Nicolson est d'ordre 2 en espace et en temps.

Remarque : Il résulte du résultat précédent que le schéma explicite et le schéma purement implicite sont d'ordre 2 en espace et d'ordre 1 en temps.

Remarque :

On vérifie que le schéma saute-mouton et le schéma rétrograde sont d'ordre 2 en espace et en temps. L'étude du schéma de Du Fort et Frankel est plus délicate; en

effet, ce dernier n'est consistant que si le rapport kh --> 0 lorsque h --> 0 et k --> 0.
De plus, si l'on veut que le schéma de Du Fort et Frankel soit d'ordre 2 en espace, il faut prendre k = 0(h2).

2.2.3. Stabilité des schémas numériques :

La stabilité d'un schéma numérique pour l'approximation de la solution d'une équation aux dérivées partielles est une question importante et, apparemment, nouvelle ; lorsque le pas de discrétisation tendait vers zéro, le système linéaire pouvait devenir mal conditionné, c'est-à-dire que la solution calculée du système discret pouvait être dénaturée ; en effet, la question qui se pose peut être formulée de la façon suivante : compte tenu d'une part des erreurs systématiques introduites lors de la construction du schéma d'approximation et d'autre part compte tenu également de la mauvaise représentation des nombres en machine qui induisent des erreurs d'arrondi ou de troncature, est-ce que l'erreur va rester bornée et tendre vers zéro lorsque les paramètres de discrétisation h et k vont tendre vers zéro ?

Il existe de nombreuses méthodes pour étudier la stabilité d'un schéma numérique ; nous en étudierons deux, connues sous le nom de :

méthode matricielle ;

méthode de Fourier ou méthode du coefficient d'amplification.

La méthode matricielle : consiste à considérer qu'un schéma est stable si, lorsqu'une erreur est introduite sur les conditions initiales (par exemple, erreur d'arrondi ou de troncature), l'erreur sur la solution calculée à un instant fixé t n'est pas amplifiée ; l'idéal est, bien entendu, qu'elle ne soit pas amplifiée du tout et que

supi,m(Iuim - u(xi, tm)1) reste borné quels que soient h et k. L'étude de la stabilité d'un schéma revient donc en fait à celle de l'amplification d'une perturbation sur la condition initiale U°; on va vérifier que l'erreur sur la solution cherchée satisfait le schéma numérique homogène associé, ce qui va permettre de dégager des critères de stabilité. A ce stade, on peut donc donner la définition intuitive suivante de la stabilité :

Definition :

Un schéma numérique est stable si la solution du schéma homogène associé est bornée en tout point xi et tm quels que soient h et k.

Pour illustrer cette approche intuitive, considérons le 0 - schéma dont la formulation est la suivante :

(I - a0B)Um+1 = (1 - 0)Fm + 0Fm+1 + (I - a(1 - 0)B)Um

et soit Um+1 la solution exacte du schéma numérique et Vm+~ celle du schéma perturbé : on peut traduire l'imprécision par la relation suivante :

Vm = Um + Em, Vm > 0

avec Em erreur au pas m.

En remplaçant Um+1 par Vm+~ dans le schéma précédent, on obtient :

(I - a0B)Em+1 = (I - a(1 - 0)B)Em

et on vérifie ainsi que le terme d'erreur est solution du schéma numérique homogène associé. Cette relation peut encore s'écrire :

Em+1 = (I - a0B)-1(I - a(1 - 0)B)Em = PEm =
· = Pm+1E° avec P = (I - a0B)-1(I - a(1 - 0)B).

Le schéma numérique sera donc stable si la norme de la matrice Pmreste bornée lorsque m -> 00. La matrice B étant symétrique, on vérifie aisément que la matrice P est normale (c'est-à-dire que PtP = PPt ) ; on peut alors exprimer la relation précédente dans la base des vecteurs propres de la matrice P ; soit A la matrice des valeurs propres de la matrice P. La relation Em+1 = Pm+1E°, s'écrit alors E~m+~ = Am+1E°, où E~m+~ est l'écriture de Em+1 dans la base des vecteurs propres, et une condition suffisante de stabilité est donc :

|uk(P) | < 1,V k E (1,...,n )

avec uk(P) valeurs propres de la matrice P, c'est-à-dire les coefficients diagonaux de la matrice .4.

On vérifie facilement que :

1 -- a(1 -- 0)A.k(B)

uk(P) 1 + a0A.k(B) '

= V k E (1,...,n )

avec A.k(B) valeurs propres de la matrice B; on vérifie alors que la

condition - 1 < uk(P) < 1, V k E (1, ... , n ), se traduit par la condition suivante :

ak

a = <

h2

1

, 0 E [0,1]

2(1 -- 20)

qui représente donc la condition de stabilité. On peut résumer l'étude précédente par le théorème suivant :

Théorème 2 :

Le 0-schéma est inconditionnellement stable si 0 > 0,5 ; si 0 < 0,5, ce schéma est stable si :

ak

a = <

h2

1

2(1 -- 20)

Corollaire 1 :

Le schéma purement implicite (0 = 1) et le schéma de Crank-Nicolson (0 = 0,5) sont inconditionnellement stables. Le schéma purement explicite (0 = 0) est stable à condition que :

1

2

ak

a = <

h2

Remarque :

Le schéma saute-mouton est instable ; le schéma de Du Fort et Frankel et le schéma rétrograde sont inconditionnellement stables.

La méthode matricielle présentée ci-dessus est applicable dans le cas où la matrice B est symétrique. Or il existe des situations où cette matrice ne vérifie pas cette condition ; c'est le cas par exemple du problème de convection-diffusion d'évolution. Dans ce cas, le calcul du coefficient d'amplification permet de s'affranchir de cette

contrainte et fournit une méthode d'analyse plus générale de la stabilité. La définition de la stabilité étant inchangée, considérons toujours le 0-schéma homogène :

url -- -- a[(1 -- ~~~~~~~

~ -- 2ur + ~~~~

~ ~

~~~~~~~

~~~ -- 241+1 + ~~~~

~~~~~ = 0,1 < i < n et m > 0

que l'on peut encore formellement écrire en repassant à la variable d'espace continue x et en mettant dans le premier membre les termes à l'instant discret (m + 1) et dans le second membre ceux à l'instant discret m :

um+1(x) -- a0(um+1(x + h) -- 2um+1(x) + um+1(x -- h))

= um(x) + al1 -- 0) ~~~~~

~~~~~ + h) -- 241+1(x) + ~~~~

~~~~~ -- h)) , m > 0

Considérons la transformée de Fourier du schéma ainsi écrit ; on rappelle que cette transformation est définie par :

~~

1

~~~~~ ~ v2~ ~ ~~~~~~~~~~~~~ ~~, ~~ ~ ~1

~~

On vérifie aisément par un calcul direct que :

~~

1

v2~ ~ ~~~ ~ ~~~~~~~~~~~ ~~ ~ ~~~~~~~~~~~~~~ _00

et le schéma discret en temps s'écrit alors :

Itm+1(0 = c(a)um(

où c() est le coefficient d'amplification défini par :

1 + 2a(1 -- 0)(cos(~h) -- 1)

~~~~ ~1 -- 2a0(cos(~h) -- 1)

~

1 -- 4a(1 -- 0)sin2 ~~~ 2 ~

1 + 4a0sin2 (Q12 )

=1

asin2 ~~~

2 ~

1 + a0sin2 ~~~

2 ~

Comme précédemment, une condition suffisante de stabilité est donnée par --1 c(0 1 ; or on a évidemment c() < 1; la vérification de la seconde
inégalité conduit à la condition suivante :

ak a= <

h2

1

, ~ ~ ~0,1~

21 ~ 2

qui correspond à la condition obtenue par la méthode matricielle ; on retrouve donc les résultats obtenus et énoncés dans le théorème 2 et le corollaire 1.

2.2.4. Convergence des schémas :

Soit em , le vecteur erreur au temps discret m et défini par :

em = (er, ... , ei m, ... , eint

avec :

~~ ~ ~~ ~ -- u(xi,tm), 1 i n,m 0

Définition :

Un schéma numérique est convergent si :

|~T -- u(xi, tm)| --) 0 lorsque h --) 0 et k --) 0 ,Vi e (1,...,n),Vm 0.

Considérons le 0- schéma ; en considérant d'une part l'écriture du schéma et d'autre part celle de l'erreur de troncature et en soustrayant membre à membre, on vérifie aisément que les composantes de l'erreur satisfont le schéma numérique, avec un second membre égal à --Eln, soit :

~~~ ~ ~~ ~

~ ~~ ~ ~ 2 ~ ~ ~~~~

~

~ ~~1 ~ ~~ ~~~~

~ ~~

~ ~~~

~~~~

~~~ ~ 2 ~~~ ~ ~~~~

~~ ~ ~~~ ~, 1 ~ ~ ~ ~ ~~ ~ ~ 0

~ ~~

~ ~ ~ ~ ~ 1

~ ~~ ~ ~~

~ ~~~~ ~ 0, ~ ~ ~

~

soit matriciellement :

(I -- a0B)em+1 = Em + (I -- a(1 -- 0)B)em

où les composantes du vecteur Emsont égales à l'erreur de troncature, au signe près ; en multipliant scalairement par em+1, il vient :

((I -- a0B)em+1, em+1) = (Em, em+1) + ((I -- a(1 -- 0)B)em, en+1),Vm 0 Or, la matrice(I -- a0B) étant symétrique définie positive, on peut minorer le second membre; si, de plus, on note par p , la norme matricielle de (I -- a(1 -- 6)B) , on obtient finalement :

eP ~ = 0

Ilem+1112 filEm12 +pllem112,vm 0

avec /3 inverse de la plus petite valeur propre de la matrice (I -- a0B).

En posantTm = Ilem112,Vm 0, on obtient finalement :

Tm+1 /311Em112 + pTm, Vm 0

Supposons, de plus, que le schéma vérifie la condition de stabilité, ce qui a pour conséquence que la quantité Tm = Ilem112, Vm 0, est borné. Pour pouvoir obtenir une majoration de la norme de l'erreur, on utilise le lemme suivant dont le résultat s'obtient par récurrence :

Lemme 1 : Si l'on a une suite qui vérifie la relation de récurrence :

Tm+1 pTm + a,Vn 0,Vm 0, p # 1

alors :

pm -- 1

Tm < pT° + (5 IlEm112,Vm 0

p -- 1

En appliquant ce résultat à notre situation, compte tenu du fait que E° = 0 , on obtient :

~~~ ~ ~~~~~ ~ ~ ~~ ~ 1

~ ~ 1 , ~~ ~ 0

Si, de plus, le schémaa numériquee est consistant, l'inégalitée précédentee nous permet de vérifierr qu'ill est convergent. On peut donc énoncerr le résultatt suivant :Théorèmee 3 : Si le 0 - schémaa est stable et consistant alors ilt est convergent.

Le résultatt précédentt exprime que la stabilitée et la consistance constituent une condition suffisante pour la convergence. En fait le théorèmee de Lax( le théorèmee de Lax prévoitt que dans un problèmee bien posé,, et avec un schémaa numériquee consistant, la stabilitée est une condition nécessairee et suffisante pour la convergence), nous donne le résultatt suivant :

Théorèmee 4 :

La stabilitée est une condition nécessairee et suffisante pour qu'unn schémaa numériquee soit convergent vers la solution du problème,, si ce dernier est discrétisée par un schémaa consistant.

CHAPITRE III :

Interprétation probabiliste des

EDPs

0. Introduction:

Le but de ce chapitre est de montrer les liens qui peuvent exister entre la théorie des processus stochastiques et les équations aux dérivées partielles (EDP). Les processus stochastiques utilisés sont des processus possédant la propriété de Markov. L'idée principale est de montrer que l'espérance mathématique de fonctionnelles de ces processus fournit une représentation probabiliste de solutions de certaines équations. Nous donnons les outils nécessaires pour cette présentation: les processus de diffusions obtenues comme solutions d'équations différentielles stochastiques à partir du processus de Wiener. Ces diffusions nous permettent, de représenter les solutions d'EDP du second ordre, Nous exprimons ici les solutions d'EDP du second ordre paraboliques avec divers types de conditions aux bords, comme espérances de fonctionnelles de processus de Markov correctement choisis. Nous étudions d'abord l'exemple le plus simple des dérivées partielles linéaires, l'équation de la chaleur, ensuite les techniques de martingales, de martingales exponentielles qui conduisent à la généralisation connue sous le nom d'équations de Feynman-Kac.

1. Générateur infinitésimal :

Il est fondamental pour beaucoup d'applications que nous pouvons associer un

operateur différentiel de second ordre A à une diffusion d'Itô Xt ; la relation de base entre A et Xt est que A est le générateur de la diffusion d'Itô Xt.

Définition 1:

Soit (Xt} une diffusion d'Itô homogène dans WL, le générateur infinitésimal A de Xt est définie par :

Af(x) = lim

~~~

Ex[fVD] -- f(x)

t , x E

L'ensemble des fonctions ( f: 1l --> 11 ) telle que la limite existe en x est noté par DA(x), ou la notation : l'ensemble des fonctions pour qui la limite existe pour tout x E Rn.

Pour montre la relation entre A et les coefficients a et b on a le théorème suivant : Théorème 1:

Soit Xt la diffusion d'Itô homogène:

dXt = b(Xt)dt + Xt)dWt

Si f e cg(Ir) alors f e DA et

2 ~~~~~~~,~~~~ ~~~ 1

(x) (3.1)

~~~~~~

(x) +

~

~,~

Proposition 1:

Soit Xt la diffusion d'Itô non homogène:

dXt = b(t,Xt)dt + t, Xt)dWt

a2 f

+ 2 I(aaT)i, j(t, x) 1

(t, x) (3.2)

~~~~~~

~,~

Si f E col,20R+ x IV) alors f E DAt et

~~~~~, ~~ ~ ~ ~~~~, ~~ ~~ ~~, ~~

oxi

~

Exemples 1:

1. Le mouvement brownien de dimension n et bien sûr la solution de l'EDS :

dXt = dWt

(3.3)

2 Ox2

au

1 a2u

at .

c'est à dire nous avons b = 0 et a = In la matrice identité; donc le générateur de Wrest:

~~ ~ 2 ~ ~~~

1 ; ~ ~ ~~~~, ... ~~~ ~ ~~ ~~~~~

~~~ ~

~

1

i.e. A = 2 ?, ou ? est le laplacien.

2. Soit W le Mouvement Brownien à une dimension et soit X = ~~~

~~~ la solution de

l'EDS :

~

~~~ ~ ~~ ; ~~~0~ ~ ~~ ~~~ = dWt ; X2(0) = xo i.e. dX = bdt + cidWt ; X(0) = ~~~

~~~.

Avec b = (01) and a = CD, le générateur A de X est donné par :

1

02f

2

axe

Af = atof

+

Remarque : tous les espaces cités dans ce chapitre sont définis dans l'annexe A. 2. Interprétation probabiliste des EDP:

2.1 Equation de la chaleur :

Nous allons présenter quelques rapports entre les diffusions et les équations aux dérivées partielles. Grâce à la formule d'Itô, il est possible de donner une interprétation probabiliste à certaines équations aux dérivées partielles, ce qui permet ainsi de prouver l'existence de solutions.

L'exemple le plus simple est celui de l'équation de la chaleur en dimension 1. Considérons une barre métallique infinie, assimilée à l'axe réel. Cette barre est chauffée et on note f(x) sa température à l'instant t = 0 et pour la position x sur la barre. Soit u(t, x), la température de la barre au temps t et à la position x. Avec un choix approprié d'unités, donc la fonction u est solution de l'équation de la chaleur en dimension 1 :

avec la condition initiale, u(0,x) = f(x), x E IR, que l'on suppose continue. On a alors le théorème suivant :

Théorème2 :

1) Si u est une fonction continue sur [0, oo[de classe C1,2 sur [0, oo[ x IR, et solution de (3.3), alors :

u(t, x) = Ex(f(Wt))

(3.4)

, tf(t,x) E [0,oo[ x IR,+co

= f-co f 37)p(t; x, y)dy

où y 1-0 p(t; x, y) est la densité du mouvement brownien issu de x au temps t. Cela entraîne donc l'unicité d'une telle solution.

2) Supposons qu'il existe a > 0 tel que la fonction f vérifie f IR,e-ax2|f (x)| dx < 8, alors, pour tout 0 < t < 21 , la fonction u définie par (3.4) est dérivable à tous
ordres et est solution de (3.3).

Cette fonction u est donc l'unique solution de l'équation de la chaleur (3.3), qui soit une fonction continue et de classe C1,2 sur [0, oo[ x IR,.

Preuve :

La preuve de la deuxième assertion utilise la formule explicite de la densité p et consiste juste en une vérification des dérivations sous le signe somme.

Le plus intéressant est la preuve de la première assertion, qui va pouvoir s'étendre à des cas plus généraux. L'interprétation probabiliste introduit un retournement du temps. Soit T un réel fixé. Pour montrer l'unicité de la solution u, on applique la formule d'Itô à la fonction (t,x) 1-0 u(T -- t,x) et au mouvement brownien W issu

de x.

On obtient alors :

u(T -- t, Wt) = u(T, x) + Mt

où M est une martingale nulle en 0.

Le terme à variation finie s'annule, du fait que u est solution de (3.3). En prenant l'espérance dans chaque terme de cette égalité, au temps t = T, on obtient finalement que :

u(T, x) = Ex(u(0, WT)) = Ex(f(WT))

De ce theorème, on deduit egalement une solution de l'equation de la chaleur retrograde, pour T > 0 fixe, donnee par :

at 1 a2v

+ = 0 (3.5)

at 2 ax2

avec la condition terminale, v(T, x) = f(x), x E IR

Si nous sommes dans les conditions precedentes, l'unique solution de classe C1,2 de (3.5) est donnee par :

v(t, x) = u(T -- t, x) = Ex(f(WT_t))

2.2. Formule de Feynman-Kac multidimensionnelle:

On va generaliser l'approche precedente à d'autres equations paraboliques. Plus precisement, nous allons tout d'abord donner une representation probabiliste de la solution d'une equation retrograde, apparaissant classiquement en mathematiques financières. Pour T > 0 fixe, introduisons l'equation :

v 2

-- a + kv = 1 Av + g , (t, x) E [0, T) x IRa

at

(3.6)

v(T, x) = f(x) ,x E Ia

R

pour des fonctions k: IR~ --> [0, +00), g: IR a x [0, +00) --> IR et f: IR a --> IR , les fonctions k, g et f etant supposees continues et bornees. Une solution v est dite solution du problème de Cauchy pour l'equation retrograde (3.6) avec potentiel k et lagrangien g. Elle admet la representation probabiliste suivante.

Théorème 3 :

Supposons que v soit une fonction continue sur [0, T) x IR d, de classe C1,2 sur [0, T) x IR a, solution de (3.6). Alors v admet la representation probabiliste : v(t, x) = Ex [f (WT_t)exp f-- f oT t k (Ws.)d.s}

+ f 0T_t g(t + u,Wu)exp{-- tou k (Ws.)d.s} du ] ;0 tT,x E IRa (3.7) où Px est la loi du mouvement brownien W issu de x, et Ex designe l'esperance sous Px.

Ce theorème donne en particulier un resultat d'unicite pour les solutions de (3.6), continues sur [0,T] x IR a et de classe C1,2 sur [0,T) x IR a.

Remarque :

Si on n'est pas sous des hypothèses qui assurent l'existence d'une solution de classe ~1,2 au problème de Cauchy, alors la fonction définie par le terme de droite de (3.7) peut ne pas être de classe C1,2.

Les hypothèses sur les fonctions k,g et f peuvent être allégées. Il faut qu'elles assurent l'existence des termes stochastiques qu'on introduit dans la démonstration.

Un ensemble de conditions suffisantes pour que la solution v de classe C1,2 existe et soit à croissance polynomiale est donné dans Friedman [16]. Si on a ellipticité uniforme de la matrice de diffusion, bornitude de a = ww*, b, k, höldérianité de a, b, k et g, et croissance polynomiale de f et g, alors on a existence d'une telle fonction v, et ainsi existence, unicité, et une forme explicite de la solution v par le théorème précédent.

On déduit alors du théorème 2 une représentation d'une solution de classe C1,2 de l'équation suivante :

at 2

+ kv = 1Au + g , (t, x) E (0, oo) x d (3.8)

at

vérifiant la condition initiale :

u(0,x) = f(x) ,x E ~

Corollaire 1 :

Supposons que f: a --> , k: a --> [0, +oo) et g: a x [0, +oo) --> sont

continues bornées et que la fonction u, continue sur [0, +oo) x d et de classe ~1,2 sur [0, oo) x d, est solution de (3.8). Alors u admet la représentation stochastique :
u(t,x)= Ex [f (Wt)exPf--f o k (Ws)ds}

(3.9)

+ f ot g (t -- 0, We)exp f-- f o e k (Ws)ds} 01;0 < t < oo,x E 2.3. Problème de Cauchy pour des opérateurs généraux :

On regarde ici la situation la plus générale que l'on peut obtenir par cette approche. On considère un temps arbitraire 7' > 0 , des fonctions k(t,x): d --> [0, +oo), g(t,x): a x [0, +oo) --> et f(x): a --> continues et telles qu'il existe L > 0 et ~ > 0 avec :

If(x)I L(1 + 11x112A) ou bien f(x) 0 ; x E: Rd

Ig(t, x)I L(1 + 11x112A) ou bien g(t, x) 0 ; x E: IV; 0 t T (3.10)

On note At l'operateur defini par la relation (3.2), b et a satisfaisant les hypothèses de lipschitzianite et de croissance lineaire, et soit X le processus solution de l'equation differentielle stochastique (1.33) associee. On note Et,x l'esperance sous laquelle Xt = x. On a alors une forme generale du theorème de Feynman-Kac.

Théorème 4 :

Sous les hypothèses precedentes, soit v une fonction continue sur [0. T] x Rd et de classe C1,2 sur [0, T) x R d, satisfaisant au problème de Cauchy :

v(T,

x) =

f(x)

,x E

R d

et à la condition de puissance polynomiale :

1 -- at + kv = 1 Atv + g , (t, x) E [0,T) x R d at (3.11)

max Iv(t, x)I M(1 + 11x112) ;x E: Rd (3.12)

0.T

pour M > 0 et it 0. Alors v admet la representation probabiliste :

(3.13)

v(t, x) = Et, [f (XT)exp f-- f r k (s, Xs)ds}

+ f r g(u, Xu)exp{-- f tu k (s, X s)ds} du ] ; 0 t T, x E IVI Comme dans le cas precedent, la preuve repose sur la formule d'Itô appliquee à la semi-martingale :

s

v(t, x)expf-- 1 k (u, Xu)dul ; s E [t, T]

t

2.4. Interprétation des EDP de type elliptique :

Soit b de Rddans Rdet a de Rd dans les matrices d x d mesurables et bornees telles qu'il existe K > 0 tel que :

11b(x) -- b(Y)11 + 110(x) -- a(Y)11 k11x -- Y11,vx,Y E Rd

Les normes etant les mêmes qu'au theorème 16 (chap. I). On suppose que la matrice a = aaT verifie :

3a> 0 / (a(x)Y,Y) a11Y112

et que a est à derivees bornees.

W étant un P-Ye- processus de Wiener, on dénote par Xx la diffusion solution de l'EDS :

t t

Xx = x + 1 b(Xs.x)ds + 1 o-(Xs.x)dWs. , t 0

o o

dont le générateur L s'écrit :

L =

avec

d d

;114

1=1

).1

Pour une fonction c de Rd dans R continue, bornée et négative, on définit :

~

L = L + cl

a) Problème elliptique sans frontière :

Supposons de plus que c(x) -- /3 < 0 avec /3 assez grand pour qu'il existe 0 > 0 tel que :

(--Lu,u) 0iiuii2 (3.14)

pour tout u dans H1(Rd), L~ étant considéré comme un opérateur de Hl(Rd) dansH-1(Rd).

Pour f continue bornée sur Rdet de carré intégrable, on considère l'équation : Lu(x) = --f(x), x E Rd (3.15)
La solution de ce problème admet une représentation probabiliste suivante :

~ ~

u(x) = E 1 (Xexp {1

n c (Xs.x)ds} dt , Vx E Rd (3.16)

o o

b) Problème elliptique avec condition de Dirichlet :

Soit l) un ouvert borné de Rd, à frontière al) assez régulière (C2 par exemple). La condition de coercivité (1.14) devient :

(--Lu,u) eiiuii2 a(D) (3.17)

pour tout u de Ha(D) (nulle au bord). L'inégalité (3.17) n'étant demandée que sur D, on peut encore affaiblir les hypothèses sur c en incluant notamment le cas L = A et c = 0. On dénote par Tx le temps d'atteinte du fermé DC:

Tx = infft > 0: Xx D} (3.18)

Pour f continue sur D

= D U oD, on considère le problème :

f Lu(x) = --f (x), x E D

tu(x) = 0, x E oD (3.19)

dont l'unique solution u dans Ha(D) admet la représentation probabiliste suivante, à l'aide de la diffusion Xx:

~~ ~

u(x) = E 1 (Xexp {1

n c (Xsx)ds}dt ,Vx E D~ (3.20)

~ ~

Cette formule se démontre comme (3.16) en remplaçant T par le temps d'arrêt Tx dont on montre que son espérance est finie. Si, au lieu de la condition de (3.19), nous considérons la condition inhomogène u(x) = (P(x) pour x E oD, il suffit d'ajouter le terme :

~

E [(P(X~x)exP {1 c (Xsx)ds}1

~

à (3.20), pour obtenir la solution de (3.19) avec cette nouvelle condition au bord.

2.5. Interprétation des EDP de type parabolique :

On se replace ici dans le cadre des diffusions à coefficients dépendant du temps, c'est-à-dire que l'on se donne deux applications, b de IE x RV dans IV et a de IE x RV dans les matrices d x d, que nous supposerons bornées donc vérifiée (avec a = aaT); il existe K > 0 tel que pour tout t E ItEet tout x, Y E IV:

f IIb(t,x)II + IIa(t,x)II2 K2(1 + IIxII2)

(3.21)

I IIb(t,x) -- b(t,Y)II + IIa(t,x) -- a(t,x)II KIIx -- YII

nous supposerons de plus que les dérivées spatiales de a sont bornées. A tout (t, x ) de ILE x IV, on associe le processus [Xsx,t,s > t} solution de :

{

= x

dXst,x = b(s, Xst,x~ds + a(s, Xst,x~dWs, s > t X,x

Pour T > 0 fixé, on se donne c, u~ et f tels que :

c E Cb([0, T] x 1d) , c(t, x) 0

u7 E L2(Id) n Cb(Rd)

f E L2([0, T] x Id) n Cb([0, T] x Id) Le générateur de (Xx,t) est donné par :

d d d

1 L(t) = 211 aaxi(ctii(t,x) a ) + cti(t, x) a

ax. axi

.1

1=1 j=1 i=1

d ,

octt -

Avec cti(t,x) = bi(t, x) -- 1 ax -I (t' x)

-

i=1

on définit L_(t) par :

L_(t) = L(t) + c(t, x)I

a. Problème parabolique sans frontière :

On considère l'équation parabolique rétrograde (avec dormée finale en T ) sur IERd :

u(T,x) =

11

(x),

x E Irl Ce problème a une unique solution :

l

au _

+ L(t)u = --f, 0 t T (3.22)

u dans L2([0,T]: H1(d)) n C([0,T]: L2(d)) qui se représente de la manière suivante :

u(t, x) = E f r f (s, Xst,x)exp{f ts c (o, X,t9,x)d0} ds

+E [17(X:,x)exp {f:. c (s, Xst,x)ds}1

(3.23)

La démonstration se fait encore en appliquant la formule d'Itô à :

s

1ps = u(t,Xst,x)exp ff co,X,t9,x)del

entre s = t et s = T, en prenant l'espérance et en utilisant (3.22).

Dans le cas homogène, où les coefficients (b, a, c, f ) ne dépendent pas de t, on peut poser v (t,x ) = u (T - t,x ) ; il résulte de (3.23) avec t = 0 que :

~

~~~, ~~ ~ ~ ~ ~~~, ~~ ~,~~~~~~~ ~

~ ~ ~~, ~~ ~,~~~~~ ~~

~

~3.24~

~~ ~~~~~~ ~,~~~~~ ~~ ~

~ ~ ~~, ~~ ~,~~~~~~

qui donne la solution au point (T, x) du problème :

{ay = L(t)v + f , t > 0

(3.25)

v(0, x) = u(x)

Dans le cas f = 0, cette formule est appelée formule de Feynman-Kac énoncé précédemment ; dans le cas du mouvement brownien, en tombe dans l'exemple de l'équation de la chaleur.

~3.26~

Ce problème a une unique solution u dans :

L2([0, T]: Ha(D)) n c([0, T.]: L2(D))

En utilisant le processus (Xx,t,s Odéfini précédemment, on introduit le temps

d'arrêt Tt,x défini par :

b. Problème parabolique avec condition de Dirichlet :

Soit D un ouvert borné de Rd à frontière al) de classe C2 .Avec les données du paragraphe précédent, on s'intéresse au problème :

~

~~ ~~ ~ ~~~~~~ ~ ~~, ~~~~ ~0, ~~ ~ ~
~~~, ~~ ~ 0, ~~~ ~0, ~~ ~ ~~
~~~, ~~ ~ ~~~~~, ~~~~ ~

Tx = inf{s > 0: Xst,x D} u(t, x) admet alors la représentation :

u(t, x) = E ~ ~~~, ~~

~~,~~~ ~,~~~~~~~ ~

~ ~ ~~, ~~ ~,~~~~~ ~~

~

~3.27~

~~ ~~~~~,~~~~~~~~~ ~,~~~~~ ~~ ~

~ ~ ~~, ~~ ~,~~~~~~

pour tout (t, x) E [0, T ] x D.

Cette formule se démontre comme (3.16) en appliquant ce coup-ci la formule d'Itô, de s = t à s = Tt,x A T, à iY's pour une suite (un) régulière convergente vers u.

On peut ainsi considérer le problème non homogène où la deuxième condition de (3.26) est remplacée par u (t, x ) = (/) (t, x ) sur [0, T ] x aD ; il faut alors ajouter à (3.27) le terme :

rTtx

E [II{Ttx<70(rt,x,X,t)exp fic (0, X L,ide

t ll

A nouveau, si (b, a, c, f , (/) ) ne dépendent pas de t, on peut poser v (t, x ) = u (T- t, x ) pour obtenir une représentation de la solution de :

av

= L(t)v + f sur [0, T ] x D

at

avec les conditions v = (/) sur ]0, T] x aD et v(0, x) = u(x) dans D.

3. Discrétisation de problème :

On a vu dans la partie précédente de ce chapitre que l'interprétation des EDPs conduit à écrire la solution sous forme E[f(X~)] avec la quantité f(Xt(w)) dépend de temps t et du hasard w. Le processus X est une diffusion, il n'est alors pas possible de calculer exactement E[f(X~)] et l'on a naturellement recours à la simulation numérique. Tout d'abord une discrétisation temporelle de la dynamique de X permit de générer une variable aléatoire Xt dont la loi est proche de celle de Xt. On applique ensuite la méthode de Monte Carlo : la moyenne arithmétique de N copies indépendantes de la variable f(X~t) converge vers E[f(X~t)].

3.1. Le schéma d'Euler :

La méthode d'Euler qui représente la première étape dans la simulation, permet de donner une variable aléatoire X qui est proche en loi de X, où X = (Xx) est le processus de Markov solution de l'équation différentielle stochastique.

Soit T un horizon de temps fini, on peut sans perte de généralité prendre T = 1; on cherche à estimer la loi de Xf. = Xf qui en général n'est pas connue. Pour ce faire on approche Xxpar son schéma d'Euler d'ordre n > 1, disons Xn,x défini de la façon suivante: on considère la subdivision régulière

yn = (0 = ~~n <
·
·
· < tnn _i < tnn = 1) de l'intervalle [0,1] c.-à-d. tnn = k /n et on pose X,x = x, et pour tout k = (0,1 ...,n -- 1) et t E [tIn, q+1]

_

g n,x

t -- gnr,x + b (g tk r,x) (t -- 41) + a (g tr,x) (Wt -- Wtkn)

tk

Le schéma d'Euler est simulable. C'est une petite perturbation Xxque l'on peut expliquer de la façon suivante :

· On part à la date 0 de la valeur vraie x.

· Sur l'intervalle[0, tn], on gèle les coefficients de l'EDS en leurs valeurs exactes b(x) et a (x) à gauche de cet intervalle et on calcule la valeur gne en ell de la

tl

solution de cette nouvelle petite EDS.

· Sur l'intervalle[t~n, tn], on gèle les coefficients de l'EDS en leurs valeurs exactes b(Xne) et CY ane ) à gauche de cet intervalle et on calcule la valeur re en q de

tl tl t,

la solution de cette nouvelle petite EDS.

· Et ainsi de suite...

De plus on a les variable aléatoire Wtil.ct+l -- WtIct sont mutuellement indépendantes et

de même loi gaussienne centrée de variance q+1 -- ~~n.

3.2. La méthode de Monte Carlo :

On voit que les EDPs peuvent être interprétés à l'aide de processus de Markov bien choisis : on interprète u à l'aide du générateur infinitésimal du semi-groupe de transition d'un processus de Markov (Xt, t 0). Les motivations de cette démarche peuvent être d'ordre théorique et/ou numérique. En effet, en particulier lorsque (Xt, t 0) est solution d'une équation différentielle stochastique, le calcul stochastique permet parfois d'obtenir des résultats d'existence, d'unicité ou de régularité de la solution de l'EDP.

D'autre part, dès que l'on peut écrire la solution de l'EDP sous la forme d'une espérance du type u(t) = EF(X) avec F fonctionnelle sur l'espace des trajectoires de X entre 0 et t, on peut chercher à développer une méthode de Monte-Carlo pour approcher u(t) même si on ne sait pas simuler des trajectoires exactes de X : il suffit de construire un processus proche (en loi) de X, comme on a vu dans la paragraphe

précédente (schéma d'Euler), en simuler un grand nombre de trajectoires entre 0 et t, évaluer la fonctionnelle F le long de chaque trajectoire simulée et enfin moyenner toutes les valeurs obtenues.

Donnons un exemple élémentaire. Considérons l'équation de la chaleur :

at

(t, x) = vAu(t,x), t f(t,x) E ]0,7] x Irl (3.28)
at avec pour condition initiale u(0,
·) = uo(
·) une fonction mesurable bornée. Le

paramètre v est strictement positif et est appelé « paramètre de viscosité » en mécanique des fluides ou « volatilité » en finance.

On vérifie facilement d'après qui précédent que la fonction :

V(t,x) E ]0,7] x Irl, u(t,x) = Euo(x + V2vWt)

où (We) est un mouvement brownien standard à valeurs dans Irl, satisfait (3.28) ainsi que 1imt,o u(t,x) = uo(x) en tout point de continuité de uo. Par application de la loi des grands nombres, on peut donc approcher u(t, x) par :

N

)

N1 1

uo(x + V2vtgj(w)

j=1

où les (gj(w)} forment une famille de variables aléatoires gaussiennes indépendantes, à valeurs dans Irl, centrées et de matrice de covariance Id Ird . Cet algorithme est très simple à mettre en oeuvre : on sait effectuer des tirages gaussiens indépendants à l'aide d'appels à un générateur de nombres pseudo-aléatoires uniformément répartis. La vitesse de convergence est décrite par des théorèmes- limite tels que le théorème de limite centrale, la loi du logarithme itéré, l'inégalité de Berry-Essen : la convergence est d'ordre 1/VN, elle est donc lente. Toutefois, le coût de l'algorithme croît seulement linéairement avec la dimension d de l'espace puisqu'on simule Nd trajectoires d'un mouvement brownien unidimensionnel standard, et ce coût est indépendant du paramètre v.

Typiquement, les méthodes de Monte-Carlo pour des équations aux dérivées partielles elliptiques ou paraboliques peuvent permettre de traiter des problèmes

extrêmes, en très grande dimension ou avec de très faibles viscosités, lorsqu'il serait difficile, ou extrêmement coûteux, d'utiliser des algorithmes classiques.

A l'aide de schéma d'Euler on peut écrire :

N

)

u(t,x)- 1

N Luo(~~r,x(wi)

i=1

CHAPITRE IV :

Application

0. Introduction:

On applique dans ce chapitre quelques formules et méthodes citées dans les trois chapitres précédents. Cette application repose sur la simulation numérique. Pour commencer nous abordons la simulation des trajectoires de mouvement brownien qui est la base des autres simulations stochastiques de notre travail. Il faut discrétisé le problème, cette discrétisation se faisant au niveau des variables, par exemple sur la variable de temps pour le mouvement Brownien.

Après la simulation du mouvement Brownien, on procède à la simulation de processus de diffusion, que l'on utilise dans notre problème principal concernent l'interprétation probabiliste des EDPs.

1. Discrétisation du mouvement brownien :

Le mouvement Brownien standard est une variable aléatoire W(t) qui dépend continument de temps (t E [0, T]) et satisfait les quartes conditions connues(Chap1).

Pour la computation proposée il est utile de considérer le mouvement Brownien discrétisé, où W(t) est spécifie aux valeurs discrètes de t; ainsi nous donnons At = T /N pour un certain entier positive N et soit W~ une notation de W(ti) avec ti = jLt.

La première condition est Wo = 0 avec une probabilité 1, la 2eme et la 3eme sont données par :

Wi = Wi + AWi , j = 1,2, ...,N,

où OW~ est une variable aléatoire indépendante de -VAt.7V(0,1).

Le programme (PROG1) en MATLAB nous donne la simulation d'une trajectoire du Mouvement Brownien standard sur l'intervalle [0,1] avec N = 1000 ; le résultat de la simulation est illustré dans la figure (Fig.01) qui représente 1000 points (ti ,Bi) en les joignant par interpolation linéaire:

Remarque : tous les algorithmes des programmes (en MATLAB) cités dans ce chapitre sont donnés dans l'annexe B.

W(t)

-0.2

-0.4

0.8

0.6

0.4

0.2

1.4

1.2

0

1

simulation d'une trajectoire d'un mouvement brownien

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

Fig 01: t

-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5

Fig 02:

1

0.8

0.6

0.4

0.2

0

-0.2

-0.4

-0.6

-0.8

simulation d'une trajectoire d'un mouvement brownien dans 2D

Dans la figure (Fig.2) on donne la représentation d'une trajectoire de mouvement Brownien dans deux dimensions. On voit ici que le point de trajectoire marche aléatoirement dans tous les sens du plan.

Avec les mêmes démarches suivies dans la simulation d'une trajectoire d'un mouvement Brownien on peut simuler M trajectoires, le programme (PROG2) sur MATLAB, nous a donné la simulation de M = 1000 trajectoires, le résultat est illustré dans la figure(Fig.03) :

-2

-4

-5

-1

4

0

3

5

2

1

-3

W(t)

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

Fig.03: 1000 trajectoires de mouvement Brownien

t

2. Discrétisation d'un processus de diffusion:

2.1. Schéma d'Euler- Maruyama :

Une des simples méthodes de discrétisation de processus de diffusion est l'approximation d'Euler, appelée parfois Euler- Maruyama. On considère un

processus de diffusion X = (Xt, to t T} satisfait l'EDS :

dXt = a( t, Xt)dt + b( t, Xt)dWt (4.1)

dans [ to, T] avec la valeur initiale Xto = Xo.

Pour une discrétisation to = To
·
·
· TN = T de l'intervalle de temps [ to, T],

l'approximation d'Euler est un processus stochastique continu Y = (Y(t), to t T}
qui satisfait le schéma itératif :

Yn+i = Yn + c(rn, Yn)(rn+i--Tn) + b(rn, Yn)(Wn+i--Wn) (4.2)

pour n = 0,1,2 ..., N -- 1 avec la valeur initiale Yo = X0, où nous avons écrit :

Yn = Y(rn)

Pour la valeur de l'approximation de temps de la discrétisation xn, nous écrirons aussi : An= ;1+1 -- xn pour le ntenie pas de temps et appelé S = maxn An le pas de temps maximale. Pour ce paragraphe on considère un temps de discrétisation équidistant xn = to + nS avec S = AnE A= (T -- to) /N pour N entier assez grand pour que DE [0,1] .

Quand le coefficient de diffusion est identiquement égale à zéro, l'itératif de schéma (4.2) réduit au schéma d'Euler déterministe pour l'équation différentielle ordinaire (EDO) :

dx

dt = a(t, x) (4.3)

La séquence (Yn, n = 1,2., ..., N} des valeurs de l'approximation d'Euler (4.2) aux instants de temps discrétisé (x)8 = (rn, n = 1,2, ..., N} peut avoir le même schéma

simulé dans le cas déterministe, la différence principale est que nous avons besoin à générer le pas aléatoire :

AWn = Wrn-Ft--Wrn (4.4)

pour n = 0,1, 2 ..., N -- 1 de mouvement brownien W , on sait que ces pas sont des variables aléatoires gaussiens indépendants avec un moyenne E(AWn) = 0 et de variance E(AWn2) = An, donc on peut utiliser des nombres pseudo-aléatoires pour les incréments de mouvement brownien.

n+i = Yn + c/..An + b.AWn

r

(4.5)

Y0 = X0

Pour simplifier nous écrivons : f = f(rn,Yn) pour une fonction définie sur IR+ x IRl et n = 0, 1, 2 ..., N -- 1, alors nous pouvons écrire le schéma d'Euler (4.2) dans la forme abrévié :

La structure récurrente de schéma d'Euler qui évalue les valeurs approximatives du processus de diffusion aux instants de discrétisation est toujours la clé du Succès d'implémentation par ordinateur.

2.2. Exemple de discrétisation d'un processus de diffusion:

Nous illustrons l'aspect de simulation pour approximer le processus de diffusion, en examinant un simple exemple avec simple coefficient, on considère le processus X = (Xt, t 0) qui satisfait l'EDS linéaire :

dXt = aXtdt + bXtdWt (4.6)

Pour t E [0, 7] avec X0 E IR la valeur initiale, c'est un processus de diffusion avec drift a(t,x) = ax et un coefficient de diffusion b(t,x) = bx .

On peut avoir la solution exacte de cette EDS explicitement :

Xt = XoexpKa --112b2)t + bWt1 (4.7)

Pour t E [0, T] et W = (We, t 0) un Mouvement Brownien, connaître la solution de (4.6) explicitement donne la possibilité de comparer l'approximation d'Euler avec celle de la solution exacte, et calculer l'erreur.

Pour simuler la trajectoire de l'approximation d'Euler pour un temps de discrétisation, nous simplement donnons la valeur initiale Y0 = X0 et procéder par récurrence la prochaine valeur :

Yn+i = Yn + aYnAn + bYnAWn

pour n = 1,2, ... , accorder au schéma d'Euler avec drift et diffusion. Ici AWn est la distribution gaussienne N(0, An) du mouvement brownien W sur le subintervalle xn < t < Tn+1.

Pour la comparaison, nous pouvons utiliser (4.7) pour déterminer la valeur de la solution exacte pour un même échantillon de mouvement brownien, obtenu :

~

X,,, = Xoexp Ka -- 1 12 b2) rn + b 1 Wi-il

~

Une application numérique de cet exemple en prenant l'intervalle de temps [0,1] , le pas A= 10-2 et pour le processus de diffusion a = 0.5, b = 0.5 et X0 = 1. A travers le programme (PROG3) nous avons le résultat de la simulation de la solution exacte et la solution approximée par la méthode d'Euler de l'EDS (4.6). Le résultat est illustré dans la figure (Fig.04), où on peut voir que la trajectoire de solution approximée approche celle de la solution exacte.

solution exacte solution approximée

1.15

X(t)

1.1

1.05

1

0.95

0.9

0.85

0.8

0.75

0.7

0.65

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

t

Fig.04:solution exacte et approximée d'un processus de diffusion

3. Application à l'interprétation probabiliste des EDPs :

Dans cette partie on applique la méthode probabiliste sur quelques exemples des EDPs paraboliques, Pour voir l'efficacité de la méthode on applique en parallèle à ces EDPs une méthode déterministe (différences finies), on veut dire par efficacité, estce-que la méthode nous a donné une approximation acceptable de la solution ? On commence par poser le premier problème :

3.1. Problème N°=1 (équation de la chaleur):

On prend comme premier problème à traiter l'équation de la chaleur. Nous choisissons un problème que nous savons résoudre analytiquement et par différences finies pour essayer par une comparaison de voir l'efficacité et les avantages de la méthode probabiliste.

L'équation s'écrit comme suit :

lau(x, t) a 2u(x, 0

= a dans D = [0,T] x [0, xf]

at ax2 (4.8)

u(x, 0) =

f(x)

avec :

1 -- domaine D = [0,0.1] x [0,1] et a = 1.

conditions aux limites

u(1,)

= 0

condition initiale f (x) = sinn-x . fu(0, 0 = 0 (4.9)

On sait résoudre cette équation analytiquement et la solution (exacte) est :

u(x, t) = sin(n-x)exp(--n-2t)

La figure (Fig.05) présente la solution analytique u(x, t) en fonction de t et x:

Chapitre IV

Application

0.6

0.08

0.04

t

0

0

1

0.8

0.6

0.4

0.2

0

1

0.8

u(xt)

0.1

0.06

0.02

x

0.4

0.2

Fig.05:solution analytique en fonction de x et de t

3.1.1. Illustration numérique du problème par méthode déterministe (la méthode des différences finies) :

Cherchons l'approximation numérique de la solution u(x, t) qui satisfait l'équation (4.8) avec la condition initiale et les conditions aux limites (4.9). La méthode des différences finies nous permet de donner cette approximation ; on commence par discrétiser le problème. On divise le domaine de l'espace [0,xf] à M subintervalles, chacun de longueur Ax = xf/M, et on divise le domaine de temps [0,T] à N subintervalles, chacun de durée At = T/M, en utilisant la méthode d'Euler explicite (chap. II) on obtient :

k

ui+1 - 214 +14_1

Ax2

k+1 k

ui -ui

= (4.10)

At

a

avecuik

r-r, u(xi,tk), la méthode explicite nous permet de résoudre le problème par

itération :

k+1 At

ui = r(u+1 + ut_1) + (1 - 2r)uk-, avec r = a

ex2

On a d'après le chapitre II que ce schéma est consistent, donc il suffit de choisir ?t et ?x pour que la condition de stabilité soit vérifiée, de cette façon on obtient un

schéma convergent. La condition de stabilité dans ce cas est que r ~ ~ .

~

Le programme (PROG.4) fournit une fonction qui calcule la solution à tous les points (tk,xt) explicitement, avec condition initiale et condition aux limites quelconques noté dans le programme par f(x) , bx0 et bxf :

Le programme (PROG.5) définit les fonctions : condition initiale et conditions aux limites (4.9), le pas de discrétisation ?t et ?x . Il suffit de donner par exemple M = 20, N = 300, donc r = 0.133 , et on trouve la solution:

La figure (Fig.06) donne l'illustration graphique de la solution approximée en fonction de t et x, par une première comparaison on voit la grande ressemblance entre la figure (Fig.05) et (Fig.06) :

On continue la comparaison par le calcul de l'erreur de troncature :

E = MaxtE~k,1 < i < M,1 < k < N1

E = 1.4797 x 10-4

0.06

0.04

0.2

0.4

x

t

0.02

0

0

Fig.06:solution approximée par la méthode des difference finies

1

0.8

u(x,t)

0.6

0.4

0.2

0

1

0.8

0.6

0.1

0.08

Puisque on connaît la solution exacte de l'équation (4.8), alors on peut calculer le vecteur erreur défini par :

I 1 k 1

et = k.ei ,
·
·
· , et ,
·
·
· , et

t )

avec :

ek = lu~k -- u(xi,tk)1, 1 < i < M, 1 < k < N

où u(xi, tk) est la solution analytique (exacte) au point (xi, tk) et uikest la solution approximée par la méthode des différences finies au même point.

La figure (Fig.07) illustre la solution exacte et approximée au long de l'axe t et pour un point d'espace fixé x = 0.5. On remarque que les deux graphes sont presque confondus ce qui veut signifier que l'erreur est acceptable; ce que montre la figure (Fig.08) qui illustre le vecteur d'erreur e(t, x) pour x = 0.5.

430

0.9

0.8

0.7

0.6

0.5

0.4

1

solution approximée solution exacte

0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.1

t

Fig.07:solution exacte et approximée par la méthode des différences finies pour x=0.5

x 10-4

e(t)

0.5

1.5

0

1

0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.1

t

Fig.08: L'erreur de la méthode pour x=0.5

On calcule l'erreur quadratique pour xi = 1 / 2 par :

i1 VN

e quad _ (e c)2 (4.11)

_

N Li k=1 E

dans ce cas squad = 1.1699 x 10-4

La Table.1 donne l'erreur maximum (troncature) et le temps (7'E) d'exécution de programme pour des résolutions différentes de l'équation (4.8) par la méthode des différences finies en changeant les valeurs de N et M (toujours pour x = 0.5):

N

90

600

1000

2000

8000

1.8x104

M

20

20

50

100

200

300

At

0.0013

1.66x10-4

10-4

5x10-5

1.25x10-5

5.5x10-6

Ax

0.05

0.05

0.02

0.01

0.005

0.0033

r

0.44

0.066

0.25

0.5

0.5

0.5

ema x

0.0013

4.54x10-4

6.05x10-5

6.05x10-5

1.51x10-5

6.72x10-6

7'E(s)

0.031

0.25

0.656

4.82

144.7

1076.53

Table.1

On constate de cette table que : chaque fois qu'on diminue la valeur de Ax il faut diminuer la valeur de At pour obtenir la stabilité de solution, cette situation provoque un système linéaire de grand dimension qui nécessite un temps d'exécution plus grand, mais l'erreur devient plus petite.

3.1.2. Illustration numérique du problème par la méthode probabiliste :

On passe par suite à l'application de la deuxième méthode sur le même problème, donc on s'intéresse à l'interprétation probabiliste de la solution de l'équation (4.8) pour t E [0, 7'], ce problème est traité dans le chapitre III, et par l'application de la formule de Feynman-Kac on peut écrire la solution sous forme :

u(x, t) = E x[f(X~)] (4.12)

où le processus stochastique sous-jacent (Xt) est la solution de :

Xt = x + f ot V2 dWs ,0 t 7' (4.13)

La solution numérique est obtenue par la simulation de Monte-Carlo; l'application de schéma d'Euler donne une solution approximée de l'équation (4.13). On simule N trajectoires de cette solution, et par la fonction de condition initiale on calcule les valeurs f(X~), en moyennant ces valeurs on trouve :

~

u(x,t) ~ 1 ~

~~~

L'illustration graphique de cette solution est donnée par la figure (Fig.09) :

0

0

0.08

t

1.2

0.8

0.6

0.4

0.2

0

-0.2

1

x 0.8

0.6

0.4

0.2

0.1

0.06

0.04

0.02

1

u(x,t)

Fig.09: solution approximée par la méthode probabiliste

Le programme (PROG.6) donne la solution approximé par la méthode probabiliste, où le processus (X1 ~) est discrétisé avec même pas de temps utilisé à la première méthode (D.F), c.-à-d. on prend n = 300 et donc ?t = T /n = 1 / 300.

La figure (Fig.10) illustre la solution probabiliste et la solution exacte au long de l'axe de temps et pour un point d'espace fixé x = 0.5 , on peut voir que la solution probabiliste approche de la solution exacte avec des perturbations.

U(tpX)

0.9

0.8

0.7

0.6

0.5

0.4

1

solution probabiliste solution exacte

0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.1

t

Fig.10:solution exacte et probabiliste pour x=0.5

On calcule l'erreur de troncature :

E = MaxtE k,1 k N)

E = 0.0227

L'erreur de troncature de cette méthode est plus grande que celle de la première. Ceci provient de l'ordre de convergence de la méthode de Monte Carlo.

Le vecteur d'erreur est donné par la formule :

e (xi, tk) = lUex(xi, tk) -- Uprob(xi, tk)I

où Uex est la solution exacte et Uprob est la solution par la méthode probabiliste.

La figure (Fig.11) illustre le vecteur e(x, t) pour une valeur de x fixé comme dans la première méthode x = 0.5.

e(tx)

0.025

0.015

0.005

0.02

0.01

0

0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.1

Fig.11:l'erreur de la méthode probabiliste pour x=0.5 t

On calcule l'erreur quadratique : s qUad = 0.0098

On remarque que l'erreur quadratique est supérieure que celle de la première méthode. Ce qui signifie que la solution approximée par méthode des différences finies est meilleure que celle de la méthode probabiliste.

On peut affaiblir la valeur d'erreur par l'augmentation de la valeur de N (le nombre des trajectoires). La Table.2 donne l'erreur maximale des résultats de simulation de solution pour des valeurs différentes de N (toujours pour x = 0.5 ) :

N

500

1000

2000

8000

10000

emax

0.0110

0.0131

0.0098

0.0089

0.0065

TE (s)

0.141

0.734

3.313

215.21

330.82

Table.2

D'après la Table.2 on constate que la convergence de cette méthode est très lente. Mais le temps d'exécution de programme est inferieur à celle de la première méthode, car dans la méthode probabiliste on peut trouver la solution pour un x fixé directement, contrairement à la première méthode il faut trouver toute la solution (c'est à dire la matrice u(t,x)) et en suite extraire la solution pour un x fixé.

Interprétation des résultats :

Malgré que l'approximation de la solution par la méthode des différences finies soit meilleure que celle de la méthode probabiliste, on peut dire que la méthode probabiliste donne une approximation acceptable de la solution.

Puisque la méthode est basée sur la simulation de Monte Carlo, la convergence de la méthode est lente, et l'approximation sera faible de celles des méthodes déterministes.

L'utilisation de cette méthode est avantagée dans le cas de résolution des EDPs où la résolution par les méthodes déterministes implique une résolution des systèmes linéaires à grandes dimensions.

3.2. Problème N° 2 :

On prend comme deuxième problème l'équation aux dérivées partielles suivante:

{ au 1 02u 1 au 1

x2 (x, t)--x (x, t) + u(x, t) = 0 , dans D = [0,T] x IR,

at (x, t) + 2 ax2 2 ax ' 2 ' (4.14)

u(x, 0) = f(x)

{-- domaine D = [0,1] x [0,1] .

condition initiale f (x) = x2 .

(4.15)

)u(0,t = 0

conditions aux limites {u(1, u(1, t) = exp (-- t / 2 )

On peut résoudre cette équation analytiquement et la solution (exacte) est :

u(x, t) = x2exp(--t/2)

La figure (Fig.12) illustre la solution en fonction de x et t :

Chapitre IV

Application

0.4

0.2

0.2

0.8

t

0

0

1

0.8

0.6

0.4

0.2

0

1

x

0.8

0.6

1

u(x,t)

0.4

0.6

Fig.12:solution analytique(exacte) en fonction de x et t

3.2.1. Illustration numérique de problème par la méthode des différences finies :

Cherchons l'approximation de la solution par la méthode des différences finies, en utilisant la méthode explicite (chap. II). On obtient le schéma suivant :

1

ur = 0-1B i -- r2Ai)uli,_i + (1 -- 2 At -- riBi + r2Ai) ut -- r2Atuli,+1

avec r1 = At/Ax , r2 = AtiAx2, Bt. = -- 12 x i , At = 12 xi2 .

On donne dans le programme (PROG.7) une fonction qui fait cette discrétisation et donne la solution approximée, la figure (Fig.13) représente cette solution en fonction de x et t.

Pour étudier l'erreur de la méthode, on fixe un point d'espace, comme dans le premier problème pour x = 0.5, la figure (Fig.14) illustre la solution exacte et la solution approximée par la méthode des différences finies, et la figure (Fig.15) illustre l'erreur commise par la méthode, d'après cette erreur on déduit que l'approximation est bonne, avec une erreur maximale emax = 1.5169 X 10~~

87

0

0

Chapitre IV

Application

0.6

0.4

0.2

0.4

0.2

0.8

t

0.6

x

1

0.8

0.6

0.4

0.2

0

1

0.8

u(x,t)

Fig.13:solution approximée par la méthode des différences finies

u(x,t)

0.19

0.18

0.17

0.16

0.15

0.14

0.13

0.12

0.11

0.2

0.1

solution approximée solution exacte

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 t 1

Fig.14:solution exacte et approximée par la méthode des différences finies pour x=0.5

1

e(x,t)

0.8

0.6

0.4

0.2

X 10-4

1.6

1.4

1.2

0

1

Fig.15:le vecteur erreur pour x=0.5

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 t 1

3.2.2. Illustration numérique de problème par la méthode probabiliste :

La formule de Feynman-Kac permet de représenter la solution de problème :

1

u(x, t) = Ex [exp (- 2 t) f(X~)i , t E [0, T] (16)

avec f(x) = x2 et le processus sous-jacent:

Xt = X0 -

1 i t t

2J dt + f Xs dWs , X0 = x

o o

Le programme (PROG.8) donne l'approximation de la solution en passant par la méthode de Monte Carlo :

La figure (Fig.16) représente la solution exacte et la solution approximée par la méthode probabiliste et la figure (Fig.17) représente l'erreur commise par cette méthode, avec N = 100 trajectoires.

L'erreur maximale emax = 0.0094, mais pour la plupart des points, l'erreur est inferieure à 0.005, avec une erreur absolue maximale égale à 5.9%, qui laisse une bonne approximation.

Interprétation des résultats :

Dans le deuxième problème l'importance de la méthode probabiliste est bien apparue, car l'application de la méthode des différences finies sur cet exemple est difficile à cause des coefficients non constant, c'est-à-dire, dépendent de la variable de l'espace, cette dépendance rend la solution non stable parfois, la méthode probabiliste grâce à la formule Feynman-Kac nous donne une bonne représentation de la solution, et plus on augmente le nombre des trajectoires dans la méthode de Monte Carlo on obtient une solution plus précise avec une erreur faible.

u(x,t)

0.26

0.24

0.22

0.18

0.16

0.2

solution exacte solution apprximée

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

t

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

Fig.17: le vecteur erreur de la méthode

t

0.01

e(x,t)

0.009

0.008

0.007

0.006

0.005

0.004

0.003

0.002

0.001

0

Fig.16:solution exacte et solution approximée par la méthode probabiliste por x=0.5

CHAPITRE V :

Application en finance

0. Introduction:

Une option est un produit financier qui donne le droit à son acheteur d'effectuer une opération portant sur un sous-jacent (qui peut être une action, une obligation, une cargaison de pétrole) avant la date d'échéance.

1. Modèle du prix de l'actif:

La théorie des modèles de Black et scholes pour un actif est un processus stochastique (EDS):

dS = jiS~dt + aS~dW~

La figure (Fig1) illustre ces échantillons d'un actif, avec it = 0.1 et 0- = 0.3.

A la date d'échéance t = T, le prix de l'actif est une variable aléatoire donné par la densité :

exp (--(~o9(x /S0 ) -- (1 -- 0-2/ 2 )T)2)

20-2T

f (x) = ' , pour x > 0

x0-V 2n-T

avec f(x) = 0 pour x 0, pour confirmer on donne la figure (Fig.02), qui illustre l'histogramme où on prend la valeur finale de l'actif S(T) pour 104 échantillons, et la courbe présente la densité f(x).

at)

2.4

2.2

0.8

0.6

0.4

1.8

1.6

1.4

1.2

2

1

0 10 20 30 40 50 60 70 80 90 t 100

Fig.01:100 trajectoire d'un actif

0. Formule de Black et Scholes :

La formule de Black-Scholes permet de calculer la valeur théorique d'une option à partir des cinq données suivantes :

· St: la valeur actuelle de l'action sous-jacente.

· t : le temps qui reste à l'option avant son échéance T.

· K: le prix d'exercice fixé par l'option.

· r : le taux d'intérêt sans risque.

· a : la volatilité du prix de l'action.

Le prix théorique d'une option d'achat (call), qui donne le droit mais pas l'obligation d'acheter l'actif S à la valeur K à la date T, est caractérisé par son payoff :

(ST -- K)+ = max(ST -- K; 0)

Le prix de l'option est donné par l'espérance sous probabilité risque neutre du payoff terminal actualisé :

C = E( payo f f X e-rT)

De plus, pour employer le modèle du prix de l'actif, Black et scholes imposent un nombre de supposition de simplification aux options de marché, alors ils utilisent la formule suivante pour les valeurs de l'option européenne au temps t et le prix d'actif S :

C(S, t) = S.Ar(di) -- Ke-r(T-~).Ar(d2)

1

log(S/K)+ (r + 2 o-2)(T -- t)

di =

et .Ar(.) est une fonction de la distribution de loi normale .Ar(0.1) :

.Ar(x) =

1 r s2

e- 2 ds

112n-

Le paramètre r dans la formule est le taux d'intérêt. Si le prix d'actif aujourd'hui (temps zéro) est So la valeur de black et scholes call option est C(So, 0). Le programme (PROG2) fourni une fonction qui donne la valeur de l'option à la date t et le prix de l'actif S.

Il donne la valeur de call C = 1.1447 pour t = 0, quand on change les valeurs de t on obtient autres valeurs de call par exemple :

t = 1 --> C = 1.0972 ; t = 1.5 --> C = 1.0731 ..... a. La méthode de Monte Carlo :

Une propriété plus utilisée pour obtenir la valeur de l'option de Black et Scholes est d'estimer la moyenne de payoff, sous la condition de risque it = r, autrement dit, nous pouvons reproduire la valeur de l'option par fixer it = r dans le modèle de l'actif et computer la moyenne de payoff de tous les trajectoires de l'actif, dans la pratique, ceci peut être faire par la simulation de Monte Carlo (moyenner le payoff sur un grand nombre des trajectoires de l'actif). Pour le call européen on a seulement besoin de connaitre le prix de l'actif à l'échéance, ainsi on peut prendre At = T à chaque échantillon, et on donne le programme (PROG3) :

Ici, Pi est le payoff du ieme trajectoire de l'actif. La moyenne totale Pmoy est l'estimation de Monte Carlo de la valeur de l'option. La variance P~ar est utilisée pour donner l'intervalle de confiance à 95% suivant :

[Pmoy -- 1.96 X Pvar/M ; Pmoy + 1.96 X Pvar/M] Après l'exécution on trouve :

Pmoy = 1.1453 avec l'intervalle de confiance égal [1.1435 ; 1.1471]

On rappelle qu'on a trouvé avec ces paramètres dans la première méthode que C = 1.1447 est approché à la valeur trouvée dans la deuxième méthode. La figure (Fig03) montre comment l'approximation de la méthode de Monte Carlo varie avec le nombre d'échantillon M, ici on prend S = 10, K = 9,r = 0.06, a = 0.1 et T = 1, les croix dans la figure représentent l'approximation de Monte Carlo et les lignes horizontales représentent l'intervalle de confiance de cette approximation, la valeur de Black et Scholes est représenté par la ligne verticale discontinu.

b. La méthode Binomiale :

On commence par simplifier le modèle du prix de l'actif, on discrétise l'intervalle de temps de façon équidistante 0 = to < ti <
·
·
· < tM = T avec ti. = iAt. Donnons le prix de l'actif au temps zéro to, on pose que le prix de l'actif au temps ti

fait un mouvement vers le bas avec dS0 ou un mouvement vers le haut avec uSo, où d < 1 et u > 1, alors au temps t2 les mêmes mouvements bas/haut sont faits avec les trois possibilités d2S0, duS0 ou u2S0, et on continue cette restriction, au temps ti = iLt on obtient i + 1 possibilités donné par : Sni = di-nunSo, 0 < n < M.

A la date d'échéance ti = tm = T, il y a M + 1 possibilités du prix de l'actif fSnm}nm _o. Soit f Cninm_ 0 correspond aux payoffs à la date d'échéance pour une option d'un call européen, nous savons que:

Cnm = max(Snm -- K, 0) , 0 < n < M

La méthode binomiale procède par une marche arrière sur l'intervalle de temps. La valeur de l'option Ct, correspond au prix de l'actif Sn à la date ti est déterminée comme la moyenne de deux prix d'actif Sni+1 et SI+i au temps ti+1. La formule est :

Cni = e-rAt(p.q++11 + (1 -- p)Sni+1 ) , 0 < n < i , 0 < i < M -- 1

Le paramètre p est considéré comme la probabilité d'un mouvement vers le haut du prix de l'actif, cette formule permet de marcher en arrière vers le temps zéro et déterminer la valeur de l'option C8. Il faut choisit les paramètres de la méthode telle que le modèle binomial de l'actif s'accorde avec la version de Black et Scholes quand At --> 0. Une fois At soit fixé, on aboutit à deux équation pour les trois paramètres restants, et par conséquence plusieurs possibilités des solutions, le choix par exemple est :

erAt --d

d = A -- 11A2 -- 1 , u = A + 11242 -- 1 , p = u --d ,

où A = 2 1 ( e-rAt -- e(r+0-2)At). k

Le programme (PROG4) donne la valeur de l'option par la méthode binomiale, avec les mêmes paramètres utilisés dans les méthodes précédentes, la valeur approximative de l'option W = 1.1448 s'accorde avec la valeur de Black et Scholes C = 1.1447 .

c. EDP de Black et Scholes :

La formule de Black et Scholes pour la valeur d'une option européenne (call) intervient comme la solution d'une équation aux dérivées partielles (EDP). L'EDP est d'une forme parabolique avec les conditions de Dirichlet, soit x = T -- t la marche temps vers la date d'échéance, alors l'EDP prend la forme suivante:

2aC 1 a C as a-2S2 rrS + C = 0 (5.1)

ax 2 aS2 as

avec condition initiale :

C(S, 0) = max(S(0) -- K, 0)

et conditions aux limites :

C(0,x) = 0 , C(S, x ) r-r, S -- Ke' , pour S grand

dans l'intervalle S > 0 et 0 < x < T.

On suit la même procédure du chapitre IV, pour résoudre cette EDP par les deux méthodes (différences finies et probabiliste) :

i. Différences finies pour l'EDP de Black et Scholes :

On subdivise l'intervalle de S , 0 S L, et on utilise le maillage de différences

finies {jh, ik} avec les pas h = L/NS et k = T7Nt, la méthode explicite nous permet d'écrire l'équation (5.1) par :

V.i+1 -- Vi J J

k

1 (Vi 1 --2VJi + V ) Vi -- Vi a2(jh)2 J+ -1-- r(jh) J+1 J1 + rVi = 0

2

h2 h J

Avec VJi r-r, C(jh,ik)

où par la formule matricielle :

yi+1 = Fyi + pi, pour 0 i Nt -- 1,

où F E IR(Ns-1)x(Ns-1) est tridiagonale et pi E 1(Ns-1) est déterminé par les conditions aux limites.

Le programme (PROG5) donne les valeurs de call V à la date t et au prix S, avec les paramètres T = 1, L = 10, K = 4,r = 0.03, a = 0.5.

Application en finance

Chapitre V

10

0.6

6

0.8

4

0.4

t

8

S

La figure (Fig.4) illustre le résultat de ce programme :

10

8

6

4

2

0

0

0.2

XS t)

1 2

0

Fig.04:valeurs d'une option européenne(call) par la méthode des différences finies

ii. Méthode probabiliste l'EDP de Black et Scholes :

L'interprétation probabiliste de l'EDP de Black et Scholes peut donner la valeur de l'option avec les mêmes paramètres précédents, le programme (PROG6) fait cette interprétation. On donne premièrement le processus sous-jacent :

t t

S(t) = So + f rS(s)ds + f o-S(s)dWs

o o

et la solution sera :

C(S, t) = E((S(t) -- K, 0)+exp (r(7' -- t))) Les valeurs sont données dans la figure (Fig.05):

Application en finance

Chapitre V

0

0

10

8

6

4

2

0

1

C(S,t)

0.8

10

0.6

t

S

8

0.4

6

0.2

4

2

Fig.05:valeurs d'une option européenne (call) par la méthode probabiliste

conclusion

CONCLUSION

Dans ce travail nous présentons une des utilités du mouvement Brownien, qui est l'interprétation probabiliste des EDPs. A partir des propriétés qui sont concrétisées soit dans la notion de mouvement brownien soit par la généralisation de cette notion où on trouve la notion de processus stochastique de diffusion, la formule de Feynman-Kac nous permet de donner la représentation de la solution cherchée.

Pour bien présenter l'utilité de la méthode probabiliste on fait une application sur un exemple d'EDP parabolique qui nous savons résoudre analytiquement et par la méthode des différences finies, la comparaison fait entre les solutions approximatives de chaque méthode et la solution exacte montre qu'on peut adopter la méthode probabiliste comme une méthode de résolution, mais les avantages de cette méthode apparus dans les différents cas où on veut résoudre un problème en dimension élevée (par exemple supérieure à 4) les méthode classique conduisent à l'invention de systèmes linéaires d'une taille telle qu'elles deviennent impraticable, et la méthode probabiliste est souvent utilisée.

De même, la méthode probabiliste est souvent préférable lorsque l'on cherche les valeurs de la solution en certains points du domaine de calcul seulement : le cas des calculs de prix d'option en finance est typique puisque l'on ne s'intéresse qu'à une ou à quelques valeurs des prix.

ANNEXE

A. Principaux espaces fonctionnels :

1. Espaces de fonctions « régulières » (au moins continues)

Soit 12 un ouvert de IV , K un compact de Ir. Les fonctions sont ici à valeurs réelles ou complexes.

C(12) Espace des fonctions continues sur 12. Muni de la famille de

semi- normes : pK(u) = supxEK|u(X)| pour tout
compact K c 12 , c'est un espace de Fréchet.

Cb(12) Espace des fonctions continues bornées sur 12. C'est un

espace de Banach pour la norme : llull = supxEK|u(X)|.

Co(12) Espace des fonctions continues sur 12 et tendant vers zéro

au bord de 12. C'est un espace de Banach pour la norme précédente.

Cc(12) Espace des fonctions continues sur 12 à support compact

dans 12.

Ck(12), k E N Espace des fonctions de classe Ck, ou encore espace des

fonctions dont toutes les dérivées d'ordre < k existent et sont continues. C'est un espace de Fréchet pour la famille de semi-normes :

sup

xEK

llullk,K = sup

|p|k

C"(12) espace des fonctions infiniment dérivables ; espace de

Fréchet, avec les semi-normes :

llflla,K = sup

|Da f(X)| , a E Nn, K c 12

xEK

Co"(12) = D(12) espace des fonctions infiniment dérivables à support compact. Une suite (fk) de D(12) tend vers zéro dans D(12) si U supp fk = K est borné et :

sup |Da fk(X)| --> 0, tea E Nn

xEK

2. Espaces de fonctions intégrables :

Soit p un réel,p 0 , et encore 12 ouvert de Ir.

Les fonctions considérées étant à valeurs réelles ou complexes, on note :

LP(12) l'espace des (classes de) fonctions mesurables sur 12 telles que la

fonctionx E 12 --> |f(x)|P soit intégrable sur 12 . C'est un espace de Banach pour la norme :

11/P

IlfIlP = [f |f(x)|Pdx

~

3. Espaces de Sobolev : Soit m E N, p E 41, +0(4, s E ~.on note :

Hm(12) l'ensemble des fonctions f telles que fELP(12) avec

Da f E LP(12) , Va E Nn vérifiant |a| = (a1 +
·
·
· + an m),

avec, bien sûr, Da fdéfini au sens des distributions.

C'est un espace de Hilbert pour le produit scalaire :

(f, 9) = 1 f Da f(x)
· Da ~~~~~~~~~~ 9(x) dx

|ct|m n

H~m(12) l'adhérence D(12) de dans Hm(12).

H-m(12) l'espace dual de Hm(12). C'est un espace de Hilbert pour la

norme duale.

Algorithme 01 : simulation d'un mouvement brownien Variables {Déclaration des donné}

[to, T] : tableau des {réels L'intervalle de temps} N : entier {la taille de trajectoire}.

Début

dt = T/N {Discrétisé l'intervalle de temps} Wo = 0 {Initialisation de trajectoire}

Pour i = 1 jusqu'à N {La boucle de simulation}

Simuler dW(i) par la loi N(0,1) W(i) = W(i -- 1) + -Vdt dW(i)

Finpour

Fin.

B. Algorithmes :

Algorithme 02: simulation de M trajectoire d'un mouvement brownien Variable {Déclaration des donné}

[to, T] : tableau des réels {l'intervalle de temps}

N : entier {la taille de trajectoire}

M : entier {nombre des trajectoires}

Début

dt = T/N {Discrétisé l'intervalle de temps}

Wo(i) = 0 pour 1 i M {Initialisation des trajectoires}

{ La boucle de simulation} Pour j = 2 jusqu'à N

Pour i = 1 jusqu'à M

Simuler dW(i, j) par la loi N(0,1)

W(i,j) = W(i,j -- 1) + -Idt dW(i, j)

Finpour

Finpour

Fin.

Algorithme 03: simulation d'une diffusion Variable

[t0, T] : tableau des réels {l'intervalle de temps}

N : entier {la taille de trajectoire}

a, b , X0 : réels {Constantes}

Début

dt = T/N {Discrétisé l'intervalle de temps}

{La boucle de simulation de la solution exacte Xex} Xex(1) = X0 {Initialisation de trajectoire}

Pour j = 1 jusqu'à N

Simuler dW(j) par la loi N(0,1)

W(j) = W(j -- 1) + Vdt dW(j)

Xex(j) = XoexP [(a -- 21 b) + (bW(j))1

Finpour

{La boucle de simulation de la solution approximée par la méthode

d'Euler-Maruyama Xapp}

Xapp(1) = X0 {Initialisation de trajectoire}

Pour j = 1 jusqu'à N

Xapp(j) = Xapp(j -- 1) + a Xapp(j -- 1)dt + bXapp(j -- 1)W(j)

Finpour

Fin.

Algorithme 4 : résolution d'une EDP parabolique (équation de la chaleur)
par la méthode des différences finies

Variable {Déclaration des donné}

[to, T] : tableau des réels {l'intervalle de temps} [xo,xf] : tableau des réels {l'intervalle de l'espace} M , N : entier {la taille de trajectoire}

f : fonction {Condition initiale; fonction de }.
bx,bxf : fonction {Conditions aux limites ; fonction de t } a : réel {constant}

Début

dt = T/N {Discrétisé l'intervalle de temps}

dx = xf/M {Discrétisé l'intervalle de temps par}

dt 21

si ( r = a dx2 < ) alors {Condition de stabilité}

{La boucle de la solution aux points (to, x(i)) avec (i) E [xo,xf] } Pour i = 1 jusqu'à M + 1

u(to,x(i)) = f(x(i))

Finpour.

{La boucle de la solution aux points(t(k), xo) et (t(k),xf) } Pour k = 1 jusqu'à N + 1

u(t(k), xo) = bx(t(k)) u(t(k), xf) = bxf(t(k))

Fin.

{La boucle de la solution aux points(t(k), x(i)) }

Pour k = 1 jusqu'à N

Pour i = 2 jusqu'à M

u(t(k), x(i)) = r [u(t(k), x(i + 1)) + u(t(k), x(i -- 1))]

+(1 -- 2r)u(t(k), x(i))

Finpour Finpour

Finsi

Fin.

Algorithme 5 : résolution d'une EDP parabolique (équation de la chaleur)

par la méthode probabiliste.

Variable

[t0, T] : tableau des réels {l'intervalle de temps} n : entier {la taille de trajectoire}

x0 : réel {La valeur initiale}

N : entier { La taille de trajectoire}.

Début

dt = T/N {Discrétisé l'intervalle de temps}

algorithme 1 {Simulation de mouvement Brownien}

{La boucle de simulation de la solution au point (t(k), x0) } Pour k = 1 jusqu'à N

Pour i = 1 jusqu'à n

X(t(k), i) = sin(n- (x0 + Ai2 W(k, i)) Finpour

Finpour

Pour k = 1 jusqu'à N

Fin

u(t(k), x0) = lsi E ls_ 1 X (t (k), i) {L'approximation de Monte Carlo} Finpour

BIBLIOGRAPHIE:

[1] Søren Asmussen ,Peter W. Glynn. Stochastic Simulation: Algorithms and Analysis. Springer Science+Business Media, LLC 2007.

[2] V. Bally, D. Talay. The law of the Euler scheme for stochastic Differential Equations (I): Convergence rate of the distribution function. Probability Theory and Related Fields, 104 (1), 1996.

[3] V. Bally, D. Talay. The law of the Euler scheme for stochastic Differential Equations (II) : convergence rate of the density. Monte Carlo Metods and Applications, 2:93-128, 1996.

[4] Timothy J. Barth, Michael Griebel, David E.Keyes, Risto M. Nieminen, Dirk Roose, Tamar Schlick. Numerical Solution of Partial Differential Equations on Parallel Computers. SpringerVerlag Berlin Heidelberg, Printed in The Netherlands. 2006.

[5] Fred Espen Benth , Giulia Di Nunno ,Tom Lindstrøm, Bernt Øksendal,Tusheng Zhang. Stochastic Analysis and Applications. Springer-Verlag Berlin Heidelberg 2007.

[6] N. Bouleau. Processus stochastiques et Applications. Hermann, 2000.

[7] Z. Brzezniak, T. Zastawniak. Basic Stochastic Processes. A course through exircises. Springer-Verlag London, printed in great Britain. 1999.

[8] D. Dacunha-Castelle, M. Du. o. Probabilités et statistiques, tome 1, Problèmes à temps fixe. Masson, 1982.

[9] R. Dautray et al. Méthodes probabilistes pour les équations de la physique. Eyrolles, 1989.

[10] DEBEAUMARCHÉ (G.). - Introduction aux équations aux dérivées partielles linéaires. Techniques de l'Ingénieur, traité Sciences fondamentales AF 162 p. 1-21 (1999).

[11] J.F .Delmas, B. Lapeyre. Processus Aléatoires. CERMICS, 2000.

[12] R. M. DUDLEY. Real analysis and probability. Cambridge University Press 2004.

[13] Vincenzo Capasso, David Bakstein. An Introduction to Continuous-Time Stochastic Processes, Theory, Models, and Applications to Finance, Biology, and Medicine. Birkhauser Boston.2005.

[14] YuX Egorov, M. A. Shubin (Eds.). Partial Differential Equations VI, Elliptic and Parabolic Operators. Springer-Verlag Berlin Heidelberg.

[15] Jean-Pierre FOUQUE. Relations entre probabilités et équations aux dérivées partielles. Techniques de l'Ingénieur, traité Sciences fondamentales AF 565.

[16] A, Friedman. Stochastic differential equations and application, vol1 and vol2. Academic press.1975,1976.

[17] J. Gani, C.C. Heyde, P. Jagers, T.G. Kurtz. Probability and Its Applications. SpringerVerlag London Limited 2008.

[18] Gary.M. Lieberman. second order parabolic differential equations. By world scientific publishing 1996.

[19] I. I. Gihman, A. V. Skorohod. Stochastic differential equations. Springer-Verlag, 1972.

[20] Vincent Guinot, Bernard Cappelaere. Méthodes Numériques Appliquées, Résolution numérique des équations différentielles de l'ingénieur. Polytech'Montpellier STE 2. 2005/2006.

[21] Desmond. j. Higham, Nicholas. j. Higham. MATLAB Guide. second edition. university of Strachclyde, Elasgow, Scotland. University of Manchester, Manchester, England. 2005.

[22] Franck Jedrzejewski. introduction aux méthodes numériques, deuxième édition. springer-verlag france 2001 pour la 1ère édition.

[23] Yu. Kabanov, R. Lipster, J. Stoyanov. From Stochastic Calculus to Mathematical Finance, The Shiryaev Festschrift. Springer-Verlag Berlin Heidelberg 2006.

[24] I. Karatzas, S. Shreve. Brownian Motion and Stochastic Calculus. Springer Verlag, New-York, 1988.

[25] Jaan Kiusalaas. numerical methods in engineering with MATLAB. The Pennsylvania State University. cambridge university press. 2005.

[26] Andrew Knight. Basics of Matlab and Beyond. Boca Raton London New York Washington D. C. Chapman & hall/crc. 2000.

[27] Fima c Klebaner. Introduction to stochastic calculus with applications, second edition. Monash University, Australia. Imperial college press,2005.

[28] P. E. Kloeden, E. Platen. Numerical Solution of Stochastic Differential Equations. Springer Verlag, 1999.

[29] A. G. Malliaris, W. A. Brock. Stochastic methods in economics and finance. Elsiever Science 1982.

[30] John H.Mathews, Kurtis D.Fink. Numerical methods using MATLAB. Prentice Hall.1999.

[31] Sylvie MÉLÉARD. Mouvement brownien et calcul stochastique. Techniques de l'Ingénieur, traité Sciences fondamentales AF 566

[32] K. W. Morton, D.F. Mayers. Numerical Solution of Partial Differential Equations, An Introduction. Cambridge University Press 2005.

[33] D. Lamberton, B. Lapeyre. Probabiltés numériques et théorie des options. In N. Bouleau and D. Talay, editors, Probabilités numériques, Collection Didactique, 180-186, INRIA,1986.105.

[34] David P. Landau, Kurt Binder. A Guide to Monte Carlo Simulations in Statistical. Second Edition. Cambridge university press.2005.

[35] B. Lapeyre, E. Pardoux, R.Sentis. Méthodes de Monte-Carlo pour les équations de transport et de diffusion. Mathématiques et applications 29, Springer-Verlag, 1997.

[36] Mario Lefebvre. Applied Stochastic Processes. springer 2007.

[37] Don s. Lemons. An Introduction to Stochastic Processes in Physics. the johns hopkins university press baltimore and london.2002.

[38] O. Lévêque. Cours de Probabilités et Calcul Stochastique. EPFL, 2004.

[39] M. Loéve . Porbability theory I,4th edition. springer-verlag.1977.

[40] B. Øksendal. Stochastic differential equations, an introduction with application. Springer- Verlag, 2000.

[41] P. Protter. A partial introduction to financial asset pricing theory. Stochastic Processes and their Applications 91 , 2001, 169-203.

[42] L.C.G. Rogers, David Williams. Diffusion, Markov processes and martingales , volume 2.

2ed

Ito calculus edition. Cambridge university press.2000.

[43] Steven E. Shreve. Stochastic calculus for finance II, continuous-time models. Springer Science+Business Media,Inc 2004.

[44] Steven E. Shreve. Stochastic calculus for finance I, The Binomial asset pricing model. Springer-verlag new York.LLC 2004.

[45] Galen R. Shorack. Probability for Statisticians. springer-verlag New York.2000.

[46] Dieter Sondermann. Introduction to Stochastic Calculus for Finance, A New Didactic Approach. Springer-Verlag Berlin Heidelberg 2006.

[47] Pierre SPITERI. Méthode des différences finies pour les EDP stationnaires. Techniques de l'Ingénieur, traité Sciences fondamentales AF 500.1999.

[48] David Stirzaker. Stochastic Processes and Models. Oxford University Press, 2005.

[49] D. Talay. Probabilistic Numerical Methods for Partial Differential Equations: Elements of Analysis. Probabilistic models for nonlinear partial differential equations, Lecture notes in mathematics 1927, 1996.

[50] D. Talay, E. Peirano. Domain decomposition by stochastic methods. Fourteenth Internatinal Conference on Domain Decomposition methods.2003.

[51] Albert Tarantola. Probability And Measurements. Université de Paris, Institut de Physique du Globe 4, place Jussieu; 75005 Paris; France. December 3, 2001.

[52] Henk C. Tijms. A First Course in Stochastic Models. Vrije Universiteit, Amsterdam, the Netherlands. John Wiley & Sons Ltd. 2003.

[53] Won Young Yang. Wenwu Cao.Tae-Sang Chung. Applied numerical methods using Matlab. John Morris Chung-Ang University, Korea. Pennsylvania State University. The University of Auckland, New Zealand.2005.

[54] B. Ycart. Introduction aux équations différentielles stochastiques. LMC-IMAG, 1998.






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Il faudrait pour le bonheur des états que les philosophes fussent roi ou que les rois fussent philosophes"   Platon