WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Processus stochastiques et équations aux dérivés partielles

( Télécharger le fichier original )
par Mohamed HANECHE
Université Mohamed BOUGARA Boumerdès -  2008
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

CHAPITRE III :

Interprétation probabiliste des

EDPs

0. Introduction:

Le but de ce chapitre est de montrer les liens qui peuvent exister entre la théorie des processus stochastiques et les équations aux dérivées partielles (EDP). Les processus stochastiques utilisés sont des processus possédant la propriété de Markov. L'idée principale est de montrer que l'espérance mathématique de fonctionnelles de ces processus fournit une représentation probabiliste de solutions de certaines équations. Nous donnons les outils nécessaires pour cette présentation: les processus de diffusions obtenues comme solutions d'équations différentielles stochastiques à partir du processus de Wiener. Ces diffusions nous permettent, de représenter les solutions d'EDP du second ordre, Nous exprimons ici les solutions d'EDP du second ordre paraboliques avec divers types de conditions aux bords, comme espérances de fonctionnelles de processus de Markov correctement choisis. Nous étudions d'abord l'exemple le plus simple des dérivées partielles linéaires, l'équation de la chaleur, ensuite les techniques de martingales, de martingales exponentielles qui conduisent à la généralisation connue sous le nom d'équations de Feynman-Kac.

1. Générateur infinitésimal :

Il est fondamental pour beaucoup d'applications que nous pouvons associer un

operateur différentiel de second ordre A à une diffusion d'Itô Xt ; la relation de base entre A et Xt est que A est le générateur de la diffusion d'Itô Xt.

Définition 1:

Soit (Xt} une diffusion d'Itô homogène dans WL, le générateur infinitésimal A de Xt est définie par :

Af(x) = lim

~~~

Ex[fVD] -- f(x)

t , x E

L'ensemble des fonctions ( f: 1l --> 11 ) telle que la limite existe en x est noté par DA(x), ou la notation : l'ensemble des fonctions pour qui la limite existe pour tout x E Rn.

Pour montre la relation entre A et les coefficients a et b on a le théorème suivant : Théorème 1:

Soit Xt la diffusion d'Itô homogène:

dXt = b(Xt)dt + Xt)dWt

Si f e cg(Ir) alors f e DA et

2 ~~~~~~~,~~~~ ~~~ 1

(x) (3.1)

~~~~~~

(x) +

~

~,~

Proposition 1:

Soit Xt la diffusion d'Itô non homogène:

dXt = b(t,Xt)dt + t, Xt)dWt

a2 f

+ 2 I(aaT)i, j(t, x) 1

(t, x) (3.2)

~~~~~~

~,~

Si f E col,20R+ x IV) alors f E DAt et

~~~~~, ~~ ~ ~ ~~~~, ~~ ~~ ~~, ~~

oxi

~

Exemples 1:

1. Le mouvement brownien de dimension n et bien sûr la solution de l'EDS :

dXt = dWt

(3.3)

2 Ox2

au

1 a2u

at .

c'est à dire nous avons b = 0 et a = In la matrice identité; donc le générateur de Wrest:

~~ ~ 2 ~ ~~~

1 ; ~ ~ ~~~~, ... ~~~ ~ ~~ ~~~~~

~~~ ~

~

1

i.e. A = 2 ?, ou ? est le laplacien.

2. Soit W le Mouvement Brownien à une dimension et soit X = ~~~

~~~ la solution de

l'EDS :

~

~~~ ~ ~~ ; ~~~0~ ~ ~~ ~~~ = dWt ; X2(0) = xo i.e. dX = bdt + cidWt ; X(0) = ~~~

~~~.

Avec b = (01) and a = CD, le générateur A de X est donné par :

1

02f

2

axe

Af = atof

+

Remarque : tous les espaces cités dans ce chapitre sont définis dans l'annexe A. 2. Interprétation probabiliste des EDP:

2.1 Equation de la chaleur :

Nous allons présenter quelques rapports entre les diffusions et les équations aux dérivées partielles. Grâce à la formule d'Itô, il est possible de donner une interprétation probabiliste à certaines équations aux dérivées partielles, ce qui permet ainsi de prouver l'existence de solutions.

L'exemple le plus simple est celui de l'équation de la chaleur en dimension 1. Considérons une barre métallique infinie, assimilée à l'axe réel. Cette barre est chauffée et on note f(x) sa température à l'instant t = 0 et pour la position x sur la barre. Soit u(t, x), la température de la barre au temps t et à la position x. Avec un choix approprié d'unités, donc la fonction u est solution de l'équation de la chaleur en dimension 1 :

avec la condition initiale, u(0,x) = f(x), x E IR, que l'on suppose continue. On a alors le théorème suivant :

Théorème2 :

1) Si u est une fonction continue sur [0, oo[de classe C1,2 sur [0, oo[ x IR, et solution de (3.3), alors :

u(t, x) = Ex(f(Wt))

(3.4)

, tf(t,x) E [0,oo[ x IR,+co

= f-co f 37)p(t; x, y)dy

où y 1-0 p(t; x, y) est la densité du mouvement brownien issu de x au temps t. Cela entraîne donc l'unicité d'une telle solution.

2) Supposons qu'il existe a > 0 tel que la fonction f vérifie f IR,e-ax2|f (x)| dx < 8, alors, pour tout 0 < t < 21 , la fonction u définie par (3.4) est dérivable à tous
ordres et est solution de (3.3).

Cette fonction u est donc l'unique solution de l'équation de la chaleur (3.3), qui soit une fonction continue et de classe C1,2 sur [0, oo[ x IR,.

Preuve :

La preuve de la deuxième assertion utilise la formule explicite de la densité p et consiste juste en une vérification des dérivations sous le signe somme.

Le plus intéressant est la preuve de la première assertion, qui va pouvoir s'étendre à des cas plus généraux. L'interprétation probabiliste introduit un retournement du temps. Soit T un réel fixé. Pour montrer l'unicité de la solution u, on applique la formule d'Itô à la fonction (t,x) 1-0 u(T -- t,x) et au mouvement brownien W issu

de x.

On obtient alors :

u(T -- t, Wt) = u(T, x) + Mt

où M est une martingale nulle en 0.

Le terme à variation finie s'annule, du fait que u est solution de (3.3). En prenant l'espérance dans chaque terme de cette égalité, au temps t = T, on obtient finalement que :

u(T, x) = Ex(u(0, WT)) = Ex(f(WT))

De ce theorème, on deduit egalement une solution de l'equation de la chaleur retrograde, pour T > 0 fixe, donnee par :

at 1 a2v

+ = 0 (3.5)

at 2 ax2

avec la condition terminale, v(T, x) = f(x), x E IR

Si nous sommes dans les conditions precedentes, l'unique solution de classe C1,2 de (3.5) est donnee par :

v(t, x) = u(T -- t, x) = Ex(f(WT_t))

2.2. Formule de Feynman-Kac multidimensionnelle:

On va generaliser l'approche precedente à d'autres equations paraboliques. Plus precisement, nous allons tout d'abord donner une representation probabiliste de la solution d'une equation retrograde, apparaissant classiquement en mathematiques financières. Pour T > 0 fixe, introduisons l'equation :

v 2

-- a + kv = 1 Av + g , (t, x) E [0, T) x IRa

at

(3.6)

v(T, x) = f(x) ,x E Ia

R

pour des fonctions k: IR~ --> [0, +00), g: IR a x [0, +00) --> IR et f: IR a --> IR , les fonctions k, g et f etant supposees continues et bornees. Une solution v est dite solution du problème de Cauchy pour l'equation retrograde (3.6) avec potentiel k et lagrangien g. Elle admet la representation probabiliste suivante.

Théorème 3 :

Supposons que v soit une fonction continue sur [0, T) x IR d, de classe C1,2 sur [0, T) x IR a, solution de (3.6). Alors v admet la representation probabiliste : v(t, x) = Ex [f (WT_t)exp f-- f oT t k (Ws.)d.s}

+ f 0T_t g(t + u,Wu)exp{-- tou k (Ws.)d.s} du ] ;0 tT,x E IRa (3.7) où Px est la loi du mouvement brownien W issu de x, et Ex designe l'esperance sous Px.

Ce theorème donne en particulier un resultat d'unicite pour les solutions de (3.6), continues sur [0,T] x IR a et de classe C1,2 sur [0,T) x IR a.

Remarque :

Si on n'est pas sous des hypothèses qui assurent l'existence d'une solution de classe ~1,2 au problème de Cauchy, alors la fonction définie par le terme de droite de (3.7) peut ne pas être de classe C1,2.

Les hypothèses sur les fonctions k,g et f peuvent être allégées. Il faut qu'elles assurent l'existence des termes stochastiques qu'on introduit dans la démonstration.

Un ensemble de conditions suffisantes pour que la solution v de classe C1,2 existe et soit à croissance polynomiale est donné dans Friedman [16]. Si on a ellipticité uniforme de la matrice de diffusion, bornitude de a = ww*, b, k, höldérianité de a, b, k et g, et croissance polynomiale de f et g, alors on a existence d'une telle fonction v, et ainsi existence, unicité, et une forme explicite de la solution v par le théorème précédent.

On déduit alors du théorème 2 une représentation d'une solution de classe C1,2 de l'équation suivante :

at 2

+ kv = 1Au + g , (t, x) E (0, oo) x d (3.8)

at

vérifiant la condition initiale :

u(0,x) = f(x) ,x E ~

Corollaire 1 :

Supposons que f: a --> , k: a --> [0, +oo) et g: a x [0, +oo) --> sont

continues bornées et que la fonction u, continue sur [0, +oo) x d et de classe ~1,2 sur [0, oo) x d, est solution de (3.8). Alors u admet la représentation stochastique :
u(t,x)= Ex [f (Wt)exPf--f o k (Ws)ds}

(3.9)

+ f ot g (t -- 0, We)exp f-- f o e k (Ws)ds} 01;0 < t < oo,x E 2.3. Problème de Cauchy pour des opérateurs généraux :

On regarde ici la situation la plus générale que l'on peut obtenir par cette approche. On considère un temps arbitraire 7' > 0 , des fonctions k(t,x): d --> [0, +oo), g(t,x): a x [0, +oo) --> et f(x): a --> continues et telles qu'il existe L > 0 et ~ > 0 avec :

If(x)I L(1 + 11x112A) ou bien f(x) 0 ; x E: Rd

Ig(t, x)I L(1 + 11x112A) ou bien g(t, x) 0 ; x E: IV; 0 t T (3.10)

On note At l'operateur defini par la relation (3.2), b et a satisfaisant les hypothèses de lipschitzianite et de croissance lineaire, et soit X le processus solution de l'equation differentielle stochastique (1.33) associee. On note Et,x l'esperance sous laquelle Xt = x. On a alors une forme generale du theorème de Feynman-Kac.

Théorème 4 :

Sous les hypothèses precedentes, soit v une fonction continue sur [0. T] x Rd et de classe C1,2 sur [0, T) x R d, satisfaisant au problème de Cauchy :

v(T,

x) =

f(x)

,x E

R d

et à la condition de puissance polynomiale :

1 -- at + kv = 1 Atv + g , (t, x) E [0,T) x R d at (3.11)

max Iv(t, x)I M(1 + 11x112) ;x E: Rd (3.12)

0.T

pour M > 0 et it 0. Alors v admet la representation probabiliste :

(3.13)

v(t, x) = Et, [f (XT)exp f-- f r k (s, Xs)ds}

+ f r g(u, Xu)exp{-- f tu k (s, X s)ds} du ] ; 0 t T, x E IVI Comme dans le cas precedent, la preuve repose sur la formule d'Itô appliquee à la semi-martingale :

s

v(t, x)expf-- 1 k (u, Xu)dul ; s E [t, T]

t

2.4. Interprétation des EDP de type elliptique :

Soit b de Rddans Rdet a de Rd dans les matrices d x d mesurables et bornees telles qu'il existe K > 0 tel que :

11b(x) -- b(Y)11 + 110(x) -- a(Y)11 k11x -- Y11,vx,Y E Rd

Les normes etant les mêmes qu'au theorème 16 (chap. I). On suppose que la matrice a = aaT verifie :

3a> 0 / (a(x)Y,Y) a11Y112

et que a est à derivees bornees.

W étant un P-Ye- processus de Wiener, on dénote par Xx la diffusion solution de l'EDS :

t t

Xx = x + 1 b(Xs.x)ds + 1 o-(Xs.x)dWs. , t 0

o o

dont le générateur L s'écrit :

L =

avec

d d

;114

1=1

).1

Pour une fonction c de Rd dans R continue, bornée et négative, on définit :

~

L = L + cl

a) Problème elliptique sans frontière :

Supposons de plus que c(x) -- /3 < 0 avec /3 assez grand pour qu'il existe 0 > 0 tel que :

(--Lu,u) 0iiuii2 (3.14)

pour tout u dans H1(Rd), L~ étant considéré comme un opérateur de Hl(Rd) dansH-1(Rd).

Pour f continue bornée sur Rdet de carré intégrable, on considère l'équation : Lu(x) = --f(x), x E Rd (3.15)
La solution de ce problème admet une représentation probabiliste suivante :

~ ~

u(x) = E 1 (Xexp {1

n c (Xs.x)ds} dt , Vx E Rd (3.16)

o o

b) Problème elliptique avec condition de Dirichlet :

Soit l) un ouvert borné de Rd, à frontière al) assez régulière (C2 par exemple). La condition de coercivité (1.14) devient :

(--Lu,u) eiiuii2 a(D) (3.17)

pour tout u de Ha(D) (nulle au bord). L'inégalité (3.17) n'étant demandée que sur D, on peut encore affaiblir les hypothèses sur c en incluant notamment le cas L = A et c = 0. On dénote par Tx le temps d'atteinte du fermé DC:

Tx = infft > 0: Xx D} (3.18)

Pour f continue sur D

= D U oD, on considère le problème :

f Lu(x) = --f (x), x E D

tu(x) = 0, x E oD (3.19)

dont l'unique solution u dans Ha(D) admet la représentation probabiliste suivante, à l'aide de la diffusion Xx:

~~ ~

u(x) = E 1 (Xexp {1

n c (Xsx)ds}dt ,Vx E D~ (3.20)

~ ~

Cette formule se démontre comme (3.16) en remplaçant T par le temps d'arrêt Tx dont on montre que son espérance est finie. Si, au lieu de la condition de (3.19), nous considérons la condition inhomogène u(x) = (P(x) pour x E oD, il suffit d'ajouter le terme :

~

E [(P(X~x)exP {1 c (Xsx)ds}1

~

à (3.20), pour obtenir la solution de (3.19) avec cette nouvelle condition au bord.

2.5. Interprétation des EDP de type parabolique :

On se replace ici dans le cadre des diffusions à coefficients dépendant du temps, c'est-à-dire que l'on se donne deux applications, b de IE x RV dans IV et a de IE x RV dans les matrices d x d, que nous supposerons bornées donc vérifiée (avec a = aaT); il existe K > 0 tel que pour tout t E ItEet tout x, Y E IV:

f IIb(t,x)II + IIa(t,x)II2 K2(1 + IIxII2)

(3.21)

I IIb(t,x) -- b(t,Y)II + IIa(t,x) -- a(t,x)II KIIx -- YII

nous supposerons de plus que les dérivées spatiales de a sont bornées. A tout (t, x ) de ILE x IV, on associe le processus [Xsx,t,s > t} solution de :

{

= x

dXst,x = b(s, Xst,x~ds + a(s, Xst,x~dWs, s > t X,x

Pour T > 0 fixé, on se donne c, u~ et f tels que :

c E Cb([0, T] x 1d) , c(t, x) 0

u7 E L2(Id) n Cb(Rd)

f E L2([0, T] x Id) n Cb([0, T] x Id) Le générateur de (Xx,t) est donné par :

d d d

1 L(t) = 211 aaxi(ctii(t,x) a ) + cti(t, x) a

ax. axi

.1

1=1 j=1 i=1

d ,

octt -

Avec cti(t,x) = bi(t, x) -- 1 ax -I (t' x)

-

i=1

on définit L_(t) par :

L_(t) = L(t) + c(t, x)I

a. Problème parabolique sans frontière :

On considère l'équation parabolique rétrograde (avec dormée finale en T ) sur IERd :

u(T,x) =

11

(x),

x E Irl Ce problème a une unique solution :

l

au _

+ L(t)u = --f, 0 t T (3.22)

u dans L2([0,T]: H1(d)) n C([0,T]: L2(d)) qui se représente de la manière suivante :

u(t, x) = E f r f (s, Xst,x)exp{f ts c (o, X,t9,x)d0} ds

+E [17(X:,x)exp {f:. c (s, Xst,x)ds}1

(3.23)

La démonstration se fait encore en appliquant la formule d'Itô à :

s

1ps = u(t,Xst,x)exp ff co,X,t9,x)del

entre s = t et s = T, en prenant l'espérance et en utilisant (3.22).

Dans le cas homogène, où les coefficients (b, a, c, f ) ne dépendent pas de t, on peut poser v (t,x ) = u (T - t,x ) ; il résulte de (3.23) avec t = 0 que :

~

~~~, ~~ ~ ~ ~ ~~~, ~~ ~,~~~~~~~ ~

~ ~ ~~, ~~ ~,~~~~~ ~~

~

~3.24~

~~ ~~~~~~ ~,~~~~~ ~~ ~

~ ~ ~~, ~~ ~,~~~~~~

qui donne la solution au point (T, x) du problème :

{ay = L(t)v + f , t > 0

(3.25)

v(0, x) = u(x)

Dans le cas f = 0, cette formule est appelée formule de Feynman-Kac énoncé précédemment ; dans le cas du mouvement brownien, en tombe dans l'exemple de l'équation de la chaleur.

~3.26~

Ce problème a une unique solution u dans :

L2([0, T]: Ha(D)) n c([0, T.]: L2(D))

En utilisant le processus (Xx,t,s Odéfini précédemment, on introduit le temps

d'arrêt Tt,x défini par :

b. Problème parabolique avec condition de Dirichlet :

Soit D un ouvert borné de Rd à frontière al) de classe C2 .Avec les données du paragraphe précédent, on s'intéresse au problème :

~

~~ ~~ ~ ~~~~~~ ~ ~~, ~~~~ ~0, ~~ ~ ~
~~~, ~~ ~ 0, ~~~ ~0, ~~ ~ ~~
~~~, ~~ ~ ~~~~~, ~~~~ ~

Tx = inf{s > 0: Xst,x D} u(t, x) admet alors la représentation :

u(t, x) = E ~ ~~~, ~~

~~,~~~ ~,~~~~~~~ ~

~ ~ ~~, ~~ ~,~~~~~ ~~

~

~3.27~

~~ ~~~~~,~~~~~~~~~ ~,~~~~~ ~~ ~

~ ~ ~~, ~~ ~,~~~~~~

pour tout (t, x) E [0, T ] x D.

Cette formule se démontre comme (3.16) en appliquant ce coup-ci la formule d'Itô, de s = t à s = Tt,x A T, à iY's pour une suite (un) régulière convergente vers u.

On peut ainsi considérer le problème non homogène où la deuxième condition de (3.26) est remplacée par u (t, x ) = (/) (t, x ) sur [0, T ] x aD ; il faut alors ajouter à (3.27) le terme :

rTtx

E [II{Ttx<70(rt,x,X,t)exp fic (0, X L,ide

t ll

A nouveau, si (b, a, c, f , (/) ) ne dépendent pas de t, on peut poser v (t, x ) = u (T- t, x ) pour obtenir une représentation de la solution de :

av

= L(t)v + f sur [0, T ] x D

at

avec les conditions v = (/) sur ]0, T] x aD et v(0, x) = u(x) dans D.

3. Discrétisation de problème :

On a vu dans la partie précédente de ce chapitre que l'interprétation des EDPs conduit à écrire la solution sous forme E[f(X~)] avec la quantité f(Xt(w)) dépend de temps t et du hasard w. Le processus X est une diffusion, il n'est alors pas possible de calculer exactement E[f(X~)] et l'on a naturellement recours à la simulation numérique. Tout d'abord une discrétisation temporelle de la dynamique de X permit de générer une variable aléatoire Xt dont la loi est proche de celle de Xt. On applique ensuite la méthode de Monte Carlo : la moyenne arithmétique de N copies indépendantes de la variable f(X~t) converge vers E[f(X~t)].

3.1. Le schéma d'Euler :

La méthode d'Euler qui représente la première étape dans la simulation, permet de donner une variable aléatoire X qui est proche en loi de X, où X = (Xx) est le processus de Markov solution de l'équation différentielle stochastique.

Soit T un horizon de temps fini, on peut sans perte de généralité prendre T = 1; on cherche à estimer la loi de Xf. = Xf qui en général n'est pas connue. Pour ce faire on approche Xxpar son schéma d'Euler d'ordre n > 1, disons Xn,x défini de la façon suivante: on considère la subdivision régulière

yn = (0 = ~~n <
·
·
· < tnn _i < tnn = 1) de l'intervalle [0,1] c.-à-d. tnn = k /n et on pose X,x = x, et pour tout k = (0,1 ...,n -- 1) et t E [tIn, q+1]

_

g n,x

t -- gnr,x + b (g tk r,x) (t -- 41) + a (g tr,x) (Wt -- Wtkn)

tk

Le schéma d'Euler est simulable. C'est une petite perturbation Xxque l'on peut expliquer de la façon suivante :

· On part à la date 0 de la valeur vraie x.

· Sur l'intervalle[0, tn], on gèle les coefficients de l'EDS en leurs valeurs exactes b(x) et a (x) à gauche de cet intervalle et on calcule la valeur gne en ell de la

tl

solution de cette nouvelle petite EDS.

· Sur l'intervalle[t~n, tn], on gèle les coefficients de l'EDS en leurs valeurs exactes b(Xne) et CY ane ) à gauche de cet intervalle et on calcule la valeur re en q de

tl tl t,

la solution de cette nouvelle petite EDS.

· Et ainsi de suite...

De plus on a les variable aléatoire Wtil.ct+l -- WtIct sont mutuellement indépendantes et

de même loi gaussienne centrée de variance q+1 -- ~~n.

3.2. La méthode de Monte Carlo :

On voit que les EDPs peuvent être interprétés à l'aide de processus de Markov bien choisis : on interprète u à l'aide du générateur infinitésimal du semi-groupe de transition d'un processus de Markov (Xt, t 0). Les motivations de cette démarche peuvent être d'ordre théorique et/ou numérique. En effet, en particulier lorsque (Xt, t 0) est solution d'une équation différentielle stochastique, le calcul stochastique permet parfois d'obtenir des résultats d'existence, d'unicité ou de régularité de la solution de l'EDP.

D'autre part, dès que l'on peut écrire la solution de l'EDP sous la forme d'une espérance du type u(t) = EF(X) avec F fonctionnelle sur l'espace des trajectoires de X entre 0 et t, on peut chercher à développer une méthode de Monte-Carlo pour approcher u(t) même si on ne sait pas simuler des trajectoires exactes de X : il suffit de construire un processus proche (en loi) de X, comme on a vu dans la paragraphe

précédente (schéma d'Euler), en simuler un grand nombre de trajectoires entre 0 et t, évaluer la fonctionnelle F le long de chaque trajectoire simulée et enfin moyenner toutes les valeurs obtenues.

Donnons un exemple élémentaire. Considérons l'équation de la chaleur :

at

(t, x) = vAu(t,x), t f(t,x) E ]0,7] x Irl (3.28)
at avec pour condition initiale u(0,
·) = uo(
·) une fonction mesurable bornée. Le

paramètre v est strictement positif et est appelé « paramètre de viscosité » en mécanique des fluides ou « volatilité » en finance.

On vérifie facilement d'après qui précédent que la fonction :

V(t,x) E ]0,7] x Irl, u(t,x) = Euo(x + V2vWt)

où (We) est un mouvement brownien standard à valeurs dans Irl, satisfait (3.28) ainsi que 1imt,o u(t,x) = uo(x) en tout point de continuité de uo. Par application de la loi des grands nombres, on peut donc approcher u(t, x) par :

N

)

N1 1

uo(x + V2vtgj(w)

j=1

où les (gj(w)} forment une famille de variables aléatoires gaussiennes indépendantes, à valeurs dans Irl, centrées et de matrice de covariance Id Ird . Cet algorithme est très simple à mettre en oeuvre : on sait effectuer des tirages gaussiens indépendants à l'aide d'appels à un générateur de nombres pseudo-aléatoires uniformément répartis. La vitesse de convergence est décrite par des théorèmes- limite tels que le théorème de limite centrale, la loi du logarithme itéré, l'inégalité de Berry-Essen : la convergence est d'ordre 1/VN, elle est donc lente. Toutefois, le coût de l'algorithme croît seulement linéairement avec la dimension d de l'espace puisqu'on simule Nd trajectoires d'un mouvement brownien unidimensionnel standard, et ce coût est indépendant du paramètre v.

Typiquement, les méthodes de Monte-Carlo pour des équations aux dérivées partielles elliptiques ou paraboliques peuvent permettre de traiter des problèmes

extrêmes, en très grande dimension ou avec de très faibles viscosités, lorsqu'il serait difficile, ou extrêmement coûteux, d'utiliser des algorithmes classiques.

A l'aide de schéma d'Euler on peut écrire :

N

)

u(t,x)- 1

N Luo(~~r,x(wi)

i=1

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Il y a des temps ou l'on doit dispenser son mépris qu'avec économie à cause du grand nombre de nécessiteux"   Chateaubriand