WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Conception d'un pro logiciel interactif sous r pour la simulation de processus de diffusion

( Télécharger le fichier original )
par Arsalane Chouaib GUIDOUM
Université des sciences et de technologie de Houari Boumedienne - Magister en mathématiques 2012
  

Disponible en mode multipage

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

    N° d'ordre : 26/2012-M/MT

    RÉPUBLIQUE ALGÉRIENNE DÉMOCRATIQUE ET POPULAIRE
    MINISTÈRE DE L'ENSEIGNEMENT SUPÉRIEUR ET DE LA RECHERCHE SCIENTIFIQUE

    UNIVERSITÉ DES SCIENCES ET TECHNOLOGIE DE HOUARI BOUMEDIENNE
    FACULTÉ DES MATHÉMATIQUES

    MÉMOIRE
    PRÉSENTÉ POUR L'OBTENTION DU DIPLÔME DE MAGISTER.

    EN MATHÉMATIQUES
    SPÉCIALITÉ : PROBABILITÉ & STATISTIQUE

    Par : Arsalane Chouaib GUIDOUM
    Sujet

    Conception d'un Pro Logiciel Interactif Sous

    R Pour La Simulation de Processus de

    Diffusion

    Soutenu publiquement le 25/02/2012, devant le jury composé de :

    Mr. Mustapha MOULAI Professeur à l'USTHB Président.

    Mr. Kamal BOUKHETALA Professeur à l'USTHB Directeur de Mémoire.

    Mr. Rachid OUAFI Maître de Conférences/A à l'USTHB Examinateur.
    Mr. Abdelkader TATACHAK Maître de Conférences/A à l'USTHB Examinateur.

    Table des matières

    Table des matières

    Liste des figures

    Introduction Générale

    1 Généralité sur Les Processus Stochastiques

    iii

    v

    3

    6

     

    1.1

    Introduction

    7

     

    1.2

    Définitions des processus

    7

     

    1.3

    Processus stochastiques particuliers

    8

     

    1.4

    Processus stochastiques établi à partir de la distribution gamma

    10

     

    1.5

    Processus stochastiques établi à partir de la distribution de Student

    11

     

    1.6

    Processus de Markov

    12

     

    1.7

    Processus du second ordre

    13

     

    1.8

    Processus ergodiques

    15

     

    1.9

    Martingales et temps d'arrêt

    16

     
     

    1.9.1 Temps d'arrêt

    16

     
     

    1.9.2 Théorème d'arrêt

    17

    2

    Mouvement Brownien

    18

     

    2.1

    Introduction

    19

     

    2.2

    Construction du mouvement brownien

    20

     
     

    2.2.1 Construction par un processus gaussien

    20

     
     

    2.2.2 Construction par une limite d'une marche aléatoire

    21

     
     

    2.2.3 Construction par le développement de Karhunen-Loève (D.K.L)

    22

     

    2.3

    Semi-groupe du mouvement brownien

    24

     
     

    2.3.1 Propriété de Markov

    24

     
     

    2.3.2 Mouvement brownien multidimensionnel

    25

     

    2.4

    Approximation la dérive d'un mouvement brownien standard par un bruit blanc

     
     
     

    gaussien

    27

     

    2.5

    Continuité des trajectoires

    27

     

    2.6

    Régularité des trajectoires

    28

     

    2.7

    Mouvement brownien arithmétique

    32

     

    2.8

    Mouvement brownien géométrique

    34

     

    2.9

    Pont brownien

    36

     

    2.9.1 Construction par processus contraint

    2.9.2 Construction par le développement de Karhunen-Loève (D.K.L)

    2.10 Martingales exponentielles

    2.10.1 Caractérisation de Paul Lévy du mouvement brownien

    2.10.2 La loi du temps d'atteinte du mouvement brownien

    2.10.3 Les temps de passage du mouvement brownien

     

    37
    39

    39

    40

    42

    43

     

    2.11 Conclusion

     
     

    45

    3

    Processus de Diffusion

     
     

    46

     

    3.1 Introduction

     
     

    47

     

    3.2 Intégrale stochastique

     
     

    48

     

    3.2.1 L'intégrale d'Itô

     
     

    48

     

    3.2.2 L'intégrale de Stratonovitch

     
     

    50

     

    3.2.3 Processus d'Itô

     
     

    51

     

    3.2.4 Formule d'Itô

     
     

    52

     

    3.2.5 La règle de multiplication

     
     

    55

     

    3.3 Èquations différentielles stochastiques

     
     

    56

     

    3.3.1 Introduction et définitions

     
     

    56

     

    3.3.2 Existence et unicité des solutions de l'ÉDS

     
     

    59

     

    3.3.3 Équation de Langevin

     
     

    61

     

    3.3.4 Bruit blanc, bruit coloré

     
     

    62

     

    3.3.5 Transformée de Lamperti

     
     

    64

     

    3.4 Schémas numériques

     
     

    65

     

    3.4.1 Simulation numérique

     
     

    68

     

    3.4.2 Relation entre le schéma d'Euler et Milstein

     
     

    72

     

    3.5 Les modèles attractives

     
     

    75

     

    3.5.1 Modèle d'une diffusion en attraction M ó s=1(Vt)

     
     

    76

     

    3.5.2 Modèle de deux diffusion en attraction M ó m>0(V(1)

    t

    ) +-' M 0 ó (V(2)

    t

    ) . . . .

    80

     

    3.6 Conclusion

     
     

    83

    4

    Comportement Asymptotique Des Processus de Diffusion

     
     

    84

     

    4.1 Introduction

     
     

    85

     

    4.2 Équation de Fokker-Planck

     
     

    85

     

    4.2.1 L'origine de l'équation de Fokker-Planck

     
     

    87

     

    4.2.2 Modélisation d'une équation physique

     
     

    89

     

    4.2.3 Existence d'une solution

     
     

    94

     

    4.3 Processus de diffusion stationnaires

     
     

    95

     

    4.4 Classification des processus de diffusion linéaire

     
     

    96

     

    4.4.1 Processus de diffusion de type N

     
     

    97

     

    4.4.2 Processus de diffusion de type G

     
     

    101

     

    4.4.3 Processus de diffusion de type B

     
     

    105

     

    4.5 Calculs de l'instant de premier passage

     
     

    108

     

    4.5.1 IPP d'une diffusion en attraction M ó s=1(Vt)

     
     

    109

    4.5.2 IPP de deux diffusion en attractionMó m>0(V(1)

    t)?-M 0 ó(V(2)

    t ) 114

    4.6 Conclusion 115

    Conclusion Générale 116

    Annexe A : R Code 117

    Annexe B : Packages Sim.DiffProc & Sim.DiffProcGUI 122

    Bibliographie 131

    Table des figures

    1.1 Bruit blanc gaussien avec m = 0 et a2 = 1. 9

    1.2 Densité spectrale d'un bruit blanc gaussien. 9

    1.3 Processus aléatoire établi à partir de la distribution ['(0.5,2). 11

    1.4 Processus aléatoire établi à partir de la distribution St(2). 12

    2.1 Trajectoire brownienne simulée a partir d'une distribution gaussienne. 21

    2.2 Flux de trajectoires brownienne simulées a partir d'une distribution gaussienne. 21

    2.3 Trajectoire brownienne comme limite d'une marche aléatoire. 22

    2.4 Approximation d'un mouvement brownien par le D.K.L. 24

    2.5 Mouvement brownien 2--D simulée a partir d'une distribution gaussienne 26

    2.6 Approximation d'un mouvement brownien 2--D par une marche aléatoire 26

    2.7 Mouvement brownien 3--D simulée a partir d'une distribution gaussienne 26

    2.8 Fonction de covariance empirique d'un mouvement brownien standard. 29

    2.9 Le mouvement brownien standard est non différentiables 31

    2.10 La limite de mouvement brownien standard par rapport au temps. 31

    2.11 Trajectoire d'un mouvement brownien arithmétique avec 9 = 2 et a = 1 34

    2.12 Flux d'un mouvement brownien arithmétique avec 9 = 2 et a = 1. 34

    2.13 Trajectoire d'un mouvement brownien géométrique avec 9 = 2 et a = 1 35

    2.14 Flux d'un mouvement brownien géométrique avec 9 = 2 et a = 1. 35

    2.15 Trajectoire d'un pont brownien à partir de Xt0 = --2 et XT = 1. 38

    2.16 Flux de 100 trajectoires d'un pont brownien standard Xt0 = XT = 0. 38

    2.17 Approximation d'un pont brownien standard par le D.K.L. 39

    3.1 Simulation l'intégrale stochastique f 0 t WsdWs vs J 0 t Ws odWs. 51

    3.2 Trajectoire d'un processus d'Ornstein-Uhlenbeck avec r = 2 et a = 1. 59

    3.3 Flux d'un processus d'Ornstein-Uhlenbeck avec r = 2 et a = 1. 59

    3.4 Trajectoire simulée de l'équation de Langevin avec a = 2 et D = 1. 62

    3.5 L'équation de Langevin en deux dimensions avec a = 2 et D = 1. 62

    3.6 Simulation une seule trajectoire du modèle Radial Ornstein-Uhlenbeck par le

    schéma d'Euler 70
    3.7 Simulation un flux de 100 trajectoires du modèle Radial Ornstein-Uhlenbeck par

    le schéma d'Euler. 70

    3.8 Simulation une seule trajectoire du modèle dXt = (0.03tXt -X3 t )dt +0.2dWt par

    le schéma de Milstein. 71
    3.9 Simulation un flux de 100 trajectoires du modèle dXt = (0.03tXt - X3 t )dt +

    0.2dWt par le schéma de Milstein. 71
    3.10 Simulation un flux de 100 trajectoires du modèle dXt = cos(t)dt + sin(t)dWt par

    le schéma de Itô-Taylor. 72
    3.11 Transformation de modèle Cox-Ingersoll-Ross (CIR) dXt = (0.1 - 0.2Xt)dt +

    0.05/XtdWt . 75

    3.12 Trajectoire du polluant dans une surface d'eau turbulente en 2-D avec s = 1. . 79

    3.13 Trajectoire du polluant dans une surface d'eau turbulente en 3-D avec s = 1. . 79

    3.14 Ttrajectoire du polluant dans une surface d'eau turbulente en 2-D avec s > 1. . 80

    3.15 Ttrajectoire du polluant dans une surface d'eau turbulente en 3-D avec s > 1. . 80

    3.16 L'interaction entre deux insectes en 2-D. 83

    3.17 L'interaction entre deux insectes en 3-D. 83

    4.1 L'oscillateur de Van Der Pol, régime permanent sinusoïdal a = 0. 94

    4.2 L'oscillateur de Van Der Pol, régime permanent non sinusoïdal a > 0. 94

    4.3 Simulation un échantillon de taille 100 à partir du modèle VAG. 99

    4.4 Ajustement de la distribution stationnaire du modèle VAG par la méthode d'his-

    togramme 101 4.5 Ajustement de la distribution stationnaire du modèle VAG par la méthode du noyau.101 4.6 Ajustement de la distribution stationnaire du modèle CIR par la méthode d'his-

    togramme 104 4.7 Ajustement de la distribution stationnaire du modèle CIR par la méthode du noyau.104 4.8 Ajustement de la distribution stationnaire de processus de diffusion de Jacobi par

    la méthode d'histogramme 107
    4.9 Ajustement de la distribution stationnaire de processus de diffusion de Jacobi par

    la méthode du noyau 107

    4.10 L'instant de premier passage du modèle Mó s=1(Vt) en 2-D 111

    4.11 L'instant de premier passage du modèle Mó s=1(Vt) en 3-D 111

    4.12 Ajustement de la distribution de 1/'rs=1

    c par la méthode d'histogramme. 112

    4.13 Ajustement de la distribution de 1/'rs=1

    c par la méthode du noyau. 112

    XIV Graphical User Interface for Sim.DiffProc package at start-up 126

    Remerciements.

    T

    out d'abord je tiens à remercier Dieu de m'avoir donné le courage, la morale et la santé pour mener à bien ce travail.

    J

    e tiens à remercier avec tous mes sentiments de respectueuse gratitude mon promoteur Mr. Kamal BOUKHETALA Professeur à l'USTHB pour sa proposition de sujet ainsi pour son soutien, ses orientations et ses précieux conseils.

    J

    'exprime aussi ma profonde gratitude à Mr. Mustapha MOULAI Professeur à l'USTHB, pour avoir accepté de présider le jury de soutenance.

    J

    e remercie également : Mr. Rachid OUAFI Maître de conférences à l'USTHB, et Mr. Abdelkader TATACHAK Maître de conférences à l'USTHB, pour avoir accepter d'examiner cette thèse.

    E

    nfin, je remercie chaleureusement toutes les personnes qui m'ont aidé, et qui ont contribué de proche ou de loin à la réalisation de ce travail.

    Résumé

    D

    ans ce travail, on propose un nouveau package Sim.DiffProc [9] pour la simulation des processus de diffusion, muni d'une interface graphique (GUT), sous langage R. Le déve-

    loppement de l'outil informatique (logiciels et matériels) ces dernières années, nous a motivé de réaliser ce travail. A l'aide de ce package, nous pouvons traiter beaucoup de problèmes théoriques difficiles liée à l'utilisation des processus de diffusion, pour des recherches pratiques, tels que la simulation numérique trajectoires de la solution d'une EDS. Ce qui permet à beaucoup d'utilisateurs dans différents domaines à l'employer comme outil sophistiqué à la modélisation de leurs problèmes pratiques. Le problème de dispersion d'un polluant [2, 4], en présence d'un domaine attractif que nous avons traité dans ce travail en est un bon exemple. Cet exemple montre l'utilité et l'importance pratique des processus de diffusion dans la modélisation simulation de situations réelles complexes. La fonction de densité de la variable aléatoire 'rc "instant de premier passage" de la frontière de domaine d'attraction peut être utilisée pour déterminer le taux de concentration des particules polluantes à l'intérieur du domaine. Les études de simulation et les analyses statistiques mises en application à l'aide du package Sim.DiffProc, se présentent efficaces et performantes, comparativement aux résultats théoriques explicitement ou approximativement déterminés par les modèles de processus de diffusion considérés.

    Introduction générale

    L

    a nature aléatoire de nombreux phénomènes évolutifs, dans des domaines très divers, tels ceux de la physique, astronomie, biologie, les mathématiques financières, géologie, analyse

    génétique, épidémiologie et beaucoup d'autres champs de la science et de l'ingénierie, nécessite fréquemment la description de tels phénomènes par des équations différentielles stochastiques, qui peuvent être un outil puissant pour la modélisation. L'étude des équations stochastiques s'est beaucoup développée ces dernières années, c'est un domaine plein de perspectives et de recherche. Dans beaucoup de literatures, on rencontre les équations stochastiques avec légère variations d'écriture, ainsi que leurs divers applications, voir par exemple [1, 18, 21, 36, 40].

    Soit x0 E Rn, Considérons, pour u : Rn --+ Rn, champ vectoriel régulier, l'équation différentielle ordinaire :

    Jdx dt (t) = u(t,x(t)), Vt ~ 0 (1)

    x(0) = x0

    la solution de l'équation (1), si elle est unique, est représentée par une trajectoire. Dans la plupart des applications où une telle équation différentielle ordinaire intervient, les trajectoires mesurées expérimentalement ne sont que rarement conformes aux solutions analytiques de l'équation. Des effets aléatoires viennent se superposer à la trajectoire idéale, et il semble donc raisonnable de modifier l'équation (1) en y introduisant un processus aléatoire perturbant le système. Formellement, la modification s'écrit :

    (

    Vt ~ 0 (2)

    dX dt (t) = u(t,Xt) +a(t,Xtt, X0 = x0 où : a : Rn --+ Rnxm, et ît est un bruit blanc gaussien m-dimensionnel. Cette approche soulève

    les problèmes suivants :

    1. Définir ît de manière rigoureuse.

    2. En déduire l'influence de ît dans la résolution de l'équation (1).

    3. Montrer que l'équation (1) a une solution, discuter de l'unicité, du comportement asymptotique, du rôle de a, de x0,...

    Considérons tout d'abord que le bruit blanc gaussien ît est la dérivée formelle du processus de Wiener. Dans le cas général, l'équation (2) peut alors se réécrire :

    (

    dXt = u(t,Xt)dt + a(t,Xt)dWt, Vt = 0 (3)

    X0 = x0

    l'équation obtenue alors est une équation différentielle stochastique.

    Dans notre travail on s'intéresse a les solutions des équations différentielles stochastiques qu'on va étudier, sont des processus Markoviens à valeurs dans Rn, qu'on appelle les processus de diffusion qui constituant la plus importante classe. Cependant, le mouvement Brownien Wt (où processus de Wiener) est utilisé comme un modèle de diffusion homogène. Les modèles de diffusions sont représentés par des équations différentielles stochastique de la forme (3), dite équation de type Itô.

    Le mathématicien Kiyoshi Itô [27], a donné un sens à ces équations, et a montrer l'existence et l'unicité de la solution de l'équation (3) sous certaines conditions de régularité des fonctions u(t,x) et ó(t,x), appelées respectivement coefficient de dérive et coefficient de diffusion. Xt est solution de l'équation (3) si et seulement si :

    Z t Z t

    Xt = x0 + 0 u(s,Xs)ds + 0 ó(s,Xs)dWs, t = 0 (4)

    Xt est donc défini à l'aide d'intégrales dites intégrales stochastiques d'Itô.

    Notre travail est structuré de la façon suivante :

    Dans le premier chapitre nous rappelons quelques notions fondamentales et les principaux aspects théorique des processus stochastiques. Les martingales sont un outil essentiel et important, qui nous a permis d'établir de nombreux résultats ainsi le théorème d'arrêt.

    Le second chapitre est consacré à l'étude détaillée du mouvement Brownien, sa construction, ces propriétés, ainsi sa simulation unidimensionnel et multidimensionnel. La difficulté de modélisation du mouvement brownien réside dans le fait que ce mouvement est aléatoire et que statistiquement, le déplacement est nul, c'est-à-dire que le coefficient de dérive est nul, il n'y a pas de mouvement d'ensemble. Pour cela il est aussi possible de définir la notion de mouvement brownien avec dérive. Il s'agit d'un mouvement brownien arithmétique (dans la finance modèle de Merton). Le mouvement brownien géométrique (où le modèle de marché de Black et Scholes) et le pont brownien, sont des objets mathématiques de la théorie des probabilités, représentent l'un des plus importants processus stochastique et ont de nombreuses applications dans la finance, et ce en les illustrant par des exemples de simulation, afin de rendre plus facile la compréhension des propriétés qui le caractérise. On termine ce chapitre par la détermination les lois des temps de passage, et la caractérisation de Paul Lévy du mouvement brownien.

    Le troisième chapitre est composé de quatre parties. La premier partie sera consacrée à donner un sens à l'intégrale stochastique lorsque celle-ci est prise par rapport à un mouvement brownien, notons juste que la construction de cet intégrale au sens d'Itô [27] fait appel à un changement de la mesure d'intégration habituelle par une nouvelle mesure, ainsi nous parlons de la formule d'Itô dans le cas unidimensionnel et multidimensionnel, qui sera illustrée par quelques exemples

    d'applications. Dans la deuxième partie on s'intéresse à définir les équations différentielles stochastiques d'une manière générale, à l'exception les processus de diffusion, naturellement nous annonçons le théorème de l'existence et unicité des solutions des ÉDS, nous donnons la définition et la différence entre un bruit blanc et un bruit coloré, ainsi la transformée de Lamperti [30] qui sera très utile sur le plan numérique pour améliorer la précision. La détermination de la solution exacte de Xt d'une ÉDS est très difficile à déterminer surtout lorsque la partie aléatoire est exprimée en fonction du processus Xt, c'est ainsi qu'on se tourne vers les méthodes numériques de l'ÉDS dont la base est fondée sur la discrétisation du temps. Nous présenterons alors dans la troisième partie, l'approche numérique, en citant les principaux schémas qui la concernent et qui permettent d'approcher la solution exactes de ces équations. Nous illustrerons par des exemples de simulation des différents méthodes. Dans la dernier partie de ce chapitre on s'intéresse à l'utilisation des processus de diffusion dans la modélisation de deux phénomènes, le premier est de modéliser une trajectoire d'un polluant, qui se déplace sur une surface d'eau turbulente en présence d'un mécanisme d'attraction [2, 4], et le deuxième porte sur une modélisation d'un phénomène d'attraction entre deux insectes mâle et femelle [5].

    Le dernier chapitre, nous commençons par la présentation de deux équations fondamentales permettant de d'écrire l'évolution des lois de probabilités relatives à un processus de diffusion. Les équations de Fokker-Planck [35] ou les équations de Kolmogorov, qui décrit l'évolution dynamique de la densité de probabilité d'un système hors d'équilibre, ainsi sa distribution stationnaire si elle existe. Nous annonçons deux théorèmes donnant l'existe d'une relation simple entre les deux différentielles Itô et Stratonovitch, ces derniers sont très utiles pour la modélisation d'une équation physique, nous illustrerons cette modélisation par l'exemple de l'oscillateur de Van Der Pol. Par la suite nous parlerons de classification des processus de diffusion linéaire, en distinguant trois types. Ce chapitre se terminer par l'étude et l'analyse statistique de la variable aléatoire l'instant de premier passage "IPP" dans le cas du modèle d'une diffusion en attraction [2, 4, 6, 7], et l'instant de la première rencontre entre deux insectes, c'est-à-dire dans le cas du modèle de deux diffusion en attraction.

    On terminera ce travail avec une conclusion générale, et quelques perspectives. Il est à noté que dans tous nos programmes, nous utiliserons le langage R [32], qui sont présentée dans l'annexe A, ainsi pour toutes les exemples. Dans l'annexe B nous donnons quelques règles pour la création des packages sous R, et nous donnons aussi une présentation de deux packages:

    (1) Sim.DiffProc : Simulation of Diffusion Processes [8, 9].

    (2) Sim.DiffProcGUI : Graphical User Interface for Simulation of Diffusion Processes [10].

    1

    Généralité sur Les Processus Stochastiques

    Sommaire

     
     

    1.1

    Introduction

    7

    1.2

    Définitions des processus

    7

    1.3

    Processus stochastiques particuliers

    8

    1.4

    Processus stochastiques établi à partir de la distribution gamma

    10

    1.5

    Processus stochastiques établi à partir de la distribution de Student . . . .

    11

    1.6

    Processus de Markov

    12

    1.7

    Processus du second ordre

    13

    1.8

    Processus ergodiques

    15

    1.9

    Martingales et temps d'arrêt

    16

    1.1 Introduction

    L

    'origine des processus stochastiques remonte aux progrès faits au début du XXe siècle dans certaines branches appliquées, telles que la mécanique statistique (par Gibbs, Boltzmann,

    Poincaré, Smoluchowski et Langevin). Les bases théoriques ont été formulées plus tard par [17, 28] et d'autres (1930-1940). C'est durant cette période que le mot "stochastique", qui provient du grec stokhastikos "conjectural", a commencé à être employé. D'autres progrès ont été faits aussi à partir du mouvement brownien en physique (par Einstein, Lévy et Wiener).

    Nous introduisons dans ce chapitre les principaux processus aléatoires à l'exception du mouvement brownien qui fait l'objet d'un chapitre séparé. Nous retrouverons la plupart de ces processus dans les problèmes de calcul stochastique. Les processus du second ordre ont de nombreuses applications en théorie du signal.

    1.2 Définitions des processus

    Soit (~,.i,P) un espace de probabilité, et T un ensemble d'indices (T = [a,b],T = [0,oo[,...) un processus stochastique X(t,(0) à valeur dans un espace mesurable (E, ) est une application de T ×~ dans E qui est mesurable par rapport à la mesure du produit A·P où A est la mesure de Lebesgue sur T. Il est noté indifféremment Xt((0) ou X(t,(0). La fonction t '-? X(t,(0) est appelée trajectoire ou réalisation de Xt. A t fixé, la fonction (0 i-? X(t,(0) est une variable aléatoire. Xt est adapté à la filtration t si Xt est t-mesurable. Le théorème de Kolmogorov assure l'existence des processus stochastiques. Xt est un processus centré si son espérance est nulle E(Xt) = 0, et si Xt est dans L2 (E|Xt|2 < oo), on définit :

    La moyenne du processus

    Zmx(t) = E(Xt((0)) = Ù Xt((0)dP((0)

    La variance

    a2 x(t) = E[|Xt -E(Xt)|2]

    La fonction de covariance

    ['(s,t) = E(Xs -E(Xs))(Xt -E(Xt))

    = E(XsXt) - E(Xs)E(Xt)

    La régularité des trajectoires est déterminer par le théorème de Kolmogorov.

    Théorème 1.1 (Kolmogorov) Soit (Xt)t=0 un processus stochastique tel que pour tout t, t + h dans [a,b], il existe des constantes p > 0, c > 0 et r > 0 vérifiant

    E[|Xt+h -Xt|p] = c|h|1+r

    alors presque toutes les trajectoires sont continues.

    Les théorèmes suivants fondent la représentation spectral des processus stationnaires.

    Théorème 1.2 (Herglotz) Soit c une fonction semi-définie positive de Z dans C. Il existe une unique mesure positive u sur ] - ð,+ð] telle que pour tout entier n E Z,

    Z +ð

    c(n) = -ð einëdu(ë)

    Théorème 1.3 (Bochner) Soit c une fonction continue et semi-définie positive de R dans C. Il existe une unique mesure bornée u telle que pour tout t E R,

    Z +8

    c(t) = -8 eitëdu(ë)

    Définition 1.1 (Filtration) Soit (Ù,.i,P) un espace de probabilité, la filtration est une famille croissante de sous tribus de .i, noté par ( t,t = 0). La tribu t est une description mathématique de toute l'information dont on dispose à l'instant t. Cette information nous permet d'attribuer des probabilités cohérentes aux événements pouvant intervenir.

    Définition 1.2 (Processus adapté) Un processus {Xt,t = 0} est dit adapté à la filtration ( t,t = 0) si pour chaque t, Xt est t-mesurable. Un processus adapté est celui pour lequel une description probabiliste est réalisable.

    1.3 Processus stochastiques particuliers

    Définition 1.3 (Processus strictement stationnaire) Un processus Xt est strictement stationnaire si pour tout entier n et pour tous réels t1,t2,...,tn et pour tout h, les variables aléatoires (Xt1,Xt2,...,Xtn) et (Xt1+h,Xt2+h,...,Xtn+h) ont même loi.

    Définition 1.4 (Processus stationnaire) Un processus Xt est stationnaire (ou faiblement stationnaire) si :

    - son espérance E(Xt) est une constante indépendante du temps t.

    - sa fonction de corrélation R(s,t) ne dépend que de la différence ô = t - s.

    - R(ô) est continue (à l'origine).

    Si Xt est un processus stationnaire, sa fonction de corrélation est continue en 0 et définie positive. La fonction

    R(ô)

    Ö(ô) = R(0)

    est une fonction caractéristique d'après le théorème 1.3 de Bochner. Par conséquent, il existe une fonction Z(ù) appelée fonction de répartition spectrale telle que Z(ù) s'annule au voisinage de -8, et reste fini lorsque ù tend vers +8 telle que

    Z +8

    R(ô) = -8 eiùôdZ(ù)

    De plus, si Z est absolument continue, il existe une fonction S(ù) appelée densité spectrale du processus Xt, telle que S(ù) = dZ(ù)/dù et

    +8 .

    R(ô) = f eiùôS(ù)dù

    Par application de la transformée de Fourier inverse, si f |R(ô)|dô < 8 alors la densité spectrale est donnée par

    S(ù) = 1 f +8 e- i

    ùôR(ù)dù

    2ð _8

    Exemple 1.1 Un bruit blanc est un processus stationnaire dont la densité spectrale est constante SX(ù) = a. Sa fonction de corrélation est donc de la forme RX(ô) = aä(ô). Un tel processus contient toutes les fréquences (d'oil son nom de bruit blanc). Sa variance n'est pas bornée, il n'est donc pas réalisable en théorie.

    Les figures 1.1 et 1.2 montre une seule trajectoire simulée d'un bruit blanc gaussien, avec sa densité spectrale estimée.

    FIGURE 1.1 - Bruit blanc gaussien avec m = 0 et ó2 = 1.

    FIGURE 1.2 - Densité spectrale d'un bruit blanc gaussien.

    Définition 1.5 (Processus à accroissements indépendants) Un processus Xt est un processus à accroissements indépendants si pour tous réels t1 < t2 <
    ·
    ·
    · < tn, les variables aléatoires Xt0,Xt1 - Xt0,...,Xtn - Xtn-1 sont indépendantes. Si Xt est un processus à accroissements indépendants, alors pour tout s et t tels que 0 < s < t, Xt -Xs est indépendant de as = ó(Xu,u < s). La loi de Xt est entièrement déterminée par la loi de Xt - Xs.

    Définition 1.6 (Processus à accroissements indépendants stationnaires) Un processus Xt est un processus à accroissements indépendants stationnaires si Xt est un processus à accroissements indépendants et si Xt -Xs a même loi que Xt-s. Si Xt est un processus à accroissements indépendants, alors sa fonction caractéristique s'écrit

    Öt1,...,tn(x1,...,xn) = Öt1(x1 + ··· + xnt1,t2(x2 + ··· + xn)...Ötn-1,tn(xn)

    avec

    Öti,ti+1(x) = E[expix(Xti+1 - Xti)]

    si Xt est un processus à accroissement indépendants stationnaires alors sa loi est indéfiniment divisible. La loi du processus Xt est entièrement déterminée par la loi de X1.

    Théorème 1.4 Soit Xt un processus à accroissement indépendants stationnaires, (at) la filtra-
    tion engendrée par le processus Xt et T un temps d'arrêt. Alors le processus Yt = XT+t - Xt est
    un processus à accroissements indépendants stationnaires de même loi que Xt et indépendant de

    T.

    Définition 1.7 (Processus gaussien) Un processus Xt est gaussien si pour tout entier n et pour tous réels t1,t2,...,tn les variables aléatoires (Xt1,Xt2,...,Xtn) ont une distribution gaussienne. Si on note m(t) l'espérance de Xt et R(s,t) la fonction de corrélation du processus, sa fonction caractéristique s'écrit

    t1 ,...,tn (x1 , . . . , xn) = E expi

    n

    ?

    j=1

    xjXtj (ù))

    (= exp i

    n

    ?

    j=1

    n

    1

    xjm(tj) - ?

    2

    j=1

    n

    ?

    k=1

    )xjxkR(tj,tk)

    un processus gaussien est entièrement déterminé par la donnée de sa valeur moyenne m(t) et de sa fonction de corrélation R(s,t).

    1.4 Processus stochastiques établi à partir de la distribution gamma

    La distribution gamma, caractérisée par les deux paramètres á et â, se définit comme suit :

    f(x|á,â) = â á á-1 p ( -;)

    (á)x ex où (á) est la fonction gamma définie comme :

    (á) =

    yá-1

    0 exp(-y)dy

    A noter que si á = n et que n est un entier, on a alors le résultat suivant :

    (n) = (n--1)!

    La moyenne d'une variable aléatoire X qui obéit à une distribution gamma est de :

    E(X) = áâ

    Et sa variance est de :

    var(X) = áâ2

    La figure 1.3 montre l'évolution d'un tel processus. Comme on peut le constater à la lecture de cette figure, de nombreux sauts se manifestent dans un tel processus stochastique, en ce sens que ces sauts s'éloignent de beaucoup plus d'écart-types de la moyenne que ne l'autorise la distribution normale.

    FIGURE 1.3 - Processus aléatoire établi à partir de la distribution (0.5,2).

    1.5 Processus stochastiques établi à partir de la distribution de Student

    La distribution de Student est une autre distribution qui est de plus en plus utilisée dans la modélisation des prix des produits dérivés.

    Soit Z une N(0,1) et ÷2r) une variable aléatoire Chi-deux avec r degrés de liberté. Alors (

    T = Z a une distribution Student qui est notée St(r). Elle est symétrique autour de 0, mais

    \14)/r

    tend vers la distribution normale lorsque le nombre de degrés de liberté se dirige vers l'infini.

    La figure 1.4 prend acte de l'évolution d'un tel processus. Encore une fois, des sauts très apparents se font jour lors du déroulement du processus stochastique de la série, ils sont d'autant plus amples que l'on réduit le nombre de degrés de liberté de la distribution de Student.

    FIGURE 1.4 - Processus aléatoire établi à partir de la distribution St(2).

    1.6 Processus de Markov

    Soit (S ,A,P) un espace de probabilité et (E,B) l'espace des états, B désigne la tribu des boréliens de E, Un processus Xt est un processus de Markov si pour tout u et t = 0 et pour tout A ? B, on a

    P(Xt+u ? A|Xs,s = t) = P(Xt+u ? A|Xt)

    Ce qui signifie que le processus ne dépend que du dernier instant et non de toute son histoire

    P(Xtn < xn|Xtn-1= xtn-1,...,Xt1 = xt1) = P(Xtn < xtn|Xtn-1 = xtn-1)

    Pour démontrer qu'un processus est un processus de Markov, il suffit de montrer par le théorème
    de classe monotone que pour tout n, pour tous réels t1 = t2 = ··· = tn et pour toute fonction f

    borélienne bornée

    E(f (Xtn)) = E(f (Xtn)|Xtn-1)

    La probabilité de transition pour passer de l'état x au temps s à un état appartenant à A à l'instant t est notée pour s < t

    Ps,t(x,A) = p(s,x;t,A) = P(Xt ? A|Xs = x)

    La fonction A 7? p(s,x;t,A) est une probabilité sur B. La probabilité de transition vérifie l'équation de Chapman-Kolmogorov qui s'écrit sous les formes suivantes. Soit s < u < t tel que Xu = y, on a

    Ps,t(x,A) =LPs,u(x,dy)Pu,t(y, A)

    et dans le cas d'un espace E dénombrable

    Ps,t(x,z) = L Ps,u(x,y)Pu,t(y,z)

    y?E

    Si on note pt0(A) la distribution de Xt0

    pt0(A) = P(Xt0 ? A) alors pour tous réels t0 < t1 < ··· < tn,

    n-1

    (Xt1 ? B1,...,Xtn ? Bn) = f ;tk

    Pto(dX0)

    P

    nf p(tk_i,xk_,,dxk)p(tn-1,xn-1;tn,Bn)

    k=1 Bk

    En particulier,

    P(Xt ? B) = f p(t0,x;t,B)pt0(dx)

    Le processus Xt est un processus de Markov homogène si pour tout s et t de T, la transition

    p(s,x;t,B) = p(x,T,B)

    ne dépend que de
    ·r = t -s. Les opérateurs Ps,t = Pt-s sont notés simplement Pt. Ils forment dans le cas homogène un semi-groupe. On a PtPs = Pt+s, pour tout s,t > 0.

    1.7 Processus du second ordre

    Un processus Xt est un processus du second ordre si E|Xt|2 < 00. Une série chronologique est un processus du second ordre à temps discret. On dit que le processus du second ordre Xt converge en moyenne quadratique (i.e. dans L2) vers une variable aléatoire Y quand t tend vers t0 si et seulement si sa fonction de corrélation converge quand s et t tendent vers t0 et dans ce cas

    R(s,t) ---?

    s,t?t0

    E|Y|2

    On dit que Xt un processus du second ordre est continu en moyenne quadratique si

    h?0

    lim E|Xt+h - Xt|2 = 0

    Proposition 1.1 Un processus du second ordre Xt est continu en moyenne quadratique si et seulement si sa fonction de corrélation R(t,t) est continue en t.

    La continuité en moyenne quadratique n'entraîne pas la continuité des réalisations du processus. Si Xt est un processus de Poisson, sa fonction de corrélation R(s,t) = ëmin(s,t) est continue, mais presque toutes les réalisations ont des discontinuités sur un intervalle de temps fini.

    2

    On dit que Xt un processus du second ordre est dérivable en moyenne quadratique si la limite du taux d'accroissement (Xt+h - Xt)/h converge dans L2 vers une variable notée X0t .

    Jii?0 fh X: = 0

    Xt+h - Xt

    Proposition 1.2 Un processus du second ordre Xt est dérivable en moyenne quadratique si et seulement si sa fonction de corrélation R(s,t) est dérivable en (s,t)

    La dérivation en moyenne quadratique est linéaire. Si Xt est dérivable en moyenne quadratique, alors Xt est continue en moyenne quadratique.

    Proposition 1.3 Si Xt est un processus du second ordre centré et dérivable en moyenne quadratique et si les dérivées partielles existent, alors

    ?k+1

    RX(k)X(l) (s, t) = E[X(k) (s)X(l) (t)] = ?ks?ltRX(s,t)

    En particulier, un processus stationnaire est différentiable en t si et seulement si sa fonction de corrélation R(u) admet une dérivée du second ordre en u et dans ce cas

    ce+1

    RX(k)X(l)(u) = (-1 )k duk+1RX(u)

    Si Xt est dérivable en moyenne quadratique et si Xt admet la densité spectrale SX(ù), alors le processus dérivé admet une fonction spectrale SX/(ù) donnée par

    SX,(ù) = ù2SX(ù)

    Plus généralement,

    = (i ù)k (i ù)l S X (ù)

    SX(k) X(l) (ù)

    En particulier, la fonction de corrélation de la dérivée d'ordre k d'un processus Xt est

    d2k

    RX(k)(u) = (-1)k du2kRX (u)

    Sa fonction spectrale est donnée par la formule

    SX(k)(ù) = (-1)k(ù)2kSX(ù)

    Théorème 1.5 (Karhunen-Loève) Soit Xt un processus du second ordre pour t ? [a,b], continu en moyenne quadratique, centré. Il existe un et un seul développement, appelé développement de Karhunen-Loève de la forme

    Xt(ù) =

    8

    ?

    n=1

    Yn(ù)Ön(t)

    ot les Yn sont des variables aléatoires du second ordre telles que E(YiYj) = 0 si i =6 j et E(|Yi|2) = ëi ot les ëi sont les valeurs propres et les Öi sont les vecteurs propres de l'opérateur R : L2 ? L2 symétrique compact

    b

    Rf(s) = Z R(s,t)f(t)dt

    vérifiant

    Za b R(s,tn(t)dt = ënÖn(t)

    Exemple 1.2 Pour un mouvement brownien {Wt,0 = t = 1} (Chapitre 2 Section 2.2.3), le développement s'écrit pour une suite de variables aléatoires Zn de loi normale centrée réduite N(0,1) telles que E|Zn|2 = 1,

    Wt = v2

    8

    ?

    n=1

    sin(n + 1/2)ðt

    Zn

    (n+ 1/2)ð

    Et pour un pont brownien standard {Xt,0 = t = 1} (Chapitre 2 Section 2.9.2), nous avons le D.K.L

    8

    ?

    n=1

    Xt = v2

    sin(ðnt)

    ðn

    Zn

    1.8 Processus ergodiques

    Un processus du second ordre Xt de moyenne m(t) et de fonction de corrélation R(s,t) est ergodique si

    R(s,t)dsdt-mq? 0

    1

    T

    I

    0

    T2

    T

    I

    0

    1

    T

    T

    I

    0

    ce qui équivaut à

    (Xt - m(t))dt-mq? 0

    si Xt est stationnaire, Xt est ergodique si et seulement si

    0

    R(ô) ---?

    |ô|?8

    ou :

    lim

    T?8

    T 1 - T) R(ô)ch = 0

    1 fT ( ô

    Ainsi la connaissance de la fonction de corrélation et de la moyenne permet de déterminer si le processus est ergodique.

    1.9 Martingales et temps d'arrêt

    Les martingales à temps discret ou à temps continu sont l'outil essentiel du probabiliste. Elles permettent d'établir de nombreux résultats.

    Définition 1.8 Soit (Ù,A,P) un espace de probabilité, muni d'une filtration (Ft)t=0. Un processus à valeurs réelles (Mt)t=0 est une Ft-martingale si :

    - il est adapté à la filtration (Ft)t=0, ce qui veut dire que pour tout t, Mt est Ft-mesurable. - chaque variable Mt est intégrable, et :

    s = t E(Mt|Fs) = Ms

    on dit que Mt est une Ft-sur-martingale (resp. Ft-sous-martingale) si l'égalité ci-dessus est remplacée par:

    E(Mt|Fs) = Ms (resp.E(Mt|Fs) = Ms)

    En particulier, l'espérance E(Mt) d'une martingale, (resp. d'une sur-martingale, sous-martingale), est une fonction constante du temps (resp. décroissante, croissante). De manière évidente, une martingale est un processus qui est à la fois une sur-martingale et une sous-martingale et si Mt est une martingale, alors -Mt est une sous-martingale.

    Propriété 1.1 (1). (Mt)t=0 est une martingale si et seulement si (Mt)t=0 est à la fois une surmartingale et une sous-martingale.

    (2). (Mt)t=0 est une sous-martingale si et seulement si (-Mt)t=0 est une sur-martingale.

    (3). La somme de deux martingales (resp. sous-martingale, sur-martingale) est une martingale (resp. sous-martingale, sur-martingale).

    1.9.1 Temps d'arrêt

    Cette notion joue un rôle très important en théorie des probabilités.

    Définition 1.9 Soit (Ft)t=0 une filtration. Une application T : Ù 7? [0,8[ est un temps d'arrêt si {T = t} ? Ft pour tout t = 0.

    Un temps d'arrêt est donc un temps aléatoire, tel que sur chaque ensemble {ù : T(ù) = t}, l'application ù 7? T(ù) dépend seulement de ce qui s'est passé avant le temps t.

    Un joueur honnête, qui ne peut pas anticiper sur les événements futurs, peu décider d'arrêter le jeu au temps aléatoire T uniquement si T est un temps d'arrêt. Un exemple trivial de temps d'arrêt est donné par T(ù) = t pour tout ù.

    En dehors des temps constants, l'exemple fondamental de temps d'arrêt est le temps d'atteinte d'un ensemble borélien A par un processus Xt à trajectoires continues à droite et adapté à la filtration Ft. On définit plus précisément :

    T = inf(t = 0;Xt ? A)

    1.9.2 Théorème d'arrêt

    Soit Mt une martingale. La propriété des martingale peut facilement être étendue aux temps d'arrêt bornés.

    Théorème 1.6 Si S et T sont deux temps d'arrêt et si a E R, alors :

    E(MT |FS) = MS sur l'ensemble{S < T < a} (1.1)

    En particulier, si T est un temps d'arrêt qui est borné, on a :

    E(MT) = E(M0) (1.2)

    Quand Mt désigne de nouveau le gain d'un joueur au temps t, la propriété (1.2) peut être interprétée comme suit. Quelle que soit la stratégie non anticipante que le joueur choisit pour arrêter le jeu, et s'il doit finir de jouer avant un temps déterministe donné (aussi grand que soit ce temps), alors la valeur espérée de son gain est constante et égale à son capital initial.

    Observons que la relation (1.1) est, en général, fausse sur l'ensemble {S < T}, et de même (1.2) est fausse si T n'est pas borné. Par exemple si Mt = Bt ou Bt est un mouvement brownien et si T = inf(t : Mt = 1), alors E(M0) = 0 < E(MT) = 1. Dans ce cas, le temps aléatoire T est presque sûrement fini, mais n'est pas borné et a même une espérance infinie.

    2

    Mouvement Brownien

    Sommaire

    2.1 Introduction 19

    2.2 Construction du mouvement brownien 20

    2.3 Semi-groupe du mouvement brownien 24

    2.4 Approximation la dérive d'un mouvement brownien standard par un bruit blanc gaussien 27

    2.5 Continuité des trajectoires 27

    2.6 Régularité des trajectoires 28

    2.7 Mouvement brownien arithmétique 32

    2.8 Mouvement brownien géométrique 34

    2.9 Pont brownien 36

    2.10 Martingales exponentielles 39

    2.11 Conclusion 45

    2.1 Introduction

    L

    e mouvement brownien est une description mathématique du mouvement aléatoire d'une grosse particule immergée dans un fluide et qui n'est soumise à aucune autre interaction que des chocs avec les petites molécules du fluide environnant. Il en résulte un mouvement très irrégulier de la grosse particule, qui a été décrit pour la première fois en 1827 par le biologiste Robert Brown [11] alors qu'il observait du pollen de Clarkia pulchella (une espèce de fleur sauvage nord-américaine), puis de diverses autres plantes, en suspension dans l'eau.

    La description physique la plus élémentaire du phénomène est la suivante

    1. Entre deux chocs, la grosse particule se déplace en ligne droite avec une vitesse constante.

    2. La grosse particule est accélérée lorsqu'elle rencontre une molécule de fluide ou une paroi.

    Cette description permet de décrire avec succès le comportement thermodynamique des gaz (théorie cinétique des gaz), ainsi que le phénomène de diffusion. Brown n'est pas exactement le premier à avoir fait cette observation. Il signale lui-même que plusieurs auteurs avaient suggéré l'existence d'un tel mouvement (en lien avec les théories vitalistes de l'époque). Parmi ceux-ci, certains l'avaient effectivement décrit, on peut mentionner en particulier l'abbé John Turberville Needham (1713-1781), célèbre à son époque pour sa grande maîtrise du microscope.

    La réalité des observations de Brown a été discutée tout au long du XXe siècle. Compte tenu de la médiocre qualité de l'optique dont il disposait, certains ont contesté qu'il ait pu voir véritablement le mouvement brownien, qui intéresse des particules de quelques micromètres au plus. Les expériences ont été refaites par l'Anglais Brian Ford [12] au début des années 1990, avec le matériel employé par Brown et dans les conditions les plus semblables possibles. Le mouvement a bien été observé dans ces conditions, ce qui valide les observations de Brown.

    Quelques années plus trad en 1905, Albert Einstein mit en évidence les étranges relations que le processus entretenait avec l'équation de la chaleur. Vers 1909, Jean Perrin entreprit son étude expérimentale et Paul Langevin posa la première équation. Mais il faudra attendre 1925 et les travaux de Norbert Wiener pour que le mouvement brownien ait véritablement un sens mathématique comme modèle d'un bruit blanc. À partir des années 1950, Kiyoshi Itô [27] l'utilisa pour définir l'intégrale qui porte son nom et jeta les bases du calcul stochastique.

    Nous nous intéressons dans ce chapitre principalement a les principaux processus aléatoires à l'exception du mouvement brownien, ces propriétés, ces caractéristiques, ainsi sa construction mathématique et sa simulation par trois approches, nous retrouverons la plupart de ces processus dans les problèmes de calcul stochastique. Nous introduisons la notion de martingale exponentielle qui joue un rôle très importante dans les calcules des lois des temps de passage du mouvement brownien, ainsi la théorème de caractérisation de Paul Lévy.

    2.2 Construction du mouvement brownien

    Ce processus de diffusion peut être construit par differentes approches. Les definitions les plus usuelles du mouvement brownien sont les suivantes.

    2.2.1 Construction par un processus gaussien

    Un processus stochastique Wt est un mouvement brownien ou un processus de Wiener si W0 = 0 (on dit que Wt est issu de 0) et si pour tous reels 0 < t1 < t2 < ··· < tn, les variables aleatoire Wt1 -Wt0, . . . ,Wtn -Wtn-1 sont independants et suivent une distribution gaussienne centree reduite (on dit que le mouvement brownien est standard si m = 0 et ó = 1) telle que :

    {

    E(Wt+h -Wt) = 0 E(Wt+h -Wt)2 = h

    Dans le cas general, lorsque le mouvement brownien n'est pas centre reduit, on a :

    E(Wtk - Wtk-1) = m(tk - tk-1)

    {

    E((Wt+h -Wt - m(tk -tk-1))2 = ó2(tk -tk-1)

    le vecteur (Wt0,Wt1,...,Wtn) est un vecteur gaussien. Le processus Wt suit une loi gaussienne de moyenne mt et de variance ó2t. On peut facilement simuler une trajectoire de mouvement brownien dans un intervalle de temps [0,T], il suffit de fixee un pas de temps Ät > 0 et d'ecrire

    v

    Wt) = Wt) -W(0) ~ N(0,Ät) ~ ÄtN(0,1)

    Les accroissements (WnÄt -W(n-1)Ät) etant independants et gaussiens, il suffit donc de simuler une loi gaussienne

    Wtt - Wt ~ N(0, Ät) ~ vÄtN(0, 1)

    Ainsi, nous pouvons simuler facilement une seule trajectoire brownienne de la façon suivante. On considère la subdivision de l'intervalle de temps [0,T] suivante 0 = t1 < t2 < ··· < tN < tN+1 = T, avec ti+1 -ti = Ät, pour i = 1 on a W(0) = W(t1) = 0. On donne l'algorithme suivant :

    1. Generee un nouveau variable aleatoire Z de la distribution gaussienne N(0,1).

    2. i = i+1.

    3. W(ti) = W(ti-1)+Zt.

    4. Si i = N + 1, reiterez a l'etape 1.

    La fonction BMN permet de simuler un mouvement brownien standard {Wt,t = 0} dans l'intervalle de temps [t0,T] avec un pas Ät = (T -t0)/N, et la fonction BMNF permet de simuler un flux brownienne standard (C = ó2)

    R> BMN(N = 1000, t0 = 0, T = 1, C = 1)

    R> BMNF(N = 1000, M = 100, t0 = 0, T = 1, C = 1)

    FIGURE 2.1 - Trajectoire brownienne simulée a partir d'une distribution gaussienne.

    FIGURE 2.2 - Flux de trajectoires brownienne simulées a partir d'une distribution gaussienne.

    2.2.2 Construction par une limite d'une marche aléatoire

    Une caractérisation du mouvement brownien indique qu'il peut voir en tant que limite d'une marche aléatoire dans le sens suivant. Considérons une suite de variables aléatoires indépendants Xi centrées de variance ó2 et la marche aléatoire Sn = X1 +X2 + ··· +Xn, où

    (

    +1 si p = 1/2

    Xi =

    -1 si p = 1/2

    On définit une suite de variables Yn par la formule suivante :

     

    Yn(t) =

    S[nt] + (nt - [nt])X[nt]+1

    où [.] est la partie entière.

    óvn

    Ce résultat fondamental est donné par le théorème de Donsker (1951) et est, en fait, au niveau des processus, une version du théorème usuel de la limite centrale

    Théorème 2.1 (Principe d'invariance de Donsker) Soit (Xn)n=1 une suite de variables aléatoires réelles indépendantes, identiquement distribuées, avec E(Xn) = 0 et E(X2 n) = 1. Soit Sn = Y.1=i=nXi avec S0 = 0.

    Les processus des sommes normalisées Ynt = 1 vnS[nt] (oil [nt] désigne la partie entière de nt) convergent en loi, en tant que processus, vers le mouvement brownien.

    Cette convergence donne une définition du mouvement brownien comme l'unique limite (en loi) de marches aléatoires.

    Le code 1, permettre de simulée un mouvement brownien standard comme l'unique limite de marche aléatoire. La figure 2.3 donne une représentation de l'approximation d'un mouvement brownien par une marche aléatoire pour n = 10,n = 100 et n = 1000.

    FIGURE 2.3 - Trajectoire brownienne comme limite d'une marche aléatoire.

    2.2.3 Construction par le développement de Karhunen-Loève (D.K.L)

    Pour un mouvement brownien {Wt,0 = t = 1}, le développement de Karhunen-Loève [15, 16] s'écrit pour une suite de variables aléatoires Zn de loi normale centrée réduite telles que E|Z2 n| = 1,

    v

    Wt = 2

    8

    ?

    n=1

    sin(n + 1/2)ðt

    Zn ?t ? [0,1] (2.1)

    (n+1/2)ð

    Preuve A partir du théorème de Karhunen-Loève 1.5, on a l'équation aux valeurs propres

    Z 1

    0 (s?tn(s)ds = ënön(t)

    s'écrit

    Z t Z 1

    0 sön(s)ds + t tön(s)ds = ënön(t)

    soit en dérivant

    Z 1

    ënö0 n(t) = t ön(s)ds

    deux fois

    ënö00 n(t) = -ön(t)

    avec ö0n(1) = 0. La résolution de cette équation conduit à

    \/

    ön(t) = csin(t/ ën)

    La constante c est déterminée par le fait que les fonctions propos sont orthonormées

    Z0 1 ö2 n(s)ds = 1

    v 2. La condition limite ö0n(1) = 0 donne l'équation cos(1/vën) = 0 qui fournit les

    d'où c =

    valeurs propres

    1

    ën = (n+1/2)ð2

    d'où le développement

    v

    Wt = 2

    8

    ?

    n=1

    Zn

    sin(n+ 1/2)ðt
    (n+ 1/2)ð

    Le code 2 (Annexe A), permettre de simulée un mouvement brownien standard a partir de D.K.L. La figure 2.4 donne une représentation graphique du une approximation d'un mouvement brownien par le D.K.L pour n = 10,n = 100 et n = 1000.

    FIGURE 2.4 - Approximation d'un mouvement brownien par le D.K.L.

    2.3 Semi-groupe du mouvement brownien

    2.3.1 Propriété de Markov

    Considérons un mouvement brownien Wt sur (1,A,P), et la filtration (Ft)t=0 qu'il engendre. Puisqu'il est à accroissements indépendants, la variable Y := Wt+s -Wt est indépendante de la tribu Ft. On a pour chaque fonction f borélienne bornée sur R :

    Z 1

    E( f (Wt+s)|Ft) = E( f (Wt +Y)|Ft) = v2ðse-x2/2s f (Wt + x)dx (2.2)

    R

    Cette formule montre que conditionnellement à Ft, la loi de Wt+s ne dépend pas de tout le passé (c'est-à-dire de toutes les variables Wr pour r = t), mais seulement de la valeur "présente" Wt du processus. On dira que le mouvement brownien est un processus de Markov.

    Définition 2.1 Un processus Xt est un processus de Markov si, étant donné la filtration Ft engendrée par le processus, celui-ci vérifie la propriété de Markov, à savoir que pour tous s,t = 0 et pour toute fonction f borélienne bornée sur R :

    E(f(Xt+s)|Ft) = E(f(Xt+s)|Xt) (2.3)

    dy (2.5)

    Dans le cas du mouvement brownien, les variables Wr pour r = t, sont independantes, conditionnellement à la valeur de Wt. De plus, la loi de Wt+s sachantt depend bien sûr de s, mais pas de t. On dit que le mouvement brownien est un processus de Markov homogène.

    Définition 2.2 Soit Xt un processus de Markov homogène. On appelle semi-groupe de transition de Xt la famille (Pt)t=0 d' operateurs positifs lineaires :

    Pt : Ö ? L8 (Rd) PtÖ ? L8 (Rd)

    PtÖ(x) = E(Ö(Xt)|X0 = x) = fd Ö(y)Pt(x,dy)

    R

    qui satisfait Pt1 = 1 et la propriete de semi-groupe :

    P0 = Id , Pt+s = Ps ? Pt ?s, t = 0 (2.4)

    Dans le cas du mouvement brownien, qui est un processus de markov homogène, le semigroupe (Pt)t=0 est donne par :

    ~ 1Pt (x, dy) = exp -(y - x)2

    2ðt 2t

    comme le montre immediatement la formule (2.2).

    En utilisant les relations (2.2) et (2.5), on obtient facilement les proprietes :

    E(Wt|Fs) = Ws ; E(W2 t |Fs) = W2 s +t - s , ?s < t (2.6)

    2.3.2 Mouvement brownien multidimensionnel

    Le mouvement brownien multidimensionnel est très utilise dans les modèles de marche en temps continu. Par exemple, lors de la modelisation simultanee des prix de plusieurs actifs risques.

    Définition 2.3 Un mouvement brownien d-dimensionnel est une collection W = (Wi)1=i=d de d mouvements browniens à valeurs reelles Wi = (Wt i)t=0, qui sont indépendants entre eux.

    Ce processus est encore un processus de Markov homogène (et même un processus à accroissements independants). Son semi-groupe vaut alors :

    ~ 1

    Pt(x,dy) = (2ðt)d/2 exp -Hy

    2tx ||2)

    dy (2.7)

    x et y appartiennent à Rd, ||.|| designe la norme euclidienne sur Rd, et dy la mesure de Lebesgue sur Rd.

    Les deux fonctions BMN2D et BMRW2D permettre de simulee un mouvement brownien 2 dimensions, respectivement par la distribution gaussienne et par approximation une marche aleatoire.

    R> BMN2D(N = 10000, t0 = 0, T = 1, x0 = 0, y0 = 0, Sigma = 1) R> BMRW2D(N = 10000, t0 = 0, T = 1, x0 = 0, y0 = 0, Sigma = 1)

    FIGURE 2.5 - Mouvement brownien 2--D simulée a partir d'une distribution gaussienne.

    FIGURE 2.6 - Approximation d'un mouvement brownien 2--D par une marche aléatoire.

    La fonction BMN3D permettre de simulée un mouvement brownien 3-dimensions.

    R> BMN3D(N = 10000, t0 = 0, T = 1, X0 = 0, Y0 = 0, Z0 = 0, Sigma = 1)

    FIGURE 2.7 - Mouvement brownien 3--D simulée a partir d'une distribution gaussienne.

    2.4 Approximation la dérive d'un mouvement brownien standard par un bruit blanc gaussien

    Un bruit blanc est une réalisation d'un processus aléatoire dans lequel la densité spectrale est la même pour toutes les fréquences, on parle souvent de bruit blanc gaussien, il s'agit d'un bruit blanc qui suit une loi normale de moyenne et variance données.

    Définition 2.4 Un processus åt est qualifié de bruit blanc gaussien si : - E(åt) = 0 et E(å2 t ) = ó2

    - åt et ås sont indépendants ?t =6 s

    - åt ~ N(0,ó2)

    Par analogie avec le bruit blanc en temps discret, défini comme une suite de variables aléatoires, centrées, du second ordre et indépendants, on cherche à définir {åt}t=0 comme un processus stochastique vérifiant ?t > 0 et ?h > 0 :

    - E(åt) = 0

    - E(åtåt+h) = ä0(h)

    où ä0 est la mesure de Dirac en 0.

    Un tel processus n'existe pas. Son idéalisation est la dérivée d'un mouvement brownien standard. Si pour Ät > 0 fixé, on considère le processus

    åt =

    Wtt -Wt

    Ät

    Il est facile de montrer grâce aux propriétés données par la définition de mouvement brownien

    que :

    ( ) (|h| )

    1 1 - |h|

    E(åt) = 0 et E(åtåt+h) = 1[0,1]

    Ät Ät Ät

    Quand Ät -? 0,E(åtåt+h) converge vers ä0(h). Il est donc clair que la dérivée formelle dWt

    dt a

    les propriétés d'un bruit blanc gaussien. Ce qui justifie l'affirmation concernant l'idéalisation du

    bruit blanc.

    Donc on peut écrire formellement :

    åt =

    dWt

     

    dt

    2.5 Continuité des trajectoires

    Dire qu'un processus aléatoire {Xt,t = 0} est continu c'est, par définition dire que

    lim |Xt+h -Xt| = 0 h?0

    Selon le type de convergence de cette variable aléatoire, on obtient une continuité plus ou moins forte. La plus faible des notions de continuité est liée à la convergence en loi. Elle est évidement vérifiée. Nous allons démontrer une continuité en probabilité pour le mouvement brownien standard.

    Proposition 2.1 Soit å > 0 et {Wt,t = 0} un mouvement brownien standard. On a

    1

    lim

    h?0 h

    P(|Wt+h -Wt| > å) = 0

    Preuve Soit h > 0, par définition, l'accroissement Wt+h -Wt admet pour loi N(0,h). Donc

    1

    2 8 1 x2

    hP(|Wt+h - Wr| > å) = h , 2ðhe- 2h dx

    8 1 1

    å

    x

    < 2

    J e-

    E .V22.c h3/2 2h

    ie v

    1

    2h

    -

    å2
    2h

    e

    å

    h3/2

    v

    2

    =

    Le dernier terme converge vers 0 lorsque h ? 0.

    2.6 Régularité des trajectoires

    Le mouvement brownien a de nombreuse propriétés dont certaines peuvent être prise comme définition.

    Proposition 2.2 Le processus Wt est un processus à accroissements indépendants de fonction de covariance

    (s,t) = E(WsWt) = ó2min(s,t)

    Preuve Le mouvement brownien est un processus centré, les accroissements étant indépendants, on a pour 0 = s < t,

    E(WsWt) = E(Ws(Wt -Ws)) +E(W2s )

    = E(Ws)E(Wt -Ws) + var(Ws) = 0 + ó2s = ó2s

    et pour 0 = t < s on a,

    E(WtWs) = E(Wt(Ws -Wt)) + E(W2

    t )

    = E(Wt)E(Ws -Wt)+var(Wt) = 0 + ó2t = ó2t

    d'ou : E(WsWt) = ó2min(s,t).

    dx

    La fonction BMcov donne une représentation graphique (Figure 2.8) de la fonction de covariance empirique d'un mouvement brownien standard (pour M = 500 trajectoires simulée de taille N = 1000, C = ó2).

    R> BMcov(N = 1000, M = 500, T = 1, C = 1)

    FIGURE 2.8 - Fonction de covariance empirique d'un mouvement brownien standard.

    Proposition 2.3 La densité de ÄW = (Wt1 -Wt0,...,Wtn -Wtn-1) est donnée par

    fÄW(x1,...,xn) =

    n

    ?

    j=1

    1

    p2ð(tj -tj-1) exp

    -x2 j

    2(tj -tj-1)

    Proposition 2.4 La densité de W = (Wt1,...,Wtn) est

    f(x1,...,xn) =

    n

    ?

    j=1

    1

    p2ð(tj -tj-1) exp

    n

    ?

    j=1

    -(xj -xj-1)2
    2(tj -tj-1)

    Proposition 2.5 Pour un mouvement brownien standard (m = 0,ó = 1) et pour tout n, l'espérance

    Z +8

    E(Wt+h -Wt)2n = 1

    v

    -8 x2ne-x2/2hdx = 1.3...(2n - 1)hn h Presque toutes les réalisations du mouvement brownien sont continues (appliquer le théorème 1.1 de Kolmogorov avec c = 3,p = 4 et r = 1).

    Proposition 2.6 Soit Wt un mouvement brownien standard. On a presque sûrement,

    lim

    t?+8

    sup

    Wt
    vt

    = +8 , lim

    t?0

    sup

    Wt
    vt

    = +8,

    inf Wt vt

    , lim

    t?0

    inf Wt vt

    = -8

    = -8,

    lim Wt = 0.

    t?+8 t

    lim

    t?+8

    et

    Preuve Comme pour tout s > 0,

    U = lim

    t?+8

    sup

    Wt

    = lim

    t?+8

    sup

    Wt-s-Wt

    vt

    vt

    cette limite est indépendante de la tribu ó(Wu,u = s) et donc de ó(Wu,u = 0) et par conséquent
    d'elle-même. On a soit P(U = +8) = 1 soit P(U = a) = 1. Supposons que la limite sup soit

    )atteinte en a. Pour tout b > a, P (Wtvt > b ) tend vers 0, mais P (Wtvt > b= P(W1 > 0) = 1, Donc

    a ne peut être qu'infini. Pour la limite inférieure, il suffit de considérer -Wt. Pour les limites au voisinage de zéro, on considérera le processus Xt = tW1/t, pour établir la dernière formule, on pose s = 1/t et on considère le mouvement brownien Xt = tW1/t, on a Wt/t = sW1/s = Xs ? 0 p.s. puisque Xt est un mouvement brownien standard.

    Les deux codes 3 et 4, permettes de vérifier par simulation la proposition 2.6, le mouvement brownien standard est simulée a partir de développement de Karhunen-Loève. La figure 2.9 montre clairement que le mouvement brownien standard est non différentiables, et la figure 2.10 montre que la limite de mouvement brownien standard par rapport au temps tend vers 0 quand t?+8.

    FIGURE 2.9 - Le mouvement brownien standard est non différentiables.

    FIGURE 2.10 - La limite de mouvement brownien standard par rapport au temps.

    Proposition 2.7 Soit 0 = t0 < t1 < ··· < tn < tn+1 = t une subdivision de l'intervalle [0,t] dont le pas tend vers 0, la variation quadratique converge dans L2 vers t

    2 L2

    Vn = Enk=0(Wtk+1 -Wtk) ---?t Preuve Le calcul de la norme donne

    ||Vn -t||2L2 = E

    n
    k
    =0

    (Wtk+1 -Wtk)2 - (tk+1 -tk)

    !2

    = E

    n
    k
    =0

    ((Wtk+1 -Wtk)2 - (tk+1 -tk))2 +E

    i6=j

    E(XiXj)

    avec

    Xi = ((Wti+1 -Wti)2 - (ti+1 -ti))

    Le produit des termes croisés est nul, car on a pour i < j E(XiXj) = E(E(XiXj)|Ftj) = E(E(Xi)E(Xj|Ftj)) = 0 et puisque Wti+1 -Wti est Ftj-mesurable. Il reste donc

    n

    ||Vn -t||2L2 = E((Wtk+1 -Wtk)2 -(tk+1 -tk))2

    k=0

    Mais les accroissements (Wtk+1 --Wtk)2/(tk+1 -- tk) ont même loi que Z2, où Z est une variable aléatoire centrée réduite. D'où

    n

    ||Vn --t||2L2 = E(Z2 -- 1)2 k=0 (tk+1 --tk)2

    < E(Z2 -- 1)2t sup(tk+1 --tk) -+ 0

    Proposition 2.8 Si Wt est un mouvement brownien, alors il en est de même pour les processus suivante

    (1). Xt = 1aWa2t pour a constante non nulle (invariance par changement d'échelle).

    (2). Xt = tW1/t pour t > 0 et X0 = 0 (invariance par inversion de temps).

    (3). Xt = WT--t --WT avec T > 0 et t E [0,T] (invariance par retournement du temps). Preuve Il suffit de vérifier que le processus est gaussien et de même covariance que Wt(t A s). Vérifions (1), on a

    1

    E(XsXt) = a2 E(Wa2sWa2t) = a2 min(a2s,a2t) = min(s,t)

    1

    De mêmee pour (2), on a

    E(XsXt) = tsE(W1/sW1/t)) = tsmin(1/s,1/t)) = min(s,t)

    et pour (3), on a

    E(XsXt) = E((WT--ss --WT)(WT--tt --WT)))

    = E(WT--sWT--t)--E(WT--sWT)) -- E(WTWT--t)+E(W2T ))

    =min( T--s, T--t)-- T+s+t

    Sit > s, E(XsXt ) = T-- t-- T+s+ t =s Sit <s, E(XsXt ) =T --s--T +s+t =t d'ouu : E(XsXt) = min(s,t).

    2.7 Mouvement brownien arithmétiquee

    Le mouvement brownien standard ou processus de wiener que nous avons étudier comporte certaines lacunes. D'abordd sa dérivee est nul, or plusieurs processus stochastiques comportent une tendance. Par exemple les indices boursiers font montre d'unee tendance àa la hausse àa long terme. De plus, la variance d'unn processus stochastique est égale au pas At, comme cette variance ne peut accepter qu'unn nombre trèss limité de processus stochastiques, ilt y a lieu de choisir la partie aléatoire d'unn processus stochastique par la variance observée de la série. Le mouvement

    brownien arithmétique mouvement brownien avec dérive (Dans la finance modèle de Merton (1973)) corrige ces deux déficiences du processus de wiener. Il s'écrit comme suit

    dXt = èdt + ódWt (2.8) où è est la dérive de processus et ó son écart-type, Wt est un mouvement brownien standard. A partir de l'équation différentielle stochastique (2.8) en remarque que c'est la partie stochastique du processus qui domine à court terme et sa tendance à long terme. 1

    Pour simuler une seule trajectoire du mouvement brownien arithmétique sur un intervalle de temps [t0,T] avec un pas Ät = (T -t0)/N, nous avons utilisé la fonction ABM. Et pour un flux de trajectoires utilisant la fonction ABMF.

    On considère la subdivision de l'intervalle de temps [t0,T] suivante t0 < ··· < tN < tN+1 = T, avec ti+1 - ti = Ät, pour i = 0 on a W(0) = W(t0) = 0 et X(0) = X(t0) = x0, on a l'algorithme suivant :

    1. Générer un nouveau variable aléatoire Z de la distribution gaussienne N(0,1).

    2. i = i+1. v

    3. W(ti) = W(ti-1) + Z Ät.

    4. X(ti) = Xti-1 + èÄt + ó(Wti -Wti-1)

    5. Si i = N + 1, réitérez a l'étape 1.

    Remarque 2.1 Si è = 0 on a un mouvement brownien.

    Comme en prend acte la figure 2.11, le mouvement brownien arithmétique est caractérisé par un dérive à long terme ponctué de déviations qui dépendent de l'écart-type du processus stochastique.

    R> ABM(N = 1000, t0 = 0, T = 1, x0 = 0, theta = 2, sigma = 1)

    R> ABMF(N = 1000, M = 100, t0 = 0, T = 1, x0 = 0, theta = 2, sigma = 1)

    v

    1. En effet, è est multiplié par dt et ó par dt.

    FIGURE 2.11 - Trajectoire d'un mouvement brownien arithmétique avec 9 = 2 et a = 1.

    FIGURE 2.12 - Flux d'un mouvement brownien arithmétique avec 9 = 2 eta = 1.

    2.8 Mouvement brownien géométrique

    Un mouvement brownien arithmétique est inapproprié pour décrire l'évolution du prix d'une action, étant donné la croissance espérée du prix de cette action, désignée par 9, et l'écart-type du taux de rendement de l'action, représenté par a. En effet, cela supposerait que le rendement total de l'action soit dSt

    St , aurait tendance à diminuer au cours du temps, ce qui est contraire aux données observées sur les rendements des actions. On fait donc l'hypothèse que le prix d'une action obéir à un mouvement brownien géométrique le modèle de marché de Black et Scholes, c'est-à-dire

    dSt = 9Stdt + aStdWt (2.9)

    La dérive et l'écart-type sont donc multipliés par St, soit le niveau du prix de l'action. Il s'ensuit le taux de rendement de l'action suit un mouvement brownien arithmétique

    dSt
    St

    = 9dt +adWt (2.10)

    Utilisant le lemme d'Itô que nous examinerons plus en détail dans le chapitre suivant, l'équation différentielle stochastique (2.9) admet pour solution

    ~~ ~ ~

    9 - a2

    St = S0 exp t + aWt , S0 > 0 (2.11)

    2

    ( ~

    Comme le mouvement brownien standard Wt est de loi N(0,t), è - ó2 t + óWt est de loi

    2

    (( ) )

    è - ó2

    N t2tet St est de loi lognormale.

    2

    Pour simuler une seule trajectoire du mouvement brownien géométrique (utilisant l'équation (2.11)) sur un intervalle de temps [t0,T] avec un pas Ät = (T - t0)/N, nous avons utilisé la fonction GBM. Et pour un flux de trajectoires utilisant la fonction GBMF.

    R> GBM(N = 1000, t0 = 0, T = 1, x0 = 1, theta = 2, sigma = 1)

    R> GBMF(N = 1000, M = 100, t0 = 0, T = 1, x0 = 1, theta = 2, sigma = 1)

    FIGURE 2.13 - Trajectoire d'un mouvement brownien géométrique avec è = 2 et ó = 1.

    FIGURE 2.14 - Flux d'un mouvement brownien géométrique avec è = 2 et ó = 1.

    Si l'équation différentielle stochastique du prix de l'action se conforme à un mouvement brownien géométrique, alors le prix de l'action suit une loi lognormale. Et si tel le cas le logarithme de St suit une loi normale. Pour le montrer soit l'équation (2.9) du prix de l'action, et soit la fonction g qui est égale à ln(St). Cette fonction dépend donc de la variable aléatoire St. Selon le lemme d'Itô, l'équation différentielle de la fonction g s'écrit

    ?g 1 ?2g

    dgt = ?SdSt + ?S2 dS2 (2.12)

    t

    2

    Le lemme d'Itô s'apparente donc à une expansion de Taylor du second degré. Or,

    et

    1

    =

    S

    ?g
    ?S

    1
    S2

    ?2g

    ?S2 =

    En substituant ces dérivées dans l'équation (2.12) et en remplaçant dSt par l'équation (2.9), on obtient

    1 ó2S2 t

    dgt = (èStdt + óStdWt) - (2.13)

    St 2S2 t

    Avec dS2 t = ó2S2 t dt, nous le justifierons dans le chapitre suivant. Après simplification de l'équation (2.13), on obtient

    ( )

    è - 1

    dgt = 2ó2dt dWt (2.14)

    Le logarithme de St, soit la fonction g suit bien une loi normale puisque dWt obéit à une loi normale. On peut alors écrire le prix de l'action comme suit

    [( ) ]

    è - 1

    St = St-1 exp 2ó2 dt + ódWt (2.15)

    2.9 Pont brownien

    Un pont brownien est un objet mathématique de la théorie des probabilités, également appelé mouvement brownien attaché ("tied down brownian motion" en anglais), mouvement brownien attaché en a ("brownian motion tied down at a" en anglais) ou mouvement brownien épinglé ("pinned brownian motion" en anglais).

    Considérons un mouvement brownien (Wt)0=t=1 sur l'intervalle de temps [0,1]. On veut calculer la loi conditionnelle de Wt par rapport à la tribu engendrée par la variable aléatoire W1. Notons £(a,.) la loi conditionnelle de Wt sachant W1 = a. Si l'on modifie la loi du processus Wt, celui-ci changer de nom et de propriétés.

    Définition 2.5 Le processus Wt sous la loi £(a,.), est appelé le pont brownien, et pont brownien standard si a = 0.

    Définition 2.6 Un pont brownien Xt est un processus stochastique à temps continu dont la loi celle d'un processus de Wiener sachant l'événement W0 = W1 = a. Il s'agit d'un processus aléatoire gaussien, c'est à dire que la loi de probabilité de tout vecteur (Wt1,...,Wtn) conditionnellement à W1 = a est gaussienne. Il est alors caractérisé par sa moyenne et sa fonction de covariance, qui sont données par:

    E(Wt|W1 = a) = at ?0 = t = 1

    cov(Ws,Wt|W1 = a) = s(1-t) ?0 = s < t = 1

    Observons que la moyenne dépend de a, mais pas la covariance. Et si a = 0 on a un pont brownien standard dont

    E(Wt|W1 = 0) = 0 et cov(Ws,Wt|W1 = 0) = s(1-t) ?0 = s < t = 1

    Son semi-groupe de transition est donné par la formule suivante, pour 0 = s < t < 1

    ( ~y - 1

    1-s(x(1 -t) + a(t - s)))2 )

    P(a) 1

    s,t (x,dy) = q2ð(t-s)(1-t) exp dy

    - 2(t-s)(1-t)

    1-s 1-s

    Le pont brownien peut être vu comme la définition de la loi d'un point Xè à la date è ? [s,t], intermédiaire sur la trajectoire d'un mouvement brownien dont Xs et Xt sont connus, un tel point suit une loi normale

    ( ~

    Xs + è - s

    t - s (Xt - Xs), (t - è)(è - s)

    N t - s

    Proposition 2.9 Si (Wt)0=t=1 est un mouvement brownien standard, alors on a

    (1). Xt = Wt -tW1 est un pont brownien.

    (2). Xt = (1 -t)Wt/1-t est un pont brownien.

    Preuve Il suffit de vérifier que le processus est gaussien et de covariance égale à s(1-t) ?0 = s < t = 1. Vérifions (1), on a

    E(XsXt) = E((Ws -sW1)(Wt -tW1))

    = E(WsWt) -tE(WsW1) -sE(WtW1)+tsE(W21 )

    = min(s,t) -ts = s(1 -t)

    De même pour (2), on a

    E(XsXt) = E((1 -s)(1 -t)Ws/1-sWt/1-t)

    ( s )

    = (1 - s)(1 -t)min 1 - s, t

    1 -t

    = min(s(1 -t),t(1 -s)) = s(1 -t)

    2.9.1 Construction par processus contraint

    Soit (Wt)t=0 un mouvement brownien standard, a et b des réels quelconques. On définit le processus (Xè)s=è=t, comme la déformation de Wt, à partir de l'instant è = s forcée de passer par a à la date è = t. A tout instant, utilisant la nullité de l'espérance de dWt pour tout t, on écrit donc le drift du processus Xè comme la différence entre a et Xè, sur le temps restant avant t. On obtient donc une description du processus Xè comme :

    a - Xè

    dXè = t - è dè + dWè, avec Xs = b et Xt = a. (2.16)

    L'équation différentielle stochastique (2.16) (voir le chapitre correspondant) admet pour solution:

    è - s

    Xt,a

    s,b(è) = b +Wè-s - (Wt-s -a+b) (2.17)

    t -s

    Nous pouvons simuler une trajectoire d'un pont brownien directement à partir de l'équation (2.17). On considère la subdivision de l'intervalle de temps [0,T] suivante 0 = t1 <
    ·
    ·
    · < tN < tN+1 = T, avec ti+1 --ti = Ät, pour i = 1 et W(0) = W(t1) = 0, on a l'algorithme suivant :

    1. Générer une nouvelle variable aléatoire Z de distribution gaussienne N(0,1).

    2. i = i+1.

    V'

    3. W(ti) = W(ti--1) + Z Ät.

    4.X(ti)=b+Wti -- ti T (WT--a+b)

    5. Si i N + 1, réitérez a l'étape 1.

    Remarque 2.2 Si a = b = 0 on a un pont brownien standard.

    La fonction BB (Brownian Bridge) permet de simuler un pont brownien sur l'intervalle de temps [t0,T] avec un pas Ät = (T --t0)/N, et la fonction BBF permet de simuler un flux de pont brownien.

    R> b <- - 2; a <- 1;

    R> BB(N = 1000, t0 = 0 , T = 1 , x0 = b, y = a)

    R> BBF(N = 1000, M = 100, t0 = 0, T = 1, x0 = 0, y = 0)

    FIGURE 2.15 - Trajectoire d'un pont brownien à partir de Xt0 = --2 et XT = 1.

    FIGURE 2.16 - Flux de 100 trajectoires d'un pont brownien standard Xt0 = XT = 0.

    2.9.2 Construction par le développement de Karhunen-Loève (D.K.L)

    Pour un pont brownien standard {Xt,0 =t = 1} est un processus gaussien centré, à trajectoires continues (p.s), tel que X(0) = X(1) = 0. Le développement de Karhunen-Loève [15, 16] s'écrit pour une suite de variables aléatoires Zn de loi normale centrée réduite telles que E|Z2 n| = 1,

    v

    Xt = 2

    8

    ?

    n=1

    sin(ðnt)

    Zn

    ðn

    ?t ? [0,1] (2.18)

    Utilisant le code 5 pour simulée un pont brownien standard a partir de D.K.L. La figure 2.17 donne une représentation graphique d'une approximation d'un pont brownien standard par le D.K.L pour n = 10,n = 100 et n = 1000.

    FIGURE 2.17 - Approximation d'un pont brownien standard par le D.K.L.

    2.10 Martingales exponentielles

    D'autres martingales sont liées au mouvement brownien. Les considérer permet d'obtenir d'intéressants résultats. La martingale exponentielle ou martingale de Wald, permet en particulier d'obtenir des résultats concernant les processus à accroissements indépendants ayant une dérive.

    On note

    ( )

    óWt - ó2

    Mt = exp 2 t , ?t = 0

    Mt est une martingale par rapport au mouvement brownien, i.e., pour s < t,

    E(Mt|Ws,s < t) = Ms

    2.10.1 Caractérisation de Paul Lévy du mouvement brownien

    Soit {Wt,t > 0} un mouvement brownien. Les processus suivantes sont des martingales continues relativement à la filtration (Ft)t>0

    Xt = Wt (2.19)

    Yt =Wt 2 --t (2.20)

    ft

    Zt = J f (s)dWsf E L2 (version continue de l'intégrale stochastique) (2.21)

    0

    Lt 2

    ó

    = exp ( óWt -- 2 t ) (2.22)

    Preuve Pour (2.19), si s < t alors Xt -- Xs est indépendante de Fs donc on a E(Xt --Xs|Fs) = E(Wt --Ws|Fs) = E(Wt --Ws) = 0

    d'où

    E(Wt --Ws|Fs) = E(Wt|Fs) --Ws = 0 Pour (2.20), de même on a

    E(W2t --W2s |Fs) = E((Wt --Ws)2 + 2Ws(Wt --Ws)|Fs)

    = E((Wt --Ws)2|Fs)+2E(Ws(Wt --Ws)|Fs) = E((Wt --Ws)2|Fs)+ 2WsE((Wt --Ws)|Fs) = E(W2t--s) = t -- s

    d'où

    E(W2t --t|Fs) = Ws2 -- s Vs < t

    Pour (2.21), Si f est une fonction étagée,

    f = ? ëi1]ti,ti+1] i

    le processus Zt

    Zt = f f (s)dWs = ?iëi(Wti+1nt --Wtint)

    est une martingale comme somme de deux martingales arrêtées. De plus,

    2

    E [(fot f(s)dWs ) = E (ft f2(s)ds)

    0

    Si f est dans L2, il existe une suite de fonctions fn qui converge vers f . La somme

    fo fn(s)dWs

    est une suite de martingales. En passant à la limite, on voit que Zt est une martingale. Pour (2.22), on a

    E(Lt|Fs) = E (eóWt-ó2 2tWsWs

    = e-
    = e-

    = e-
    = e-

    ó2

    2 tE(eóWtWsWs)|Fs)

    ó2

    2 tE ( eóWseó(Wt-Ws) |Fs)
    2 teóWsE ( eó(Wt-Ws) |Fs)

    ó2 t óW E aWt_ ) 2 es e s

    et comme on Wt est un processus gaussien à accroissements indépendants et stationnaires, donc Wt-s ~ N(0,t - s) = vt - sN(0,1), d'où

    E(Lt|Fs) = e- ó2 t eóWsE (eóvt-sN(0,1))

    = e- ó2 2 teóWseó2 2 (t-s)

    ó2

    = exp ( óWs - 2 s)

    D'une manière plus générale, le processus Mt est une martingale

    rt

    Mt = exp f (s)dWs - f f2 (s)ds)oùf ? L2

    0 2 f

    En prenant pour fonction ëf on construit une infinité de martingales, le processus Mt devient

    ë2 ft 2

    Mt = exp (ë f f(s)dWs - 2 0 f (s)ds) 0

    En dérivant selon le paramètre ë, on obtient de nouvelles martingales. Pour f = 1, on trouve que Mt = exp ( ëWt - 22 t) est une martingale. En dérivant, on obtient une suite de martingales ?Mt/?ë|ë=0 = Wt, ?2Mt/?ë2|ë=0 = Wt 2 -t, ?3Mt/?ë3|ë=0 = Wt 3 - 3tWt,...

    Théorème 2.2 (Caractérisation de Paul Lévy du mouvement brownien) Soit Xt un processus aléatoire réel continu. Pour que Xt soit un mouvement brownien il faut et il suffit que Xt et X2 t -t soient des martingales pour la filtration propre de Xt.

    Autrement dit, toute martingale continue est un mouvement brownien. L'hypothèse continue est essentielle. Le processus de Poisson Nt est une martingale, même que N2 t - t, mais il n'est pas continu et donc n'est pas un mouvement brownien.

    2.10.2 La loi du temps d'atteinte du mouvement brownien

    Soit Wt un mouvement brownien, les martingales exponentielles permettent de calculer les lois des temps de passage. Soit a > 0, on définit Ta le temps d'arrêt (Chapitre 1 Section 1.9.1), avec T0 = 0

    Ta = inf{t > 0 : Wt = a}

    représentant le premier instant où le mouvement brownien atteint la valeur a. On pose Ta =
    inf(/0) = 8. On peut calculer la transformée de Laplace de la variable aléatoire Ta, en considérant

    la martingale

    ( )

    óWt - ó2

    Ut = exp 2 t

    En arrêtant Ut à l'aide de Ta, on introduit la martingale

    ( )

    óWt?Ta - ó2

    Xt = Ut?Ta = exp 2 (t ? Ta)

    qui converge vers

    ~ ~

    óa - ó2

    exp 2 Ta 1{Ta<8}

    Pour ó > 0, Xt est une martingale bornée puisque Wt?Ta est majorée par a. On peut donc appliquer
    la relation (1.2) à la martingale Xt et au temps d'arrêt Ta, ce qui donne E(XTa) = E(X0) = 1.

    Puisque

    ( )

    óa - ó2

    XTa = exp 2 Ta

    Si l'on pose è = ó2/2, on obtient :

    v

    E(exp(-èTa)) = exp(-a 2è) (2.23)

    On obtient ainsi la transformée de Laplace de la variable aléatoire Ta, cette transformée de Laplace peut être inversée, et cela montre que Ta admet une densité sur R+ donnée par:

    / ~

    a -a2

    fa(x) = v exp ; a > 0, t > 0 (2.24)

    x3 2x

    La loi de Ta s'appelle une loi stable d'indice 1/2 où distribution de Lévy. En particulier, on en déduit que

    P(Ta < 8) = 1 et E(Ta) = 8

    Des formules similaires existent avec -a au lieu de a si a est négatif, par symétrie du mouvement brownien. Le processus -Wt est encore un mouvement brownien, et le temps d'atteinte de a par -Wt est égale au temps d'atteint de -a par Wt.

    Exemple 2.1 Soit Wt un mouvement brownien standard. On note

    Tx = inf{t = 0,Wt = x}

    et on considère une variable exponentielle X de paramètre 1, alors on a

    Z 8 v

    2x

    P(Tx < X) = 0 P(Tx < t)e-tdt = E(e-Tx) = e-

    2.10.3 Les temps de passage du mouvement brownien

    Considérons maintenant a > 0 et b > 0, et soit T = min(Ta,T-b). La martingale Mt =Wmin(T,t) est bornée, donc uniformément intégrable, et on peut appliquer la relation (1.2) au temps T. cela entraîne que :

    0 = E(M0) = E(MT) = aP(T = Ta) - bP(T = T-b)

    Mais {T = Ta} = {Ta < T-b} et {T = T-b} = {T-b < Ta}, de telle sorte que finalement on obtient

    b

    P(Ta < T-b) =

    P(T-b passage

    =
    =
    =

    a

    < Ta) =

    (2.25)

    (2.26)
    (2.27)

    a + b et

    Proposition 2.10 Les temps de

    E(exp(-èT-b)1{T-b<Ta} )
    E(exp(-èTa)1{Ta<T-b} )
    E(exp(-è(Ta ?T-a)))

    a+b

    sont donnés par sinh(a 2è)

    v

    sinh((b + a) 2è)

    v

    sinh(b 2è)

    v

    sinh((b + a) 2è)

    v

    1

    cosh(a 2è)

    v

    ( ) ( )

    Preuve Pour (2.25) on a exp óWt - ó2 2 t et exp -óWt - ó2 2 tsont des martingales, le processus

    Xt = (áexp(óWt) + âexp(-óWt))exp(-ó2t/2)

    est une martingale. Soit T = inf(Ta,T-b) un temps d'arrêt. Le processus Xt?T est une martingale bornée (puisque -b = Wt?T = a). Lorsque t tend vers l'infini, le processus Xt?T tend vers

    (áexp(óWT) + âexp(-óWT))exp(-ó2T/2)

    oil WT vaut

    WT = a1{Ta<T-b} - b1{T-b<Ta}

    Choisissons a et p de sorte que aexp(aa) + pexp(-aa) = 0. Par exemple en prenant, a = exp(-aa)/2 et p = -exp(aa)/2. Le processus

    Xt = sinh(a(Wt - a))exp(-a2t/2)

    est une martingale. Donc le processus arrêté

    Xt?T = sinh(a(Wt?T - a))exp(-a2(t ? T)/2)

    est aussi une martingale. Par conséquent, d'après le théorème d'arrêt (Chapitre 1 Section 1.9.2) E(XT-b) = E(X0) = sinh(-aa) ? sinh(a(-b - a))E(exp(-a2T-b/2)1{T-b<Ta}) = sinh(-aa) et comme la fonction sinh est une fonction impair (sinh(-x) = -sinh(x)), donc on a

    E(exp(-a2T-b/2)1{T sinh(aa)

    b<Ta}) = .

    smh(a(b + a))

    Si l'on pose 0 = a2/2, on obtient

    E(exp(-0T-b)1{T-b<Ta}) =

    sinh(av20)

    sinh((b + a) v20)

    On démontre la formule (2.26) de la même manière, choisissons a et p de sorte que aexp(-ab)+ pexp(ab) = 0, en prenant a = exp(ab)/2 et p = -exp(-ab)/2. Dons le processus

    Xt = sinh(a(Wt + b))exp(-a2t/2) est une martingale. Donc on le processus arrêté

    Xt?T = sinh(a(Wt?T + b))exp(-a2(t ? T)/2) est aussi une martingale. Appliquons le théorème d'arrêt

    E(XTa) = E(X0) = sinh(ab) ? sinh(a(a + b))E(exp(-a2Ta/2)1{Ta<T-b}) = sinh(ab)

    2 sinh(ab)

    ? E(exp(-aTa/2)1 {Ta<T b}) = sinh(a(a + b))

    On a 0 = a2/2, on obtient

    sinh(bv20)

    E (exp(-0Ta)1{Ta<T-b}) -- sinh((b + aW20)

    La troisième formule (2.27) est la somme des deux premières (2.25) et (2.26) dans laquelle on prendra a = b, donc on

    2 sinh(av20)

    E(exp(-0(Ta ?T-a))) =

    sinh(2av20)

    On sait que sinh(2x) = 2 sinh(x) cosh(x) (x = av20), d'oil on trouver

    1

    E(exp(-0(Ta ? T-a))) =

    cosh(av20)

    2.11 Conclusion

    Le mouvement brownien, ou processus de Wiener, joue un rôle fondamental dans de nombreux domaines. A l'heure actuelle, un rôle important en mathématiques financières. Comme on a pu le constater dans ce chapitre, il y a plusieurs façons de simulée une processus stochastique d'une variable aléatoire. Le processus de Wiener est à la base de toutes ces représentations stochastiques. Il entre justement dans la formulation de la partie stochastique de ces divers modèles. Le mouvement brownien arithmétique est le plus simple des processus stochastiques. Mais, pour modéliser le prix d'une action, son principal désavantage est que le rendement de cette action est une fonction décroissante du prix de l'action. On recourt par conséquent au mouvement brownien géométrique pour représenter le mouvement stochastique du prix d'une action. Dans ce chapitre, nous avons présenté le théorème de Paul Lévy qui caractérise un mouvement brownien, et on a montre l'importance du théorème d'arrêt dans les calculs des temps de passages, à cause de la propriété de martingale.

    3

    Processus de Diffusion

    Sommaire

     
     

    3.1

    Introduction

    47

    3.2

    Intégrale stochastique

    48

    3.3

    Equations différentielles stochastiques

    56

    3.4

    Schémas numériques

    65

    3.5

    Les modèles attractives

    75

    3.6

    Conclusion

    83

    3.1 Introduction

    A

    fin de prendre en compte les modélisations de force aléatoires qui interviennent dans les équations de la dynamique comme des termes complémentaires, on a cherché à donner un sens à l'intégrale lorsque celle-ci est prise par rapport à un processus stochastique. Ce chapitre est consacré dans un premier temps à étudier l'intégrale

    Za b f(t,ù)dW(t,ù)

    dans la quelle Wt est un mouvement brownien standard et f un processus stochastique. Si f est une fonction déterministe de classe C1, l'intégrale est une intégrale de Stieltjes classique. Mais si f dépend aléatoirement de la variable ù, comme le mouvement brownien standard n'est nulle part différentiable et que presque toutes ces réalisations n'ont pas de variations bornées, l'intégrale n'a pas de sens. [27] a été le premier à donner un sens à cette intégrale. À la suite des travaux d'Itô, Stratonovitch a proposé une autre définition de l'intégrale stochastique, la construction de l'intégrale d'Itô est assez technique. Dans le contexte de l'intégrale stochastique, nous employons indifféremment la notion de processus de Wiener et celle de mouvement brownien.

    Les systèmes apparaissant dans les applications sont souvent soumis à des perturbations que l'on peut considérer comme aléatoires. Dans le cas où le bruit åt est un bruit blanc gaussien, on peut modéliser l'équation par un mouvement brownien et la traiter comme une équation d'Itô. On note X(t) = (X1(t),...,Xn(t)) le vecteur décrivant l'état du système à l'instant t. On va considérer des processus Xt qui sont solution d'une forme perturbée de l'équation différentielle :

    dXt
    dt

    = u(t,Xt) +ó(t,Xtt (3.1)

    où le vecteur X(t) = (X1(t),...,Xn(t)) décrit l'état du système à l'instant t. L'équation (3.1) peut s'écrire formellement :

    dXt
    dt

    = u(t,Xt) + ó(t,Xt)dWt (3.2)

    dt

    dWt

    dt est la dérivée formelle par rapport au temps d'un mouvement brownien Wt (Chapitre 2 Section 2.4). En fait, la dérivée dWt

    dt n'existe pas (Dans la littérature d'ingénieur, la dérivée de Wiener est souvent appelée bruit blanc). L'équation (3.2) doit être réécrite avec la notation différentielle

    dXt = u(t,Xt)dt + ó(t,Xt)dWt (3.3)

    avec u(t,Xt) et ó(t,Xt) sont des fonctions mesurables localement bornées sur Rn. Dans le cas où le processus Xt est markovien, on a ce qu'on appelle une diffusion.

    Nous décrivons dans ce chapitre des méthodes numériques pour la résolution d'équation différentielles stochastiques (ÉDS). Pour approcher numériquement l'équation (3.3), on utilise

    des schémas aux différences classiques et le fait que pour un pas h donné, les variables W(n+1)h - Wnh suivent des lois gaussiennes indépendantes de variance h. On note xt le processus approché et on considère la subdivision

    0 = t0 < t1 < ··· < tN-1 < tN = T

    de pas régulier

    h = Ät = tn+1 -tn

    Dans le cas multidimensionnel u = (u1,...,ud) et Xt = (X1(t),...,Xd(t)) sont des vecteurs de Rd. Le mouvement brownien a p composantes Wt = (W1(t),...,Wp(t)) et ój = (ó1 j2 j,...,ódj) pour j = 1,...,d. L'équation (3.3) s'écrit

    p

    Xt = u(t,Xt)dt + ? ój(t,Xt)dWj(t)

    i=1

    et se traite de la même manière.

    La dernière partie de ce chapitre concerne l'utilisation des processus de diffusion dans la modélisation et l'étude analytique et par simulation de deux problèmes :

    · Le premier problème est de modéliser une trajectoire d'un polluant, qui se déplace sur une surface d'eau turbulente en présence d'un mécanisme d'attraction, qui est donnée par (Boukhetala 1994,1996 [2, 4]).

    · Le deuxième problème porte sur une modélisation d'un phénomène d'attraction entre deux insectes mâle et femelle, qui est donnée par (Boukhetala 1998 [5]).

    3.2 Intégrale stochastique

    3.2.1 L'intégrale d'Itô

    On considère une espace de probabilité (Ù,.i,P) muni d'une filtration 3t, i.e. une suite de tribus croissantes pour l'inclusion. On appelle tribu des prévisibles sur Ùx [0,8[ la plus petite tribu rendant mesurable tous les processus continus adaptés à la filtration 3t. Un processus ou un ensemble est prévisibles s'il est mesurable par rapport à cette tribu. Supposons donné un processus de Wiener standard Wt, adapté à la filtration 3t et tel que pour tout 0 s t l'accroissement Wt(ù) -Ws(ù) soit indépendant de 3t. Sur un intervalle de temps [a,b], on note H2 l'ensemble des processus f(t,ù) définis pour t E [a,b], 3t-mesurable et de carré intégrable presque sûrement. Dans ces conditions, si f est dans H2 et si a = t0 < t1 < ··· < tn < tn+1 = b est subdivision de l'intervalle [a,b], alors f est indépendant des incrementsWtj+1 -Wtj, en d'autre termes f est prévisible. Pour toute fonction f de H2, on définit l'intégrale stochastique d'Itô comme la limite dans L2 des accroissements ci-dessous (on notera que toutes les limites de cette section sont des limites quadratiques, i.e. dans L2). On définit ainsi l'intégrale stochastique comme la limite des sommes Riemann.

    Za

    b n

    f(t,ù)dW(t,ù) = lim ?f(ti,ù)(W(ti+1) -W(ti))

    n?8i=0

    Cette définition est cohérente avec les propriétés usuelles de l'intégrale. On a de plus quelques propriétés complémentaire liées à la dépendance aléatoire de f

    (1) Si f ? H2 et si fab E(f2(t))dt < 8, alors

    Za b E(f2(t))dWt = 0

    (2) Si f ,g ? H2 et si R b ~E~ f 2(t) + Eg2(t)dt < 8, alors

    a

    ~Z b ~~Z b ~ Z b

    E a f (t)dWt a g(t)dWt = a E(f (t)g(t))dt

    En particulier, on a

    ~Z b ~2 Z b

    a E f 2(t)dt

    E a f (t)dWt =

    Le résultat suivante montre que l'intégrale stochastique est une martingale. Si f (t,ù) ? H2 et si pour tout t ? [a,b], la somme fab E(f2(t))dt < 8, alors l'intégrale stochastique

    Z b

    a

    f (t,ù)dW(t,ù)

    est une martingale (la démonstration dans la page 40) est ces trajectoires sont p.s. continues.

    Exemple 3.1 Calcul de I0 = ft0tWsdWs

    Considérons la subdivision de l'intervalle [t0,t] : t0 < t1 < ··· < tn < tn+1 = t et appliquons la définition. On rappelle que toutes les limites sont des limites prises dans L2

    I0 = lim

    n

    ?

    i=0

    wti [Wti+1 -wti]

    En considérant la somme

    I1 = lim

    n

    ?

    i=0

    Wti+1 [Wti+1 -wti]

    on peut former la différence et appliquer les propriétés du mouvement brownien

    I1 -I0 = lim

    n

    ?

    i=0

    [Wti+1 -Wti]2 = t -t0

    De manière générale, considérons

    Ië = (1 -ë)I0 +ëI1

    On a

    Ië = lim

    n

    ?

    i=0

    wti+1 + (1 - ë)Wti][Wti+1 -wti]

     
     

    = lim

    ?n h ti + ë~Wti+1 -Wti ~2i WtiWti+1 -W2 i=0

    = lim

    n

    ?

    i=0

    h i ~ ~

    1 W2 ti+1 -W2 ë - 1

    + (t -t0)

    ti

    2 2

    ~ ~

    1 ~W2 ~ +

    = t -W2 ë - 1 (t -t0)

    t0

    2 2

    d'où la valeur de l'intégrale d'Itô obtenue pour ë = 0

    rt 1t - t0

    I0 = J2 iW2 -W0 J

    2i

    2

    t0

    Remarquons que ce type de calcul ne respecte pas les lois du calcul différentiel ordinaire puisqu'on voit apparaître un terme supplémentaire. Pour t0 = 0 l'équation

    fto

    WsdWs =1 2W2 t - t 2

    peut s'écrire

    Wt 2 = Z ds + 2 f WsdWs

    soit sous forme différentielle

    dWt2 = dt +2WtdWt

    ce qui montre clairement le terme supplémentaire (dt). Dans les calculs stochastiques, la dérivation doit être poursuivie à l'ordre 2, les termes croisés sont nuls dWt · dt = dt · dWt = 0, de même que le terme dt · dt = 0. En revanche, le terme dWt · dWt = dt donne naissance à un terme supplémentaire.

    3.2.2 L'intégrale de Stratonovitch

    Qui est définie par la limite quadratique

    Za

    lim? nf(ti,ù )+ f (ti+1,ù) (Wti+1 -Wt-i)

    b f(t,ù)?dW(t,ù) =

    2

    i=0

    satisfait les règles du calcul différentiel ordinaire. En reprenant le calcul précédent pour ë = 1/2, on trouve

    ft

    I1/2 = J

    r0

    ws ? dWs = 21 [Wt 2 Wt02]

    Dans ce cas, il n'y a pas de terme supplémentaire. On préfère toutefois développer le calcul stochastique en utilisant la définition d'Itô.

    La fonction ItovsStra permet de simuler l'intégrale stochastique I0 par les deux types Itô et Stratonovitch, sur l'intervalle de temps [0,T] avec un pas Ät = T/N.

    Nous avons observé lors de la construction de l'intégrale stochastique I0 au sens d'Itô dans la figure 3.1, que les trajectoires du processus {J 0 t WsdWs,0 < t < T} pouvaient être négatives à certains instants.

    R> ItovsStra(N = 1000, T = 1)

    FIGURE 3.1 - Simulation l'intégrale stochastique f 0 t WsdWs vs J 0 t Ws ?dWs.

    3.2.3 Processus d'Itô

    On appelle processus d'Itô, un processus {Xt,0 < t < T} à valeur dans R tel que :

    Z t Z t

    Xt = X0 + 0 psds + 0 asdWs (3.4)

    avec

    (1) p = {pt,0 <t < T} eta = {at,0 <t < T} sont des processus adaptés à la filtration {Ft}t=0

    [i T i

    (2) P 0 |ps|ds < 8 = 1

    [i T ]

    (3) P 0s|2ds < 8 = 1

    Écrit sous sa forme différentielle, le processus d'Itô devient

    dXt = utdt + ótdWt (3.5)

    Remarque 3.1 Par conséquent, si le coefficient de dérive est nul, c'est-à-dire que ut = 0 pour tout 0 = t = T, alors le processus d'Itô Xt

    Z t

    Xt = X0 + 0 ósdWs (3.6)

    [i 0 T s|2]

    est une t-martingale si et seulement si E ds < 8 est vérifier.

    3.2.4 Formule d'Itô

    Pour un processus stochastique Xt vérifiant

    Z t2 Z t2

    X(t2) - X(t1) = u(t)dt + ó(t)dWt

    t1 t1

    on note sous forme différentielle

    dXt = u(t,Xt)dt + ó(t,Xt)dWt

    Si f (t,x) est une fonction de classe C2, alors f (t,Xt) admet une intégrale stochastique par rapport au même processus de Wiener donnée par la formule d'Itô

    (?f(t,Xt) ~

    ?t + u(t)? f (t,Xt)

    d f (t,Xt) = ?x + 1 2ó2(t)?2 f (t,Xt) dt + ó(t)? f (t,Xt)

    ?x dWt (3.7)

    ?x2

    Cette formule permet de trouver les solutions de l'équation différentielle stochastique (3.3), et le calcul d'espérance d'un processus donné. Elle permet aussi de montrer que certains processus sont des martingales (puisque l'intégrale stochastique est une martingale).

    Par exemple, si f (x) = x2, alors

    f (Wt) = W2 t et f (W0) = W2 0 = 0

    et

    ? f ?2 f

    ?w(Ws) = 2Ws et ?w2 = 2.

    En remplaçant dans la formule (3.7), nous obtenons

    dW2

    t = dt + 2WtdWt

    sous forme intégrale

    Wt 2 = 2 f WsdWs + f ds = 2 f WsdWs +t

    0 0 0

    ce qui implique

    L.

    t W2 t -t

    WsdWs = 2

    D'une manière générale la dérivé stochastique du processus Xt = Wn t . Posons f(t,x) = xn et appliquons la formule d'Itô. Il vient

    1

    dWt n = 2 n(n-1)Wt n-2dt +nWt n-1dwt

    sous forme intégrale

    1 n-1 ft

    Wn-2ds

    on 2

    Wt = n(n --1) f Wn-2ds+n f

    , 2 0 s wn- 1 dWs f Wn-1dWs = 1 Wtn

    0

    Pour n = n+ 1, on obtient

    fo

    1 n f t

    WndW = Wn+i - Ws n-1ds

    s s n1 t 2 0

    Exemple 3.2 Soit le mouvement brownien géométrique oil le modèle de marché de Black et Scholes (Chapitre 2 Section 2.8)

    dSt = èStdtStdWt (3.8)

    on chercher une solution unique explicite à ce modèle, nous appliquons la formule d'Itô (3.7) à l'équation (3.8), posant f (t,x) = ln(x), on a

    dln(St) = (0 +èSt 1 + 1 ó2S2 dt St 1 dWt

    St 2 t S2 St

    t

    ~ = - 12 ó2) dt + ódWt sous forme intégrale

    ~ln(St) = ln(S0) + è -

    0

    1 a2) f t d s + a I dW s

    0 rt

    2

    = ln (S0) + (è - 2ó2) t + óWt

    1

    d'oil la solution de l'équation (3.8), pour t = 0 et S0 > 0 est

    ~~ ~ ~

    è - ó2

    St = S0 exp t + óWt

    2

    Exemple 3.3 Soit à calculer la dérivée stochastique du processus Yt = eWt, oil Wt est un mouvement brownien standard. Posons Xt = Wt, f (t,x) = ex et appliquons la formule (3.7). il vient

    1

    d (eWt) = 2eWtdt + eWtdWt

    soit sous forme intégrale

    eWt = 1 + 12 o ft eWsds + f teWsdWs

    o

    En prenant l'espérance de chaque membre et en appliquant les règles de calcul du paragraphe précédent (l'espérance de l'intégrale en dWs est nulle).

    t

    E (eWt) = 1 + 2 JO E (eWs) ds

    1

    En posant

    y(t) = E(eWt)

    l'équation précédente est une équation différentielle du premier ordre déterministe en y(t) avec comme condition initiale y(0) = 1

    y (t) = 21 y(t)

    qui admet comme solution y(t) = E(eWt) = et/2

    Remarquons que l'application de la formule d'Itô à la fonction f (t,x) = eiux permet le calcul de la fonction caractéristique de Wt.

    =

    E (eiuWt) e-tu2/2

    Formule d'Itô Multidimensionnel

    Soit Xt un processus de dimension m vérifiant l'équation

    dXt = A(t)dt + B(t)dWt (3.9)

    oil A(t) = (u1(t),...,um(t)) et B(t) = (óij(t)) est une matrice m x n. Le mouvement brownien étant de dimension n Wt = (W1(t),...,Wn(t)). Soit f (t,x) une fonction définie pour t E [a,b] et x un vecteur de Rm à valeurs dans Rp de classe C2, alors le processus f (t,Xt) admet une dérivée stochastique donnée par

    df (t ,Xt) = + 2, ui(t) + L ? ói,k(t k(t) i, ?x2

    ?t i=1 ?x 2 k=1i, j=1 ?2 f(t,Xt)) dt

    (?f (t ,Xt) `--,m ?f (t ,Xt) 1 ,-n -, m

    (3.10)

    n

    + ?

    k=1

    m

    ?

    i=1

    ? f(t,Xt)
    ói,k(t) dWk(t)
    ?x

    Dans le cas, oil la fonction f est indépendante du temps et Xt = Wt est une mouvement brownien sur Rn, la formule d'Itô se simplifie en

    t

    f(Wt) = f(W0)+ f ?f(W,0dWs + 1 f t Äf (WOds (3.11)

    0 2 0

    3.2.5 La règle de multiplication

    La règle de multiplication ou intégration par parties est utile lorsque nous voulons étudier, par exemple le comportement du prix actualisé d'un actif lorsque nous connaissons les processus pour l'évolution du prix de l'actif et celui du facteur d'actualisation.

    Théorème 3.1 (Intégration par parties) Soit Xt et Yt deux processus d'Itô tels que

    dXt = utdt + ótdWt et dYt = -utdt +-ótdWt (3.12)
    la formule d'Itô (3.10) conduit à la formule d'intégration par parties

    dXtYt = XtdYt +YtdXt + d(X,Y)t

    (3.13)

    = (-utXt + uYt + ót-ót)dt + (-ótXt + óYt)dWt

    où la variation quadratique est caractérisée par

    d(X,Y)t = ót-ótdt

    Preuve En particulier lorsque les browniens sont les mêmes et que la matrice B(t) se réduit à un vecteur, la dérivée s'écrit

    df = ( ?t f + ut?x f +-ut?y f + 2 t

    2?xx f +2ót-ót?xy f + ó?yy f)) dt + (ót?x f + -ót?y f)dWt appliquons cette formule a la fonction f(t,x,y) = xy, on trouve directement le résultat

    dXtYt = (utYt +-utXt + ót-ót)dt + (ótYt +-ótXt)dWt

    = utYtdt +-utXtdt + ót-ótdt + ótYtdWt +-ótXtdWt

    = Yt(utdt + ótdWt) + Xt(-utdt + -ótdWt) + ót-ótdt

    = XtdYt +YtdXt +d(X,Y)t

    Exemple 3.4 (La valeur actualisée d'un actif risqué) Supposons que le processus stochastique St satisfaisant l'équation (3.8), est l'évolution du prix d'un titre risqué. Le processus {Yt = e--rt ,t > 0} est notre facteur d'actualisation. Notons que

    d dtYt = --re--rt = --rYt

    c'est-à-dire que le processus Yt est un processus d'Itô satisfaisant l'équation différentielle

    dYt = --rYtdt

    le processus Zt = YtSt represente l'evolution de la valeur actualisee du prix du titre. La règle de multiplication (3.13) entraîne que

    dZt = dYtSt

    = YtdSt + StdYt + d(S,Y)t

    = YtStdt + óStdWt)+ St(--rYtdt)

    = (è -- r)StYtdt + óStYtdWt

    = (è -- r)Ztdt + óZtdWt

    sous sa forme integrale, cette dernière equation s'ecrit

    t t

    f

    Zt = Z0 + (è -- r) f Zsds

    + ó ZsdWs 0 0

    3.3 Equations différentielles stochastiques

    3.3.1 Introduction et définitions

    De manière informelle, on appelle equation differentielle stochastique une equation differentielle ordinaire perturbee par un terme stochastique. Plus precisement, c'est une equation du type suivant :

    dXt = u(t,Xt)dt +ó(t,Xt)dWt, X0 = x0 (3.14)

    Dans cette equation, dWt est la differentielle d'un mouvement brownien standard Wt, et u, ó sont les coefficients de l'equation (ce sont des fonctions de R+ x R dans R), et x0 E R est la valeur initiale. Tous ces termes sont donnes. La notation (3.14) est la plus usuelle.

    Définition 3.1 Rechercher une solution de l'equation (3.14) consistera à rechercher un processus {Xt,t > 0f satisfaisant l'equation integrale :

    t t

    Xt = x0 + f u(s,Xs)ds + f ó(s,Xs)dWs (3.15)

    0 0

    oil la seconde integrale est une integrale stochastique.

    L'equation (3.14) ou l'equation (3.15) etaient jusqu'à present unidimensionnelles. On peut egalement definir une equation d-dimensionnelle de la manière suivante. Le processus inconnu

    s tX = (Xi)1 <1 .<d est une famille de processus a valeurs reelles Xi = (Xi)t>0, la condition initiale

    _ _ _

    x0 = (xi0 ) 1<i<d appartient à Rd, le mouvement brownien W = (W /) est q-dimensionnel,

    1<j<q

    et les coefficients ont les dimensions appropriees, soit u = (ui)1<i<d et ó = (ói,j)1<i oil

    <d,1<j<q'

    les coefficients ui et ói,j sont des fonctions de R+ x R dans R. On ecrit encore l'equation sous les formes (3.14) ou (3.15), mais cela signifie maintenant que l'on a :

    t

    i

    Xit =xi + f p(s x)ds+ ? ai,j(s,Xs)dWsj;i= 1, .. . ,d (3.16)

    j=1

    0 , s q ft --

    o 0

    Définition 3.2 Quand les coefficients p et a ne dependent pas du temps et sont seulement des fonctions définies sur Rd, on dit que l'équation est homogène.

    Le coefficient p est appelé le coefficient de dérive, tandis que a est le coefficient de diffusion. Un processus qui résout l'équation (3.14), ou de manière équivalente (3.16), est appelé processus de diffusion ou, plus simplement, une diffusion.

    Définition 3.3 (Processus de diffusion) Un processus de diffusion est un processus de Markov à trajectoires continues vérifiant l'équation d'Itô (3.14). Soit (Xt)t=0 un processus aléatoire défini sur l'espace de probabilité (Ù,A,P) à valeurs réels, muni d'un filtration (Ft,t = 0). On dit que Xt est une processus de diffusion caractérisée par

    (1) la limite donnant la dérive

    lim

    h?0

    E(Xt+h -Xt|Xt = x)

    = p(x,t)

    h

    (2) la limite donnant la diffusion

    lim

    h?0

    E((Xt+h -Xt)2|Xt = x)

    = a2(x,t)

    h

    (3) la condition de Dyukin

    ?å > 0, lim

    h?0

    P(|Xt+h -Xt| > å|Xt = x)

    = 0

    h

    Remarque 3.2 Le mouvement brownien standard est un processus de diffusion avec coefficient de dérive nulle et coefficient de diffusion égale à 1.

    Preuve

    1

    1

    lim h?0 h

    E(Wt+h -Wt|Wt = x) = lim

    h?0 h

    E(Wt+h -Wt|Wt -W0 = x)

    = lim

    1 hE(Wt+h -Wt)

    h?0

    1

    = lim h(E(Wt+h) - E(Wt)) = 0

    h?0

    lim 1
    h?0 h

    E((Wt+h -Wt)2|Wt = x) = lim hE((Wt+h -Wt)2|Wt -W0 = x)

    1

    h?0

    1

    = limhE~(Wt+h -Wt)2~ h?0

    1

    = lim hh = 1

    h?0

    Exemple 3.5 Le processus d'Ornstein-Uhlenbeck est la diffusion solution de l'équation (de langevin Section 3.3.3)

    dXt = -rXtdt dWt

    r et ó sont des constantes positives et Wt un processus de Wiener standard. On suppose de plus qu'à l'instant initial X0 = x0. En posant

    Yt = Xtert

    et en appliquant la formule d'Itô (3.7) à la fonction f(t,x) = xert, on obtient

    dYt = óertdWt

    sous forme intégrale

    Z t

    Yt = Y0 + ó ersdWs

    t0

    d'où la solution pour t = t0,

    Z t

    Xt = Xt0e-r(t-t0) + ó e-r(t-s)dWs

    t0

    En notant x0 = E(Xt0), le processus d'Ornstein-Uhlenbeck a pour moyenne

    E(Xt) = x0e-r(t-t0)

    En appliquant la formule d'Itô au processus Zt = X2 t , on a

    dZt = -2rZtdt + ó2dt + 2ódWt

    En prenant la moyenne, on trouve en résolvant une équation différentielle ordinaire

    (

    E(Zt) = E(X2 t ) = ó2 1 - e-2r(t-t0)) + E(X2 t0) 2r

    D'où la variance du processus d'Ornstein-Uhlenbeck

    (

    var(Xt) = E(X2 t ) - [E(Xt)]2 = ó2 1 - e-2r(t-t0))

    2r

    La fonction de corrélation du processus d'Ornstein-Uhlenbeck vaut

    ó2 e-r|t-s|

    R(t,s) =

    2r

    Nous pouvons simuler une trajectoire du processus d'Ornstein-Uhlenbeck comme suit. On considère la subdivision de l'intervalle de temps [t0,T] suivante t0 < t1 < ··· < tN < tN+1 = T, avec ti+1 -ti = Ät, pour i = 1 on a W(t0) = W(t1) = 0 et X(t0) = x0, on a l'algorithme suivant :

    1. Générée un nouveau variable aléatoire Z de la distribution gaussienne N(0,1).

    2. i = i+1. v

    3. W(ti) = W(ti-1) + Z Ät.

    4. Ii = e-r(ti+1-ti)(Wi+1 -Wi)

    5. X(ti) = X(t0)e-r(ti-1-t0) + a?i j=1 Ij.

    6. Si i = N + 1, réitérez a l'étape 1.

    La fonction OU permet de simuler une seule trajectoire de Xt dans l'intervalle [t0,T] avec un pas Ät = (T -t0)/N, et la fonction OUF permet de simuler un flux de Xt.

    R> OU(N = 1000, t0 = 0, T = 10, x0 = 10, r = 2, sigma = 1)

    R> OUF(N = 1000, M = 100, t0 = 0, T = 10, x0 = 10, r = 2, sigma = 1)

    FIGURE 3.2 - Trajectoire d'un processus d'Ornstein-Uhlenbeck avec r = 2 et a = 1.

    FIGURE 3.3 - Flux d'un processus d'OrnsteinUhlenbeck avec r = 2 eta = 1.

    3.3.2 Existence et unicité des solutions de l'ÉDS

    Soit T > 0, u(t,x) une fonction mesurable de [0,T] × Rn dans Rn et a(t,x) une fonction mesurable de [0,T] × Rn dans Rn vérifiant :

    (1) Condition de croissance : il existe une constante C telle que

    |u(t,x)| + |a(t,x)| = C(1 + |x|)

    (2) Condition de Lipschitz : il existe une constante K telle que

    |u(t,x) -u(t,y)| + |a(t,x) -a(t,y)| = K|x-y|

    < 0°,

    (3) X0 est une variable indépendante de la tribu a(Ws,s = 0) et E X2 0

    Alors l'équation différentielle stochastique d'Itô (3.14) admet une solution unique Xt dont presque toutes les réalisations sont continues, qui est un processus de Markov de loi initiale X0 et de probabilité de transition

    p(s,x,t,A) = P(Xt ? A|Xs = x)

    De plus, si les fonctions u et a sont continues, alors Xt est un processus de diffusion de dérive u(t,x) et de matrice de diffusion aaT (symétrique et semi-définie positive). En particulier lorsque u et a sont lipschitziennes, l'équation (3.14) admet une solution unique.

    Remarque 3.3 (1) Une équation peut admettre une solution locale sans admettre de solution globale. Par exemple sur [0,1], l'équation

    dXt
    dt

    = X2 t , X0 = 1

    admet une solution unique locale sur [0,1[

    Xt = 1 -t , t ? [0,1[

    1

    mais n'admet pas de solution globale sur l'intervalle [0,1].

    (2) La condition de croissance évite que les solutions explosent, i.e. que les solutions |Xt| tendent vers l'infini en un temps fini. L'équation

    dXt = 2aX3

    1 t dt, Xt = y 1 et y > 0

    admet une solution

    Xt =

    1

    \/

    y2 - at

    qui diverge dans la direction y2 = at. Si la condition de croissance n'est pas satisfaite, l'équation peut quand même avoir une solution.

    (3) La condition de Lipschitz garantit l'unicité. L'équation

    dXt = 3X2/3

    t dt, X0 = 0

    admet plus d'une solution

    Xt = (t-a)31t>a

    car la fonction u(t,x) = 3x2/3 ne vérifie pas la condition de Lipschitz.

    3.3.3 Equation de Langevin

    Des particules dans un fluide sont soumises à une force de frottement proportionnelle à la vitesse de ces particules et à une force aléatoire. La vitesse des particules est processus aléatoire. L'équation fondamentale de la dynamique s'écrit

    dv
    dt

    = -av + c(t)

    avec a = 6mir/m, la masse d'une particule étant m et i désigne la viscosité du fluide. Les particules sont assimilées à des petites sphères de rayon r. La force aléatoire c(t) est un bruit blanc, son espérance est nulle et sa fonction de corrélation est constant, D est appelé coefficient de diffusion d'Einstein.

    E(c(t)) = 0 R(s,t) = 2D8(t -s)

    En termes mathématiques, ce problème s'écrit sous la forme d'une équation d'Itô

    dXt = -aXtdt +v2DdWt (3.17)

    t

    Xt = X0e-at + v2D f ea(t-s)dWs

    o

    Wt est un processus de Wiener standard. Appliquons la formule d'Itô (3.7) à Yt = Xteat, en posant f (t,x) = xeat, on a at f = axeat, ax f =eat et axx f = 0. On en déduit que la solution est le processus de diffusion, markovien, gaussien Xt donné par

    De cette expression, on posant x0 = E(X0), on trouve l'espérance

    E(Xt) = x0e-at

    et la variance du processus

    var(Xt) = D(1 -e-2at)

    a

    La fonction de corrélation du processus est

    R(s,t) = D

    a

    e-a|t-s|

    En supposant que var(X0) < 00, il s'en suit que lorsque t ? 00, on a

    E(Xt) ---? 0

    et

    var(Xt) ---? D/a

    La distribution de Xt approche de la loi N (0, Da ) lorsque t ? 00. Ainsi, quelque soit la distribu-
    tion initiale, la solution de l'équation différentielle stochastique pour des temps très grands suit
    approximativement une loi gaussienne centrée et de variance D/a (Chapitre 4 exemple 4.2), qui

    représente un équilibre entre la force aléatoire de perturbation dWt (que nous avons appelé dans l'introduction un bruit blanc) et la force de frottement -aXt.

    Le code 6 permet de simulée une seule trajectoire de l'équation de Langevin Xt avec un pas Ät = 10-4 (peut être fixé par l'utilisateur),et les deux paramètres a = 2 et D = 1, qui est présentée par la figure 3.4. Et le code 7 permet de simulée l'équation de Langevin en deux dimensions avec les conditions initiales x0 = 5 et y0 = 6, comme c'est illustré par la figure 3.5. C'est-à-dire que on a système d'équation différentielle stochastique de la forme suivante :

    ( v

    dXt = -aXtdt + 2DdW1

    t , X0 = x0

    v

    dYt = -aYtdt + 2DdW2

    t , Y0 = y0

    Avec W1

    t et W2

    t deux mouvements browniens standards indépendants, a = 2 et D = 1.

    FIGURE 3.4 - Trajectoire simulée de l'équation de Langevin avec a = 2 et D = 1.

    FIGURE 3.5 - L'équation de Langevin en deux dimensions avec a = 2 et D = 1.

    3.3.4 Bruit blanc, bruit coloré

    L'interprétation en sciences physiques des équations stochastiques repose sur la notion de bruit blanc ou de bruit coloré. Un processus de Markov continu a des increments X(t +dt)-X(t) qui ne dépendant que du temps t, dt et de X(t) et de manière différentiable pour X(t) = x de t et de x. La continuité de X(t) traduit le fait que l'increment X(t + dt) - X(t) sachant que X(t) = x tend vers 0 quand dt tend vers 0. Cet increment suit une équation de la forme

    v

    X(t + dt) - X(t) = u(t,x)dt + ó(t,x)N(0,1) dt (3.18)

    u(t,x) et ó(t,x) sont des fonctions arbitraires et N(0,1) est une variable aléatoire gaussienne centrée réduite. En remplaçant x par Xt, on a

    X(t +dt) -X(t)

    ó(t,Xt)N(0,1)

    = u(t,Xt)dt +

    vdt

    dt

    Le processus aléatoire N(0, 1)/vdt suit une loi gaussienne N(0,1/dt). La limite de ce processus définit le bruit blanc gaussien

    î(t) = lim

    dt?0

    1

    N ( 0, dt)

    Ce bruit conduit à l'équation de Langevin (3.17)

    dXt
    dt

    = u(t,Xt)dt + ó(t,Xt)î(t)

    Il vérifie les propriétés

    (î(t)) = E(î(t)) = 0

    (î(s),î(t)) = R(s,t) = ä(t - s)

    La fonction de corrélation ne dépend que de la différence ô = t - s. La densité spectrale du

    processus vaut

    +8 +8

    S(ù) = 2J R(ô)e-iùôdô = 2/ -8 ä(ô)e-iùôdô = 2

    Le spectre du bruit blanc est constant et indépendant des fréquences.

    Un bruit coloré est un bruit dont la densité spectrale dépend des fréquences. La couleur est la sélectivité 1 du spectre de fréquences. Donnons deux exemples de bruit coloré

    (1) Le processus d'Ornstein-Uhlenbeck stable (l'exemple 3.5) est un bruit coloré. Il est obtenu à partir du processus d'Ornstein-Uhlenbeck Xt dépendant d'un instant t0 et en faisant tendre le temps initial vers -8

    åt = lim

    t?-8

    Xt = N ( 0, 2)

    2r

    Ce processus est indépendant de la condition initiale x0 et de t. Il vérifie les propriétés

    (å(t)) = E(å(t)) = 0

    2

    Ws), å(t)) = R(s,t) = ó

    2r-r|t-s|

    Lorsque le paramètre r tend vers l'infini, ce bruit coloré tend vers un bruit blanc. Sa densité spectrale est

    S(ù) =

    ó2 +82a2 | e -iùô _7 2a2

    uô =

    r _

    ù2 + r2

    . I 8

    1. Télécommunications capacité d'un récepteur à capter les signaux d'un émetteur tout en éliminant les signaux émis par des fréquences voisines.

    óx (Xt)) dt + dWt (3.21)

    Preuve Appliquant la formule d'Itô (3.7) à la fonction Yt = f (t,x) = fj ól:), avec

    (2) Un autre exemple de bruit coloré est le bruit des télégraphistes. Le processus stochastique est un processus Xt = #177;a, qui ne prend que deux valeurs. L'intervalle de temps entre les changements de signe est distribue exponentiellement. Si on note u le nombre moyen de changement de signe par unité de temps, le processus a pour fonction de corrélation

    (X(s),X(t)) = R(s,t) = a2e-2u|t-s|

    Sa densité spectrale vaut

    8u

    S(ù) = a2 ù2 + 4u2

    3.3.5 Transformée de Lamperti

    Avant d'aborder les méthodes de résolution numérique, nous allons introduire la transformée de Lamperti [30] qui est très utile pour traiter de nombreux processus stochastiques markoviens. Sous la forme différentielle suivante

    dXt = u(t,Xt)dt + ó(Xt)dWt (3.19)

    On appelle la transformée de Lamperti de X, la fonction Y définie de la manière suivante :

    Xt du

    Yt = F(Xt) = fo ó(u) (3.20)

    Avec ce changement de variable, l'équation stochastique (3.19) devient

    dYt = uY (t,Yt)dt + dWt

    avec

    u (t,F-1(y)) uY (t, Yt) = ó (F-1(y))

    1 ?

    2 ?x ó (F-1 (y))

    d'où, on a

    dYt =

    ( 1

    p(t

    ,

    Xt)
    ó(Xt)2

    ?f(t,x)
    ?t

     

    ?f(t,x) 1 ?2 f(t,x) óx(x)

    = 0 , = et =

    ?x ó(x) ?x2 -ó2(x)

    on obtient directement le résultat

    dYt = df(t,x) = (0 +u(t,Xt)

    1 1 2 óx PO 1

    ó (Xt) 2 ) dt + ó(Xt) dWt

    ó (Xt) 2 ó (Xt) óW(t)

    (u(t,Xt) 1

    =

    ó(Xt) 2óx(Xt)) dt + dWt

    L'intérêt de cette transformation est qu'elle supprime le bruit multiplicatifs de l'équation différentielle stochastique initiale au profit d'une équation de Langevin non linéaire avec un bruit blanc simple. Nous allons voir par la suite que sur le plan numérique ce changement de variable est très utile et peut améliorer la précision numérique. Cette transformation a été l'objet de peu de travaux jusqu'à un passé récent, elle est étudié en détail ses propriétés et son intérêt dans [19]. En fait, la transformation de Lamperti peut être envisagée d'au moins deux points de vue. D'une part, elle permet une manipulation indirecte des processus auto-similaires (filtrage, prédiction, etc.) en opérant sur leurs contreparties stationnaires. D'autre part, des outils stationnaires classiques peuvent être "Lampertisés", offrant ainsi de nouvelles façons de manipuler les processus autosimilaires2.

    3.4 Schémas numériques

    De manière similaire aux équations différentielles ordinaires où la résolution numérique passe par une discrétisation du temps et un schéma d'approximation concernant l`intervalle de temps élémentaire sur lequel l'intégration est faite, il est nécessaire de procéder de manière similaire avec les équations différentielles stochastiques, à quelques différences prés :

    (i) Pour une équation ordinaire, la trajectoire étant déterministe (en tout cas pour les exemples simples à une particule, oscillateur harmonique ou anharmonique), on peut contrôler avec la solution exacte la qualité de l'approximation. Avec un processus de Wiener, nous avons vu que deux trajectoires sont très différentes (Figure 2.2), cette différence s'accroissant avec le temps. Si par contre, on cherche à résoudre un processus d'Ornstein-Uhlenbeck (Figure 3.3), on sait que le système évolue vers une distribution stationnaire que la variance des trajectoires est finie.

    (ii) Les schémas d'approximation des méthodes de résolution des équations différentielles sont basés sur le calcul différentiel usuel. Dans le cas des équations différentielles stochastiques, ces schémas reposent sur le calcul différentiel stochastique de nature assez différente.

    (iii) Des questions fondamentales sur l'existence et l'unicité d'une solution pour une équation existent de manière similaire aux équations ordinaires. Sans bien évidemment rentrer dans le détail qui relève de travaux très techniques, il y a deux critères pour prouver l'existence et l'unicité d'une solution sur un intervalle donné (Section 3.3.2)

    Dans beaucoup de literatures peut être vue dans les références, les schémas numériques pour la résolution numérique de l'équation (3.22) ont été proposés dans [22, 29, 31, 37, 40].

    Soit à nouveau la forme différentielle de l'équation différentielle stochastique

    dXt = f(Xt)dt +g(Xt)dWt, X0 = x0, (3.22)

    avec Wt est un processus de Wiener et x0 la valeur initiale. On utilise des schémas aux diffé-
    rences classiques et le fait que pour un pas h donné, les variables W(n+1)h -Wnh suivent des lois

    2. On appelle processus auto-similaires les processus dont la loi est invariante par changement d'échelle des temps.

    gaussiennes indépendantes de variance h. On note xt le processus approché et on considère la subdivision

    0 = t0 < t1 < ··· < tN-1 < tN = T

    (T -t0)

    de pas régulier

    h = Ät = tn+1 -tn =

    N

    oil

    tn = nÄt, n ? {1,2,...,N}.

    Posant la notation suivante Xn = Xtn, les trois variables aléatoires suivantes seront employées dans les schémas

    ÄWn = Wtn+1 -Wtn,

    tn+1 fns

    nÄZn = dW

    Ils sont obtenus comme des variables aléatoires normales, utilisant la transformation suivante ÄWn = în,1(Ät)1/2,

    1

    n1 + în,2)t)3/2,

    ÄZn = 2 ( , v3

    ( ÄZn = 21 n1 -

    .\n/7;) (Ät)3/2.

    Ainsi qu'eux nous employons plus loin Ä l7Vn 1/2, avec P

    = în,2 (Ät) -,n,1, în,2 deux variables indé-

    pendantes de loi N(0,1).

    Schéma d'Euler

    Xn+1 = Xn + fnÄt + gnÄWn (3.23)

    Schéma de Milstein

    Xn+1 = Xn + fnÄt + gnÄWn + 2g0

    1 ngn((ÄWn)2 - Ät) (3.24)

    sds,

    ÄZn = tn+1 fs

    dsdWs.

    tn n

    Schéma de Milstein Seconde

    Xn+1 = Xn + fnÄt + gnÄWn + 2g0

    1 ngn((ÄWn)2 - Ät)+ f0ngnÄZn

    ~ ~

    + g0 n fn + 1 2g00 ng2 ÄZn + 1 6(g02 n gn + g00 ng2 n)((ÄWn)3 - 3ÄtÄWn)

    n

    (3.25)

    Schéma de Itô-Taylor D'ordre 1.5

    Xn+1 = Xn + fnÄt + gnÄWn + 2g0

    1 ngn((ÄWn)2 - Ät) + f0ngnÄZn

    + (gnt fn + 21 gngn) ÄZn + 61 (gnt2gn + gn00gn2)((ÄWn)3 - 3ÄtÄWn)

    ~ ~

    1

    + f n 0 fn + 1 2 f n 00 g2 (Ät)2

    n

    2

    Schéma de Heun D'ordre 2

    (3.26)

    1 Xn+1 = Xn + 2 [F1 + F2]Ät + 12 [G1 + G2]ÄWn (3.27)

    Avec

    F1 = F(Xn), G1 = g(Xn),

    F2 = F(Xn +Ft + GWn), G2 = g(Xn +Ft + GWn),

    ~ ~

    f - 1

    Fx = 2g0g (x).

    Schéma de Runge-Kutta D'ordre 3

    Xn+1 = Xn +

    ~ ~

    1 1 1

    4[F1 + 3F3]Ät + 4[G1 + 3G3]ÄWn + f 0

    2v3 ngn - g0 n fn - 1 2g00 ng2 ÄtÄ eWn (3.28)

    n

    Avec

    F1 = F(Xn), G1 = g(Xn),

    ~ ~ ( )

    Xn + 1

    F2 = F 3Ft + 1 Xn + 1

    3GWn , G2 = g 3Ft + 1 3GWn ,

    ( ~ ( ~

    Xn + 2

    F3 = F 3Ft + 2 Xn + 2

    3GWn , G3 = g 3Ft + 2 3GWn ,

    [ ]

    f -- 1

    Fx = 2g'g(x).

    3.4.1 Simulation numérique

    L'intérêt pratique de la simulation d'équations différentielles stochastiques est très important, car ce n'est pas toujours facile à déterminer la solution analytiquement. Cela rend difficile l'étude de l'évolution dynamique d'un phénomène, où par exemple l'analyse statistique de la variable aléatoire l'instant de premier passage (IPP) correspondant à la solution de l'équation, qui sera illustré dans le chapitre suivant. Aujourd'hui, le développement de l'outil informatique motive les scientifiques pour mettre au point des schémas numériques pour la résolution approchée des ÉDS.

    L'approcher est simple, simuler numériquement Xt jusqu'au temps T, puis approcher l'espérance E(Xt) à l'aide de la loi des grands nombres, c'est-à-dire la moyenne de M trajectoires indépendantes de Xt. Cette dernière technique présente un certain intérêt, surtout lorsque la dimension de Xt est grande. En effet, les méthodes où les schémas numériques deviennent dans ce cas vite lourdes à mettre en oeuvre. La fonction snssde 3 permettre de simulée numériquement la solution approchée des ÉDS par les schémas numériques qui sont en détail dans la section précédente.

    R> help("snssde")

    R> example("snssde")

    R> snssde(N, M, T = 1, t0, x0, Dt, drift, diffusion, Output = FALSE, + Methods = c("SchEuler", "SchMilstein", "SchMilsteinS",

    + "SchTaylor", "SchHeun", "SchRK3"), ...)

    3. simulation numerical solution of stochastic differential equations.

    Détails:

    N La taille de processus.

    M Le nombre de trajectoire à simulée.

    T L'instant final (par défaut égale à 1).

    t0 L'instant initial.

    x0 La valeur initial.

    Dt La discrétisation où le pas (Si Dt est fixée alors par défaut

    T = t0 + Dt * N).

    drift4 Coefficient de dérive (une expression qui dépende de x et de t).

    diffusion5 Coefficient de diffusion (une expression qui dépende de x et de t). Output Pour sauvegardée les résultats de simulation sous forme Excel
    (par défaut c'est FALSE).

    Methods Différents méthodes de simulation (par défaut schéma d'Euler),

    avec SchEuler(3.23), SchMilstein(3.24),SchMilsteinS(3.25), SchTaylor(3.26), SchHeun(3.27), SchRK3(3.28).

    Exemples illustratifs :

    Radial Ornstein-Uhlenbeck (ROU)

    Ce modèle est défini par l'équation différentielle stochastique suivante :
    ( è )

    dXt = - Xt dt + ódWt, x0 > 0.

    Xt

    avec è,ó > 0, en simuler numériquement par la méthode d'Euler (3.23), une seule trajectoire de la solution approché ce modèle qui est présentée dans la figure 3.6. En suite un flux de M = 100 trajectoires indépendantes avec leurs moyenne qui est illustré par la figure 3.7. Posant par exemple è = 1 et ó = 0.25, pour un pas Ät = 0.01 et la valeur initiale x0 = 3.

    R> f <- expression( (1/x) - x )

    R> g <- expression( 0.25 )

    R> snssde(N = 1000, M = 1, t0 = 0, x0 = 3, Dt = 0.01, drift = f,

    + diffusion = g)

    R> snssde(N = 1000, M = 100, t0 = 0, x0 = 3, Dt = 0.01, drift = f,

    + diffusion = g)

    4. u(t,Xt) peut être constant où une fonction qui dépende de x ou t.

    5. ó(t,Xt) peut être constant où une fonction qui dépende de x ou t.

    FIGURE 3.6 - Simulation une seule trajectoire du modèle Radial Ornstein-Uhlenbeck par le schéma d'Euler.

    FIGURE 3.7 - Simulation un flux de 100 trajectoires du modèle Radial Ornstein-Uhlenbeck par le schéma d'Euler.

    Coefficient de dérive en fonction de x et t

    On consider l'équation différentielle stochastique suivante :

    dXt = (átXt -X3 t )dt dWt, x0 = 0.

    Avec á,ó > 0, cette équation n'admet pas une solution de forme explicite. En utilise le schéma de Milstein (3.24), pour simulée numériquement une solution approché de Xt. En remarque que cette équation différentielle est spéciale car les trajectoires simulées de ce processus sont comprises entre #177;vát qui est illustré dans la figure 3.8, c'est-à-dire que la variance de Xt dépende de temps t. La simulation d'un flux de 100 trajectoires de Xt montre que son espérance tend vers 0 quand t tend vers l'infini, qui est donné par la figure 3.9. Posant á = 0.03 et ó = 0.2, pour un pas Ät = 0.1 et la valeur initiale x0 = 0.

    R> f <- expression( (0.03 * t * x - x^3)) R> g <- expression( 0.2 )

    R> snssde(N = 1000, M = 1, t0 = 0, x0 = 0, Dt = 0.1, drift = f,

    + diffusion = g,Methods="SchMilstein")

    R> snssde(N = 1000, M = 100, t0 = 0, x0 = 0, Dt = 0.1, drift = f,

    + diffusion = g,Methods="SchMilstein")

    R> G <- function(t) sqrt(0.03 * t)

    R> t <- seq(0, 100, by = 0.1)

    R> points(t, +G(t), type="l", col="blue", lwd=2)
    R> points(t, -G(t), type="l", col="blue", lwd=2)

    FIGURE 3.8 - Simulation une seule trajectoire du modèle dXt = (0.03tXt -X3 t )dt +0.2dWt par le schéma de Milstein.

    FIGURE 3.9 - Simulation un flux de 100 trajectoires du modèle dXt = (0.03tXt - X3 t )dt + 0.2dWt par le schéma de Milstein.

    Coefficients de dérive et de diffusion en fonction de t

    Soit l'équation différentielle stochastique suivante :

    dXt = cos(t)dt + sin(t)dWt, x0 = 0.

    Cette équation n'admet pas une solution de forme explicite. En utilise le schéma de Itô-Taylor D'ordre 1.5 (3.26), pour simulée numériquement une solution approché de Xt. D'après la figure 3.10 en remarque que l'espérance de Xt égale à x0 + sin(t).

    R> f <- expression( cos(t) ) R> g <- expression( sin(t) ) R> snssde(N = 1000, M = 100, t0 = 0, x0 = 0, Dt = 0.1, drift = f,

    + diffusion = g,Methods="SchTaylor")

    R> G <- function(t) sin(t)

    R> t <- seq(0, 100, by = 0.1)

    R> points(t, G(t), type="l", col="blue", lwd=2)

    FIGURE 3.10 - Simulation un flux de 100 trajectoires du modèle dXt = cos(t)dt + sin(t)dWt par le schéma de Itô-Taylor.

    Remarque 3.4 (Temps d'exécution) Le langage R n'étant pas un langage compilé mais interprété ligne à ligne, les instructions de ce type sont exécutées lentement et on préférera, lorsque c'est possible, utiliser les outils de calcul sur les vecteurs et les matrices (Optimisés sous R). La fonction system.time permet de mesurer le temps d'exécution d'une fonction et de comparer la vitesse d'exécution de plusieurs programmes. On peut gagner un temps considérable (10 à 100 fois plus rapide) en repérant les fonctions qui prennent du temps et en les programmant dans un langage compilé (C en particulier). L'avantage de langage R c'est les calculs formelles (pas besoin de donnée les dérivées de coefficient de dérive et de diffusion dans les schémas numérique).

    3.4.2 Relation entre le schéma d'Euler et Milstein

    L'approximation de schéma de Milstein (3.24) a un ordre fort de convergence égal à 1. Cette méthode améliore donc les instabilité numériques par rapport à la méthode d'Euler (3.23). Toutefois, il y a un lien entre les deux méthodes dans le cas où on peut réaliser une transformée de Lamperti (3.21) de l'équation différentielle stochastique de départ. En effet, dans le cas où l'équation stochastique de départ n'a pas de bruit multiplicatif, comme par exemple dans l'exemple du processus d'Ornstein-Uhlenbeck, la méthode d'Euler a un ordre de convergence fort qui devient égal à 1. Or, avec une transformée de Lamperti (si g(Xt) est indépendante du temps), on peut transformer l'équation stochastique en une autre équation sans bruit multiplicatif. Ainsi, on peut montrer que le schéma d'Euler de l'équation transformée est identique au schéma de Milstein

    sur l`équation originale. Dans le cas où la transformée de Lamperti est difficile à obtenir analytiquement, il est utile d'utiliser le schéma de Milstein qui est plus précis.

    Preuve Soit le schéma de Milstein de l'équation différentielle stochastique (3.22)

    1

    Xn+1 = Xn + fnÄt +gnÄWn +

    2gn0gn((ÄWn)2 - Ät)

    Soit la fonction y = F(x) et l'inverse x = G(y), appliquons la transformée de Lamperti (3.21) à Yt = F(Xt), on trouver

    0

    dYt = (fn gn - 1 2gn) dt +dWt

    En suite appliquons le schéma d'Euler (3.23) a l'équation Yt

    ~ fn ~

    - 1

    ÄY = Yn+1 -Yn = 2g0 Ät + ÄWn

    n

    gn

    Et en appliqué le développement de Taylor à l'inverse de la transformation de Lamperti, i.e. à Xt = G(Yt), on trouver

    G(YnY) = G(Yn)+ G0(YnY + 21 Of (Yn) (Ä112 + OY3)

    Notons

    d

    G0(Yn) = F-1(y) = 1

    F0(G(y)) = gn

    dy

    et

    Gn(Yn) = G0(Yn)g'n = gngn'

    Donc finalement, on a

    G(YnY) - G(Yn) = gnÄY + 21 gngn'Y)2 + OY3)

    ~~ fn ~ ~ ~~ fn ~ ~2

    - 1 - 1

    = gn 2g0 + 1

    Ät + ÄWn 2gng0 2g0 Ät + ÄWn

    n n n

    gn gn

    + OY3)

    ~ ~~ fn ~ ~~~~ fn ~ ~

    gn + 1

    = 2gng0 - 1 2g0 - 1

    Ät + ÄWn 2g0 Ät + ÄWn

    n n n

    gn gn

    + OY3) ~ ~ ~ ~

    gn + 1

    = 2gng0 fn - 1

    nÄWn ÄWn + 2gng0 Ät + Ot3/2)

    n

    = fnÄt + gnÄWn +

    2gn0gn((ÄWn)2 - Ät)+ Ot3/2)

    Puisque on a ÄWn = în,1(Ät)1/2 et (ÄWn)2 = î2 n,1Ät, d'où on trouver le schema de Milstein

    G(YnY) -G(Yn) = Xn+1 -Xn = fnÄt + gnÄWn + 21 gn0 gn((ÄWn)2 - Ät) + Ot3/2)

    Exemple 3.6 (Transformation de modèle Cox-Ingersoll-Ross (CIR)) Le modèle Cox-IngersollRoss (CIR) est utilisé en mathématiques financières pour modéliser l'évolution des taux d'intérêt court terme. Il s'agit de la solution de l'équation différentielle stochastique

    dXt = (è1 - è2Xt)dt + è3vXtdWt, X0 = x0 > 0. (3.29)

    oil sous cette forme

    dXt = ê(è - Xt)dt + óvXtdWt, X0 = x0 > 0. (3.30)

    Notons que la solution de cette de l'équation (3.30) reste strictement positive sous la condition 2êè > ó2. Le paramètre è donne la moyenne à long terme, et ê > 0 donne la vitesse à laquelle le processus va converger vers cet équilibre.

    Appliquons le schéma de Milstein (3.24) à l'équation (3.29), on a :

    ÄX = ( (è1 - è2Xn) - 41 èi) Ät + è3 vXnÄWn + 41 è3 (ÄWn)2 (3.31)

    Maintenant appliquons la formule d'Itô (3.7) à Yt = vXt pour l'équation (3.29), en posant y = f(t,x) = vx, on a ?t f = 0, ?x f = 1/2vx et ?xx f = -1/4x3/2. On obtient :

    dYt =

    2Yt , 1 4 2 1

    ((è1 - è2Y`t,) - è,1) dt + 2 è3dWt

    -

    (3.32)

    Appliquons le schéma d'Euler (3.23) à Yt, on a

    ÄY =

    2Ynn 1 1

    ( (è1 - è2Y2) - 4 è32 ) Ät + 2 è3ÄWn

    Et en appliquant le développement de Taylor à l'inverse de y = vx, c'est-à-dire à G(y) = x2, on obtient :

    G(YnY) - G(Yn) = (Yn + ÄY)2 -Y2n

    = (ÄY)2 + 2YnÄY

    = [ 2Yn ((è1 - è2Y 4

    2) -- 1 è32 ) Ät + 21 è3ÄWn1 2

    + ( (è1 - è2Y2 ) - 41 èi) Ät + Ynè3ÄWn

    = ( (è1 - è2Y2 ) - 14 è32) Ät + è3YnÄWn + 4 è3 (ÄWn)2 + Ot2) On remplace Yt = vXt, on trouve la même résultat (3.31).

    Exemple de simulation

    Le code 8 nous permettre de comparée entre le processus origine Xt (3.29) avec son transformation Yt (3.32), qui est illustré par le graphie 3.11. Posons (è1,è2,è3) = (0.1,0.2,0.05), avec un pas Ät = 0.1 et x0 = 1. (2è1 > è2 3 est vérifie)

    FIGURE 3.11 - Transformation de modèle Cox-Ingersoll-Ross (CIR) dXt = (0.1 - 0.2Xt)dt + 0.05vXtdWt .

    3.5 Les modèles attractives

    Le phénomène de dispersion est un problème complexe, souvent caractérisé par sa diffusion. Beaucoup de situations réelles se comportent naturellement a ce phénomène de dispersion, notamment en environnement, biologie, chimie, etc... La modélisation mathématique ou par simulation du comportement dynamique de tels phénomènes est très difficile, et nécessite souvent un outil puissant, pour décrire le phénomène observé.

    Différentes approches, déterministes et non déterministes ont été proposées par plusieurs auteurs, pour décrire l'évolution des phénomène de dispersion, voir par exemple [23, 26, 24, 2, 4, 5]. Les modèles mathématiques de diffusion dont l'origine est un phénomène biologique (voir le cas particulier du mouvement Brownien), peuvent être un outil de modélisation intéressent pour beaucoup de phénomènes de dispersion. Dans un premier cas, on propose un modèle de dispersion d'un polluant qui se déplace sur une surface d'eau turbulente, en présence d'un mécanisme d'attraction (une cible), qui oriente le polluant vers un point de localisation. Le deuxième modèle décrit le comportement d'une population d'insectes, où deux insecte mâle-femelle s'attirent l'un vers l'autre. On fait les hypothèses suivantes :

    H1 Le mouvement des insectes (les polluantes) est Markovien.

    H2 Le domaine D est compact.

    H3 Le mécanisme d'attraction est suffisamment fort pour attirer les insectes (les polluantes).

    H4 Les insectes (les polluantes) se déplacent, indépendamment les uns des autres.

    H5 Les forces extérieures opposées déplacement de l'insecte (les polluantes) sont négligeables.

    H6 Les taux d'immigration et de mortalité sont négligeables.

    Sous ces hypothèses, la famille de modèles que nous proposons est une idéalisation mathématique d'un système réel complexe, c'est aussi une sorte de simulation par des processus de diffusion du phénomène observé.

    3.5.1 Modèle d'une diffusion en attraction 914ós=1(Vt)

    La pollution est un problème qui menace aujourd'hui la nature des humains et des espèces. En particulier, la pollution de l'eau est un sujet important, auquel beaucoup de scientifiques s'intéressent actuellement. Généralement on utilise les équations aux dérivées partielles déterministes, pour décrire la densité du polluant. Les processus de diffusion sont utilisés comme modèles mathématiques pour décrire le comportement dynamique des particules polluantes [24]. Le modèle que nous proposons ici décrit le comportement dynamique d'une particule en mouvement sur une surface d'eau turbulente [2, 4].

    On suppose qu'on observe à l'instant t, la position Vt = (Xt,Yt) ? D ? 1R2 d'un particule. Le point V0 = (X0,Y0) représente une position initiale du polluant observé. La nature du phénomène observé implique que pour tout t ? [0,T], Vt peut être considéré comme processus de diffusion. On désigne par L(x,y,t) la profondeur de la surface d'eau au point (x,y) et à l'instant t, Uw(x,y,t) et Vw(x,y,t) sont respectivement les champs de vitesses, dus au mouvement d'eau, suivant les directions x et y. Ua(x,y,t) et Va(x,y,t) sont respectivement les champs de vitesses, dus au mécanisme d'attraction, suivant les directions x et y. Le coefficient de dispersion est notée par D(x,y,t). À chaque instant t la position de la particule est supposée être un processus de diffusion Vt = (Xt,Yt), solution de système d'équation différentielle stochastique suivante [4]

    dVt =

    ? ?

    ?

    dXt = (-Ua +Uw + ??Lx Dx ) dt+v2DdWt1

    , t ? [0,T] (3.33)

    dYt = - Va +Vw + ay L D + ?D) dt +v2DdWt2 a y

    Avec

    Ua =

    Kx

    V=

    (V x2 + y2 s+1 a

    Ky ~p x2 + y2s+1 , D(x,y,t) = 2ó2

    1

    ó et K sont des constantes positives, s = 1 et 2K > ó2, Wt1 et W2t deux mouvements browniens standards indépendants. Uw(x,y,t) et Vw(x,y,t) sont supposés négligeable et la profondeur L(x,y,t) est constante.

    Pour chaque particule, on suppose qu'il y a conservation de la masse, ce qui est traduit par l'équation suivante [24]

    ?L

    ?t +

    ?UL + ?x

    ?VL

    = 0 (3.34)

    ?y

     

    Avec

    U(x,y,t) = Uw(x,y,t)+Ua(x,y,t) et V (x,y,t) = Vw(x,y,t)+Va(x,y,t)

    D' où le système (3.33) devient

    ? ???

    ???

    dVt =

    dXt =

    V -KX iq+Yt2Y+1dt + ódWt1

    , t ? [0,T] (3.35)

    dYt = dt dWt2

    (0Q+Yt2y+1

    Appliquons la formule d'Itô multidimensionnel (3.10) au processus Rt = ||(Xt,Yt)||, avec Rt est la distance depuis l' attraction (la cible) a l' instant t. Posant f(x,y,t) = Vx2 +y2, on a ?t f = 0

    ?x f = x

    ?xx f = y2 , ?yf = y ? = x2

    Vx2 + y2 (x2 + y2)3/2 Vx2 + y2 yy f (x2 + y2)3/2

    d'où, la formule d'Itô entraîne

    ~q ~ !

    + D X2

    d X2 t +Y2 t

    -Ua Xt -Va Yt t +Y2

    = p p dt

    t X2 t +Y2 X2 t +Y2 (X2 t +Y2

    t )3/2

    t t

    v2D Xt

    +

    Yt

    VXt 2 Y2 dWt 1 + v2D Xt 2 +Yt2dWt2

    + D

    (VXt 2 +Yt 2 )s+2 Xt 2 +Yt2)s+2

    ?
    ? ?

    =

    KY2

    t

    KXt2

    (X2t +Y2t )3/2

    X2t +Y2t

    ?
    ? ?

    dt

    v 2D

    ~XtdW1 ~

    + p t +YtdW2 t

    X2 t +Y2

    t

    =

    ?
    ? ?

    K~X2 ~

    t +Y2 t (VXt 2 + Yt2)s+2

     

    D

    ?

    v

    ?2D

    dt + (XtdWt 1 + YtdWt2)

    VXt 2+Yt2

     
     

    p

    X2 t +Y2t

    Posant le changement de variable en coordonnées polaire suivant

    {

    Xt = Rt cos(èt) Yt = Rt sin(èt) Ce qui impliquera

    ~ K D

    dRt = - R.; + Rt) dt + v2D (cos(èt)dWt 1 + sin(èt)dWt2)

    Proposition 3.1 Soit Wt 1 et W2t deux mouvements browniens standards indépendants, alors on a
    d -Wt = cos (èt)dWt 1 + sin(èt)dW2t

    est un mouvement brownien standard.

    Preuve d -Wt est un mouvement brownien standard, vérifiant :

    E ( d Wt) = cos(èt)E(dWt 1) + sin(èt)E(dWt 2) = 0

    et

    (- 2

    E ( dWt) = cos2t)dt + sin2t)dt = (cos2t) + sin2t)) dt = dt

    Donc d'après cette proposition le processus Rt est

    KD

    dRt = ( - + dt + v2Dd liit

    Rst Rt

    (72

    = ( - K + - ) dt + ód -Wt Rst 2Rt

    On obtient, après simplification, le processus de diffusion Rt solution de l'équation différentielle stochastique suivante

    {

    ó2 Rs-1-v

    dRt = ( 2 "t s "

    Rt dt + ód Wt- ,

    R0 = a

    a > 0, t ? [0,T] (3.36)

    On s'intéresse particulièrement a la simulations aux deux modèles Mós=1(Vt) et Mós>1(Vt) en 2- et 3- dimensions.

    Simulation du modèle Mós=1(Vt) L'équation de ce modèle, est de la forme

    dXt = -KXt

    t +Y2 t dt + ódW1

    X2 t

    dVt = , t ? [0,T] (3.37)

    dYt = -KYt

    X2 t +Y2 t dt + ódW2

    t

    La fonction RadialP2D_11 6 permet de simuléee le phénomènee du polluant qui se déplacee sur une surface d'eauu turbulente en 2-Dimensionss (figure 3.12). Et la fonction RadialP3D_11 simuler le phénomènee en 3-Dimensionss (figure 3.13). att1in3DD

    6. Le constant v est un rayon d'unee sphèree oùn un cercle qui nous permettre de donnéee lapremièree instant d'attendree la cible par une polluant.

    0.001,

    T =

    1,

    X0

    =

    2,

    Y0

    =

    1,

    0.2)

     
     
     
     
     
     
     
     

    0.001,

    T =

    1,

    X0

    =

    1,

    Y0

    =

    1.25,

    R> RadialP2D_1(N = 10000, t0 = 0, Dt = + v = 0.3, K = 2, Sigma = R> RadialP3D_1(N = 10000, t0 = 0, Dt = + Z0 = 0.5, v = 0.2, K = 2, Sigma = 0.2)

    FIGURE 3.12 - Trajectoire du polluant dans une surface d'eau turbulente en 2--D avec s = 1.

    FIGURE 3.13 - Trajectoire du polluant dans une surface d'eau turbulente en 3--D avec s = 1.

    Simulation du modèleMó s>1(Vt)

    L'équation de ce modèle est donnée par le système d'équation (3.35). La fonction RadialP2D_2 permet de simulée le phénomène du polluant qui se déplace sur une surface d'eau turbulente en 2--Dimensions (figure 3.14). Et la fonction RadialP3D_2 simuler le phénomène en 3--Dimensions (figure 3.15).

    1,

    X0

    =

    2,

    Y0

    =

    1,

    1,

    X0

    =

    1,

    Y0

    =

    1.25,

    R> RadialP2D_2(N = 10000, t0 = 0, Dt = 0.001, T = + v = 0.3, K = 2, s = 2, Sigma = 0.2) R> RadialP3D_2(N = 10000, t0 = 0, Dt = 0.001, T = + Z0 = 0.5, v = 0.2, K = 2, s = 2, Sigma=0.2)

    FIGURE 3.14 - Ttrajectoire du polluant dans
    une surface d'eau turbulente en 2-D avec s > 1.

    FIGURE 3.15 - Ttrajectoire du polluant dans
    une surface d'eau turbulente en 3-D avec s > 1.

    3.5.2 Modèle de deux diffusion en attraction 91,4m

    >0(01)) ?-91,40ó (V(2)

    t )

    Dans le paragraphe suivante, nous allons proposer, un modèle de deux diffusion en attraction [5], l'une de dérive nulle 91q(Vt(2)) et l'autre 91,4'm'>0(Vt (1)), de dérive non nulle. Ce qui peut modéliser le comportement de deux insectes, l'un attire l'autre.

    On considère Vt(1) = (Xt,1,Xt,2) et Vt(2) = (Yt,1,Yt,2) deux processus aléatoire de diffusion, qu'on suppose représentant respectivement les positions d'un insecte mâle et d'un insecte femelle, et que le mâle est attiré par la femelle. Le comportement de la femelle est supposé être un processus de mouvement brownien, défini par l'équation suivante

    dVt(2) = óI2×2dWt (3.38)

    alors que le comportement du mâle est supposé être un processus de diffusion, dont la dérive est
    orientée, à chaque instant t, vers la position de la femelle, et qui est donné par l'équation suivante

    dVt (1) = dVt (2) + um+1 (||Dt||)DtdtI2×2d eWt (3.39)

    i Dt = Vt (1) - Vt(2) tum (||d||) = - ||dKmt||

    K et m sont des constantes positives, et K > ó2.

    Le modèle proposé est de la forme suivante

    dVt (1) =

    ? ????

    ????

    K(Xt,1-Yt,1)

    dXt,1 = dYt,1 - ~v(Xt,1-Yt,1)2+(Xt,2-Yt,2)2~m+1 dt + ód

    K(Xt,2-Yt,2)

    dXt,2 = dYt,2 - ~v(Xt,1-Yt,1)2+(Xt,2-Yt,2)2~m+1 dt + ód

    Cf7t1
    eW2

    t

    ,t ? [0,T] (3.40)

    (

    dYt,1 = ódW1

    dV(2) t

    t = ,t ? [0,T] (3.41)

    dYt,2 = ódW2 t

    avec eW1

    t , eW2 t , W1

    t et W2

    t sont des mouvements Browniens indépendants.

    Appliquons la formule d'Itô multidimensionnel (3.10) au processus Rt = ||(Vt (1),Vt (2))||, avec Rt représente la distance entre les deux insectes a l'instant t. Posant f (x1,x2,y1,y2,t) = p

    (x1 -y1)2 + (x2 -y2)2, on a ?t f = 0

    x1 - y1 (x2 - y2)2

    ?x1 f = p (x1 - y1)2 + (x2 - y2)2 , ?x1x1 f = ((x1 -y1)2 + (x2 -y2)2)3/2

    x2 -y2 (x1 -y1)2

    ?x2 f =p (x1 - y1)2 + (x2 - y2)2 , ?x2x2 f = ((x1 -y1)2 + (x2 -y2)2)3/2

    -

    ?y1 f =

    (x1 - y1) (x2 - y2)2
    p
    (x1 - y1)2 + (x2 - y2)2 , ?y1y1 f = ((x1 -y1)2 + (x2 -y2)2)3/2

    - (x2 -y2) (x1 -y1)2
    ?y2 f = p (x1 - y1)2 + (x2 - y2)2 , ?y2y2 f = ((x1 -y1)2 + (x2 -y2)2)3/2 d'oil, la formule d'Itô entraîne

    ~ ~

    ?t f + A1?x1 f + A2?x2 f + ó2

    d f = 2 (?x1x1 f + ?x2x2 f + ?y1y1 f + ?y2y2 f ) dt

    ~ ~

    + ó (?x1 f + ?y1 f )dW1

    t + (?x2 f + ?y2 f )dW2 t + ?x1 f d eW1

    t + ?x2 f d eW2 t

    = A1

    Xt,1 -Yt,1
    +A2

    \/(Xt,1 -Yt,1)2 + (Xt,2 - Yt,2)2

     

    Xt,2 -Yt,2

     
     

    p

    (Xt,1-Yt,1)2 + (Xt,2 -Yt,2)2

    + ó2 (Xt,1 -Yt,1)2 + A-,2 -Yt,2)2 Xt,1 -Yt,1 d W1

    ((Xt,1 - Yt,1)2 + (Xt,2 - Yt,2)2)3/2)dt + ó -Yt,1)2 + (Xt,2 - Yt,2)2

    + (Xt,1 -Yt,1)2 + (Xt,2 -Yt,2)2 d eW2

    Xt,2 -Yt,2 pt

    Avec

     
     

    A1 =

    D'oil

    -K (Xt,1 -Yt,1)

    et A2 =

    ( 1/ (Xt,1 - Yt 1)2 + (Xt2 - Yt,2)2) m+1

    -K (Xt,2 -Yt,2)

    (1/(Xt,1 -Yt,1)2 +(Xt,2 -Yt,2)2)m+1

    ? ?

    df = ?

    ?

    -K ((Xt,1 -Yt,1)2 + (Xt,2 -Yt,2)2) ?

    +2 + ó2 ((Xt,1 -Yt 1)2 + P(t 2 -Yt 2)2)3/2

    (Xt,1 -Yt,1)2 +(Xt,2 -Yt,2)2

    dt

    (1/ (Xt ,1 - Yt ,1)2 + (Xt ,2 - Y t ,2)2)m ' -

    ó ( (Xt 1 - Yt

    V A,1 - Yt,1)2 + (Xt,2 -Yt,2)2

    ,,1)d Wt 1 + P(t,2 - Yt,2)d Wt2)

    + //

    Posant le changement de variable en coordonnées polaire suivant

    {

    Xt,1 -Yt,1 = Rt cos(èt)

    Xt,2 -Yt,2 = Rt sin(èt)

    Ce qui impliquera que

    df = d (\ I (Xt,1 - Yt,1)2 + (Xt,2 -Yt,2)2) = dRt

    Donc

    -K ó2

    dRt = ( Rtm + Rt) dt + ó ( cos(èt)d iV+ sin(èt)d W-t2)

    2

    ( -K + ó) =dt + ód eWt

    Rm Rt

    t

    On obtient, après simplification, le processus de diffusion Rt solution de l'équation différentielle stochastique suivante

    dRt =

    2Rt;m1-

    { K) dt + ód Wt,

    t a > 0, t ? [0,T] (3.42)

    R0 = a

    Ce modèle permet de réaliser sur ordinateur une simulation dynamique du phénomène réel. Simulation le modèle Móm>0(V(1) t ) ?-M 0 ó (V(2)

    t ) en 2- et 3- Dimensions

    La fonction TwoDiffAtra2D 7 permet de simulée le phénomène en 2-Dimensions, c'est-àdire simulé les deux systèmes d'équations différentielles stochastiques (3.40) et (3.41), qui est donnée par la figure 3.16. Et la fonction TwoDiffAtra3D simuler le phénomène en 3-Dimensions, la figure 3.17 donne une illustration de l'interaction entre deux insectes.

    7. Le constant v est un seuil qui nous permettre de donnée l'instant de la première rencontre entre les deux insectes (voir les détails help("TwoDiffAtra2D")).

    R> TwoDiffAtra3D(N = 5000,

    t0 =

     
     
     

    +

    X3_0 =

    2,

    Y1_0 =

    +

    K = 3,

    m =

    0.2,

    R> TwoDiffAtra2D(N = 2000, t0 = 0, Dt = 0.001, T = 1, X1_0 = 0.5, X2_0 = 1,

    + Y1_0 = -0.5, Y2_0 = -1,v =

    0, Dt -0.5,

    0.01, K

     

    = 2,

    m = 0.25, Sigma = 0.1)

    = 0.001,

    T =

    1,

    X1_0= 1,

    X2_0 = 1,

    Y2_0 =

    -1,

    Y3_0

    = 0.25,

    v = 0.01,

    Sigma = 0.2)

    FIGURE 3.16 - L'interaction entre deux insectes en 2--D.

    FIGURE 3.17 - L'interaction entre deux insectes en 3--D.

    3.6 Conclusion

    Dans ce chapitre, nous avons donner les définitions et les règles essentielles du calcul différentiel et intégral stochastique, et en particulier on a montrer comment on intègre une équation différentielle stochastique à coefficients lipschitziens. L'intégrale stochastique aborde définie globalement sur l'espace de toutes les trajectoires par convergence en L2. La formule de Itô nous a permet de résoudre des ÉDS, ce qui implique son importance dans les calculs analytiques, et on a montre l'intérêt pratique de la simulation d'équations différentielles stochastiques qui est très important, car ce n'est pas toujours facile à déterminer la solution analytiquement, cela rend difficile l'étude de l'évolution dynamique d'un phénomène. Nous avons vues la puissance de la modélisation par les processus de diffusion en présence d'un mécanisme attractive, qui peut represent certain phénomène réelle telle que la trajectoire d'un polluant dans une surface d'eau turbulente.

    4

    Comportement Asymptotique Des Processus

    de Diffusion

    Sommaire

     
     

    4.1

    Introduction

    85

    4.2

    Equation de Fokker-Planck

    85

    4.3

    Processus de diffusion stationnaires

    95

    4.4

    Classification des processus de diffusion linéaire

    96

    4.5

    Calculs de l'instant de premier passage

    108

    4.6

    Conclusion

    115

    4.1 Introduction

    C

    e chapitre est consacré à la présentation de deux équations fondamentales permettant de d'écrire l'évolution des lois de probabilités relatives à un processus de diffusion. Il s'agit

    maintenant d'obtenir l'information maximale possible dans un cadre probabiliste, c'est-à-dire de déterminer les lois de probabilités elles-mêmes, pour décrire l'évolution temporelle d'un système hors d'équilibre obéissant à une dynamique markovienne.

    L'équation de Fokker-Planck ou équation de Kolmogorov progressive est une équation aux dérivées partielles linéaire que doit satisfaire la densité de probabilité de transition p(s,x;t,y) d'un processus de Markov. A l'origine, une forme simplifiée de cette équation a permis d'étudier le mouvement brownien (Chapitre 2), équation qui est assimilable dans ce cas à l'équation de la chaleur. Comme la plupart des équations aux dérivées partielles, elle ne donne des solutions explicites que dans des cas bien particuliers portant à la fois sur la forme de l'équation, sur la forme du domaine où elle est étudiée. À chaque équation d'Itô (3.4) est associée une équation de Fokker-Planck qui décrit l'évolution dynamique de la densité du processus considéré, ainsi sa distribution stationnaire si il existe. Ces équations sont étudiés en détail ses propriétés, méthodes de solutions et simulation dans [18, 21, 25, 35].

    À titre d'illustration, ce chapitre se termine par l'étude et l'analyse statistique de la variable aléatoire l'instant de premier passage "IPP" ("first passage time" en anglais). Dans le modèle d'une diffusion en attraction M ó s=1(Vt) (Chapitre 3 section 3.5.1), le taux ô(s)

    c du polluant qui passe la frontière d'un voisinage d'une cible est analytiquement étudié pour le cas s = 1, le deuxième cas de s > 1 est étudier par simulation [2, 4, 6, 7]. Dans le deuxième modèle de deux diffusion en attraction (Chapitre 3 section 3.5.2), une étude par simulation est effectuée pour la

    ( )

    V(1)

    densité de probabilité de l'instant de la première rencontre ô t ,V(2) entre deux insectes.

    t

    4.2 Équation de Fokker-Planck

    À chaque équation d'Itô

    dXt = u(t,Xt)dt +ó(t,Xt)dWt (4.1)

    correspond une équation aux dérivées partielles que vérifie la probabilité de transition p(s,x;t,y) = p. Cette équation est appelée équation de Fokker-Planck ou équation de Kolmogorov progressive, qui est sous cette forme

    ?p
    ?t

    1?2 (ó2(t,y) · p - ?

    = ?y (u(t,y) · p), (s,x) fixé (4.2)

    2 ?y2

    Il existe une autre équation vérifiée par la densité de probabilité p qui est appelée équation de Kolmogorov rétrograde. Elle porte sur la variable x de départ

    ?p
    ?s

    = 2ó2(s,x) ?2

    1

    (4.3)

    ?x2 p + u(s,x) ? ?x p, (t,y) fixé

    L'équation de Fokker-Planck suppose, comme nous allons le voir, que le processus est markovien et que le bruit est un processus gaussien. Elle n'est donc pas valable pour tous les types de bruits.

    Sous forme multidimensionnel, l'équation de Fokker-Planck ne change pas d'allure, elle est donnée par:

    ?p
    ?t

    = L * p (4.4)

    L* est un opérateur connu sous le nom d'opérateur infinitésimal ou opérateur de Dynkin et prend la forme suivante, en dimension n :

    L = ?

    i

    ui(x) ? + 1 2 ? ói j(x) ?2 ?xi ?xi?xj

    i j

    Prenons un exemple simple. Supposons un processus de Wiener standard avec un coefficient de diffusion constant égale à ó, c'est-à-dire :

    dXt = ódWt

    L'équation de Fokker-Planck de ce processus est :

    ?p ?t (s,x;t,y) = 2ó2 ?2

    1 ?x2 p(s,x;t,y) (4.5)

    On peut vérifiée facilement que la solution de cette dernière est une densité gaussienne :

    1

    p(s,x;t,y) =

    ( )

    -1 (x - y)2

    J exp , t > s et x,y ? R.

    ó 2ð(t - s) 2 ó2(t - s)

    Ce qui est donnée par l'équation (2.5) (Chapitre 2 section 2.3). Ce résultat est souvent cité dans les livres récents en finance quantitative. Pour ce qui concerne le cas d'un mouvement brownien géométrique (Chapitre 2 section 2.8) la solution de l'équation de Fokker-Planck est la densité lognormale p(t,S;t',S'). En effet, supposons le mouvement brownien géométrique pour l'action S :

    dSt
    St

    = èdt dWt, S0 > 0

    alors l'équation de Fokker-Planck est donnée par:

    ?p
    ?t'

    1 ?2

    = ?S'2 (ó2S02p) - ? ?S0 (èS0p), (t,S) fixé (4.6)

    2

    p définit la densité de probabilité de transition d'un état à un autre, t le temps présent et t' le temps futur, S le prix de l'action au temps présent t et S' le prix de l'action à une période future. La solution de l'équation (4.6) est donnée par:

    " [log(S/S0) + (è - (1/2)ó2)(t -t)]2 #

    1

    p(t,S;t ,S0) = óS'J exp -

    2ð(t' -t) 2ó2(t' -t)

    Remarque 4.1 On fait les observations suivantes.

    (1) L'équation de Fokker-Planck est une équation aux dérivées partielles linéaire, dont la solution unique sera fixée par la donnée d'une condition initiale p(x,t0) = p0(x) étant une fonction donnée à l'avance. D'autre part, la solution doit être une fonction positive et intégrable, non seulement localement, mais encore sur tout le domaine accessible à la variable x. Ces conditions définissent des conditions aux limites 1 assurant l'appartenance de l'ensemble des solutions particulières obtenues en tant que modes propres.

    (2) L'équation de Fokker-Planck est déterminée par la fonction de dérive u(x,t) qui caractérise le déplacement du mouvement, et la fonction ó(x,t) > 0 qui, elle, caractérise la diffusion.

    (3) L'équation de Fokker-Planck est dite linéaire2 si :

    u(x,t) = a1 +a2x et ó(x,t) = a3

    et quasi-linéaire si u(x,t) est non linéaire et ó(x,t) = a3.

    (4) Si l'équation différentielle stochastique est linéaire, alors la solution de l'équation de Fokker-Planck est gaussienne.

    4.2.1 L'origine de l'équation de Fokker-Planck

    Soit Xt un processus de Markov de probabilité de transition P(x,t + h|x0,t). On souhaite calculer la dérivée temporelle de la densité de probabilité p(x,t + h) de la variable aléatoire X à l'instant t + h.

    fp(x,t + h) = P(x,t + h|x0,t)p(x0,t)dx0

    a partir des relations

    fP(x,t + h|x0,t) = ä(z - x)P(z,t + h|x0,t)dz

    et

    ä(z-x) = ä(z-x+x0-x0)

    =

    8

    ?

    n=0

    (z -x0)n
    n
    !

    ~ ?)n

    ä(x - x0)

    ?x0

    =

    8

    ?

    n=0

    (z -x0)n
    n
    !

    ~ )n

    - ? ä(x0 - x) ?x

    1. Il convient de noter que certaines conditions aux limites s'expriment physiquement.

    2. Le terme linéaire se rapporte ici aux propriétés de u(x,t) et ó(x,t). L'équation de Fokker-Planck est, elle, toujours linéaire pour p.

    on établit que

    P(x,t +h|x0,t) =

    8

    ?

    n=0

    1 ?

    ( axy

    ä(x0 - x) f (z- x0)nP(z,t + h|x0,t)dz

    n!

    en introduisant les moments

    Mn(x0,t,h) = E((Xt+h -Xt)n|Xt = x0)

    = f (y - x0)nP(y,t +h|x0,t)dy

    on a

    P(x,t +h|x0,t) =

    8

    ?

    n=0

    1 ( ? ?x )n

    n!

    ä(x0 - x)Mn (x0, t , h )

    = (1+
    = (1+

    8

    ?

    n=1

    8

    ?

    n=1

    1 ( ?x ) n n!

    Mn (x0 , t, h )) ä(x0 -x)

    1 ( ?x) n n!

    Mn(x,t,h)) ä(x - x0)

    Mais en considérant que h est petit, on peut écrire

    p(x,t + h) - p(x,t) = h?p(x?t ,t) + O(h2)

    = f (P(x,t + h|x0,t) - 1)p(x0,t)dx0

    =

    8

    ?

    n=1

    , , ! ( - ?xy f ä(x-x0)Mn(x,t,h)p(x0,t)dx0

    = to ( ? n! Mn(x,t,h) p(x,t)

    n=1- ?x)

    Et en utilisant un développement de Taylor pour Mn(x,t,h), on a

    d

    Mn(x,t,h) = f (x - x0)nP(x,t|x0,t)dx+ dh J

    1 (x - x0)nP(x,t|x0,t)dX h=0h+ O(h2)

    = hD(n)(x,t) + O(h2)

    car

    P(x,t|x0,t) = ä(x -x0)

    et avec

    nD(n)(x,t) dh

    = M (x,t ,h)h=0

    d'oil

    (x t)

    p(x,t + h)- p(x,t) = hapat , ' +O(h2)

    =

    co

    E

    n=1

    1 ( a )n D(n)(x,t)p(x,t) n! ax

    On en déduite les équation de Kramers-Moyal [25]

    ap(x,t)
    at

    =

    co

    E

    n=1

    n1! ( aa x) n

    D(n) (x,t)p(x,t)

    (4.7)

    dont l'équation de Fokker-Planck (4.2) est un cas particulier de l'équation de Kramers-Moyal (4.7). Lorsque le bruit est un processus gaussien, comme un bruit blanc, on démontre que les coefficients de Kramers-Moyal sont nuls pour n = 3, c'est-à-dire

    D(n)(x,t) = 0, si n = 3

    Dans ces conditions, l'équation de Fokker-Planck s'écrit

    avec

    ap(x,t)
    at

    a1 a2 ax

    = - D(1)(x" 2 ax2 t)p(x t) + D(2) (x,t)p(x,t)

    D(1)(x,t) = lim 1

    h?0 h

    M1(x,t,h) = lim

    h?0

    1 hE(Xt+h - Xt|Xt = x)

    et

    hE((Xt+h - Xt)2|Xt = x) 1

    M2(x,t,h) = lim

    h?0

    D(2)(x,t) = lim 1

    h?0 h

    4.2.2 Modélisation d'une équation physique

    Avant d'aborder la modélisation, nous annonçons deux théorèmes, donnant l'existe d'une relation simple entre les deux différentielles Itô et Stratonovitch, qui permet de passer de l'une à l'autre pour la résolution d'une équation différentielle stochastique

    Théorème 4.1 (Différentielle d'Itô convertit en différentielle de Stratonovitch) Si un processus stochastique Xt satisfait l'équation d'Itô :

    dXt = u(t,Xt)dt +a(t,Xt)dWt

    alors il satisfait également l'équation de Stratonovitch :

    dXt = u(t,Xt)dt + a(t,Xt)?dWt

    oil le coefficient de dérive modifié u(t,Xt) est défini par :

    u(t,x) = u(t,x) - 1 2 a(t,x)aa a(t,x)

    x

    Théorème 4.2 (Différentielle de Stratonovitch convertit en différentielle d'Itô) Si un processus stochastique Xt satisfait l'équation de Stratonovitch :

    dXt = u(t,Xt)dt + ó(t,Xt) ?dWt

    alors il satisfait également l'équation d'Itô :

    dXt = u(t,Xt)dt +ó(t,Xt)dWt

    oil le coefficient de dérive modifié u(t,Xt) est défini par:

    u(t,x) = u(t,x) + 2ó(t,x)?ó(t,x)

    1

    ?x

    On considère une équation physique déterministe unidimensionnelle soumise à un bruit blanc î(t), sous la forme suivante

    ÿx(t) = u(x,t)+ó(x,t)î(t) (4.8)

    On suppose que le bruit est un processus centré E(î(t)) = 0 et de fonction de corrélation R(s,t) = E(î(s)î(t)) = ä(t - s). Le bruit blanc est modélisé par un processus de Wiener standard Wt. L'équation physique (4.8) se transcrit directement en équation de Stratonovitch

    dXt = u(t,Xt)dt +ó(t,Xt)?dWt (4.9)

    et se convertit en équation d'Itô sous la forme (appliquons le théorème 4.2)

    dXt = A(t,Xt)dt +B(t,Xt)dWt (4.10)

    Avec

    A(x,t) = u(x,t) + 2ó(x,t)?ó(x,t)

    1

    ?x

    et

    B(x,t) = ó(x,t)

    D'où l'équation physique (4.8) se traduit en équation d'Itô sous la forme suivante

    ( )

    dXt = u(t,Xt) + 1 2ó(t,Xt)?ó(t,Xt)dt+ó(t,Xt)dWt (4.11)

    ?x

    L'équation de Fokker-Planck pour l'équation physique (4.8), s'écrit alors

    ?p
    ?t

    t ~

    ? u(x,t) · p + 1 ?

    = - 2ó(x,t) ? + 1

    ?x (ó(x,t) · p) ?x2 (ó(x,t) · p)

    ?x 2

    Dans le cas multidimensionnel, on note x = (x1,...,xn). Le vecteur î(t) = (î1(t),...,îm(t)) représente des bruits blancs centrés et de fonctions de corrélation normées

    Ri j(s,t) = E(îi(tj(t)) = ä(t - s)

    Les quantités u,ó1,...,óm sont des champs de vecteurs sur Rn. L'équation physique multidimensionnel, s'écrit sous la forme

    ÿx(t) = u(x,t) + ó1(x,t)î1(t) +
    ·
    ·
    · + óm(x,tm(t) (4.12)

    se traduit mathématiquement par l'équation de Stratonovitch

    dXt = u(t,Xt)dt +

    m

    ?

    i=1

    ói(t,Xt) 0 dWi(t)

    oil W1(t),...,Wm(t) sont m processus de Wiener standard à valeurs dans Rn. Cette équation correspond à l'équation d'Itô pour i = 1,...,n

    1 ,---,m

    dXl = ui (t ,Xt) + , L

    z j=1

    Si l'on pose

    n

    ?

    k=1

    j

    ?ai.(t,Xt)) m
    ·

    (t x) i dt + ? ói(t ,Xt)dWji (t)

    , t

    ?xk j=1

    n

    ?

    i=1

    L=

    n

    Ai(x) ? + 1 ? Bi j(x) ?2 ?xi 2 ?xi?xj

    i, j=1

    avec

    i j(t,Xt)

    ók j(t,Xt) ?xk

    n

    ?

    k=1

    1 m

    Ai(x) = ui(t,Xt)+ , ?

    z j=1

    et

    n

    Bij(x) = ? óik(xjk(x)

    k=1

    alors le processus de diffusion Xt vérifie l'équation de Fokker-Planck

    ?p
    ?t

    = Lp

    Exemple 4.1 (L'oscillateur de Van Der Pol) On considère l'équation de Van Der Pol pour l'oscillateur 3 électrique, soumis à une fonce d'excitation aléatoire F, qui est centrée et de fonction de corrélation E(FtFt+h) = 2óä(h),

    X2

    it + a (b2 --11 Xÿ + ù20X = F(t) (4.13)

    L'équation de Van Der Pol (4.13) est utilisée pour modéliser des oscillateurs entretenus. Elle n'est pas linéaire et n'a pas de solution explicite. Les paramètres caractéristiques de cette équation sont : la pulsation 4 propre ù0, le paramètre de réaction 5 a et le paramètre de contrôle b.

    3. Électricité : dispositif électrique qui sert à produire un courant alternatif périodique de fréquence déterminée.

    4. Physique : augmentation momentanée et périodique de l'intensité d'une onde.

    5. Physique : processus de modification de la structure d'un noyau atomique avec libération d'énergie.

    On écrit cette équation du second degré sous la forme d'un système d'équations du premier degré

    (Xÿ = Y(X2 ) (4.14)
    Yÿ = -a b2 - 1 Y - ù2 0X + F(t) se traduit mathématiquement par l'équation de Stratonovitch

    (

    dXt = Ytdt ( (X2 ) )

    dYt = - a b2 - 1 Yt + ù2 0Xt dt + 2ó ? dWt

    l'équation (4.13) se traduit à un système d'équations d'Itô sous la forme suivante

    IdXt = Ytdt( (X2 ) ) (4.15)
    dYt = - a b2 - 1 Yt + ù2 0Xt dt + 2ódWt L'équation de Fokker-Planck pour l'équation de Van Der Pol (4.13), s'écrit alors

    ?p
    ?t

    ~ 'x2 ~ ~

    ? ? + ? 0xp) + 1 ?2

    = - ?x(yp) + a b2 - 1 yp ?y(ù2 ?y2 (2óp)

    ?y 2

    = -y

    ~x2 ~ ?

    ? ?y p + ó ?2

    ?x p + a b2 - 1 ?y(yp) + ù2 0x ? ?y2 p

    Simulation numérique de l'équation de Van Der Pol

    La fonction snssde2D6 permettre de simulée numériquement la solution approchée des systèmes d'équations différentielles stochastiques deux dimensions par des schémas numériques classiques.

    R> help("snssde2D")

    R> example("snssde2D")

    R> snssde2D(N, T = 1, t0, x0, y0, Dt, driftx, drifty, diffx, diffy,

    + Step = FALSE, Output = FALSE, Methods = c("SchEuler",

    + "SchMilstein", "SchMilsteinS", "SchTaylor", "SchHeun",

    + "SchRK3"), ...)

    6. simulation numerical solution of stochastic differential equations two-dimensional.

    Details:

    N La taille de processus.

    M Le nombre de trajectoire à simulée.

    T L'instant final (par défaut égale à 1).

    t0 L'instant initial.

    x0 & y0 Les valeurs initiaux.

    Dt La discrétisation où le pas (Si Dt est fixée alors par défaut

    T = t0 + Dt * N).

    driftx & drifty Coefficient de dérive (une expression qui dépende de x, y et de t).

    diffx & diffy Coefficient de diffusion (une expression qui dépende de x, y et de t).

    Output Pour sauvegardée les résultats de simulation sous forme Excel

    (par défaut c'est FALSE).

    Step Pour l'animation, simulation étape par étape (par défaut c'est FALSE).

    Methods Différents méthodes de simulation (par défaut schéma d'Euler),

    avec SchEuler(3.23), SchMilstein(3.24),SchMilsteinS(3.25), SchTaylor(3.26), SchHeun(3.27), SchRK3(3.28).

    Posant par exemple (b,ù0,ó) = (4,2,0.5) et x0 = y0 = 0. On remarque deux états du ce système physique très différents pour le paramètre a = 0 et a > 0,donc on a l'équation physique

    f X· +4X = F(t), a = 0

    ~X2 ~

    X· + 2 16 _ 1 Xÿ + 4X = F(t), a > 0

    se convertit mathématique en équation d'Itô

    (

    dXt = Ytdt , a = 0

    dYt = _4Xtdt + dWt

    et

    (

    dXt = Ytdt ( (X2 ) ) , a > 0

    dYt = _ 2 16 _ 1 Yt + 4Xt dt + dWt

    R> fx <- expression( y ) R> gx <- expression( 0 )

    R> fy1<- expression( -4*x ) R> gy <- expression( 1 )

    R> snssde2D(N = 10000, T = 1, t0 = 0, x0 = 0, y0 = 0, Dt = 0.1,

    + driftx = fx, drifty = fy1, diffx = gx, diffy = gy)

    R> fy2<- expression( -(2*((x/4)^2 -1)*y + 4*x) )

    R> snssde2D(N = 10000, T = 1, t0 = 0, x0 = 0, y0 = 0, Dt = 0.1,

    + driftx = fx, drifty = fy2, diffx = gx, diffy = gy)

    FIGURE 4.1 - L'oscillateur de Van Der Pol, régime permanent sinusoïdal a = 0.

    FIGURE 4.2 - L'oscillateur de Van Der Pol, régime permanent non sinusoïdal a > 0.

    4.2.3 Existence d'une solution

    Soit £ l'opérateur différentiel

    1 ói j(x,t) ?2

    £ = 2 ? +?i ui(x,t) ?

    ?xi?xj ?xi

    i j

    On considère l'equation de Fokker-Planck

    ?p
    ?t

    = L * p

    On etablit que lorsque les coefficients u(x,t) et ó(x,t) sont lipschitziens (Chapitre 3 section 3.3.2) et verifient une condition supplementaire d'uniforme ellipticity, l'equation de Fokker-Planck a une solution unique. Plus precisement, on a le resultat suivante.

    Théorème 4.3 On suppose que les coefficients de l'équation de Fokker-Planck sont lipschitziens et qu'il existe une constante c > 0 telle que les coefficients uij(x,t) vérifient la condition

    ? óij(x,t)yiyj = c|y|2, ?x,y ?

    ij

    |y| est la norme de y, alors il existe une unique solution de l'équation de Fokker-Planck p(s,x;t,y) continue et à dérivées partielles ?xip et ?xi?xj p continues.

    4.3 Processus de diffusion stationnaires

    Un processus aleatoire de diffusion est dite stationnaire si sa densite de probabilite de transition p(s,x;t,y), verifier l'equation suivante

    ð(y) = f p(s,x;t,y)ð(x)dx, ?y ?

    oil ð(y) est appelee distribution stationnaire du processus si il existe. Pour laquelle on a :

    ?p

    ?t = 0

    Peut être obtenue explicitement ou numeriquement en resolvant l'une ou l'autre des equations de Fokker-Planck qui ne depend pas du temps (progressive (4.16) oil retrograde (4.17))

    d 1 d2

    dy (u(y)ð(y))- 2 dy2 (ó2 (y)ð(y)) = 0 (4.16)

    oil

    2

    d

    u(x) d ð(x) + 2 dx21 ó2(x) ð(x) = 0 (4.17)

    Exemple 4.2 (Distribution stationnaire de l'équation de Langevin) Soit à nouveau l'equation de Langevin (Chapitre 3 section 3.3.3),

    dXt = -aXtdt +v2DdWt

    On a E(Xt) = 0 et la fonction de corrélation R(s,t) = (D/a)e-a|t-s| dépende de h = t -s, donc le processus de Langevin est stationnaire au sens faible, c'est-à-dire qui il existe une distributions stationnaire qui vérifier

    ?p
    ?t

    = 0

    d'après l'équation (4.16) ,on a

    d 1 d2

    d (yð(y)) + D d2

    (-ayð(y)) - dy2 (2Dð(y)) = 0 ? a dy2 ð(y) = 0

    dy 2 dy

    ? ayð(y) +Dddyð(y) = 0

    ? ayð(y) = -D ddyð(y)

    a Dy

    = -

    ð1(y)

    ?

    ð(y)

    ? ln|ð(y)| = - 2aDy2 +C

    ? ð(y) = K exp (- 2aDy2)

    Avec K = 1donc on trouve la distributions stationnaire ð(y) de de Langevin,

    v2ð(D/a) , l'

    qui suit une loi gaussienne N(0,D/a)

    1

    ð(y) = exp ( - 1 a y2)

    \I 2ðD 2D
    a 4.4 Classification des processus de diffusion linéaire

    Soit {Xt,0 = t = T} un processus de diffusion, solution de l'équation différentielle stochastique suivante

    dXt = A(t,Xt)dt +B(t,Xt)dWt, X0 = x0 (4.18)

    L'équation (4.18) est dite linéaire si les coefficients de dérive A(t,x) et de diffusion B(t,x) sont de la forme suivante

    A(t,x) = C(t) +D(t)x, avec C : [0,T] ? Rn et D : [0,T] ? 9n,n(R)

    B(t,x) = E(t)+F(t)x, avec E : [0,T] ? 9n,m(R) et F : [0,T] ? L(Rn,9n,m(R)) L(Rn,9n,m(R)) est l'espace des fonctions linéaires continues de Rn dans 9n,m(R).

    Définition 4.1 Une équation différentielle stochastique linéaire est dite homogène si C(t) = E(t) = 0. Et elle est linéaire au sens faible si F(t) = 0.

    Maintenant, on considère l'équation différentielle stochastique (4.18) de coefficient de dérive A(t,x) = r(è - x) avec r > 0, et coefficient de diffusion B(t,x) qui peut être constant, linéaire dépend de x , où du type polynômial. Ces trois types de coefficient de diffusion conduite, respectivement, aux distributions stationnaires Gaussiennes, Gamma, et Bêta7. Nous ressemblant certaines de leurs propriétés dans le suivant.

    4.4.1 Processus de diffusion de type N

    Pour ce modèle, nous avons :

    Coefficient de dérive : A(t,Xt) = r(è - Xt), r > 0.

    Coefficient de diffusion : B(t,Xt) = v2ó, ó > 0.

    ÉDS : dXt = r(è - Xt)dt + v2ódWt.

    ( (x - 2

    Distribution stationnaire : ð(x) = /1

    V2ðäexp0) ) , ä = ó

    r .

    Statistique : moyenne, mode = è,variance = ä.

    Preuve D'après l'équation (4.16) ,on a

    d 1 d2d d2

    dx (r(è - x)ð(x)) - dx2 (2óð(x)) = 0 ? r dx ((è - x)ð(x)) - ó dx2 ð(x) = 0
    2

    ? r(è - x)ð(x) - ó d ð(x) = 0

    dx

    ? r(è - x)ð(x) = ó d ð(x)

    dx

    ð1(x)

    ?

    ð(x)

    = ór (è -x)

    ? ln|ð(x)| = - 2r ó(è - x)2 + C ? ð (x) = K exp (- 2ró (x - è)2)

    , donc on trouve la distributions stationnaire ð(x) de ce type d'équation, qui

    Avec K = v2ð1(ó/r)

    suit une loi gaussienne N(0,ó/r)

    1 (x- è)2) s ó

    ð(x) v2ðä exp ( 2ä ) , u = r

    7. La loi bêta standard B[0,1]

    Simulation numérique de la distribution stationnaire de modèle de type N

    Dans cette simulation il s'agit pas de résoudre numériquement l'équation différentielle ordinaire d'ordre deux (4.16) oil (4.17) pour trouver la distribution stationnaire ð(x) de processus Xt. L'idée est de simulée un flux de M trajectoires de ce processus et en coupant à un instant donnée t, donc on obtient un échantillon de taille M de ce modèle à l'instant t = v que l'on note par Xv = (x1 v,x2 v,...,xM v ). A partir de sa, en fait une analyse statistique a Xv, ainsi l'ajustement de la distribution de la variable aléatoire Xv utilisant deux méthodes, la méthode de histogramme et la méthode du noyau [38]. Avant d'aborder les simulations, nous donnons une présentation de la méthode du noyau.

    Définition 4.2 (Méthode du noyau) La méthode du noyau est une méthode non paramétrique, qui consiste à estimer la densité de probabilité inconnue fX(x) d'une certaine variable aléatoire X, définie sur un domaine D, et dont on connaît qu'un échantillon E = (X1,X2,...,Xn) de sa réalisation. Un estimateur àfn,h(x), dite du noyau, de la variable X, au vu de l'observation de E, est donné par :

    , 1

    àfn,h(x) =

    nh

    n

    ?

    i=1

    K (x hXi)

    K est une fonction, dit noyau, et l'estimateur de cette fonction est caractérisée par le paramètre de lissage h. Cette fonction est supposé bornée, et elle vérifie :

    K(x) = 0 , f K(x)dx = 1

    D

    Les noyaux les plus utilisées sont Gaussien, cosinus, rectangulaire, triangulaire. Le problème fondamental dans l'utilisation de cette méthode est comment choisir le paramètre h, pour obtenir un estimateur optimal de fX(x).

    On considère par exemple le modèle de Vasicek généralisé (VAG) décrit par l'équation différentielle stochastique

    dXt = r(è - Xt)dt + ædWt,X0 = x0 (4.19)

    avec æ = v2ó, la forme explicite de la solution de l'équation (4.19) est :

    t , ,

    Xt = è + (X0 -è)e-rt + æ f e-rv-s)dWs

    0

    La fonction AnaSimX permettre de simulée numériquement un échantillon Xv de taille M à partir d'une EDS.

    R> help("AnaSimX")

    R> AnaSimX(N, M, t0, Dt, T = 1, X0, v, drift, diff, Output = FALSE,

    + Methods = c("Euler", "Milstein", "MilsteinS", "Ito-Taylor",

    + "Heun", "RK3"), ...)

    Posant (r,9,ó) = (2,-2,1) et x0 = 4, donc on ale modèle

    dXt = 2(-2 - Xt)dt + 2dWt,X0 = 4

    /

    R> f <- expression( 2*(-2-x) )

    R> g <- expression( sqrt(2) )

     

    R> AnaSimX(N = 1000, M = 100, t0 = 0,

    Dt = 0.01,

    X0 = 4, v =

    9,

    +

    drift = f, diff = g)

     
     
     

    R> X

     
     
     
     
     
     

    [1]

    -2.1943293

    -2.2719547

    -3.1151950

    -0.6626404

    -2.5430828

    0.3602131

    [7]

    -3.2372479

    -2.0337318

    -1.9326694

    -1.4953072

    -2.9416240

    -1.9643427

    [13]

    -2.0874472

    -2.4104522

    -2.6901473

    -2.1066782

    -1.6935978

    -2.7531990

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    [85]

    -2.3721165

    -2.0848300

    -2.5641703

    -1.6872738

    -0.6147365

    -2.0119820

    [91]

    -2.5983331

    -2.0200177

    -3.7215718

    -1.4605711

    -2.3753241

    -2.3620768

    [97]

    -1.9748765

    -2.2800181

    -2.7551030

    -2.1111137

    -2.3917035

    -1.0311714

    FIGURE 4.3 - Simulation un échantillon de taille 100 à partir du modèle VAG.

    Statistique descriptive:

    R> summary(X)

    Min. 1st Qu. Median Mean 3rd Qu. Max.

    -3.7570 -2.4160 -2.0520 -2.0080 -1.6070 0.3602 R> var(X)

    [1] 0.5546319

    La fonction Ajdnorm permettre d'estimée les paramètres de la loi normale par la méthode de maximum de vraisemblance, ainsi l'intervalle de confiance pour á = 0.95.

    R> Ajdnorm(X, starts = list(mean = 1, sd = 1), leve = 0.95) Profiling...

    $summary

    Maximum likelihood estimation

    Call:

    mle(minuslogl = lik, start = starts)

    Coefficients:

    Estimate Std. Error mean -2.0063018 0.07482636 sd 0.7445129 0.05291131

    -2 log L: 222.5311

    $coef

    mean sd

    -2.0063018 0.7445129

    $AIC

    [1] 226.5311

    $vcov

    mean sd

    mean 5.598984e-03 -3.358252e-08
    sd -3.358252e-08 2.799606e-03

    $confint

    2.5 % 97.5 %

    mean -2.1543897 -1.858205
    sd 0.6517166 0.861606

    La fonction hist_general permettre d'ajusté la distribution de l'échantillon Xv par la méthode de l'histogramme. Et la fonction Kern_general c'est l'ajustement par la méthode du noyau.

    R> help(hist_general) R> help(Kern_general) R> hist_general(Data = X, Breaks = 'Sturges', Law = "Norm")

    R> Kern_general(Data = X, bw='Bcv', k = "gaussian", Law = "Norm")

    FIGURE 4.4 - Ajustement de la distribution stationnaire du modèle VAG par la méthode d'histogramme.

    Test de Kolmogorov-Smirnov :

    FIGURE 4.5 - Ajustement de la distribution stationnaire du modèle VAG par la méthode du noyau.

    R> ks.test(X, "pnorm", mean = -2, sd = sqrt(1/2) )
    One-sample Kolmogorov-Smirnov test

    data: X

    D = 0.0621, p-value = 0.8357

    alternative hypothesis: two-sided

    4.4.2 Processus de diffusion de type G

    Pour ce modèle, nous avons :

    Coefficient de dérive: A(t,Xt) = r(è -Xt), r > 0.

    B(t,Xt) = vóXt, ó > 0.

    Coefficient de diffusion :

    dXt = r(è - Xt)dt + vóXtdWt.

    ÉDS :

    (x )-1+è ä e- x ä

    Distribution stationnaire : ð(x) = ), ä = ó 2r.

    ä ä

    Statistique : moyenne = è, mode = è- ä, variance = äè.

    Preuve D'après l'équation (4.16) ,on a

    d 1 d2

    d ó d2

    dx (r(è - x)ð(x)) - dx2 (óxð(x)) = 0 ? r dx ((è - x)ð(x)) - dx2 (xð(x)) = 0

    2 2

    ? r(è - x)ð(x) - ó d

    2 dx(xð(x)) = 0

    ó

    ? r(è - x)ð(x) = 2(ð(x) + xð'(x))

    ó ó

    ? r(è - x)ð(x) - 2 ð(x) = 2 xð0(x)

    ðe(x)

    ?

    ð(x)

    = 2 (r(è-x)- ó) óx 2

    ðe(x)

    ?

    ð(x)

    (2rè 1 )1 2r ó xó

    (2rè

    ? ln|ð(x)| = - ó 1 ) ln(x)- ó 2r x+C

    ~ ~

    2rè

    ? ð(x) = Kxó -1 exp -2r ó x

    Posant ä = ó2r avec K = ä1-èä / (2), d'où on trouve la distributions stationnaire ð(x) d' une équation de type G, qui suit une loi gamma ã (èä,1) ä

    ~x ~-1+è ä e- x ä

    ð(x) = ~

    ä ä

    Simulation numérique de la distribution stationnaire de modèle de type G

    On considère par exemple le modèle Cox-Ingersoll-Ross (CIR) (Chapitre 3 exemple 3.6) décrit par l'équation différentielle stochastique

    dXt = r(è - Xt)dt + óvXtdWt, X0 = x0 > 0. (4.20)

    Avec la condition 2rè > ó2. Posant par exemple (r,è,ó) = (0.5,3,1) et x0 = 100,Ät = 0.1, donc

    on a le modèle

    1

    dXt = 2 (3 - Xt)dt +vXtdWt, x0 = 100

    simulons numériquement un échantillon Xv=90 de taille 100 à partir de cette équation

    R> f <- expression( 0.5*(3-x) ) R> g <- expression( sqrt(x) )

    R> AnaSimX(N = 1000, M = 100, t0 = 0, Dt = 0.1, X0 = 100, v = 90,

    + drift = f, diff = g)

    R> X

    [1]

    1.9781677

    2.7698461

    1.9426347

    6.8094888

    3.2716436

    11.0541449

    [7]

    1.6495788

    2.7213673

    5.6279096

    4.1147230

    3.6330197

    1.8322262

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    [89]

    2.1697131

    6.5484018

    0.8467619

    2.5333814

    1.1763158

    3.3743554

    [95]

    0.4432751

    3.7510871

    1.6463437

    2.0691975

    1.8540492

    3.8536741

    R> summary(X)

    Min. 1st Qu. Median Mean 3rd Qu. Max.

    0.5483 1.7760 2.7510 3.1900 4.2450 10.0500
    R> var(X)

    [1] 3.492991

    Estimations des paramètres :

    R> Ajdgamma(X, starts = list(shape = 1, rate = 1), leve = 0.95) Profiling...

    $summary

    Maximum likelihood estimation

    Call:

    mle(minuslogl = lik, start = starts)

    Coefficients:

    Estimate Std. Error shape 3.079444 0.4161674 rate 0.962066 0.1412105

    -2 log L: 376.7305

    $coef

    shape rate

    3.079444 0.962066

    $AIC

    [1] 380.7305

    $vcov

    shape rate

    shape 0.17319531 0.05410881
    rate 0.05410881 0.01994040

    $confint

    2.5 % 97.5 %

    shape 2.3372820 3.972203
    rate 0.7104027 1.265122

    Ajustement de la distribution stationnaire ð(x) :

    R> hist_general(Data = X, Breaks='Sturges', Law = "GAmma")

    R> Kern_general(Data = X, bw='SJ', k = "gaussian", Law = "GAmma")

    FIGURE 4.6 - Ajustement de la distribution stationnaire du modèle CIR par la méthode d'histogramme.

    Test de Kolmogorov-Smirnov :

    FIGURE 4.7 - Ajustement de la distribution stationnaire du modèle CIR par la méthode du noyau.

    R> ks.test(X, "pgamma", shape = 3, rate = 1 ) One-sample Kolmogorov-Smirnov test data: X

    D = 0.0722, p-value = 0.6741

    alternative hypothesis: two-sided

    4.4.3 Processus de diffusion de type B

    Pour ce modèle, nous avons :

    Coefficient de dérive : A(t,Xt) = r(è - Xt), r > 0, è ?]0,1[

    Coefficient de diffusion : B(t,Xt) = VóXt(1 -Xt), ó > 0.

    ÉDS : dXt = r(è - Xt)dt + VóXt(1 -Xt)dWt, X0 ? [0,1].

    Distribution stationnaire : ð(x) =

    ~1 ~

    ~~1-è

    ä

    ~è ~x

    ä ä

    -1+è ä (1 - x)-1+1-è

    ä ,ä = ó .

    2r

    è - ä è(1 - è)

    Statistique : moyenne = è, mode = 1 - 2ä, variance = 1+ä .

    Preuve D'après l'équation (4.16) ,on a

    d 1 d2

    dx (r(è-x)ð(x)) - 2 dx2 (óx(1 - x)ð(x)) = 0 ? (1)

    2

    d ó d

    (1) ? r dx ((è - x)ð(x)) - 2 dx2 (x(1 - x)ð(x)) = 0

    ó d

    ? r(è - x)ð(x) - 2 dx(x(1 - x)ð(x)) = 0

    2r

    ? (è - x)ð(x) = ((1 - 2x)ð(x) + x(1 - x0(x))

    ~2r

    ó ~

    ? ó (è - x) - (1 - 2x) ð(x) = x(1 - x)ð'(x)

    ðe(x)

    ?

    ð(x)

    1 (2r(è-x)-ó(1 -2x))

    =

    ó x(1 -x)

    ðe(x)

    ?

    ð(x)

    =

    1 (2rè-ó 2r(1 - è) -ó)
    ó x 1 - x

    2rè- ó 2r(1 -

    ?ln|ð(x)| = ó ln |x|+ ó) - óln |1- x| + C

    2rè

    ? ð(x) = Kxó -1(1 - x)2r(1-è)

    ó -1

    Posant ä = ó2r avec K égale à

    K=

    ~1 ~

    ä

    ~~1-è ~ ä ä

    d'où on trouve la distributions stationnaire ð(x) d'une équation de type B, qui suit une loi bêta standard B ~

    ä, 1-è

    ä

    ð(x) =

    ~1 ~

    ~~1-è

    ä

    ~è ~x

    ä ä

    -1+èä(1 - x)-1+1-è

    ä

    Simulation numérique de la distribution stationnaire de modèle de type B

    On considère le processus de diffusion de Jacobi Xt, solution de l'équation différentielle stochastique

    \/

    dXt = r(è - Xt)dt + óXt(1 - Xt)dWt, X0 = x0 ? [0,1]. (4.21)

    Avec è ?]0,1[. Posant par exemple (r,è,ó) = (2,0.5,1) et x0 = 0,Ät = 0.01, donc on ale modèle

    (1 ) \/

    dXt = 2 2 - Xt dt + Xt(1 - Xt)dWt, X0 = 0.

    Simulons numériquement un échantillon Xv=9 de taille 100 à partir de cette équation

    R> f <- expression( 2*(0.5-x) )

    R> g <- expression( sqrt(x*(1-x)) )

    R> AnaSimX(N = 1000, M = 100, t0 = 0,

    + drift = f, diff = g)

    R> X

    Dt = 0.01,

    X0 = 0, v =

    9,

    [1]

    0.61568827

    0.22363297

    0.23333832

    0.34456437

    0.86391343

    0.67870198

    [7]

    0.82226081

    0.06663198

    0.60156924

    0.58966279

    0.57626142

    0.63231225

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    .

    [89]

    0.43607965

    0.61750493

    0.19505968

    0.87196355

    0.79428433

    0.61846946

    [95]

    0.72321640

    0.45797652

    0.88082305

    0.53119498

    0.49339106

    0.48472011

    R> summary(X)

    Min. 1st Qu. Median Mean 3rd Qu. Max.

    0.01721 0.35020 0.53090 0.51870 0.71230 0.94530

    R> var(X)

    [1] 0.0502775

    Estimations des paramètres :

    R> Ajdbeta(X, starts = list(shape1 = 1, shape2 = 1), leve = 0.95) Profiling...

    $summary

    Maximum likelihood estimation

    Call:

    mle(minuslogl = lik, start = starts)

    Coefficients:

    Estimate Std. Error shape1 2.020047 0.2739796

    shape2 1.909258 0.2571918 -2 log L: -23.83837

    $coef

    shape1 shape2

    2.020047 1.909258 $AIC

    [1] -19.83837

    $vcov

     
     
     

    shape1

    shape2

    shape1

    0.07506481

    0.05515151

    shape2

    0.05515151

    0.06614760

    $confint

     
     

    2.5 %

    97.5 %

    shape1 1.531554 2.607888
    shape2 1.450570 2.460968

    Ajustement de la distribution stationnaire ð(x) :

    R> hist_general(Data = X, Breaks='Sturges', Law = "Beta")

    R> Kern_general(Data = X, bw='Bcv', k = "gaussian", Law = "Beta")

    FIGURE 4.8 - Ajustement de la distribution stationnaire de processus de diffusion de Jacobi par la méthode d'histogramme.

    FIGURE 4.9 - Ajustement de la distribution stationnaire de processus de diffusion de Jacobi par la méthode du noyau.

    Test de Kolmogorov-Smirnov :

    R> ks.test(X, "pbeta", shape1 = 2, shape2 = 2 ) One-sample Kolmogorov-Smirnov test data: X

    D = 0.0803, p-value = 0.5385

    alternative hypothesis: two-sided

    Propriété 4.1 (Diffusion de Pearson) Une diffusion de Pearson8 {Xt,t = 0} [20], est une solution stationnaire à une équation différentielle stochastique de la forme suivante :

    \1 dXt = r(9 - Xt)dt + 2a(aX2 t + bXt + c)dWt (4.22)

    Avec r > 0 c'est la vitesse de convergence vers l'équilibre, et 9 c'est la moyenne à l'équilibre, a > 0. Les paramètres qui caractérise la diffusion a, b et c sont des constants dans R. Remarquons que ce modèle est stationnaire pour certains conditions sur a,b et c, on a

    · Si a = b = 0 et c = 1 ? Processus de diffusion linéaire de type N.

    · Si a = c = 0 et b = 1 2 ?Processus de diffusion linéaire de type G.

    · Si -a = b = 1 2 et c = 0, avec 9 ?]0,1[ ? Processus de diffusion linéaire de type B.

    4.5 Calculs de l'instant de premier passage

    Les instants de premier passage "IPP" jouent un rôle très important en pratique. L'objet de cette étude est de déterminer la densité de probabilité de la variable aléatoire t l'instant de premier passage d'un processus de diffusion Xt. Dans le chapitre 2 la technique des martingales et théorème d'arrêt qui nous a permet de déterminée la loi du temps d'atteinte du mouvement brownien a un point donnée a (le mouvement brownien est un martingale). Dans cette section, on peut utiliser les techniques de la transformée de Laplace, pour déterminer la loi de probabilité de t.

    Soit {Xt,t = 0} un processus de diffusion solution de l'équation différentielle stochastique suivante :

    dXt = u(t,Xt)dt +a(t,Xt)dWt, X0 = x0 (4.23)

    On admet que les coefficients u(x,t) et a(x,t) remplissent les conditions d'existence et unicité de la solution Xt (Chapitre 3 section 3.3.2). Soit D une partie de R que l'on va supposer ouverte et bornée et soit a un élément de D. On défini la variable aléatoire ta :

    ta = inf{t = 0 : Xt ? aD,Xt = a}

    ta représentant le premier instant où le processus Xt frappe la frontière du domaine D.

    8. La fonction PDP permettre de simulée Pearson Diffusions Process. voir help(PDP) pour plus de détails (Package Sim.DiffProc).

    4.5.1 IPP d'une diffusion en attraction M ó s=1(Vt)

    Dans une première partie, pour le cas s = 1, nous allons effectuer une etude analytique,

    afin de determiner explicitement la densite de la variable ô(s=1)

    c , cette loi de probabilite permet

    d'approximer pour ce modèle, le taux des polluants qui depasse la frontière ?D(0,c). Pour le cas
    de s > 1, la simulation est utilisee pour determiner approximativement la densite de la variable

    (s>1)

    ôc [2, 4, 6, 7].

    Modèle Mós=1(Vt)

    L'equation de ce modèle, pour le processus radial Rt, est de la forme :

    RdR0 = a

    t = ó22(1R-t Wt

    k)dt + ad ,

    {

    a > 0, t ? [0, T] (4.24)

    Avec k = 2K ó2 pour des raisons de calcul. On utilise l'equation (4.24) pour determiner explicitement la loi de probabilite de ô(1)

    c.

    La probabilite de transition ft(r|a) represents la densite de Rt avec R0 = a, qui est donne par l'equation de Fokker-Planck retrograde (4.3) :

    ? ó2 ? ó2 ?2

    ?t ft(r|a) = (1-k) 2a ?a ft(r|a) + 2 ?a2 ft(r|a) (4.25)

    avec la condition initiale f0(r|a) = ä(a - r), où ä(.) fonction de Dirac.

    La forme analytique de la densite ft(r|a) peut être explicitement determinee en inversant son transforment de Laplace fë(r;a), qui est la solution de l'equation suivante :

    ó2 ?2 ó2 ?

    2 ?a2 fë(r; a) + (1-k) 2a ?a fë(r; a) - ëfë(r; a) = -ä(a - r) (4.26)

    Puisque :

    a?t ft (rla) =

    t

    e

    L ( ) ët ?t ft(r|a)dt = - f0(r; a) + ëfë(r; a)

    f

    0

    Une technique standard [39, 5], la solution de l'equation (4.26) pouvoir être formellement ex-prime comme :

    -2g1,ë(r)g2,ë(a)

    a > r (4.27)

    fë(r;a) =

    ó2 (g1,ë(r)g02,ë(a) - g01,ë(r)g2,ë(a)

    ),

    avec :

    )

    g1ë(a) = amIm av )

    et g2,ë(a) = amHm

    a v2ë

    ó ó

    avec m = k - 12, Im et Hm sont respectivement les fonctions de Bessel modifiée [39] de première et seconde ordre, définies par :

    Im(z) =

    8

    ?

    i=1

    , I-m(z) - Im(z)

    (-1)i ( z ) 2i+m n et Hm(z) =

    i!(i+m+ 2 sin(mð)

    rn+1) 2 I

    \

     

    On remplace g1,ë et g2,ë dans l'équation (4.27), on trouver :

    22 (a )m+1 r23 Hm a Im rv2A a > r (4.28)

    ,

    fë(r; a) =

    ó va r ) ó ó

    l'inverse de l'équation (4.28), est donnée par :

    ~ 1 ~~a ~k r ~ ~

    r3 -a2 + r2 ~ ar ~

    ft(r|a) = a exp Im (4.29)

    ó2t r 2t ó2t

    Maintenant nous définissons la variable aléatoire ô(1) cpar :

    ô(1)

    c = inf{t = 0 : Rt = c, R0 = a}

    On a,

    f (1) (ë) = E(e-ë41) |R0 = a) = g2,ë(a)

    a = c

    ôc g2 ë (c) ,

    Pour des petites valeurs de c, nous obtenons ([5, 6])

    (avó2ë)m

    fe) (ë) =

    2m-1(m)Hm

    av2ë)

    en inversant (4.30), on trouve l'expression analytique de la densité de probabilité de la variable aléatoire ô(1) c , donnée par :

    1 i a2\ m-1 exp ( a2

    fôc (1)(ô) = 2(m) 2ó2ô ) 2ó2ô) (4.31)

    Le changement de variable :

    donne

    X=

    a2
    ó2ô

     

    (1 )m
    fX
    (x) = 2 xm-1e-2

    (m)

    d'où, on a :

    a2 1)F,41)(ô) = 1 - F(m1/2) (ó2 ô

    1 _ 2K 1- 9

    avec m = k - 2 2 et (m, 1/2) est la loi gamma.

    -- a2

    Remarque 4.2 La condition 2K > ó2, doit être vérifier (Chapitre 3 section 3.5.1)

    (4.30)

    ó

    Simulation la variable ô(1)

    c

    La fonction tho_M1 permettre de simulée un échantillonne de taille M = 50 de la variable

    aléatoire ô(1)

    c . Avec K = 2 etó= 1, le pas Ät = (T-t0)/N, et le c = v = 0.5.

    R> tho_M1(N = 1000, M = 50, t0 = 0, T = 1, R0 = 1, v = 0.5, K = 2,

    +

    R> FPT

    sigma =

    1)

     
     
     
     
     
     
     
     

    [1]

    0.245

    0.037

    0.113

    0.050

    0.060

    0.046

    0.107

    0.182

    0.232

    0.056

    0.032

    [12]

    0.219

    0.085

    0.065

    0.090

    0.032

    0.083

    0.147

    0.065

    0.053

    0.072

    0.073

    [23]

    0.074

    0.040

    0.099

    0.101

    0.177

    0.072

    0.089

    0.198

    0.108

    0.088

    0.058

    [34]

    0.071

    0.181

    0.209

    0.117

    0.082

    0.057

    0.136

    0.078

    0.133

    0.026

    0.121

    [45]

    0.079

    0.331

    0.158

    0.090

    0.091

    0.074

     
     
     
     
     
     

    Les deux figures 4.10 et 4.11 donne une illustration de l'instant où le processus Rt frappe la frontière du domaine D. On défini le domaine D par un cercle de rayon c = v = 0.3 (en deux dimensions), et par une sphère de rayon c = v = 0.3 (en trois dimensions).

    1

    ô(1)

    c

    FIGURE 4.10 - L'instant de premier passage du modèle Mó s=1(Vt) en 2-D.

    Estimation de la distribution de Y = a2 ó2

    FIGURE 4.11 - L'instant de premier passage du modèle Mó s=1(Vt) en 3-D.

    R> Y = 1/FPT

    R> Ajdgamma(Y, starts = list(shape = 1, rate = 1), leve = 0.95) Profiling...

    $summary

    Maximum likelihood estimation Call:

    mle(minuslogl = lik, start = starts)

    Coefficients:

    Estimate Std. Error shape 3.5297529 0.68206463 rate 0.2684711 0.05574823 -2 log L: 319.8036

    $coef

    shape rate

    3.5297529 0.2684711

    $AIC

    [1] 323.8036

    $vcov

     
     
     

    shape

    rate

    shape

    0.46521216

    0.035382963

    rate

    0.03538296

    0.003107865

     

    $confint

    2.5 % 97.5 %

    shape 2.3624031 5.0474887 rate 0.1731289 0.3925789 R> hist_general(Data = Y, Breaks='Sturges', Law = "GAmma")

    R> Kern_general(Data = Y, bw='SJ', k = "gaussian", Law = "GAmma")

    FIGURE 4.12 - Ajustement de la distribution de

    1/'rs=1

    c par la méthode d'histogramme. FIGURE 4.13 - Ajustement de la distribution de

    1/'rs=1

    c par la méthode du noyau.

    Modèle M ó s>1(Vt)

    Le processus de diffusion radial, qui décrit ce modèle est donné par l'équation différentielle stochastique suivante :

    ? ?

    ?

    ( ó2 )

    2 Rs-1

    t -K

    dRt = dt + ód -Wt,

    Rst

    R0 = a

    a > 0, t E [0,T] (4.32)

     

    L'estimation de la densité de probabilité de la variable aléatoire ô(s>1)

    c sera effectuée sur la base

    de la simulation d'un flux de trajectoires. Les observations simulées de la variableô(s>1)

    c , seront

    traitées statistiquement par deux méthodes, la méthode de l'histogramme et la méthode du noyau, pour estimer sa densité. Ce modèle est analytiquement difficile à résoudre.

    Simulation la variable ô(s>1)

    c

    La fonction tho_M2 permettre de simulée un échantillonne de taille M = 50 de la variable

    aléatoire ô(s>1)

    c . Avec s = 2, K = 3 et ó = 1, le pas Ät = (T -t0)/N, et le c = v = 0.5.

    R> tho_M2(N = 1000, M = + Sigma = 0.3)
    R> FPTT

    [1] 0.856 0.827 0.763

    [12] 0.840 0.848 0.918

    [23] 0.805 0.840 0.557

    [34] 0.993 0.599 0.867

    [45] 0.880 0.880 0.739

    50,

    0.795 0.952 0.821 0.790 0.602

    t0 = 0,

    0.710 0.662 0.833 0.935 0.794

    T =

    0.963 0.775 0.707 0.639 0.932

    1, R0

    0.948 0.894 0.661 0.868

    = 2, v = 0.5,

    0.620 0.895

    0.769 0.599

    0.597 0.751

    0.973 0.579

    K = 3, s =

    0.788 0.831

    0.676 0.971

    0.694 0.732

    0.832 0.904

    2,

     

    On fait l'ajustement de la variable Y = 1/ôs=2

    c par les lois : gamma, exponentiel, lognormale et

    weibull. Le meilleur modèle est choisi par le critère AIC (minimum AIC).

    R> Mod1 <- Ajdgamma(Y, starts = list(shape = 1, rate = 1), leve = 0.95)

    $AIC

    [1] 197.0462

    R> Mod2 <- Ajdweibull(Y, starts = list(shape = 1, scale = 1), leve = 0.95) $AIC

    [1] 203.6206

    R> Mod3 <- Ajdexp(Y, starts = list(lambda = 1), leve = 0.95)

    $AIC

    [1] 294.9443

    R> Mod4 <- Ajdlognorm(Y, starts = list(meanlog = 1, sdlog = 1), leve = 0.95) $AIC

    [1] 199.8586

    En remarque que la loi gamma ajuste mieux la distribution de la variable aléatoire Y = 1/ôs=2

    c ,

    selon le critère AIC.

    4.5.2 IPP de deux diffusion en attraction M ó m>0(V(1)

    t ) ?- M 0 ó (V(2)

    t )

    Le processus de diffusion Xt qui décrit ce modèle est donné par l'équation différentielle stochastique suivante :

    { (ó2Xm-1 ~

    X0 = a

    t -K

    dXt = dt + ód eWt,

    Xm t a > 0, t ? [0,T] (4.33)

    K et m sont des constantes positives, et K > ó2.

    L'estimation de la densité de probabilité de la variable aléatoire ôc(V(1)

    t ,V(2)

    t ) sera effectuée sur la base de la simulation. Cette variable représente l'instant de la première rencontre entre les deux insectes, défini par:

    ôc(V(1)

    t ,V(2)

    t ) = inf{t = 0 : Xt = c}

    La fonction tho_02diff permettre de simulée un échantillonne de taille M = 50 de la variable aléatoire ôc. Avec K = 4, m = 0.5 et ó = 0.2, le pas Ät = 0.01, et le c = v = 0.05.

    R> tho_02diff(N = 1000, M = 50, t0 = 0, Dt = 0.001, T = 1, X1_0 = 1,

    + X2_0 = 1, Y1_0 = 0.5, Y2_0 = 0.5, v = 0.05, K = 4, m = 0.5,

    + Sigma = 0.2)

    R> FPT

    [1]

    0.140

    0.085

    0.104

    0.177

    0.112

    0.098

    0.067

    0.085

    0.142

    0.128

    0.086

    [12]

    0.085

    0.100

    0.080

    0.132

    0.120

    0.108

    0.083

    0.089

    0.074

    0.073

    0.085

    [23]

    0.057

    0.163

    0.114

    0.076

    0.106

    0.167

    0.076

    0.110

    0.105

    0.095

    0.098

    [34]

    0.102

    0.112

    0.096

    0.120

    0.066

    0.097

    0.098

    0.097

    0.091

    0.083

    0.091

    [45]

    0.109

    0.071

    0.181

    0.157

    0.083

    0.093

     
     
     
     
     
     

    De même on fait l'ajustement de la variable Y = 1/ôc par les lois : gamma, exponentiel, lognormale et weibull. Le meilleur modèle est choisi par le critère AIC (minimum AIC).

    R> Mod1 <- Ajdgamma(Y, starts = list(shape = 1, rate = 1), leve = 0.95)

    $coef

    shape rate

    16.079041 1.544863 $AIC

    [1] 234.4629

    R> Mod2 <- Ajdweibull(Y, starts = list(shape = 1, scale = 1), leve = 0.95) $coef

    shape scale

    4.403975 11.394287 $AIC

    [1] 235.836

    R> Mod3 <- Ajdexp(Y, starts = list(lambda = 1), leve = 0.95)

    $coef

    lambda

    0.09607808

    $AIC

    [1] 329.5738

    R> Mod4 <- Ajdlognorm(Y, starts = list(meanlog = 1, sdlog = 1), leve = 0.95) $coef

    meanlog sdlog

    2.3111742 0.2560689 $AIC

    [1] 236.0461

    En remarque après cette simulation que la loi gamma ajuste mieux la distribution de la variable aléatoire Y = 1/'rc, mais si on répète les simulations on remarque que les lois weibull et lognormale ajuste aussi mieux la distribution de 1/'rc.

    4.6 Conclusion

    Dans ce chapitre nous avons vues l'importance de décrire l'évolution dynamique de la densité de transition du processus considéré, cela repose sur la résolution d'une équation aux dérivée partielle, qui ce n'est pas toujours facile à déterminée sa solution, car les conditions aux limites sont généralement exprimées physiquement. La simulation des processus de diffusion est un objet très puissant pour simulée l'instant de premier passage "IPP" dans les modèles attractives. Les méthodes d'ajustements de la distribution de probabilité, histogramme et méthode de noyau son efficace.

    Conclusion générale

    I

    l y a plus d'un demi siècle que la théorie des processus de diffusion a été introduite, sous certaines conditions, les équations différentielles stochastiques de type Itô, sont des proces-

    sus de diffusion. Ce travail a été consacré à l'utilisation de l'aspect théorique des EDS, comme un outil mathématique, dans la modélisation de certains phénomènes réels, présentant un intérêt pratique, où on démontre, à travers ces exemples pratiques, l'importance et l'intérêt de la simulation. Après une analyses statistique des résultats obtenus par simulation, on peut les utilisés pour une aide à la décision. Généralement, il est à remarquer que une solution analytique exacte d'une EDS n'est pas toujours facile à obtenir, car les règles classiques de différentiabilité ne sont pas toujours applicables, à cause de la propriété de martingale que doit vérifier l'intégrale stochastique d'Itô. La formule d'Itô, permet de donne une transformation simplifiée de l'équation initiale, souvent utilisée pour la résolution des EDS. Dans ce travail nous avons fourni au lecteur un package Sim.DiffProc, muni d'une interface graphique sous langage R, de manière à ce qu'on puisse simulé des modèles de diffusion d'EDS et analysé statistiquement les résultats de simulation.

    Cette étude nous à permet de tracer quelques lignes perspectives, tel que le problème de la détermination analytique de la fonction de densité de transition p(s,x;t,y) ou de la variable de sortie du processus solution, nécessite la résolution d'équations aux dérivées partielles, qui ne sont pas toujours faciles à résoudre, la méthode des différence finies est parfois utilisée pour déterminer une solution numérique approchée du problème, d'ou la nécessité de développement et l'utilisation des algorithmes générales pour déterminée les densités de transition pour n'importe quel processus de diffusion, ainsi des méthodes de validation, pour les résultats obtenus par les simulations.

    L

    'objective de l'annexe A est de montre l'efficacité et la puissance de la simulation sous lan gage R, et donnée une idée sur la programmation mathématique, qui n'est pas très diffèrent celle de Matlab.

    Code 1

    R> n <- 10 ;T <- 1;

    R> t <- seq (0,T, length =100)

    R> S <- cumsum (2*( runif (n ) >0.5) -1)

    R> W <- sapply (t, function (x) ifelse (n*x >0,S[n*x] ,0)) R> W <- as.numeric (W)/ sqrt (n)

    R> plot (t,W, type ="l",xlab=expression(W[t]),ylim=c(-1,1),las=1) R> n <- 100

    R> S <- cumsum (2*( runif (n ) >0.5) -1)

    R> W <- sapply (t, function (x) ifelse (n*x >0,S[n*x] ,0)) R> W <- as.numeric (W)/ sqrt (n)

    R> lines (t,W, lty =2)

    R> n <- 1000

    R> S <- cumsum (2*( runif (n ) >0.5) -1)

    R> W <- sapply (t, function (x) ifelse (n*x >0,S[n*x] ,0)) R> W <- as.numeric (W)/ sqrt (n)

    R> lines (t,W, lty =3)

    R> legend("topleft",c("n=10","n=100","n=1000"),lty=c(1,2,3), + lwd=1,cex=0.9)

    Code 2

    R> phi <- function (i,t){

    + (sqrt(2)/ ((i + 0.5) *pi)) * sin ((i + 0.5) *pi*t) }

    R> N <- 1000

    R> t <- seq (0,1, length =N +1)

    R> W <- numeric (N +1)

    R> n <- 10

    R> Z <- rnorm(n)

    R> for (i in 2:( N +1)) W[i] <- sum (Z* sapply (1:n,

    + function(x) phi(x,t[i])))

    R> plot (t,W, type ="l",ylim =c( -1 ,1),xlab=expression(W[t]),las =1) R> n <- 100

    R> Z <- rnorm(n)

    R> for (i in 2:( N +1)) W[i] <- sum (Z* sapply (1:n,

    + function(x) phi(x,t[i])))
    R> lines(t,W, lty =2)

    R> n <- 1000

    R> Z <- rnorm(n)

    R> for (i in 2:( N +1)) W[i] <- sum (Z* sapply (1:n,

    + function (x) phi(x,t[i])))
    R> lines(t,W, lty =3)

    R> legend("topleft",c("n=10","n=100","n=1000"),lty=c(1,2,3), + lwd=1,cex=0.9)

    Code 3

    R> phi <- function (i,t,T){

     
     
     

    + (2* sqrt (2*T))/ ((2 *i +1) *pi)

    * sin (((2 *i

    +1)

    *pi*t)/(2*T))

    + }

     
     
     

    R> s <- 0.1; n <- 100; T <- 1;

     
     
     

    R> Z <- rnorm (n)

     
     
     

    R> Delta <- seq(0, 0.01, length =50)

     
     
     

    R> W <- sum (Z* sapply (1:n, function

    (x) phi (x ,s

    ,T

    )))

    R> for (i in Delta ){W_h <- sum (Z* sapply

    (1:n,

     
     
     

    + function (x) phi (x ,s+i,T )))}

    R> lim_W <- abs(W_h - W)/ Delta

    R> plot(Delta , lim_W , type ="l",xlab = expression ( Delta *t),las=1, + ylab = expression ( abs (W (s+ Delta *t)- W (s)) / Delta *t))
    R> max(lim_W ,na.rm=T)

    [1] Inf

    Code 4

    R> phi <- function (i,t,T){

    + (2* sqrt (2*T))/ ((2 *i +1) *pi) * sin (((2 *i +1) *pi*t)/(2*T))

    + }

    R> T <- 100; N <- 1000;

    R> t <- seq (0,T, length =N +1)

    R> W <- numeric (N +1)

    R> n <- 100

    R> Z <- rnorm (n)

    R> for (i in 2:( N +1)) W[i] <- sum (Z* sapply (1:n,

    + function (x) phi (x,t[i],T )))

    R> plot (t,W, type ="l",ylab=expression(W[t]))

    R> lines(t,W/t,col="red")

    R> legend("topleft",c(expression(W[t]),expression(lim(frac(w[t],t),

    + t%->%+infinity) %~~%0)),lty=c(1),col=c("black","red"),

    + lwd=1,cex=0.9)

    Code 5

    R> phi <- function (i,t){

    + (sqrt(2)/ (pi * i)) * sin (pi*i*t) }

    R> N <- 1000

    R> t <- seq (0,1, length =N +1)

    R> X <- numeric (N +1)

    R> n <- 10

    R> Z <- rnorm(n)

    R> for (i in 2:( N +1)) X[i] <- sum (Z* sapply (1:n,

    + function(x) phi(x,t[i])))
    R> plot (t,X, type ="l",ylim=c(-1,1), las =1)

    R> n <- 100

    R> Z <- rnorm(n)

    R> for (i in 2:( N +1)) X[i] <- sum (Z* sapply (1:n,

    + function(x) phi(x,t[i])))
    R> lines(t,X, lty =2)

    R> n <- 1000

    R> Z <- rnorm(n)

    R> for (i in 2:( N +1)) X[i] <- sum (Z* sapply (1:n,

    + function (x) phi(x,t[i])))
    R> lines(t,X, lty =3)

    R> legend("topleft",c("n=10","n=100","n=1000"),lty=c(1,2,3), + lwd=1,cex=0.9)

    Code 6

    R> N = 10000; t0 = 0; Dt = 0.0001; x0 = 6; a = 2; D = 1; R> time <- c(t0 ,t0+ cumsum(rep(Dt,N)))

    R> u = runif(N,0,1)

    R> for (i in 1:length(u)){

    + if ( u[i] >= 0.5)

    + u[i] = +1

    + else u[i] = -1 }

    R> w = cumsum(c(0,u))*sqrt(Dt)

    R>

    R> Ito.sum <- c(0,sapply(1:(N+1),function(x){

    + exp(-a*(time[x+1]-time[x]))*(w[x+1]-w[x])}))

    R> X <- sapply(1:(N+1),function(x){

    + x0*exp(-a*time[x])+sqrt(2*D)*sum(Ito.sum[1:x])})

    R> plot(time,X,type="l",las=1,xlab="time",ylab=expression(X[t])) R> mtext("Langevin Process",line=2.5,cex=1.2 )

    R> mtext(bquote(dX[t]==-.(a)*X[t]*dt+sqrt(.(2*D))*dW[t]),

    + line=0.25,cex=1.2,col="red")

    R> mtext(bquote(x[.(0)]==.(x0)),line=0.1,cex=0.9,adj=1,col="red") R> mtext(bquote(t[0]==.(t0)),line=0.9,cex=0.9,adj=1,col="red")

    R> mtext(bquote(Delta*t==.(delta.time)),line=0.4,cex=1,adj=0,col="red") R> data.frame(time,X)

    Code 7

    R> N = 10000; t0 = 0; Dt = 0.0001; a = 2; D = 1;

    R> x0 = 5; y0 = 6;

    R> time <- c(t0 ,t0+ cumsum(rep(Dt,N)))

    R> wx = cumsum(rnorm(N+1,mean=0,sd=sqrt(Dt)))

    R> wy = cumsum(rnorm(N+1,mean=0,sd=sqrt(Dt)))

    R> Ito.sumx <- c(0,sapply(1:(N+1),function(x){

    + exp(-a*(time[x+1]-time[x]))*(wx[x+1]-wx[x])}))

    R> Ito.sumy <- c(0,sapply(1:(N+1),function(x){

    + exp(-a*(time[x+1]-time[x]))*(wy[x+1]-wy[x])}))

    R> X <- sapply(1:(N+1),function(x){

    + x0*exp(-a*time[x])+sqrt(2*D)*sum(Ito.sumx[1:x])})

    R> Y <- sapply(1:(N+1),function(x){

    + y0*exp(-a*time[x])+sqrt(2*D)*sum(Ito.sumy[1:x])})

    R> plot(X,Y,type="l",las=1,xlab=expression(X[t]),ylab=expression(Y[t])) R> mtext("Langevin Process In 2D",line=2.5,cex=1.2 )

    R> data.frame(X,Y)

    Code 8

    R> N = 1000; t0 = 0; Dt = 0.001; theta1 = 0.1; theta2 = 0.2;theta3=0.05; R> x0 = y0 = 1;

    R> Error1 <- (2*theta1 > (theta3)^2)

    R> time <- c(t0 ,t0+ cumsum(rep(Dt,N)))

    R> w = cumsum(rnorm(N+1,mean=0,sd=sqrt(Dt)))

    R> Dw <- diff(w)

    R> X <- Y <- numeric()

    R> X[1] = Y[1] <- x0

    R> for (i in 2:(N+1)){

    + X[i] = X[i-1] + (( theta1 - theta2 * X[i-1])-0.25* (theta3)^2) * Dt +

    + theta3 * sqrt(X[i-1])*Dw[i-1] +0.25 * theta3 *(Dw[i-1])^2

    + Y[i] = Y[i-1] + ((theta1 - theta2 * (Y[i-1])^2)-0.25*(theta3)^2)*Dt +

    + theta3*Y[i-1]*Dw[i-1]+0.25*theta3*(Dw[i-1])^2

    + }

    R> plot(time,X,type="l",col="blue")

    R> lines(time,Y,type="l",col="red")

    R> mtext(bquote(dX[t]==(.(theta1)-.(theta2)*X[t])*dt+.(theta3)*sqrt(X[t])* + dW[t]),line=2.5,cex=1,adj=0)

    R> mtext(bquote(dY[t]==frac(1,2*Y[t])*bgroup("(",(.(theta1)-.(theta2)*

    + Y[t]^2)-frac(1,4)*.(theta3)^2 ,")") *dt+frac(1,2)*.(theta3)*dW[t]),

    + line=0.1,cex=1,adj=0)

    R> legend("topright",border="gray",c(expression(X[t]),expression(Y[t])),

    + lty=c(1,1),col=c("blue","red"),lwd=2)

    R> Error2 <- sum(abs(X-Y))/N

    R> Error1 [1] TRUE R> Error2 [1] 0.0009837406

    Annexe B : Packages Sim.DiffProc &

    Sim.DiffProcGUI

    L

    'objective de l'annexe B est de données quelques règles pour la création des packages sous langage R. Et aussi une présentation des deux packages Sim.DiffProc et Sim.DiffProcGUI. Création d'un package

    Pour créer un package sous langage R [32], il vous faut installer sur votre ordinateur un certain nombre de logiciels, tous sont disponibles gratuitement sur le web, puis les configurer.

    · Perl : est un langage optimisée pour l'extraction d'informations de fichiers textes et la génération de rapports.

    http://www.activestate.com/Products/ActivePerl/Download.html

    · Rtools : Les Rtools sont des outils Unix qui fournissent une couche d'émulation pour le système Windows. Ils rendent possible l'exécution de programmes Unix sous Windows.

    http://www.murdoch-sutherland.com/Rtools/tools.zip

    · MinGW : permet de compiler du code C, C++ et FORTRAN. Si vous n'incluez pas de langage autre dans votre code, vous n'avez pas besoin de MinGW.

    Sinon : http://prdownloads.sourceforge.net/mingw/MinGW-5.0.0.exe

    · HTML Help Workshop: Ce logiciel permet de produire des aides au format .chm, le format d'aide propriétaire de Windows. http://msdn.microsoft.com/library/en-us/ htmlhelp/html/hwmicrosofthtmlhelpdownloads.asp

    · Un compilateur LATEX : permet de produire une aide au format pdf. Plusieurs compilateurs sont disponibles, MiKTeX est assez stable. http://www.miktex.org/

    · FTP : quand vous aurez terminé votre package, il vous faudra le poster sur le site du CRAN. Cela se fait grâce à un logiciel gérant le FTP (File Transfert Protocol). Là encore, plusieurs choix sont possibles. http://filezilla-project.org/

    La création d'un package se fait via une fenêtre de commande DOS ou une fenêtre terminal sous Linux. Tous les nouveaux programmes qui viennent d'être installés doivent être accessibles depuis cette fenêtre. Pour cela, il faut préciser l'endroit où ils ont été installés sur votre ordinateur. Cela se fait en modifiant la variable PATH.

    Le plus simple est de créer un fichier Rpath.bat contenant la définition de la variable PATH. Á noter que les espaces ne sont pas acceptés dans les noms de fichier. Sous Windows, Programme File doit donc être abrégé en PROGRA~1. La séparation des différents chemins peut se faire grâce à (;). Pour plus de lisibilité, il est possible de définir le PATH sur plusieurs lignes :

     
     

    Annexe B : Packages Sim.DiffProc & Sim.DiffProcGUI

    SET PATH =C:\ Rtools \bin

    SET PATH =% PATH %;C:\ Perl \bin

     
     

    SET PATH =% PATH

    %;C:\

    Rtools \ MinGW \bin

     
     

    SET PATH =% PATH

    %;C:\

    PROGRA~1\R\R -2.13.1\

    bin

     

    SET PATH =% PATH

    %;C:\

    PROGRA~1\R\R -2.13.1\

    include

     

    SET PATH =% PATH

    %;C:\

    PROGRA~1\ MIKTEX~ 2.9\

    miktex

    \bin

    SET PATH =% PATH

    %;C:\

    PROGRA~1\ HTMLHE~1

     
     

    SET PATH =% PATH

    %;C:\

    WINDOWS

     
     

    SET PATH =% PATH

    %;C:\

    WINDOWS \ system32

     
     

    Si vous sauvegardez Rpath.bat dans le répertoire racine C:/, il vous suffit ensuite de taper C:/Rpath dans la fenêtre système que vous venez d'ouvrir et votre variable PATH est modifiée comme il convient. Il est également possible de modifier la variable PATH en allant explorer les variables d'environnement. Mais ces modifications sont permanentes jusqu'à ce qu'elles soient rectifiées. Cela veut dire qu'à chaque fois que vous allumerez votre ordinateur, le PATH sera modifiée même si vous n'avez pas de package à compiler ce jour-là. Votre ordinateur sera un peu moins rapide. Aussi, il est plus intéressant de créer un fichier Rpath.bat que l'on exécutera les jours où c'est nécessaire.

    Un package est un ensemble de plusieurs fichiers et répertoires, tous réunis dans un répertoire racine. Le répertoire racine a pour nom le futur nom du package (par exemple Monpackage). Il contient un fichier nommé DESCRIPTION, un fichier nommé NAMESPACE, plus les répertoires /R/, /man/, /data/ et /tests/.

    DESCRIPTION : contient une description du package.

    NAMESPACE : sert à définir la visibilité de nos fonctions et des fonctions des autres packages, via import et export.

    /R/ : contient le code des programmes.

    /man/ : contient les fichiers d'aide.

    /data/ : contient les jeux de données.

    /tests/ : contient les fichiers permettant de tester notre programme (tests selon la R Core Team1)

    package.skeleton est une fonction qui crée pour vous l'arborescence des fichiers (répertoire racine, répertoires /R/, /man/ et /data/). Elle crée aussi les fichiers d'aide (dans /man/), les fichiers codes (dans /R/), éventuellement les données (dans /data/), le fichier DESCRIPTION et éventuellement le fichier NAMESPACE. L'idée est d'utiliser package.skeleton pour la création initiale de votre package, puis de modifier ensuite à la main les fichiers qu'il a crées.

    R> help(package.skeleton)

    Lorsque les fichiers sources (programme, aides et données) sont prêts, il reste a les vérifier, à construire le package et éventuellement à construire des documentations au format pdf. Ces trois étapes se font dans une fenêtre de commandes DOS sur Windows ou une fenêtre terminal sur Linux. Pour plus de détails [32, 33].

    1. La R Core Team a mis au point un système de gestion de tests automatiques très performant.

    Présentation du package

    Le package Sim.DiffProc2 [9] sous la version de Windows de langage R à été développée pour simulée et traité statistiquement des équations différentielles stochastiques d'une façon générale à l'exception les processus de diffusion [8]. Le langage R n'incorpore pas une interface graphique GUI 3, mais il inclus des outils pour construire des interfaces graphiques. Basé sur le package tcltk4 [13, 14, 41], qui fournit la possibilité de crée une interface à la boîte à outils de Tcl/Tk. Le package Sim.DiffProcGUI5 [10] fournit une interface graphique pour les fonctions qui sont dans le package Sim.DiffProc.

    Installation du package

    L'installation6 du package Sim.DiffProcGUI sous R est simple, il suffira de écrire dans R Console la commande suivante :

    R> install.packages("Sim.DiffProcGUI")

    Pour le chargement de package après l'installation et pour des informations sur le package, est décrit par les commandes suivantes :

    R> library("Sim.DiffProcGUI")

    Le chargement a nécessité le package : Sim.DiffProc Le chargement a nécessité le package : tcltk Chargement de Tcl/Tk... terminé

    Le chargement a nécessité le package : tcltk2 Le chargement a nécessité le package : stats4 Le chargement a nécessité le package : rgl

    Le chargement a nécessité le package : xlsx

    Le chargement a nécessité le package : xlsxjars Le chargement a nécessité le package : rJava

    Sim.DiffProcGUI version 2.0-Sat Feb 26 15:58:10 2011. BOUKHETALA Kamal < kboukhetala@usthb.dz>.

    GUIDOUM Arsalane < starsalane@gmail.com>.

    University of Sciences and Technology Houari Boumediene (USTHB)

    Faculty of Mathematics

    Department of Probabilities and Statistics. Copyright (C) 2011 Algeria.

    User Interface :: Sim.DiffGUI().

    R> library(help="Sim.DiffProc")

    R> library(help="Sim.DiffProcGUI")

    2. Sim.DiffProc : Simulation of Diffusion Processes.

    3. GUI: Graphical User Interface.

    4. tcltk : Tool Command Language.

    5. Sim.DiffProcGUI : Graphical User Interface for Simulation of Diffusion Processes.

    6. Il faut être connecté à Internet pour effectuer ces opérations, où téléchargé manuellement les deux packages [9, 10].

    Information sur le package Sim.DiffProc :

    Package: Sim.DiffProc

    Type: Package

    Title: Simulation of Diffusion Processes

    Version: 2.0

    Date: 2011-02-09

    Author: BOUKHETALA Kamal < kboukhetala@usthb.dz>,

    GUIDOUM Arsalane < starsalane@gmail.com>

    Maintainer: BOUKHETALA Kamal < kboukhetala@usthb.dz>

    Depends: R (>= 2.11.0), tcltk, tcltk2, stats4, rgl, xlsx

    License: GPL (>= 2)

    URL: http://www.r-project.org

    Repository: CRAN

    LazyLoad: yes

    Packaged: 2011-02-12 17:35:17 UTC;

    Date/Publication: 2011-02-13 16:11:13

    Built: R 2.13.1; ; 2011-09-29 07:46:05 UTC; windows

    Information sur le package Sim.DiffProcGUI :

    Package: Sim.DiffProcGUI

    Type: Package

    Title: Graphical User Interface for Simulation of

    Diffusion Processes

    Version: 2.0

    Date: 2011-02-26

    Author: BOUKHETALA Kamal < kboukhetala@usthb.dz>,

    GUIDOUM Arsalane < starsalane@gmail.com>

    Maintainer: BOUKHETALA Kamal < kboukhetala@usthb.dz>

    Depends: Sim.DiffProc (>= 2.0)

    License: GPL (>= 2)

    LazyLoad: yes

    Packaged: 2011-02-26 17:46:40 UTC;

    Repository: CRAN

    Date/Publication: 2011-02-27 16:28:40

    Built: R 2.13.1; ; 2011-09-29 07:48:20 UTC; windows

    Pour quelques démonstrations graphique de package Sim.DiffProc, est décrit par la commande suivante :

    R> demo(Sim.DiffProc)

    Les objectifs de conception de l'interface graphique est : renforcer le package Sim.DiffProc, pour une utilisation facile, une interface simple et familière de menu/dialogue-boîte. Le menu

    principale est : File, Edit, Brownian Motion, Stochastic Integral, Stochastic Models, Parametric Estimation, Numerical Solution of SDE, Statistical Analysis, Help "?". Après chargement du package, la fenêtre GUI devrait apparaître plus ou moins comme dans la figure XIV.

    FIGURE XIV - Graphical User Interface for Sim.DiffProc package at start-up.

    Cette interface graphique d'écran de GUI à été crée sous Windows Seven. En cas de l'utilisation une autre version Windows, ou une autre plate-forme, l'image d'écran de GUI peut être différent 7. Toutes les fonctions du menu mènent aux zones de dialogue, c'est-à-dire interactif.

    Le menu complet (tree) pour le package Sim.DiffProcGUI (version 2.0) est montré cidessous. toutes les fonctions de menu mènent aux zones de dialogue c'est-à-dire interactif.

    File |- Open file

    |- Change working directory

    |- Import data from...

    |- Save

    |- Save graphic

    |- Quit

    | ||- Quit Sim.DiffProcGUI

    ||- Quit R

    Edit |- Eval code Ctrl+R

    7. Nous emploient la version R sous Windows, cependant, le langage R est disponible sur d'autres plates-formes, des ordinateurs de Macintosh et des systèmes d'Unix/Linux. L'utilisation de R et le package Sim.DiffProcGUI sur ces autres systèmes est très semblable à leur utilisation sous Windows.

    |- Clear Ctrl+T

    |- Undo Ctrl+Z

    |- Redo Ctrl+W

    |- Cut Ctrl+X

    |- Copy Ctrl+C

    |- Paste Ctrl+V

    |- Select All Ctrl+A

    |- Delete Ctrl+D

    Brownian Motion| - Creating Brownian Motion

    | ||- By the normal distribution

    | ||- By a random walk

    |- Creating flow for Brownian Motion

    | ||- By the normal distribution

    | ||- By a random walk

    |- Creating Arithmetic Brownian Motion

    | ||- Arithmetic brownian

    | ||- Flow of arithmetic brownian

    |- Creating Geometric Brownian Motion

    | ||- Geometric brownian

    | ||- Flow of geometric brownian

    |- Creating Brownian Bridge

    | ||- Brownian bridge

    | ||- Flow of brownian bridge

    |-Brownian Motion Property

    | ||- Empirical covariance for brownian motion

    | ||- Limite for brownian motion

    | ||- Invariance by reversal of time

    | ||- Invariance by scaling

    |- Brownian Trajectory in 2D

    | ||- By the normal distribution

    | ||- By a random walk

    |- Brownian Trajectory in 3D

    ||- By the normal distribution

    ||- By a random walk

    Stochastic Integral|- Stratonovitch Integral - Integral(W(s) o dW(s),0,t)

    | ||- Integral(alpha o dW(s),0,t)

    | ||- Integral(W(s)^n o dW(s),0,t)

    |- Ito Integral - Integral(W(s)dW(s),0,t)

    | ||- Integral(alpha*dW(s),0,t)

    | ||- Integral(W(s)^n*dW(s),0,t)

    |- Ito Integral vs Stratonovitch Integral ||-Integral(W(s)dW(s),0,t) vs Integral(W(s) o dW(s),0,t) ||- Integral(s*dW(s),0,t) vs Integral(s o dW(s),0,t)

    ||- Integral(W(s)^n*dW(s),0,t)vsIntegral(W(s)^n o dW(s),0,t) Stochastic Models |- Attractive Model

    | ||- Attractive Model for One-System SDE

    | ||- Attractive Model for Two-System SDE

    | |||- Two-Dimensional Attractive Model

    | |||- Three-Dimensional Attractive Model

    | |||- Simulation The First Passage Time

    |- Bessel Process

    |- Constant Elasticity of Variance Model

    |- Cox-Ingersoll-Ross Model

    | ||- CIR Model

    | ||- The Modified CIR and hyperbolic Process

    |- Chan-Karolyi-Longstaff-Sanders Model

    |- Diffusion Bridge Model

    |- Double-Well Potential Model

    |- Exponential Martingales Process

    |- Gaussian Diffusion Model

    | ||- Hull-White/Vasicek (HWV)

    | |||- Hull-White/Vasicek Model

    | |||- Flow of Hull-White/Vasicek Model

    | ||- Ornstein-Uhlenbeck Process

    | |||- Ornstein-Uhlenbeck Process

    | |||- Flow of Ornstein-Uhlenbeck Process

    | |||- Radial Ornstein-Uhlenbeck Process

    |- Hyperbolic Process

    | ||- Hyperbolic Process

    | ||- General Hyperbolic Diffusion

    |- Inverse of Feller Square Root Model

    |- Jacobi Diffusion Process

    |- Pearson Diffusions Process

    |- Stochastic Process

    ||- Stochastic Process The Gamma Distribution ||- Stochastic Process The Student Distribution ||- Random Walk

    ||- White Noise Gaussian

    Parametric Estimation |- Parametric Estimation of Arithmetic Brownian Motion |- Parametric Estimation of Model Black-Scholes

    |- Parametric Estimation of Hull-White/Vasicek Model |- Parametric Estimation of Ornstein-Uhlenbeck Model

    ||- Exact likelihood Inference

    ||- Explicit Estimators

    Numerical Solution of SDE |- One-Dimensional SDE

    | ||- Euler Scheme

    | ||- Predictor-Corrector Method

    | ||- Milstein Scheme

    | |||- Milstein Scheme

    | |||- Milstein Second Scheme

    | ||- Strong Ito-Taylor Scheme

    | ||- Heun Scheme

    | ||- Runge-Kutta Scheme

    |- Two-Dimensional SDE

    ||- Euler Scheme

    ||- Predictor-Corrector Method ||- Milstein Scheme

    |||- Milstein Scheme

    |||- Milstein Second Scheme ||- Strong Ito-Taylor Scheme

    ||- Heun Scheme

    ||- Runge-Kutta Scheme

    Statistical Analysis |- Simulation M-Samples of Random Variable |- Simulation The First Passage Time FPT |- Ploting

    | ||- Histograms

    | ||- Kernel Density

    | ||- Empirical Distribution

    |- Adjustment of Distributions | ||- Beta Distribution

    | |||- Estimate of The Parameters

    | |||- Kolmogorov-Smirnov Tests

    | ||- Chi-Squared Distribution

    | |||- Estimate of The Parameters

    | |||- Kolmogorov-Smirnov Tests

    | ||- Exponential Distribution

    | |||- Estimate of The Parameters

    | |||- Kolmogorov-Smirnov Tests

    | ||- Fisher Distribution

    | |||- Estimate of The Parameters

    | |||- Kolmogorov-Smirnov Tests

    | ||- Gamma Distribution

    | |||- Estimate of The Parameters

    | |||- Kolmogorov-Smirnov Tests

    | ||- Log Normal Distribution

    | |||- Estimate of The Parameters

    | |||- Kolmogorov-Smirnov Tests

    | ||- Normal Distribution

    | |||- Estimate of The Parameters

    | |||- Kolmogorov-Smirnov Tests

    | ||- Student Distribution

    | |||- Estimate of The Parameters

    | |||- Kolmogorov-Smirnov Tests

    | ||- Weibull Distribution

    | |||- Estimate of The Parameters

    | |||- Kolmogorov-Smirnov Tests

    |- Density Estimation

    | ||- by Histograms Methods

    | ||- by Kernel Methods

    |- Distribution Estimation

    Help "?" |- Demos

    | ||- Attractive Model for One-System SDE (2D)

    | ||- Attractive Model for One-System SDE (3D)

    | ||- Attractive Model for Two-System SDE (2D)

    | ||- Attractive Model for Two-System SDE (3D)

    | ||- Brownian Motion in 2D plane

    | ||- Flow of the Diffusion Processes

    | ||- Numerical Simulation of One-Dimensional SDE

    | ||- Numerical Simulation of Two-Dimensional SDE

    | ||- Stochastic Processes (Models)

    |- Teachware

    |- Start Sim.DiffProc help (.HTML) |- Start Sim.DiffProc help (.PDF)

    |- Start R help system

    |- About Sim.DiffProc

    L'interface de Sim.DiffProc inclut quelques éléments en plus des menus et des dialogues, les expositions externes qui sont montre par la figure XIV, on a :

    Plot your data : c'est pour trace votre donnée en fonction du temps (time series).

    Add your data : c'est pour ajoutée votre donnée dans un graphe (par exemple pour la comparé).

    Plot your solution : c'est pour tracé la solution d'une ÉDS si il existe (par exemple la solution de Black-Scholes).

    Add your solution : ajouté la solution dans un graphe (par exemple simulée un flux de modèle de Black-Scholes et ajouté la solution trouvé).

    Show data : les donnée importé sont sauvegardée automatiquement dans cette fenêtre. Save graphic: sauvegardée les graphes sous différent format(.pdf, .png, .jpeg, ...)

    Bibliographie

    [1] Allen E (2007). Modeling with Itô Stochastic Differential Equations. Springer-Verlag, New York. ISBN 13 : 978-1-4020-5953-7.

    [2] Boukhetala K (1994). Simulation Study of a Dispersion About an Attractive Center. In proceeding of 11th Symposium Computational Statistics., pp. 128-130, Edited by R. Dutter and W. Grossman, Wien, Austria.

    [3] Boukhetala K (1995). Identification and simulation of a communication system. Maghreb Mathematical Review, 2, pp. 55-79.

    [4] Boukhetala K (1996). Computer Methods and Water Resources, Modelling and Simulation of a Dispersion Pollutant with Attractive Centre, volume 3, pp. 245-252, Computational mechanics publications edition. Boston, USA.

    [5] Boukhetala K (1998). Application des Processus de Diffusion, Echantillonnage Optimal. Ph.D. thesis, University of Science and Technology Houari Boumediene, BP 32 El-Alia, U.S.T.H.B, Algeria.

    [6] Boukhetala K (1998). Estimation of the first passage time distribution for a simulated diffusion process. Maghreb Mathematical Review, 7, pp. 1-25.

    [7] Boukhetala K (1998). Kernel density of the exit time in a simulated diffusion. The Annals of The Engineer Maghrebian, 12, pp. 587-589.

    [8] Boukhetala K, Guidoum A (2011). Sim.DiffProc : A Package for Simulation of Diffusion Processes in R. Le Hal revue du centre national de la recherche scientifique (France). Preprint submitted to Journal of Statistical Software (JSS), 25 May 2011. http://hal.

    archives-ouvertes.fr/hal-00629841/fr/.

    [9] Boukhetala K, Guidoum A (2011). Sim.DiffProc : Simulation of Diffusion Processes. R package version 2.0. http://CRAN.R-project.org/package=Sim.DiffProc.

    [10] Boukhetala K, Guidoum A (2011). Sim.DiffProcGUI : Graphical User Interface for Simulation of Diffusion Processes. R package version 2.0. http://CRAN.R-project.org/

    package=Sim.DiffProcGUI.

    [11] Brown R (1828). A brief account of microscopical observations made in the months of June, July and August, 1827, on the particles contained in the pollen of plants; and on the general existence of active molecules in organic and inorganic bodies. Philosophical Magazine, 4,

    pp. 161-173. http://sciweb.nybg.org/science2/pdfs/dws/Brownian.pdf.

    [12] Brian J F (1992). Brownian movement in Clarkia pollen: a reprise of the first observations. The Microscope, 40(4), pp. 235-241.

    [13] Dalgaard P (2001). A Primer on the R-Tcl/Tk Package. R News, 1(3), pp. 27-31.

    [14] Dalgaard P (2002). Changes to the R-Tcl/Tk Package. R News, 2(3), pp. 25-71.

    [15] Deheuvels P (2006). Karhunen-Loève expansions of mean-centered Wiener processes. High Dimensional Probability, 51, pp. 62-76.

    [16] Deheuvels P, G. Peccati G, Yor M (2006). On quadratic functionals of the brownian sheet and related processes. Stochastic Processes and their Applications, 116, pp. 493-538.

    [17] Doob J L (1942). What is a stochastic process?. The American Mathematical Monthly, 49, pp. 648-653.

    [18] Douglas H, Peter P (2006). Stochastic Differential Equations in Science and Engineering. World Scientific Publishing. ISBN 981-256-296-6.

    [19] Flandrin P, Borgant P, Amblard P O (2003). From Stationarity to Self-similarity, and Back: Variations on the Lamperti Transformation. in Processes with Long-Range Correlations, pp. 88-117. Springer-Verlag

    [20] Forman J L, Sørensen M (2007). The Pearson Diffusions : A Class of Statistically Tractable Diffusion Processes. SSRN : Social Science Research Network, http://ssrn.com/

    abstract=1150110.

    [21] Franck J (2009). Modèles aléatoires et physique probabiliste. Springer-Verlag, New York. ISBN 13 : 978-2-287-99307-7.

    [22] Greiner A, Strittmatter W, Honerkamp J (1988). Numerical Integration of Stochastic Differential Equations. The Journal of Statistical Physics, 51(1/2).

    [23] Hadeler K, de Mottoni P, Schumacher K (1980). Dynamic Models for Animal Orientation. The Journal of Mathematical Biology, 10, pp. 307-332.

    [24] Heemink A (1990). Stochastic Modelling of Dispersion in Shallow Water. Stochastic Hydrology and Hydraulics, 4, pp. 161-174.

    [25] Heinz S (2011). Mathematical Modeling. Stochastic Evolution, pp. 295-334, SpringerVerlag, Berlin Heidelberg. ISBN 978-3-642-20310-7.

    [26] Helland S (1983). Diffusion models for the dispersal of insects near an attractive center. The Journal of Mathematical Biology, 18, pp. 103-122.

    [27] Itô K (1944). Stochastic integral. Tokyo, Proc. Jap. Acad, 20, pp. 519-529.

    [28] Kolmogorov A N (1936). Math. Sbornik. N.S., 1, pp. 607-610.

    [29] Kloeden P, Platen E (1989). A Survey of Numerical Methods for Stochastic Differential Equations. Stochastic Hydrology and Hydraulics, 3, pp. 155-178.

    [30] Lamperti J (1962). Semi-stable stochastic processes. Transactions of the American Mathematical Society, 104, pp. 62-78. http://www.jstor.org/stable/1993933.

    [31] Peter E, Eckhard P (1995). Numerical Solution of Stochastic Differential Equations. Springer-Verlag, New York. ISBN 0-387-54062-8.

    [32] R Development Core Team (2011). R : A Language and Environment for Statistical Computing. R Foundation for Statistical Computing, Vienna, Austria. ISBN 3-900051-07-0,

    http://www.R-project.org/.

    [33] R Development Core Team (2011). Writing R extensions. version 2.13.1 (2011-07-08), ISBN 3-900051-11-9.

    [34] Racicot F É, Théoret R (2006). Finance Computationnelle et Gestion des Risques. Presses de l'Université du Québec. ISBN 2-7605-1447-1.

    [35] Risken H (2001). The Fokker-Planck Equation : Methods of Solutions and Applications. 2nd edition, Springer Series in Synergetics. ISBN 9783540615309.

    [36] Rolski T, Schmidli H, Schmidt V, Teugels J (1998). Stochastic Processes for Insurance and Finance. John Wiley & Sons.

    [37] Saito Y, Mitsui T (1993). Simulation of Stochastic Differential Equations. The Annals of the Institute of Statistical Mathematics, 3, pp. 419-432.

    [38] Silverman B W (1986). Density estimation for statistics and data analysis. Chapman and Hall, London.

    [39] Soong T T (1973). Random differential equations in science and engineering. Academic Press, New York. LC NUMBER : QA274.23 .S58.

    [40] Stefano M (2008). Simulation and Inference for Stochastic Differential Equations. Springer-Verlag, New York. ISBN 978-0-387-75838-1.

    [41] Welch B (2000). Practical Programming in Tcl and Tk. 3nd edition. Prentice Hall PTR Upper Saddle River, NJ, USA. ISBN 0-13-022028-0.






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Il existe une chose plus puissante que toutes les armées du monde, c'est une idée dont l'heure est venue"   Victor Hugo