Calcul Stochastique des martingales continues
Transcription
Calcul Stochastique des martingales continues
Université Pierre et Marie Curie, Paris 6 Master de Mathématiques 2015-2016 M2–Probabilités et Finance Calcul Stochastique des martingales continues Philippe Bougerol 3 Décembre 2015 1 TABLE DES MATIÈRES 1. Introduction au calcul stochastique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.1. Modélisation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2. Bruit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.3. Un ”primer” sur l’intégrale d’Ito. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.4. Intégrale de Wiener et théorème de Cameron Martin . . . . . . . . . . . . . 5 1.5. Une formule d’Ito. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.6. Biliographie pour tout le cours. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2. Intégration de Lebesgue. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1. Mesures. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2. Intégration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3. Espaces L1 , L1 , L2 , L2 .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4. Convergence en probabilité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5. Uniforme intégrabilité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6. Divers. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.7. Tribu engendrée. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.8. Loi d’une variable aléatoire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.9. Mesure produit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.10. Processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.11. Indépendance. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 13 14 17 20 21 22 22 24 25 27 28 3. Mouvement Brownien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1. Loi gaussienne. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2. Vecteur gaussien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3. Famille gaussienne. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4. Définition du mouvement brownien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5. Filtrations et Brownien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6. Propriété de Markov forte du mouvement brownien. . . . . . . . . . . . . . . 31 31 32 33 33 35 37 4 TABLE DES MATIÈRES 3.7. Existence et Simulation du Mouvement brownien. . . . . . . . . . . . . . . . . 40 3.8. Construction de P. Lévy du mouvement brownien . . . . . . . . . . . . . . . . 41 3.9. Appendice 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 4. Martingales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1. Martingales, définition. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2. Martingales à temps discret. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3. Martingale continue à droite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4. Formulaire sur l’espérance conditionnelle. . . . . . . . . . . . . . . . . . . . . . . . . . 45 45 46 48 51 5. Crochet de martingales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1. Cas discret. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2. Premiers pas, à temps continu. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3. Crochet comme variation quadratique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4. Martingale locale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5. Processus à variation finie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.6. Crochet de deux martingales locales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 55 56 57 60 63 64 6. Intégrale stochastique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1. Cas d’une martingale de carré intégrable. . . . . . . . . . . . . . . . . . . . . . . . . . 6.2. Cas d’une martingale locale.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3. Semimartingales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4. Formule d’Itô. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 69 73 75 79 7. Applications de la formule d’Ito. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1. Sur le Brownien multidimensionnel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2. Martingales exponentielles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3. Théorèmes de représentation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4. Girsanov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.5. Critère de Novikov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.6. Cameron-Martin. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 81 83 86 89 90 91 8. Equations différentielles stochastiques. . . . . . . . . . . . . . . . . . . . . . . . . . . 93 8.1. Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 8.2. Solutions fortes d’E.D.S.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 8.3. Localisation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 8.4. Propriété de Markov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 8.5. Processus de Markov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 8.6. EDS et EDP. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 CHAPITRE 1 INTRODUCTION AU CALCUL STOCHASTIQUE Introduction très très sommaire et volontairement caricaturale, sans toutes les justifications mathématiques, pour l’instant. 1.1. Modélisation On cherche à modéliser (construire des modèles) et faire des calculs sur des phénomènes évoluant dans le temps qui dépendent du hasard. La valeur Xt du phénomène à l’instant t, peut être observée à cet instant, mais pas prédite avant. Entre les instants t et t+h une part de hasard s’ajoute. On s’intéresse dans ce cours au cas où la fonction t 7→ Xt est continue. Pour faire simple supposons que Xt est à valeurs dans R. On va avoir, pour t, h ≥ 0, Xt+h = Xt + ∆ht où ∆ht est aléatoire. L’idée fondamentale est qu’au moins dans un premier temps, pour h très très (infinitésimalement...) petit, ∆ht peut s’écrire ∆ht = Ht εht où εht est une variable aléatoire indépendante de tout ce qui précède et de loi ne dépendant que de h (et donc pas de t) et où Ht est une fonction continue de t, ”observable à l’instant t”, par exemple une fonction de Xt . On va voir que c’est très opérationnel. C’est assez naturel. Dans le cas déterministe (c’est à dire sans hasard), et si Xt est dérivable, on a bien ce type de modélisation en prenant pour Ht la dérivée à l’instant t et en prenant εht = h. 2 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE 1.2. Bruit Le fait d’avoir pris h ≥ 0 (infinitésimalement) petit entraı̂ne des contraintes. Si on remplace h par h = h1 + h2 , avec h1 , h2 ≥ 0, on a Xt+h = Xt + Ht εht 2 = Xt+h1 +h2 = Xt+h1 + Ht+h1 εht+h 1 2 . = Xt + Ht εht 1 + Ht+h1 εht+h 1 Pour h1 très petit on a par continuité Ht+h1 ∼ Ht . On arrive donc à 2 . εht ∼ εht 1 + εht+h 1 De proche en proche, pour h très petit, h/n εht ∼ εt h/n h/n h/n + εt+h/n + εt+2h/n + · · · + εt+(n−1)h/n . Nous avons supposé que εht est une variable aléatoire indépendante de tout ce qui précède et de loi ne dépendant pas de t. On voit donc que nécessairement, εht est la somme de n variables aléatoires indépendantes et de même loi. Une variante du théorème de la limite centrale (qui utilise que les εht sont petits ...) nous conduit à dire qu’alors εht a une loi gaussienne. Notons mh sa moyenne et σh2 sa variance. La relation 2 εht = εht 1 + εht+h 1 entraı̂ne que mh1 +h2 = mh1 + mh2 , σh21 +h2 = σh21 + σh22 donc (par exemple si ces coefficients sont continus), il existe a ∈ R et σ ≥ 0 tels que mh = ah et σh2 = σ 2 h. On voit donc que l’on peut écrire εht = ah + σ(Bt+h − Bt ) où Bt est un mouvement brownien sur un espace de probabilité (Ω, A, P), c’est à dire un processus (=famille de variables aléatoires) continu formé de v.a. gaussiennes telles que Bt ∼ N (0, t) et Bt+h − Bt est indépendant de Br , 0 ≤ r ≤ t. On était parti de Xt+h = Xt + Ht εht donc on a, au moins infinitésimalement, Xt+h = Xt + Ht (ah + σ(Bt+h − Bt )). 1.3. UN ”PRIMER” SUR L’INTÉGRALE D’ITO 3 Si σ = 0 cela s’interprète par l’équation différentielle dXt = aHt dt ce qui s’écrit aussi sous forme intégrale Z t Xt − X0 = aHs ds. 0 On va voir par contre que si σ > 0 alors Xt ne peut pas être dérivable. On va donc plutot garder la forme intégrale en écrivant que Z t Z t Xt − X0 = aHs ds + σHs dBs 0 0 Rt où il faut donner un sens à l’intégrale dite stochastique 0 σHs dBs . On verra qu’il est aussi utile de généraliser en ne prenant pas le même facteur Hs dans les deux termes, ce qui s’interprête en distinguant bien la partie aléatoire de la partie déterministe de l’accroissement. 1.3. Un ”primer” sur l’intégrale d’Ito Le mot ”primer” est anglais et signifie ”première couche” en métallurgie. Pour un processus continu par morceaux Ht on veut donner un sens à Z t Hs dBs . 0 On va voir que c’est possible et naturel sous l’hypothèse que l’on a déja évoquée, que Ht est observable à l’instant t. Il faudra donner un sens à ça (et on dira adapté), mais disons que la propriété essentielle dont on va se servir ici est que l’accroissement Bt+h − Bt , h ≥ 0 est indépendant de Hs , s ≤ t. La définition simple ”naturelle” ressemble à l’intégrale de Riemann : si Ht = n X Hti 1[ti ,ti+1 [ (t) i=1 par analogie avec la formule qui se vérifie facilement Z t n X Hs ds = Hti (ti+1 ∧ t − ti ∧ t) 0 i=1 (où s ∧ t = min(s, t)), on pose Z t n X Hs dBs = Hti (Bti+1 ∧t − Bti ∧t ). 0 i=1 4 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE Lemme 1.3.1. — Si Hs ∈ L2 pour tout s > 0, alors pour t > 0, Z t E( Hs dBs ) = 0, 0 Z t Z t 2 E(( Hs dBs ) ) = E( Hs2 ds). 0 0 Preuve: Montrons la seconde égalité : n X Rt E(( 0 Hs dBs )2 ) = E(( Hti (Bti+1 ∧t − Bti ∧t ))2 ) i=1 = n X E(Hti Htj (Bti+1 ∧t − Bti ∧t )(Btj+1 ∧t − Btj ∧t )) i,j=1 = n X E(Hti 2 (Bti+1 ∧t − Bti ∧t )2 ) + i=1 +2 X E(Hti Htj (Bti+1 ∧t − Bti ∧t )(Btj+1 ∧t − Btj ∧t )) i<j = n X E(Hti 2 )E((Bti+1 ∧t − Bti ∧t )2 ) + i=1 +2 X E(Hti Htj (Bti+1 ∧t − Bti ∧t ))E(Btj+1 ∧t − Btj ∧t ) i<j en utilisant l’indépendance. Puisque E((Bti+1 ∧t − Bti ∧t )2 ) = ti+1 − ti et E((Btj+1 ∧t − Btj ∧t )) = 0 on obtient que Z t Z t n X 2 2 E(( Hs dBs ) ) = E(Hti )(ti+1 ∧ t − ti ∧ t) = E(Hs 2 ) ds. 0 0 i=1 On veut prolonger cette construction à d’autres processus H. On le fait de (n) la façon suivante : si Ht , t ≥ 0, est une suite de processus du type précédent pour laquelle il y a un processus H tel que H (n) → H au sens où pour tout t ≥ 0, Z t E(Hs(n) − Hs )2 ds → 0 0 alors, la suite puisque (n) 0 Hs dBs Rt est une suite de Cauchy dans l’espace L2 (Ω, F, P) Z t Z t (n) E([ Hs dBs − Hs(m) dBs ]2 ) 0 0 1.4. INTÉGRALE DE WIENER ET THÉORÈME DE CAMERON MARTIN 5 Z t = E([ (Hs(n) − Hs(m) ) dBs ]2 ) 0 Z t = E( (Hs(n) − Hs(m) )2 ds) 0 Z t = E((Hs(n) − Hs(m) )2 ) ds 0 2 L (Ω, F, P) par le lemme. L’espace R t (n) 0 Hs dBs converge. On appelle étant complet (Hilbert), cette suite t Z Hs dBs 0 sa limite. Elle vérifie, par passage à la limite, comme au dessus Proposition 1.3.2. — Z t Hs dBs ) = 0, E( 0 Z t Z t E(( Hs dBs )2 ) = E( Hs2 ds). 0 0 Supposons que Ht , t ≥ 0, est un processus continu borné tel que Ht est σ(Bs , 0 ≤ s ≤ t) mesurable. Alors la suite de processus (n) Ht = n−1 X k=0 H kT 1[ kT , (k+1)T [ (t) n n n approxime bien H au sens précédent sur l’intervalle [0, T ] (utiliser le théorème de convergence dominée). On peut donc lui appliquer la construction précédente. En fait on verra qu’au lieu d’être borné, il suffit que Z T E( Hs2 ds) < ∞. 0 1.4. Intégrale de Wiener et théorème de Cameron Martin Considérons le cas très particulier d’un processus Ht (ω), t ≥ 0, ω ∈ Ω, qui ne dépend pas de ω. Autrement dit il existe une fonction f : R+ → R telle que Ht (ω) = f (t) pour tout t ≥ 0, ω ∈ Ω. Dans ce cas l’intégrale stochastique a été introduite dès les années 30 par Wiener et porte parfois le nom d’intégrale de Wiener. Si f ∈ L2 ([0, T ], m), où m est la mesure de Lebesgue, il existe une suite de fonctions fn constantes par morceaux, donc P n n de la forme fn = ki=1 ai 1[tni ,tni+1 [ tels que fn → f dans L2 ([0, T ], m). Dans 6 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE ce cas, par le paragraphe précédent, Rt 0 fn (s)dBs . Remarquons que Z t fn (s)dBs = 0 Rt kn X 0 f (s)dBs est la limite dans L2 (Ω) de ani (Bt∧tni+1 − Bt∧tni ) i=1 Rt a une loi gaussienne d’espérance nulle et de variance 0 fn (s)2 ds, donc pour tout λ ∈ R Z t Z 1 2 t fn (s)dBs )) = exp (− λ E(exp (iλ fn (s)2 ds) 2 0 0 Rt Rt 2 2 et quand n → +∞, puisque 0 fn (s) ds → 0 f (s) ds, Z t Z 1 2 t f (s)2 ds). f (s)dBs )) = exp (− λ E(exp (iλ 2 0 0 On a donc montré, Proposition 1.4.1. — Si f ∈ L2 ([0, T ], m), Rt centrée de variance 0 f (s)2 ds Rt 0 f (s)dBs a une loi gaussienne Pour une fonction f ∈ L2 ([0, T ], m) posons Z T Z 1 T Z = exp[ f (s)dBs − f (s)2 ds] 2 0 0 et sur l’espace de probabilité (Ω, A, P) définissons une probabilité Q par la formule, pour tout A ∈ A Z Q(A) = 1A ZdP. Si on note EQ l’espérance par rapport à Q et E l’espérance par rapport à P, on a pour toute fonction mesurable positive X Z Z EQ (X) = XdQ = XZdP = E(XZ) Théorème 1.4.2 (Cameron Martin). — Sur (Ω, A, Q), Z t Q Bt = Bt − f (s)ds 0 est, pour 0 ≤ t ≤ T , un mouvement brownien. l’espace de probabilité 1.5. UNE FORMULE D’ITO 7 Preuve: Soit g ∈ L2 ([0, T ], m). Calculons Z T EQ (exp[ g(t)dBtQ ]). 0 On a Z 0 T g(t)dBtQ donc Z T Z g(t)dBt − = 0 T g(t)f (t)dt 0 Z T g(t)dBtQ ]Z) = E(exp[ 0 0 Z T Z T Z T Z 1 T = E(exp[ g(t)dBt − g(t)f (t)dt + f (t)dBt − f (t)2 dt]) 2 0 0 0 0 Z T Z T 1 = exp[− (g(t)f (t) + f (t)2 )dt]E(exp[ [g(t) + f (t)]dBt ]). 2 0 0 RT On sait par la proposition précédente que 0 [g(t) + f (t)]dBt a une loi normale RT centrée de variance 0 [g(t) + f (t)]2 dt donc Z T Z 1 T E(exp[ [g(t) + f (t)]dBt ]) = exp[ [g(t) + f (t)]2 dt] 2 0 0 On obtient donc Z T Z T Z 1 1 T EQ (exp[ g(t)dBtQ ]) = exp[− (g(t)f (t)+ f (t)2 )dt] exp[ [g(t)+f (t)]2 dt] 2 2 0 0 0 Z T 1 g(t)2 dt] = exp[ 2 0 Pn Le théorème s’en déduit en prenant g(t) = k=1 λk 1[0,tk ] (t) on voit que le Q Q vecteur (Bt1 , · · · , Btn ) a sous Q la même transformée de Fourier, donc la même loi que (Bt1 , · · · , Btn ) et est donc un mouvement brownien. Z EQ (exp[ T g(t)dBtQ ]) 1.5. Une formule d’Ito Commençons par un résultat fondamental, qui est tout à fait particulier au mouvement brownien. Théorème 1.5.1. — Si B est un mouvement brownien si tn0 = 0 < tn1 < · · · < tnn−1 < tnn = t est une suite de subdivisions de [0, t] dont le pas sup0≤k≤n−1 |tnk+1 − tnk | tend vers 0, alors, dans L2 , lim n→∞ n−1 X (Btnk+1 − Btnk )2 = t. k=0 8 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE En fait montrons le résultat plus général suivant : Proposition 1.5.2. — Sous les memes hypothèses, si f est une fonction mesurable bornée, alors dans L2 , n−1 X lim n→∞ f (Btnk )[(Btnk+1 − Btnk )2 − (tnk+1 − tnk )] = 0. k=0 Preuve: n−1 X E( !2 f (Btnk )[(Btnk+1 − Btnk )2 − (tnk+1 − tnk )] ) k=0 n−1 X n−1 X = E( f (Btnk )f (Btnr )[(Btnk+1 −Btnk )2 −(tnk+1 −tnk )][(Btnr+1 −Btnr )2 −(tnr+1 −tnr )]) k=0 r=0 = n−1 X E(f (Btnk )2 [(Btnk+1 − Btnk )2 − (tnk+1 − tnk )]2 ) k=0 X +2 Ef (Btnk )f (Btnr )[(Btnk+1 −Btnk )2 −(tnk+1 −tnk )][(Btnr+1 −Btnr )2 −(tnr+1 −tnr )]) 0≤k<r<n On utilise l’indépendance des accroissements (espérance du produit est égal au produit des espérances) : = n−1 X E(f (Btnk )2 )E[((Btnk+1 − Btnk )2 − (tnk+1 − tnk ))2 ) k=0 X +2 E[f (Btnk )f (Btnr )((Btnk+1 −Btnk )2 −(tnk+1 −tnk ))]E[(Btnr+1 −Btnr )2 −(tnr+1 −tnr )]. 0≤k<r<n Or, puisque Bt+h − Bt a la même loi que E[((Btnk+1 √ hB1 , E[(Btnr+1 − Btnr )2 − (tnr+1 − tnr )] = 0 q − Btnk )2 − (tnk+1 − tnk ))2 ) = E[(( tnk+1 − tnk )B1 )2 − (tnk+1 − tnk ))2 ) = (tnk+1 − tnk )2 E[(B12 − 1)2 ]. Donc E( n−1 X !2 2 f (Btnk )[(Btnk+1 − Btnk ) − (tnk+1 − tnk )] k=0 = n−1 X (tnk+1 − tnk )2 E(f (Btnk )2 )E[(B12 − 1)2 ]. k=0 ) 1.5. UNE FORMULE D’ITO 9 Or ceci se majore par, si C = E[(B12 − 1)2 ] max f 2 , C n−1 X (tnk+1 − tnk )2 ≤C sup 0≤k≤n−1 k=0 ≤ Ct sup 0≤k≤n−1 |tnk+1 tnk | − n−1 X (tnk+1 − tnk ) k=0 |tnk+1 − tnk | qui tend vers 0. Théorème 1.5.3 (Une formule d’Ito). — Si f : R → R est à dérivée seconde continue, Z Z t 1 t 00 0 f (Bs ) ds. f (Bs ) dBs + f (Bt ) = f (B0 ) + 2 0 0 Preuve: On peut se ramener au cas f est à support compact. On va utiliser la formule de Taylor (Taylor-Lagrange) : pour tout x, y il existe z entre x et y tels que 1 f (y) − f (x) = f 0 (x)(y − x) + f 00 (z)(y − x)2 . 2 On prend une suite de subdivisions de [0, t], par exemple tnk = kt n. f (Bt ) − f (B0 ) = n−1 X (f (Btnk+1 ) − f (Btnk )) k=0 = n−1 X n−1 0 f (B )(B tn k tn k+1 k=0 où θnk 1 X 00 k f (θn )(Btnk+1 − Btnk )2 −B )+ 2 tn k k=0 est entre B et B . Comme ça ne dépend pas de n c’est égal à sa limite quand n → +∞. Prenons la limite de chacun des deux termes de la somme pour une sous suite (en utilisant que la convergence L2 entraı̂ne la convergence p.s. pour une sous suite). Pour le premier, on remarque d’abord que Z t n−1 X 0 f (Btnk )(Btnk+1 − Btnk ) = Zsn dBs tn k tn k+1 0 k=0 où Ztn = n−1 X f 0 (Btnk )1[tnk ,tnk+1 ] (t). k=0 Donc, n−1 X E([ k=0 f 0 (Btnk )(Btnk+1 − Btnk ) − Z 0 t f 0 (Bs ) dBs ]2 ) 10 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE Z t = E([ (Zsn − f 0 (Bs )) dBs ]2 ) 0 Z t = E( (Zsn − f 0 (Bs ))2 ds) 0 qui tend vers 0 par le théorème de convergence dominée usuel. Donc, dans L2 , Z t n−1 X f 0 (Bs ) dBs . f 0 (Btnk )(Btnk+1 − Btnk ) → 0 k=0 On regarde maintenant le dernier terme : n−1 X [f 00 (θkn ) − f 00 (Btnk )](Btnk+1 − Btnk )2 k=0 ≤ |f sup 1≤r≤n−1 00 (θrn ) 00 − f (Btnr )| n−1 X n (Btnk+1 − B tk )2 k=0 tend vers 0, p.s. suivant une sous suite car f 00 est uniformément continue. Par la proposition, dans L2 , lim n→∞ n−1 X f 00 (Btnk )(Btnk+1 − Btnk )2 = lim n→∞ k=0 t Z n−1 X f 00 (Btnk )(tnk+1 − tnk ) k=0 f 00 (Bs ) ds = 0 puisque f 00 est continue (approximation de l’intégrale de Riemann). On laisse en exercice la généralisation suivante très utile, en utilisant la formule de Taylor pour une fonction de deux variables. Théorème 1.5.4 (Une formule d’Ito). — Si f : R+ × R → R, (t, x) 7→ f (t, x) est à dérivées secondes continues, Z t Z t Z ∂f ∂f 1 t 00 f (t, Bt ) = f (0, 0) + (s, Bs ) ds (s, Bs ) dBs + f (s, Bs ) ds 2 0 0 ∂t 0 ∂x 1.5.1. Deux calculs. — Bt2 = 2 Z t Bs dBs + t. 0 Si Zt = exp(λBt − λ2 t2 2 ) alors Z Zt = 1 + t λZs dBs . 0 1.6. BILIOGRAPHIE POUR TOUT LE COURS 11 1.6. Biliographie pour tout le cours R. Bass : Stochastic Processes, Cambridge University Press, 2011. F. Baudoin : Diffusion Processes and Stochastic Calculus, EMS Textbooks in mathematics, 2014. R. Durrett : Stochastic calculus, A practical Introduction, 1996. CRC Press. I. Karatzas, S. Shreve : Brownian motion and stochastic calculus, Second Edition 1991. Springer. F.C Klebaner : Introduction to Stochastic Calculus with Applications, Second Edition 2005. Imperial College Press. J.-F. Le Gall : Mouvement brownien, martingales et calcul stochastiqueSpringer, Collection : Mathématiques et Applications, Vol. 71, 2013. (Recommandé) B. Oksendal : Stochastic differential equations, 6th edition, 2010. Springer. (Beaucoup d’applications) Ph. Protter : Stochastic Integration and Differential Equations, Second Edition Version 2.1, 2005. Springer (traite aussi le cas discontinu). D. Revuz, M. Yor : Continuous martingales and Brownian motion, 2004. Springer. CHAPITRE 2 INTÉGRATION DE LEBESGUE Le but de ce chapitre est de développer rapidement ce que l’on appelle la théorie abstraite de l’intégration de Lebesgue. 2.1. Mesures Un espace mesurable est la donnée (Ω, F) d’un ensemble Ω et d’une tribu F sur cet ensemble : Définition 2.1.1. — Une classe de parties F d’un ensemble Ω est une tribu si (i) elle est stable par complémentaire, (ii) elle est stable par réunion dénombrable, (iii) elle contient Ω. Pour comparaison une topologie est une classe d’ouverts : c’est à dire, par définition, une classe de parties de Ω stable par union quelconque, intersection finie, contenant Ω et ∅ Définition 2.1.2. — Une mesure sur un espace mesurable (Ω, F) est une application m : F → R+ ∪ {+∞} telle que (i) m(∅) = 0. (ii) m(A ∪ B) = m(A) + m(B) si A ∈ F, B ∈ F sont disjoints. (iii) si (An ) est une suite croissante d’éléments de F, m(An ) → m(∪An ). On dit que m est σ-finie si on peut écrire Ω comme une réunion dénombrable d’ensembles de mesure finie ; m est une probabilité si m(Ω) = 1. 14 CHAPITRE 2. INTÉGRATION DE LEBESGUE Exemple : Lorsque Ω est dénombrable (c’est à dire fini ou en bijection avec N) , F = ensemble de toutes les parties de Ω est une tribu et m(A) = Card(A) définit une mesure σ-finie (théorie des séries). Il est difficile de décrire aussi explicitement des exemples très différents de celui ci, comme par exemple la mesure de Lebesgue que nous verrons. Définition 2.1.3. — On dit qu’une propriété est vraie p.p. (presque partout) ou p.s. (presque surement) si elle est vraie en dehors d’un ensemble de mesure nulle. 2.2. Intégration Soit (Ω, F, m) un espace mesurable muni d’une mesure. Une fonction f : Ω → R est étagée si on peut l’écrire sous la forme f= n X rk 1Ak k=1 où rk ∈ R, Ak ∈ F, k = 1, ..n. On définit l’intégrale de la fonction étagée f positive par Z f dm = n X rk m(Ak ). k=1 (avec la convention ici que 0 · ∞ = 0). On vérifie que ça ne dépend pas de la décomposition choisie et que, si f, g sont étagées positives et a, b ∈ R+ , Z Z Z (af + bg) dm = a f dm + b g dm. Pour l’instant, appelons fonction mesurable réelle une fonction f : Ω → R̄ telle que pour tout a ∈ R, {f > a} ∈ F. (On utilisera les notations {f > a} = {ω ∈ Ω; f (ω) > a} et R̄ = R ∪ {+∞} ∪ {−∞}). Lemme 2.2.1. — Si (fn ) est une suite de fonctions mesurables, alors supn∈N fn est mesurable. Preuve: En effet il suffit d’écrire que {sup fn > a} = ∪n∈N {fn > a}. n∈N 2.2. INTÉGRATION 15 Si (fn ) est une suite de fonctions mesurables, pour la même raison, inf n∈N fn et donc lim sup fn := lim sup fk = inf sup fk n→+∞ k≥n n∈N k≥n lim inf fn := lim inf fk = sup inf fk n→+∞ k≥n n∈N k≥n sont mesurables. En particulier une limite de fonctions mesurables est mesurable (rappelons qu’une suite fn converge dans R̄ ssi f := lim sup fn = lim inf fn et qu’alors f est la limite). Si f : Ω → R est mesurable positive on pose Z Z f dm = sup g dm où le sup est pris sur l’ensemble des fonctions étagées g qui vérifient 0 ≤ g ≤ f . Si f est mesurable on dit que f est intégrable si f + := max(f, 0) et f − := − min(f, 0) sont d’intégrale finie et on pose alors Z Z Z + f dm = f dm − f − dm. On voit que f est intégrable ssi |f | l’est puisque |f | = f + + f − et on a Z Z | f dm| ≤ |f | dm Lemme 2.2.2. — Une fonction intégrable est finie presque partout. Preuve: Soit A = {|f | = +∞}. Si r > 0 et g = r1A , on a g ≤ |f | donc Z Z rm(A) = g dm ≤ |f |dm ce qui n’est possible pour r > 0 que si m(A) = 0. Si f et g sont mesurables finies, −f et f + g sont aussi mesurables car {−f > a}c = {f ≥ −a} = ∩n∈N {f > −a − 1 } n et {f + g > a} = ∪r∈Q {f > r, g > a − r}. On en déduit Proposition 2.2.3. — L’ensemble des fonctions intégrables est un espace vectoriel. 16 CHAPITRE 2. INTÉGRATION DE LEBESGUE Théorème 2.2.4 (de convergence monotone, ou de Beppo Levi) Si fn est une suite croissante de fonctions mesurables positives, Z Z lim fn dm = lim fn dm. n→+∞ n→+∞ Preuve: La fonction f := lim fn est mesurable. Puisque fn ≤ fn+1 ≤ f , il est facile de voir que Z Z Z fn dm ≤ fn+1 dm ≤ f dm. R R Donc lim fn dm ≤ f dm. Pour montrer l’inégalité inverse, prenons une fonction étagée g telle que 0 ≤ g ≤ f et un réel c tel que 0 < c < 1. Chaque ensemble En = {fn ≥ cg} est mesurable, la suite En est croissante, de réunion Ω. On a Z Z Z fn dm ≥ fn 1En dm ≥ cg1En dm. R Comme g est étagée, on vérifie que le terme de droite tend vers c g dm. On a donc Z Z lim fn dm ≥ c g dm d’où, par définition, Z lim Z fn dm ≥ c f dm. Il suffit alors de faire tendre c vers 1. Corollaire 2.2.5. — Si (fn )est une suite de fonctions mesurables positives Z X +∞ Z +∞ X fn dm = fn dm. n=0 n=0 Lemme 2.2.6 (de Fatou). — Soit (fn ) une suite de fonctions mesurables positives, Z Z lim inf fn dm ≤ lim inf fn dm. Théorème 2.2.7 (de convergence dominée). — Soit (fn ) une suite de fonctions mesurables vérifiant |fn (x)| ≤ g(x) pour tout x de E, où g est une fonction intégrable, alors si fn converge Z Z lim fn dm = lim fn dm. n→+∞ n→+∞ 2.3. ESPACES L1 , L1 , L2 , L2 . 17 Preuve: En remplacant fn par fn − lim fk on se ramène au cas où fn → 0. Dans ce cas, par Fatou appliqué à g − |fn | ≥ 0, Z Z Z Z Z g dm ≤ lim inf g−|fn | dm ≤ lim inf g−|fn | dm = g dm−lim sup |fn | dm R R Donc lim sup |fn | dm = 0 ce qui assure que lim |fn | dm = 0. Donc Z Z | lim fn dm| ≤ lim |fn | dm = 0. 2.3. Espaces L1 , L1 , L2 , L2 . On note L1 l’ensemble des fonctions intégrables, L2 l’ensemble des fonctions de carré intégrable, i.e. des fonctions mesurables f : Ω → R̄ telles que Z |f |2 dm < +∞, et L∞ l’ensemble des fonctions mesurables f pour lesquelles il existe une constante M ≥ 0 telle que |f | ≤ M , p.p. On pose Z kf k1 = |f | dm Z kf k2 = ( f 2 dm)1/2 . et kf k∞ = l’inf des M tels que |f | ≤ M , p.p. On définit ainsi des semi-normes c’est à dire que la relation suivante est vraie pour p = 1, 2, ∞ : kf + gkp ≤ kf kp + kgkp Ceci est immédiat pour p = 1 et résulte pour p = 2 du lemme essentiel suivant : Lemme 2.3.1 (inégalité de Cauchy Schwarz). — Pour f, g mesurables Z Z Z 2 2 ( f g dm) ≤ f dm g 2 dm. Preuve: Pour tout λ ∈ R, le trinome en λ du second degré Z Z Z Z λ2 [ f 2 dm] + 2λ[ f g dm] + g 2 dm = (λf + g)2 dm est positif, ce qui n’est possible que si son discriminant Z Z Z 2 2 [ f g dm] − [ f dm][ g 2 dm] est négatif. 18 CHAPITRE 2. INTÉGRATION DE LEBESGUE On dit qu’une suite de fonctions mesurables fn converge vers f dans Lp , si lim kfn − f kp = 0. n→+∞ Théorème 2.3.2. — Si une suite fn converge vers f dans Lp il existe une sous suite d’entiers nk telle que, pour presque tout ω ∈ Ω fnk (ω) → f (ω). Preuve: Ecrivons la preuve pour p = 1. Par hypothèse pour ε = 1/2k il existe nk tel que 1 kfnk − f k1 ≤ k . 2 Alors, par Beppo Levi, Z X ∞ ∞ Z ∞ ∞ X X X 1 |fnk − f | dm = |fnk − f | dm = kfnk − f k ≤ < +∞ 2k k=0 k=0 k=0 k=0 P Donc (cf Lemme 2.2.2) la série ∞ k=0 |fnk − f | converge p.p. ce qui entraı̂ne que son terme général fnk − f tend vers 0, p.p. Définition 2.3.3. — La suite (fn ) est de Cauchy dans Lp si pour tout ε > 0 il existe N > 0 tel que pour m, n ≥ N kfn − fm k ≤ ε. Théorème 2.3.4. — Soit (fn ) une suite de Cauchy dans Lp . Alors il existe f ∈ Lp tel que fn → f dans Lp . Preuve: Ecrivons la preuve pour p = 1. Puisque la suite (fn ) est de Cauchy, pour tout k ∈ N, il existe Nk tel que, pour n, m ≥ Nk , kfn − fm k ≤ 2−k . Si on prend nk = max(N0 , · · · , Nk ) on voit que kfnk+1 − fnk k ≤ 2−k . Donc, un peu comme dans la preuve précédente, Z X ∞ ∞ ∞ X X 1 < +∞. |fnk+1 − fnk | dm = kfnk+1 − fnk k ≤ 2k k=1 k=0 k=0 2.3. ESPACES L1 , L1 , L2 , L2 . 19 P Donc (cf Lemme 2.2.2) ∞ k=0 |fnk − fnk+1 | est fini presque partout, et la série P∞ k=0 (fnk − fnk+1 ) est donc convergente (car absolument convergente). On a fnp = fn0 p−1 X + (fnk+1 − fnk ) k=0 et on pose f = fn0 + ∞ X (fnk+1 − fnk ). k=0 Pour tout n ≥ Nk , p ≥ k, kfn − fnp k ≤ 2−k donc, en appliquant le lemme de Fatou, Z Z |fn − f | dm ≤ lim inf |fn − fnp | dm ≤ 2−k p→+∞ d’où kfn − f k tend vers 0. Par rapport à la topologie il y a une petite difficulté car R Lemme 2.3.5. — Si f est mesurable |f | dm = 0 si et seulement si f = 0 p.p. Cela résulte immédiatement de la très importante inégalité suivante Lemme 2.3.6 (Inégalité de Markov). — Si f est une fonction mesurable positive et T > 0, R f dm m(f ≥ T ) ≤ . T Donc kf k = 0, n’entraı̂ne pas que f est nulle (partout). Donc k · k n’est pas une norme, mais seulement une semi-norme, et d(f, g) = kf − gk pas vraiment une distance. Ce n’est pas génant (et si on veut une norme on remplace Lp par l’ensemble Lp des classes de fonctions égales presque partout). Un role particulier est joué par L2 (ou L2 ) car il a une structure géométrique plus riche que les autres. On peut y définir les angles et surtout l’orthogonalité, à partir du produit scalaire : pour f, g ∈ L2 Z hf, gi = f g dm. Un espace vectoriel muni d’un produit scalaire dans lequel les suites de Cauchy convergent est appelé un espace de Hilbert. Donc L2 (ou plutot L2 ) est un espace de Hilbert. Une propriété fondamentale des espaces de Hilbert est le théorème suivant. 20 CHAPITRE 2. INTÉGRATION DE LEBESGUE Théorème 2.3.7 (Théorème de projection). — Soit V un sous espace vectoriel fermé dans un espace de Hilbert H. Pour tout x ∈ H il existe un unique élément v ∈ V appelé la projection de x sur V caractérisé par — v∈V — hx − v, wi = 0, pour tous w ∈ V . Corollaire 2.3.8. — Soit W un sous espace vectoriel d’un Hilbert H. Si le seul vecteur orthogonal à W est 0, alors W est dense dans H Preuve: Appliquer le théorème à l’adhérence de W . 2.4. Convergence en probabilité Définition 2.4.1. — Une suite de v.a. Xn tend vers X en probabilité si pour tout ε > 0, P(|Xn − X] ≥ ε) → 0 quand n → +∞. Lemme 2.4.2. — Xn → 0 en probabilité si et seulement si min(|Xn |, 1) → 0 dans L1 Preuve: Si Xn → 0 en probabilité, pour tout ε > 0, E(min(|Xn |, 1)) = E(min(|Xn |, 1)1{|Xn |≥ε} ) + E(min(|Xn |, 1)1{|Xn |<ε} ) ≤ P(|Xn | ≥ ε) + ε ≤ 2ε pour n assez grand. Réciproquement, par l’inégalité de Markov, pour 0 ≤ ε ≤ 1 P(|Xn | ≥ ε) = P(min(1, |Xn |) ≥ ε) ≤ min(1, |Xn |) ε qui tend vers 0. On déduit donc du Théorème 2.3.2 que Proposition 2.4.3. — Si Xn → 0 p.s., alors Xn → 0 en probabilité.. Si Xn → X en probabilité il existe une sous suite nk telle que Xnk → X presque surement. 2.5. UNIFORME INTÉGRABILITÉ 21 2.5. Uniforme intégrabilité Limitons nous au cas des probabilités et utilisons les notations probabilistes : on note P une probabilité sur (Ω, F). Une variable aléatoire réelle X : Ω → R est la même chose qu’une fonction mesurable et on pose Z E(X) = X dP. Définition 2.5.1. — Une famille L de v.a. est uniformément intégrable si Z |X| dP → 0, quand R → +∞. sup X∈L {|X|>R} Lemme 2.5.2. — Si {Xi , i ∈ I} et {Yi , i ∈ I} sont uniformément intégrables, alors {Xi + Yi , i ∈ I} est uniformément intégrable. Preuve: On a E(|Xi |1{|Xi +Yi |≥M } ) = E(|Xi |1{|Xi +Yi |≥M } 1{|Xi |≥M/2 })+E(|Xi |1{|Xi +Yi |≥M } 1{|Xi |<M/2} ) ≤ E(|Xi |1{|Xi |≥M/2} ) + E(|Xi |1{|Xi +Yi |≥M } 1{|Xi |<M/2 }) Le sup du premier terme tend vers 0 car (Xi ) est uniformément intégrable. Pour le second on remarque qu’il est majoré par E(|Yi |1|Yi |≥M/2 ) qui tend aussi vers 0. Théorème 2.5.3. — Soit {Xn , n ∈ N} une suite uniformément intégrable de v.a. qui converge en probabilité (donc a fortiori si elle converge p.s.) vers X. Alors Xn → X dans L1 et en particulier, E(Xn ) → E(X). Preuve: La suite Yn = |Xn − X| est aussi uniformément intégrable par le lemme.. Ensuite E(Yn ) = E(Yn 1{Yn <R} ) + E(Yn 1{Yn ≥R} ) Pour tout ε > 0, pour R assez grand, le second terme est inférieur à ε/2 par unif. int. Un tel R étant choisi, le premier terme est inférieur à ε/2 pour n assez grand, par convergence en probabilité. Proposition 2.5.4. — Une suite de v.a. Xn telle que supn E(Xn2 ) < +∞ est uniformément intégrable. Preuve: On utilise que 1{|Xn |>R} ≤ |Xn | R donc E[|Xn |1{|Xn |>R} ] ≤ E[Xn2 ] . R 22 CHAPITRE 2. INTÉGRATION DE LEBESGUE 2.6. Divers Lemme 2.6.1 (de Borel Cantelli). — Soit (An ) une suite de sous enP sembles mesurables de Ω telle que ∞ n=0 m(An ) < +∞. Alors +∞ X 1An < +∞ p.s. k=0 Autrement dit, presque tout ω ∈ Ω n’appartient qu’à un nombre fini de An . Preuve: Par convergence monotone, Z X +∞ +∞ X 1An dm = m(An ) < +∞ k=0 donc P+∞ k=0 1An k=0 < +∞ p.p. . 2.7. Tribu engendrée Définition 2.7.1. — Soit C un ensemble de parties de Ω. On appelle tribu engendrée par C et on note σ(C) la plus petite tribu contenant C. Définition 2.7.2. — Soit E un espace muni d’une topologie, on appelle tribu borélienne de E et on note B(E) la tribu engendrée par les ouverts. Définition 2.7.3. — Soit (E, E) et (F, B) deux espaces mesurables, on dit qu’une fonction f : E → F est mesurable si pour tout B ∈ B, f −1 (B) ∈ E. Lorsque E ou F est un espace topologique, si on ne le précise pas, on le munit de la tribu borélienne. On retrouve donc la notion introduite avant. Un sup, un inf, une limite d’une suite de fonctions mesurables à valeurs réelles sont mesurables. Les fonctions continues sont mesurables. Lemme 2.7.4. — Toute fonction mesurable de E dans R̄+ est la limite croissante d’une suite de fonctions étagées. En effet, f = lim n1{n≤f } + n→+∞ n −1 n2 X k=0 k 1 k k+1 2n { 2n ≤f < 2n } (lorsque f est finie on peut se passer du premier terme). Pour s’habituer aux notations, utilisons le vocabulaire des probabilités. Donnons nous une famille (Ei , Ei ), i ∈ I, d’espaces mesurables. 2.7. TRIBU ENGENDRÉE 23 Définition 2.7.5. — Soit Xi : Ω → Ei , i ∈ I, des v.a.. On appelle tribu engendrée par cette famille et on note σ(Xi , i ∈ I) la tribu engendrée par {Xi ∈ Ai }, Ai ∈ Ei et i ∈ I. Intuitivement, la tribu σ{Xi , i ∈ I} est formée des ensembles que l’on peut décrire à l’aide des Xi . Pour une seule application X : Ω → Rd , σ(X) est exactement la classe des ensembles {X ∈ A}, où A est un borélien de Rd . Donnons nous pour toute la suite un espace de probabilité (Ω, F, P). Une variable aléatoire est la même chose qu’une application mesurable mais la plupart du temps à valeurs dans E = R ou Rd . Le lemme suivant est très utile. Lemme 2.7.6. — Soit X une application de Ω dans un espace mesurable (E, E) et σ(X). Une application Y : Ω → R est σ(X)-mesurable si et seulement si il existe une application mesurable φ : E → R telle que Y = φ(X). Preuve: Supposons d’abord que Y est étagée et σ(X)-mesurable. On peut par P définition l’écrire sous la forme Y = kn=1 αn 1An , où An ∈ σ(X). Il existe donc P pour tout n, un borélien Bn tel que An = {X ∈ Bn }. Posons φ = kn=1 αn 1Bn . On vérifie qu’alors Y = φ(X). Ceci montre la partie directe du lemme lorsque Y est étagée. Dans le cas général, si Y est σ(X)-mesurable, il existe une suite de v.a. étagées Yn telle que Y = lim Yn . Par ce qui précède, on peut écrire Yn = φn (X) et il suffit alors de poser φ = lim sup φn . La réciproque est facile. Une façon agréable d’exprimer le lemme précédant est de dire qu’une variable aléatoire Y est σ(X1 , X2 , · · · , Xn )-mesurable si et seulement si elle s’écrit Y = φ(X1 , X2 , · · · , Xn ) pour une application borélienne φ. Le maniement des tribus engendrées est souvent délicat. Un outil sophistiqué : Théorème 2.7.7 (de la classe monotone). — Soient C et M des ensembles de parties de Ω tels que C ⊂ M. On suppose que (i) C est stable par intersection finie (i.e. A, B ∈ C implique A ∩ B ∈ C). (ii) M est stable par différence propre (i.e. A, B ∈ M et A ⊂ B implique B \ A ∈ M). (iii) M est stable par limite croissante (i.e. An ∈ M et An ⊂ An+1 implique ∪An ∈ M). (iv) Ω est dans M. 24 CHAPITRE 2. INTÉGRATION DE LEBESGUE Alors σ(C) est contenu dans M. Preuve: Montrons que l’intersection N de toutes les classes M vérifiant (ii), (iii), (iv) est une tribu donc contient σ(C). Stable par intersection finie : Fixons un A de C, la classe {B ∈ N ; A ∩ B ∈ N } contient C par (i) et vérifie (ii, iii, iv), elle contient donc N . Maintenant, fixons un B dans N , la classe {C ∈ N ; C ∩ B ∈ N } contient C par ce que l’on vient de montrer et vérifie (ii, iii, iv), elle contient donc N . Le résultat fondamental de la théorie de l’intégration est le suivant : Théorème 2.7.8. — Il existe une et une seule mesure m sur R, appelée mesure de Lebesgue, vérifiant m(]s, t]) = t − s Plus généralement, pour toute fonction croissante continue à droite A il existe une mesure et une seule mA vérifiant mA (]s, t]) = A(t) − A(s) pour tout s < t. La preuve de l’existence est difficile, nous l’admettons. Par contre l’unicité est conséquence du théorème de la classe monotone (appliqué à la classe des intervalles de la forme [a, b], a, b ∈ R, qui engendre la tribu borélienne et est stable par intersection finie.) Il est facile de voir, en utilisant le théorème de convergence dominée que R pour toute fonction continue à support compact sur R, f dm n’est autre que R l’intégrale de Riemann de f . Nous utiliserons donc aussi la notation f (x) dx. 2.8. Loi d’une variable aléatoire On se donne un espace de probabilité (Ω, F, P) et un ensemble E, muni d’une tribu E. Définition 2.8.1. — Soit X : Ω → E une variable aléatoire (= application mesurable). On appelle loi de X et on note parfois P(X) la probabilité sur (E, E) définie par P(X) (A) = P(X ∈ A), pour tout A de E. 2.9. MESURE PRODUIT 25 La règle de calcul suivante est d’un emploi constant : il faut absolument savoir la manier. La première égalité est la définition de l’espérance. Proposition 2.8.2. — Soit X une variable aléatoire à valeurs dans E. Pour toute fonction mesurable f : E → R, à valeurs positives ou telle que f (X) soit intégrable, on a Z Z f dP(X) . f (X) dP = E(f (X)) = E Ω Définition 2.8.3. — Etant donné deux mesures µ et ν sur (Ω, F), et une fonction mesurable positive φ : Ω → R, on dit que µ a la densité φ par rapport à ν et on écrit dµ = φ dν si pour tout A ∈ F Z µ(A) = φ(x) dν(x). A Alors, pour toute fonction mesurable positive f Z Z f dµ = f φ dν. Souvent lorsqu’on dit qu’une v.a. réelle a la densité φ, on sous entend que sa loi a la densité φ par rapport à la mesure de Lebesgue. Proposition 2.8.4. — Si une v.a. X a une loi de densité φ, alors Z E(f (X)) = f (x)φ(x) dm(x) pour toute fonction mesurable positive f . 2.9. Mesure produit Soient (E1 , E1 , m1 ) et (E2 , E2 , m2 ) deux espaces mesurés σ-finis. On munit E1 × E2 de la tribu E1 ⊗ E2 sur E1 × E2 , appelée tribu produit, engendrée par les ensembles de la classe C = {A × B, A ∈ E1 , B ∈ E2 } Cette classe est stable par intersection finie. On pose, pour tout C ∈ E1 ⊗ E2 , Z Z (m1 ⊗ m2 )(C) = { 1C (x, y) dm1 (x)} dm2 (y)} 26 CHAPITRE 2. INTÉGRATION DE LEBESGUE R (à l’aide du thm de classe monotone, on vérifie que y 7→ 1C (x, y) dm1 (x) est bien mesurable). On définit ainsi une mesure sur m1 ⊗ m2 sur E1 × E2 . De la même façon, la formule Z Z ν(C) = { 1C (x, y) dm2 (y)} dm1 (x)} définit aussi une mesure. Pour tout C = A × B de C, (m1 ⊗ m2 )(C) = m1 (A)m2 (B) = ν(C) On déduit donc du théorème de classe monotone que les deux mesures m1 ⊗m2 et ν coincident. Il en résulte assez facilement : Théorème 2.9.1 (de Fubini). — Soit f : E1 × E2 → R une fonction mesurable. Alors, pour tout x ∈ E1 , la fonction Z y ∈ E2 7→ f (x, y) dm1 (x) est mesurable et Z Z Z Z { f (x, y) dm1 (x)}dm2 (y) = { f (x, y) dm2 (y)}dm1 (x) sous l’une des deux hypothèses suivantes (i) f est à valeurs positives (ii) f est intégrable Lorsque f n’est pas positive, on applique souvent ce thm à |f | pour montrer que f est intégrable. L’exemple fondamental est celui de la mesure de Lebesgue sur Rd = R × R × · · · × R, égale au produit, d fois, de la mesure de Lebesgue sur R. Pour la manier on utilise parfois le Théorème 2.9.2 (de changement de variables). — Si φ est un difféomorphisme de l’ouvert U sur l’ouvert V , on a, pour toute f ∈ B + (Rd ), Z Z (1) f (v) dm(v) = f (φ(u))|J(φ)(u)| dm(u). V U où J(φ) est le déterminant de la matrice des Lebesgue. ∂φj ∂uk et m est le mesure de 2.10. PROCESSUS 27 2.10. Processus Un processus (à temps continu) est une famille de variables aléatoires (Xt ) à valeurs dans un espace E muni d’une tribu E, indexée par t ∈ R+ . En fait c’est la même chose qu’une variable aléatoire à valeurs dans l’ensemble F (R+ , E) des fonctions de R+ dans E muni de la tribu F(R+ , E) engendrée par les applications φt : F (R+ , E) → E définies par φt (ω) = ω(t), ω ∈ F (R+ , E). La loi du processus est par définition la loi de cette variable aléatoire. Proposition 2.10.1. — La loi d’un processus est déterminée par les lois finies dimensionnelles, c’est à dire les lois de (Xt1 , · · · Xtn ), 0 ≤ t1 ≤ t2 ≤ · · · ≤ tn , n ∈ N. Preuve: Cela résulte du théorème de la classe monotone. En effet, la classe des sous ensembles de F(R+ , E) qui s’écrivent {ω ∈ F (R+ , E); ω(t1 ) ∈ E1 , · · · , ω(tn ) ∈ En } où les Ek sont dans E est stable par intersection finie et engendre la tribu F(R+ , E). Soit (Ω, F, P) un espace de probabilité. On représente ce que l’on ”connait” à l’instant t par une tribu Ft . Ceci amène à poser Définition 2.10.2. — Une famille croissante (Ft , t ∈ R+ ) de sous-tribus de F, c’est à dire vérifiant Fs ⊂ Ft ⊂ F, s’appelle une filtration et le terme (Ω, F, Ft , P) un espace de probabilité filtré. Un processus Xt est dit adapté à cette filtration si Xt est Ft -mesurable, pour tout t ≥ 0. L’exemple fondamental de filtration est donné par Ft = σ(Xs , s ≤ t) où (Xt ) est un processus quelconque. Si Xt est un processus adapté sans régularité particulière, on ne sait rien de sa dépendance en t. Elle n’est peut être même pas borélienne. Ceci amène à poser : Définition 2.10.3. — Un processus progressivement mesurable Xt , t ∈ R+ , est un processus tel que pour tout T ≥ 0, l’application (t, ω) ∈ [0, T ] × Ω 7→ Xt (ω) est mesurable de B([0, T ]) ⊗ FT dans B(R), où B([0, T ]) et B(R) sont les tribus boréliennes. En pratique tous les processus adaptés que nous rencontrerons seront progressifs. C’est par exemple le cas des processus continus et plus généralement, 28 CHAPITRE 2. INTÉGRATION DE LEBESGUE Lemme 2.10.4. — Si X est un processus continu à droite (ou à gauche) adapté à (Ft ), l’application (s, ω) 7→ Xs (ω) est progressivement mesurable. Preuve: Pour continu à droite : pour tout n, posons Xs(n) = n−1 X k=0 X k+1 ∧t 1{ k ∧t≤s< k+1 ∧t} n n n (n) Alors (s, ω) 7→ Xs (ω) est mesurable de ([0, t] × Ω, B([0, t]) ⊗ Ft ) dans E. Il en est donc de même de la limite X de X (n) quand n → +∞. 2.11. Indépendance La notion la plus importante en probabilité est sans conteste la notion d’indépendance. Elle recouvre à la fois une notion intuitive (le résultat du loto est indépendant de la température, etc ...) et une notion mathématique. Il est nécessaire de bien posséder ces deux aspects et de comprendre qu’ils signifient la même chose. Un bon utilisateur des probabilités est quelqu’un qui sait exploiter l’indépendance, ou la non indépendance, dans les événements de la vie courante. Même si le plus souvent on ne s’intéresse qu’à l’indépendance d’événements ou de variables aléatoires, il s’avère plus efficace de définir l’indépendance de tribus. Un espace de probabilité (Ω, A, P) est toujours fixé. Définition 2.11.1. — On dit que des tribus A1 , · · · , An contenues dans A sont indépendantes si, pour tout A1 ∈ A1 , · · · , An ∈ An , P(A1 ∩ A2 · · · ∩ An ) = P(A1 )P(A2 ) · · · P(An ). Des variables aléatoires X1 , · · · , Xn sont dites indépendantes si les tribus engendrées σ(X1 ), · · · , σ(Xn ) le sont. On dit qu’une famille infinie de sous tribus (ou de variables aléatoires) est formée de tribus indépendantes lorsque toute sous famille finie a cette propriété. Donnons quelques résultats utiles au maniement de l’indépendance. Le premier est très important et son énoncé est à bien comprendre, malgré son aspect compliqué. Nous en donnons deux formes. Proposition 2.11.2 (Lemme de regroupement). — (Forme 1). Soit I un ensemble d’indices, et Ai , i ∈ I, des sous tribus indépendantes de A. Alors, si I1 , I2 , · · · , In sont des parties disjointes de I, les tribus σ(Ai , i ∈ I1 ), σ(Ai , i ∈ I2 ), · · · , σ(Ai , i ∈ In ) sont indépendantes. 2.11. INDÉPENDANCE 29 (Forme 2). Soit X1 , X2 , · · · , Xn , · · · des variables aléatoires indépendantes. Alors si 0 < n1 < n2 < n3 < · · · les variables aléatoires φ1 (X1 , · · · , Xn1 ), φ2 (Xn1 +1 , · · · , Xn2 ), · · · sont indépendantes, pour toute application φ1 : Rn1 → R, φ2 : Rn2 −n1 → R, · · · , mesurable. Donnons un exemple simple mais typique d’utilisation : si X, Y, U, V sont quatre variables aléatoires réelles indépendantes, alors X + Y et U V sont indépendantes. Théorème 2.11.3. — Deux variables aléatoires X, Y sont indépendantes si et seulement si P(X,Y ) = P(X) ⊗ P(Y ) . Corollaire 2.11.4. — Si les variables aléatoires X, Y sont indépendantes, alors pour toute fonction φ mesurable positive (ou telle que φ(X, Y ) soit intégrable) on a Z Z E[φ(X, Y )] = φ(x, y) dP(X) (x)dP(Y ) (y). On peut aussi écrire cette relation sous les formes Z Z E[φ(X, Y )] = φ(X(ω), Y (ω 0 )) dP(ω)dP(ω 0 ), Ω Ω ou encore Z E[φ(X, Y )] = Ω qui nous seront utiles. E[φ(X, Y (ω 0 ))] dP(ω 0 ), CHAPITRE 3 MOUVEMENT BROWNIEN 3.1. Loi gaussienne La loi gaussienne N (m, σ 2 ) sur R est la masse de Dirac en m lorsque σ = 0 et la loi de densité (x−m)2 1 √ e− 2σ2 2πσ 2 sinon. Il n’y a pas de primitive explicite mais une excellente approximation par une fraction rationnelle (1) . Si X suit la N (m, σ 2 ), alors E(X) = m, var(X) = σ 2 . Lorsque σ = 0, X = m p.s. La fonction caractéristique est E(eitX ) = 2 2 exp{− σ 2t + itm}. Proposition 3.1.1. — Toute limite de v.a. gaussiennes, en loi, en probabilité, ou p.s., ou dans L1 , ou dans L2 est gaussienne. De plus l’espérance et la variance convergent vers l’espérance et la variance de la limite. Preuve: Toutes les convergences considérées entraı̂nent la convergence en loi. Supposons donc que Xn converge en loi vers X et que Xn suit une loi 2 2 N (mn , σn2 ). Alors E(eitXn ) = exp{− σn2t +itmn } et E(eitXn ) → g(t) := E(eitX ). 2 2 En prenant le module on voit que exp{− σn2t } → |g(t)| donc que σn2 converge vers σ 2 = −(2 log |g(t)|)/t2 . On en déduit que eitmn converge vers h(t) = R 2 2 exp{− σ 2t }g(t). Alors, si f est C 1 à support compact, tel que f (t)h(t)dt 6= 0, par intégration par parties, Z Z 0 itmn f (t)e dt = −imn f (t)eitmn dt 1. cf. Appendice 32 CHAPITRE 3. MOUVEMENT BROWNIEN R R donc, en pasant à la limite mn converge vers m := i( f 0 (t)h(t)dt)/( f (t)h(t)dt). On voit donc que σ 2 t2 E(eitXn ) → exp{− + itm} 2 et la limite est donc gaussienne. 3.2. Vecteur gaussien On identifie un vecteur à une matrice colonne. L’espérance d’un vecteur aléatoire X = (X1 , · · · , Xd )t est le vecteur E(X) = (E(X1 ), · · · , E(Xd ))t et sa matrice de covariance est, KX = E[(X − E(X))(X − E(X))t ] = E(XX t ) − E(X)[E(X)]t . ses composantes sont KX (i, j) = Cov(Xi , Xj ). Si les composantes X1 , . . . , Xd sont indépendantes, K(X) est diagonale. Il est clair que Lemme 3.2.1. — Si M est une matrice déterministe r × d, on a KM X = M KX M t . Pour λ ∈ Rd , notons hλ, Xi = d X λi Xi i=1 le produit scalaire. En appliquant le lemme à M = λt on voit que λt KX λ = varhλ, Xi ≥ 0. En particulier, KX est une matrice symétrique semi-définie positive, donc diagonalisable de valeurs propres positive ou nulles. Définition 3.2.2. — Un vecteur aléatoire X = (X1 , . . . , Xd )t est dit gaussien si toute combinaison linéaire des composantes suit une loi normale. Proposition 3.2.3. — Un vecteur X est gaussien si et seulement, il existe un vecteur m ∈ Rd et une matrice de covariance K telle que pour tout λ ∈ Rd E(exp(ihλ, Xi) = exp(ihλ, mi − Alors m = E(X) et K = KX . λt Kλ ). 2 3.4. DÉFINITION DU MOUVEMENT BROWNIEN 33 Un exemple typique de vecteur gaussien est donné par un vecteur de composantes normales indépendantes. Par contre, en général, un vecteur à composantes gaussiennes n’est pas nécéssairement gaussien. En appliquant la proposition précédente pour calculer la fonction caractéristique, on obtient le théorème fondamental suivant : Théorème 3.2.4. — Soit (X1 , . . . , Xp , Y1 , · · · , Yq )t un vecteur gaussien de Rp+q . Alors les vecteurs (X1 , . . . , Xp ) et (Y1 , · · · , Yq ) sont indépendants ssi cov(Xi , Yj ) = 0 lorsque 1 ≤ i ≤ p, 1 ≤ j ≤ q. 3.3. Famille gaussienne Une famille, ou un processus, {Xi , i ∈ I} de variables aléatoires est dite gaussienne si toute combinaison linéaire finie de ces v.a. suit une loi normale. La loi globale de cette famille (c’est à dire par définition, la loi de toute sous famille finie) est déterminée par les espérances E(Xi ), i ∈ I, et les covariances Cov (Xi , Xj ), i, j ∈ I. Comme pour le thm. on a Théorème 3.3.1. — Soit {Xi , i ∈ I} une famille gaussienne et I1 , I2 , · · · , In des parties disjointes de I. Alors les familles {Xi , i ∈ I1 }, {Xi , i ∈ I2 }, · · · , {Xi , i ∈ In } sont indépendantes ssi cov(Xi , Xj ) = 0 chaque fois que iet j sont dans des ensembles I1 , · · · , In différents. Preuve: Il suffit de voir que {Xi , i ∈ I1 ∪ I2 ∪ · · · ∪ In−1 } est indépendant de {Xi , i ∈ In }... 3.4. Définition du mouvement brownien Définition 3.4.1. — On appelle mouvement brownien un processus gaussien Bt , t ∈ R+ , presque sûrement à trajectoires continues, tel que B0 = 0 et Bt+s − Bt est indépendant de σ(Bu , u ≤ t) de loi N (0, s), pour tout t, s ≥ 0. Proposition 3.4.2. — Un processus gaussien continu {Bt , t ∈ R+ } est un mouvement brownien si et seulement si E(Bt ) = 0, E(Bt Bs ) = min(s, t), pour tout t, s ≥ 0. 34 CHAPITRE 3. MOUVEMENT BROWNIEN Preuve: Supposons d’abord que Bt , t ∈ R+ , est un mouvement brownien. Alors Bt est centré donc E(Bt ) = 0. De plus, si 0 ≤ s ≤ t, on sait que Bt − Bs est indépendant de σ(Br , r ≤ s), donc en particulier de Bs . Il en résulte que E(Bt Bs ) = E((Bt − Bs + Bs )Bs ) = E(Bt − Bs )E(Bs ) + E(Bs2 ) = s. Réciproquement, supposons les relations vraies et montrons qu’alors Bt , t ∈ R+ , est un mouvement brownien. Il faut montrer d’abord que si 0 ≤ s ≤ t, Bt − Bs est indépendant de σ(Br , r ≤ s). Puisque la famille des Bt , t ≥ 0, est gaussienne, il suffit de vérifier que Cov(Bt − Bs , Br ) = 0, si r ≤ s ≤ t. Or Cov(Bt − Bs , Br ) = E(Bt Br ) − E(Bs Br ) = min(t, r) − min(s, r) = 0. Ensuite, il faut voir que, si 0 ≤ s ≤ t, loi de Bt − Bs ne dépend que de t − s : cette loi est gaussienne centrée et sa variance est E((Bt − Bs )2 ) = E(Bt2 ) + E(Bs2 ) − 2E(Bt Bs ) = t + s − 2s = t − s. Enfin, Bt est bien centré de variance t. Faisons une remarque importante sur la continuité. Dans l’énoncé précédent ne supposons pas a priori la continuité. La construction de Paul Lévy donnée plus bas construit un processus continu et le fait d’être uniformément continu sur les rationnels de [0, T ] pour un T > 0 fixé est mesurable. On voit donc que sous les autres hypothèses de la proposition, Bt est p.s. uniformément continu sur les rationnels de [0, T ], pour tout T > 0, donc admet un prolongement par continuité à R+ tout entier. Corollaire 3.4.3. — Soit {Bt , t ∈ R+ } un mouvement brownien. Alors 1. pour tout a > 0, {Bt+a − Ba , t ∈ R+ }, 2. (Scaling) pour tout α ∈ R, {αBα−2 t , t ∈ R+ }, 3. {tB1/t , t ∈ R+ }, sont des mouvements browniens. Preuve: Les trois assertions se montrent de la même façon. Traitons par exemple la seconde. Posons Xt = αBα−2 t . Tout d’abord, toute combinaison linéaire des v.a. Xt est une combinaison linéaire de certains Bs donc est gaussienne. Ceci montre que le processus {Xt , t ≥ 0} est gaussien. Il est continu comme Bt . Il est clair que E(Xt ) = 0, et E(Xt Xs ) = α2 E(Bα−2 t Bα−2 s ) = α2 min( t s , ) = min(s, t). α2 α2 3.5. FILTRATIONS ET BROWNIEN 35 Par la proposition précédente, {Xt , t ≥ 0} est un brownien. Dans le troisième cas, il faut aussi vérifier la continuité p.s. en 0. Puisque tB1/t , t > 0 a la même loi que {Bt , t > 0}, Xn = sup0<s<1/n |sB1/s | et Yn = sup0<s<1/n |Bs | ont la même loi. Donc P(Xn → 0) = P(Yn → 0) = 1 puisque B est continu en 0, ce qui montre la continuité p.s. 3.5. Filtrations et Brownien Considérons un espace de probabilité filtré (Ω, (Ft ), F, P). En général, on note F∞ = σ(Ft , t ≥ 0). On pose Ft+ = ∩ε>0 Ft+ε . (2) On dit que la filtration Ft est continue à droite si Ft+ = Ft . La filtration Ft+ est elle même continue à droite. Définition 3.5.1. — Un processus B adapté à (Ω, Ft , P) est un (Ft )–mouvement brownien si B est un mouvement brownien et pour tout s ≥ 0, la famille {Bt − Bs , t ≥ s} est indépendante de Fs . Théorème 3.5.2. — Un (Ft )–mouvement brownien est aussi un (Ft+ )–mouvement brownien. Preuve: Pour tout s < t < t1 < · · · < td le vecteur (Bt1 − Bt , · · · , Btd − Bt ) est indépendant de Ft donc de Fs+ , qui est contenu dans Ft . Par continuité (Bt1 − Bs , · · · , Btd − Bs ) est aussi indépendant de Fs+ . Corollaire 3.5.3 (Loi 0–1 de Blumenthal). — Soit B un mouvement brownien et Ft = σ(Bs , 0 ≤ s ≤ t). Pour tout A ∈ F0+ , P(A) = 0 ou 1. Preuve: F0+ est indépendant de Bt pour tout t > 0 donc de Ft , donc de F0+ . 36 CHAPITRE 3. MOUVEMENT BROWNIEN 3.5.1. Quelques propriétés trajectorielles du brownien. — Le résultat technique suivant va nous permettre de décrire quelques propriétés non triviales du mouvement brownien. Lemme 3.5.4. — Si {Bt , t ∈ R+ } est un mouvement brownien, Bt Bt lim sup √ = +∞, lim inf √ = −∞, p.s. + t→0 t t t→0+ √ Preuve: La variable aléatoire R = lim supt→0+ Bt / t est F0+ –mesurable, où Ft = σ(Bs , 0 ≤ s ≤ t), donc constante p.s.. Plus précisément, soit R = +∞, soit il existe une constante α telle que R ≤ α, p.s. Ce dernier cas est impossible Bt car il entraı̂ne que P( √ ≥ α + 1) → 0 quand t = 1/n avec n → +∞ alors t Bt que P( √ ≥ α + 1) = P(B1 ≥ α + 1) 6= 0. Le cas de la liminf s’obtient en t appliquant la limsup à (−Bt ) qui est aussi un brownien. Proposition 3.5.5. — Pour presque tout ω, la trajectoire t 7→ Bt (ω), (i) n’est nulle part dérivable ; (ii) passe une infinité de fois par chaque point de R. Preuve: Le lemme assure que B n’est pas dérivable en 0, p.s., donc en tout point t fixé, sur un ensemble de probabilité 1, qui peut dépendre de t. Nous admettons qu’on peut choisir cet ensemble indépendant de t. Posons Wt = tB1/t . Comme Wt , t ≥ 0, est un mouvement brownien, on peut lui appliquer le lemme : presque sûrement, Wt lim sup √ = +∞. t t→0 Donc, en posant s = t−1 , √ 1 lim sup √ Bs = lim sup sW1/s = +∞, s s→∞ s→+∞ donc sup Bt = +∞. De même inf Bt = −∞ ; les trajectoires étant continues elles doivent passer par tous les points, une infinité de fois, p.s. La preuve précédente montre aussi que la trajectoire oscille énormément au moment où elle part de 0, puisqu’elle arrive à traverser une infinité de fois l’axe {x = 0} avant chaque instant fixé. 3.6. PROPRIÉTÉ DE MARKOV FORTE DU MOUVEMENT BROWNIEN 37 3.6. Propriété de Markov forte du mouvement brownien 3.6.1. Temps d’arrêt. — Soit (Ω, Ft , P) un espace de probabilité filtré et F∞ = σ(Ft , t ≥ 0). Définition 3.6.1. — Une application τ de Ω dans R̄+ est un temps d’arrêt si, pour tout t ≥ 0, {τ ≤ t} ∈ Ft . La tribu Fτ := {A ∈ F∞ , pour tout t ≥ 0, A ∩ {τ ≤ t} ∈ Ft } s’appelle la tribu des événements antérieurs à τ . Lemme 3.6.2. — Une application τ : Ω → R̄+ est un temps d’arrêt si et seulement si le processus Xt = 1[0,τ [ (t) est adapté. Proposition 3.6.3. — (i) Soient σ et τ des temps d’arrêt. Alors σ ∨ τ et σ ∧ τ sont des temps d’arrêt et Fσ∧τ = Fσ ∩ Fτ . De plus {σ ≤ τ } et {σ = τ } appartiennent à Fσ∧τ . (ii) Soient τn des temps d’arrêt. Alors supn τn est un temps d’arrêt. (iii) Supposons (Ft ) continue à droite. Alors τ est un temps d’arrêt dès que {τ < t} ∈ Ft et un inf d’une suite de temps d’arrêt est un temps d’arrêt. Preuve: (i) Soit A ∈ Fσ ∩ Fτ , alors A ∩ {σ ∧ τ ≤ t} = (A ∩ {σ ≤ t}) ∪ (A ∩ {τ ≤ t}) ∈ Ft et A ∈ Fσ∧τ . Si A ∈ Fσ∧τ , A ∩ {τ ≤ t} = A ∩ {σ ∧ τ ≤ t} ∩ {τ ≤ t} est dans Ft . Donc A ∈ Fτ de même A ∈ Fσ . Pour montrer que {σ ≤ τ } ∈ Fσ∧τ , il suffit de montrer que {σ ≤ τ } ∈ Fσ ∩ Fτ . Mais l’on a {σ ≤ τ } ∩ {τ ≤ t} = {σ ≤ t} ∩ {τ ≤ t} ∩ {σ ∧ t ≤ τ ∧ t} ∈ Ft et {σ ≤ τ } ∩ {σ ≤ t} = {σ ∧ t ≤ τ ∧ t} ∩ {σ ≤ t} ∈ Ft . On procède de même pour {σ = τ }. (ii) On a {supn τn ≤ t} = ∩n {τn ≤ t} ∈ Ft . (iii) Si {τ < t} ∈ Ft , pour tout t ≥ 0, {τ ≤ t} = ∩ε>0 {τ < t + ε} ∈ Ft+ = Ft . Si τn est une suite de temps d’arrêt et τ = inf τn , {τ < t} = ∪n {τn < t} ∈ Ft , donc τ est un temps d’arrêt. Soit (Xt ) un processus adapté à (Ω, (F t )) à valeurs dans un espace métrique (E, d), par exemple Rk avec la norme usuelle. La distance d définit une topologie et on munit E de la tribu borélienne. On associe à un sous ensemble A de E, (3) τA (ω) = inf(t ≥ 0, Xt (ω) ∈ A), τA est appelé le temps d’entrée dans A. 38 CHAPITRE 3. MOUVEMENT BROWNIEN Proposition 3.6.4. — Si A est fermé et X à trajectoires continues, τA est un temps d’arrêt. Preuve: Posons d(x, A) = inf a∈A d(x, a). Cette fonction est continue car, pour tout x, y ∈ E et a ∈ A d(x, a) ≤ d(x, y) + d(y, a) donc d(x, A) ≤ d(x, y) + d(y, A) ce qui assure que |d(x, A) − d(y, A)| ≤ d(x, y). On utilise alors que 1 {τA ≤ t} = ∩n ∪s≤t,s∈Q+ {d(Xs , A) ≤ } ∈ Ft . n (détail : si τA ≤ t, puisque A est fermé, il existe s ≤ t tel que Xs ∈ A. Par continuité de x 7→ d(x, A), on a alors d(Xs , A) = 0. Il existe donc sn ∈ Q tel que sn → s et sn < s pour lequel d(Xsn , A) ≤ 1/n. Donc l’inclusion de {τA ≤ t} dans le terme de droite. Réciproquement, si pour tout n ∈ N, il existe sn ≤ t tel que d(Xsn , A) ≤ 1/n, pour toute valeur d’adhérence s de la suite sn on a s ≤ t et d(Xs , A) = 0 donc Xs ∈ A.) Proposition 3.6.5. — Si A est ouvert et X à trajectoires continues à droite, τA est un temps d’arrêt de Ft+ . Preuve: En effet {τA < t} = ∪s<t,s∈Q+ {Xs ∈ A} Proposition 3.6.6. — Si X est un processus adapté progressivement mesurable (cf. 2.10.3) et si τ est un temps d’arrêt, Xτ 1τ <∞ est Fτ -mesurable. Preuve: Soit Γ un borélien de E. Il s’agit de montrer que pour tout t ≥ 0, {Xτ ∈ Γ} ∩ {τ ≤ t} ∈ Ft . Remarquons que {Xτ ∈ A} ∩ {τ ≤ t} = {Xτ ∧t ∈ A} ∩ {τ ≤ t}. Soit Ωt = {τ ≤ t}. L’application ω 7→ (τ (ω), ω) est mesurable de (Ωt , Ft ) dans ([0, t] × Ω, B([0, t]) ⊗ Ft ), l’application (s, ω) 7→ Xs (ω) est mesurable de (([0, t] × Ω, B([0, t]) ⊗ Ft ) dans E. Donc l’application composée ω 7→ Xτ (ω) (ω) de (Ωt , Ft ) dans E est mesurable i.e. {τ ≤ t, Xτ ∈ Γ} ∈ Ft . 3.6.2. La propriété de Markov forte du brownien. — Lemme 3.6.7. — Soit τ un temps d’arrêt. Il existe une suite décroissante {τn , n ∈ N} de temps d’arrêt convergeant vers τ telle que τn est à valeurs dans {k/2n , k ∈ N} ∪ {+∞}. Preuve: On peut prendre τn = [2n τ ]+1 2n . 3.6. PROPRIÉTÉ DE MARKOV FORTE DU MOUVEMENT BROWNIEN 39 Théorème 3.6.8. — Soit {Bt , t ≥ 0} un (Ft )–mouvement brownien. Alors, pour tout temps d’arrêt τ , conditionnellement à {τ < +∞}, le processus {Bt+τ − Bτ , t ∈ R+ } est un brownien, indépendant de Fτ . Preuve: Il faut montrer que pour toute v.a. Z, Fτ -mesurable bornée et F : Rd → R, continue bornée, E(Z1{τ <+∞} F (Bt1 +τ − Bτ , Bt2 +τ − Bτ , · · · , Btd +τ − Bτ )) = = E(Z1{τ <+∞} )E(F (Bt1 , · · · , Btd )) On considère d’abord le cas où τ prend toutes ses valeurs dans l’ensemble dénombrable {sk = k2−n , k ∈ N}. Alors, puisque {τ < +∞} est la réunion dénombrable des ensembles disjoints {τ = sk }, on peut écrire : E(Z1{τ <+∞} F (Bt1 +τ − Bτ , · · · , Btd +τ − Bτ )) = = = = +∞ X k=0 +∞ X k=0 +∞ X E(ZF (Bt1 +τ − Bτ , · · · , Btd +τ − Bτ )1{τ =sk } ) E(Z1{τ =sk } F (Bt1 +sk − Bsk , · · · , Btd +sk − Bsk )) E(Z1{τ =sk } )E(F (Bt1 , · · · , Btd )) k=0 = E(Z1{τ <+∞} )E(F (Bt1 , · · · , Btd )) où l’on a utilisé que Z1{τ =sk } est Fsk mesurable et que B est un Ft –brownien. Dans le cas général, on approche τ par une suite décroissante τn de temps d’arrêt à valeurs dénombrables, donnée par le lemme. Puisque Fτ est contenu dans Fτn on a encore E(Z1{τ <+∞} F (Bt1 +τn − Bτn , · · · , Btd +τn − Bτn )) = E(Z1{τ <+∞} )E(F (Bt1 , · · · , Btd )) et on fait tendre n vers l’infini pour conclure, en utilisant la continuité des trajectoires. Proposition 3.6.9 (Principe de réflexion). — Soit {Bt , t ≥ 0} un mouvement brownien. Pour a > 0, on pose Ta = inf{t ≥ 0; Bt = a}. Alors P(Ta ≤ t) = 2P(Bt ≥ a). 2 /2s La densité de Ta est f (s) = a(2πs3 )−1/2 e−a +∞. 1R+ (s). En particulier E(Ta ) = 40 CHAPITRE 3. MOUVEMENT BROWNIEN Preuve: En utilisant la propriété de Markov forte du brownien, on sait que Wt = Bt+Ta − BTa est un brownien indépendant de FTa donc en particulier de Ta . On peut donc écrire, puisque BTa = a et en utilisant à l’avant dernière ligne l’important théorème 4.4.5 que P(Bt ≥ a) = P(Ta ≤ t, Bt ≥ a) = P(Ta ≤ t, (Bt − BTa ) + BTa ≥ a) = P(Ta ≤ t, Wt−Ta ≥ 0) Z = 1{s≤t} P(Wt−s ≥ 0)dPTa (s) 1 P(Ta ≤ t). 2 p On en déduit, avec le changement de variable de x en s où x = a t/s, Z ∞ Z t p 2 −x2 /2t e dx = a (2πs3 )−1/2 e−a /2s ds. P(Ta ≤ t) = 2P(Bt ≥ a) = 2/πt = a Donc la densité de Ta est f (s) = l’espérance. 2 a(2πs3 )−1/2 e−a /2s , 0 ce qui permet de calculer On voit donc que, bien que le brownien passe une infinité de fois par tout les points, il met un temps d’espérance infinie pour atteindre un point donné. La propriété suivante est assez étonnante ! Corollaire 3.6.10. — La loi de sup0≤s≤t Bs est la même que celle de |Bt |. Preuve: P(sup0≤s≤t Bs ≥ a) = P(Ta ≤ t) = 2P(Bt ≥ a) = P(|Bt | ≥ a). 3.7. Existence et Simulation du Mouvement brownien L’ordinateur simule une suite Un de v.a. i.i.d. uniformes sur [0, 1]. (Par simulation on veut dire qu’il ”tente” de fabriquer ... ) On commence par simuler des v.a. indépendantes X1 , X2 , · · · de loi gaussienne N (0, 1). Une façon de faire est de poser p Xn = −2 log U2n sin(2πU2n+1 ). Un intervalle de temps [0, T ] étant donné, on choisit ensuite un pas de discrétisation h = Tn , où n ∈ N. On simule la trajectoire brownienne aux instants kT /n, k = 0, 1, · · · , n − 1 en posant B0 = 0 puis par récurrence, r T B(k+1)T /n = BkT /n + Xk+1 . n 3.8. CONSTRUCTION DE P. LÉVY DU MOUVEMENT BROWNIEN 41 Il y a une autre méthode de simulation, qui permet de faire éventuellement un effet de loupe sur un morceau de trajectoire choisi. Expliquons le principe de cette construction en simulant le mouvement brownien sur [0, 1] par raffinements successifs : A l’étape n on construit le brownien au points 2kn , 0 ≤ k ≤ 2n . A l’étape 0 on pose B0 = 0 et on choisit pour B1 une v.a. de loi N (0, 1). Une fois l’étape n achevée, on procède ainsi : on se donne des v.a. ε0 , ε1 , · · · indépendantes entre elles et de ce qui précède, avec εn de loi N (0, 2−n ) et l’on pose, pour k entier, B kn + B k+1 2n B 2k+1 = 2 + εk . 2 2n+1 On vérifie (cf. la construction de P. Lévy dans la section suivante) que l’on construit bien ainsi un mouvement brownien sur [0, 1] en passant à la limite sur l’approximation linéaire. Ceci montre en particulier son existence. 3.8. Construction de P. Lévy du mouvement brownien Soit {Yk,n ; 0 ≤ k ≤ 2n , n ∈ N} des v.a. indépendantes, toutes de loi N (0, 1). On construit par récurrence sur n une suite {Xn (t), 0 ≤ t ≤ 1}n∈N∗ de processus tels que : Xn (t) est linéaire sur chaque intervalle dyadique [2−n k, 2−n (k + 1)], X0 (0) = 0, X0 (1) = Y1,0 , Xn+1 (2−n k) = Xn (2−n k), Xn+1 (2−(n+1) (2k + 1)) = Xn (2−(n+1) (2k + 1)) + 2−(n+2)/2 Y2k+1,n+1 . Pour n fixé, toute combinaison linéaire des Xn (t), 0 ≤ t ≤ 1 est une combinaison linéaire des Yk,m pour m ≤ n et est donc gaussienne. Montrons par récurrence sur n que les v.a. Xn (2−n (k+1))−Xn (2−n k), k = 0, 1, · · · 2n −1, sont indépendantes de loi N (0, 2−n ). Si c’est vrai au rang n, regardons Xn+1 (2−n−1 (2k + 1)) − Xn+1 (2−n−1 (2k)) = Xn (2−n (k + 1)) − Xn (2−n k) + 2−(n+2)/2 Y2k+1,n+1 2 et Xn+1 (2−(n+1) (2k + 2)) − Xn+1 (2−(n+1) (2k + 1)) = Xn (2−n (k + 1)) − Xn (2−n k) − 2−(n+2)/2 Y2k+1,n+1 2 42 CHAPITRE 3. MOUVEMENT BROWNIEN La seule chose non évidente est que ces deux v.a. sont indépendantes. Or leur covariance est Xn (2−n (k + 1)) − Xn (2−n k) var( ) − var(2−(n+2)/2 Y2k+1,n+1 ) = 0. 2 Vu la construction de Xn+1 à partir de Xn , sup |Xn+1 (t) − Xn (t)| = 0≤t≤1 sup 0≤k≤2n −1 2−(n+2)/2 Y2k+1,n+1 donc P( sup |Xn+1 (t)−Xn (t)| ≥ 2−n/4 ) = P( 0≤t≤1 P( (n+4)/4 sup 0≤k≤2n −1 |Y2k+1,n+1 | ≥ 2 n sup 0≤k≤2n −1 )≤ n −1 2X 2−(n+2)/2 |Y2k+1,n+1 | ≥ 2−n/4 ) P(|Y2k+1,n+1 | ≥ 2(n+4)/4 ) k=0 (n+4)/4 = 2 P(|Y0,0 | ≥ 2 ) Utilisons la majoration, pour a > 0 Z +∞ Z +∞ 1 t −t2 /2 1 1 −a2 /2 1 −t2 /2 √ e dt ≤ √ e dt ≤ √ e a 2π a 2π a 2π a pour voir que ∞ X P( sup |Xn+1 (t) − Xn (t)| ≥ 2−n/4 ) < +∞ n=0 0≤t≤1 On en déduit, par Borel Cantelli, que, p.s., pour n assez grand, sup |Xn+1 (t) − Xn (t)| ≤ 2−n/4 0≤t≤1 donc que Xn converge uniformément sur [0, 1]. La limite Xt est donc continue, c’est un processus gaussien centré continu dont les covariances coı̈ncident avec celles du brownien sur les dyadiques, donc partout. 3.9. Appendice 1 Donnons une excellente approximation de la fonction de repartition de la loi normale sous la forme d’un programme C. // standard normal density function double ndf(double t) { return 0.398942280401433*exp(-t*t/2); } 3.9. APPENDICE 1 43 // standard normal cumulative distribution function double nc(double x) { double result; if (x<-7.) result = ndf(x)/sqrt(1.+x*x); else if (x>7.) result = 1. - nc(-x); else { result = 0.2316419; static double a[5] = {0.31938153,-0.356563782,1.781477937, -1.821255978,1.330274429}; result=1./(1+result*fabs(x)); result=1-ndf(x)*(result*(a[0]+result* (a[1]+result*(a[2]+result*(a[3]+result*a[4]))))); if (x<=0.) result=1.-result; } return result; } CHAPITRE 4 MARTINGALES 4.1. Martingales, définition Pour T = R ou N on considère (Ω, (Ft )t∈T , P) un espace de probabilité filtré. Définition 4.1.1. — Une famille de variables aléatoires réelles Mt , t ∈ T , est une martingale si Mt ∈ L1 , (Mt ) est adapté et E(Mt |Fs ) = Ms , pour tout 0 ≤ s ≤ t. Une famille Mt , t ∈ T , est une sous-martingale si Mt ∈ L1 , (Mt ) est adapté et E(Mt |Fs ) ≥ Ms , pour tout 0 ≤ s ≤ t. Si M est une (ss)-martingale sur (Ω, (Ft )t∈T , P), ça l’est aussi pour la filtration naturelle Ft0 = σ(Ms , s ≤ t). Exemple. Soit X ∈ L1 . On pose Xt = E(X|Ft ). On a, pour s < t, E(Xt |Fs ) = E(E(X|Ft )|Fs ) = E(X|Fs ) = Xs et Xt est une martingale. Proposition 4.1.2. — Soit B un (Ft )–mouvement brownien. Alors, (i) Bt , t ∈ R+ ; (ii) Bt2 − t, t ∈ R+ ; (iii) pour λ ∈ R , exp(λBt − λ2 t 2 ), t ∈ R+ ; sont des (Ft )-martingales. Proposition 4.1.3 (Inégalité de Jensen). — Soit M une martingale (resp. sous martingale) et φ : R → R une fonction convexe (resp. convexe croissante). Si φ(Mt ) est intégrable pour tout t ≥ 0, c’est une sous martingale. 46 CHAPITRE 4. MARTINGALES Preuve: Une fonction convexe est l’enveloppe supérieure d’une famille de droites : il existe une famille F de fonctions affines (du type x 7→ ax + b) telles que φ(x) = sup f (x) f ∈F avec de plus chaque f croissante si φ est croissante (c’est évident si ϕ(x) = x+ , ou |x| ou x2 , qui sont les cas principaux où on appliquera cette inégalité dans la suite du cours). Pour tout f ∈ F E(φ(Mt )|Fs ) ≥ E(f (Mt )|Fs ) = f (E(Mt |Fs )) ≥ f (Ms ) donc E(φ(Mt )|Fs ) ≥ supf ∈F f (Ms ) = φ(Ms ). Exemple : Si M est une martingale |M | est une sous martingale et si X est une sous martingale, alors X + est une sous martingale. (n) Proposition 4.1.4. — Soit {Mt , t ∈ T }, n ∈ N, une suite de (Ft )– martin(n) gales. Si pour tout t, Mt tend vers Mt dans L1 , ou afortiori dans L2 , alors Mt , t ∈ T , est une martingale. Preuve: On utilise que (n) (n) E(|E(Mt |Fs ) − E(Mt |Fs )|) ≤ E(E(|Mt (n) − Mt ||Fs )) = ||Mt − Mt ||1 . 4.2. Martingales à temps discret Nous allons exposer deux résultats fondamentaux de Doob, indispensables pour nous. Etant donné un processus M et un temps d’arrêt τ on note M τ le processus arrété à l’instant τ , défini par : Mtτ = Mτ ∧t . Théorème 4.2.1 (d’arrêt). — Soit {Mn , n ∈ N} une (sous) martingale et τ un temps d’arrêt. Alors M τ est encore une (sous)-martingale. Preuve: Il suffit d’écrire τ Mn+1 − Mnτ = 1{τ >n} (Mn+1 − Mn ). Le lemme suivant n’est utile que pour les temps d’arrêt à valeurs dénombrables, c’est à dire rarement dans le cas ”continu” car il n’a d’intérêt que si P({σ = r}) > 0. 4.2. MARTINGALES À TEMPS DISCRET 47 Lemme 4.2.2. — Si σ est un temps d’arrêt et r un réel fixé, pour toute v.a. X ≥ 0, p.s., 1{σ=r} E(X|Fσ ) = 1{σ=r} E(X|Fr ), Preuve: Puisque {σ = r} ∈ Fσ , il faut montrer que 1{σ=r} E(X|Fσ ) = 1{σ=r} E(X|Fr ), On utilise la propriété caractéristique de l’espérance conditionnelle 4.4.1 : la v.a. Z = 1{σ=r} E(X|Fr ) est Fσ -mesurable et pour toute v.a. U positive, Fσ mesurable, puisque U 1{σ=r} est Fr -mesurable, E(U Z) = E(U 1{σ=r} E(X|Fr )) = E(U 1{σ=r} X) donc Z = E(1{σ=r} X|Fσ ). Corollaire 4.2.3. — Soient {Mn , n ∈ N} une (sous) martingale, σ et τ deux temps d’arrêt à valeurs dans N̄. On suppose que τ est borné. Alors E(Mτ | Fσ ) ≥ Mτ ∧σ avec égalité dans le cas d’une martingale. Preuve: Si τ est borné par la constante r > 0, on peut écrire que, sur {σ = n}, τ E(Mτ | Fσ ) = E(Mrτ | Fn ) ≥ Mr∧n = Mτ ∧σ . Théorème 4.2.4. — Soit Mn , n ∈ N, une sous-martingale positive. Pour tout a > 0, 1 1 P( max Mk ≥ a) ≤ E(Mn 1{max0≤k≤n Mk ≥a} ) ≤ E(Mn ). 0≤k≤n a a De plus E( max Mk2 ) ≤ 4E(Mn2 ). 0≤k≤n Preuve: L’inégalité de droite est évidente car Mn ≥ 0. Pour celle de gauche, posons σ = inf{k ≥ 0; Mk ≥ a}. On a {σ ≤ n} = {max0≤k≤n Mk ≥ a} donc E(Mn 1{max0≤k≤n Mk ≥a} ) = E(Mn 1{σ≤n} ) = E(E(Mn |Fσ )1{σ≤n} ) ≥ E(Mn∧σ 1{σ≤n} ) ≥ aP(σ ≤ n) = aP( max Mk ≥ a) 0≤k≤n en appliquant le corollaire. Ensuite Z ∞ Z aP( max Mk ≥ a) da ≤ 0 0≤k≤n 0 ∞ E(Mn ; max Mk ≥ a) da. 0≤k≤n 48 CHAPITRE 4. MARTINGALES Avec Fubini ceci s’écrit, Z Z max0≤k≤n Mk a da) ≤ E(Mn E( max0≤k≤n Mk da) 0 0 donc 1 E(( max Mk )2 ) ≤ E(Mn max Mk ). 0≤k≤n 0≤k≤n 2 En appliquant Cauchy Schwarz on obtient 1 E(( max Mk )2 ) ≤ E(Mn2 )1/2 E(( max Mk )2 )1/2 , 0≤k≤n 0≤k≤n 2 P E((max0≤k≤n Mk )2 ) est fini car majoré par E( nk=0 Mk2 ) on peut donc simplifier par E((max0≤k≤n Mk )2 )1/2 dans l’inégalité précédente, ce qui donne le résultat. Dans la preuve précédente, en multipliant par ap−2 et en appliquant l’inégalité de Hölder (c.f. ??) on obtient pour p > 1, || max Mk ||p ≤ q||Mn ||p 0≤k≤n où p−1 + q −1 = 1. 4.3. Martingale continue à droite Si Mt , t ∈ R+ , est un processus à trajectoires continues à droite, on a sup Mt = lim sup M kTn . n→+∞ 0≤k≤2n 0≤t≤T 2 En appliquant le Théorème 4.2.4 à la sous martingale Xk = M kTn et l’égalité 2 { sup Mt > a} = ∪n∈N { sup M kTn > a} 0≤k≤2n 0≤t≤T 2 on obtient, en passant par P(sup0≤t≤T Mt > a), Théorème 4.3.1 (Inégalités de Doob). — Soit Mt , t ∈ R+ , une sousmartingale continue à droite positive. Pour tout a > 0, 1 1 P( sup Mt ≥ a) ≤ E(MT 1{sup0≤t≤T Mt ≥a} ) ≤ E(MT ) a a 0≤t≤T De plus E( sup Mt2 ) ≤ 4E(MT2 ). 0≤t≤T Puisque la valeur absolue d’une martingale est une sous martingale positive, on en déduit le corollaire absolument fondamental pour la suite : 4.3. MARTINGALE CONTINUE À DROITE 49 Corollaire 4.3.2. — Si M est une martingale continue à droite, E(|MT |) P( sup |Mt | ≥ a) ≤ a 0≤t≤T et E( sup Mt2 ) ≤ 4E(MT2 ). 0≤t≤T Déduisons un convergence de théorème de martingales (il en existe d’autres, par exemple pour les martingales positives). Théorème 4.3.3. — Une martingale continue à droite (Mt ) telle que sup E(Mt2 ) < +∞ t≥0 converge p.s. et dans L2 lorsque t → +∞. Preuve: Puisque Mt2 est une sous martingale, E(Mt2 ) est une fonction croissante. Par hypothèse, elle est bornée. Donc elle converge lorsque t → +∞. On en déduit que, pour tout ε > 0, il existe N tel que, si s, t ≥ N E((Mt − Ms )2 ) = E(Mt2 ) − E(Ms2 ) < ε lorsque s, t → +∞. La suite Mn est donc de Cauchy dans L2 , elle converge vers une v.a. M∞ . En faisant tendre t → +∞ suivant les entiers on voit, par Fatou, que E((M∞ − Ms )2 ) < ε donc Ms → M∞ dans L2 . Si on applique l’inégalité de Doob à la martingale Nt = Ms+t − Ms on obtient, pour s > N , E(sup(Mt+s − Ms )2 ) ≤ 4E((MT +s − Ms )2 ) ≤ 4ε t≤T pour tout T ≥ 0, donc E(sup(Mt+s − Ms )2 ) ≤ 4ε. t≥0 Il en résulte en écrivant que (Mt+s − M∞ )2 ≤ 2(Mt+s − Ms )2 + 2(Ms − M∞ )2 que E(sup(Mt+s − M∞ )2 ) ≤ 16ε. t≥0 Il existe donc une sous suite ni telle que, p.s., supt≥0 (Mt+ni − M∞ ) → 0, ce qui entraı̂ne que Mt → M∞ , p.s. Pour montrer le théorème d’arrêt, nous allons utiliser : 50 CHAPITRE 4. MARTINGALES Lemme 4.3.4. — Si X ∈ L1 (Ω, A, P), la famille {E(X|F), F sous tribu de A} est uniformément intégrable. Preuve: Remarquons d’abord que pour tout ε > 0, il existe α > 0 tel que, si P(A) < α alors E(|X|1A ) ≤ ε. En effet, par Lebesgue dominé, E(|X|1{|X|≥M } ) tend vers 0 lorsque M → +∞. On choisit M pour lequel E(|X|1{|X|≥M } )) < ε/2 et ensuite α > 0 tel que αM < ε/2. On a alors E(|X|1A ) ≤ E(|X|1A 1{|X|≥M } ) + E(|X|1A 1{|X|≤M } ) ≤ E(|X|1{|X|≥M } ) + M P(A) ≤ ε. α−1 E|X|. Soit R = On a, pour a > R, P(|E(X|F)| > a) ≤ a−1 E|E(X|F)| ≤ a−1 E|X| < α et Z Z Z |E(X|F)| dP ≤ E(|X||F) dP = |X| dP < ε. {|E(X|F )|>a} {|E(X|F )|>a} {|E(X|F )|>a} Théorème 4.3.5 (d’arrêt). — Soient (Xt , t ∈ R+ ) une sous-martingale continue à droite, et σ et τ deux temps d’arrêt avec τ borné. Alors Xτ ∈ L1 et Xσ∧τ ≤ E(Xτ | Fσ ), avec égalité si X est une martingale. Preuve: (a) La suite de temps d’arrêt τn = 2−n ([2n τ ] + 1) décroit vers τ et Xτn tend vers Xτ , quand n → +∞. Si τ est bornée par K, τn est borné par K + 1. D’après le corollaire 4.2.3, X +k étant une sous-martingale, + | Fτn ). On a alors Xτ+n ≤ E(XK+1 2n + E|Xτn | = 2E(Xτ+n ) − E(Xτn ) ≤ 2E(XK+1 ) − E(X0 ) d’où, par le lemme de Fatou, E|Xτ | ≤ lim inf n E|Xτn | < +∞ donc Xτ ∈ L1 . (b) Soit σn = 2−n ([2n σ] + 1). On suppose d’abord que Xt ≥ 0 pour tout t ≥ 0. Soit A ∈ Fσ ⊂ Fσn . On a alors, en appliquant le corollaire 4.2.3 à la sous-martingale X kn , k ∈ N, 2 Xσn ∧τn ≤ E(Xτn |Fσn ) donc E(1A Xσn ∧τn ) ≤ E(1A Xτn ). Puisque Xt ≥ 0, |Xσn ∧τn | ≤ E(Xτn |Fσn ) et le lemme montre que les suites Xσn ∧τn et Xτn sont uniformémént intégrables. Donc Xσn ∧τn et Xτn convergent vers Xσ∧τ et Xτ dans L1 et E(1A Xσ∧τ ) ≤ E(1A Xτ ). (c) On revient au cas général. Pour tout a > 0, a + Xt ∨ (−a) est une sousmartingale positive donc, pour tout A ∈ Fσ , E(1A (Xσ∧τ ∨(−a))) ≤ E(1A (Xτ ∨ 4.4. FORMULAIRE SUR L’ESPÉRANCE CONDITIONNELLE 51 (−a))). On conclut facilement puisque, lorsque a → +∞, Xτ ∨ (−a) → Xτ et Xσ∧τ ∨ (−a) → Xσ dans L1 puisque |Xτ ∨ (−a)| ≤ |Xτ . Corollaire 4.3.6. — Soient (Mt , t ∈ R+ ) une sous-martingale continue à droite, telle que E(sup0≤t<+∞ |Mt |) < +∞. Pour tous temps d’arrêt σ et τ E(Mτ |Fσ ) ≥ Mτ ∧σ , avec égalité si X est une martingale. Preuve: En utilisant le théoréme précédent aux temps d’arrêts bornés τ ∧ t et σ ∧ t, pour tout A ∈ Fσ E(1A 1{σ≤t} Mτ ∧t ) = E(1A 1{σ≤t} Mσ∧τ ∧t ) car A∩{σ ≤ t} ∈ Fσ∧t . Il suffit alors de faire tendre t vers l’infini en appliquant le théorème de convergence dominée. Corollaire 4.3.7. — Soient (Xt , t ∈ R+ ) une (sous) martingale continue à droite et τ un temps d’arrêt. Alors Xtτ := Xt∧τ est une (sous) martingale. Preuve: Vu le corollaire précédent, on a, pour s < t, E(Xt∧τ | Fs ) ≥ Xt∧τ ∧s = Xτ ∧s p.s. Corollaire 4.3.8. — Soit (Xt , t ∈ R+ ) un processus intégrable continu à droite. Alors Xt est une martingale si et seulement si, pour tout temps d’arrêt borné τ on a E(Xτ ) = E(X0 ). Preuve: La nécessité résulte du théorème 4.3.5. Montrons que la condition est suffisante. Soient s < t et A ∈ Fs . τ = s1A + t1Ac est un temps d’arrêt borné et l’on E(X0 ) = E(Xτ ) = E(1A Xs ) + E(1Ac Xt ). Mais τ = t est aussi un temps d’arrêt borné d’où E(X0 ) = E(Xt ) = E(1A Xt ) + E(1Ac Xt ). On en déduit E(1A Xs ) = E(1A Xt ) i.e. Xt est une martingale. 4.4. Formulaire sur l’espérance conditionnelle Soit (Ω, A, P) un espace de probabilité et F une sous-tribu de A. L’espérance conditionnelle E(X|F) d’une variable aléatoire X positive (ou intégrable) n’est définie que presque surement, on ommetra d’écrire ”p.s.” dans une égalité où elle apparait. Théorème 4.4.1 (Propriété caractéristique de l’espérance conditionnelle) 52 CHAPITRE 4. MARTINGALES Soit X une v.a.r. positive ou intégrable. L’espérance conditionnelle E(X|F) est la seule (classe de) v.a. Z ayant les deux propriétés suivantes : (i) Z est F-mesurable ; (ii) pour toute v.a.r. U , F-mesurable bornée positive, E(ZU ) = E(XU ). On utilisera très souvent les inégalités suivantes qui montrent que l’application T : Lp → Lp donnée par T (X) = E(X|F) est continue pour p = 1, 2, ∞. Proposition 4.4.2 (Continuité de l’espérance conditionelle) kE(X|F)kL1 ≤ kXkL1 ; kE(X|F)kL2 ≤ kXkL2 ; Les propriétés suivantes sont faciles à démontrer et essentielles : Proposition 4.4.3. — Si les expressions ont un sens : 1. E(E(X|F)) = E(X); 2. |E(X|F)| ≤ E(|X||F). 3. Si X est F-mesurable, E(XY |F) = XE(Y |F); 4. Si G est une sous-tribu de F, E(X|G) = E(E(X|F)|G); 5. E(1|F) = 1; 6. E(aX + bY |F) = aE(X|F) + bE(Y |F); 7. Si X ≤ Y , E(X|F) ≤ E(Y |F); 8. |E(XY |F)|2 ≤ E(X 2 |F)E(Y 2 |F). On a l’analogue des théorèmes de convergence de Beppo Levi, de Fatou, de Lebesgue : Proposition 4.4.4. — Soit (Xn ) une suite de v.a. (Beppo Levi conditionnel) Si 0 ≤ Xn ↑ X, E(Xn |F) → E(X|F), p.s. (Fatou conditionnel) Si 0 ≤ Xn , E(lim inf Xn |F) ≤ lim inf E(Xn |F), (Lebesgue conditionnel) Si |Xn | ≤ V où V ∈ L1 et si Xn → X , E(Xn |F) → E(X|F), p.s. et dans L1 . 4.4. FORMULAIRE SUR L’ESPÉRANCE CONDITIONNELLE 53 Preuve: On commence par montrer Beppo Levi : si 0 ≤ Xn ↑ X la suite E(Xn |F) est croissante donc a une limite, que nous notons Z. Comme limite de fonctions F-mesurables Z est F-mesurable. Et pour toute v.a. U positive et F-mesurable, par le théorème de Beppo Levi classique, appliqué deux fois, E(U Z) = lim E(U E(Xn |F)) = lim E(U Xn ) = E(U X). n→+∞ n→+∞ Donc Z = E(X|F) par la propriété caractéristique de l’espérance conditionnelle (Thm 4.4.1). Les autres énoncés s’en déduisent comme dans le cas non conditionnel et par le fait que ||E(Xn |F) − E(X|F)||1 ≤ ||Xn − X||1 pour la convergence dans L1 . Très souvent les calculs explicites d’espérance conditionnelle utilisent le théorème suivant : Théorème 4.4.5. — Soit (T, X) une variable aléatoire à valeurs dans un espace produit E × F et h : E × F → R mesurable, positive ou bornée. On suppose que T est B-mesurable et que X est indépendante de B. Alors, E(h(T, X)|B) = φ(T ) où φ(t) = E(h(t, X)). On peut encore écrire cette égalité comme Z E(h(T, X)|B)(ω) = h(T (ω), X(ω 0 )) dP(ω 0 ). Ω Preuve: On utilise la caractérisation de l’espérance conditionnelle pour montrer que E(h(T, X)|B) est bien la variable aléatoire φ(T ). D’abord, il résulte du théorème de Fubini que l’application t 7→ E(h(t, X)) est mesurable. Il en résulte que φ(T ) est σ(T ) mesurable, donc B-mesurable. Ensuite, pour toute v.a. Z B-mesurable, bornée et positive, p.s., Z Z E(h(T, X)Z)(ω) = h(T (ω), X(ω 0 ))Z(ω)dP(ω)dP(ω 0 ) d’après le corollaire 2.11.4. Ceci est égal, par Fubini, à Z Z Z 0 0 0 h(T (ω), X(ω ))dP(ω ) Z(ω)dP(ω ) = φ(T (ω))Z(ω)dP(ω 0 ) = = E(φ(T )Z)(ω). CHAPITRE 5 CROCHET DE MARTINGALES Afin d’introduire le crochet de martingales, nous allons débuter la construction de l’intégrale stochastique. La construction est naturelle mais il y a pas mal d’inégalités à contrôler ! Après ce début, et à l’aide du crochet, on pourra dans le chapitre suivant construire l’intégrale stochastique en toute généralité. 5.1. Cas discret Soit (Mn , n ∈ N) une (Fn )–martingale sur (Ω, (Fn )n∈N , P). Si Hn , n ∈ N, est un processus adapté on pose S(H, M )0 = 0 et S(H, M )n = n X Hk−1 (Mk − Mk−1 ). k=1 Le lemme simple suivant est la clé des calculs que nous ferons. Lemme 5.1.1 (Lemme d’orthogonalité). — Si Mn , n ∈ N, est une martingale dans L2 , E(Mn2 ) − E(M02 ) = n X E((Mk − Mk−1 )2 ). k=1 Montrons maintenant un résultat technique (dont la courte démonstration est due à M.M Belkhiria, étudiant du master), Proposition 5.1.2. — Soit Mn , n ∈ N, une martingale et Hn , n ∈ N, un processus adapté borné. Alors S(H, M ) est une martingale et pour tout n ≥ 0, E(S(H, M )2n ) ≤ k sup Hk2 k2 kMn2 k2 . k≤p 56 CHAPITRE 5. CROCHET DE MARTINGALES Preuve: Puisque H est borné, S(H, M )n est intégrable pour tout n. C’est une martingale car E(S(H, M )n+1 − S(H, M )n |Fn ) = E(Hn (Mn+1 − Mn )|Fn ) = Hn [E(Mn+1 |Fn ) − Mn ] = 0. Supposons maintenant que |M | est bornée par c. Par le lemme d’orthogonalité, puisque S(H, M )0 = 0, en posant Kp = supk≤p Hk2 , E(S(H, M )2n ) = n−1 X E(Hp2 (Mp+1 − Mp )2 ) ≤ p=0 n−1 X E(Kp (Mp+1 − Mp )2 ). p=0 Puisque Kp est Fp mesurable on a E(Kp Mp Mp+1 )) = E(Kp Mp E(Mp+1 |Fp )) = E(Kp Mp2 ) donc en développant, 2 E(Kp (Mp+1 − Mp )2 ) = E(Kp (Mp+1 − Mp2 )). On obtient (puisque Kp ≤ Kp+1 ) E(S(H, M )2n ) ≤ n−1 X 2 E(Kp (Mp+1 − Mp2 )) p=0 ≤ n−1 X 2 E(Kp+1 Mp+1 − Kp Mp2 )) = E(Kn Mn2 − K0 M02 )) ≤ E(Kn Mn2 ) p=0 donc, par Cauchy Schwarz, E(S(H, M )2n ) ≤ k sup Hk2 k2 kMn2 k2 . k≤p 5.2. Premiers pas, à temps continu On considère une martingale continue Mt , t ∈ R+ , sur (Ω, (Ft ), P). On appelle processus (adapté) élémentaire un processus H s’écrivant Ht = n−1 X Hti 1[ti ,ti+1 [ (t) i=0 où 0 ≤ t0 < t1 · · · < tn et où Hti est une v.a. Fti –mesurable bornée. On note E l’ensemble de ces processus élémentaires. 5.3. CROCHET COMME VARIATION QUADRATIQUE 57 Proposition 5.2.1. — Pour H ∈ E on pose Z t n−1 X Hs dMs = (H · M )t = Hti (Mti+1 ∧t − Mti ∧t ). 0 i=0 Alors (i) H · M est une (Ft )-martingale continue, nulle en 0. (ii) Si M est bornée par C > 0, pour tout T > 0, || sup (H · M )t ||22 ≤ C 2 || sup Ht2 ||2 0≤t≤T t≤T Preuve: Puisque M est une martingale, E(Mr |Fs ) = Mr∧s pour tous r, s, ≥ 0. On en déduit que si 0 ≤ ti ≤ s ≤ t, E(Hti (Mti+1 ∧t − Mti ∧t )|Fs ) = Hti E(Mti+1 ∧t − Mti ∧t )|Fs ) = Hti (Mti+1 ∧t∧s − Mti ∧t∧s ) = Hti (Mti+1 ∧s − Mti ∧s ). En utilisant cette relation pour s = ti , on voit maintenant que si 0 ≤ r ≤ ti ≤ t, E(Hti (Mti+1 ∧t − Mti ∧t )|Fr ) = E(E(Hti (Mti+1 ∧t − Mti ∧t )|Fti )|Fr ) = 0 donc encore E(Hti (Mti+1 ∧t − Mti ∧t )|Fr ) = Hti (Mti+1 ∧r − Mti ∧r ). Lorsque t ≤ ti , ceci est trivialement vrai. Donc H · M est une martingale. Montrons (ii). On regarde la martingale à temps discret Nk = Mtk ∧T et le processus à temps discret Gk = Htk . Alors (H · M )T = S(G, N )n donc par la Proposition 5.1.2, il existe c > 0 tel que ||(H · M )T ||22 ≤ c|| sup Ht2 ||2 . t≤T On applique alors l’inégalité de Doob à la martingale H · M . 5.3. Crochet comme variation quadratique Théorème 5.3.1. — Soit M une martingale continue bornée et 0 = tn0 ≤ tn1 ≤ · · · ≤ tnpn = T une suite de subdivisions de [0, T ] dont le pas tend vers 0. Alors, la limite (4) lim n→+∞ pX n −1 (Mtni+1 ∧t − Mtni ∧t )2 i=0 58 CHAPITRE 5. CROCHET DE MARTINGALES existe dans L2 et définit, pour t ≤ T , un processus croissant continu adapté noté hM, M it . Il existe une sous suite qui, presque surement, converge unifomément en t ∈ [0, T ]. De plus Mt2 − hM, M it est une martingale. Preuve: L’idée de la preuve est d’anticiper la formule Z t Ms dMs Mt2 − M02 − hM, M it = 2 0 (que l’on ne connait pas encore) en écrivant que pn−1 Mt2 − M02 − X pn−1 (Mtni+1 ∧t − Mtni ∧t )2 = 2 i=0 X Mtni ∧t (Mtni+1 ∧t − Mtni ∧t ) i=0 pn−1 =2 X Mtni (Mtni+1 ∧t − Mtni ∧t ). i=0 Avec (n) Mt = pX n −1 Mtni 1[tni ,tni+1 [ (t), i=0 ceci se réécrit pn−1 (5) Mt2 − M02 − X (Mtni+1 ∧t − Mtni ∧t )2 = 2 i=1 Z t Ms(n) dMs . 0 Posons (n) Xt Z = t Ms(n) dMs . 0 (n) On sait par la Proposition 5.2.1 que Xt est une martingale. En appliquant (n) (m) cette proposition à la martingale Xt − Xt on voit qu’il existe C > 0 telle que (n) E[ sup (Xt 0≤t≤T (m) 2 − Xt ) ] ≤ C|| sup (Ms(m) − Ms(n) )2 ||2 0≤s≤T ≤ 2C|| sup (Ms(m) − Ms )2 ||2 + 2C|| sup (Ms(n) − Ms )2 ||2 0≤s≤T 0≤s≤T (en utilisant (a + b)2 ≤ 2(a2 + b2 )). Par continuité de t 7→ Mt (ω) et donc uniforme continuité sur [0, T ], et le théorème de convergence dominée, ceci 5.3. CROCHET COMME VARIATION QUADRATIQUE 59 tend vers 0 quand m, n → +∞. Par récurrence construisons une suite d’entiers nk vérifiant nk ≥ nk−1 et, pour tout ≥ nk (nk ) E( sup (Xt 0≤t≤T − Xtm )2 ) ≤ 1/2k . Alors, +∞ +∞ X X (nk+1 ) (n ) (nk ) (n ) E( sup |Xt − Xt |) ≤ E( sup |Xt k − Xt k+1 |2 )1/2 < +∞. k=0 0≤t≤T 0≤t≤T k=0 Donc +∞ X (nk ) sup |Xt k=0 0≤t≤T (nk+1 ) − Xt | < +∞, p.s. (n ) On en déduit que, presque surement, Xt k converge uniformément sur [0, T ] (n) vers un processus Xt qui sera donc continu. Toute la suite Xt converge vers Xt dans L2 . En particulier X est une martingale. Ceci montre (4) en utilisant (5) et hM, M it = Mt2 − M02 − 2Xt . On a pn−1 (n) Mt2 − M02 − 2Xt = X (Mtni+1 ∧t − Mtni ∧t )2 i=0 Donc la suite i 7→ (n) Mt2n −M02 −2Xtn i i est croissante. Choisissons une subdivision (m) qui se raffine, alors c’est encore vrai pour la suite i 7→ Mt2n − M02 − 2Xtn i i m ≥ n, donc par passage à la limite pour la suite hM, M it(n) = i pour (m) lim Mt2ni − M02 − 2Xtn m→+∞ i La fonction hM, M it est donc croissante. Remarque : La preuve montre que (6) lim E[sup( n→+∞ t≤T pX n −1 (Mtni+1 ∧t − Mtni ∧t )2 − hM, M it )2 ] = 0 i=0 Le corollaire suivant résulte de la formule (4) et de la convergence p.s. pour une sous suite. Lemme 5.3.2. — Si M est une martingale bornée et τ un temps d’arrêt, hM τ , M τ it = hM, M it∧τ . 60 CHAPITRE 5. CROCHET DE MARTINGALES 5.4. Martingale locale Dans ce cours, on se concentre sur les processus continus. C’est pourquoi on pose : Définition 5.4.1. — Un processus adapté M tel que M0 = 0 est une martingale locale si il est continu et si il existe une suite croissante τn , n ∈ N, de temps d’arrêt tendant vers +∞ telle que M τn soit une martingale. On dit que (τn ) réduit M . Si M est un processus adapté non nul en 0, on dit que c’est une martingale locale si Mt − M0 l’est. Lemme (i) M (ii) Il telle que 5.4.2. — Il y a équivalence entre est une martingale locale et M0 est intégrable ; existe une suite croissante (τn ) de temps d’arrêt tendant vers +∞ M τn soit une martingale continue. Il résulte du théorème d’arrêt que : Théorème 5.4.3. — Une martingale locale arrêtée est une martingale locale. Lemme 5.4.4. — La somme de deux martingales locales est une martingale locale. Preuve: Si (τn ) réduit la martingale locale M et (σn ) réduit la martingale locale N , alors σn ∧ τn réduit M + N . Très souvent on utilisera : Proposition 5.4.5. — Si M est une martingale locale nulle en 0, et si Tn = inf{t ≥ 0; |Mt | = n} alors M Tn est une martingale bornée. Preuve: Si (τk ) réduit M , M τk est une martingale donc par le théorème d’arrêt, M τk ∧Tn est une martingale. Pour tout t ≥ 0, quand k → +∞, Mtτk ∧Tn tend vers MtTn dans L1 par convergence dominée (puisque |Mtτk ∧Tn | ≤ n). Donc M Tn est une martingale. Théorème 5.4.6. — Une martingale locale M telle que sup0≤s≤t |Ms | est dans L1 pour tout t ≥ 0 est une martingale. 5.4. MARTINGALE LOCALE 61 Preuve: Il suffit d’utiliser qu’une limite dans L1 de martingales est une martingale (Proposition 4.1.4) et le théorème de convergence dominée. Par contre l’uniforme intégrabilité ne suffit pas. L’exemple classique est Mt = 1/||Bt+1 || où B est le brownien dans R3 : on verra que c’est une martingale locale avec la formule d’Ito, par calcul E(Mt2 ) est uniformément 5/2 borné (et même E(Mt ) ) et pourtant 1 E(1/||B1 ||) E(Mt ) = E(1/||Bt+1 ||) = √ t+1 n’est pas constant. 5.4.1. Crochet d’une martingale locale. — Considérons une martingale locale M , nulle en 0, et Tn = inf{t ≥ 0; |Mt | = n}. Il résulte du corollaire 5.3.2 que si n ≤ m alors hM Tn , M Tn it = hM Tm , M Tm it si t ≤ Tn . On peut donc définir sans ambiguité hM, M i en posant hM, M it = hM Tn , M Tn it , pour tout n tel que Tn ≥ t. On aura hM τ , M τ it = hM, M it∧τ 2 On remarque que, puisque Mt∧τ − hM, M it∧τn est une martingale, n Proposition 5.4.7. — Si M est une martingale locale, le processus hM, M it est continu, adapté et Mt2 − hM, M it , t ≥ 0, est une martingale locale. Le théorème suivant est très important. Théorème 5.4.8. — Soit M une martingale locale nulle en 0. Alors les conditions suivantes sont équivalentes : (i) pour tout t ≥ 0, hM, M it ∈ L1 ; (ii) M est une martingale de carré intégrable. Sous ces conditions, Mt2 − hM, M it est une martingale. Preuve: Supposons (i). On peut réduire M avec Tn = inf{t; |Mt | = n}. Alors (n) Nt = (MtTn )2 − hM Tn , M Tn it (n) est une martingale (cf. Théorème 5.3.1). Donc E(Nt ) = 0 c’est à dire (7) E(MT2n ∧t ) = E(hM, M iTn ∧t ). 62 CHAPITRE 5. CROCHET DE MARTINGALES En particulier E(MT2n ∧t ) ≤ E(hM, M it ) ce qui assure que la suite MTn ∧t , n ∈ N, est uniformément intégrable. Donc MtTn tend vers Mt dans L1 et Mt est une martingale comme limite dans L1 de martingales. Par Fatou E(Mt2 ) ≤ lim inf E(MT2n ∧t ) ≤ lim inf E(hM, M iTn ∧t ) = E(hM, M it ) < +∞. n→+∞ n→+∞ Donc Mt est de carré intégrable. Ce qui montre (ii). Dans ce cas, par Doob sup0≤s≤t Ms2 est dans L1 . La martingale locale Mt2 − hM, M it est majorée en valeur absolue pour t ∈ [0, T ] par hM, M iT + sup0≤t≤T Mt2 . C’est donc une vraie martingale par le théorème 5.4.6. Supposons maintenant (ii) donc que Mt est une martingale de carré intégrable. Alors, par Doob, E( sup Mt2 ) ≤ 4E(MT2 ) 0≤t≤T donc, puisque M Tn est bornée, E(hM Tn , M Tn iT ) = E(MT2n ∧T ) ≤ 4E(MT2 ) et E(hM, M iT ) ≤ 4E(MT2 ) < +∞. Proposition 5.4.9. — Soit Mt une martingale locale nulle en 0 et hM, M i∞ = lim hM, M it . t→+∞ Alors E(sup Mt2 ) ≤ 4E(hM, M i∞ ). t≥0 Si ces quantités sont finies, Mt est une martingale, elle converge p.s. et dans L2 vers une v.a. M∞ quand t → +∞ et pour tous temps d’arrêts σ, τ E(Mτ |Fσ ) = Mτ ∧σ . Preuve: Soit (τn ) une suite de temps d’arrêt bornant M . Par Doob, pour tout T > 0, E(sup(Mtτn )2 ) ≤ 4E((MTτn )2 ) = 4E(hM τn , M τn iT ) ≤ 4E(hM, M i∞ ) t≤T On peut appliquer deux fois le théorème de convergence monotone, en faisant tendre T puis n vers l’infini, pour obtenir E(sup Mt2 ) ≤ 4E(hM, M i∞ ). t≥0 5.5. PROCESSUS À VARIATION FINIE 63 Si cette quantité est finie, Mt est une martingale convergente p.s. par le théorème de convergence 4.3.3. Par le théorème d’arrêt, E(Mτ ∧n |Fσ ) = Mτ ∧n∧σ . et on peut appliquer le théorème de convergence dominée pour l’espérance conditionnelle (ou la continuité dans L2 ) pour faire tendre n vers l’infini. Attention : si M est une vraie martingale, E(Mt2 ) = E(hM, M it ), donc sup E(Mt2 ) = E(hM, M i∞ ). t≥0 Si par contre M est seulement une martingale locale ceci peut être faux, comme le montre le contre exemple de la fin de la section précédente Mt = 1/||Bt+1 || où B est le brownien de R3 (dans ce cas E(hM, M i∞ ) = +∞ car M n’est pas une martingale). Insistons, l’inégalité de Doob sous la forme E(sup Mt2 ) ≤ 4E(MT2 ) t≤T est fausse pour la martingale locale Mt = 1/||Bt+1 ||. 5.5. Processus à variation finie Définition 5.5.1. — On appelle processus (sous entendu adapté continu) à variation finie la différence de deux processus croissants continus adaptés. Si At = Ut − Vt est à variation finie avec U et V croissants, pour toute subdivision 0 = t0 < t1 < · · · < tn = T , (8) n X i=1 |Ati − Ati−1 | ≤ n X i=1 |Uti − Uti−1 | + n X |Vti − Vti−1 | ≤ UT − U0 + VT − V0 . i=1 Il y a une réciproque à cette propriété, mais nous ne l’utiliserons pas. L’exemple typique de processus à variation finie est donné par la primitive Rt At = 0 Rs ds d’un processus Rt localement intégrable progressif (par exemple Rt Rt continu adapté) : en effet il suffit de prendre Ut = 0 Rs+ ds et Vs = 0 Rs− ds. Si A est nul en 0 on prendra U et V nuls en 0. Proposition 5.5.2. — Une martingale locale (continue) nulle en 0 à variation finie est nulle. 64 CHAPITRE 5. CROCHET DE MARTINGALES Preuve: Ecrivons Mt = Ut − Vt avec U, V croissants continus adaptés. Soit τk = inf{t ≥ 0; Ut + Vt ≥ k} et 0 = tn0 < tn1 < · · · < tnpn = T une suite de subdivisions de [0, T ] dont le pas tend vers 0. Alors, en appliquant le lemme d’orthogonalité 5.1.1 à la martingale N = M τk , pn X E(MT2 ∧τk ) = E( (Ntni − Ntni−1 )2 ) i=1 ≤ E(sup |N tn j j −N tn j−1 | pn X |Ntni − Ntni−1 |) i=1 ≤ E(sup |Ntnj − Ntnj−1 |(UT ∧τk + VT ∧τk )) j ≤ kE(sup |Ntnj − Ntnj−1 ]) → 0, j donc MT = 0. Corollaire 5.5.3. — Si M est une martingale locale, hM, M i est l’unique processus croissant adapté At nul en 0 tel que Mt2 − At soit une martingale locale. 5.6. Crochet de deux martingales locales Considérons deux martingales locales M et N . Le ”crochet” de M et N est défini par 1 hM, N it = [hM + N, M + N it − hM − N, M − N it ] 4 Exactement comme au dessus on voit que Proposition 5.6.1. — hM, N i est le seul processus (continu adapté) à variation finie, nul en 0, tel que M N − hM, N i soit une martingale locale. Si M et N sont bornés, il résulte de la formule (4) du théorème 5.3.1 que si 0 = tn0 < tn1 < · · · < tnpn = T sont des subdivisions dont le pas tend vers 0. Alors (9) hM, N iT = lim On en déduit : n→+∞ pn X i=1 (Mtni − Mtni−1 )(Ntni − Ntni−1 ) 5.6. CROCHET DE DEUX MARTINGALES LOCALES 65 Théorème 5.6.2. — Si M et N sont deux martingales locales, et τ un temps d’arrêt, alors hM τ , N i = hM, N τ i = hM τ , N τ i = hM, N iτ . Preuve: Ecrire (après avoir borné par localisation) que hM τ , N iT = lim n→+∞ pn X (Mtni ∧τ − Mtni−1 ∧τ )(Ntni − Ntni−1 ) i=1 et que X i=1 = X + X + . i;tn i−1 ≥τ n i;tn i−1 ≤τ ≤ti i;tn i ≤τ X La somme du milieu ne comporte qu’un seul terme et tend donc vers 0, les autres sont les mêmes si on remplace Ntni − Ntni−1 par Ntni ∧τ − Ntni−1 ∧τ . Le résultat suivant serait aussi vrai pour des martingales (cf TD), Proposition 5.6.3. — Si Bt , t ≥ 0, et Bt0 , t ≥ 0, sont deux Ft -browniens indépendants, alors hB, B 0 it = 0. Preuve: En appliquant la proposition 3.4.2, on voit que Wt = mouvement brownien. On en déduit que Bt +Bt0 √ 2 est un 1 t = hW, W it = (hB, Bit + 2hB, B 0 it + hB 0 , B 0 it ) = t + hB, B 0 it 2 donc hB, B 0 i = 0. Considérons un processus croissant continu A sur R+ . Pour chaque ω ∈ Ω, définissons une mesure mA(ω) sur R+ on posant mA(ω) ([s, t]) = At (ω) − As (ω). Pour simplifier, on notera Z t Z t f (s) dmA(ω) (s) = f (s) dAs (ω) 0 0 si f est borélienne positive ou bornée, et la plupart du temps on n’écrit pas ω. Si A maintenant est un processus à variation finie, donc s’écrivant At = Ut −Vt où U et V sont des processus croissants, on posera Z t Z t Z t f (s) dAs = f (s) dUs − f (s) dVs . 0 0 0 66 CHAPITRE 5. CROCHET DE MARTINGALES Le seul cas que l’on rencontrera souvent est celui où A est une primitive : Rt At = 0 Rs ds. Alors Z t Z t f (s) dA(s) = f (s)Rs ds. 0 0 Le lemme suivant sera considérablement renforcé au théorème 6.1.8. Lemme 5.6.4. — Pour H ∈ E, si M et N sont des martingales locales, Z T Hs dhM, N is . hH · M, N iT = 0 Preuve: Par linéarité, il suffit de considérer le cas où Ht = Z1[a,b[ (t), avec b ≤ T , où Z est Fa –mesurable, bornée. Par localisation, il suffit de considérer le cas où M et N sont bornées. On a alors E((H · M )T NT ) = E(Z(Mb − Ma )NT ), or E(Z(Mb − Ma )NT ) = E(ZMb Nb ) − E(ZMa Na ) = E(Z[(Mb Nb −hM, N ib )−(Ma Na −hM, N ia )])+E(ZhM, N ib )−E(ZhM, N ia ) = E(ZhM, N ib ) − E(ZhM, N ia ) car M N − hM, N i est une martingale, donc, Z E((H · M )T NT ) = E(Z(hM, N ib − hM, N ia )) = E( t Hs dhM, N is ). 0 Pour tout temps d’arrêt τ borné par T , en remplaçant M et N par M τ et N τ on a encore Z τ E((H · M )τ Nτ ) = E( Hs dhM, N is ) 0 ce qui montre que (H · M )t Nt − corollaire 4.3.8). Rt 0 Hs dhM, N is est une martingale (par le Le résultat suivant est déterministe. P Lemme 5.6.5. — Soit H une fonction qui s’écrit Ht = n−1 i=0 Hti 1[ti ,ti+1 [ (t) où Hti est un réel. Alors Z t Z t 2 ( Hs dhM, N is ) ≤ hN, N it Hs2 dhM, M is . 0 0 5.6. CROCHET DE DEUX MARTINGALES LOCALES 67 Preuve: On écrit que hλM + N, λM + N it est une fonction croissante de t, on en déduit que, si s ≤ t, (hM, N it − hM, N is )2 ≤ (hM, M it − hM, M is )(hN, N it − hN, N is ) qui s’écrit aussi Z t Z t Z t dhN, N iu . dhM, M iu ( dhM, N iu )2 ≤ s s s On en déduit que Z t n Z X Hs dhM, N is | = | | 0 ≤ ≤ n X Z |Hti |[ i=1 ti+1 ∧t dhM, N is | |Hti ti ∧t i=1 ti+1 ∧t 1/2 dhM, M is ] ti ∧t ti+1 ∧t Z [ dhN, N is ]1/2 . ti ∧t P a2i )( b2i ) (Cauchy Schwarz) donc Z ti+1 ∧t Z t n n Z X X Ht2i dhM, M is ][ ( Hs dhM, N is )2 ≤ [ Or ( P ai bi )2 Z Hs dhM, N is | ti ∧t i=1 n X ti+1 ∧t ≤( P 0 i=1 ti ∧t i=1 ti+1 ∧t dhN, N is ] ti ∧t c’est à dire Z t Z t Z t 2 2 ( Hs dhM, N is ) ≤ Hs dhM, M is dhN, N is . 0 0 0 En utilisant par exemple la proposition 6.1.7, on voit, en utilisant la densité dans L2 (R, ddhM, M i) à fixé, que Proposition 5.6.6 (Kunita Watanabe). — L’application qui à Ht = Rt Pn−1 Hs dhM, N is se prolonge par continuité à tout i=0 Hti 1[ti ,ti+1 [ (t) associe 0 R t processus mesurable H tel que 0 Hs2 dhM, M iu < ∞ et si on note de la même façon ce prolongement, il vérifie encore Z t Z t Hs2 dhM, M is . ( Hs dhM, N is )2 ≤ hN, N it 0 0 CHAPITRE 6 INTÉGRALE STOCHASTIQUE 6.1. Cas d’une martingale de carré intégrable Sur un espace (Ω, (Ft ), P) on considère une martingale continue Mt de carré intégrable (c’est à dire telle que Mt ∈ L2 pour tout t ≥ 0). Rappelons (Théorème 5.4.8) qu’alors hM, M it ∈ L1 et que Mt2 − hM, M it est une martingale. Dans la suite on fixe un T > 0. Définition 6.1.1. — On note HT2 l’espace des martingales dans L2 (Ω, (Ft ), P) presque surement continues Mt , 0 ≤ t ≤ T , telles que M0 = 0, muni du produit scalaire (M, N )H2 = E(MT NT ) = E(hM, M iT ). T Remarquons que si M, N ∈ HT2 , alors M + N et M − N sont dans HT2 et que M N − hM, M i est une martingale. On identifiera deux martingales égales p.s. dans la proposition suivante. Proposition 6.1.2. — HT2 est un espace de Hilbert. Preuve: Il faut montrer que HT2 est complet. Considérons une suite de Cauchy (n) M (n) . Alors MT est une suite de Cauchy dans L2 (Ω, F, P), qui est complet. Il existe donc une variable aléatoire, que nous noterons MT , dans L2 (Ω, F, P) telle que (n) E((MT − MT )2 ) → 0 70 CHAPITRE 6. INTÉGRALE STOCHASTIQUE quand n → +∞. Posons, pour tout t ≤ T , Mt = E(MT |Ft ). Il est clair que (Mt ) est une martingale, et par continuité dans L2 de l’espérance condition(n) nelle, que Mt → Mt dans L2 . Par Doob (n) (m) E( sup (Ms(n) − Ms(m) )2 ) ≤ 4E((MT − MT )2 ) 0≤t≤T tend vers 0 quand n, m → +∞. On peut extraire une sous suite nk telle que (n ) Mt k converge uniformément. La limite sera donc continue. Or cette limite est nécessairement Mt . Ceci montre que Mt est une martingale continue. Donc (n) M ∈ HT2 et ||M (n) − M ||2H2 = E((MT − MT )2 ) → 0. T Définition 6.1.3. — Etant donnée une martingale M on note L2 (M )T l’enRT semble des processus progressifs H tels que E( 0 Hs2 dhM, M is ) < ∞ muni du produit scalaire Z T Hs Ks dhM, M is ). (H, K)L2 (M )T = E( 0 Proposition 6.1.4. — E est dense dans L2 (M )T . Preuve: Remarquons que L2 (M )T est un sous espace fermé de l’espace L2 (Ω× [0, T ], FT ⊗ B([0, T ]), m) où m est la mesure définie par, si A ∈ FT ⊗ B([0, T ]), Z T m(A) = E( 1A (ω, s)dhM, M is (ω)) 0 C’est donc un espace de Hilbert. Il suffit donc de montrer que si K ∈ L2 (M )T est orthogonal à E alors il est nul (cf. Corollaire 2.3.8). Posons, pour un tel K, Z t Xt = Ks dhM, M is . 0 Montrons que Xt est une martingale : Par l’inégalité de Kunita Watanabe (Proposition 5.6.6), Z t Z t 1/2 |Ks | dhM, M is ≤ hM, M it ( Ks2 dhM, M is )1/2 0 0 on voit, après avoir appliqué Cauchy Schwarz, que Z t Z t 2 (10) [E( |Ks | dhM, M is )] ≤ E(hM, M it )E( Ks2 dhM, M is ) < +∞. 0 0 Donc Xt ∈ L1 . Soit Z une v.a. Fs –mesurable bornée. Pour 0 ≤ s ≤ t ≤ T , le processus Hr = Z1[s,t[ (r) est dans E donc, par hypothèse, orthogonal à K, 6.1. CAS D’UNE MARTINGALE DE CARRÉ INTÉGRABLE 71 donc Z 0 = E( T Z Hr Kr dhM, M ir ) = E(Z 0 t Kr dhM, M ir ) = E(Z(Xt − Xs )). s Ceci entraı̂ne que X est une martingale. Comme elle est à variation finie, elle est nulle par la Proposition 5.5.2. Donc, p.s. Z t Ks dhM, M is = 0 0 pour tout s > 0, ce qui entraı̂ne (par densité des combinaisons linéaires de fonctions indicatrices 1[0,s] , ou classe monotone) que, pour presque tout ω ∈ Ω, s 7→ Ks (ω) est nul dhM, M is (ω) presque partout, donc que K est nul dans L2 (M )T . P Rappelons maintenant que lorsque H = Hti 1[ti ,ti+1 [ ∈ E et M est une martingale, on a défini l’intégrale stochastique X (H · M )t = Hti (Mti+1 ∧t − Mti ∧t ) Lemme 6.1.5. — Si H ∈ E et M est une martingale de carré intégrable, Z T Hs2 dhM, M is ). E(H · M )2T = E( 0 Preuve: Il suffit d’appliquer deux fois le lemme 5.6.4 : dhH · M, H · M i = HdhM, H · M i = H 2 dhM, M i. Théorème 6.1.6. — L’intégrale stochastique par rapport à M se prolonge en Rt une isométrie de L2 (M )T dans HT2 . On note encore H · M ou 0 Hs dMs , 0 ≤ t ≤ T, l’image de H ∈ L2 (M )T . Preuve: Considérons l’application IM : E 7→ HT2 définie par IM (H) = H ·M . Le lemme précédent montre que c’est une isométrie de E, considéré comme sous espace de L2 (M )T , dans HT2 . Comme E est dense et HT2 complet, on peut prolonger cette isométrie à HT2 tout entier. En effet, on a le résultat général suivant : Proposition 6.1.7. — On considère deux espaces métriques (F1 , d1 ) et (F2 , d2 ), D une partie dense de F1 et φ : D 7→ F2 une application pour laquelle il existe c > 0 tel que (11) d2 (φ(x), φ(y)) ≤ cd1 (x, y) 72 CHAPITRE 6. INTÉGRALE STOCHASTIQUE pour tous x, y ∈ D. Si (F2 , d2 ) est complet, l’application φ se prolonge à F1 tout entier en une application vérifiant (11) partout. Preuve: En effet, par densité, pour tout x ∈ F1 , il existe une suite xn ∈ D tendant vers x. La suite (xn ) est de Cauchy pour d1 puisqu’elle converge. L’inégalité (11) montre que φ(xn ) est une suite de Cauchy dans (F2 , d2 ). Comme cet espace est complet, φ(xn ) converge. Il suffit de poser φ(x) = lim φ(xn ). Le théorème suivant est fondamental. Théorème 6.1.8 (Propriété caractéristique). — Pour H ∈ L2 (M )T , (H · M )t , t ≤ T, est la seule martingale de HT2 , nulle en 0, vérifiant Z T Hs dhM, N is , hH · M, N iT = 0 pour tout N ∈ HT2 . Preuve: Lorsque H ∈ E la relation est donnée par le lemme le lemme 5.6.4. Pour traiter le cas général d’un H dans L2 (M )T , approchons le par une suite H n ∈ E. Par construction de l’intégrale stochastique, Hn · M tend vers H · M dans HT2 . L’application linéaire M ∈ HT2 7→ hM, N iT ∈ L1 est continue par Kunita Watanabe (Proposition 5.6.6 appliquée à H = 1), donc, dans L1 , Z T Z T hH·M, N iT = lim hH n ·M, N iT = lim Hsn dhM, N is = Hs dhM, N is , n→+∞ n→+∞ 0 0 puisque en utilisant à nouveau Kunita Watanabe Z T Z T [E| (Hsn − Hs ) dhM, N is |]2 ≤ EhN, N iT E (Hsn − Hs )2 dhM, M is . 0 0 Reste l’unicité : si X est une martingale nulle en 0, telle que pour tout N , hX, N iT = hH · M, N iT , alors, en prenant N = X − H · M , on a hX − H · M, X − H · M i = 0 donc X = H.M . Une autre façon d’écrire cette relation est dhH · M, N it = Ht dhM, N it c’est à dire que, pour chaque ω fixé, la mesure dhH · M, N it a la densité Ht par rapport à la mesure dhM, N it . 6.2. CAS D’UNE MARTINGALE LOCALE. 73 Corollaire 6.1.9. — Pour toutes martingales M, N dans HT2 , H ∈ L2 (M )T et K ∈ L2 (N )T Z T Hs Ks dhM, N is . hH · M, K · N iT = 0 Théorème 6.1.10. — Pour H ∈ L2 (M )T , pour tout temps d’arrêt τ , (H · M )τ = H · M τ = H1[0,τ [ · M. De plus, K ∈ L2 (H · M )T si et seulement si KH ∈ L2 (M )T et alors (associativité de l’intégrale stochastique) (KH) · M = K · (H · M ). Preuve: Pour l’arrêt, on utilise la propriété caractéristique. Par le théorème 5.6.2 pour tout N ∈ HT2 , et Z T τ τ h(H · M ) , N iT = h(H · M ), N iT = Hs dhM, N iτs 0 Z T Hs d hM τ , N is = hH · M τ , N iT = 0 et Z τ h(H · M ) , N iT = T H1[0,τ [ dhM, N is = hH1[0,τ [ · M, N iT . 0 Pour l’associativité : d’abord Z T Z 2 E( Ks dh(H · M ), (H · M )is ) = E( 0 T Ks2 Hs2 dhM, M is ). 0 Par ailleurs Z h(KH)·M, N iT = T Z Ks Hs d hM, N is = 0 T Ks hH·M, N is = hK·(H·M ), N iT . 0 6.2. Cas d’une martingale locale. Soit M une martingale locale. Définition 6.2.1. — On note L0 (M ) l’ensemble des processus progressifs H tels que, pour tout t > 0, Z t Hs2 dhM, M is < +∞, p.s. 0 74 CHAPITRE 6. INTÉGRALE STOCHASTIQUE Les processus adaptés ”raisonnables” sont dans L0 (M ), par exemple (en utilisant le lemme 3.6.2) Proposition 6.2.2. — Si Xt est un processus adapté continu et τ ≤ +∞ un temps d’arrêt alors Ht = Xt 1[0,τ [ (t) est dans L0 (M ). Tout processus adapté continu, et même seulement càd-làg, est dans L0 (M ). Soit H ∈ L0 (M ). La suite Z t τn = inf{t ≥ 0; (1 + Hs2 )dhM, M is ≥ n} 0 est formée de temps d’arrêt et croı̂t vers +∞. Puisque Z T τn τn Hs2 dhM τn , M τn is ≤ n, hM , M it ≤ n et 0 est une vraie martingale de HT2 et que H est dans L2 (M τn )T . on voit que Considérons H · M τn . Pour m ≥ n, M τn (H · M τm )τn = H · (M τm )τn = H · M τm ∧τn = H · M τn . On peut donc poser, sans ambiguı̈té, (H · M )t = (H · M τn )t , pour tout n tel que τn ≥ t. On utilisera aussi la notation Z (H · M )t = t Hs dMs . 0 Théorème 6.2.3 (Propriété caractéristique). — Pour H ∈ L0 (M ), H · M est l’unique martingale locale, nulle en 0, telle que, pour toute martingale locale N Z T hH · M, N iT = Hs dhM, N is , 0 Preuve: facile. Corollaire 6.2.4. — Pour H, K ∈ L0 (M ), pour tout temps d’arrêt τ , (H · M )τ = H · M τ = H1[0,τ [ · M et (HK) · M = H · (K · M ). 6.3. SEMIMARTINGALES 75 Corollaire 6.2.5 (Kunita Watanabe 2). — Pour H ∈ L0 (M ), K ∈ L0 (N ), Z t Z t Z t Ks2 dhN, N is . Hs2 dhM, M is ( Hs Ks dhM, N is )2 ≤ 0 0 0 6.3. Semimartingales On se fixe (Ω, F, (Ft ), P). Définition 6.3.1. — On appelle semimartingale (sous entendu continue) un processus adapté Xt s’écrivant Xt = X0 + Mt + Vt où M est une martingale locale et V un processus à variation finie, nuls en 0, continus adaptés et X0 est F0 -mesurable. Vu la Proposition 5.5.2, cette décomposition est unique. On l’appelle la décomposition canonique. Définition 6.3.2. — Le crochet de 2 semimartingales Xt = X0 + Mt + Vt , Yt = Y0 + Nt + Ut où M et N sont les parties martingales locales, est par définition hX, Y i = hM, N i. L’exemple fondamental de semimartingale (mais ce n’est pas le seul, penser au sup du brownien St = max0≤s≤t Bs ) est donné par les processus d’Ito : on considère un Ft –mouvement brownien B = (B (1) , · · · , B (d) ) à valeurs dans Rd issu de 0 ; par définition, Définition 6.3.3. — Un Ft –mouvement brownien B = (B (1) , · · · , B (d) ) à valeurs dans Rd est un processus continu tel que Bt+s − Bt , s ≥ 0, est indépendant de Ft et dont les composantes sont des browniens indépendants. Définition 6.3.4. — On appelle processus d’Itô réel tout processus Xt de la forme Z t d Z t X k k (12) Xt = X0 + φs dBs + αs ds k=1 0 0 où X0 ∈ F0 , où φk et α sont des processus progressifs réels tels que, pour tout RtP Rt t > 0, 0 (φks )2 ds + 0 |αs | ds < +∞ p.s. 76 CHAPITRE 6. INTÉGRALE STOCHASTIQUE Un processus d’Ito multidimensionnel est un processus dont les composantes sont des processus d’Ito réels (par rapport au même Ft –brownien dRt PRt k dimensionnel B). Soient Xt = X0 + φ dB k + 0 αs ds et Yt = Y0 + 0 Rt PRt k k 0 ψ dB + 0 βs ds les composantes d’un processus d’Itô de dimension 2. On a d Z t X (13) hX, Y it = φks ψsk ds. k=1 0 6.3.1. Intégration par rapport à une semimartingale. — Soit Xt = X0 + Mt + A1t − A2t une semimartingale où A1 et A2 sont croissants. On note L0 (X), l’ensemble des processus progressifs U tels que, pour tout t > 0, Z t Z t 2 Us dhMs , Ms i + |Us | d(A1s + A2s ) < +∞, p.s. 0 0 Par exemple tout processus adapté continu par morceaux est dans L0 (X). Pour U ∈ L0 (X), on définit : Z t Z t Z t Z t 1 (U · X)t = Us dXs = Us dMs + Us dAs − Us dA2s . 0 0 0 0 On vérifie facilement que : Proposition 6.3.5. — Si X, Y sont des semimartingales, pour H ∈ L0 (X), pour tout temps d’arrêt τ , (H · X)τ = H · X τ ), si K ∈ L0 (H.X), (KH) · X = K · (H · X), Z t hH · X, K · Y it = Hs Ks dhX, Y is . 0 Théorème 6.3.6 (de convergence dominée pour l’I.S.) Soit K, H ∈ L0 (X) et H (n) une suite de processus progressifs telle que ; (n) (n) pour tout t ≥ 0, Ht → Ht p.s. quand n → +∞ et |Ht | ≤ Kt . Alors, en probabilité Z t Z t (n) sup | Hs dXs − Hs dXs | → 0. 0≤t≤T 0 0 6.3. SEMIMARTINGALES 77 Preuve: Si Xt = X0 + Mt + At est la décomposition canonique de X. L’intégrale par rapport à A se traite avec le théorème de Lebesgue classique. Pour la partie M , appliquons la technique fondamentale : la localisation. Etape 1 : Localisation et convergence L2 . Soit τk la suite croissante vers +∞ de temps d’arrêt, définie par τk = inf{t ≥ 0; |Mt | + hK · M, K · M it = k} alors par Doob Z Z t Z t τk 2 (n) τk E[ sup ( Hs dMs − Hs dMs ) ] ≤ 4E[( 0≤t≤T Z Z = 4E[( τk ∧T T Hs(n) dMsτk − Hs dMsτk )2 ] 0 0 0 0 T (Hs(n) − Hs )2 dhM, M is ]. 0 R τ ∧T (n) (n) Par Lebesgue dominé (puisque (Hs − Hs )2 ≤ 4Ks2 ) on voit que 0 k (Hs − Hs )2 dhM, M i → 0 quand n → +∞, et puisque cette quantité est bornée (par 2k) son espérance tend vers 0 à nouveau par Lebesgue dominé. Etape 2 : Convergence en probabilité :Soit ε > 0 Z t Z t Hs dMs )2 > ε) P( sup ( Hs(n) dMs − 0≤t≤T 0 0 Z t Z t Hs dMsτk )2 > ε, τk > t) + P(τk ≤ t) ≤ P( sup ( Hs(n) dMsτk − 0≤t≤T 0 0 etc... tend vers 0. Proposition 6.3.7. — Soit X une semimartingale et U un processus adapté continu. Soit 0 = tn0 ≤ tn1 ≤ . . . ≤ tnpn = T, une suite de subdivisions dont le pas tend vers 0. Alors Z t pX n −1 sup | Utni (Xtni+1 ∧t − Xtni ∧t ) − Us dXs | → 0 0≤t≤T 0 i=0 et sup | 0≤t≤T pX n −1 Utni (Xtni+1 ∧t − Xtni ∧t )2 − Z i=0 t Us dhX, Xis | → 0 0 en probabilité. Preuve: On pose Usn = pX n −1 i=0 Ppn −1 i=0 Utni 1[tni ,tni+1 [ (s). On a Z U (X tn i tn i+1 ∧t −X tn i ∧t )= 0 t Usn dXs . 78 CHAPITRE 6. INTÉGRALE STOCHASTIQUE Vu la continuité, U n tend vers U en restant borné pour chaque ω puisque |Usn | ≤ max0≤r≤t |Ur |. Il suffit d’appliquer le théorème précédent pour obtenir la première limite. Pour la seconde limite, pour simplifier les notations ne regardons que ce qui se passe en T . Ecrivons X = X0 + M + A où M est une martingale et A à variation finie. Commencons par montrer que pX n −1 (Xtni − Xtni−1 )2 → hX, XiT . i=0 On a lim | pX n −1 n→+∞ ≤ lim | (X tn i −X tn i−1 2 ) − i=0 pX n −1 (Mtni − Mtni−1 )2 | i=0 pX n −1 pX n −1 i=0 i=0 (Atni − Atni−1 )2 + 2 (Mtni − Mtni−1 )(Atni − Atni−1 )| ≤ ( sup |Atnj − Atnj−1 | + 2|Mtnj − Mtnj−1 |)| 1≤j≤n pX n −1 |Atni − Atni−1 | = 0 i=0 par continuité de M et de A et en utilisant l’inégalité (8). Donc lim pX n −1 2 (Xtni − Xtni−1 ) = lim i=0 pX n −1 (Mtni − Mtni−1 )2 i=0 Posons τk = inf(s ≥ 0, |Ms | ≥ k). En écrivant P(| pX n −1 (Mtni − Mtni−1 )2 − hX, XiT | > ε) i=0 pX n −1 (Mtτnk − Mtτnk )2 − hX τk , X τk iT | > ε, t < τk ) + P(t ≥ τk ) = P(| i i−1 i=0 Ppn τk on obtient la convergence en probabilité puisque − Mtτnk )2 → i=1 (Mtn i i−1 hX τk , X τk iT par le théorème 5.3.1. Le cas avec supt≤T se traite avec (6). Il est alors facile de traiter le cas d’un U continu : Il suffit de l’approcher (pour ω fixé) uniformément sur [0, T ] par les fonctions en escalier du type P k Uk/n 1[k/n,(k+1)/n[ . 6.4. FORMULE D’ITÔ 79 Corollaire 6.3.8. — Si X, Y sont deux semimartingales et U un processus adapté continu. Z t pX n −1 Us dhX, Y is | → 0 sup | Utni (Xtni+1 ∧t − Xtni ∧t )(Ytni+1 ∧t − Ytni ∧t ) − 0≤t≤T 0 i=0 en probabilité. Preuve: Par découpage. 6.4. Formule d’Itô Théorème 6.4.1. — (Formule d’Itô) Soit Xt = (Xt1 , . . . , Xtp ) une semimartingale à valeurs dans un ouvert U de Rp , et f ∈ C 2 (U ). Alors f (Xt ) est une semimartingale et p Z t p Z X ∂f 1 X t ∂2f j f (Xt ) − f (X0 ) = (Xs ) dXs + (Xs ) dhX j , X k is . ∂x 2 ∂x ∂x j j k 0 0 j=1 j,k=1 Preuve: Traitons le cas p = 1. Par continuité Xt reste à valeurs dans l’intervalle de U contenant X0 . La formule de Taylor à l’ordre 2 s’écrit (y − x)2 00 f (θ) 2 pour un θ ∈ [x, y]. Ecrivons donc, pour une suite de subdivisions 0 = tn0 < tn1 < . . . < tnpn = t, de [0, t] dont le pas tend vers 0, f (y) − f (x) = f 0 (x)(y − x) + f (Xt ) − f (X0 ) = pX n −1 (f (Xtni+1 ) − f (Xtni )) i=0 = pX n −1 f 0 (Xtni )(Xtni+1 − Xtni ) + i=0 pX n −1 f 00 (θin ) (Xtni+1 − Xtni )2 2 i=0 où θin est entre Xtni+1 et Xtni . Le premier terme tend en probabilité vers Rt 0 0 f (Xs ) dXs par la proposition 6.3.8. Pour le second, on a lim n→+∞ pX n −1 (θin ) 00 − f (X )| tn i (Xtni+1 − Xtni )2 i=0 ≤ lim sup |f n→+∞ k |f 00 00 (θkn ) 00 − f (X )| tn k pX n −1 i=0 2 (Xtni+1 − Xtni )2 2 =0 80 CHAPITRE 6. INTÉGRALE STOCHASTIQUE par uniforme continuité de f 00 sur les compacts. Il suffit donc d’appliquer la proposition précédente pour conclure. Si p > 1, la preuve est la même lorsque U est convexe. Sinon on utilise la formule de Taylor sous la forme, pour x, y variant dans un compact de U , il existe une fonction o telle que p p X ∂f 1 X ∂2f f (y)−f (x) = (x) (yj −xj )+ (x)(yj −xj )(yk −xk )+o(ky−xk2 ), ∂xj 2 ∂xj ∂xk j=1 j,k=1 où o(h)/h → 0 quand h → 0. On écrit souvent de façon formelle, p p X 1 X ∂2f ∂f (Xt ) dXtj + (Xt ) dhX j , X k it . (14) df (Xt ) = ∂xj 2 ∂xj ∂xk j=1 j,k=1 Corollaire 6.4.2. — Soit X une semimartingale à valeurs dans Rp et f ∈ C 1,2 (R+ × Rp ). Alors f (t, Xt ) est une semimartingale et Z 0 t f (t, Xt ) − f (0, X0 ) = p Z t p Z t X X ∂2f ∂f ∂f j 1 (s, Xs ) ds+ (s, Xs ) dXs + (s, Xs ) dhX j , X k is . ∂t ∂x 2 ∂x ∂x j j k 0 0 j=1 j,k=1 Corollaire 6.4.3 (Intégration par parties). — Si X et Y sont deux semimartingales, d(Xt Yt ) = Xt dYt + Yt dXt + dhX, Y it CHAPITRE 7 APPLICATIONS DE LA FORMULE D’ITO 7.1. Sur le Brownien multidimensionnel Soit B le Brownien dans Rd partant de 0 et Wt = Bt + x0 , le mouvement brownien partant de x0 ∈ Rd . Pour tout temps d’arrêt, τ , par Ito, si U est un ouvert tel que Wt∧τ ∈ U pour tout t ≥ 0, pour toute fonction C 2 (U ) Z d Z t∧τ X ∂f 1 t∧τ ∆f (Ws ) ds f (Wt∧τ ) = f (x0 ) + (Ws ) dWsi + ∂xi 2 0 0 i=1 où ∆ est le laplacien ∆f = fonction f : U → R égale à : ∂2f i=1 ∂x2i . Pd Considérons pour U = Rd − {0} la f (x) = log kxk, si d = 2 et f (x) = 1 , si d ≥ 3. kxkd−2 En dehors de 0, ∆f = 0 (on dit que f est harmonique). Donc Lemme 7.1.1. — Si τ est un temps d’arrêt tel que Wtτ ne s’annule jamais, f (Wtτ ) est une martingale locale. Proposition 7.1.2 (Les points sont polaires en dimension ≥ 2) Si d ≥ 2, pour tout x ∈ Rd P(∃t > 0; Bt = x) = 0. Preuve: Il suffit de traiter le cas d = 2. Supposons d’abord x0 6= 0. Montrons que P(∃t > 0; Wt = 0) = 0. Choisissons r, R > 0 tels que r < ||x0 || < R, posons Tr = inf{t ≥ 0; ||Wt || = r}, TR = inf{t ≥ 0; ||Wt || = R} et τ = Tr ∧ TR . Puisque ln(||Wtτ ||) est une 82 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO martingale locale bornée, E[ln(||Wtτ ||)] = E[ln(||W0τ ||)] = ln ||x0 || donc, en faisant t → +∞, par convergence dominée, E[ln(||Wτ ||)] = ln ||x0 || c’est à dire P(Tr < TR ) ln r + P(Tr > TR ) ln R = ln ||x0 || ce qui donne (15) P(Tr < TR ) = ln R − ln ||x0 || . ln R − ln r En faisant tendre r vers 0 on obtient que P(T0 ≤ TR ) = 0, car {T0 ≤ TR } = ∪r<R {Tr < TR }. Puis en faisant tendre R vers +∞, P(T0 < ∞) = 0. Donc partant de x0 6= 0 on n’atteint pas 0. Ensuite, puisque pour tout ε > 0, B̃t = Bt+ε − Bε , t ≥ 0, est un brownien indépendant de Bε et puisque Bε 6= 0, p.s., on a (en prenant dans ce qui précède Wt = B̃t + Bε ) P(∃t > ε, Bt = 0) = P(∃t > 0, Bε+t = 0) = P(∃t > 0, B̃t = −Bε ) = 0 et, en faisant tendre ε vers 0, P(∃t > 0, Bt = 0) = 0. Proposition 7.1.3. — En dimensions d = 1, 2, pour tout ouvert U de Rd P(∃t > 0; Bt ∈ U ) = 1 et, p.s., lim inf ||Bt || = 0. t→+∞ Si d ≥ 3, p.s., lim ||Bt || = +∞. t→+∞ Preuve: Le cas d = 1 est clair. Pour d = 2 en reprenant la preuve précedente on voit en commençant par faire tendre R vers l’infini dans (15), que pour tout x0 , P(Tr < +∞) = 1 et donc que pour tout x ∈ R2 , P(∃t > 0; ||Bt − x|| < ε) = 1. 7.2. MARTINGALES EXPONENTIELLES 83 On conclut alors facilement. Par contre pour d ≥ 3, puisque ce n’est plus ln ||x|| mais ||x||2−d qui est harmonique hors de 0, on obtient à la place de l’équation (15), R2−d − ||x0 ||2−d P(Tr < TR ) = . R2−d − r2−d En faisant tendre R vers +∞, on obtient que, partant de x0 , P(Tr < +∞) = ||x0 ||2−d . r2−d On a donc, pour tout M > 0, P(lim inf |Bt | ≥ r) ≥ P(kBt+TM k ≥ r, ∀t ≥ 0) ≥ 1 − t→+∞ M 2−d →1 r2−d quand M tend vers l’infini si d > 2. Remarque : On peut maintenant justifier que Mt := 1/||Bt+1 || est bien une martingale locale pour le brownien dans R3 . 7.2. Martingales exponentielles 7.2.1. Définition. — Théorème 7.2.1. — Soit M une martingale locale. Alors, pour tout λ ∈ C, 1 E(λM ) = exp(λM − λ2 hM, M i) 2 est une martingale locale et dE(λM ) = λE(λM ) dM. Si N est une martingale locale strictement positive, il existe une martingale locale M telle que N = E(M ) Preuve: Il suffit pour la partie directe d’appliquer la formule d’Ito aux fonctions parties réelles et imaginaires de f (x) = ex et à la semimartingale 2 λM − λ2 hM, M i. Pour la réciproque on applique Ito à log(Nt ). Proposition 7.2.2. — Soit M une martingale locale à valeurs positives ou nulles telle que M0 est intégrable. Alors M est une surmartingale (i.e. −M est une sous martingale). On a toujours E(MT ) ≤ E(M0 ). Si E(MT ) = E(M0 ), alors M est une martingale. 84 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO Preuve: Soit τn réduisant M . Par Fatou conditionnel E(MT |Fs ) ≤ E(lim inf MTτn |Fs ) ≤ lim inf E(MTτn |Fs ) = lim inf Msτn = Ms n→+∞ n→+∞ n→+∞ donc Mt est une surmartingale. Pour 0 ≤ s ≤ t ≤ T , E(MT |Fs ) ≤ E(Mt |Fs ) ≤ Ms donc E(MT ) ≤ E(Mt ) ≤ E(Ms ) ≤ E(M0 ) < +∞. Si E(MT ) = E(M0 ) alors E(Mt ) = E(Ms ). Donc Ms − E(Mt |Fs ) ≥ 0 est d’espérance nulle, donc nul p.s. Corollaire 7.2.3. — Soit M une martingale locale nulle en 0 et E(M ) = exp(M − 21 hM, M i). Alors E(E(M )T ) ≤ 1 et, si E(E(M )T ) = 1 pour un T > 0, alors E(M )t , t ≤ T, est une (vraie) martingale. 7.2.2. Critère de Paul Lévy. — Proposition 7.2.4. — Soit M une martingale locale (continue) nulle en 0 de crochet t. Alors M est un (Ft )–brownien. Preuve: Par le théorème précédent, pour tout λ réel, E(iλM ) est une martingale locale bornée sur [0, T ] par e λ2 T 2 donc une martingale : pour 0 < s < t, E[E(iλMt )|Fs ] = E(iλMs ) autrement dit, 1 1 E[exp(iλMt − λ2 t)|Fs ] = exp(iλMs − λ2 s) 2 2 d’où 1 E[exp(iλ(Mt − Ms ))|Fs ] = exp(− λ2 (t − s)) 2 et l’on conclut facilement. 7.2.3. Dubins-Schwarz. — Proposition 7.2.5. — Soit M une martingale locale nulle en 0. Alors il existe un brownien B tel que Mt = BhM,M it . 7.2. MARTINGALES EXPONENTIELLES 85 Preuve: Ne traitons que le cas plus simple où hM, M i est strictement croissant et hM, M i∞ = ∞. Dans ce cas, pour chaque ω ∈ Ω, la fonction t ∈ R+ 7→ hM, M it (ω) ∈ R+ est bijective. Notons t ∈ R+ 7→ σt (ω) ∈ R+ l’inverse de cette fonction (qui vérifie donc hM, M iσt = σhM,M it = t). Chaque σt est un temps d’arrêt car {σt ≤ s} = {hM, M iσt ≤ hM, M is } = {t ≤ hM, M is } est Fs –mesurable. Pour n ∈ N, M σn est une vraie martingale car hM σn , M σn it ≤ hM, M iσn = n et par Doob E(sup(Mtσn )2 ) ≤ lim E(sup(Mtσn )2 ) ≤ 4E(hM, M iσn ) = n. t≥0 T →+∞ t≤T On n’a donc pas de mal à justifier l’application du théorème d’arrêt pour obtenir que si s ≤ t, E(Mσσtn |Fσs ) = Mσσsn . Donc Mσt est une (Fσt )-martingale locale. On voit de la même façon que (M 2 − hM, M i)σt = Mσ2t − t est une martingale locale. On conclut donc avec le critère de Lévy que Bt = Mσt est un mouvement brownien. On termine en remarquant que Mt = BhM,M it . Proposition 7.2.6. — Soit M une martingale locale. Presque sûrement, a. Sur hM, M i∞ = +∞, lim sup Mt = +∞, lim inf Mt = −∞ t→+∞ t→+∞ et limt→+∞ Mt /hM, M it = 0. b. Sur hM, M i∞ < +∞, Mt converge quand t → +∞. Corollaire 7.2.7. — Une martingale locale positive converge p.s. 86 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO 7.3. Théorèmes de représentation Théorème 7.3.1 (Théorème de représentation L2 ) On suppose que (Ft ) est la filtration du brownien Ft = σ(Bs , 0 ≤ s ≤ t). Si Z ∈ L2 (FT ), il existe un unique processus K dans L2T (B) tel que Z T Ks dBs . (16) Z − E(Z) = 0 Preuve: Les combinaisons linéaires des v.a. n X U = exp(i λj (Btj − Btj−1 )), j=1 n ∈ N, λ1 , · · · , λn ∈ R, t1 ≤ t2 ≤ · · · ≤ tn ≤ T, sont denses dans L2 (Ω, FT ). En effet soit X ∈ L2 (Ω, FT ) tel que n X E[X exp(i λj (Btj − Btj−1 ))] = 0. j=1 − + X X Notons µ+ et µ+ les probabilités sur Rn images de E(X + ) dP et E(X − ) dP par le vecteur (Bt1 − Bt0 , · · · , Btn − Btn−1 ). Ces deux probabilités ont la même transformée de Fourier donc sont égales. Autrement dit pour tout A ∈ σ(Btj − Btj−1 , j = 1, · · · , n), E(1A X) = 0. Par classe monotone, c’est vrai pour tout A ∈ FT . Donc X = 0. Notons H̃ l’ensemble des Z de L2 (FT ) admettant la représentation (16). C’est un fermé car si Zn → Z dans L2 et Z T Zn = E(Zn ) + Ksn dBs 0 la suite Zn − E(Zn ) est de Cauchy donc K n est de Cauchy dans L2T (B), qui est complet. Si Kn → K, alors Z T Z = E(Z) + Ks dBs . 0 Montrons que chaque v.a. U est dans H̃. Posons Gt = i Rt Gs dBs + 21 Rt − 12 G2s ds RT 0 0 et γ = e Mt = e 0 aléatoire et que dMt = iGt Mt dBt . On a U = ei RT 0 Gs dBs = ei RT 0 Gs dBs + 12 donc Z U = γ[1 + G2s ds RT 0 j=1 λj 1[tj−1 ,tj [ (t), . Remarquons que γ n’est pas G2s ds − 12 e T iGt Mt dBt ] 0 Pn RT 0 G2s ds = γMt 7.3. THÉORÈMES DE REPRÉSENTATION Z 87 T iγGt Mt dBt U = E(U ) + 0 ce qui montre que U est dans H̃. Finalement H̃ est fermé et contient un sous ensemble dense dans L2T (B), il lui est donc égal. Ceci montre l’existence de la représentation (16). Pour l’unicité, si (16) est vrai pour K et K 0 , alors RT RT 0 0 Ks dBs = 0 Ks dBs donc Z T Z T 0 2 E( (Ks − Ks ) dBs ) = E(Ks − Ks0 )2 ds = 0 0 et Ks = Ks0 , 0 p.s. Corollaire 7.3.2. — Si Ft = σ(Bs , 0 ≤ s ≤ t), toutes les Ft -martingales sont continues p.s. Preuve: Soit M est une martingale arbitraire et T > 0. Considérons une suite Zn de v.a. bornées qui tend vers MT dans L1 , on peut écrire Z T Zn = E(Zn ) + Ksn dBs 0 et alors, pour 0 ≤ t ≤ T , (n) Mt Z = E(Xn |Ft ) = E(Zn ) + t Ksn dBs 0 est continue. Par Doob P( sup |Ms(n) − Ms(m) | > ε) ≤ 0≤s≤T E(|Xn − Xm |) ε il en résulte qu’une sous suite de M (n) converge uniformeément sur [0, T ], p.s., vers M . Donc M est continue. Corollaire 7.3.3 (Théorème de représentation L1 ) Si Z ∈ L1 (FT ), où FT = σ(Bs , 0 ≤ s ≤ T ), il existe un processus K dans (0) LT (B) tel que Z T (17) Z − E(Z) = Ks dBs . 0 Preuve: Par la corollaire précédent Mt = E(Z|Ft ), 0 ≤ t ≤ T , est une martingale continue. Elle s’écrit donc par le théorème de représentation des martingales Mt = M0 + intt0 Ks dBs (0) où K dans LT (B). Il suffit alors de remarquer que Z = MT . 88 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO Théorème 7.3.4 (Théorème de représentation des martingales) Si Mt est une Ft = σ(Bs , 0 ≤ s ≤ t)-martingale locale, il existe un processus K ∈ L(0) (B) tel que Z t Ks dBs . Mt = M0 + 0 Preuve: On peut supposer que M0 = 0. Soit τn = inf{t ≥ 0; |Mt | ≥ n}. Puisque MTτn est borné, il existe par le théorème précédent un unique processus K n ∈ L2T (B) tel que Z T MTτn = Ksn dBs 0 Alors, pour tout 0 ≤ t ≤ T , Mtτn = E(MTτn |Ft ) t Z Ksn dBs = 0 Si m ≥ n Mtτm t Z Ksm dBs = 0 donc puisque τn ≤ τm , Mtτn Z t∧τn = Z Ksm dBs = 0 0 t Ksm 1{s≤τn } dBs Par unicité Ksm 1{s≤τn } = Ksn On peut donc poser sans ambiguité, pour s ≤ τn Ks = Ksn Alors on aura, pour tout n Mtτn t Z = Ks dBs 0 donc, puisque τn → +∞, Mtτn = Z t Ks dBs . 0 7.4. GIRSANOV 89 7.4. Girsanov Sur un espace probabilisable (Ω, F) on dit que deux probabilités P et Q sont équivalentes si il existe une v.a. Z strictement positive telle que pour tout A ∈ F Z Q(A) = 1A Z dP. On écrira Q = Z·P, ou dQ = Z dP. Par application du théorème de convergence monotone c’est la même chose que dire que pour toute v.a. X, F–mesurable positive, Z Z X dQ = XZ dP. On continuera à noter E l’espérance par rapport à P mais on notera EQ R l’espérance par rapport à Q. Autrement dit E(X) = X dP et EQ (X) = R R X dQ = XZ dP.. Théorème 7.4.1 (Girsanov). — Soit M une martingale locale nulle en 0 sur (Ω, (Ft ), P), T > 0 et 1 ZT = eMT − 2 hM,M iT . On suppose que E(ZT ) = 1 et on note Q la probabilité ZT · P sur (Ω, FT ). Alors pour toute martingale locale N sur (Ω, (Ft ), P), le processus Xt = Nt − hN, M it , 0 ≤ t ≤ T, est une martingale locale sur (Ω, (Ft )t≤T , Q) de processus croissant hN, N it . Preuve: Montrons d’abord que, sous P, Xt Zt est une martingale locale. Puisque dZ = ZdM et dhN, Zi = ZdhN, M i la formule d’Ito nous montre que d(XZ) = d(N Z −hN, M iZ) = ZdN +N dZ +dhN, Zi−hN, M idZ −ZdhN, M i = ZdN + N dZ − hN, M idZ est une somme d’intégrales stochastiques par rapport à des martingales locales, donc une martingale locale. Soit (τn ) réduisant XZ en martingale et soit τ un temps d’arrêt borné par T , alors, en utilisant à la fois que, sous P, Z (cf. Lemme 7.2.3) et (XZ)τn sont des martingales, EQ [Xττn ] = E[Xττn ZT ] = E[Xττn E(ZT |Fτn ∧τ )] = E[Xττn Zτn ∧τ ] = E[(XZ)ττn ] = E[X0 ] = EQ [X0 ], (car Z0 = 1). Donc X τn est une Q-martingale (Corollaire 4.3.8). 90 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO Le crochet pouvant s’obtenir par une limite p.s. ne dépend que de la classe d’équivalence des probabilités (puisqu’alors les ensembles négligeables sont les mêmes). Il résulte de ce théorème que les semimartingales pour P et Q sont les mêmes (jusqu’en T ). Par l’argument de la fin de la preuve, ou la propriété caractéristique par exemple, on voit aussi que les intégrales stochastiques sont les mêmes pour P et pour Q. Pour vérifier l’hypothèse du théorème de Girsanov, on utilise le critère de Novikov : 7.5. Critère de Novikov Lemme 7.5.1. — Une famille {Xi , i ∈ I} est uniformément intégrable si et seulement si supi∈I E(|Xi |) < +∞ et pour tout ε > 0, il existe η > 0 tel que si P(A) ≤ η alors E(1A |Xi |) ≤ ε pour tout i ∈ I. Preuve: Si le crière est vérifié, étant donné ε > 0, par Markov, sup E(|Xi |) ≤η a pour a assez grand, donc E(1{|Xi |≥a} |Xi |) ≤ ε. Réciproquement, si la famille est uniformément intégrable, pour M assez grand, et P(A) ≤ ε/2M , P(|Xi | ≥ a) ≤ E(|X|1A ) ≤ E(|X|1A 1{|X|≥M } ) + E(|X|1A 1{|X|≤M } ) ≤ E(|X|1{|X|≥M } ) + M P(A) ≤ ε Théorème 7.5.2 (Critère de Novikov). — Soit M nulle en 0, telle que E(e hM,M iT 2 martingale locale ) < +∞. Alors E(E(M )T ) = 1. Preuve: Rappelons d’abord (Corollaire 7.2.3) que E(E(M )T ) ≤ 1. Pour tout A ∈ FT , 1A e MT 2 1/2 = E(M )T 1A (e hM,M iT 2 )1/2 , donc par Cauchy Schwarz, E(1A e MT 2 ) ≤ [E(E(M )T )]1/2 [E(1A e hM,M iT 2 )]1/2 ≤ [E(1A e hM,M iT 2 )]1/2 . T Pour 0 < a < 1, posons X = exp aM 1+a , alors E(aM )T = eaMT − a2 hM,M iT 2 1 2 2 2 = (eMT − 2 hM,M iT )a ea(1−a)MT = E(M )aT X 1−a . 7.6. CAMERON-MARTIN 91 En appliquant l’inégalité de Hölder on a (18) 2 2 2 E(1A E(aM )T ) ≤ E(E(M )T )a E(1A X)1−a ≤ E(1A X)1−a . Comme (1+a)/2a > 1 on peut appliquer l’inégalité de Jensen (E(U )(1+a)/2a ≤ E(U (1+a)/2a ), E(1A X) = E(1A exp MT 2a aMT ) ≤ E(1A e 2 ) 1+a . 1+a On arrive donc à E(1A E(aM )T ) ≤ E(1A e MT 2 )2a(1−a) ≤ [E(1A e hM,M iT 2 )]a(1−a) . Pour tout temps d’arrêt τ , en appliquant ceci à M τ , on obtient que E(1A E(aM )τ ∧T ) ≤ [E(1A e hM,M iT 2 )]a(1−a) . Il résulte du lemme que la famille E(aM )τ ∧T est uniformément intégrable. Et donc (pourquoi ?) que la martingale locale E(aM )t est une vraie martingale. En particulier E(E(aM )T ) = 1. Pour atteindre le cas a = 1 on écrit que par (18) avec A = Ω, 2 2 1 = E(E(aM )T ) ≤ E(E(M )T )a E(X)1−a donc en prenant a → 1, E(E(M )T ) = 1. Remarque : On a aussi E(E(M )T |F0 ) = 1 puisque E(E(M )T |F0 ) ≤ 1 et E(E(E(M )T |F0 )) = E(E(M )T ) = 1. 7.6. Cameron-Martin Corollaire 7.6.1 (Cameron–Martin). — Soit B un brownien sur RT RT (Ω, (Ft ), P) et φs ∈ L0 (B). On suppose que ZT = exp[ 0 φs dBs − 12 0 φ2s ds] Rt vérifie E(ZT ) = 1. Alors, pour 0 ≤ t ≤ T , B̃t = Bt − 0 φs ds est un mouvement brownien sur (Ω, (Ft )0≤t≤T , Q) où dQ = ZT dP sur FT . Preuve: d’après le critère de Lévy, il suffit de voir que B̃t est une martingale locale de processus croissant t ce qui est immédiat par le théorème. Le critère suivant est très utile : Corollaire 7.6.2 (Variante de Novikov). — Si il existe µ > 0 tel que RT µφ2t ) dt < +∞, alors E(Z ) = 1. T 0 E(e 92 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO Preuve: On choisit t0 = 0 < t1 · · · < tn = T avec ti+1 − ti < 2µ et on pose φi = φ1[ti ,ti+1 [ . Alors, écrivons, en utilisant que pour toute probabilité R R ν,exp |f | dν ≤ exp |f | dp (conséquence de l’inégalité de Jensen), Z ti+1 R 1 T 1 (ti+1 − ti )φ(s)2 φi (s)2 ds 0 2 E(e ) = E(exp[ ds]) ti+1 − ti ti 2 Z ti+1 Z ti+1 1 (ti+1 − ti )φ(s)2 1 ≤ E( exp ds) ≤ E exp µφ(s)2 ds ti+1 − ti ti 2 ti+1 − ti ti est fini, donc en appliquant la remarque suivant Novikov au processus 0, on voit que Zt E( i+1 |Fti ) = 1. Zti Donc de proche en proche, Zt Ztn E(ZT ) = E(Zt0 1 · · · ) = 1. Zt0 Ztn−1 Zti +t Zti , t ≥ CHAPITRE 8 EQUATIONS DIFFÉRENTIELLES STOCHASTIQUES 8.1. Introduction Notons Mp×d (R) l’ensemble des matrices p × d à coefficients dans R. Soient σ : Rp → Mp×d (R) et b : Rp → Rp deux fonctions mesurables localement bornées (i.e. bornées sur chaque boule) définies sur Rp . Pour x ∈ Rp , on considère l’équation différentielle stochastique (E.D.S.) (19) dXt = σ(Xt ) dBt + b(Xt ) dt, X0 = x ∈ R p ; pour Bt ∈ Rd et Xt ∈ Rp . Etant donné un Ft -mouvement Brownien d dimensionnel B sur (Ω, (Ft ), P), muni de sa filtration, on appelle solution (forte) de cette équation un processus adapté continu Xt tel que, en coordonnées, pour i = 1, · · · , p, pour tout t ≥ 0, Z t d Z t X (i) (i) Xt = X0 + σij (Xs ) dBs(j) + bi (Xs ) ds j=1 0 0 Le cas d’une équation à coefficients dépendant du temps, du type dXt = σ(t, Xt ) dBt + b(t, Xt ) dt se ramène à cette situation en travaillant dans Rp+1 , en rajoutant une com(0) posante Xt = t. Le lemme suivant est crucial. Lemme 8.1.1 (Gronwall). — Soit g : [0, T ] → R une fonction borélienne bornée telle que, pour a, b ≥ 0, Z t g(t) ≤ a + b g(s) ds, pour tout 0 ≤ t ≤ T. 0 Alors g(t) ≤ aebt sur [0, T ]. 94 CHAPITRE 8. EQUATIONS DIFFÉRENTIELLES STOCHASTIQUES Preuve: On pose G(t) = a + b Rt 0 g(s) ds et H(t) = a + b Rt 0 G(s) ds. Alors g(t) ≤ G(t) ≤ H(t) et H(t) ≤ a + b Rt 0 H(s) ds. Il suffit donc majorer H or H est dérivable et (e−bt H(t))0 = −be−bt H(t) + e−bt H 0 (t) = −be−bt H(t) + be−bt G(t) ≤ 0 donc e−bt H(t) ≤ H(0) = a. 8.2. Solutions fortes d’E.D.S. On considère l’équation (19). On dit que b et σ sont lipschitziennes si il existe K > 0 tel que, partout, ||b(x) − b(y)|| ≤ K||x − y||, ||σ(x) − σ(y)|| ≤ K||x − y||. P (on peut prendre comme norme, par exemple, ||σ(x)|| = ( i,j σi,j (x)2 )1/2 et P ||b(x)|| = ( i bi (x)2 )1/2 ). Le théorème fondamental est le suivant : Théorème 8.2.1. — Soit Bt , t ≥ 0, un (Ω, (Ft ), P) mouvement brownien d– dimensionnel. On suppose que b et σ sont lipschitziennes. Etant donné x ∈ Rp il existe un et un seul processus continu adapté X tel que pour tout t ≥ 0, Z t Z t Xt = x + b(Xs ) ds + σ(Xs ) dBs . 0 0 Preuve: En dimensions p = d = 1, pour simplifier les notations uniquement. 1. Unicité : Si X, X 0 sont deux solutions. On localise avec τ = inf{t > 0; |Xt − Xt0 | ≥ n} : Z t∧τ Z t∧τ 0 0 (b(Xs ) − b(Xs )) ds + (σ(Xs ) − σ(Xs0 )) dBs . Xt∧τ − Xt∧τ = Puisque (a + E([Xt∧τ b)2 ≤ 0 2a2 0 + 2b2 , et en appliquant Cauchy Schwarz, si t ≤ T , 0 − Xt∧τ ]2 ) ≤ Z t∧τ Z t∧τ 0 2 ≤ 2E([ (b(Xs ) − b(Xs )) ds] ) + 2E([ (σ(Xs ) − σ(Xs0 )) dBs ]2 ) 0 0 Z t∧τ Z t∧τ ≤ 2E((t ∧ τ )[ (b(Xs ) − b(Xs0 ))2 ds]) + 2E([ (σ(Xs ) − σ(Xs0 ))2 ds]) 0 0 Z t∧τ Z t∧τ ≤ 2E(T [ (K|Xs − Xs0 |)2 ds]) + 2E([ (K|Xs − Xs0 |)2 ds]) 0 0 Z t 2 0 ≤ 2(T + 1)K E(|Xs∧τ − Xs∧τ |)2 ds. 0 8.2. SOLUTIONS FORTES D’E.D.S. 95 0 ]2 = 0 par le lemme de Gronwall. On en déduit que X = X 0 . Donc E[Xt∧τ −Xt∧τ 2. Existence : on utilise ce qu’on appelle le schéma de Picard. On pose, pour tout t ≥ 0, Xt0 = x puis par récurrence Z t Z t n n−1 Xt = x + b(Xs ) ds + σ(Xsn−1 ) dBs 0 0 On a Xtn+1 − Xtn Z = t (b(Xsn ) − b(Xsn−1 )) ds t Z (σ(Xsn ) − σ(Xsn−1 )) dBs + 0 0 Posons gn (u) = E(sup[Xtn+1 − Xtn ]2 ). t≤u Si 0 ≤ u ≤ T , gn (u) ≤ ≤ ≤ ≤ Z t Z t n n−1 2 2E(sup[ (b(Xs ) − b(Xs )) ds] ) + 2E(sup[ (σ(Xsn ) − σ(Xsn−1 )) dBs ]2 ) t≤u 0 t≤u 0 Z u Z u 2E(T (b(Xsn ) − b(Xsn−1 ))2 ds) + 8E([ (σ(Xsn ) − σ(Xsn−1 ))2 ds) 0 0 Z u E(|Xsn − Xsn−1 |2 ) ds 2(T + 4)K 2 0 Z u Z u 2 n n−1 2 2(T + 4)K E(sup |Xs − Xs | ) dv = C gn−1 (v) dv 0 s≤v 0 pour C = 2(T + 4)K 2 . On en déduit par récurrence que, gn (t) ≤ C n tn−1 g0 (t) (n − 1)! or g0 (t) ≤ E(sup[Xs1 − x]2 ) ≤ E(sup(sb(x) + σ(x)Bs )2 )) ≤ Cte s≤T s≤T On a donc ∞ X E( sup[Xtn+1 n=0 t≤T − Xtn ]2 ) = ∞ X gn (T ) < +∞. n=0 On en déduit facilement que X n converge p.s. vers une solution X de l’équation. 96 CHAPITRE 8. EQUATIONS DIFFÉRENTIELLES STOCHASTIQUES 8.3. Localisation On dit que b et σ sont localement lipschitziennes si pour tout N > 0 il existe 0 > 0 tel que, si ||x|| ≤ N, ||y|| ≤ N , KN , KN ||b(x) − b(y)|| ≤ KN ||x − y||, 0 ||σ(x) − σ(y)|| ≤ KN ||x − y||. C’est le cas par exemple dans le cas fondamental où les fonctions b et σ sont de classe C 1 , par le théorème des accroissements finis. Théorème 8.3.1. — On suppose que b et σ sont localement lipschitziennes. Alors pour tout x ∈ Rp il existe un temps d’arrêt ξ ≤ + ∞ et un processus X tel que pour tout t < ξ, Xt est solution de l’E.D.S., dXt = σ(Xt ) dBt + b(Xt ) dt, X0 = x. Lorsque ξ < +∞, lim supt→ξ− ||Xt || = +∞. Dans ce cas on dit qu’il y a explosion. Si, de plus il existe K > 0 tel que, pour tout x ∈ Rp , ||σ(x)|| + ||b(x)|| ≤ K(1 + ||x||) (20) alors ξ = +∞ p.s. et pour tout m, T > 0, E(sup kXt km ) < +∞. t≤T Preuve: Pour tout n > 0 on se donne une fonction φn : Rp → R de classe C 1 , égale à 1 sur {x; ||x|| ≤ n} et à 0 sur {x; ||x|| ≥ n + 1}. Les fonctions bn = bφn et σn = σφn sont lipschitziennes. Il existe donc une unique solution X (n) de l’E.D.S. (n) dXt (n) (n) = σn (Xt ) dBt + bn (Xt ) dt, (n) X0 = x. (n) On prend n ≥ ||x||. Soit τn = inf{t ≥ 0; ||Xt || ≥ n}. Si m ≥ n , soit n = inf{t ≥ 0; ||X (m) || ≥ n}. Alors b (X (m) ) = b (X (m) ) et σ (X (m) ) = τm n n n n m m t∧τm t∧τm t t∧τm (m) σn (Xt∧τm n ). Comme pour la preuve de l’unicité dans la preuve du théorème 8.2.1 on en déduit que pour tout m ≥ n, (m) (n) Xt∧τm n = Xt∧τ n n ≥ τ . On peut donc poser, dès que τ ≥ t, en particulier τm n n (n) Xt = Xt 8.3. LOCALISATION 97 Soit ξ = limn→+∞ τn . On définit ainsi, pour t < ξ, une solution Xt de l’E.D.S. De plus si ξ < ∞, lim sup ||Xt || ≥ lim sup ||Xτn || = lim sup n = +∞. n→+∞ n→+∞ t→ξ − Supposons maintenant vérifiée la condition (20). Soit τ = inf{t ≥ 0; kXt k ≥ n} avec n ≥ kx0 k. Pour simplifier les notations, travaillons en dimension 1, pour p ∈ N, par Ito, p(p − 1) p−2 dXtp = pXtp−1 dXt + Xt dhX, Xit 2 donc Z t∧τ p(p − 1) p p Xt∧τ = x0 + [p(Xsτ )p−1 b(Xsτ ) + σ(Xsτ )2 (Xsτ )p−2 ]ds 2 0 Z t∧τ + p(Xsτ )p−1 σ(Xsτ )dBs 0 Puisque (a + b + c)2 ≤ 4(a2 + b2 + c2 ) on en déduit que Z t∧τ p(p − 1) 2p 2p Xt∧τ ≤ 4x0 + 4( [p(Xsτ )p−1 b(Xsτ ) + σ(Xsτ )2 (Xsτ )p−2 ]ds)2 2 0 Z t∧τ +4( p(Xsτ )p−1 σ(Xsτ )dBs )2 0 donc par Doob, et par Cauchy Schwarz, si 0 ≤ r ≤ T , pour un T > 0 fixé, 2p E(sup Xt∧τ )≤ t≤r 4x2p 0 + 4T ( Z 0 r p(p − 1) [p(Xsτ )p−1 b(Xsτ ) + σ(Xsτ )2 (Xsτ )p−2 ]2 ds) 2 Z r +16E( [p(Xsτ )p−1 σ(Xsτ )]2 ds 0 On peut trouver deux constantes α, β > 0 telles que, pour tout x ∈ R, p(p − 1) 4T (pxp−1 b(x) + σ(x)2 xp−2 )2 + 16(pxp−1 σ(x))2 ≤ α + β|x|2p 2 On a donc, en posant γ = 4x2p 0 + T α, Z r 2p 2p E(sup Xt∧τ ) ≤ γ + β E(Xs∧τ )ds t≤r 0 donc 2p E(sup Xt∧τ ) t≤r Z ≤γ+β 0 r 2p E(sup Xt∧τ )ds t≤s 98 CHAPITRE 8. EQUATIONS DIFFÉRENTIELLES STOCHASTIQUES et par Gronwall, 2p E(sup Xt∧τ ) ≤ γeβr . t≤r Comme les constantes ne dépendent pas de n (qui a défini τ ) on peut faire tendre n vers l’infini pour obtenir que E(sup Xt2p ) ≤ γeβr . t≤r En particulier Xt est fini p.s. donc ξ = +∞. 8.4. Propriété de Markov Reprenons les hypothèses précédentes en supposant que ξ = +∞, et notons Xt la solution de l’E.D.S. (19) vérifiant X0 = x0 . Par construction, l’application (x0 , ω) ∈ Rp × Ω 7→ {Xt (ω), 0 ≤ t} ∈ C(R+ , Rp ) est mesurable lorsqu’on munit Rd × Ω de la tribu B(R+ ) × F∞ et l’ensemble des fonctions continues C(R+ , Rp ) de R+ dans Rp de la tribu engendrée par les applications coordonnées (f 7→ f (t)), par exemple. Puisque l’on peut prendre F∞ = σ(Bs , s ≥ 0) , il existe une application mesurable Φ : Rp × C(R+ , Rp ) → C(R+ , Rp ) telle que Xt = Φ(x0 , B)(t). De plus, par construction, Pour tout temps d’arrêt τ , fini p.s., on a Xtτ = Φ(x0 , B τ )(t). Par la propriété de Markov forte on sait que le processus B̃t = Bt+τ − Bτ est un mouvement brownien indépendant de Fτ , donc de Xτ . On voit facilement en prenant d’abord pour H des fonctions étagées que, pour tout H de L0 (B), Z t+τ Z t Hs dBs = Hs+τ dB̃s τ 0 La relation t+τ Z Xτ +t = Xτ + Z b(Xs ) ds + σ(Xs ) dBs τ Z τ t Z b(Xτ +s ) ds + = Xτ + 0 t+τ t σ(Xτ +s ) dB̃s 0 montre que, si on pose τ Xt = Xτ +t , pour tout t ≥ 0, alors τ X = Φ(Xτ , B̃). 8.5. PROCESSUS DE MARKOV 99 Puisque B̃ est indépendant de Fτ , on en déduit : Théorème 8.4.1. — (Propriété de Markov forte) Pour tout temps d’arrêt τ fini p.s., pour toute fonction mesurable positive F définie sur C(R+ , Rp ), E(F (τ X)|Fτ ) = Ey (F (X)), pour y = Xτ où le symbole Ey signifie que l’on considère la solution X telle que X0 = y. 8.5. Processus de Markov Posons, pour f mesurable positive sur Rp , Pt f (x) = Ex (f (Xt )). En prenant F (X) = f (Xt ) et τ = s dans le théorème précédent on voit que E(f (Xt+s )|Fs ) = Ey (f (Xt )) = Pt f (y), pour y = Xs , donc, en prenant l’espérance, Pt+s f (x) = Ex (f (Xt+s )) = Ps (Pt f )(x) c’est la propriété dite de semigroupe. On dit que X est un processus de Markov de semigroupe (Pt ). Par continuité des trajectoires en t = 0, lim Pt f (x) = f (x) t→0 si f est continue bornée. Définition 8.5.1. — On appelle générateur du semigroupe (Pt ) l’opérateur Lf défini par Pt f (x) − f (x) Lf (x) = lim t→0 t pour les f pour lesquels cette limite a un sens. Théorème 8.5.2. — Soit X solution de l’E.D.S., dXt = σ(Xt ) dBt + b(Xt ) dt Alors X est un processus de Markov dont le générateur est donné par p p X 1 X ∂2f ∂f (x) + (x) Lf (x) = ai,j (x) bi (x) 2 ∂xi ∂xj ∂xi i,j=1 i=1 lorsque f est C 2 à support compact où a = σσ ∗ . On dit que X est une diffusion. 100 CHAPITRE 8. EQUATIONS DIFFÉRENTIELLES STOCHASTIQUES Preuve: Si on applique la formule d’Ito à f (Xt ), on obtient, Z t X Z t ∂f Lf (Xs ) ds f (Xt ) = f (X0 ) + (Xs )σi,j (Xs ) dBj (s) + 0 ∂xi 0 i,j ∂f Puisque f est à support compact , ∂x (Xs )σi,j (Xs ) est borné, donc l’intégrale i stochastique est une martingale, d’espérance nulle. On a alors Z t Z t Ps Lf (x) ds Pt f (x) = f (x) + Ex ( Lf (Xs ) ds) = f (x) + 0 0 Donc Pt f (x) − f (x) 1 = lim t→0 t→0 t t Z Lf (x) = lim t Ps Lf (x) ds = P0 Lf (x) = Lf (x). 0 8.6. EDS et EDP La formule d’Ito et le théorème précédent montrent qu’il y a un lien très fort entre les EDS et les opérateurs différentiels aux dérivées partielles du second ordre du type de L. Ceci permet en particulier de donner des solutions probabilistes à certaines équations aux derivées partielles (EDP), et réciproquement. Donnons deux exemples. 8.6.1. Problème de Dirichlet. — Dans Rp considérons un ouvert borné D de frontière ∂D régulière. Etant donné une fonction f : ∂D → R sur le bord on considère l’équation Lφ(x) = 0, x ∈ D; φ(x) = f (x), x ∈ ∂D, où φ est continue sur D̄. Donnons juste l’idée du type de résultat auquel on peut s’attendre : Théorème 8.6.1. — Sous de bonnes hypothèses..., la solution φ admet la représentation φ(x) = Ex (f (Xτ )), x ∈ D; où X est la diffusion associée à (19) et τ = inf{t ≥ 0; Xt ∈ ∂D}. Preuve: On considère la solution X de (19) partant de x ∈ D. Par Ito, Z t∧τ X Z t Z t∧τ ∂φ φ(Xt∧τ ) = φ(x) + (Xs )σi,j (Xs ) dBj (s) + Lφ(Xs ) ds 0 0 ∂xi 0 i,j 8.6. EDS ET EDP 101 On prend l’espérance et on tient compte du fait que Lφ est nulle : E(φ(Xt∧τ )) = E(φ(x)) = φ(x) et on fait tendre t vers l’infini, et on utilise que φ = f sur ∂D : φ(x) = lim E(φ(Xt∧τ ) = E(φ(Xτ )) = E(f (Xτ )). t→+∞ 8.6.2. Feynman-Kac. — On se donne g : R+ × Rp → R φ, c : Rp → R avec c ≥ 0. On considère une solution u bornée à dérivées bornées de l’équation ∂u (21) (t, x) = (L − c(x))u(t, x) + g(t, x), u(0, x) = φ(x). ∂t Théorème 8.6.2. — La solution u(t, x) de (21) vérifie : Z t Z t Z u(t, x) = Ex [φ(Xt ) exp(− c(Xs ) ds)]+Ex [ g(t−s, Xs ) exp(− 0 0 s c(Xu ) du) ds] 0 où X est la diffusion associée à (19) Preuve: On pose, t > 0 étant fixé, Z v(s, x) = u(t − s, x), s c(Xu ) du). Zs = exp(− 0 Appliquant la formule d’Itô, on a d(v(s, Xs )Zs ) = −v(s, Xs )c(Xs )Zs ds + Zs dv(s, Xs ) ∂v = Z{ + (L − c)v} ds + Z∇x v σ dBs . ∂s Rt Vu que ∇x v est bornée et que 0 ≤ Zs ≤ 1, E( 0 Zs ∇x v σ(Xs ) dBs ) = 0. ∂u D’autre part ∂v ∂s (s, x) = − ∂s (t − s, x) et donc ∂v ∂u (s, x) + (L − c)v(s, x) = − (t − s, x) + (L − c)u(t − s, x) = −g(t − s, x). ∂s ∂s On a donc Z t E(v(t, Xt )Zt ) − E(v(0, X0 )Z0 ) = E(− g(t − s, Xs )Zs ds), 0 mais, puisque u(0, Xt ) = φ(Xt ), E(v(t, Xt )Zt ) − E(v(0, X0 )Z0 ) = E(u(0, Xt )Zt ) − u(t, x) = E(φ(Xt )Zt ) − u(t, x) et l’on obtient Z t u(t, x) = E(φ(Xt )Zt ) + E( g(t − s, Xs )Zs ds). 0