Calcul Stochastique des martingales continues

Transcription

Calcul Stochastique des martingales continues
Université Pierre et Marie Curie, Paris 6
Master de Mathématiques 2015-2016
M2–Probabilités et Finance
Calcul Stochastique
des martingales continues
Philippe Bougerol
3 Décembre 2015
1
TABLE DES MATIÈRES
1. Introduction au calcul stochastique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1. Modélisation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Bruit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3. Un ”primer” sur l’intégrale d’Ito. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4. Intégrale de Wiener et théorème de Cameron Martin . . . . . . . . . . . . . 5
1.5. Une formule d’Ito. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.6. Biliographie pour tout le cours. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2. Intégration de Lebesgue. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1. Mesures. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2. Intégration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3. Espaces L1 , L1 , L2 , L2 .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4. Convergence en probabilité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5. Uniforme intégrabilité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.6. Divers. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.7. Tribu engendrée. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.8. Loi d’une variable aléatoire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.9. Mesure produit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.10. Processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.11. Indépendance. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
13
14
17
20
21
22
22
24
25
27
28
3. Mouvement Brownien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1. Loi gaussienne. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2. Vecteur gaussien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3. Famille gaussienne. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4. Définition du mouvement brownien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5. Filtrations et Brownien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.6. Propriété de Markov forte du mouvement brownien. . . . . . . . . . . . . . .
31
31
32
33
33
35
37
4
TABLE DES MATIÈRES
3.7. Existence et Simulation du Mouvement brownien. . . . . . . . . . . . . . . . . 40
3.8. Construction de P. Lévy du mouvement brownien . . . . . . . . . . . . . . . . 41
3.9. Appendice 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4. Martingales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1. Martingales, définition. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2. Martingales à temps discret. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3. Martingale continue à droite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4. Formulaire sur l’espérance conditionnelle. . . . . . . . . . . . . . . . . . . . . . . . . .
45
45
46
48
51
5. Crochet de martingales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1. Cas discret. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2. Premiers pas, à temps continu. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3. Crochet comme variation quadratique. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.4. Martingale locale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.5. Processus à variation finie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.6. Crochet de deux martingales locales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
55
55
56
57
60
63
64
6. Intégrale stochastique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.1. Cas d’une martingale de carré intégrable. . . . . . . . . . . . . . . . . . . . . . . . . .
6.2. Cas d’une martingale locale.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3. Semimartingales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.4. Formule d’Itô. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
69
69
73
75
79
7. Applications de la formule d’Ito. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.1. Sur le Brownien multidimensionnel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2. Martingales exponentielles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.3. Théorèmes de représentation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.4. Girsanov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.5. Critère de Novikov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.6. Cameron-Martin. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
81
81
83
86
89
90
91
8. Equations différentielles stochastiques. . . . . . . . . . . . . . . . . . . . . . . . . . . 93
8.1. Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
8.2. Solutions fortes d’E.D.S.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
8.3. Localisation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
8.4. Propriété de Markov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
8.5. Processus de Markov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
8.6. EDS et EDP. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
CHAPITRE 1
INTRODUCTION AU CALCUL
STOCHASTIQUE
Introduction très très sommaire et volontairement caricaturale, sans toutes
les justifications mathématiques, pour l’instant.
1.1. Modélisation
On cherche à modéliser (construire des modèles) et faire des calculs sur des
phénomènes évoluant dans le temps qui dépendent du hasard.
La valeur Xt du phénomène à l’instant t, peut être observée à cet instant,
mais pas prédite avant. Entre les instants t et t+h une part de hasard s’ajoute.
On s’intéresse dans ce cours au cas où la fonction t 7→ Xt est continue. Pour
faire simple supposons que Xt est à valeurs dans R. On va avoir, pour t, h ≥ 0,
Xt+h = Xt + ∆ht
où ∆ht est aléatoire. L’idée fondamentale est qu’au moins dans un premier
temps, pour h très très (infinitésimalement...) petit, ∆ht peut s’écrire
∆ht = Ht εht
où εht est une variable aléatoire indépendante de tout ce qui précède et de loi
ne dépendant que de h (et donc pas de t) et où Ht est une fonction continue
de t, ”observable à l’instant t”, par exemple une fonction de Xt . On va voir
que c’est très opérationnel.
C’est assez naturel. Dans le cas déterministe (c’est à dire sans hasard), et
si Xt est dérivable, on a bien ce type de modélisation en prenant pour Ht la
dérivée à l’instant t et en prenant εht = h.
2
CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE
1.2. Bruit
Le fait d’avoir pris h ≥ 0 (infinitésimalement) petit entraı̂ne des contraintes.
Si on remplace h par h = h1 + h2 , avec h1 , h2 ≥ 0, on a
Xt+h = Xt + Ht εht
2
= Xt+h1 +h2 = Xt+h1 + Ht+h1 εht+h
1
2
.
= Xt + Ht εht 1 + Ht+h1 εht+h
1
Pour h1 très petit on a par continuité Ht+h1 ∼ Ht . On arrive donc à
2
.
εht ∼ εht 1 + εht+h
1
De proche en proche, pour h très petit,
h/n
εht ∼ εt
h/n
h/n
h/n
+ εt+h/n + εt+2h/n + · · · + εt+(n−1)h/n .
Nous avons supposé que εht est une variable aléatoire indépendante de tout ce
qui précède et de loi ne dépendant pas de t. On voit donc que nécessairement,
εht est la somme de n variables aléatoires indépendantes et de même loi. Une
variante du théorème de la limite centrale (qui utilise que les εht sont petits ...)
nous conduit à dire qu’alors εht a une loi gaussienne. Notons mh sa moyenne
et σh2 sa variance. La relation
2
εht = εht 1 + εht+h
1
entraı̂ne que
mh1 +h2 = mh1 + mh2 , σh21 +h2 = σh21 + σh22
donc (par exemple si ces coefficients sont continus), il existe a ∈ R et σ ≥ 0
tels que mh = ah et σh2 = σ 2 h.
On voit donc que l’on peut écrire
εht = ah + σ(Bt+h − Bt )
où Bt est un mouvement brownien sur un espace de probabilité (Ω, A, P),
c’est à dire un processus (=famille de variables aléatoires) continu formé de
v.a. gaussiennes telles que Bt ∼ N (0, t) et Bt+h − Bt est indépendant de
Br , 0 ≤ r ≤ t.
On était parti de
Xt+h = Xt + Ht εht
donc on a, au moins infinitésimalement,
Xt+h = Xt + Ht (ah + σ(Bt+h − Bt )).
1.3. UN ”PRIMER” SUR L’INTÉGRALE D’ITO
3
Si σ = 0 cela s’interprète par l’équation différentielle
dXt
= aHt
dt
ce qui s’écrit aussi sous forme intégrale
Z t
Xt − X0 =
aHs ds.
0
On va voir par contre que si σ > 0 alors Xt ne peut pas être dérivable. On
va donc plutot garder la forme intégrale en écrivant que
Z t
Z t
Xt − X0 =
aHs ds +
σHs dBs
0
0
Rt
où il faut donner un sens à l’intégrale dite stochastique 0 σHs dBs . On verra
qu’il est aussi utile de généraliser en ne prenant pas le même facteur Hs dans
les deux termes, ce qui s’interprête en distinguant bien la partie aléatoire de
la partie déterministe de l’accroissement.
1.3. Un ”primer” sur l’intégrale d’Ito
Le mot ”primer” est anglais et signifie ”première couche” en métallurgie.
Pour un processus continu par morceaux Ht on veut donner un sens à
Z t
Hs dBs .
0
On va voir que c’est possible et naturel sous l’hypothèse que l’on a déja
évoquée, que Ht est observable à l’instant t. Il faudra donner un sens à ça (et
on dira adapté), mais disons que la propriété essentielle dont on va se servir
ici est que l’accroissement Bt+h − Bt , h ≥ 0 est indépendant de Hs , s ≤ t.
La définition simple ”naturelle” ressemble à l’intégrale de Riemann : si
Ht =
n
X
Hti 1[ti ,ti+1 [ (t)
i=1
par analogie avec la formule qui se vérifie facilement
Z t
n
X
Hs ds =
Hti (ti+1 ∧ t − ti ∧ t)
0
i=1
(où s ∧ t = min(s, t)), on pose
Z t
n
X
Hs dBs =
Hti (Bti+1 ∧t − Bti ∧t ).
0
i=1
4
CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE
Lemme 1.3.1. — Si Hs ∈ L2 pour tout s > 0, alors pour t > 0,
Z t
E( Hs dBs ) = 0,
0
Z t
Z t
2
E(( Hs dBs ) ) = E( Hs2 ds).
0
0
Preuve: Montrons la seconde égalité :
n
X
Rt
E(( 0 Hs dBs )2 ) = E((
Hti (Bti+1 ∧t − Bti ∧t ))2 )
i=1
=
n
X
E(Hti Htj (Bti+1 ∧t − Bti ∧t )(Btj+1 ∧t − Btj ∧t ))
i,j=1
=
n
X
E(Hti 2 (Bti+1 ∧t − Bti ∧t )2 ) +
i=1
+2
X
E(Hti Htj (Bti+1 ∧t − Bti ∧t )(Btj+1 ∧t − Btj ∧t ))
i<j
=
n
X
E(Hti 2 )E((Bti+1 ∧t − Bti ∧t )2 ) +
i=1
+2
X
E(Hti Htj (Bti+1 ∧t − Bti ∧t ))E(Btj+1 ∧t − Btj ∧t )
i<j
en utilisant l’indépendance. Puisque E((Bti+1 ∧t − Bti ∧t )2 ) = ti+1 − ti et
E((Btj+1 ∧t − Btj ∧t )) = 0 on obtient que
Z t
Z t
n
X
2
2
E(( Hs dBs ) ) =
E(Hti )(ti+1 ∧ t − ti ∧ t) =
E(Hs 2 ) ds. 0
0
i=1
On veut prolonger cette construction à d’autres processus H. On le fait de
(n)
la façon suivante : si Ht , t ≥ 0, est une suite de processus du type précédent
pour laquelle il y a un processus H tel que H (n) → H au sens où pour tout
t ≥ 0,
Z t
E(Hs(n) − Hs )2 ds → 0
0
alors, la suite
puisque
(n)
0 Hs dBs
Rt
est une suite de Cauchy dans l’espace L2 (Ω, F, P)
Z t
Z t
(n)
E([ Hs dBs −
Hs(m) dBs ]2 )
0
0
1.4. INTÉGRALE DE WIENER ET THÉORÈME DE CAMERON MARTIN
5
Z t
= E([ (Hs(n) − Hs(m) ) dBs ]2 )
0
Z t
= E( (Hs(n) − Hs(m) )2 ds)
0
Z t
=
E((Hs(n) − Hs(m) )2 ) ds
0
2
L (Ω, F, P)
par le lemme. L’espace
R t (n)
0 Hs dBs converge. On appelle
étant complet (Hilbert), cette suite
t
Z
Hs dBs
0
sa limite. Elle vérifie, par passage à la limite, comme au dessus
Proposition 1.3.2. —
Z
t
Hs dBs ) = 0,
E(
0
Z t
Z t
E(( Hs dBs )2 ) = E( Hs2 ds).
0
0
Supposons que Ht , t ≥ 0, est un processus continu borné tel que Ht est
σ(Bs , 0 ≤ s ≤ t) mesurable. Alors la suite de processus
(n)
Ht
=
n−1
X
k=0
H kT 1[ kT , (k+1)T [ (t)
n
n
n
approxime bien H au sens précédent sur l’intervalle [0, T ] (utiliser le théorème
de convergence dominée). On peut donc lui appliquer la construction
précédente. En fait on verra qu’au lieu d’être borné, il suffit que
Z T
E(
Hs2 ds) < ∞.
0
1.4. Intégrale de Wiener et théorème de Cameron Martin
Considérons le cas très particulier d’un processus Ht (ω), t ≥ 0, ω ∈ Ω,
qui ne dépend pas de ω. Autrement dit il existe une fonction f : R+ → R
telle que Ht (ω) = f (t) pour tout t ≥ 0, ω ∈ Ω. Dans ce cas l’intégrale
stochastique a été introduite dès les années 30 par Wiener et porte parfois
le nom d’intégrale de Wiener. Si f ∈ L2 ([0, T ], m), où m est la mesure de
Lebesgue, il existe une suite de fonctions fn constantes par morceaux, donc
P n n
de la forme fn = ki=1
ai 1[tni ,tni+1 [ tels que fn → f dans L2 ([0, T ], m). Dans
6
CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE
ce cas, par le paragraphe précédent,
Rt
0 fn (s)dBs . Remarquons que
Z
t
fn (s)dBs =
0
Rt
kn
X
0
f (s)dBs est la limite dans L2 (Ω) de
ani (Bt∧tni+1 − Bt∧tni )
i=1
Rt
a une loi gaussienne d’espérance nulle et de variance 0 fn (s)2 ds, donc pour
tout λ ∈ R
Z t
Z
1 2 t
fn (s)dBs )) = exp (− λ
E(exp (iλ
fn (s)2 ds)
2
0
0
Rt
Rt
2
2
et quand n → +∞, puisque 0 fn (s) ds → 0 f (s) ds,
Z t
Z
1 2 t
f (s)2 ds).
f (s)dBs )) = exp (− λ
E(exp (iλ
2
0
0
On a donc montré,
Proposition 1.4.1. — Si f ∈ L2 ([0, T ], m),
Rt
centrée de variance 0 f (s)2 ds
Rt
0
f (s)dBs a une loi gaussienne
Pour une fonction f ∈ L2 ([0, T ], m) posons
Z T
Z
1 T
Z = exp[
f (s)dBs −
f (s)2 ds]
2
0
0
et sur l’espace de probabilité (Ω, A, P) définissons une probabilité Q par la
formule, pour tout A ∈ A
Z
Q(A) = 1A ZdP.
Si on note EQ l’espérance par rapport à Q et E l’espérance par rapport à P,
on a pour toute fonction mesurable positive X
Z
Z
EQ (X) = XdQ = XZdP = E(XZ)
Théorème 1.4.2 (Cameron Martin). — Sur
(Ω, A, Q),
Z t
Q
Bt = Bt −
f (s)ds
0
est, pour 0 ≤ t ≤ T , un mouvement brownien.
l’espace
de
probabilité
1.5. UNE FORMULE D’ITO
7
Preuve: Soit g ∈ L2 ([0, T ], m). Calculons
Z T
EQ (exp[
g(t)dBtQ ]).
0
On a
Z
0
T
g(t)dBtQ
donc
Z
T
Z
g(t)dBt −
=
0
T
g(t)f (t)dt
0
Z T
g(t)dBtQ ]Z)
= E(exp[
0
0
Z T
Z T
Z T
Z
1 T
= E(exp[
g(t)dBt −
g(t)f (t)dt +
f (t)dBt −
f (t)2 dt])
2
0
0
0
0
Z T
Z T
1
= exp[−
(g(t)f (t) + f (t)2 )dt]E(exp[
[g(t) + f (t)]dBt ]).
2
0
0
RT
On sait par la proposition précédente que 0 [g(t) + f (t)]dBt a une loi normale
RT
centrée de variance 0 [g(t) + f (t)]2 dt donc
Z T
Z
1 T
E(exp[
[g(t) + f (t)]dBt ]) = exp[
[g(t) + f (t)]2 dt]
2 0
0
On obtient donc
Z T
Z T
Z
1
1 T
EQ (exp[
g(t)dBtQ ]) = exp[−
(g(t)f (t)+ f (t)2 )dt] exp[
[g(t)+f (t)]2 dt]
2
2
0
0
0
Z T
1
g(t)2 dt]
= exp[
2 0
Pn
Le théorème s’en déduit en prenant g(t) =
k=1 λk 1[0,tk ] (t) on voit que le
Q
Q
vecteur (Bt1 , · · · , Btn ) a sous Q la même transformée de Fourier, donc la même
loi que (Bt1 , · · · , Btn ) et est donc un mouvement brownien.
Z
EQ (exp[
T
g(t)dBtQ ])
1.5. Une formule d’Ito
Commençons par un résultat fondamental, qui est tout à fait particulier au
mouvement brownien.
Théorème 1.5.1. — Si B est un mouvement brownien si tn0 = 0 < tn1 <
· · · < tnn−1 < tnn = t est une suite de subdivisions de [0, t] dont le pas
sup0≤k≤n−1 |tnk+1 − tnk | tend vers 0, alors, dans L2 ,
lim
n→∞
n−1
X
(Btnk+1 − Btnk )2 = t.
k=0
8
CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE
En fait montrons le résultat plus général suivant :
Proposition 1.5.2. — Sous les memes hypothèses, si f est une fonction
mesurable bornée, alors dans L2 ,
n−1
X
lim
n→∞
f (Btnk )[(Btnk+1 − Btnk )2 − (tnk+1 − tnk )] = 0.
k=0
Preuve:
n−1
X
E(
!2
f (Btnk )[(Btnk+1 − Btnk )2 − (tnk+1 − tnk )]
)
k=0
n−1
X n−1
X
= E(
f (Btnk )f (Btnr )[(Btnk+1 −Btnk )2 −(tnk+1 −tnk )][(Btnr+1 −Btnr )2 −(tnr+1 −tnr )])
k=0 r=0
=
n−1
X
E(f (Btnk )2 [(Btnk+1 − Btnk )2 − (tnk+1 − tnk )]2 )
k=0
X
+2
Ef (Btnk )f (Btnr )[(Btnk+1 −Btnk )2 −(tnk+1 −tnk )][(Btnr+1 −Btnr )2 −(tnr+1 −tnr )])
0≤k<r<n
On utilise l’indépendance des accroissements (espérance du produit est égal
au produit des espérances) :
=
n−1
X
E(f (Btnk )2 )E[((Btnk+1 − Btnk )2 − (tnk+1 − tnk ))2 )
k=0
X
+2
E[f (Btnk )f (Btnr )((Btnk+1 −Btnk )2 −(tnk+1 −tnk ))]E[(Btnr+1 −Btnr )2 −(tnr+1 −tnr )].
0≤k<r<n
Or, puisque Bt+h − Bt a la même loi que
E[((Btnk+1
√
hB1 ,
E[(Btnr+1 − Btnr )2 − (tnr+1 − tnr )] = 0
q
− Btnk )2 − (tnk+1 − tnk ))2 ) = E[(( tnk+1 − tnk )B1 )2 − (tnk+1 − tnk ))2 )
= (tnk+1 − tnk )2 E[(B12 − 1)2 ].
Donc
E(
n−1
X
!2
2
f (Btnk )[(Btnk+1 − Btnk ) −
(tnk+1
−
tnk )]
k=0
=
n−1
X
(tnk+1 − tnk )2 E(f (Btnk )2 )E[(B12 − 1)2 ].
k=0
)
1.5. UNE FORMULE D’ITO
9
Or ceci se majore par, si C = E[(B12 − 1)2 ] max f 2 ,
C
n−1
X
(tnk+1
−
tnk )2
≤C
sup
0≤k≤n−1
k=0
≤ Ct
sup
0≤k≤n−1
|tnk+1
tnk |
−
n−1
X
(tnk+1 − tnk )
k=0
|tnk+1
−
tnk |
qui tend vers 0.
Théorème 1.5.3 (Une formule d’Ito). — Si f : R → R est à dérivée
seconde continue,
Z
Z t
1 t 00
0
f (Bs ) ds.
f (Bs ) dBs +
f (Bt ) = f (B0 ) +
2 0
0
Preuve: On peut se ramener au cas f est à support compact. On va utiliser
la formule de Taylor (Taylor-Lagrange) : pour tout x, y il existe z entre x et y
tels que
1
f (y) − f (x) = f 0 (x)(y − x) + f 00 (z)(y − x)2 .
2
On prend une suite de subdivisions de [0, t], par exemple tnk = kt
n.
f (Bt ) − f (B0 ) =
n−1
X
(f (Btnk+1 ) − f (Btnk ))
k=0
=
n−1
X
n−1
0
f (B )(B
tn
k
tn
k+1
k=0
où
θnk
1 X 00 k
f (θn )(Btnk+1 − Btnk )2
−B )+
2
tn
k
k=0
est entre B et B
.
Comme ça ne dépend pas de n c’est égal à sa limite quand n → +∞.
Prenons la limite de chacun des deux termes de la somme pour une sous suite
(en utilisant que la convergence L2 entraı̂ne la convergence p.s. pour une sous
suite). Pour le premier, on remarque d’abord que
Z t
n−1
X
0
f (Btnk )(Btnk+1 − Btnk ) =
Zsn dBs
tn
k
tn
k+1
0
k=0
où
Ztn =
n−1
X
f 0 (Btnk )1[tnk ,tnk+1 ] (t).
k=0
Donc,
n−1
X
E([
k=0
f 0 (Btnk )(Btnk+1 − Btnk ) −
Z
0
t
f 0 (Bs ) dBs ]2 )
10
CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE
Z t
= E([ (Zsn − f 0 (Bs )) dBs ]2 )
0
Z t
= E( (Zsn − f 0 (Bs ))2 ds)
0
qui tend vers 0 par le théorème de convergence dominée usuel. Donc, dans L2 ,
Z t
n−1
X
f 0 (Bs ) dBs .
f 0 (Btnk )(Btnk+1 − Btnk ) →
0
k=0
On regarde maintenant le dernier terme :
n−1
X
[f 00 (θkn ) − f 00 (Btnk )](Btnk+1 − Btnk )2
k=0
≤
|f
sup
1≤r≤n−1
00
(θrn )
00
− f (Btnr )|
n−1
X
n
(Btnk+1 − B tk )2
k=0
tend vers 0, p.s. suivant une sous suite car f 00 est uniformément continue. Par
la proposition, dans L2 ,
lim
n→∞
n−1
X
f 00 (Btnk )(Btnk+1 − Btnk )2 = lim
n→∞
k=0
t
Z
n−1
X
f 00 (Btnk )(tnk+1 − tnk )
k=0
f 00 (Bs ) ds
=
0
puisque f 00 est continue (approximation de l’intégrale de Riemann).
On laisse en exercice la généralisation suivante très utile, en utilisant la
formule de Taylor pour une fonction de deux variables.
Théorème 1.5.4 (Une formule d’Ito). — Si f : R+ × R → R, (t, x) 7→
f (t, x) est à dérivées secondes continues,
Z t
Z t
Z
∂f
∂f
1 t 00
f (t, Bt ) = f (0, 0) +
(s, Bs ) ds
(s, Bs ) dBs +
f (s, Bs ) ds
2 0
0 ∂t
0 ∂x
1.5.1. Deux calculs. —
Bt2 = 2
Z
t
Bs dBs + t.
0
Si Zt = exp(λBt −
λ2 t2
2 )
alors
Z
Zt = 1 +
t
λZs dBs .
0
1.6. BILIOGRAPHIE POUR TOUT LE COURS
11
1.6. Biliographie pour tout le cours
R. Bass : Stochastic Processes, Cambridge University Press, 2011.
F. Baudoin : Diffusion Processes and Stochastic Calculus, EMS Textbooks
in mathematics, 2014.
R. Durrett : Stochastic calculus, A practical Introduction, 1996. CRC Press.
I. Karatzas, S. Shreve : Brownian motion and stochastic calculus, Second
Edition 1991. Springer.
F.C Klebaner : Introduction to Stochastic Calculus with Applications, Second
Edition 2005. Imperial College Press.
J.-F. Le Gall : Mouvement brownien, martingales et calcul stochastiqueSpringer, Collection : Mathématiques et Applications, Vol. 71, 2013.
(Recommandé)
B. Oksendal : Stochastic differential equations, 6th edition, 2010. Springer.
(Beaucoup d’applications)
Ph. Protter : Stochastic Integration and Differential Equations, Second Edition Version 2.1, 2005. Springer (traite aussi le cas discontinu).
D. Revuz, M. Yor : Continuous martingales and Brownian motion, 2004.
Springer.
CHAPITRE 2
INTÉGRATION DE LEBESGUE
Le but de ce chapitre est de développer rapidement ce que l’on appelle la
théorie abstraite de l’intégration de Lebesgue.
2.1. Mesures
Un espace mesurable est la donnée (Ω, F) d’un ensemble Ω et d’une tribu
F sur cet ensemble :
Définition 2.1.1. — Une classe de parties F d’un ensemble Ω est une tribu
si
(i) elle est stable par complémentaire,
(ii) elle est stable par réunion dénombrable,
(iii) elle contient Ω.
Pour comparaison une topologie est une classe d’ouverts : c’est à dire, par
définition, une classe de parties de Ω stable par union quelconque, intersection
finie, contenant Ω et ∅
Définition 2.1.2. — Une mesure sur un espace mesurable (Ω, F) est une
application m : F → R+ ∪ {+∞} telle que
(i) m(∅) = 0.
(ii) m(A ∪ B) = m(A) + m(B) si A ∈ F, B ∈ F sont disjoints.
(iii) si (An ) est une suite croissante d’éléments de F, m(An ) → m(∪An ).
On dit que m est σ-finie si on peut écrire Ω comme une réunion dénombrable
d’ensembles de mesure finie ; m est une probabilité si m(Ω) = 1.
14
CHAPITRE 2. INTÉGRATION DE LEBESGUE
Exemple : Lorsque Ω est dénombrable (c’est à dire fini ou en bijection avec
N) , F = ensemble de toutes les parties de Ω est une tribu et m(A) = Card(A)
définit une mesure σ-finie (théorie des séries).
Il est difficile de décrire aussi explicitement des exemples très différents de
celui ci, comme par exemple la mesure de Lebesgue que nous verrons.
Définition 2.1.3. — On dit qu’une propriété est vraie p.p. (presque partout)
ou p.s. (presque surement) si elle est vraie en dehors d’un ensemble de mesure
nulle.
2.2. Intégration
Soit (Ω, F, m) un espace mesurable muni d’une mesure. Une fonction f :
Ω → R est étagée si on peut l’écrire sous la forme
f=
n
X
rk 1Ak
k=1
où rk ∈ R, Ak ∈ F, k = 1, ..n. On définit l’intégrale de la fonction étagée f
positive par
Z
f dm =
n
X
rk m(Ak ).
k=1
(avec la convention ici que 0 · ∞ = 0). On vérifie que ça ne dépend pas de la
décomposition choisie et que, si f, g sont étagées positives et a, b ∈ R+ ,
Z
Z
Z
(af + bg) dm = a f dm + b g dm.
Pour l’instant, appelons fonction mesurable réelle une fonction f : Ω → R̄
telle que pour tout a ∈ R, {f > a} ∈ F. (On utilisera les notations {f > a} =
{ω ∈ Ω; f (ω) > a} et R̄ = R ∪ {+∞} ∪ {−∞}).
Lemme 2.2.1. — Si (fn ) est une suite de fonctions mesurables, alors
supn∈N fn est mesurable.
Preuve: En effet il suffit d’écrire que
{sup fn > a} = ∪n∈N {fn > a}.
n∈N
2.2. INTÉGRATION
15
Si (fn ) est une suite de fonctions mesurables, pour la même raison, inf n∈N fn
et donc
lim sup fn := lim sup fk = inf sup fk
n→+∞ k≥n
n∈N k≥n
lim inf fn := lim inf fk = sup inf fk
n→+∞ k≥n
n∈N k≥n
sont mesurables. En particulier une limite de fonctions mesurables est mesurable (rappelons qu’une suite fn converge dans R̄ ssi f := lim sup fn =
lim inf fn et qu’alors f est la limite).
Si f : Ω → R est mesurable positive on pose
Z
Z
f dm = sup g dm
où le sup est pris sur l’ensemble des fonctions étagées g qui vérifient 0 ≤ g ≤ f .
Si f est mesurable on dit que f est intégrable si f + := max(f, 0) et f − :=
− min(f, 0) sont d’intégrale finie et on pose alors
Z
Z
Z
+
f dm = f dm − f − dm.
On voit que f est intégrable ssi |f | l’est puisque |f | = f + + f − et on a
Z
Z
| f dm| ≤ |f | dm
Lemme 2.2.2. — Une fonction intégrable est finie presque partout.
Preuve: Soit A = {|f | = +∞}. Si r > 0 et g = r1A , on a g ≤ |f | donc
Z
Z
rm(A) = g dm ≤ |f |dm
ce qui n’est possible pour r > 0 que si m(A) = 0. Si f et g sont mesurables finies, −f et f + g sont aussi mesurables car
{−f > a}c = {f ≥ −a} = ∩n∈N {f > −a −
1
}
n
et
{f + g > a} = ∪r∈Q {f > r, g > a − r}.
On en déduit
Proposition 2.2.3. — L’ensemble des fonctions intégrables est un espace
vectoriel.
16
CHAPITRE 2. INTÉGRATION DE LEBESGUE
Théorème 2.2.4 (de convergence monotone, ou de Beppo Levi)
Si fn est une suite croissante de fonctions mesurables positives,
Z
Z
lim
fn dm =
lim fn dm.
n→+∞
n→+∞
Preuve: La fonction f := lim fn est mesurable. Puisque fn ≤ fn+1 ≤ f , il est
facile de voir que
Z
Z
Z
fn dm ≤
fn+1 dm ≤
f dm.
R
R
Donc lim fn dm ≤ f dm. Pour montrer l’inégalité inverse, prenons une
fonction étagée g telle que 0 ≤ g ≤ f et un réel c tel que 0 < c < 1. Chaque
ensemble
En = {fn ≥ cg}
est mesurable, la suite En est croissante, de réunion Ω. On a
Z
Z
Z
fn dm ≥
fn 1En dm ≥
cg1En dm.
R
Comme g est étagée, on vérifie que le terme de droite tend vers c g dm. On
a donc
Z
Z
lim fn dm ≥ c g dm
d’où, par définition,
Z
lim
Z
fn dm ≥ c
f dm.
Il suffit alors de faire tendre c vers 1. Corollaire 2.2.5. — Si (fn )est une suite de fonctions mesurables positives
Z X
+∞ Z
+∞
X
fn dm =
fn dm.
n=0
n=0
Lemme 2.2.6 (de Fatou). — Soit (fn ) une suite de fonctions mesurables
positives,
Z
Z
lim inf fn dm ≤ lim inf fn dm.
Théorème 2.2.7 (de convergence dominée). — Soit (fn ) une suite de
fonctions mesurables vérifiant |fn (x)| ≤ g(x) pour tout x de E, où g est une
fonction intégrable, alors si fn converge
Z
Z
lim
fn dm =
lim fn dm.
n→+∞
n→+∞
2.3. ESPACES L1 , L1 , L2 , L2 .
17
Preuve: En remplacant fn par fn − lim fk on se ramène au cas où fn → 0.
Dans ce cas, par Fatou appliqué à g − |fn | ≥ 0,
Z
Z
Z
Z
Z
g dm ≤
lim inf g−|fn | dm ≤ lim inf g−|fn | dm = g dm−lim sup |fn | dm
R
R
Donc lim sup |fn | dm = 0 ce qui assure que lim |fn | dm = 0. Donc
Z
Z
| lim fn dm| ≤ lim |fn | dm = 0.
2.3. Espaces L1 , L1 , L2 , L2 .
On note L1 l’ensemble des fonctions intégrables, L2 l’ensemble des fonctions
de carré intégrable, i.e. des fonctions mesurables f : Ω → R̄ telles que
Z
|f |2 dm < +∞,
et L∞ l’ensemble des fonctions mesurables f pour lesquelles il existe une
constante M ≥ 0 telle que |f | ≤ M , p.p. On pose
Z
kf k1 = |f | dm
Z
kf k2 = ( f 2 dm)1/2 .
et kf k∞ = l’inf des M tels que |f | ≤ M , p.p. On définit ainsi des semi-normes
c’est à dire que la relation suivante est vraie pour p = 1, 2, ∞ :
kf + gkp ≤ kf kp + kgkp
Ceci est immédiat pour p = 1 et résulte pour p = 2 du lemme essentiel suivant :
Lemme 2.3.1 (inégalité de Cauchy Schwarz). — Pour f, g mesurables
Z
Z
Z
2
2
( f g dm) ≤ f dm g 2 dm.
Preuve: Pour tout λ ∈ R, le trinome en λ du second degré
Z
Z
Z
Z
λ2 [ f 2 dm] + 2λ[ f g dm] + g 2 dm = (λf + g)2 dm
est positif, ce qui n’est possible que si son discriminant
Z
Z
Z
2
2
[ f g dm] − [ f dm][ g 2 dm]
est négatif. 18
CHAPITRE 2. INTÉGRATION DE LEBESGUE
On dit qu’une suite de fonctions mesurables fn converge vers f dans Lp , si
lim kfn − f kp = 0.
n→+∞
Théorème 2.3.2. — Si une suite fn converge vers f dans Lp il existe une
sous suite d’entiers nk telle que, pour presque tout ω ∈ Ω
fnk (ω) → f (ω).
Preuve: Ecrivons la preuve pour p = 1. Par hypothèse pour ε = 1/2k il existe
nk tel que
1
kfnk − f k1 ≤ k .
2
Alors, par Beppo Levi,
Z X
∞
∞ Z
∞
∞
X
X
X
1
|fnk − f | dm =
|fnk − f | dm =
kfnk − f k ≤
< +∞
2k
k=0
k=0
k=0
k=0
P
Donc (cf Lemme 2.2.2) la série ∞
k=0 |fnk − f | converge p.p. ce qui entraı̂ne
que son terme général fnk − f tend vers 0, p.p. Définition 2.3.3. — La suite (fn ) est de Cauchy dans Lp si pour tout ε > 0
il existe N > 0 tel que pour m, n ≥ N
kfn − fm k ≤ ε.
Théorème 2.3.4. — Soit (fn ) une suite de Cauchy dans Lp . Alors il existe
f ∈ Lp tel que fn → f dans Lp .
Preuve: Ecrivons la preuve pour p = 1. Puisque la suite (fn ) est de Cauchy,
pour tout k ∈ N, il existe Nk tel que, pour n, m ≥ Nk ,
kfn − fm k ≤ 2−k .
Si on prend nk = max(N0 , · · · , Nk ) on voit que
kfnk+1 − fnk k ≤ 2−k .
Donc, un peu comme dans la preuve précédente,
Z X
∞
∞
∞
X
X
1
< +∞.
|fnk+1 − fnk | dm =
kfnk+1 − fnk k ≤
2k
k=1
k=0
k=0
2.3. ESPACES L1 , L1 , L2 , L2 .
19
P
Donc (cf Lemme 2.2.2) ∞
k=0 |fnk − fnk+1 | est fini presque partout, et la série
P∞
k=0 (fnk − fnk+1 ) est donc convergente (car absolument convergente). On a
fnp = fn0
p−1
X
+
(fnk+1 − fnk )
k=0
et on pose
f = fn0 +
∞
X
(fnk+1 − fnk ).
k=0
Pour tout n ≥ Nk , p ≥ k, kfn − fnp k ≤ 2−k donc, en appliquant le lemme de
Fatou,
Z
Z
|fn − f | dm ≤ lim inf |fn − fnp | dm ≤ 2−k
p→+∞
d’où kfn − f k tend vers 0. Par rapport à la topologie il y a une petite difficulté car
R
Lemme 2.3.5. — Si f est mesurable |f | dm = 0 si et seulement si f = 0
p.p.
Cela résulte immédiatement de la très importante inégalité suivante
Lemme 2.3.6 (Inégalité de Markov). — Si f est une fonction mesurable
positive et T > 0,
R
f dm
m(f ≥ T ) ≤
.
T
Donc kf k = 0, n’entraı̂ne pas que f est nulle (partout). Donc k · k n’est pas
une norme, mais seulement une semi-norme, et d(f, g) = kf − gk pas vraiment
une distance. Ce n’est pas génant (et si on veut une norme on remplace Lp
par l’ensemble Lp des classes de fonctions égales presque partout).
Un role particulier est joué par L2 (ou L2 ) car il a une structure géométrique
plus riche que les autres. On peut y définir les angles et surtout l’orthogonalité,
à partir du produit scalaire : pour f, g ∈ L2
Z
hf, gi = f g dm.
Un espace vectoriel muni d’un produit scalaire dans lequel les suites de Cauchy
convergent est appelé un espace de Hilbert. Donc L2 (ou plutot L2 ) est un
espace de Hilbert. Une propriété fondamentale des espaces de Hilbert est le
théorème suivant.
20
CHAPITRE 2. INTÉGRATION DE LEBESGUE
Théorème 2.3.7 (Théorème de projection). — Soit V un sous espace
vectoriel fermé dans un espace de Hilbert H. Pour tout x ∈ H il existe un
unique élément v ∈ V appelé la projection de x sur V caractérisé par
— v∈V
— hx − v, wi = 0, pour tous w ∈ V .
Corollaire 2.3.8. — Soit W un sous espace vectoriel d’un Hilbert H. Si le
seul vecteur orthogonal à W est 0, alors W est dense dans H
Preuve: Appliquer le théorème à l’adhérence de W .
2.4. Convergence en probabilité
Définition 2.4.1. — Une suite de v.a. Xn tend vers X en probabilité si pour
tout ε > 0,
P(|Xn − X] ≥ ε) → 0
quand n → +∞.
Lemme 2.4.2. — Xn → 0 en probabilité si et seulement si min(|Xn |, 1) → 0
dans L1
Preuve: Si Xn → 0 en probabilité, pour tout ε > 0,
E(min(|Xn |, 1)) = E(min(|Xn |, 1)1{|Xn |≥ε} ) + E(min(|Xn |, 1)1{|Xn |<ε} )
≤ P(|Xn | ≥ ε) + ε ≤ 2ε
pour n assez grand. Réciproquement, par l’inégalité de Markov, pour 0 ≤ ε ≤ 1
P(|Xn | ≥ ε) = P(min(1, |Xn |) ≥ ε) ≤
min(1, |Xn |)
ε
qui tend vers 0.
On déduit donc du Théorème 2.3.2 que
Proposition 2.4.3. — Si Xn → 0 p.s., alors Xn → 0 en probabilité.. Si
Xn → X en probabilité il existe une sous suite nk telle que Xnk → X presque
surement.
2.5. UNIFORME INTÉGRABILITÉ
21
2.5. Uniforme intégrabilité
Limitons nous au cas des probabilités et utilisons les notations probabilistes :
on note P une probabilité sur (Ω, F). Une variable aléatoire réelle X : Ω → R
est la même chose qu’une fonction mesurable et on pose
Z
E(X) = X dP.
Définition 2.5.1. — Une famille L de v.a. est uniformément intégrable si
Z
|X| dP → 0, quand R → +∞.
sup
X∈L {|X|>R}
Lemme 2.5.2. — Si {Xi , i ∈ I} et {Yi , i ∈ I} sont uniformément intégrables,
alors {Xi + Yi , i ∈ I} est uniformément intégrable.
Preuve: On a
E(|Xi |1{|Xi +Yi |≥M } ) = E(|Xi |1{|Xi +Yi |≥M } 1{|Xi |≥M/2 })+E(|Xi |1{|Xi +Yi |≥M } 1{|Xi |<M/2} )
≤ E(|Xi |1{|Xi |≥M/2} ) + E(|Xi |1{|Xi +Yi |≥M } 1{|Xi |<M/2 })
Le sup du premier terme tend vers 0 car (Xi ) est uniformément intégrable.
Pour le second on remarque qu’il est majoré par
E(|Yi |1|Yi |≥M/2 )
qui tend aussi vers 0.
Théorème 2.5.3. — Soit {Xn , n ∈ N} une suite uniformément intégrable de
v.a. qui converge en probabilité (donc a fortiori si elle converge p.s.) vers X.
Alors Xn → X dans L1 et en particulier, E(Xn ) → E(X).
Preuve: La suite Yn = |Xn − X| est aussi uniformément intégrable par le
lemme.. Ensuite
E(Yn ) = E(Yn 1{Yn <R} ) + E(Yn 1{Yn ≥R} )
Pour tout ε > 0, pour R assez grand, le second terme est inférieur à ε/2 par
unif. int. Un tel R étant choisi, le premier terme est inférieur à ε/2 pour n
assez grand, par convergence en probabilité. Proposition 2.5.4. — Une suite de v.a. Xn telle que supn E(Xn2 ) < +∞ est
uniformément intégrable.
Preuve: On utilise que 1{|Xn |>R} ≤
|Xn |
R
donc
E[|Xn |1{|Xn |>R} ] ≤
E[Xn2 ]
.
R
22
CHAPITRE 2. INTÉGRATION DE LEBESGUE
2.6. Divers
Lemme 2.6.1 (de Borel Cantelli). — Soit (An ) une suite de sous enP
sembles mesurables de Ω telle que ∞
n=0 m(An ) < +∞. Alors
+∞
X
1An < +∞ p.s.
k=0
Autrement dit, presque tout ω ∈ Ω n’appartient qu’à un nombre fini de An .
Preuve: Par convergence monotone,
Z X
+∞
+∞
X
1An dm =
m(An ) < +∞
k=0
donc
P+∞
k=0 1An
k=0
< +∞ p.p. .
2.7. Tribu engendrée
Définition 2.7.1. — Soit C un ensemble de parties de Ω. On appelle tribu
engendrée par C et on note σ(C) la plus petite tribu contenant C.
Définition 2.7.2. — Soit E un espace muni d’une topologie, on appelle tribu
borélienne de E et on note B(E) la tribu engendrée par les ouverts.
Définition 2.7.3. — Soit (E, E) et (F, B) deux espaces mesurables, on dit
qu’une fonction f : E → F est mesurable si pour tout B ∈ B, f −1 (B) ∈ E.
Lorsque E ou F est un espace topologique, si on ne le précise pas, on le
munit de la tribu borélienne. On retrouve donc la notion introduite avant. Un
sup, un inf, une limite d’une suite de fonctions mesurables à valeurs réelles
sont mesurables. Les fonctions continues sont mesurables.
Lemme 2.7.4. — Toute fonction mesurable de E dans R̄+ est la limite croissante d’une suite de fonctions étagées.
En effet,
f = lim n1{n≤f } +
n→+∞
n −1
n2
X
k=0
k
1 k
k+1
2n { 2n ≤f < 2n }
(lorsque f est finie on peut se passer du premier terme).
Pour s’habituer aux notations, utilisons le vocabulaire des probabilités.
Donnons nous une famille (Ei , Ei ), i ∈ I, d’espaces mesurables.
2.7. TRIBU ENGENDRÉE
23
Définition 2.7.5. — Soit Xi : Ω → Ei , i ∈ I, des v.a.. On appelle tribu
engendrée par cette famille et on note σ(Xi , i ∈ I) la tribu engendrée par
{Xi ∈ Ai }, Ai ∈ Ei et i ∈ I.
Intuitivement, la tribu σ{Xi , i ∈ I} est formée des ensembles que l’on peut
décrire à l’aide des Xi . Pour une seule application X : Ω → Rd , σ(X) est
exactement la classe des ensembles {X ∈ A}, où A est un borélien de Rd .
Donnons nous pour toute la suite un espace de probabilité (Ω, F, P). Une
variable aléatoire est la même chose qu’une application mesurable mais la
plupart du temps à valeurs dans E = R ou Rd . Le lemme suivant est très
utile.
Lemme 2.7.6. — Soit X une application de Ω dans un espace mesurable
(E, E) et σ(X). Une application Y : Ω → R est σ(X)-mesurable si et seulement
si il existe une application mesurable φ : E → R telle que Y = φ(X).
Preuve: Supposons d’abord que Y est étagée et σ(X)-mesurable. On peut par
P
définition l’écrire sous la forme Y = kn=1 αn 1An , où An ∈ σ(X). Il existe donc
P
pour tout n, un borélien Bn tel que An = {X ∈ Bn }. Posons φ = kn=1 αn 1Bn .
On vérifie qu’alors Y = φ(X). Ceci montre la partie directe du lemme lorsque
Y est étagée. Dans le cas général, si Y est σ(X)-mesurable, il existe une suite
de v.a. étagées Yn telle que Y = lim Yn . Par ce qui précède, on peut écrire
Yn = φn (X) et il suffit alors de poser φ = lim sup φn . La réciproque est facile.
Une façon agréable d’exprimer le lemme précédant est de dire qu’une variable aléatoire Y est σ(X1 , X2 , · · · , Xn )-mesurable si et seulement si elle
s’écrit
Y = φ(X1 , X2 , · · · , Xn )
pour une application borélienne φ.
Le maniement des tribus engendrées est souvent délicat. Un outil sophistiqué :
Théorème 2.7.7 (de la classe monotone). — Soient C et M des ensembles de parties de Ω tels que C ⊂ M. On suppose que
(i) C est stable par intersection finie (i.e. A, B ∈ C implique A ∩ B ∈ C).
(ii) M est stable par différence propre (i.e. A, B ∈ M et A ⊂ B implique
B \ A ∈ M).
(iii) M est stable par limite croissante (i.e. An ∈ M et An ⊂ An+1 implique
∪An ∈ M).
(iv) Ω est dans M.
24
CHAPITRE 2. INTÉGRATION DE LEBESGUE
Alors σ(C) est contenu dans M.
Preuve: Montrons que l’intersection N de toutes les classes M vérifiant
(ii), (iii), (iv) est une tribu donc contient σ(C). Stable par intersection finie :
Fixons un A de C, la classe
{B ∈ N ; A ∩ B ∈ N }
contient C par (i) et vérifie (ii, iii, iv), elle contient donc N . Maintenant, fixons
un B dans N , la classe
{C ∈ N ; C ∩ B ∈ N }
contient C par ce que l’on vient de montrer et vérifie (ii, iii, iv), elle contient
donc N . Le résultat fondamental de la théorie de l’intégration est le suivant :
Théorème 2.7.8. — Il existe une et une seule mesure m sur R, appelée
mesure de Lebesgue, vérifiant
m(]s, t]) = t − s
Plus généralement, pour toute fonction croissante continue à droite A il existe
une mesure et une seule mA vérifiant
mA (]s, t]) = A(t) − A(s)
pour tout s < t.
La preuve de l’existence est difficile, nous l’admettons. Par contre l’unicité
est conséquence du théorème de la classe monotone (appliqué à la classe des
intervalles de la forme [a, b], a, b ∈ R, qui engendre la tribu borélienne et est
stable par intersection finie.)
Il est facile de voir, en utilisant le théorème de convergence dominée que
R
pour toute fonction continue à support compact sur R, f dm n’est autre que
R
l’intégrale de Riemann de f . Nous utiliserons donc aussi la notation f (x) dx.
2.8. Loi d’une variable aléatoire
On se donne un espace de probabilité (Ω, F, P) et un ensemble E, muni
d’une tribu E.
Définition 2.8.1. — Soit X : Ω → E une variable aléatoire (= application
mesurable). On appelle loi de X et on note parfois P(X) la probabilité sur
(E, E) définie par P(X) (A) = P(X ∈ A), pour tout A de E.
2.9. MESURE PRODUIT
25
La règle de calcul suivante est d’un emploi constant : il faut absolument
savoir la manier. La première égalité est la définition de l’espérance.
Proposition 2.8.2. — Soit X une variable aléatoire à valeurs dans E. Pour
toute fonction mesurable f : E → R, à valeurs positives ou telle que f (X) soit
intégrable, on a
Z
Z
f dP(X) .
f (X) dP =
E(f (X)) =
E
Ω
Définition 2.8.3. — Etant donné deux mesures µ et ν sur (Ω, F), et une
fonction mesurable positive φ : Ω → R, on dit que µ a la densité φ par
rapport à ν et on écrit
dµ = φ dν
si pour tout A ∈ F
Z
µ(A) =
φ(x) dν(x).
A
Alors, pour toute fonction mesurable positive f
Z
Z
f dµ = f φ dν.
Souvent lorsqu’on dit qu’une v.a. réelle a la densité φ, on sous entend que sa
loi a la densité φ par rapport à la mesure de Lebesgue.
Proposition 2.8.4. — Si une v.a. X a une loi de densité φ, alors
Z
E(f (X)) = f (x)φ(x) dm(x)
pour toute fonction mesurable positive f .
2.9. Mesure produit
Soient (E1 , E1 , m1 ) et (E2 , E2 , m2 ) deux espaces mesurés σ-finis. On munit
E1 × E2 de la tribu E1 ⊗ E2 sur E1 × E2 , appelée tribu produit, engendrée par
les ensembles de la classe
C = {A × B, A ∈ E1 , B ∈ E2 }
Cette classe est stable par intersection finie. On pose, pour tout C ∈ E1 ⊗ E2 ,
Z Z
(m1 ⊗ m2 )(C) = { 1C (x, y) dm1 (x)} dm2 (y)}
26
CHAPITRE 2. INTÉGRATION DE LEBESGUE
R
(à l’aide du thm de classe monotone, on vérifie que y 7→ 1C (x, y) dm1 (x) est
bien mesurable). On définit ainsi une mesure sur m1 ⊗ m2 sur E1 × E2 . De la
même façon, la formule
Z Z
ν(C) = { 1C (x, y) dm2 (y)} dm1 (x)}
définit aussi une mesure. Pour tout C = A × B de C,
(m1 ⊗ m2 )(C) = m1 (A)m2 (B) = ν(C)
On déduit donc du théorème de classe monotone que les deux mesures m1 ⊗m2
et ν coincident. Il en résulte assez facilement :
Théorème 2.9.1 (de Fubini). — Soit f : E1 × E2 → R une fonction mesurable. Alors, pour tout x ∈ E1 , la fonction
Z
y ∈ E2 7→ f (x, y) dm1 (x)
est mesurable et
Z Z
Z Z
{ f (x, y) dm1 (x)}dm2 (y) = { f (x, y) dm2 (y)}dm1 (x)
sous l’une des deux hypothèses suivantes (i) f est à valeurs positives (ii) f est
intégrable
Lorsque f n’est pas positive, on applique souvent ce thm à |f | pour montrer
que f est intégrable.
L’exemple fondamental est celui de la mesure de Lebesgue sur Rd = R ×
R × · · · × R, égale au produit, d fois, de la mesure de Lebesgue sur R. Pour la
manier on utilise parfois le
Théorème 2.9.2 (de changement de variables). — Si
φ
est
un
difféomorphisme de l’ouvert U sur l’ouvert V , on a, pour toute f ∈ B + (Rd ),
Z
Z
(1)
f (v) dm(v) =
f (φ(u))|J(φ)(u)| dm(u).
V
U
où J(φ) est le déterminant de la matrice des
Lebesgue.
∂φj
∂uk
et m est le mesure de
2.10. PROCESSUS
27
2.10. Processus
Un processus (à temps continu) est une famille de variables aléatoires (Xt ) à
valeurs dans un espace E muni d’une tribu E, indexée par t ∈ R+ . En fait c’est
la même chose qu’une variable aléatoire à valeurs dans l’ensemble F (R+ , E)
des fonctions de R+ dans E muni de la tribu F(R+ , E) engendrée par les
applications φt : F (R+ , E) → E définies par φt (ω) = ω(t), ω ∈ F (R+ , E).
La loi du processus est par définition la loi de cette variable aléatoire.
Proposition 2.10.1. — La loi d’un processus est déterminée par les lois
finies dimensionnelles, c’est à dire les lois de
(Xt1 , · · · Xtn ), 0 ≤ t1 ≤ t2 ≤ · · · ≤ tn , n ∈ N.
Preuve: Cela résulte du théorème de la classe monotone. En effet, la classe
des sous ensembles de F(R+ , E) qui s’écrivent
{ω ∈ F (R+ , E); ω(t1 ) ∈ E1 , · · · , ω(tn ) ∈ En }
où les Ek sont dans E est stable par intersection finie et engendre la tribu
F(R+ , E).
Soit (Ω, F, P) un espace de probabilité. On représente ce que l’on ”connait”
à l’instant t par une tribu Ft . Ceci amène à poser
Définition 2.10.2. — Une famille croissante (Ft , t ∈ R+ ) de sous-tribus de
F, c’est à dire vérifiant Fs ⊂ Ft ⊂ F, s’appelle une filtration et le terme
(Ω, F, Ft , P) un espace de probabilité filtré.
Un processus Xt est dit adapté à cette filtration si Xt est Ft -mesurable,
pour tout t ≥ 0.
L’exemple fondamental de filtration est donné par Ft = σ(Xs , s ≤ t) où
(Xt ) est un processus quelconque. Si Xt est un processus adapté sans régularité
particulière, on ne sait rien de sa dépendance en t. Elle n’est peut être même
pas borélienne. Ceci amène à poser :
Définition 2.10.3. — Un processus progressivement mesurable Xt , t ∈ R+ ,
est un processus tel que pour tout T ≥ 0, l’application
(t, ω) ∈ [0, T ] × Ω 7→ Xt (ω)
est mesurable de B([0, T ]) ⊗ FT dans B(R), où B([0, T ]) et B(R) sont les tribus
boréliennes.
En pratique tous les processus adaptés que nous rencontrerons seront progressifs. C’est par exemple le cas des processus continus et plus généralement,
28
CHAPITRE 2. INTÉGRATION DE LEBESGUE
Lemme 2.10.4. — Si X est un processus continu à droite (ou à gauche)
adapté à (Ft ), l’application (s, ω) 7→ Xs (ω) est progressivement mesurable.
Preuve: Pour continu à droite : pour tout n, posons
Xs(n) =
n−1
X
k=0
X k+1 ∧t 1{ k ∧t≤s< k+1 ∧t}
n
n
n
(n)
Alors (s, ω) 7→ Xs (ω) est mesurable de ([0, t] × Ω, B([0, t]) ⊗ Ft ) dans E. Il
en est donc de même de la limite X de X (n) quand n → +∞.
2.11. Indépendance
La notion la plus importante en probabilité est sans conteste la notion
d’indépendance. Elle recouvre à la fois une notion intuitive (le résultat du
loto est indépendant de la température, etc ...) et une notion mathématique.
Il est nécessaire de bien posséder ces deux aspects et de comprendre qu’ils
signifient la même chose. Un bon utilisateur des probabilités est quelqu’un qui
sait exploiter l’indépendance, ou la non indépendance, dans les événements
de la vie courante. Même si le plus souvent on ne s’intéresse qu’à l’indépendance d’événements ou de variables aléatoires, il s’avère plus efficace de définir
l’indépendance de tribus. Un espace de probabilité (Ω, A, P) est toujours fixé.
Définition 2.11.1. — On dit que des tribus A1 , · · · , An contenues dans A
sont indépendantes si, pour tout A1 ∈ A1 , · · · , An ∈ An ,
P(A1 ∩ A2 · · · ∩ An ) = P(A1 )P(A2 ) · · · P(An ).
Des variables aléatoires X1 , · · · , Xn sont dites indépendantes si les tribus
engendrées σ(X1 ), · · · , σ(Xn ) le sont. On dit qu’une famille infinie de sous
tribus (ou de variables aléatoires) est formée de tribus indépendantes lorsque
toute sous famille finie a cette propriété. Donnons quelques résultats utiles au
maniement de l’indépendance. Le premier est très important et son énoncé
est à bien comprendre, malgré son aspect compliqué. Nous en donnons deux
formes.
Proposition 2.11.2 (Lemme de regroupement). — (Forme 1). Soit I
un ensemble d’indices, et Ai , i ∈ I, des sous tribus indépendantes de A.
Alors, si I1 , I2 , · · · , In sont des parties disjointes de I, les tribus σ(Ai , i ∈
I1 ), σ(Ai , i ∈ I2 ), · · · , σ(Ai , i ∈ In ) sont indépendantes.
2.11. INDÉPENDANCE
29
(Forme 2). Soit X1 , X2 , · · · , Xn , · · · des variables aléatoires indépendantes. Alors si 0 < n1 < n2 < n3 < · · · les variables aléatoires
φ1 (X1 , · · · , Xn1 ), φ2 (Xn1 +1 , · · · , Xn2 ), · · · sont indépendantes, pour toute
application φ1 : Rn1 → R, φ2 : Rn2 −n1 → R, · · · , mesurable.
Donnons un exemple simple mais typique d’utilisation : si X, Y, U, V sont
quatre variables aléatoires réelles indépendantes, alors X + Y et U V sont indépendantes.
Théorème 2.11.3. — Deux variables aléatoires X, Y sont indépendantes si
et seulement si P(X,Y ) = P(X) ⊗ P(Y ) .
Corollaire 2.11.4. — Si les variables aléatoires X, Y sont indépendantes,
alors pour toute fonction φ mesurable positive (ou telle que φ(X, Y ) soit
intégrable) on a
Z Z
E[φ(X, Y )] =
φ(x, y) dP(X) (x)dP(Y ) (y).
On peut aussi écrire cette relation sous les formes
Z Z
E[φ(X, Y )] =
φ(X(ω), Y (ω 0 )) dP(ω)dP(ω 0 ),
Ω Ω
ou encore
Z
E[φ(X, Y )] =
Ω
qui nous seront utiles.
E[φ(X, Y (ω 0 ))] dP(ω 0 ),
CHAPITRE 3
MOUVEMENT BROWNIEN
3.1. Loi gaussienne
La loi gaussienne N (m, σ 2 ) sur R est la masse de Dirac en m lorsque σ = 0
et la loi de densité
(x−m)2
1
√
e− 2σ2
2πσ 2
sinon. Il n’y a pas de primitive explicite mais une excellente approximation par
une fraction rationnelle (1) . Si X suit la N (m, σ 2 ), alors E(X) = m, var(X) =
σ 2 . Lorsque σ = 0, X = m p.s. La fonction caractéristique est E(eitX ) =
2 2
exp{− σ 2t + itm}.
Proposition 3.1.1. — Toute limite de v.a. gaussiennes, en loi, en probabilité, ou p.s., ou dans L1 , ou dans L2 est gaussienne. De plus l’espérance et la
variance convergent vers l’espérance et la variance de la limite.
Preuve: Toutes les convergences considérées entraı̂nent la convergence en
loi. Supposons donc que Xn converge en loi vers X et que Xn suit une loi
2 2
N (mn , σn2 ). Alors E(eitXn ) = exp{− σn2t +itmn } et E(eitXn ) → g(t) := E(eitX ).
2 2
En prenant le module on voit que exp{− σn2t } → |g(t)| donc que σn2 converge
vers σ 2 = −(2 log |g(t)|)/t2 . On en déduit que eitmn converge vers h(t) =
R
2 2
exp{− σ 2t }g(t). Alors, si f est C 1 à support compact, tel que f (t)h(t)dt 6= 0,
par intégration par parties,
Z
Z
0
itmn
f (t)e
dt = −imn f (t)eitmn dt
1. cf. Appendice
32
CHAPITRE 3. MOUVEMENT BROWNIEN
R
R
donc, en pasant à la limite mn converge vers m := i( f 0 (t)h(t)dt)/( f (t)h(t)dt).
On voit donc que
σ 2 t2
E(eitXn ) → exp{−
+ itm}
2
et la limite est donc gaussienne.
3.2. Vecteur gaussien
On identifie un vecteur à une matrice colonne. L’espérance d’un vecteur
aléatoire X = (X1 , · · · , Xd )t est le vecteur E(X) = (E(X1 ), · · · , E(Xd ))t et sa
matrice de covariance est,
KX = E[(X − E(X))(X − E(X))t ] = E(XX t ) − E(X)[E(X)]t .
ses composantes sont KX (i, j) = Cov(Xi , Xj ). Si les composantes X1 , . . . , Xd
sont indépendantes, K(X) est diagonale. Il est clair que
Lemme 3.2.1. — Si M est une matrice déterministe r × d, on a KM X =
M KX M t .
Pour λ ∈ Rd , notons
hλ, Xi =
d
X
λi Xi
i=1
le produit scalaire. En appliquant le lemme à M = λt on voit que
λt KX λ = varhλ, Xi ≥ 0.
En particulier, KX est une matrice symétrique semi-définie positive, donc
diagonalisable de valeurs propres positive ou nulles.
Définition 3.2.2. — Un vecteur aléatoire X = (X1 , . . . , Xd )t est dit gaussien si toute combinaison linéaire des composantes suit une loi normale.
Proposition 3.2.3. — Un vecteur X est gaussien si et seulement, il existe
un vecteur m ∈ Rd et une matrice de covariance K telle que pour tout λ ∈ Rd
E(exp(ihλ, Xi) = exp(ihλ, mi −
Alors m = E(X) et K = KX .
λt Kλ
).
2
3.4. DÉFINITION DU MOUVEMENT BROWNIEN
33
Un exemple typique de vecteur gaussien est donné par un vecteur de composantes normales indépendantes. Par contre, en général, un vecteur à composantes gaussiennes n’est pas nécéssairement gaussien. En appliquant la proposition précédente pour calculer la fonction caractéristique, on obtient le
théorème fondamental suivant :
Théorème 3.2.4. — Soit (X1 , . . . , Xp , Y1 , · · · , Yq )t un vecteur gaussien de
Rp+q . Alors les vecteurs (X1 , . . . , Xp ) et (Y1 , · · · , Yq ) sont indépendants ssi
cov(Xi , Yj ) = 0
lorsque 1 ≤ i ≤ p, 1 ≤ j ≤ q.
3.3. Famille gaussienne
Une famille, ou un processus, {Xi , i ∈ I} de variables aléatoires est dite
gaussienne si toute combinaison linéaire finie de ces v.a. suit une loi normale.
La loi globale de cette famille (c’est à dire par définition, la loi de toute sous
famille finie) est déterminée par les espérances E(Xi ), i ∈ I, et les covariances
Cov (Xi , Xj ), i, j ∈ I. Comme pour le thm. on a
Théorème 3.3.1. — Soit {Xi , i ∈ I} une famille gaussienne et I1 , I2 , · · · , In
des parties disjointes de I. Alors les familles
{Xi , i ∈ I1 }, {Xi , i ∈ I2 }, · · · , {Xi , i ∈ In }
sont indépendantes ssi
cov(Xi , Xj ) = 0
chaque fois que iet j sont dans des ensembles I1 , · · · , In différents.
Preuve: Il suffit de voir que {Xi , i ∈ I1 ∪ I2 ∪ · · · ∪ In−1 } est indépendant de
{Xi , i ∈ In }...
3.4. Définition du mouvement brownien
Définition 3.4.1. — On appelle mouvement brownien un processus gaussien
Bt , t ∈ R+ , presque sûrement à trajectoires continues, tel que B0 = 0 et
Bt+s − Bt est indépendant de σ(Bu , u ≤ t) de loi N (0, s), pour tout t, s ≥ 0.
Proposition 3.4.2. — Un processus gaussien continu {Bt , t ∈ R+ } est un
mouvement brownien si et seulement si
E(Bt ) = 0, E(Bt Bs ) = min(s, t), pour tout t, s ≥ 0.
34
CHAPITRE 3. MOUVEMENT BROWNIEN
Preuve: Supposons d’abord que Bt , t ∈ R+ , est un mouvement brownien.
Alors Bt est centré donc E(Bt ) = 0. De plus, si 0 ≤ s ≤ t, on sait que Bt − Bs
est indépendant de σ(Br , r ≤ s), donc en particulier de Bs . Il en résulte que
E(Bt Bs ) = E((Bt − Bs + Bs )Bs ) = E(Bt − Bs )E(Bs ) + E(Bs2 ) = s.
Réciproquement, supposons les relations vraies et montrons qu’alors Bt , t ∈
R+ , est un mouvement brownien. Il faut montrer d’abord que si 0 ≤ s ≤ t,
Bt − Bs est indépendant de σ(Br , r ≤ s). Puisque la famille des Bt , t ≥ 0, est
gaussienne, il suffit de vérifier que Cov(Bt − Bs , Br ) = 0, si r ≤ s ≤ t. Or
Cov(Bt − Bs , Br ) = E(Bt Br ) − E(Bs Br ) = min(t, r) − min(s, r) = 0.
Ensuite, il faut voir que, si 0 ≤ s ≤ t, loi de Bt − Bs ne dépend que de t − s :
cette loi est gaussienne centrée et sa variance est
E((Bt − Bs )2 ) = E(Bt2 ) + E(Bs2 ) − 2E(Bt Bs ) = t + s − 2s = t − s.
Enfin, Bt est bien centré de variance t.
Faisons une remarque importante sur la continuité. Dans l’énoncé précédent
ne supposons pas a priori la continuité. La construction de Paul Lévy donnée
plus bas construit un processus continu et le fait d’être uniformément continu
sur les rationnels de [0, T ] pour un T > 0 fixé est mesurable. On voit donc que
sous les autres hypothèses de la proposition, Bt est p.s. uniformément continu
sur les rationnels de [0, T ], pour tout T > 0, donc admet un prolongement par
continuité à R+ tout entier.
Corollaire 3.4.3. — Soit {Bt , t ∈ R+ } un mouvement brownien. Alors
1. pour tout a > 0, {Bt+a − Ba , t ∈ R+ },
2. (Scaling) pour tout α ∈ R, {αBα−2 t , t ∈ R+ },
3. {tB1/t , t ∈ R+ },
sont des mouvements browniens.
Preuve: Les trois assertions se montrent de la même façon. Traitons par
exemple la seconde. Posons Xt = αBα−2 t . Tout d’abord, toute combinaison
linéaire des v.a. Xt est une combinaison linéaire de certains Bs donc est
gaussienne. Ceci montre que le processus {Xt , t ≥ 0} est gaussien. Il est continu
comme Bt . Il est clair que E(Xt ) = 0, et
E(Xt Xs ) = α2 E(Bα−2 t Bα−2 s ) = α2 min(
t s
, ) = min(s, t).
α2 α2
3.5. FILTRATIONS ET BROWNIEN
35
Par la proposition précédente, {Xt , t ≥ 0} est un brownien. Dans le troisième
cas, il faut aussi vérifier la continuité p.s. en 0. Puisque tB1/t , t > 0 a la même
loi que {Bt , t > 0}, Xn = sup0<s<1/n |sB1/s | et Yn = sup0<s<1/n |Bs | ont la
même loi. Donc P(Xn → 0) = P(Yn → 0) = 1 puisque B est continu en 0, ce
qui montre la continuité p.s.
3.5. Filtrations et Brownien
Considérons un espace de probabilité filtré (Ω, (Ft ), F, P). En général, on
note F∞ = σ(Ft , t ≥ 0). On pose
Ft+ = ∩ε>0 Ft+ε .
(2)
On dit que la filtration Ft est continue à droite si Ft+ = Ft . La filtration Ft+
est elle même continue à droite.
Définition 3.5.1. — Un processus B adapté à (Ω, Ft , P) est un (Ft )–mouvement brownien si B est un mouvement brownien et pour tout s ≥ 0, la famille
{Bt − Bs , t ≥ s} est indépendante de Fs .
Théorème 3.5.2. — Un (Ft )–mouvement brownien est aussi un (Ft+ )–mouvement brownien.
Preuve: Pour tout s < t < t1 < · · · < td le vecteur
(Bt1 − Bt , · · · , Btd − Bt )
est indépendant de Ft donc de Fs+ , qui est contenu dans Ft . Par continuité
(Bt1 − Bs , · · · , Btd − Bs )
est aussi indépendant de Fs+ .
Corollaire 3.5.3 (Loi 0–1 de Blumenthal). — Soit B un mouvement
brownien et Ft = σ(Bs , 0 ≤ s ≤ t). Pour tout A ∈ F0+ , P(A) = 0 ou 1.
Preuve: F0+ est indépendant de Bt pour tout t > 0 donc de Ft , donc de F0+ .
36
CHAPITRE 3. MOUVEMENT BROWNIEN
3.5.1. Quelques propriétés trajectorielles du brownien. — Le résultat
technique suivant va nous permettre de décrire quelques propriétés non triviales du mouvement brownien.
Lemme 3.5.4. — Si {Bt , t ∈ R+ } est un mouvement brownien,
Bt
Bt
lim sup √ = +∞, lim inf √ = −∞, p.s.
+
t→0
t
t
t→0+
√
Preuve: La variable aléatoire R = lim supt→0+ Bt / t est F0+ –mesurable, où
Ft = σ(Bs , 0 ≤ s ≤ t), donc constante p.s.. Plus précisément, soit R = +∞,
soit il existe une constante α telle que R ≤ α, p.s. Ce dernier cas est impossible
Bt
car il entraı̂ne que P( √
≥ α + 1) → 0 quand t = 1/n avec n → +∞ alors
t
Bt
que P( √
≥ α + 1) = P(B1 ≥ α + 1) 6= 0. Le cas de la liminf s’obtient en
t
appliquant la limsup à (−Bt ) qui est aussi un brownien.
Proposition 3.5.5. — Pour presque tout ω, la trajectoire t 7→ Bt (ω),
(i) n’est nulle part dérivable ;
(ii) passe une infinité de fois par chaque point de R.
Preuve: Le lemme assure que B n’est pas dérivable en 0, p.s., donc en
tout point t fixé, sur un ensemble de probabilité 1, qui peut dépendre de
t. Nous admettons qu’on peut choisir cet ensemble indépendant de t. Posons
Wt = tB1/t . Comme Wt , t ≥ 0, est un mouvement brownien, on peut lui
appliquer le lemme : presque sûrement,
Wt
lim sup √ = +∞.
t
t→0
Donc, en posant s = t−1 ,
√
1
lim sup √ Bs = lim sup sW1/s = +∞,
s
s→∞
s→+∞
donc sup Bt = +∞. De même inf Bt = −∞ ; les trajectoires étant continues
elles doivent passer par tous les points, une infinité de fois, p.s.
La preuve précédente montre aussi que la trajectoire oscille énormément au
moment où elle part de 0, puisqu’elle arrive à traverser une infinité de fois
l’axe {x = 0} avant chaque instant fixé.
3.6. PROPRIÉTÉ DE MARKOV FORTE DU MOUVEMENT BROWNIEN
37
3.6. Propriété de Markov forte du mouvement brownien
3.6.1. Temps d’arrêt. — Soit (Ω, Ft , P) un espace de probabilité filtré et
F∞ = σ(Ft , t ≥ 0).
Définition 3.6.1. — Une application τ de Ω dans R̄+ est un temps d’arrêt
si, pour tout t ≥ 0, {τ ≤ t} ∈ Ft . La tribu
Fτ := {A ∈ F∞ , pour tout t ≥ 0, A ∩ {τ ≤ t} ∈ Ft }
s’appelle la tribu des événements antérieurs à τ .
Lemme 3.6.2. — Une application τ : Ω → R̄+ est un temps d’arrêt si et
seulement si le processus
Xt = 1[0,τ [ (t)
est adapté.
Proposition 3.6.3. — (i) Soient σ et τ des temps d’arrêt. Alors σ ∨ τ et
σ ∧ τ sont des temps d’arrêt et Fσ∧τ = Fσ ∩ Fτ . De plus {σ ≤ τ } et {σ = τ }
appartiennent à Fσ∧τ .
(ii) Soient τn des temps d’arrêt. Alors supn τn est un temps d’arrêt.
(iii) Supposons (Ft ) continue à droite. Alors τ est un temps d’arrêt dès que
{τ < t} ∈ Ft et un inf d’une suite de temps d’arrêt est un temps d’arrêt.
Preuve: (i) Soit A ∈ Fσ ∩ Fτ , alors A ∩ {σ ∧ τ ≤ t} = (A ∩ {σ ≤ t}) ∪
(A ∩ {τ ≤ t}) ∈ Ft et A ∈ Fσ∧τ . Si A ∈ Fσ∧τ , A ∩ {τ ≤ t} = A ∩ {σ ∧ τ ≤
t} ∩ {τ ≤ t} est dans Ft . Donc A ∈ Fτ de même A ∈ Fσ . Pour montrer
que {σ ≤ τ } ∈ Fσ∧τ , il suffit de montrer que {σ ≤ τ } ∈ Fσ ∩ Fτ . Mais
l’on a {σ ≤ τ } ∩ {τ ≤ t} = {σ ≤ t} ∩ {τ ≤ t} ∩ {σ ∧ t ≤ τ ∧ t} ∈ Ft et
{σ ≤ τ } ∩ {σ ≤ t} = {σ ∧ t ≤ τ ∧ t} ∩ {σ ≤ t} ∈ Ft . On procède de même
pour {σ = τ }.
(ii) On a {supn τn ≤ t} = ∩n {τn ≤ t} ∈ Ft .
(iii) Si {τ < t} ∈ Ft , pour tout t ≥ 0, {τ ≤ t} = ∩ε>0 {τ < t + ε} ∈ Ft+ = Ft .
Si τn est une suite de temps d’arrêt et τ = inf τn , {τ < t} = ∪n {τn < t} ∈ Ft ,
donc τ est un temps d’arrêt.
Soit (Xt ) un processus adapté à (Ω, (F t )) à valeurs dans un espace métrique
(E, d), par exemple Rk avec la norme usuelle. La distance d définit une topologie et on munit E de la tribu borélienne. On associe à un sous ensemble A
de E,
(3)
τA (ω) = inf(t ≥ 0, Xt (ω) ∈ A),
τA est appelé le temps d’entrée dans A.
38
CHAPITRE 3. MOUVEMENT BROWNIEN
Proposition 3.6.4. — Si A est fermé et X à trajectoires continues, τA est
un temps d’arrêt.
Preuve: Posons d(x, A) = inf a∈A d(x, a). Cette fonction est continue car, pour
tout x, y ∈ E et a ∈ A
d(x, a) ≤ d(x, y) + d(y, a)
donc d(x, A) ≤ d(x, y) + d(y, A) ce qui assure que |d(x, A) − d(y, A)| ≤ d(x, y).
On utilise alors que
1
{τA ≤ t} = ∩n ∪s≤t,s∈Q+ {d(Xs , A) ≤ } ∈ Ft .
n
(détail : si τA ≤ t, puisque A est fermé, il existe s ≤ t tel que Xs ∈ A. Par
continuité de x 7→ d(x, A), on a alors d(Xs , A) = 0. Il existe donc sn ∈ Q
tel que sn → s et sn < s pour lequel d(Xsn , A) ≤ 1/n. Donc l’inclusion de
{τA ≤ t} dans le terme de droite. Réciproquement, si pour tout n ∈ N, il existe
sn ≤ t tel que d(Xsn , A) ≤ 1/n, pour toute valeur d’adhérence s de la suite sn
on a s ≤ t et d(Xs , A) = 0 donc Xs ∈ A.) Proposition 3.6.5. — Si A est ouvert et X à trajectoires continues à droite,
τA est un temps d’arrêt de Ft+ .
Preuve: En effet
{τA < t} = ∪s<t,s∈Q+ {Xs ∈ A}
Proposition 3.6.6. — Si X est un processus adapté progressivement mesurable (cf. 2.10.3) et si τ est un temps d’arrêt, Xτ 1τ <∞ est Fτ -mesurable.
Preuve: Soit Γ un borélien de E. Il s’agit de montrer que pour tout t ≥ 0,
{Xτ ∈ Γ} ∩ {τ ≤ t} ∈ Ft . Remarquons que
{Xτ ∈ A} ∩ {τ ≤ t} = {Xτ ∧t ∈ A} ∩ {τ ≤ t}.
Soit Ωt = {τ ≤ t}. L’application ω 7→ (τ (ω), ω) est mesurable de (Ωt , Ft )
dans ([0, t] × Ω, B([0, t]) ⊗ Ft ), l’application (s, ω) 7→ Xs (ω) est mesurable de
(([0, t] × Ω, B([0, t]) ⊗ Ft ) dans E. Donc l’application composée ω 7→ Xτ (ω) (ω)
de (Ωt , Ft ) dans E est mesurable i.e. {τ ≤ t, Xτ ∈ Γ} ∈ Ft .
3.6.2. La propriété de Markov forte du brownien. —
Lemme 3.6.7. — Soit τ un temps d’arrêt. Il existe une suite décroissante
{τn , n ∈ N} de temps d’arrêt convergeant vers τ telle que τn est à valeurs dans
{k/2n , k ∈ N} ∪ {+∞}.
Preuve: On peut prendre τn =
[2n τ ]+1
2n .
3.6. PROPRIÉTÉ DE MARKOV FORTE DU MOUVEMENT BROWNIEN
39
Théorème 3.6.8. — Soit {Bt , t ≥ 0} un (Ft )–mouvement brownien. Alors,
pour tout temps d’arrêt τ , conditionnellement à {τ < +∞}, le processus
{Bt+τ − Bτ , t ∈ R+ } est un brownien, indépendant de Fτ .
Preuve: Il faut montrer que pour toute v.a. Z, Fτ -mesurable bornée et
F : Rd → R, continue bornée,
E(Z1{τ <+∞} F (Bt1 +τ − Bτ , Bt2 +τ − Bτ , · · · , Btd +τ − Bτ )) =
= E(Z1{τ <+∞} )E(F (Bt1 , · · · , Btd ))
On considère d’abord le cas où τ prend toutes ses valeurs dans l’ensemble
dénombrable {sk = k2−n , k ∈ N}. Alors, puisque {τ < +∞} est la réunion
dénombrable des ensembles disjoints {τ = sk }, on peut écrire :
E(Z1{τ <+∞} F (Bt1 +τ
− Bτ , · · · , Btd +τ − Bτ )) =
=
=
=
+∞
X
k=0
+∞
X
k=0
+∞
X
E(ZF (Bt1 +τ − Bτ , · · · , Btd +τ − Bτ )1{τ =sk } )
E(Z1{τ =sk } F (Bt1 +sk − Bsk , · · · , Btd +sk − Bsk ))
E(Z1{τ =sk } )E(F (Bt1 , · · · , Btd ))
k=0
= E(Z1{τ <+∞} )E(F (Bt1 , · · · , Btd ))
où l’on a utilisé que Z1{τ =sk } est Fsk mesurable et que B est un Ft –brownien.
Dans le cas général, on approche τ par une suite décroissante τn de temps
d’arrêt à valeurs dénombrables, donnée par le lemme. Puisque Fτ est contenu
dans Fτn on a encore
E(Z1{τ <+∞} F (Bt1 +τn − Bτn , · · · , Btd +τn − Bτn )) =
E(Z1{τ <+∞} )E(F (Bt1 , · · · , Btd ))
et on fait tendre n vers l’infini pour conclure, en utilisant la continuité des
trajectoires.
Proposition 3.6.9 (Principe de réflexion). — Soit {Bt , t ≥ 0} un mouvement brownien. Pour a > 0, on pose Ta = inf{t ≥ 0; Bt = a}. Alors
P(Ta ≤ t) = 2P(Bt ≥ a).
2 /2s
La densité de Ta est f (s) = a(2πs3 )−1/2 e−a
+∞.
1R+ (s). En particulier E(Ta ) =
40
CHAPITRE 3. MOUVEMENT BROWNIEN
Preuve: En utilisant la propriété de Markov forte du brownien, on sait que
Wt = Bt+Ta − BTa est un brownien indépendant de FTa donc en particulier
de Ta . On peut donc écrire, puisque BTa = a et en utilisant à l’avant dernière
ligne l’important théorème 4.4.5 que
P(Bt ≥ a) = P(Ta ≤ t, Bt ≥ a)
= P(Ta ≤ t, (Bt − BTa ) + BTa ≥ a)
= P(Ta ≤ t, Wt−Ta ≥ 0)
Z
=
1{s≤t} P(Wt−s ≥ 0)dPTa (s)
1
P(Ta ≤ t).
2
p
On en déduit, avec le changement de variable de x en s où x = a t/s,
Z ∞
Z t
p
2
−x2 /2t
e
dx = a (2πs3 )−1/2 e−a /2s ds.
P(Ta ≤ t) = 2P(Bt ≥ a) = 2/πt
=
a
Donc la densité de Ta est f (s) =
l’espérance.
2
a(2πs3 )−1/2 e−a /2s ,
0
ce qui permet de calculer
On voit donc que, bien que le brownien passe une infinité de fois par tout
les points, il met un temps d’espérance infinie pour atteindre un point donné.
La propriété suivante est assez étonnante !
Corollaire 3.6.10. — La loi de sup0≤s≤t Bs est la même que celle de |Bt |.
Preuve: P(sup0≤s≤t Bs ≥ a) = P(Ta ≤ t) = 2P(Bt ≥ a) = P(|Bt | ≥ a).
3.7. Existence et Simulation du Mouvement brownien
L’ordinateur simule une suite Un de v.a. i.i.d. uniformes sur [0, 1]. (Par
simulation on veut dire qu’il ”tente” de fabriquer ... ) On commence par simuler
des v.a. indépendantes X1 , X2 , · · · de loi gaussienne N (0, 1). Une façon de faire
est de poser
p
Xn = −2 log U2n sin(2πU2n+1 ).
Un intervalle de temps [0, T ] étant donné, on choisit ensuite un pas de
discrétisation h = Tn , où n ∈ N. On simule la trajectoire brownienne aux
instants kT /n, k = 0, 1, · · · , n − 1 en posant B0 = 0 puis par récurrence,
r
T
B(k+1)T /n = BkT /n +
Xk+1 .
n
3.8. CONSTRUCTION DE P. LÉVY DU MOUVEMENT BROWNIEN
41
Il y a une autre méthode de simulation, qui permet de faire éventuellement
un effet de loupe sur un morceau de trajectoire choisi. Expliquons le principe
de cette construction en simulant le mouvement brownien sur [0, 1] par raffinements successifs : A l’étape n on construit le brownien au points 2kn , 0 ≤ k ≤ 2n .
A l’étape 0 on pose B0 = 0 et on choisit pour B1 une v.a. de loi N (0, 1). Une
fois l’étape n achevée, on procède ainsi : on se donne des v.a. ε0 , ε1 , · · · indépendantes entre elles et de ce qui précède, avec εn de loi N (0, 2−n ) et l’on pose,
pour k entier,
B kn + B k+1
2n
B 2k+1 = 2
+ εk .
2
2n+1
On vérifie (cf. la construction de P. Lévy dans la section suivante) que l’on
construit bien ainsi un mouvement brownien sur [0, 1] en passant à la limite
sur l’approximation linéaire. Ceci montre en particulier son existence.
3.8. Construction de P. Lévy du mouvement brownien
Soit {Yk,n ; 0 ≤ k ≤ 2n , n ∈ N} des v.a. indépendantes, toutes de loi
N (0, 1). On construit par récurrence sur n une suite {Xn (t), 0 ≤ t ≤ 1}n∈N∗
de processus tels que :
Xn (t) est linéaire sur chaque intervalle dyadique [2−n k, 2−n (k + 1)],
X0 (0) = 0,
X0 (1) = Y1,0 ,
Xn+1 (2−n k) = Xn (2−n k),
Xn+1 (2−(n+1) (2k + 1)) = Xn (2−(n+1) (2k + 1)) + 2−(n+2)/2 Y2k+1,n+1 .
Pour n fixé, toute combinaison linéaire des Xn (t), 0 ≤ t ≤ 1 est une
combinaison linéaire des Yk,m pour m ≤ n et est donc gaussienne. Montrons
par récurrence sur n que les v.a. Xn (2−n (k+1))−Xn (2−n k), k = 0, 1, · · · 2n −1,
sont indépendantes de loi N (0, 2−n ). Si c’est vrai au rang n, regardons
Xn+1 (2−n−1 (2k + 1)) − Xn+1 (2−n−1 (2k)) =
Xn (2−n (k + 1)) − Xn (2−n k)
+ 2−(n+2)/2 Y2k+1,n+1
2
et
Xn+1 (2−(n+1) (2k + 2)) − Xn+1 (2−(n+1) (2k + 1)) =
Xn (2−n (k + 1)) − Xn (2−n k)
− 2−(n+2)/2 Y2k+1,n+1
2
42
CHAPITRE 3. MOUVEMENT BROWNIEN
La seule chose non évidente est que ces deux v.a. sont indépendantes. Or leur
covariance est
Xn (2−n (k + 1)) − Xn (2−n k)
var(
) − var(2−(n+2)/2 Y2k+1,n+1 ) = 0.
2
Vu la construction de Xn+1 à partir de Xn ,
sup |Xn+1 (t) − Xn (t)| =
0≤t≤1
sup
0≤k≤2n −1
2−(n+2)/2 Y2k+1,n+1
donc
P( sup |Xn+1 (t)−Xn (t)| ≥ 2−n/4 ) = P(
0≤t≤1
P(
(n+4)/4
sup
0≤k≤2n −1
|Y2k+1,n+1 | ≥ 2
n
sup
0≤k≤2n −1
)≤
n −1
2X
2−(n+2)/2 |Y2k+1,n+1 | ≥ 2−n/4 )
P(|Y2k+1,n+1 | ≥ 2(n+4)/4 )
k=0
(n+4)/4
= 2 P(|Y0,0 | ≥ 2
)
Utilisons la majoration, pour a > 0
Z +∞
Z +∞
1
t −t2 /2
1 1 −a2 /2
1
−t2 /2
√
e
dt ≤ √
e
dt ≤ √
e
a
2π a
2π a
2π a
pour voir que
∞
X
P( sup |Xn+1 (t) − Xn (t)| ≥ 2−n/4 ) < +∞
n=0
0≤t≤1
On en déduit, par Borel Cantelli, que, p.s., pour n assez grand,
sup |Xn+1 (t) − Xn (t)| ≤ 2−n/4
0≤t≤1
donc que Xn converge uniformément sur [0, 1]. La limite Xt est donc continue,
c’est un processus gaussien centré continu dont les covariances coı̈ncident avec
celles du brownien sur les dyadiques, donc partout.
3.9. Appendice 1
Donnons une excellente approximation de la fonction de repartition de la
loi normale sous la forme d’un programme C.
// standard normal density function
double ndf(double t)
{
return 0.398942280401433*exp(-t*t/2);
}
3.9. APPENDICE 1
43
// standard normal cumulative distribution function
double nc(double x)
{
double result;
if (x<-7.)
result = ndf(x)/sqrt(1.+x*x);
else if (x>7.)
result = 1. - nc(-x);
else
{
result = 0.2316419;
static double a[5] = {0.31938153,-0.356563782,1.781477937,
-1.821255978,1.330274429};
result=1./(1+result*fabs(x));
result=1-ndf(x)*(result*(a[0]+result*
(a[1]+result*(a[2]+result*(a[3]+result*a[4])))));
if (x<=0.) result=1.-result;
}
return result;
}
CHAPITRE 4
MARTINGALES
4.1. Martingales, définition
Pour T = R ou N on considère (Ω, (Ft )t∈T , P) un espace de probabilité filtré.
Définition 4.1.1. — Une famille de variables aléatoires réelles Mt , t ∈ T , est
une martingale si Mt ∈ L1 , (Mt ) est adapté et
E(Mt |Fs ) = Ms , pour tout 0 ≤ s ≤ t.
Une famille Mt , t ∈ T , est une sous-martingale si Mt ∈ L1 , (Mt ) est adapté et
E(Mt |Fs ) ≥ Ms , pour tout 0 ≤ s ≤ t.
Si M est une (ss)-martingale sur (Ω, (Ft )t∈T , P), ça l’est aussi pour la
filtration naturelle Ft0 = σ(Ms , s ≤ t).
Exemple. Soit X ∈ L1 . On pose Xt = E(X|Ft ). On a, pour s < t,
E(Xt |Fs ) = E(E(X|Ft )|Fs ) = E(X|Fs ) = Xs
et Xt est une martingale.
Proposition 4.1.2. — Soit B un (Ft )–mouvement brownien. Alors,
(i) Bt , t ∈ R+ ;
(ii) Bt2 − t, t ∈ R+ ;
(iii) pour λ ∈ R , exp(λBt −
λ2 t
2 ), t
∈ R+ ;
sont des (Ft )-martingales.
Proposition 4.1.3 (Inégalité de Jensen). — Soit M une martingale
(resp. sous martingale) et φ : R → R une fonction convexe (resp. convexe
croissante). Si φ(Mt ) est intégrable pour tout t ≥ 0, c’est une sous martingale.
46
CHAPITRE 4. MARTINGALES
Preuve: Une fonction convexe est l’enveloppe supérieure d’une famille de
droites : il existe une famille F de fonctions affines (du type x 7→ ax + b) telles
que
φ(x) = sup f (x)
f ∈F
avec de plus chaque f croissante si φ est croissante (c’est évident si ϕ(x) = x+ ,
ou |x| ou x2 , qui sont les cas principaux où on appliquera cette inégalité dans
la suite du cours). Pour tout f ∈ F
E(φ(Mt )|Fs ) ≥ E(f (Mt )|Fs ) = f (E(Mt |Fs )) ≥ f (Ms )
donc E(φ(Mt )|Fs ) ≥ supf ∈F f (Ms ) = φ(Ms ). Exemple : Si M est une martingale |M | est une sous martingale et si X est
une sous martingale, alors X + est une sous martingale.
(n)
Proposition 4.1.4. — Soit {Mt , t ∈ T }, n ∈ N, une suite de (Ft )– martin(n)
gales. Si pour tout t, Mt tend vers Mt dans L1 , ou afortiori dans L2 , alors
Mt , t ∈ T , est une martingale.
Preuve: On utilise que
(n)
(n)
E(|E(Mt |Fs ) − E(Mt |Fs )|) ≤ E(E(|Mt
(n)
− Mt ||Fs )) = ||Mt
− Mt ||1 .
4.2. Martingales à temps discret
Nous allons exposer deux résultats fondamentaux de Doob, indispensables
pour nous. Etant donné un processus M et un temps d’arrêt τ on note M τ le
processus arrété à l’instant τ , défini par :
Mtτ = Mτ ∧t .
Théorème 4.2.1 (d’arrêt). — Soit {Mn , n ∈ N} une (sous) martingale et
τ un temps d’arrêt. Alors M τ est encore une (sous)-martingale.
Preuve: Il suffit d’écrire
τ
Mn+1
− Mnτ = 1{τ >n} (Mn+1 − Mn ).
Le lemme suivant n’est utile que pour les temps d’arrêt à valeurs
dénombrables, c’est à dire rarement dans le cas ”continu” car il n’a d’intérêt
que si P({σ = r}) > 0.
4.2. MARTINGALES À TEMPS DISCRET
47
Lemme 4.2.2. — Si σ est un temps d’arrêt et r un réel fixé, pour toute v.a.
X ≥ 0, p.s.,
1{σ=r} E(X|Fσ ) = 1{σ=r} E(X|Fr ),
Preuve: Puisque {σ = r} ∈ Fσ , il faut montrer que
1{σ=r} E(X|Fσ ) = 1{σ=r} E(X|Fr ),
On utilise la propriété caractéristique de l’espérance conditionnelle 4.4.1 : la
v.a. Z = 1{σ=r} E(X|Fr ) est Fσ -mesurable et pour toute v.a. U positive, Fσ mesurable, puisque U 1{σ=r} est Fr -mesurable,
E(U Z) = E(U 1{σ=r} E(X|Fr )) = E(U 1{σ=r} X)
donc Z = E(1{σ=r} X|Fσ ).
Corollaire 4.2.3. — Soient {Mn , n ∈ N} une (sous) martingale, σ et τ deux
temps d’arrêt à valeurs dans N̄. On suppose que τ est borné. Alors
E(Mτ | Fσ ) ≥ Mτ ∧σ
avec égalité dans le cas d’une martingale.
Preuve: Si τ est borné par la constante r > 0, on peut écrire que, sur {σ = n},
τ
E(Mτ | Fσ ) = E(Mrτ | Fn ) ≥ Mr∧n
= Mτ ∧σ .
Théorème 4.2.4. — Soit Mn , n ∈ N, une sous-martingale positive. Pour
tout a > 0,
1
1
P( max Mk ≥ a) ≤ E(Mn 1{max0≤k≤n Mk ≥a} ) ≤ E(Mn ).
0≤k≤n
a
a
De plus
E( max Mk2 ) ≤ 4E(Mn2 ).
0≤k≤n
Preuve: L’inégalité de droite est évidente car Mn ≥ 0. Pour celle de gauche,
posons σ = inf{k ≥ 0; Mk ≥ a}. On a {σ ≤ n} = {max0≤k≤n Mk ≥ a} donc
E(Mn 1{max0≤k≤n Mk ≥a} ) = E(Mn 1{σ≤n} ) = E(E(Mn |Fσ )1{σ≤n} )
≥ E(Mn∧σ 1{σ≤n} ) ≥ aP(σ ≤ n) = aP( max Mk ≥ a)
0≤k≤n
en appliquant le corollaire. Ensuite
Z ∞
Z
aP( max Mk ≥ a) da ≤
0
0≤k≤n
0
∞
E(Mn ; max Mk ≥ a) da.
0≤k≤n
48
CHAPITRE 4. MARTINGALES
Avec Fubini ceci s’écrit,
Z
Z max0≤k≤n Mk
a da) ≤ E(Mn
E(
max0≤k≤n Mk
da)
0
0
donc
1
E(( max Mk )2 ) ≤ E(Mn max Mk ).
0≤k≤n
0≤k≤n
2
En appliquant Cauchy Schwarz on obtient
1
E(( max Mk )2 ) ≤ E(Mn2 )1/2 E(( max Mk )2 )1/2 ,
0≤k≤n
0≤k≤n
2
P
E((max0≤k≤n Mk )2 ) est fini car majoré par E( nk=0 Mk2 ) on peut donc simplifier par E((max0≤k≤n Mk )2 )1/2 dans l’inégalité précédente, ce qui donne le
résultat. Dans la preuve précédente, en multipliant par ap−2 et en appliquant
l’inégalité de Hölder (c.f. ??) on obtient pour p > 1,
|| max Mk ||p ≤ q||Mn ||p
0≤k≤n
où
p−1
+
q −1
= 1.
4.3. Martingale continue à droite
Si Mt , t ∈ R+ , est un processus à trajectoires continues à droite, on a
sup Mt = lim
sup M kTn .
n→+∞ 0≤k≤2n
0≤t≤T
2
En appliquant le Théorème 4.2.4 à la sous martingale Xk = M kTn et l’égalité
2
{ sup Mt > a} = ∪n∈N { sup M kTn > a}
0≤k≤2n
0≤t≤T
2
on obtient, en passant par P(sup0≤t≤T Mt > a),
Théorème 4.3.1 (Inégalités de Doob). — Soit Mt , t ∈ R+ , une sousmartingale continue à droite positive. Pour tout a > 0,
1
1
P( sup Mt ≥ a) ≤ E(MT 1{sup0≤t≤T Mt ≥a} ) ≤ E(MT )
a
a
0≤t≤T
De plus
E( sup Mt2 ) ≤ 4E(MT2 ).
0≤t≤T
Puisque la valeur absolue d’une martingale est une sous martingale positive,
on en déduit le corollaire absolument fondamental pour la suite :
4.3. MARTINGALE CONTINUE À DROITE
49
Corollaire 4.3.2. — Si M est une martingale continue à droite,
E(|MT |)
P( sup |Mt | ≥ a) ≤
a
0≤t≤T
et
E( sup Mt2 ) ≤ 4E(MT2 ).
0≤t≤T
Déduisons un convergence de théorème de martingales (il en existe d’autres,
par exemple pour les martingales positives).
Théorème 4.3.3. — Une martingale continue à droite (Mt ) telle que
sup E(Mt2 ) < +∞
t≥0
converge p.s. et dans L2 lorsque t → +∞.
Preuve: Puisque Mt2 est une sous martingale, E(Mt2 ) est une fonction croissante. Par hypothèse, elle est bornée. Donc elle converge lorsque t → +∞. On
en déduit que, pour tout ε > 0, il existe N tel que, si s, t ≥ N
E((Mt − Ms )2 ) = E(Mt2 ) − E(Ms2 ) < ε
lorsque s, t → +∞. La suite Mn est donc de Cauchy dans L2 , elle converge
vers une v.a. M∞ . En faisant tendre t → +∞ suivant les entiers on voit, par
Fatou, que
E((M∞ − Ms )2 ) < ε
donc Ms → M∞ dans L2 . Si on applique l’inégalité de Doob à la martingale
Nt = Ms+t − Ms on obtient, pour s > N ,
E(sup(Mt+s − Ms )2 ) ≤ 4E((MT +s − Ms )2 ) ≤ 4ε
t≤T
pour tout T ≥ 0, donc
E(sup(Mt+s − Ms )2 ) ≤ 4ε.
t≥0
Il en résulte en écrivant que
(Mt+s − M∞ )2 ≤ 2(Mt+s − Ms )2 + 2(Ms − M∞ )2
que
E(sup(Mt+s − M∞ )2 ) ≤ 16ε.
t≥0
Il existe donc une sous suite ni telle que, p.s., supt≥0 (Mt+ni − M∞ ) → 0, ce
qui entraı̂ne que Mt → M∞ , p.s. Pour montrer le théorème d’arrêt, nous allons utiliser :
50
CHAPITRE 4. MARTINGALES
Lemme 4.3.4. — Si X ∈ L1 (Ω, A, P), la famille {E(X|F), F sous tribu de A}
est uniformément intégrable.
Preuve: Remarquons d’abord que pour tout ε > 0, il existe α > 0 tel que, si
P(A) < α alors E(|X|1A ) ≤ ε. En effet, par Lebesgue dominé, E(|X|1{|X|≥M } )
tend vers 0 lorsque M → +∞. On choisit M pour lequel E(|X|1{|X|≥M } )) <
ε/2 et ensuite α > 0 tel que αM < ε/2. On a alors
E(|X|1A ) ≤ E(|X|1A 1{|X|≥M } ) + E(|X|1A 1{|X|≤M } )
≤ E(|X|1{|X|≥M } ) + M P(A) ≤ ε.
α−1 E|X|.
Soit R =
On a, pour a > R, P(|E(X|F)| > a) ≤ a−1 E|E(X|F)| ≤
a−1 E|X| < α et
Z
Z
Z
|E(X|F)| dP ≤
E(|X||F) dP =
|X| dP < ε.
{|E(X|F )|>a}
{|E(X|F )|>a}
{|E(X|F )|>a}
Théorème 4.3.5 (d’arrêt). — Soient (Xt , t ∈ R+ ) une sous-martingale
continue à droite, et σ et τ deux temps d’arrêt avec τ borné. Alors Xτ ∈ L1
et Xσ∧τ ≤ E(Xτ | Fσ ), avec égalité si X est une martingale.
Preuve: (a) La suite de temps d’arrêt τn = 2−n ([2n τ ] + 1) décroit vers
τ et Xτn tend vers Xτ , quand n → +∞. Si τ est bornée par K, τn est
borné par K + 1. D’après le corollaire 4.2.3, X +k étant une sous-martingale,
+
| Fτn ). On a alors
Xτ+n ≤ E(XK+1
2n
+
E|Xτn | = 2E(Xτ+n ) − E(Xτn ) ≤ 2E(XK+1
) − E(X0 )
d’où, par le lemme de Fatou, E|Xτ | ≤ lim inf n E|Xτn | < +∞ donc Xτ ∈ L1 .
(b) Soit σn = 2−n ([2n σ] + 1). On suppose d’abord que Xt ≥ 0 pour tout
t ≥ 0. Soit A ∈ Fσ ⊂ Fσn . On a alors, en appliquant le corollaire 4.2.3 à la
sous-martingale X kn , k ∈ N,
2
Xσn ∧τn ≤ E(Xτn |Fσn )
donc
E(1A Xσn ∧τn ) ≤ E(1A Xτn ).
Puisque Xt ≥ 0, |Xσn ∧τn | ≤ E(Xτn |Fσn ) et le lemme montre que les suites
Xσn ∧τn et Xτn sont uniformémént intégrables. Donc Xσn ∧τn et Xτn convergent
vers Xσ∧τ et Xτ dans L1 et E(1A Xσ∧τ ) ≤ E(1A Xτ ).
(c) On revient au cas général. Pour tout a > 0, a + Xt ∨ (−a) est une sousmartingale positive donc, pour tout A ∈ Fσ , E(1A (Xσ∧τ ∨(−a))) ≤ E(1A (Xτ ∨
4.4. FORMULAIRE SUR L’ESPÉRANCE CONDITIONNELLE
51
(−a))). On conclut facilement puisque, lorsque a → +∞, Xτ ∨ (−a) → Xτ et
Xσ∧τ ∨ (−a) → Xσ dans L1 puisque |Xτ ∨ (−a)| ≤ |Xτ .
Corollaire 4.3.6. — Soient (Mt , t ∈ R+ ) une sous-martingale continue à
droite, telle que E(sup0≤t<+∞ |Mt |) < +∞. Pour tous temps d’arrêt σ et τ
E(Mτ |Fσ ) ≥ Mτ ∧σ ,
avec égalité si X est une martingale.
Preuve: En utilisant le théoréme précédent aux temps d’arrêts bornés τ ∧ t
et σ ∧ t, pour tout A ∈ Fσ
E(1A 1{σ≤t} Mτ ∧t ) = E(1A 1{σ≤t} Mσ∧τ ∧t )
car A∩{σ ≤ t} ∈ Fσ∧t . Il suffit alors de faire tendre t vers l’infini en appliquant
le théorème de convergence dominée.
Corollaire 4.3.7. — Soient (Xt , t ∈ R+ ) une (sous) martingale continue à
droite et τ un temps d’arrêt. Alors Xtτ := Xt∧τ est une (sous) martingale.
Preuve: Vu le corollaire précédent, on a, pour s < t, E(Xt∧τ | Fs ) ≥ Xt∧τ ∧s =
Xτ ∧s p.s. Corollaire 4.3.8. — Soit (Xt , t ∈ R+ ) un processus intégrable continu à
droite. Alors Xt est une martingale si et seulement si, pour tout temps d’arrêt
borné τ on a E(Xτ ) = E(X0 ).
Preuve: La nécessité résulte du théorème 4.3.5. Montrons que la condition
est suffisante. Soient s < t et A ∈ Fs . τ = s1A + t1Ac est un temps d’arrêt
borné et l’on E(X0 ) = E(Xτ ) = E(1A Xs ) + E(1Ac Xt ). Mais τ = t est aussi
un temps d’arrêt borné d’où E(X0 ) = E(Xt ) = E(1A Xt ) + E(1Ac Xt ). On en
déduit E(1A Xs ) = E(1A Xt ) i.e. Xt est une martingale. 4.4. Formulaire sur l’espérance conditionnelle
Soit (Ω, A, P) un espace de probabilité et F une sous-tribu de A. L’espérance
conditionnelle E(X|F) d’une variable aléatoire X positive (ou intégrable) n’est
définie que presque surement, on ommetra d’écrire ”p.s.” dans une égalité où
elle apparait.
Théorème 4.4.1 (Propriété caractéristique de l’espérance conditionnelle)
52
CHAPITRE 4. MARTINGALES
Soit X une v.a.r. positive ou intégrable. L’espérance conditionnelle E(X|F)
est la seule (classe de) v.a. Z ayant les deux propriétés suivantes :
(i) Z est F-mesurable ;
(ii) pour toute v.a.r. U , F-mesurable bornée positive,
E(ZU ) = E(XU ).
On utilisera très souvent les inégalités suivantes qui montrent que l’application T : Lp → Lp donnée par T (X) = E(X|F) est continue pour p = 1, 2, ∞.
Proposition 4.4.2 (Continuité de l’espérance conditionelle)
kE(X|F)kL1 ≤ kXkL1 ; kE(X|F)kL2 ≤ kXkL2 ;
Les propriétés suivantes sont faciles à démontrer et essentielles :
Proposition 4.4.3. — Si les expressions ont un sens :
1. E(E(X|F)) = E(X);
2. |E(X|F)| ≤ E(|X||F).
3. Si X est F-mesurable, E(XY |F) = XE(Y |F);
4. Si G est une sous-tribu de F, E(X|G) = E(E(X|F)|G);
5. E(1|F) = 1;
6. E(aX + bY |F) = aE(X|F) + bE(Y |F);
7. Si X ≤ Y , E(X|F) ≤ E(Y |F);
8. |E(XY |F)|2 ≤ E(X 2 |F)E(Y 2 |F).
On a l’analogue des théorèmes de convergence de Beppo Levi, de Fatou, de
Lebesgue :
Proposition 4.4.4. — Soit (Xn ) une suite de v.a.
(Beppo Levi conditionnel) Si 0 ≤ Xn ↑ X, E(Xn |F) → E(X|F), p.s.
(Fatou conditionnel) Si 0 ≤ Xn , E(lim inf Xn |F) ≤ lim inf E(Xn |F),
(Lebesgue conditionnel) Si |Xn | ≤ V où V ∈ L1 et si Xn → X , E(Xn |F) →
E(X|F), p.s. et dans L1 .
4.4. FORMULAIRE SUR L’ESPÉRANCE CONDITIONNELLE
53
Preuve: On commence par montrer Beppo Levi : si 0 ≤ Xn ↑ X la suite
E(Xn |F) est croissante donc a une limite, que nous notons Z. Comme limite
de fonctions F-mesurables Z est F-mesurable. Et pour toute v.a. U positive
et F-mesurable, par le théorème de Beppo Levi classique, appliqué deux fois,
E(U Z) = lim E(U E(Xn |F)) = lim E(U Xn ) = E(U X).
n→+∞
n→+∞
Donc Z = E(X|F) par la propriété caractéristique de l’espérance conditionnelle (Thm 4.4.1). Les autres énoncés s’en déduisent comme dans le cas non
conditionnel et par le fait que
||E(Xn |F) − E(X|F)||1 ≤ ||Xn − X||1
pour la convergence dans L1 . Très souvent les calculs explicites d’espérance conditionnelle utilisent le
théorème suivant :
Théorème 4.4.5. — Soit (T, X) une variable aléatoire à valeurs dans un
espace produit E × F et h : E × F → R mesurable, positive ou bornée. On
suppose que T est B-mesurable et que X est indépendante de B. Alors,
E(h(T, X)|B) = φ(T ) où φ(t) = E(h(t, X)).
On peut encore écrire cette égalité comme
Z
E(h(T, X)|B)(ω) =
h(T (ω), X(ω 0 )) dP(ω 0 ).
Ω
Preuve: On utilise la caractérisation de l’espérance conditionnelle pour montrer que E(h(T, X)|B) est bien la variable aléatoire φ(T ). D’abord, il résulte
du théorème de Fubini que l’application t 7→ E(h(t, X)) est mesurable. Il en
résulte que φ(T ) est σ(T ) mesurable, donc B-mesurable. Ensuite, pour toute
v.a. Z B-mesurable, bornée et positive, p.s.,
Z Z
E(h(T, X)Z)(ω) =
h(T (ω), X(ω 0 ))Z(ω)dP(ω)dP(ω 0 )
d’après le corollaire 2.11.4. Ceci est égal, par Fubini, à
Z Z
Z
0
0
0
h(T (ω), X(ω ))dP(ω ) Z(ω)dP(ω ) = φ(T (ω))Z(ω)dP(ω 0 ) =
= E(φ(T )Z)(ω).
CHAPITRE 5
CROCHET DE MARTINGALES
Afin d’introduire le crochet de martingales, nous allons débuter la construction de l’intégrale stochastique. La construction est naturelle mais il y a pas
mal d’inégalités à contrôler ! Après ce début, et à l’aide du crochet, on pourra
dans le chapitre suivant construire l’intégrale stochastique en toute généralité.
5.1. Cas discret
Soit (Mn , n ∈ N) une (Fn )–martingale sur (Ω, (Fn )n∈N , P). Si Hn , n ∈ N,
est un processus adapté on pose S(H, M )0 = 0 et
S(H, M )n =
n
X
Hk−1 (Mk − Mk−1 ).
k=1
Le lemme simple suivant est la clé des calculs que nous ferons.
Lemme 5.1.1 (Lemme d’orthogonalité). — Si Mn , n ∈ N, est une martingale dans L2 ,
E(Mn2 ) − E(M02 ) =
n
X
E((Mk − Mk−1 )2 ).
k=1
Montrons maintenant un résultat technique (dont la courte démonstration
est due à M.M Belkhiria, étudiant du master),
Proposition 5.1.2. — Soit Mn , n ∈ N, une martingale et Hn , n ∈ N, un
processus adapté borné. Alors S(H, M ) est une martingale et pour tout n ≥ 0,
E(S(H, M )2n ) ≤ k sup Hk2 k2 kMn2 k2 .
k≤p
56
CHAPITRE 5. CROCHET DE MARTINGALES
Preuve: Puisque H est borné, S(H, M )n est intégrable pour tout n. C’est une
martingale car
E(S(H, M )n+1 − S(H, M )n |Fn ) = E(Hn (Mn+1 − Mn )|Fn )
= Hn [E(Mn+1 |Fn ) − Mn ] = 0.
Supposons maintenant que |M | est bornée par c. Par le lemme d’orthogonalité,
puisque S(H, M )0 = 0, en posant Kp = supk≤p Hk2 ,
E(S(H, M )2n ) =
n−1
X
E(Hp2 (Mp+1 − Mp )2 ) ≤
p=0
n−1
X
E(Kp (Mp+1 − Mp )2 ).
p=0
Puisque Kp est Fp mesurable on a
E(Kp Mp Mp+1 )) = E(Kp Mp E(Mp+1 |Fp )) = E(Kp Mp2 )
donc en développant,
2
E(Kp (Mp+1 − Mp )2 ) = E(Kp (Mp+1
− Mp2 )).
On obtient (puisque Kp ≤ Kp+1 )
E(S(H, M )2n ) ≤
n−1
X
2
E(Kp (Mp+1
− Mp2 ))
p=0
≤
n−1
X
2
E(Kp+1 Mp+1
− Kp Mp2 )) = E(Kn Mn2 − K0 M02 )) ≤ E(Kn Mn2 )
p=0
donc, par Cauchy Schwarz,
E(S(H, M )2n ) ≤ k sup Hk2 k2 kMn2 k2 .
k≤p
5.2. Premiers pas, à temps continu
On considère une martingale continue Mt , t ∈ R+ , sur (Ω, (Ft ), P). On
appelle processus (adapté) élémentaire un processus H s’écrivant
Ht =
n−1
X
Hti 1[ti ,ti+1 [ (t)
i=0
où 0 ≤ t0 < t1 · · · < tn et où Hti est une v.a. Fti –mesurable bornée. On note
E l’ensemble de ces processus élémentaires.
5.3. CROCHET COMME VARIATION QUADRATIQUE
57
Proposition 5.2.1. — Pour H ∈ E on pose
Z t
n−1
X
Hs dMs = (H · M )t =
Hti (Mti+1 ∧t − Mti ∧t ).
0
i=0
Alors
(i) H · M est une (Ft )-martingale continue, nulle en 0.
(ii) Si M est bornée par C > 0, pour tout T > 0,
|| sup (H · M )t ||22 ≤ C 2 || sup Ht2 ||2
0≤t≤T
t≤T
Preuve: Puisque M est une martingale, E(Mr |Fs ) = Mr∧s pour tous r, s, ≥ 0.
On en déduit que si 0 ≤ ti ≤ s ≤ t,
E(Hti (Mti+1 ∧t − Mti ∧t )|Fs ) = Hti E(Mti+1 ∧t − Mti ∧t )|Fs )
= Hti (Mti+1 ∧t∧s − Mti ∧t∧s )
= Hti (Mti+1 ∧s − Mti ∧s ).
En utilisant cette relation pour s = ti , on voit maintenant que si 0 ≤ r ≤ ti ≤ t,
E(Hti (Mti+1 ∧t − Mti ∧t )|Fr ) = E(E(Hti (Mti+1 ∧t − Mti ∧t )|Fti )|Fr ) = 0
donc encore
E(Hti (Mti+1 ∧t − Mti ∧t )|Fr ) = Hti (Mti+1 ∧r − Mti ∧r ).
Lorsque t ≤ ti , ceci est trivialement vrai. Donc H · M est une martingale.
Montrons (ii). On regarde la martingale à temps discret Nk = Mtk ∧T et le
processus à temps discret Gk = Htk . Alors
(H · M )T = S(G, N )n
donc par la Proposition 5.1.2, il existe c > 0 tel que
||(H · M )T ||22 ≤ c|| sup Ht2 ||2 .
t≤T
On applique alors l’inégalité de Doob à la martingale H · M .
5.3. Crochet comme variation quadratique
Théorème 5.3.1. — Soit M une martingale continue bornée et 0 = tn0 ≤
tn1 ≤ · · · ≤ tnpn = T une suite de subdivisions de [0, T ] dont le pas tend vers 0.
Alors, la limite
(4)
lim
n→+∞
pX
n −1
(Mtni+1 ∧t − Mtni ∧t )2
i=0
58
CHAPITRE 5. CROCHET DE MARTINGALES
existe dans L2 et définit, pour t ≤ T , un processus croissant continu adapté
noté hM, M it . Il existe une sous suite qui, presque surement, converge unifomément en t ∈ [0, T ]. De plus
Mt2 − hM, M it
est une martingale.
Preuve: L’idée de la preuve est d’anticiper la formule
Z t
Ms dMs
Mt2 − M02 − hM, M it = 2
0
(que l’on ne connait pas encore) en écrivant que
pn−1
Mt2 − M02 −
X
pn−1
(Mtni+1 ∧t − Mtni ∧t )2 = 2
i=0
X
Mtni ∧t (Mtni+1 ∧t − Mtni ∧t )
i=0
pn−1
=2
X
Mtni (Mtni+1 ∧t − Mtni ∧t ).
i=0
Avec
(n)
Mt
=
pX
n −1
Mtni 1[tni ,tni+1 [ (t),
i=0
ceci se réécrit
pn−1
(5)
Mt2 − M02 −
X
(Mtni+1 ∧t − Mtni ∧t )2 = 2
i=1
Z
t
Ms(n) dMs .
0
Posons
(n)
Xt
Z
=
t
Ms(n) dMs .
0
(n)
On sait par la Proposition 5.2.1 que Xt est une martingale. En appliquant
(n)
(m)
cette proposition à la martingale Xt − Xt on voit qu’il existe C > 0 telle
que
(n)
E[ sup (Xt
0≤t≤T
(m) 2
− Xt
) ] ≤ C|| sup (Ms(m) − Ms(n) )2 ||2
0≤s≤T
≤ 2C|| sup (Ms(m) − Ms )2 ||2 + 2C|| sup (Ms(n) − Ms )2 ||2
0≤s≤T
0≤s≤T
(en utilisant (a + b)2 ≤ 2(a2 + b2 )). Par continuité de t 7→ Mt (ω) et donc
uniforme continuité sur [0, T ], et le théorème de convergence dominée, ceci
5.3. CROCHET COMME VARIATION QUADRATIQUE
59
tend vers 0 quand m, n → +∞. Par récurrence construisons une suite d’entiers
nk vérifiant nk ≥ nk−1 et, pour tout ≥ nk
(nk )
E( sup (Xt
0≤t≤T
− Xtm )2 ) ≤ 1/2k .
Alors,
+∞
+∞
X
X
(nk+1 )
(n
)
(nk )
(n )
E(
sup |Xt
− Xt
|) ≤
E( sup |Xt k − Xt k+1 |2 )1/2 < +∞.
k=0 0≤t≤T
0≤t≤T
k=0
Donc
+∞
X
(nk )
sup |Xt
k=0 0≤t≤T
(nk+1 )
− Xt
| < +∞, p.s.
(n )
On en déduit que, presque surement, Xt k converge uniformément sur [0, T ]
(n)
vers un processus Xt qui sera donc continu. Toute la suite Xt converge vers
Xt dans L2 . En particulier X est une martingale. Ceci montre (4) en utilisant
(5) et
hM, M it = Mt2 − M02 − 2Xt .
On a
pn−1
(n)
Mt2 − M02 − 2Xt
=
X
(Mtni+1 ∧t − Mtni ∧t )2
i=0
Donc la suite i 7→
(n)
Mt2n −M02 −2Xtn
i
i
est croissante. Choisissons une subdivision
(m)
qui se raffine, alors c’est encore vrai pour la suite i 7→ Mt2n − M02 − 2Xtn
i
i
m ≥ n, donc par passage à la limite pour la suite
hM, M it(n) =
i
pour
(m)
lim Mt2ni − M02 − 2Xtn
m→+∞
i
La fonction hM, M it est donc croissante. Remarque : La preuve montre que
(6)
lim E[sup(
n→+∞
t≤T
pX
n −1
(Mtni+1 ∧t − Mtni ∧t )2 − hM, M it )2 ] = 0
i=0
Le corollaire suivant résulte de la formule (4) et de la convergence p.s. pour
une sous suite.
Lemme 5.3.2. — Si M est une martingale bornée et τ un temps d’arrêt,
hM τ , M τ it = hM, M it∧τ .
60
CHAPITRE 5. CROCHET DE MARTINGALES
5.4. Martingale locale
Dans ce cours, on se concentre sur les processus continus. C’est pourquoi
on pose :
Définition 5.4.1. — Un processus adapté M tel que M0 = 0 est une martingale locale si il est continu et si il existe une suite croissante τn , n ∈ N, de
temps d’arrêt tendant vers +∞ telle que M τn soit une martingale. On dit que
(τn ) réduit M .
Si M est un processus adapté non nul en 0, on dit que c’est une martingale
locale si Mt − M0 l’est.
Lemme
(i) M
(ii) Il
telle que
5.4.2. — Il y a équivalence entre
est une martingale locale et M0 est intégrable ;
existe une suite croissante (τn ) de temps d’arrêt tendant vers +∞
M τn soit une martingale continue.
Il résulte du théorème d’arrêt que :
Théorème 5.4.3. — Une martingale locale arrêtée est une martingale locale.
Lemme 5.4.4. — La somme de deux martingales locales est une martingale
locale.
Preuve: Si (τn ) réduit la martingale locale M et (σn ) réduit la martingale
locale N , alors σn ∧ τn réduit M + N .
Très souvent on utilisera :
Proposition 5.4.5. — Si M est une martingale locale nulle en 0, et si
Tn = inf{t ≥ 0; |Mt | = n}
alors M Tn est une martingale bornée.
Preuve: Si (τk ) réduit M , M τk est une martingale donc par le théorème
d’arrêt, M τk ∧Tn est une martingale. Pour tout t ≥ 0, quand k → +∞, Mtτk ∧Tn
tend vers MtTn dans L1 par convergence dominée (puisque |Mtτk ∧Tn | ≤ n).
Donc M Tn est une martingale.
Théorème 5.4.6. — Une martingale locale M telle que sup0≤s≤t |Ms | est
dans L1 pour tout t ≥ 0 est une martingale.
5.4. MARTINGALE LOCALE
61
Preuve: Il suffit d’utiliser qu’une limite dans L1 de martingales est une
martingale (Proposition 4.1.4) et le théorème de convergence dominée.
Par contre l’uniforme intégrabilité ne suffit pas. L’exemple classique est
Mt = 1/||Bt+1 || où B est le brownien dans R3 : on verra que c’est une
martingale locale avec la formule d’Ito, par calcul E(Mt2 ) est uniformément
5/2
borné (et même E(Mt ) ) et pourtant
1
E(1/||B1 ||)
E(Mt ) = E(1/||Bt+1 ||) = √
t+1
n’est pas constant.
5.4.1. Crochet d’une martingale locale. — Considérons une martingale
locale M , nulle en 0, et Tn = inf{t ≥ 0; |Mt | = n}. Il résulte du corollaire 5.3.2
que si n ≤ m alors
hM Tn , M Tn it = hM Tm , M Tm it
si t ≤ Tn . On peut donc définir sans ambiguité hM, M i en posant
hM, M it = hM Tn , M Tn it , pour tout n tel que Tn ≥ t.
On aura
hM τ , M τ it = hM, M it∧τ
2
On remarque que, puisque Mt∧τ
− hM, M it∧τn est une martingale,
n
Proposition 5.4.7. — Si M est une martingale locale, le processus hM, M it
est continu, adapté et
Mt2 − hM, M it , t ≥ 0,
est une martingale locale.
Le théorème suivant est très important.
Théorème 5.4.8. — Soit M une martingale locale nulle en 0. Alors les
conditions suivantes sont équivalentes :
(i) pour tout t ≥ 0, hM, M it ∈ L1 ;
(ii) M est une martingale de carré intégrable.
Sous ces conditions, Mt2 − hM, M it est une martingale.
Preuve: Supposons (i). On peut réduire M avec Tn = inf{t; |Mt | = n}. Alors
(n)
Nt
= (MtTn )2 − hM Tn , M Tn it
(n)
est une martingale (cf. Théorème 5.3.1). Donc E(Nt ) = 0 c’est à dire
(7)
E(MT2n ∧t ) = E(hM, M iTn ∧t ).
62
CHAPITRE 5. CROCHET DE MARTINGALES
En particulier
E(MT2n ∧t ) ≤ E(hM, M it )
ce qui assure que la suite MTn ∧t , n ∈ N, est uniformément intégrable. Donc
MtTn tend vers Mt dans L1 et Mt est une martingale comme limite dans L1
de martingales. Par Fatou
E(Mt2 ) ≤ lim inf E(MT2n ∧t ) ≤ lim inf E(hM, M iTn ∧t ) = E(hM, M it ) < +∞.
n→+∞
n→+∞
Donc Mt est de carré intégrable. Ce qui montre (ii). Dans ce cas, par Doob
sup0≤s≤t Ms2 est dans L1 . La martingale locale Mt2 − hM, M it est majorée en
valeur absolue pour t ∈ [0, T ] par hM, M iT + sup0≤t≤T Mt2 . C’est donc une
vraie martingale par le théorème 5.4.6.
Supposons maintenant (ii) donc que Mt est une martingale de carré
intégrable. Alors, par Doob,
E( sup Mt2 ) ≤ 4E(MT2 )
0≤t≤T
donc, puisque
M Tn
est bornée,
E(hM Tn , M Tn iT ) = E(MT2n ∧T ) ≤ 4E(MT2 )
et
E(hM, M iT ) ≤ 4E(MT2 ) < +∞. Proposition 5.4.9. — Soit Mt une martingale locale nulle en 0 et
hM, M i∞ = lim hM, M it .
t→+∞
Alors
E(sup Mt2 ) ≤ 4E(hM, M i∞ ).
t≥0
Si ces quantités sont finies, Mt est une martingale, elle converge p.s. et dans
L2 vers une v.a. M∞ quand t → +∞ et pour tous temps d’arrêts σ, τ
E(Mτ |Fσ ) = Mτ ∧σ .
Preuve: Soit (τn ) une suite de temps d’arrêt bornant M . Par Doob, pour tout
T > 0,
E(sup(Mtτn )2 ) ≤ 4E((MTτn )2 ) = 4E(hM τn , M τn iT ) ≤ 4E(hM, M i∞ )
t≤T
On peut appliquer deux fois le théorème de convergence monotone, en faisant
tendre T puis n vers l’infini, pour obtenir
E(sup Mt2 ) ≤ 4E(hM, M i∞ ).
t≥0
5.5. PROCESSUS À VARIATION FINIE
63
Si cette quantité est finie, Mt est une martingale convergente p.s. par le
théorème de convergence 4.3.3. Par le théorème d’arrêt,
E(Mτ ∧n |Fσ ) = Mτ ∧n∧σ .
et on peut appliquer le théorème de convergence dominée pour l’espérance
conditionnelle (ou la continuité dans L2 ) pour faire tendre n vers l’infini. Attention : si M est une vraie martingale, E(Mt2 ) = E(hM, M it ), donc
sup E(Mt2 ) = E(hM, M i∞ ).
t≥0
Si par contre M est seulement une martingale locale ceci peut être faux, comme
le montre le contre exemple de la fin de la section précédente Mt = 1/||Bt+1 ||
où B est le brownien de R3 (dans ce cas E(hM, M i∞ ) = +∞ car M n’est pas
une martingale).
Insistons, l’inégalité de Doob sous la forme
E(sup Mt2 ) ≤ 4E(MT2 )
t≤T
est fausse pour la martingale locale Mt = 1/||Bt+1 ||.
5.5. Processus à variation finie
Définition 5.5.1. — On appelle processus (sous entendu adapté continu) à
variation finie la différence de deux processus croissants continus adaptés.
Si At = Ut − Vt est à variation finie avec U et V croissants, pour toute
subdivision 0 = t0 < t1 < · · · < tn = T ,
(8)
n
X
i=1
|Ati − Ati−1 | ≤
n
X
i=1
|Uti − Uti−1 | +
n
X
|Vti − Vti−1 | ≤ UT − U0 + VT − V0 .
i=1
Il y a une réciproque à cette propriété, mais nous ne l’utiliserons pas.
L’exemple typique de processus à variation finie est donné par la primitive
Rt
At = 0 Rs ds d’un processus Rt localement intégrable progressif (par exemple
Rt
Rt
continu adapté) : en effet il suffit de prendre Ut = 0 Rs+ ds et Vs = 0 Rs− ds.
Si A est nul en 0 on prendra U et V nuls en 0.
Proposition 5.5.2. — Une martingale locale (continue) nulle en 0 à variation finie est nulle.
64
CHAPITRE 5. CROCHET DE MARTINGALES
Preuve: Ecrivons Mt = Ut − Vt avec U, V croissants continus adaptés. Soit
τk = inf{t ≥ 0; Ut + Vt ≥ k} et 0 = tn0 < tn1 < · · · < tnpn = T une suite de
subdivisions de [0, T ] dont le pas tend vers 0. Alors, en appliquant le lemme
d’orthogonalité 5.1.1 à la martingale N = M τk ,
pn
X
E(MT2 ∧τk ) = E( (Ntni − Ntni−1 )2 )
i=1
≤ E(sup |N
tn
j
j
−N
tn
j−1
|
pn
X
|Ntni − Ntni−1 |)
i=1
≤ E(sup |Ntnj − Ntnj−1 |(UT ∧τk + VT ∧τk ))
j
≤ kE(sup |Ntnj − Ntnj−1 ]) → 0,
j
donc MT = 0.
Corollaire 5.5.3. — Si M est une martingale locale, hM, M i est l’unique
processus croissant adapté At nul en 0 tel que Mt2 − At soit une martingale
locale.
5.6. Crochet de deux martingales locales
Considérons deux martingales locales M et N . Le ”crochet” de M et N est
défini par
1
hM, N it = [hM + N, M + N it − hM − N, M − N it ]
4
Exactement comme au dessus on voit que
Proposition 5.6.1. — hM, N i est le seul processus (continu adapté) à variation finie, nul en 0, tel que M N − hM, N i soit une martingale locale.
Si M et N sont bornés, il résulte de la formule (4) du théorème 5.3.1 que
si 0 = tn0 < tn1 < · · · < tnpn = T sont des subdivisions dont le pas tend vers 0.
Alors
(9)
hM, N iT = lim
On en déduit :
n→+∞
pn
X
i=1
(Mtni − Mtni−1 )(Ntni − Ntni−1 )
5.6. CROCHET DE DEUX MARTINGALES LOCALES
65
Théorème 5.6.2. — Si M et N sont deux martingales locales, et τ un temps
d’arrêt, alors
hM τ , N i = hM, N τ i = hM τ , N τ i = hM, N iτ .
Preuve: Ecrire (après avoir borné par localisation) que
hM τ , N iT = lim
n→+∞
pn
X
(Mtni ∧τ − Mtni−1 ∧τ )(Ntni − Ntni−1 )
i=1
et que
X
i=1
=
X
+
X
+
.
i;tn
i−1 ≥τ
n
i;tn
i−1 ≤τ ≤ti
i;tn
i ≤τ
X
La somme du milieu ne comporte qu’un seul terme et tend donc vers 0, les
autres sont les mêmes si on remplace Ntni − Ntni−1 par Ntni ∧τ − Ntni−1 ∧τ . Le
résultat suivant serait aussi vrai pour des martingales (cf TD),
Proposition 5.6.3. — Si Bt , t ≥ 0, et Bt0 , t ≥ 0, sont deux Ft -browniens
indépendants, alors hB, B 0 it = 0.
Preuve: En appliquant la proposition 3.4.2, on voit que Wt =
mouvement brownien. On en déduit que
Bt +Bt0
√
2
est un
1
t = hW, W it = (hB, Bit + 2hB, B 0 it + hB 0 , B 0 it ) = t + hB, B 0 it
2
donc hB, B 0 i = 0. Considérons un processus croissant continu A sur R+ . Pour chaque ω ∈ Ω,
définissons une mesure mA(ω) sur R+ on posant
mA(ω) ([s, t]) = At (ω) − As (ω).
Pour simplifier, on notera
Z t
Z t
f (s) dmA(ω) (s) =
f (s) dAs (ω)
0
0
si f est borélienne positive ou bornée, et la plupart du temps on n’écrit pas ω.
Si A maintenant est un processus à variation finie, donc s’écrivant At = Ut −Vt
où U et V sont des processus croissants, on posera
Z t
Z t
Z t
f (s) dAs =
f (s) dUs −
f (s) dVs .
0
0
0
66
CHAPITRE 5. CROCHET DE MARTINGALES
Le seul cas que l’on rencontrera souvent est celui où A est une primitive :
Rt
At = 0 Rs ds. Alors
Z t
Z t
f (s) dA(s) =
f (s)Rs ds.
0
0
Le lemme suivant sera considérablement renforcé au théorème 6.1.8.
Lemme 5.6.4. — Pour H ∈ E, si M et N sont des martingales locales,
Z T
Hs dhM, N is .
hH · M, N iT =
0
Preuve: Par linéarité, il suffit de considérer le cas où Ht = Z1[a,b[ (t), avec
b ≤ T , où Z est Fa –mesurable, bornée. Par localisation, il suffit de considérer
le cas où M et N sont bornées. On a alors
E((H · M )T NT ) = E(Z(Mb − Ma )NT ),
or
E(Z(Mb − Ma )NT ) = E(ZMb Nb ) − E(ZMa Na )
= E(Z[(Mb Nb −hM, N ib )−(Ma Na −hM, N ia )])+E(ZhM, N ib )−E(ZhM, N ia )
= E(ZhM, N ib ) − E(ZhM, N ia )
car M N − hM, N i est une martingale, donc,
Z
E((H · M )T NT ) = E(Z(hM, N ib − hM, N ia )) = E(
t
Hs dhM, N is ).
0
Pour tout temps d’arrêt τ borné par T , en remplaçant M et N par M τ et N τ
on a encore
Z τ
E((H · M )τ Nτ ) = E(
Hs dhM, N is )
0
ce qui montre que (H · M )t Nt −
corollaire 4.3.8). Rt
0
Hs dhM, N is est une martingale (par le
Le résultat suivant est déterministe.
P
Lemme 5.6.5. — Soit H une fonction qui s’écrit Ht = n−1
i=0 Hti 1[ti ,ti+1 [ (t)
où Hti est un réel. Alors
Z t
Z t
2
( Hs dhM, N is ) ≤ hN, N it
Hs2 dhM, M is .
0
0
5.6. CROCHET DE DEUX MARTINGALES LOCALES
67
Preuve: On écrit que hλM + N, λM + N it est une fonction croissante de t,
on en déduit que, si s ≤ t,
(hM, N it − hM, N is )2 ≤ (hM, M it − hM, M is )(hN, N it − hN, N is )
qui s’écrit aussi
Z t
Z t
Z t
dhN, N iu .
dhM, M iu
( dhM, N iu )2 ≤
s
s
s
On en déduit que
Z t
n Z
X
Hs dhM, N is | = |
|
0
≤
≤
n
X
Z
|Hti |[
i=1
ti+1 ∧t
dhM, N is |
|Hti
ti ∧t
i=1
ti+1 ∧t
1/2
dhM, M is ]
ti ∧t
ti+1 ∧t
Z
[
dhN, N is ]1/2 .
ti ∧t
P
a2i )( b2i ) (Cauchy Schwarz) donc
Z ti+1 ∧t
Z t
n
n Z
X
X
Ht2i
dhM, M is ][
( Hs dhM, N is )2 ≤ [
Or (
P
ai bi
)2
Z
Hs dhM, N is |
ti ∧t
i=1
n
X
ti+1 ∧t
≤(
P
0
i=1
ti ∧t
i=1
ti+1 ∧t
dhN, N is ]
ti ∧t
c’est à dire
Z t
Z t
Z t
2
2
( Hs dhM, N is ) ≤
Hs dhM, M is
dhN, N is . 0
0
0
En utilisant par exemple la proposition 6.1.7, on voit, en utilisant la densité
dans L2 (R, ddhM, M i) à fixé, que
Proposition 5.6.6 (Kunita Watanabe). — L’application qui à Ht =
Rt
Pn−1
Hs dhM, N is se prolonge par continuité à tout
i=0 Hti 1[ti ,ti+1 [ (t) associe 0 R
t
processus mesurable H tel que 0 Hs2 dhM, M iu < ∞ et si on note de la même
façon ce prolongement, il vérifie encore
Z t
Z t
Hs2 dhM, M is .
( Hs dhM, N is )2 ≤ hN, N it
0
0
CHAPITRE 6
INTÉGRALE STOCHASTIQUE
6.1. Cas d’une martingale de carré intégrable
Sur un espace (Ω, (Ft ), P) on considère une martingale continue Mt de
carré intégrable (c’est à dire telle que Mt ∈ L2 pour tout t ≥ 0). Rappelons
(Théorème 5.4.8) qu’alors hM, M it ∈ L1 et que
Mt2 − hM, M it
est une martingale. Dans la suite on fixe un T > 0.
Définition 6.1.1. — On note HT2 l’espace des martingales dans L2 (Ω, (Ft ), P)
presque surement continues Mt , 0 ≤ t ≤ T , telles que M0 = 0, muni du produit
scalaire
(M, N )H2 = E(MT NT ) = E(hM, M iT ).
T
Remarquons que si M, N ∈ HT2 , alors M + N et M − N sont dans HT2 et
que M N − hM, M i est une martingale.
On identifiera deux martingales égales p.s. dans la proposition suivante.
Proposition 6.1.2. — HT2 est un espace de Hilbert.
Preuve: Il faut montrer que HT2 est complet. Considérons une suite de Cauchy
(n)
M (n) . Alors MT est une suite de Cauchy dans L2 (Ω, F, P), qui est complet.
Il existe donc une variable aléatoire, que nous noterons MT , dans L2 (Ω, F, P)
telle que
(n)
E((MT − MT )2 ) → 0
70
CHAPITRE 6. INTÉGRALE STOCHASTIQUE
quand n → +∞. Posons, pour tout t ≤ T , Mt = E(MT |Ft ). Il est clair que
(Mt ) est une martingale, et par continuité dans L2 de l’espérance condition(n)
nelle, que Mt → Mt dans L2 . Par Doob
(n)
(m)
E( sup (Ms(n) − Ms(m) )2 ) ≤ 4E((MT − MT )2 )
0≤t≤T
tend vers 0 quand n, m → +∞. On peut extraire une sous suite nk telle que
(n )
Mt k converge uniformément. La limite sera donc continue. Or cette limite
est nécessairement Mt . Ceci montre que Mt est une martingale continue. Donc
(n)
M ∈ HT2 et ||M (n) − M ||2H2 = E((MT − MT )2 ) → 0.
T
Définition 6.1.3. — Etant donnée une martingale M on note L2 (M )T l’enRT
semble des processus progressifs H tels que E( 0 Hs2 dhM, M is ) < ∞ muni du
produit scalaire
Z T
Hs Ks dhM, M is ).
(H, K)L2 (M )T = E(
0
Proposition 6.1.4. — E est dense dans L2 (M )T .
Preuve: Remarquons que L2 (M )T est un sous espace fermé de l’espace L2 (Ω×
[0, T ], FT ⊗ B([0, T ]), m) où m est la mesure définie par, si A ∈ FT ⊗ B([0, T ]),
Z T
m(A) = E(
1A (ω, s)dhM, M is (ω))
0
C’est donc un espace de Hilbert. Il suffit donc de montrer que si K ∈ L2 (M )T
est orthogonal à E alors il est nul (cf. Corollaire 2.3.8). Posons, pour un tel K,
Z t
Xt =
Ks dhM, M is .
0
Montrons que Xt est une martingale : Par l’inégalité de Kunita Watanabe
(Proposition 5.6.6),
Z t
Z t
1/2
|Ks | dhM, M is ≤ hM, M it ( Ks2 dhM, M is )1/2
0
0
on voit, après avoir appliqué Cauchy Schwarz, que
Z t
Z t
2
(10)
[E( |Ks | dhM, M is )] ≤ E(hM, M it )E(
Ks2 dhM, M is ) < +∞.
0
0
Donc Xt ∈ L1 . Soit Z une v.a. Fs –mesurable bornée. Pour 0 ≤ s ≤ t ≤ T ,
le processus Hr = Z1[s,t[ (r) est dans E donc, par hypothèse, orthogonal à K,
6.1. CAS D’UNE MARTINGALE DE CARRÉ INTÉGRABLE
71
donc
Z
0 = E(
T
Z
Hr Kr dhM, M ir ) = E(Z
0
t
Kr dhM, M ir ) = E(Z(Xt − Xs )).
s
Ceci entraı̂ne que X est une martingale. Comme elle est à variation finie, elle
est nulle par la Proposition 5.5.2. Donc, p.s.
Z t
Ks dhM, M is = 0
0
pour tout s > 0, ce qui entraı̂ne (par densité des combinaisons linéaires de
fonctions indicatrices 1[0,s] , ou classe monotone) que, pour presque tout ω ∈ Ω,
s 7→ Ks (ω) est nul dhM, M is (ω) presque partout, donc que K est nul dans
L2 (M )T . P
Rappelons maintenant que lorsque H =
Hti 1[ti ,ti+1 [ ∈ E et M est une
martingale, on a défini l’intégrale stochastique
X
(H · M )t =
Hti (Mti+1 ∧t − Mti ∧t )
Lemme 6.1.5. — Si H ∈ E et M est une martingale de carré intégrable,
Z T
Hs2 dhM, M is ).
E(H · M )2T = E(
0
Preuve: Il suffit d’appliquer deux fois le lemme 5.6.4 :
dhH · M, H · M i = HdhM, H · M i = H 2 dhM, M i.
Théorème 6.1.6. — L’intégrale stochastique par rapport à M se prolonge en
Rt
une isométrie de L2 (M )T dans HT2 . On note encore H · M ou 0 Hs dMs , 0 ≤
t ≤ T, l’image de H ∈ L2 (M )T .
Preuve: Considérons l’application
IM : E 7→ HT2
définie par IM (H) = H ·M . Le lemme précédent montre que c’est une isométrie
de E, considéré comme sous espace de L2 (M )T , dans HT2 . Comme E est dense
et HT2 complet, on peut prolonger cette isométrie à HT2 tout entier. En effet,
on a le résultat général suivant :
Proposition 6.1.7. — On considère deux espaces métriques (F1 , d1 ) et
(F2 , d2 ), D une partie dense de F1 et φ : D 7→ F2 une application pour laquelle
il existe c > 0 tel que
(11)
d2 (φ(x), φ(y)) ≤ cd1 (x, y)
72
CHAPITRE 6. INTÉGRALE STOCHASTIQUE
pour tous x, y ∈ D. Si (F2 , d2 ) est complet, l’application φ se prolonge à F1
tout entier en une application vérifiant (11) partout.
Preuve: En effet, par densité, pour tout x ∈ F1 , il existe une suite xn ∈ D
tendant vers x. La suite (xn ) est de Cauchy pour d1 puisqu’elle converge.
L’inégalité (11) montre que φ(xn ) est une suite de Cauchy dans (F2 , d2 ).
Comme cet espace est complet, φ(xn ) converge. Il suffit de poser φ(x) =
lim φ(xn ). Le théorème suivant est fondamental.
Théorème 6.1.8 (Propriété caractéristique). — Pour H ∈ L2 (M )T ,
(H · M )t , t ≤ T, est la seule martingale de HT2 , nulle en 0, vérifiant
Z T
Hs dhM, N is ,
hH · M, N iT =
0
pour tout N ∈ HT2 .
Preuve: Lorsque H ∈ E la relation est donnée par le lemme le lemme 5.6.4.
Pour traiter le cas général d’un H dans L2 (M )T , approchons le par une suite
H n ∈ E. Par construction de l’intégrale stochastique, Hn · M tend vers H · M
dans HT2 . L’application linéaire
M ∈ HT2 7→ hM, N iT ∈ L1
est continue par Kunita Watanabe (Proposition 5.6.6 appliquée à H = 1),
donc, dans L1 ,
Z T
Z T
hH·M, N iT = lim hH n ·M, N iT = lim
Hsn dhM, N is =
Hs dhM, N is ,
n→+∞
n→+∞ 0
0
puisque en utilisant à nouveau Kunita Watanabe
Z T
Z T
[E|
(Hsn − Hs ) dhM, N is |]2 ≤ EhN, N iT E
(Hsn − Hs )2 dhM, M is .
0
0
Reste l’unicité : si X est une martingale nulle en 0, telle que pour tout N ,
hX, N iT = hH · M, N iT ,
alors, en prenant N = X − H · M , on a hX − H · M, X − H · M i = 0 donc
X = H.M . Une autre façon d’écrire cette relation est
dhH · M, N it = Ht dhM, N it
c’est à dire que, pour chaque ω fixé, la mesure dhH · M, N it a la densité Ht
par rapport à la mesure dhM, N it .
6.2. CAS D’UNE MARTINGALE LOCALE.
73
Corollaire 6.1.9. — Pour toutes martingales M, N dans HT2 , H ∈ L2 (M )T
et K ∈ L2 (N )T
Z T
Hs Ks dhM, N is .
hH · M, K · N iT =
0
Théorème 6.1.10. — Pour H ∈ L2 (M )T , pour tout temps d’arrêt τ ,
(H · M )τ = H · M τ = H1[0,τ [ · M.
De plus, K ∈ L2 (H · M )T si et seulement si KH ∈ L2 (M )T et alors (associativité de l’intégrale stochastique)
(KH) · M = K · (H · M ).
Preuve: Pour l’arrêt, on utilise la propriété caractéristique. Par le théorème
5.6.2 pour tout N ∈ HT2 , et
Z T
τ
τ
h(H · M ) , N iT = h(H · M ), N iT =
Hs dhM, N iτs
0
Z
T
Hs d hM τ , N is = hH · M τ , N iT
=
0
et
Z
τ
h(H · M ) , N iT =
T
H1[0,τ [ dhM, N is = hH1[0,τ [ · M, N iT .
0
Pour l’associativité : d’abord
Z T
Z
2
E(
Ks dh(H · M ), (H · M )is ) = E(
0
T
Ks2 Hs2 dhM, M is ).
0
Par ailleurs
Z
h(KH)·M, N iT =
T
Z
Ks Hs d hM, N is =
0
T
Ks hH·M, N is = hK·(H·M ), N iT .
0
6.2. Cas d’une martingale locale.
Soit M une martingale locale.
Définition 6.2.1. — On note L0 (M ) l’ensemble des processus progressifs H
tels que, pour tout t > 0,
Z t
Hs2 dhM, M is < +∞, p.s.
0
74
CHAPITRE 6. INTÉGRALE STOCHASTIQUE
Les processus adaptés ”raisonnables” sont dans L0 (M ), par exemple (en
utilisant le lemme 3.6.2)
Proposition 6.2.2. — Si Xt est un processus adapté continu et τ ≤ +∞ un
temps d’arrêt alors
Ht = Xt 1[0,τ [ (t)
est dans L0 (M ).
Tout processus adapté continu, et même seulement càd-làg, est dans L0 (M ).
Soit H ∈ L0 (M ). La suite
Z t
τn = inf{t ≥ 0; (1 + Hs2 )dhM, M is ≥ n}
0
est formée de temps d’arrêt et croı̂t vers +∞. Puisque
Z T
τn
τn
Hs2 dhM τn , M τn is ≤ n,
hM , M it ≤ n et
0
est une vraie martingale de HT2 et que H est dans L2 (M τn )T .
on voit que
Considérons H · M τn . Pour m ≥ n,
M τn
(H · M τm )τn = H · (M τm )τn = H · M τm ∧τn = H · M τn .
On peut donc poser, sans ambiguı̈té,
(H · M )t = (H · M τn )t , pour tout n tel que τn ≥ t.
On utilisera aussi la notation
Z
(H · M )t =
t
Hs dMs .
0
Théorème 6.2.3 (Propriété caractéristique). — Pour H ∈ L0 (M ), H ·
M est l’unique martingale locale, nulle en 0, telle que, pour toute martingale
locale N
Z
T
hH · M, N iT =
Hs dhM, N is ,
0
Preuve: facile.
Corollaire 6.2.4. — Pour H, K ∈ L0 (M ), pour tout temps d’arrêt τ ,
(H · M )τ = H · M τ = H1[0,τ [ · M et (HK) · M = H · (K · M ).
6.3. SEMIMARTINGALES
75
Corollaire 6.2.5 (Kunita Watanabe 2). — Pour H ∈ L0 (M ), K ∈
L0 (N ),
Z t
Z t
Z t
Ks2 dhN, N is .
Hs2 dhM, M is
( Hs Ks dhM, N is )2 ≤
0
0
0
6.3. Semimartingales
On se fixe (Ω, F, (Ft ), P).
Définition 6.3.1. — On appelle semimartingale (sous entendu continue) un
processus adapté Xt s’écrivant
Xt = X0 + Mt + Vt
où M est une martingale locale et V un processus à variation finie, nuls en 0,
continus adaptés et X0 est F0 -mesurable.
Vu la Proposition 5.5.2, cette décomposition est unique. On l’appelle la
décomposition canonique.
Définition 6.3.2. — Le crochet de 2 semimartingales Xt = X0 + Mt +
Vt , Yt = Y0 + Nt + Ut où M et N sont les parties martingales locales, est
par définition
hX, Y i = hM, N i.
L’exemple fondamental de semimartingale (mais ce n’est pas le seul, penser
au sup du brownien St = max0≤s≤t Bs ) est donné par les processus d’Ito : on
considère un Ft –mouvement brownien B = (B (1) , · · · , B (d) ) à valeurs dans Rd
issu de 0 ; par définition,
Définition 6.3.3. — Un Ft –mouvement brownien B = (B (1) , · · · , B (d) ) à
valeurs dans Rd est un processus continu tel que Bt+s − Bt , s ≥ 0, est
indépendant de Ft et dont les composantes sont des browniens indépendants.
Définition 6.3.4. — On appelle processus d’Itô réel tout processus Xt de la
forme
Z t
d Z t
X
k
k
(12)
Xt = X0 +
φs dBs +
αs ds
k=1
0
0
où X0 ∈ F0 , où φk et α sont des processus progressifs réels tels que, pour tout
RtP
Rt
t > 0, 0 (φks )2 ds + 0 |αs | ds < +∞ p.s.
76
CHAPITRE 6. INTÉGRALE STOCHASTIQUE
Un processus d’Ito multidimensionnel est un processus dont les composantes sont des processus d’Ito réels (par rapport au même Ft –brownien dRt
PRt k
dimensionnel B). Soient Xt = X0 +
φ dB k + 0 αs ds et Yt = Y0 +
0
Rt
PRt k
k
0 ψ dB + 0 βs ds les composantes d’un processus d’Itô de dimension 2.
On a
d Z t
X
(13)
hX, Y it =
φks ψsk ds.
k=1
0
6.3.1. Intégration par rapport à une semimartingale. — Soit Xt =
X0 + Mt + A1t − A2t une semimartingale où A1 et A2 sont croissants. On note
L0 (X), l’ensemble des processus progressifs U tels que, pour tout t > 0,
Z t
Z t
2
Us dhMs , Ms i +
|Us | d(A1s + A2s ) < +∞, p.s.
0
0
Par exemple tout processus adapté continu par morceaux est dans L0 (X).
Pour U ∈ L0 (X), on définit :
Z t
Z t
Z t
Z t
1
(U · X)t =
Us dXs =
Us dMs +
Us dAs −
Us dA2s .
0
0
0
0
On vérifie facilement que :
Proposition 6.3.5. — Si X, Y sont des semimartingales, pour H ∈ L0 (X),
pour tout temps d’arrêt τ ,
(H · X)τ = H · X τ ),
si K ∈ L0 (H.X),
(KH) · X = K · (H · X),
Z t
hH · X, K · Y it =
Hs Ks dhX, Y is .
0
Théorème 6.3.6 (de convergence dominée pour l’I.S.)
Soit K, H ∈ L0 (X) et H (n) une suite de processus progressifs telle que ;
(n)
(n)
pour tout t ≥ 0, Ht → Ht p.s. quand n → +∞ et |Ht | ≤ Kt . Alors, en
probabilité
Z t
Z t
(n)
sup |
Hs dXs −
Hs dXs | → 0.
0≤t≤T
0
0
6.3. SEMIMARTINGALES
77
Preuve: Si Xt = X0 + Mt + At est la décomposition canonique de X.
L’intégrale par rapport à A se traite avec le théorème de Lebesgue classique.
Pour la partie M , appliquons la technique fondamentale : la localisation.
Etape 1 : Localisation et convergence L2 . Soit τk la suite croissante vers
+∞ de temps d’arrêt, définie par
τk = inf{t ≥ 0; |Mt | + hK · M, K · M it = k}
alors par Doob
Z
Z t
Z t
τk 2
(n)
τk
E[ sup ( Hs dMs − Hs dMs ) ] ≤ 4E[(
0≤t≤T
Z
Z
= 4E[(
τk ∧T
T
Hs(n) dMsτk −
Hs dMsτk )2 ]
0
0
0
0
T
(Hs(n) − Hs )2 dhM, M is ].
0
R τ ∧T (n)
(n)
Par Lebesgue dominé (puisque (Hs − Hs )2 ≤ 4Ks2 ) on voit que 0 k (Hs −
Hs )2 dhM, M i → 0 quand n → +∞, et puisque cette quantité est bornée (par
2k) son espérance tend vers 0 à nouveau par Lebesgue dominé.
Etape 2 : Convergence en probabilité :Soit ε > 0
Z t
Z t
Hs dMs )2 > ε)
P( sup ( Hs(n) dMs −
0≤t≤T
0
0
Z t
Z t
Hs dMsτk )2 > ε, τk > t) + P(τk ≤ t)
≤ P( sup ( Hs(n) dMsτk −
0≤t≤T
0
0
etc... tend vers 0.
Proposition 6.3.7. — Soit X une semimartingale et U un processus adapté
continu. Soit 0 = tn0 ≤ tn1 ≤ . . . ≤ tnpn = T, une suite de subdivisions dont le
pas tend vers 0. Alors
Z t
pX
n −1
sup |
Utni (Xtni+1 ∧t − Xtni ∧t ) −
Us dXs | → 0
0≤t≤T
0
i=0
et
sup |
0≤t≤T
pX
n −1
Utni (Xtni+1 ∧t − Xtni ∧t )2 −
Z
i=0
t
Us dhX, Xis | → 0
0
en probabilité.
Preuve: On pose Usn =
pX
n −1
i=0
Ppn −1
i=0
Utni 1[tni ,tni+1 [ (s). On a
Z
U (X
tn
i
tn
i+1 ∧t
−X
tn
i ∧t
)=
0
t
Usn dXs .
78
CHAPITRE 6. INTÉGRALE STOCHASTIQUE
Vu la continuité, U n tend vers U en restant borné pour chaque ω puisque
|Usn | ≤ max0≤r≤t |Ur |. Il suffit d’appliquer le théorème précédent pour obtenir
la première limite.
Pour la seconde limite, pour simplifier les notations ne regardons que ce qui
se passe en T . Ecrivons X = X0 + M + A où M est une martingale et A à
variation finie. Commencons par montrer que
pX
n −1
(Xtni − Xtni−1 )2 → hX, XiT .
i=0
On a
lim |
pX
n −1
n→+∞
≤ lim |
(X
tn
i
−X
tn
i−1
2
) −
i=0
pX
n −1
(Mtni − Mtni−1 )2 |
i=0
pX
n −1
pX
n −1
i=0
i=0
(Atni − Atni−1 )2 + 2
(Mtni − Mtni−1 )(Atni − Atni−1 )|
≤ ( sup |Atnj − Atnj−1 | + 2|Mtnj − Mtnj−1 |)|
1≤j≤n
pX
n −1
|Atni − Atni−1 | = 0
i=0
par continuité de M et de A et en utilisant l’inégalité (8). Donc
lim
pX
n −1
2
(Xtni − Xtni−1 ) = lim
i=0
pX
n −1
(Mtni − Mtni−1 )2
i=0
Posons τk = inf(s ≥ 0, |Ms | ≥ k). En écrivant
P(|
pX
n −1
(Mtni − Mtni−1 )2 − hX, XiT | > ε)
i=0
pX
n −1
(Mtτnk − Mtτnk )2 − hX τk , X τk iT | > ε, t < τk ) + P(t ≥ τk )
= P(|
i
i−1
i=0
Ppn
τk
on obtient la convergence en probabilité puisque
− Mtτnk )2 →
i=1 (Mtn
i
i−1
hX τk , X τk iT par le théorème 5.3.1. Le cas avec supt≤T se traite avec (6).
Il est alors facile de traiter le cas d’un U continu : Il suffit de l’approcher
(pour ω fixé) uniformément sur [0, T ] par les fonctions en escalier du type
P
k Uk/n 1[k/n,(k+1)/n[ .
6.4. FORMULE D’ITÔ
79
Corollaire 6.3.8. — Si X, Y sont deux semimartingales et U un processus
adapté continu.
Z t
pX
n −1
Us dhX, Y is | → 0
sup |
Utni (Xtni+1 ∧t − Xtni ∧t )(Ytni+1 ∧t − Ytni ∧t ) −
0≤t≤T
0
i=0
en probabilité.
Preuve: Par découpage.
6.4. Formule d’Itô
Théorème 6.4.1. — (Formule d’Itô) Soit Xt = (Xt1 , . . . , Xtp ) une semimartingale à valeurs dans un ouvert U de Rp , et f ∈ C 2 (U ). Alors f (Xt ) est une
semimartingale et
p Z t
p Z
X
∂f
1 X t ∂2f
j
f (Xt ) − f (X0 ) =
(Xs ) dXs +
(Xs ) dhX j , X k is .
∂x
2
∂x
∂x
j
j
k
0
0
j=1
j,k=1
Preuve: Traitons le cas p = 1. Par continuité Xt reste à valeurs dans l’intervalle de U contenant X0 . La formule de Taylor à l’ordre 2 s’écrit
(y − x)2 00
f (θ)
2
pour un θ ∈ [x, y]. Ecrivons donc, pour une suite de subdivisions 0 = tn0 <
tn1 < . . . < tnpn = t, de [0, t] dont le pas tend vers 0,
f (y) − f (x) = f 0 (x)(y − x) +
f (Xt ) − f (X0 ) =
pX
n −1
(f (Xtni+1 ) − f (Xtni ))
i=0
=
pX
n −1
f 0 (Xtni )(Xtni+1 − Xtni ) +
i=0
pX
n −1
f 00 (θin )
(Xtni+1 − Xtni )2
2
i=0
où θin est entre Xtni+1 et Xtni . Le premier terme tend en probabilité vers
Rt 0
0 f (Xs ) dXs par la proposition 6.3.8. Pour le second, on a
lim
n→+∞
pX
n −1
(θin )
00
− f (X )|
tn
i
(Xtni+1 − Xtni )2
i=0
≤ lim sup |f
n→+∞ k
|f
00
00
(θkn )
00
− f (X )|
tn
k
pX
n −1
i=0
2
(Xtni+1 − Xtni )2
2
=0
80
CHAPITRE 6. INTÉGRALE STOCHASTIQUE
par uniforme continuité de f 00 sur les compacts. Il suffit donc d’appliquer la
proposition précédente pour conclure. Si p > 1, la preuve est la même lorsque
U est convexe. Sinon on utilise la formule de Taylor sous la forme, pour x, y
variant dans un compact de U , il existe une fonction o telle que
p
p
X
∂f
1 X ∂2f
f (y)−f (x) =
(x) (yj −xj )+
(x)(yj −xj )(yk −xk )+o(ky−xk2 ),
∂xj
2
∂xj ∂xk
j=1
j,k=1
où o(h)/h → 0 quand h → 0. On écrit souvent de façon formelle,
p
p
X
1 X ∂2f
∂f
(Xt ) dXtj +
(Xt ) dhX j , X k it .
(14)
df (Xt ) =
∂xj
2
∂xj ∂xk
j=1
j,k=1
Corollaire 6.4.2. — Soit X une semimartingale à valeurs dans Rp et f ∈
C 1,2 (R+ × Rp ). Alors f (t, Xt ) est une semimartingale et
Z
0
t
f (t, Xt ) − f (0, X0 ) =
p Z t
p Z t
X
X
∂2f
∂f
∂f
j 1
(s, Xs ) ds+
(s, Xs ) dXs +
(s, Xs ) dhX j , X k is .
∂t
∂x
2
∂x
∂x
j
j
k
0
0
j=1
j,k=1
Corollaire 6.4.3 (Intégration par parties). — Si X et Y sont deux semimartingales,
d(Xt Yt ) = Xt dYt + Yt dXt + dhX, Y it
CHAPITRE 7
APPLICATIONS DE LA FORMULE D’ITO
7.1. Sur le Brownien multidimensionnel
Soit B le Brownien dans Rd partant de 0 et Wt = Bt + x0 , le mouvement
brownien partant de x0 ∈ Rd . Pour tout temps d’arrêt, τ , par Ito, si U est un
ouvert tel que Wt∧τ ∈ U pour tout t ≥ 0, pour toute fonction C 2 (U )
Z
d Z t∧τ
X
∂f
1 t∧τ
∆f (Ws ) ds
f (Wt∧τ ) = f (x0 ) +
(Ws ) dWsi +
∂xi
2 0
0
i=1
où ∆ est le laplacien ∆f =
fonction f : U → R égale à :
∂2f
i=1 ∂x2i .
Pd
Considérons pour U = Rd − {0} la
f (x) = log kxk, si d = 2 et f (x) =
1
, si d ≥ 3.
kxkd−2
En dehors de 0, ∆f = 0 (on dit que f est harmonique). Donc
Lemme 7.1.1. — Si τ est un temps d’arrêt tel que Wtτ ne s’annule jamais,
f (Wtτ ) est une martingale locale.
Proposition 7.1.2 (Les points sont polaires en dimension ≥ 2)
Si d ≥ 2, pour tout x ∈ Rd
P(∃t > 0; Bt = x) = 0.
Preuve: Il suffit de traiter le cas d = 2. Supposons d’abord x0 6= 0. Montrons
que
P(∃t > 0; Wt = 0) = 0.
Choisissons r, R > 0 tels que r < ||x0 || < R, posons Tr = inf{t ≥ 0; ||Wt || =
r}, TR = inf{t ≥ 0; ||Wt || = R} et τ = Tr ∧ TR . Puisque ln(||Wtτ ||) est une
82
CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO
martingale locale bornée,
E[ln(||Wtτ ||)] = E[ln(||W0τ ||)] = ln ||x0 ||
donc, en faisant t → +∞, par convergence dominée,
E[ln(||Wτ ||)] = ln ||x0 ||
c’est à dire
P(Tr < TR ) ln r + P(Tr > TR ) ln R = ln ||x0 ||
ce qui donne
(15)
P(Tr < TR ) =
ln R − ln ||x0 ||
.
ln R − ln r
En faisant tendre r vers 0 on obtient que
P(T0 ≤ TR ) = 0,
car {T0 ≤ TR } = ∪r<R {Tr < TR }. Puis en faisant tendre R vers +∞,
P(T0 < ∞) = 0.
Donc partant de x0 6= 0 on n’atteint pas 0. Ensuite, puisque pour tout ε > 0,
B̃t = Bt+ε − Bε , t ≥ 0, est un brownien indépendant de Bε et puisque Bε 6= 0,
p.s., on a (en prenant dans ce qui précède Wt = B̃t + Bε )
P(∃t > ε, Bt = 0) = P(∃t > 0, Bε+t = 0) = P(∃t > 0, B̃t = −Bε ) = 0
et, en faisant tendre ε vers 0, P(∃t > 0, Bt = 0) = 0.
Proposition 7.1.3. — En dimensions d = 1, 2, pour tout ouvert U de Rd
P(∃t > 0; Bt ∈ U ) = 1
et, p.s.,
lim inf ||Bt || = 0.
t→+∞
Si d ≥ 3, p.s.,
lim ||Bt || = +∞.
t→+∞
Preuve: Le cas d = 1 est clair. Pour d = 2 en reprenant la preuve précedente
on voit en commençant par faire tendre R vers l’infini dans (15), que pour
tout x0 , P(Tr < +∞) = 1 et donc que pour tout x ∈ R2 ,
P(∃t > 0; ||Bt − x|| < ε) = 1.
7.2. MARTINGALES EXPONENTIELLES
83
On conclut alors facilement. Par contre pour d ≥ 3, puisque ce n’est plus
ln ||x|| mais ||x||2−d qui est harmonique hors de 0, on obtient à la place de
l’équation (15),
R2−d − ||x0 ||2−d
P(Tr < TR ) =
.
R2−d − r2−d
En faisant tendre R vers +∞, on obtient que, partant de x0 ,
P(Tr < +∞) =
||x0 ||2−d
.
r2−d
On a donc, pour tout M > 0,
P(lim inf |Bt | ≥ r) ≥ P(kBt+TM k ≥ r, ∀t ≥ 0) ≥ 1 −
t→+∞
M 2−d
→1
r2−d
quand M tend vers l’infini si d > 2.
Remarque : On peut maintenant justifier que Mt := 1/||Bt+1 || est bien une
martingale locale pour le brownien dans R3 .
7.2. Martingales exponentielles
7.2.1. Définition. —
Théorème 7.2.1. — Soit M une martingale locale. Alors, pour tout λ ∈ C,
1
E(λM ) = exp(λM − λ2 hM, M i)
2
est une martingale locale et
dE(λM ) = λE(λM ) dM.
Si N est une martingale locale strictement positive, il existe une martingale
locale M telle que N = E(M )
Preuve: Il suffit pour la partie directe d’appliquer la formule d’Ito aux fonctions parties réelles et imaginaires de f (x) = ex et à la semimartingale
2
λM − λ2 hM, M i. Pour la réciproque on applique Ito à log(Nt ).
Proposition 7.2.2. — Soit M une martingale locale à valeurs positives ou
nulles telle que M0 est intégrable. Alors M est une surmartingale (i.e. −M est
une sous martingale). On a toujours E(MT ) ≤ E(M0 ). Si E(MT ) = E(M0 ),
alors M est une martingale.
84
CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO
Preuve: Soit τn réduisant M . Par Fatou conditionnel
E(MT |Fs ) ≤ E(lim inf MTτn |Fs ) ≤ lim inf E(MTτn |Fs ) = lim inf Msτn = Ms
n→+∞
n→+∞
n→+∞
donc Mt est une surmartingale. Pour 0 ≤ s ≤ t ≤ T ,
E(MT |Fs ) ≤ E(Mt |Fs ) ≤ Ms
donc
E(MT ) ≤ E(Mt ) ≤ E(Ms ) ≤ E(M0 ) < +∞.
Si E(MT ) = E(M0 ) alors E(Mt ) = E(Ms ). Donc Ms − E(Mt |Fs ) ≥ 0 est
d’espérance nulle, donc nul p.s.
Corollaire 7.2.3. — Soit M une martingale locale nulle en 0 et E(M ) =
exp(M − 21 hM, M i). Alors E(E(M )T ) ≤ 1 et, si E(E(M )T ) = 1 pour un T > 0,
alors E(M )t , t ≤ T, est une (vraie) martingale.
7.2.2. Critère de Paul Lévy. —
Proposition 7.2.4. — Soit M une martingale locale (continue) nulle en 0
de crochet t. Alors M est un (Ft )–brownien.
Preuve: Par le théorème précédent, pour tout λ réel, E(iλM ) est une martingale locale bornée sur [0, T ] par e
λ2 T
2
donc une martingale : pour 0 < s < t,
E[E(iλMt )|Fs ] = E(iλMs )
autrement dit,
1
1
E[exp(iλMt − λ2 t)|Fs ] = exp(iλMs − λ2 s)
2
2
d’où
1
E[exp(iλ(Mt − Ms ))|Fs ] = exp(− λ2 (t − s))
2
et l’on conclut facilement.
7.2.3. Dubins-Schwarz. —
Proposition 7.2.5. — Soit M une martingale locale nulle en 0. Alors il
existe un brownien B tel que Mt = BhM,M it .
7.2. MARTINGALES EXPONENTIELLES
85
Preuve: Ne traitons que le cas plus simple où hM, M i est strictement croissant
et hM, M i∞ = ∞. Dans ce cas, pour chaque ω ∈ Ω, la fonction t ∈ R+ 7→
hM, M it (ω) ∈ R+ est bijective. Notons t ∈ R+ 7→ σt (ω) ∈ R+ l’inverse de
cette fonction (qui vérifie donc hM, M iσt = σhM,M it = t). Chaque σt est un
temps d’arrêt car
{σt ≤ s} = {hM, M iσt ≤ hM, M is } = {t ≤ hM, M is }
est Fs –mesurable. Pour n ∈ N, M σn est une vraie martingale car
hM σn , M σn it ≤ hM, M iσn = n
et par Doob
E(sup(Mtσn )2 ) ≤ lim E(sup(Mtσn )2 ) ≤ 4E(hM, M iσn ) = n.
t≥0
T →+∞
t≤T
On n’a donc pas de mal à justifier l’application du théorème d’arrêt pour
obtenir que si s ≤ t,
E(Mσσtn |Fσs ) = Mσσsn .
Donc Mσt est une (Fσt )-martingale locale. On voit de la même façon que
(M 2 − hM, M i)σt = Mσ2t − t
est une martingale locale. On conclut donc avec le critère de Lévy que Bt =
Mσt est un mouvement brownien. On termine en remarquant que Mt =
BhM,M it .
Proposition 7.2.6. — Soit M une martingale locale. Presque sûrement,
a. Sur hM, M i∞ = +∞,
lim sup Mt = +∞, lim inf Mt = −∞
t→+∞
t→+∞
et limt→+∞ Mt /hM, M it = 0.
b. Sur hM, M i∞ < +∞, Mt converge quand t → +∞.
Corollaire 7.2.7. — Une martingale locale positive converge p.s.
86
CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO
7.3. Théorèmes de représentation
Théorème 7.3.1 (Théorème de représentation L2 )
On suppose que (Ft ) est la filtration du brownien Ft = σ(Bs , 0 ≤ s ≤ t). Si
Z ∈ L2 (FT ), il existe un unique processus K dans L2T (B) tel que
Z T
Ks dBs .
(16)
Z − E(Z) =
0
Preuve: Les combinaisons linéaires des v.a.
n
X
U = exp(i
λj (Btj − Btj−1 )),
j=1
n ∈ N, λ1 , · · · , λn ∈ R, t1 ≤ t2 ≤ · · · ≤ tn ≤ T, sont denses dans L2 (Ω, FT ). En
effet soit X ∈ L2 (Ω, FT ) tel que
n
X
E[X exp(i
λj (Btj − Btj−1 ))] = 0.
j=1
−
+
X
X
Notons µ+ et µ+ les probabilités sur Rn images de E(X
+ ) dP et E(X − ) dP
par le vecteur (Bt1 − Bt0 , · · · , Btn − Btn−1 ). Ces deux probabilités ont la
même transformée de Fourier donc sont égales. Autrement dit pour tout
A ∈ σ(Btj − Btj−1 , j = 1, · · · , n), E(1A X) = 0. Par classe monotone, c’est
vrai pour tout A ∈ FT . Donc X = 0.
Notons H̃ l’ensemble des Z de L2 (FT ) admettant la représentation (16).
C’est un fermé car si Zn → Z dans L2 et
Z T
Zn = E(Zn ) +
Ksn dBs
0
la suite Zn − E(Zn ) est de Cauchy donc K n est de Cauchy dans L2T (B), qui
est complet. Si Kn → K, alors
Z T
Z = E(Z) +
Ks dBs .
0
Montrons que chaque v.a. U est dans H̃. Posons Gt =
i
Rt
Gs dBs + 21
Rt
− 12
G2s ds
RT
0
0
et γ = e
Mt = e 0
aléatoire et que dMt = iGt Mt dBt . On a
U = ei
RT
0
Gs dBs
= ei
RT
0
Gs dBs + 12
donc
Z
U = γ[1 +
G2s ds
RT
0
j=1 λj 1[tj−1 ,tj [ (t),
. Remarquons que γ n’est pas
G2s ds − 12
e
T
iGt Mt dBt ]
0
Pn
RT
0
G2s ds
= γMt
7.3. THÉORÈMES DE REPRÉSENTATION
Z
87
T
iγGt Mt dBt
U = E(U ) +
0
ce qui montre que U est dans H̃. Finalement H̃ est fermé et contient un sous
ensemble dense dans L2T (B), il lui est donc égal. Ceci montre l’existence de
la représentation (16). Pour l’unicité, si (16) est vrai pour K et K 0 , alors
RT
RT 0
0 Ks dBs = 0 Ks dBs donc
Z T
Z T
0
2
E(
(Ks − Ks ) dBs ) =
E(Ks − Ks0 )2 ds = 0
0
et Ks =
Ks0 ,
0
p.s.
Corollaire 7.3.2. — Si Ft = σ(Bs , 0 ≤ s ≤ t), toutes les Ft -martingales
sont continues p.s.
Preuve: Soit M est une martingale arbitraire et T > 0. Considérons une suite
Zn de v.a. bornées qui tend vers MT dans L1 , on peut écrire
Z T
Zn = E(Zn ) +
Ksn dBs
0
et alors, pour 0 ≤ t ≤ T ,
(n)
Mt
Z
= E(Xn |Ft ) = E(Zn ) +
t
Ksn dBs
0
est continue. Par Doob
P( sup |Ms(n) − Ms(m) | > ε) ≤
0≤s≤T
E(|Xn − Xm |)
ε
il en résulte qu’une sous suite de M (n) converge uniformeément sur [0, T ], p.s.,
vers M . Donc M est continue.
Corollaire 7.3.3 (Théorème de représentation L1 )
Si Z ∈ L1 (FT ), où FT = σ(Bs , 0 ≤ s ≤ T ), il existe un processus K dans
(0)
LT (B) tel que
Z T
(17)
Z − E(Z) =
Ks dBs .
0
Preuve: Par la corollaire précédent Mt = E(Z|Ft ), 0 ≤ t ≤ T , est une
martingale continue. Elle s’écrit donc par le théorème de représentation des
martingales
Mt = M0 + intt0 Ks dBs
(0)
où K dans LT (B). Il suffit alors de remarquer que Z = MT .
88
CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO
Théorème 7.3.4 (Théorème de représentation des martingales)
Si Mt est une Ft = σ(Bs , 0 ≤ s ≤ t)-martingale locale, il existe un processus
K ∈ L(0) (B) tel que
Z t
Ks dBs .
Mt = M0 +
0
Preuve: On peut supposer que M0 = 0. Soit τn = inf{t ≥ 0; |Mt | ≥ n}.
Puisque MTτn est borné, il existe par le théorème précédent un unique processus
K n ∈ L2T (B) tel que
Z T
MTτn =
Ksn dBs
0
Alors, pour tout 0 ≤ t ≤ T ,
Mtτn
=
E(MTτn |Ft )
t
Z
Ksn dBs
=
0
Si m ≥ n
Mtτm
t
Z
Ksm dBs
=
0
donc puisque τn ≤ τm ,
Mtτn
Z
t∧τn
=
Z
Ksm dBs
=
0
0
t
Ksm 1{s≤τn } dBs
Par unicité
Ksm 1{s≤τn } = Ksn
On peut donc poser sans ambiguité, pour s ≤ τn
Ks = Ksn
Alors on aura, pour tout n
Mtτn
t
Z
=
Ks dBs
0
donc, puisque τn → +∞,
Mtτn =
Z
t
Ks dBs .
0
7.4. GIRSANOV
89
7.4. Girsanov
Sur un espace probabilisable (Ω, F) on dit que deux probabilités P et Q
sont équivalentes si il existe une v.a. Z strictement positive telle que pour
tout A ∈ F
Z
Q(A) =
1A Z dP.
On écrira Q = Z·P, ou dQ = Z dP. Par application du théorème de convergence
monotone c’est la même chose que dire que pour toute v.a. X, F–mesurable
positive,
Z
Z
X dQ =
XZ dP.
On continuera à noter E l’espérance par rapport à P mais on notera EQ
R
l’espérance par rapport à Q. Autrement dit E(X) = X dP et EQ (X) =
R
R
X dQ = XZ dP..
Théorème 7.4.1 (Girsanov). — Soit M une martingale locale nulle en 0
sur (Ω, (Ft ), P), T > 0 et
1
ZT = eMT − 2 hM,M iT .
On suppose que E(ZT ) = 1 et on note Q la probabilité ZT · P sur (Ω, FT ).
Alors pour toute martingale locale N sur (Ω, (Ft ), P), le processus Xt = Nt −
hN, M it , 0 ≤ t ≤ T, est une martingale locale sur (Ω, (Ft )t≤T , Q) de processus
croissant hN, N it .
Preuve: Montrons d’abord que, sous P, Xt Zt est une martingale locale.
Puisque dZ = ZdM et dhN, Zi = ZdhN, M i la formule d’Ito nous montre
que
d(XZ) = d(N Z −hN, M iZ) = ZdN +N dZ +dhN, Zi−hN, M idZ −ZdhN, M i
= ZdN + N dZ − hN, M idZ
est une somme d’intégrales stochastiques par rapport à des martingales locales,
donc une martingale locale. Soit (τn ) réduisant XZ en martingale et soit τ
un temps d’arrêt borné par T , alors, en utilisant à la fois que, sous P, Z (cf.
Lemme 7.2.3) et (XZ)τn sont des martingales,
EQ [Xττn ] = E[Xττn ZT ] = E[Xττn E(ZT |Fτn ∧τ )]
= E[Xττn Zτn ∧τ ] = E[(XZ)ττn ] = E[X0 ] = EQ [X0 ],
(car Z0 = 1). Donc X τn est une Q-martingale (Corollaire 4.3.8).
90
CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO
Le crochet pouvant s’obtenir par une limite p.s. ne dépend que de la classe
d’équivalence des probabilités (puisqu’alors les ensembles négligeables sont les
mêmes).
Il résulte de ce théorème que les semimartingales pour P et Q sont les
mêmes (jusqu’en T ). Par l’argument de la fin de la preuve, ou la propriété
caractéristique par exemple, on voit aussi que les intégrales stochastiques sont
les mêmes pour P et pour Q.
Pour vérifier l’hypothèse du théorème de Girsanov, on utilise le critère de
Novikov :
7.5. Critère de Novikov
Lemme 7.5.1. — Une famille {Xi , i ∈ I} est uniformément intégrable si et
seulement si supi∈I E(|Xi |) < +∞ et pour tout ε > 0, il existe η > 0 tel que
si P(A) ≤ η alors E(1A |Xi |) ≤ ε pour tout i ∈ I.
Preuve: Si le crière est vérifié, étant donné ε > 0, par Markov,
sup E(|Xi |)
≤η
a
pour a assez grand, donc E(1{|Xi |≥a} |Xi |) ≤ ε. Réciproquement, si la famille
est uniformément intégrable, pour M assez grand, et P(A) ≤ ε/2M ,
P(|Xi | ≥ a) ≤
E(|X|1A ) ≤ E(|X|1A 1{|X|≥M } ) + E(|X|1A 1{|X|≤M } )
≤ E(|X|1{|X|≥M } ) + M P(A) ≤ ε
Théorème 7.5.2 (Critère de Novikov). — Soit M
nulle en 0, telle que E(e
hM,M iT
2
martingale locale
) < +∞. Alors E(E(M )T ) = 1.
Preuve: Rappelons d’abord (Corollaire 7.2.3) que E(E(M )T ) ≤ 1. Pour tout
A ∈ FT ,
1A e
MT
2
1/2
= E(M )T 1A (e
hM,M iT
2
)1/2 ,
donc par Cauchy Schwarz,
E(1A e
MT
2
) ≤ [E(E(M )T )]1/2 [E(1A e
hM,M iT
2
)]1/2 ≤ [E(1A e
hM,M iT
2
)]1/2 .
T
Pour 0 < a < 1, posons X = exp aM
1+a , alors
E(aM )T = eaMT −
a2
hM,M iT
2
1
2
2
2
= (eMT − 2 hM,M iT )a ea(1−a)MT = E(M )aT X 1−a .
7.6. CAMERON-MARTIN
91
En appliquant l’inégalité de Hölder on a
(18)
2
2
2
E(1A E(aM )T ) ≤ E(E(M )T )a E(1A X)1−a ≤ E(1A X)1−a .
Comme (1+a)/2a > 1 on peut appliquer l’inégalité de Jensen (E(U )(1+a)/2a ≤
E(U (1+a)/2a ),
E(1A X) = E(1A exp
MT
2a
aMT
) ≤ E(1A e 2 ) 1+a .
1+a
On arrive donc à
E(1A E(aM )T ) ≤ E(1A e
MT
2
)2a(1−a) ≤ [E(1A e
hM,M iT
2
)]a(1−a) .
Pour tout temps d’arrêt τ , en appliquant ceci à M τ , on obtient que
E(1A E(aM )τ ∧T ) ≤ [E(1A e
hM,M iT
2
)]a(1−a) .
Il résulte du lemme que la famille E(aM )τ ∧T est uniformément intégrable. Et
donc (pourquoi ?) que la martingale locale E(aM )t est une vraie martingale.
En particulier E(E(aM )T ) = 1. Pour atteindre le cas a = 1 on écrit que par
(18) avec A = Ω,
2
2
1 = E(E(aM )T ) ≤ E(E(M )T )a E(X)1−a
donc en prenant a → 1, E(E(M )T ) = 1. Remarque : On a aussi E(E(M )T |F0 ) = 1 puisque E(E(M )T |F0 ) ≤ 1 et
E(E(E(M )T |F0 )) = E(E(M )T ) = 1.
7.6. Cameron-Martin
Corollaire 7.6.1 (Cameron–Martin). — Soit B un brownien sur
RT
RT
(Ω, (Ft ), P) et φs ∈ L0 (B). On suppose que ZT = exp[ 0 φs dBs − 12 0 φ2s ds]
Rt
vérifie E(ZT ) = 1. Alors, pour 0 ≤ t ≤ T , B̃t = Bt − 0 φs ds est un
mouvement brownien sur (Ω, (Ft )0≤t≤T , Q) où dQ = ZT dP sur FT .
Preuve: d’après le critère de Lévy, il suffit de voir que B̃t est une martingale
locale de processus croissant t ce qui est immédiat par le théorème. Le critère suivant est très utile :
Corollaire 7.6.2 (Variante de Novikov). — Si il existe µ > 0 tel que
RT
µφ2t ) dt < +∞, alors E(Z ) = 1.
T
0 E(e
92
CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO
Preuve: On choisit t0 = 0 < t1 · · · < tn = T avec ti+1 − ti < 2µ et on
pose φi = φ1[ti ,ti+1 [ . Alors, écrivons, en utilisant que pour toute probabilité
R
R
ν,exp |f | dν ≤ exp |f | dp (conséquence de l’inégalité de Jensen),
Z ti+1
R
1 T
1
(ti+1 − ti )φ(s)2
φi (s)2 ds
0
2
E(e
) = E(exp[
ds])
ti+1 − ti ti
2
Z ti+1
Z ti+1
1
(ti+1 − ti )φ(s)2
1
≤ E(
exp
ds) ≤
E exp µφ(s)2 ds
ti+1 − ti ti
2
ti+1 − ti ti
est fini, donc en appliquant la remarque suivant Novikov au processus
0, on voit que
Zt
E( i+1 |Fti ) = 1.
Zti
Donc de proche en proche,
Zt
Ztn
E(ZT ) = E(Zt0 1 · · ·
) = 1.
Zt0
Ztn−1
Zti +t
Zti , t
≥
CHAPITRE 8
EQUATIONS DIFFÉRENTIELLES
STOCHASTIQUES
8.1. Introduction
Notons Mp×d (R) l’ensemble des matrices p × d à coefficients dans R. Soient
σ : Rp → Mp×d (R) et b : Rp → Rp deux fonctions mesurables localement
bornées (i.e. bornées sur chaque boule) définies sur Rp . Pour x ∈ Rp , on
considère l’équation différentielle stochastique (E.D.S.)
(19)
dXt = σ(Xt ) dBt + b(Xt ) dt,
X0 = x ∈ R p ;
pour Bt ∈ Rd et Xt ∈ Rp . Etant donné un Ft -mouvement Brownien d dimensionnel B sur (Ω, (Ft ), P), muni de sa filtration, on appelle solution (forte) de
cette équation un processus adapté continu Xt tel que, en coordonnées, pour
i = 1, · · · , p, pour tout t ≥ 0,
Z t
d Z t
X
(i)
(i)
Xt = X0 +
σij (Xs ) dBs(j) +
bi (Xs ) ds
j=1
0
0
Le cas d’une équation à coefficients dépendant du temps, du type
dXt = σ(t, Xt ) dBt + b(t, Xt ) dt
se ramène à cette situation en travaillant dans Rp+1 , en rajoutant une com(0)
posante Xt = t. Le lemme suivant est crucial.
Lemme 8.1.1 (Gronwall). — Soit g : [0, T ] → R une fonction borélienne
bornée telle que, pour a, b ≥ 0,
Z t
g(t) ≤ a + b
g(s) ds, pour tout 0 ≤ t ≤ T.
0
Alors g(t) ≤
aebt
sur [0, T ].
94
CHAPITRE 8. EQUATIONS DIFFÉRENTIELLES STOCHASTIQUES
Preuve: On pose G(t) = a + b
Rt
0
g(s) ds et H(t) = a + b
Rt
0
G(s) ds. Alors
g(t) ≤ G(t) ≤ H(t)
et H(t) ≤ a + b
Rt
0
H(s) ds. Il suffit donc majorer H or H est dérivable et
(e−bt H(t))0 = −be−bt H(t) + e−bt H 0 (t) = −be−bt H(t) + be−bt G(t) ≤ 0
donc e−bt H(t) ≤ H(0) = a. 8.2. Solutions fortes d’E.D.S.
On considère l’équation (19). On dit que b et σ sont lipschitziennes si il
existe K > 0 tel que, partout,
||b(x) − b(y)|| ≤ K||x − y||,
||σ(x) − σ(y)|| ≤ K||x − y||.
P
(on peut prendre comme norme, par exemple, ||σ(x)|| = ( i,j σi,j (x)2 )1/2 et
P
||b(x)|| = ( i bi (x)2 )1/2 ). Le théorème fondamental est le suivant :
Théorème 8.2.1. — Soit Bt , t ≥ 0, un (Ω, (Ft ), P) mouvement brownien d–
dimensionnel. On suppose que b et σ sont lipschitziennes. Etant donné x ∈ Rp
il existe un et un seul processus continu adapté X tel que pour tout t ≥ 0,
Z t
Z t
Xt = x +
b(Xs ) ds +
σ(Xs ) dBs .
0
0
Preuve: En dimensions p = d = 1, pour simplifier les notations uniquement.
1. Unicité : Si X, X 0 sont deux solutions. On localise avec τ = inf{t >
0; |Xt − Xt0 | ≥ n} :
Z t∧τ
Z t∧τ
0
0
(b(Xs ) − b(Xs )) ds +
(σ(Xs ) − σ(Xs0 )) dBs .
Xt∧τ − Xt∧τ =
Puisque (a +
E([Xt∧τ
b)2
≤
0
2a2
0
+
2b2 ,
et en appliquant Cauchy Schwarz, si t ≤ T ,
0
− Xt∧τ
]2 ) ≤
Z t∧τ
Z t∧τ
0
2
≤ 2E([
(b(Xs ) − b(Xs )) ds] ) + 2E([
(σ(Xs ) − σ(Xs0 )) dBs ]2 )
0
0
Z t∧τ
Z t∧τ
≤ 2E((t ∧ τ )[
(b(Xs ) − b(Xs0 ))2 ds]) + 2E([
(σ(Xs ) − σ(Xs0 ))2 ds])
0
0
Z t∧τ
Z t∧τ
≤ 2E(T [
(K|Xs − Xs0 |)2 ds]) + 2E([
(K|Xs − Xs0 |)2 ds])
0
0
Z t
2
0
≤ 2(T + 1)K
E(|Xs∧τ − Xs∧τ
|)2 ds.
0
8.2. SOLUTIONS FORTES D’E.D.S.
95
0 ]2 = 0 par le lemme de Gronwall. On en déduit que X = X 0 .
Donc E[Xt∧τ −Xt∧τ
2. Existence : on utilise ce qu’on appelle le schéma de Picard. On pose, pour
tout t ≥ 0, Xt0 = x puis par récurrence
Z t
Z t
n
n−1
Xt = x +
b(Xs ) ds +
σ(Xsn−1 ) dBs
0
0
On a
Xtn+1
−
Xtn
Z
=
t
(b(Xsn )
−
b(Xsn−1 )) ds
t
Z
(σ(Xsn ) − σ(Xsn−1 )) dBs
+
0
0
Posons
gn (u) = E(sup[Xtn+1 − Xtn ]2 ).
t≤u
Si 0 ≤ u ≤ T ,
gn (u) ≤
≤
≤
≤
Z t
Z t
n
n−1
2
2E(sup[ (b(Xs ) − b(Xs )) ds] ) + 2E(sup[ (σ(Xsn ) − σ(Xsn−1 )) dBs ]2 )
t≤u 0
t≤u 0
Z u
Z u
2E(T
(b(Xsn ) − b(Xsn−1 ))2 ds) + 8E([ (σ(Xsn ) − σ(Xsn−1 ))2 ds)
0
0
Z u
E(|Xsn − Xsn−1 |2 ) ds
2(T + 4)K 2
0
Z u
Z u
2
n
n−1 2
2(T + 4)K
E(sup |Xs − Xs | ) dv = C
gn−1 (v) dv
0
s≤v
0
pour C = 2(T + 4)K 2 . On en déduit par récurrence que,
gn (t) ≤
C n tn−1
g0 (t)
(n − 1)!
or
g0 (t) ≤ E(sup[Xs1 − x]2 ) ≤ E(sup(sb(x) + σ(x)Bs )2 )) ≤ Cte
s≤T
s≤T
On a donc
∞
X
E(
sup[Xtn+1
n=0 t≤T
−
Xtn ]2 )
=
∞
X
gn (T ) < +∞.
n=0
On en déduit facilement que X n converge p.s. vers une solution X de
l’équation.
96
CHAPITRE 8. EQUATIONS DIFFÉRENTIELLES STOCHASTIQUES
8.3. Localisation
On dit que b et σ sont localement lipschitziennes si pour tout N > 0 il existe
0 > 0 tel que, si ||x|| ≤ N, ||y|| ≤ N ,
KN , KN
||b(x) − b(y)|| ≤ KN ||x − y||,
0
||σ(x) − σ(y)|| ≤ KN
||x − y||.
C’est le cas par exemple dans le cas fondamental où les fonctions b et σ sont
de classe C 1 , par le théorème des accroissements finis.
Théorème 8.3.1. — On suppose que b et σ sont localement lipschitziennes.
Alors pour tout x ∈ Rp il existe un temps d’arrêt ξ ≤ + ∞ et un processus X
tel que pour tout t < ξ, Xt est solution de l’E.D.S.,
dXt = σ(Xt ) dBt + b(Xt ) dt,
X0 = x.
Lorsque ξ < +∞, lim supt→ξ− ||Xt || = +∞. Dans ce cas on dit qu’il y a
explosion.
Si, de plus il existe K > 0 tel que, pour tout x ∈ Rp ,
||σ(x)|| + ||b(x)|| ≤ K(1 + ||x||)
(20)
alors ξ = +∞ p.s. et pour tout m, T > 0,
E(sup kXt km ) < +∞.
t≤T
Preuve: Pour tout n > 0 on se donne une fonction φn : Rp → R de classe C 1 ,
égale à 1 sur {x; ||x|| ≤ n} et à 0 sur {x; ||x|| ≥ n + 1}. Les fonctions bn = bφn
et σn = σφn sont lipschitziennes. Il existe donc une unique solution X (n) de
l’E.D.S.
(n)
dXt
(n)
(n)
= σn (Xt ) dBt + bn (Xt ) dt,
(n)
X0
= x.
(n)
On prend n ≥ ||x||. Soit τn = inf{t ≥ 0; ||Xt || ≥ n}. Si m ≥ n , soit
n = inf{t ≥ 0; ||X (m) || ≥ n}. Alors b (X (m) ) = b (X (m) ) et σ (X (m) ) =
τm
n
n
n
n
m
m
t∧τm
t∧τm
t
t∧τm
(m)
σn (Xt∧τm
n ). Comme pour la preuve de l’unicité dans la preuve du théorème
8.2.1 on en déduit que pour tout m ≥ n,
(m)
(n)
Xt∧τm
n = Xt∧τ
n
n ≥ τ . On peut donc poser, dès que τ ≥ t,
en particulier τm
n
n
(n)
Xt = Xt
8.3. LOCALISATION
97
Soit ξ = limn→+∞ τn . On définit ainsi, pour t < ξ, une solution Xt de l’E.D.S.
De plus si ξ < ∞,
lim sup ||Xt || ≥ lim sup ||Xτn || = lim sup n = +∞.
n→+∞
n→+∞
t→ξ −
Supposons maintenant vérifiée la condition (20). Soit
τ = inf{t ≥ 0; kXt k ≥ n}
avec n ≥ kx0 k. Pour simplifier les notations, travaillons en dimension 1, pour
p ∈ N, par Ito,
p(p − 1) p−2
dXtp = pXtp−1 dXt +
Xt dhX, Xit
2
donc
Z t∧τ
p(p − 1)
p
p
Xt∧τ = x0 +
[p(Xsτ )p−1 b(Xsτ ) +
σ(Xsτ )2 (Xsτ )p−2 ]ds
2
0
Z t∧τ
+
p(Xsτ )p−1 σ(Xsτ )dBs
0
Puisque (a + b + c)2 ≤ 4(a2 + b2 + c2 ) on en déduit que
Z t∧τ
p(p − 1)
2p
2p
Xt∧τ ≤ 4x0 + 4(
[p(Xsτ )p−1 b(Xsτ ) +
σ(Xsτ )2 (Xsτ )p−2 ]ds)2
2
0
Z t∧τ
+4(
p(Xsτ )p−1 σ(Xsτ )dBs )2
0
donc par Doob, et par Cauchy Schwarz, si 0 ≤ r ≤ T , pour un T > 0 fixé,
2p
E(sup Xt∧τ
)≤
t≤r
4x2p
0 + 4T (
Z
0
r
p(p − 1)
[p(Xsτ )p−1 b(Xsτ ) +
σ(Xsτ )2 (Xsτ )p−2 ]2 ds)
2
Z r
+16E( [p(Xsτ )p−1 σ(Xsτ )]2 ds
0
On peut trouver deux constantes α, β > 0 telles que, pour tout x ∈ R,
p(p − 1)
4T (pxp−1 b(x) +
σ(x)2 xp−2 )2 + 16(pxp−1 σ(x))2 ≤ α + β|x|2p
2
On a donc, en posant γ = 4x2p
0 + T α,
Z r
2p
2p
E(sup Xt∧τ ) ≤ γ + β
E(Xs∧τ
)ds
t≤r
0
donc
2p
E(sup Xt∧τ
)
t≤r
Z
≤γ+β
0
r
2p
E(sup Xt∧τ
)ds
t≤s
98
CHAPITRE 8. EQUATIONS DIFFÉRENTIELLES STOCHASTIQUES
et par Gronwall,
2p
E(sup Xt∧τ
) ≤ γeβr .
t≤r
Comme les constantes ne dépendent pas de n (qui a défini τ ) on peut faire
tendre n vers l’infini pour obtenir que
E(sup Xt2p ) ≤ γeβr .
t≤r
En particulier Xt est fini p.s. donc ξ = +∞.
8.4. Propriété de Markov
Reprenons les hypothèses précédentes en supposant que ξ = +∞, et notons
Xt la solution de l’E.D.S. (19) vérifiant X0 = x0 . Par construction, l’application
(x0 , ω) ∈ Rp × Ω 7→ {Xt (ω), 0 ≤ t} ∈ C(R+ , Rp )
est mesurable lorsqu’on munit Rd × Ω de la tribu B(R+ ) × F∞ et l’ensemble
des fonctions continues C(R+ , Rp ) de R+ dans Rp de la tribu engendrée par les
applications coordonnées (f 7→ f (t)), par exemple. Puisque l’on peut prendre
F∞ = σ(Bs , s ≥ 0) , il existe une application mesurable
Φ : Rp × C(R+ , Rp ) → C(R+ , Rp )
telle que
Xt = Φ(x0 , B)(t).
De plus, par construction, Pour tout temps d’arrêt τ , fini p.s., on a
Xtτ = Φ(x0 , B τ )(t).
Par la propriété de Markov forte on sait que le processus B̃t = Bt+τ − Bτ est
un mouvement brownien indépendant de Fτ , donc de Xτ . On voit facilement
en prenant d’abord pour H des fonctions étagées que, pour tout H de L0 (B),
Z t+τ
Z t
Hs dBs =
Hs+τ dB̃s
τ
0
La relation
t+τ
Z
Xτ +t = Xτ +
Z
b(Xs ) ds +
σ(Xs ) dBs
τ
Z
τ
t
Z
b(Xτ +s ) ds +
= Xτ +
0
t+τ
t
σ(Xτ +s ) dB̃s
0
montre que, si on pose τ Xt = Xτ +t , pour tout t ≥ 0, alors
τ
X = Φ(Xτ , B̃).
8.5. PROCESSUS DE MARKOV
99
Puisque B̃ est indépendant de Fτ , on en déduit :
Théorème 8.4.1. — (Propriété de Markov forte) Pour tout temps d’arrêt τ
fini p.s., pour toute fonction mesurable positive F définie sur C(R+ , Rp ),
E(F (τ X)|Fτ ) = Ey (F (X)), pour y = Xτ
où le symbole Ey signifie que l’on considère la solution X telle que X0 = y.
8.5. Processus de Markov
Posons, pour f mesurable positive sur Rp , Pt f (x) = Ex (f (Xt )). En prenant
F (X) = f (Xt ) et τ = s dans le théorème précédent on voit que
E(f (Xt+s )|Fs ) = Ey (f (Xt )) = Pt f (y), pour y = Xs ,
donc, en prenant l’espérance,
Pt+s f (x) = Ex (f (Xt+s )) = Ps (Pt f )(x)
c’est la propriété dite de semigroupe. On dit que X est un processus de Markov
de semigroupe (Pt ). Par continuité des trajectoires en t = 0,
lim Pt f (x) = f (x)
t→0
si f est continue bornée.
Définition 8.5.1. — On appelle générateur du semigroupe (Pt ) l’opérateur
Lf défini par
Pt f (x) − f (x)
Lf (x) = lim
t→0
t
pour les f pour lesquels cette limite a un sens.
Théorème 8.5.2. — Soit X solution de l’E.D.S.,
dXt = σ(Xt ) dBt + b(Xt ) dt
Alors X est un processus de Markov dont le générateur est donné par
p
p
X
1 X
∂2f
∂f
(x) +
(x)
Lf (x) =
ai,j (x)
bi (x)
2
∂xi ∂xj
∂xi
i,j=1
i=1
lorsque f est C 2 à support compact où a = σσ ∗ . On dit que X est une diffusion.
100
CHAPITRE 8. EQUATIONS DIFFÉRENTIELLES STOCHASTIQUES
Preuve: Si on applique la formule d’Ito à f (Xt ), on obtient,
Z t
X Z t ∂f
Lf (Xs ) ds
f (Xt ) = f (X0 ) +
(Xs )σi,j (Xs ) dBj (s) +
0 ∂xi
0
i,j
∂f
Puisque f est à support compact , ∂x
(Xs )σi,j (Xs ) est borné, donc l’intégrale
i
stochastique est une martingale, d’espérance nulle. On a alors
Z t
Z t
Ps Lf (x) ds
Pt f (x) = f (x) + Ex ( Lf (Xs ) ds) = f (x) +
0
0
Donc
Pt f (x) − f (x)
1
= lim
t→0
t→0 t
t
Z
Lf (x) = lim
t
Ps Lf (x) ds = P0 Lf (x) = Lf (x).
0
8.6. EDS et EDP
La formule d’Ito et le théorème précédent montrent qu’il y a un lien très fort
entre les EDS et les opérateurs différentiels aux dérivées partielles du second
ordre du type de L. Ceci permet en particulier de donner des solutions probabilistes à certaines équations aux derivées partielles (EDP), et réciproquement.
Donnons deux exemples.
8.6.1. Problème de Dirichlet. — Dans Rp considérons un ouvert borné
D de frontière ∂D régulière. Etant donné une fonction f : ∂D → R sur le bord
on considère l’équation
Lφ(x) = 0, x ∈ D;
φ(x) = f (x), x ∈ ∂D,
où φ est continue sur D̄. Donnons juste l’idée du type de résultat auquel on
peut s’attendre :
Théorème 8.6.1. — Sous de bonnes hypothèses..., la solution φ admet la
représentation
φ(x) = Ex (f (Xτ )), x ∈ D;
où X est la diffusion associée à (19) et τ = inf{t ≥ 0; Xt ∈ ∂D}.
Preuve: On considère la solution X de (19) partant de x ∈ D. Par Ito,
Z t∧τ X Z t
Z t∧τ
∂φ
φ(Xt∧τ ) = φ(x) +
(Xs )σi,j (Xs ) dBj (s) +
Lφ(Xs ) ds
0
0 ∂xi
0
i,j
8.6. EDS ET EDP
101
On prend l’espérance et on tient compte du fait que Lφ est nulle :
E(φ(Xt∧τ )) = E(φ(x)) = φ(x)
et on fait tendre t vers l’infini, et on utilise que φ = f sur ∂D :
φ(x) = lim E(φ(Xt∧τ ) = E(φ(Xτ )) = E(f (Xτ )).
t→+∞
8.6.2. Feynman-Kac. — On se donne g : R+ × Rp → R φ, c : Rp → R avec
c ≥ 0. On considère une solution u bornée à dérivées bornées de l’équation
∂u
(21)
(t, x) = (L − c(x))u(t, x) + g(t, x), u(0, x) = φ(x).
∂t
Théorème 8.6.2. — La solution u(t, x) de (21) vérifie :
Z t
Z t
Z
u(t, x) = Ex [φ(Xt ) exp(−
c(Xs ) ds)]+Ex [ g(t−s, Xs ) exp(−
0
0
s
c(Xu ) du) ds]
0
où X est la diffusion associée à (19)
Preuve: On pose, t > 0 étant fixé,
Z
v(s, x) = u(t − s, x),
s
c(Xu ) du).
Zs = exp(−
0
Appliquant la formule d’Itô, on a
d(v(s, Xs )Zs ) = −v(s, Xs )c(Xs )Zs ds + Zs dv(s, Xs )
∂v
= Z{
+ (L − c)v} ds + Z∇x v σ dBs .
∂s
Rt
Vu que ∇x v est bornée et que 0 ≤ Zs ≤ 1, E( 0 Zs ∇x v σ(Xs ) dBs ) = 0.
∂u
D’autre part ∂v
∂s (s, x) = − ∂s (t − s, x) et donc
∂v
∂u
(s, x) + (L − c)v(s, x) = − (t − s, x) + (L − c)u(t − s, x) = −g(t − s, x).
∂s
∂s
On a donc
Z t
E(v(t, Xt )Zt ) − E(v(0, X0 )Z0 ) = E(−
g(t − s, Xs )Zs ds),
0
mais, puisque u(0, Xt ) = φ(Xt ),
E(v(t, Xt )Zt ) − E(v(0, X0 )Z0 ) = E(u(0, Xt )Zt ) − u(t, x) = E(φ(Xt )Zt ) − u(t, x)
et l’on obtient
Z t
u(t, x) = E(φ(Xt )Zt ) + E( g(t − s, Xs )Zs ds).
0