Mouvement brownien, espérance conditionnelle

Transcription

Mouvement brownien, espérance conditionnelle
Mouvement brownien, espérance conditionnelle,
martingale, intégrale stochastique
Benjamin Jourdain
Bernard Lapeyre
30 mai 2006
1 Rappels de probabilités
Let Ω be endowed with a probability measure P.
d
d
Définition 1.1.
R We say that a random vector X : Ω → R has the density p where p : R → R+
is such that Rd p(x)dx = 1 if
Z
Z
d
d
∀A ⊂ R , P(X ∈ A) = p(x)dx ⇔ ∀f : R → R bounded , E(f(X)) =
f(x)p(x)dx.
Rd
A
Intuitively P(X ∈ [x, x + dx]) = p(x)dx.
Exemples : The real random variable U is uniformly distributed on the interval [a, b] where
1{a<u<b}
.
a < b if it has the density p(u) =
b−a
Définition 1.2. A real random variable X with density p is
R
1. integrable if R |x|p(x)dx < +∞ and then its expectation is
Z
E(X) = xp(x)dx,
R
R
2. square integrable if E(X2 ) =
x2 p(x)dx < +∞ and then its variance is
£
¤
Var(X) = E (X − E(X))2 = E(X2 ) − (E(X))2 .
R
The standard deviation of X is σ(X) =
p
Var(X).
Exemples : We say that the real variable X is Gaussian (or normal) with parameter (µ, σ2 ) with
(µ, σ) ∈ R × R∗+ and denote X ∼ N (µ, σ2 ) if X possesses the density
(x−µ)2
1
p(x) = √ e− 2σ2 .
σ 2π
Then X is square integrable and
Z
E(X) =
xe
R
−
(x−µ)2
2σ2
dx
√ =µ+
σ 2π
Z
(x − µ)e
−
R
1
(x−µ)2
2σ2
¸
·
2 +∞
dx
σ − (x−µ)
2
√ = µ − √ e 2σ
= µ.
σ 2π
2π
−∞
Using this result, then the change of variable y = (x − µ)/σ, one obtains
Z
Z
(x−µ)2
£
¤
y2 dy
dx
2 − 2σ2
2
2
√ =σ
y × ye− 2 √
Var(X) = E (X − E(X)) = (x − µ) e
2π
R
R
"
 σ 2π
#+∞ Z
y2
y2 dy
ye− 2
= σ2  − √
+ e− 2 √  = σ2 .
2π −∞
2π
R
Hence the expectation and the variance of X are respectively µ and σ2 . By a computation similar
to the variance, one obtains
Z
Z
2
£
¤
y2 dy
4
4
4
3
− y2 dy
√ = 3σ
y2 × ye− 2 √ = 3σ4 .
(1)
E (X − E(X)) = σ
y × ye
2π
2π
R
R
Proposition 1.3. The expectation is linear : if X and Y are integrable real random variables
and λ ∈ R then X + λY is integrable and
E(X + λY) = E(X) + λE(Y).
The concept of independence plays a key role in probability theory.
Définition 1.4. We say that the real random variables X1 , . . . , Xn are independent if
∀A1 , . . . , An ⊂ R, P(X1 ∈ A1 , . . . , Xn ∈ An ) = P(X1 ∈ A1 ) . . . P(Xn ∈ An ).
Independence of X1 , . . . , Xn implies
Qn that for all functions fi : R → R such that fi (Xi ) is
integrable for i ∈ {1, . . . , n}, then i=1 fi (Xi ) is integrable and
" n
#
n
Y
Y
E
fi (Xi ) =
E [fi (Xi )] .
i=1
i=1
In case each Xi has the Q
density pi , this means that the random vector (X1 , . . . , Xn ) has the
density p(x1 , . . . , xn ) = ni=1 pi (xi ).
Proposition 1.5. If X1 , . . . , Xn are independent square integrable real variables, then X1 +
. . . + Xn is square integrable and
Var(X1 + . . . + Xn ) =
n
X
Var(Xi ).
i=1
Démonstration :
·µ X
¶2 ¸
n
Var(X1 + . . . + Xn ) = E
(Xi − E(Xi ))
i=1
=
=
=
n
X
i,j=1
n
X
i=1
n
X
E [(Xi − E(Xi ))(Xj − E(Xj ))] by linearity of E,
X
£
¤
E (Xi − E(Xi ))2 +
E[Xi − E(Xi )]E[Xj − E(Xj )] by independence,
1≤i6=j≤n
Var(Xi ) + 0.
i=1
2
Let us recall the two fundamental convergence theorems in probability theory : the strong law
of large numbers and the central limit theorem. We assume that (Xi )i≥1 is a sequence of real
random variables such that for each n ≥ 1,
∀A1 , . . . , An ⊂ R, P(X1 ∈ A1 . . . , Xn ∈ An ) = P(X1 ∈ A1 )P(X1 ∈ A2 ) . . . P(X1 ∈ An ).
In other words, the variables (Xi )i≥1 are independent and identically distributed. When X1 has
the density p(x1 ) this means that (X1 , . . . , Xn ) has the density q(x1 , . . . , xn ) = p(x1 ) . . . p(xn ).
The strong law of large numbers states the convergence of the empirical mean
n
1X
X̄n =
Xi
n i=1
to the expectation E(X1 ) common to the variables Xi as n → +∞.
Théorème 1.6. If the random variables Xi are integrable then
µ
¶
P lim X̄n = E(X1 ) = 1.
n→+∞
The strong law of large
numbers justifies the Monte-Carlo method which consists in apR
proximating E(X1 ) = xp(x)dx by the empirical mean X̄n . The central limit theorem gives
the precision of this approximation.
Théorème 1.7. Assume
√ that the random variables Xi are square integrable. Then, as n → +∞,
the distribution of n(E(X1 ) − X̄n ) converges to N (0, Var(X1 )).
When Var(X1 ) > 0 this means that
µ
¶
Zb
√
dy
y2
p
∀a < b ∈ R, P(a ≤ n(E(X1 ) − X̄n ) ≤ b) → exp −
.
2Var(X1 )
2πVar(X1 )
a
√
For each n ≥ 1, the expectation of the random variable n(E(X1 ) − X̄n ) is 0 and according
to Proposition 1.5
"µ n
¶2 #
X
£
¤
√
1
Xi − nE(X1 )
Var( n(E(X1 ) − X̄n )) = E n(X̄n − E(X1 ))2 = E
n
i=1
!
à n
n
X
1X
1
Xi =
= Var
Var(Xi ) = Var(X1 ).
n
n
i=1
i=1
Hence the expectation and the variance of the limit distribution N (0, Var(X1 )) are not surprising.
p
Remarque 1.8. Choosing b = −a = 1.96 Var(X1 ) gives the following confidence interval
for the Monte-Carlo approximation of E(X1 ) :
#! Z
Ã
"
p
p
1.96
Var(X
)
Var(X
)
1.96
1.96
dz
2
1
1
√
√
, X¯n +
'
e−z /2 √ = 0.95.
P E(X1 ) ∈ X¯n −
n
n
2π
−1.96
3
Of course in general when one wants to compute E(X1 ), one does
Var(X1 ). But
Pnnot know
1
2
Var(X1 ) can be replaced by the following approximation Vn = n i=1 Xi − (X̄n )2 which is
convergent according to the strong law of large numbers. The derived confidence interval gives
the precision of the Monte-Carlo computation with no supplementary cost. In order to obtain
a better precision for fixed n, one can compute the empirical mean Ȳn of random variables Yi
with the same expectation as X1 but smaller variance. This is the principle of variance reduction
techniques.
2 Brownian motion
Let us first consider the simple symmetric random walk on the set of integers Z. The walker
starts at time 0 at the origin. From time n to time n + 1, it moves from its present location to
one of its 2 nearest neighbours with equal probabilities 1/2. The mathematical formalization
of this walk is based on a sequence (ξi )i≥1 of independent and identically distributed variables
such that P(ξi = 1) = P(ξi = −1) = 12 . The variable ξn+1 represents the move of the walker
from time n to time n + 1. By induction, the position of the walker at time n is
Sn =
n
X
ξi (Convention : S0 = 0).
i=1
The Brownian motion is obtained by a suitable renormalization of this random walk :
1
∀t ∈ [0, +∞[, Bkt = √ Sbktc
k
where k ∈ N∗ and for x √
∈ R, bxc denotes the
Pninteger part of x.
1
Let t > 0. Setting Xi = tξi and X̄n = n i=1 Xi , one obtains
r
´
¢
bktc ³p
1 ¡
k
bktcX̄bktc =
bktcX̄bktc .
Bt = √
kt
kt
2
2
By symmetry E(X1 ) = E(ξ1 ) = 0 and since ξ21 = 1, Var(X
p 1 ) = E(X1 ) = E(tξ1 ) = t. Hence
the central limit theorem 1.7 implies that
qas k tends to ∞, bktcX̄bktc converges in distribution
to a random variable Bt ∼ N (0, t). As bktc
converges to 1, one deduces that Bkt converges in
kt
distribution to Bt .
Now if s > t, by a similar reasoning one obtains the distribution of Bks − Bkt converges to
Pbksc
N (0, s − t). Since Bks − Bkt = √1k i=bktc+1 ξi , this random variable is independent from Bkt . In
the limit k → +∞, independence is preserved. Hence (Bkt , Bks −Bkt ) converges in distribution to
(Bt , Bs − Bt ) where Bt ∼ N (0, t) and Bs − Bt ∼ N (0, s − t) are independent random variables.
More generally when 0 = t0 ≤ t1 ≤ . . . ≤ tn , the vector (Bkt1 , Bkt2 − Bkt1 , . . . , Bktn − Bktn−1 )
converges in distribution to (Bt1 , Bt2 − Bt1 , . . . , Btn − Btn−1 ) where for i ∈ {0, . . . n − 1},
the random variables Bti+1 − Bti are independent and respectively distributed according to
N (0, ti+1 − ti ).
In fact the whole family (Bkt )t≥0 converges in distribution to the standard Brownian motion.
Définition 2.1. We say that a family (Bt )t≥0 is a standard Brownian motion if
1. B0 = 0,
2. For 0 = t0 ≤ t1 ≤ . . . ≤ tn , the random variables Bti+1 − Bti , i ∈ {0, . . . n − 1} are
independent and respectively distributed according to N (0, ti+1 − ti ),
4
3. the sample-paths t ∈ [0, +∞[→ Bt are continuous :
P(t ∈ [0, +∞[→ Bt continuous) = 1.
Remarque 2.2.
– The Brownian motion is a continuous (see 3) process with independent and stationary
increments (see 2).
– Continuity of the sample-paths is of course not obtained by the renormalization of the
symmetric random walk described above. In fact, one can prove that the sample-paths of
the Brownian motion are locally Hölder continuous with exponent α < 1/2 but nowhere
differentiable.
The following property concerning the quadratic variation of the Brownian path is the key
to understandind the specificity of stochastic differential calculus.
Proposition 2.3. Let t > 0, n ∈ N∗ and tk = kt
for k ∈ {0, . . . , n}.
n
Ã
!2 
n−1
X
2t2
E
.
(Btk+1 − Btk )2 − t  =
n
k=0
Démonstration : Since Btk+1 − Btk ∼ N (0, nt ),
E((Btk+1 − Btk )2 ) = Var(Btk+1 − Btk ) =
By linearity of the expectation one deduces that E
t
.
n
hP
n−1
i
2
(B
−
B
)
= t. Hence
tk+1
tk
k=0
Ã
! n−1
!2 
à n−1
n−1
X
X
X
Var((Btk+1 − Btk )2 ),
(Btk+1 − Btk )2 =
(Btk+1 − Btk )2 − t  = Var
E
k=0
k=0
k=0
by independence of the Brownian increments and Proposition 1.5. Since according to (1),
2
£
4
Var((Btk+1 − Btk ) ) = E (Btk+1 − Btk )
¤
µ
£
− E (Btk+1 − Btk )
2
¤
¶2
=
3t2
t2
2t2
−
=
,
n2
n2
n2
one easily concludes.
Notice that when g is a C1 function on [0, t] then
n−1
n−1
2
X
X
sups∈[0,t] (g 0 (s))2 t2 n→+∞
2
0
2t
−→ 0.
(g(tk+1 ) − g(tk )) ≤
sup (g (s)) 2 =
n
n
k=0
k=0 s∈[0,t]
Rt
Therefore 0 g(s)dg(s) = 21 (g2 (t) − g2 (0)).
On this simple example, we can see the main difference between usual and stochastic integral
calculus. The lack of regularity of the Brownian path with respect to the time variable implies
that the quadratic variation of this path does not vanishes as n → +∞. As a consequence a
supplementary term (− 12 t in the above example) appears.
5
3 Espérance conditionnelle
3.1 Tribus construites à partir de variables aléatoires
Soit Ω un ensemble muni d’une tribu A c’est-à-dire un sous-ensemble de l’ensemble P(Ω)
des parties de Ω
– contenant ∅ et Ω,
– stable par passage au complémentaire,
– stable par union ou intersection dénombrable.
Rappelons la définition d’une variable aléatoire réelle sur (Ω, A) :
Définition 3.1. Une application X de Ω muni de la tribu A dans R est une variable aléatoire si
pour tout B dans la tribu borélienne de R (plus petite tribu qui contient tous les intervalles) :
{ω ∈ Ω, X(ω) ∈ B} = {X ∈ B} ∈ A.
Cette propriété est la A-mesurabilité de X.
Une sous-tribu B de A est une tribu sur Ω t.q. B ⊂ A.
– Soit X une variable aléatoire sur (Ω, A) à valeurs dans R. On note : σ(X) la plus petite
sous tribu B de A, rendant l’application X B-mesurable. Cette tribu représente l’information donnée par la connaissance de X. Notez, par exemple, que si A ∈ A, alors la tribu
engendrée par la variable aléatoire 1A est égale à :
{φ, A, Ac , Ω} .
– Soit X1 , . . . , Xn , n variables aléatoires sur (Ω, A) à valeurs dans R, on note :
σ(X1 , . . . , Xn )
la plus petite sous tribu B de A rendant les applications X1 , . . . , Xn B-mesurables.
Cette tribu représente l’information donnée par la connaissance des variables aléatoires
X1 , . . . , X n .
– Soit (Xn , n ≥ 1) une suite de variables aléatoires réelles A-mesurables. On note, pour
tout n ≥ 1 :
Fn = σ(Xk , 1 ≤ k ≤ n).
Alors (Fn , n ≥ 1) est une suite croissante de tribus qui porte le nom de filtration naturelle. Pour un n fixé, Fn représente l’information disponible à l’instant n.
Le résultat suivant (admis) clarifie l’interprétation d’une tribu comme information.
Proposition 3.2. Soit X et Y deux variables aléatoires réelles. Alors Y est σ(X)-mesurable si et
seulement si il existe une fonction1 f de R dans R, telle que :
P (Y = f(X)) = 1.
Remarque 3.3. Si Y est σ(X)-mesurable et, si l’on connaı̂t la valeur de X, on peut en déduire
la valeur de Y.
mesurable au sens où l’image réciproque par f de tout élément de la tribu borélienne de R est dans la tribu
borélienne de R
1
6
3.2 Notion d’espérance conditionnelle
Soit X une variable aléatoire réelle définie sur (Ω, A) et soit B ⊂ A une sous tribu de A.
L’espérance conditionnelle vise à définir la notion de meilleure approximation de X par une
variable aléatoire B-mesurable.
Cette notion est, évidemment, relative au choix d’une probabilité P sur (Ω, A). Nous allons
commencer par traiter le cas où X est une variable aléatoire de carré intégrable, c’est à dire telle
que E(X2 ) < +∞ (on le note aussi X ∈ L2 (P)).
La construction se fait en utilisant le théorème de projection sur un sous espace fermé d’un
espace de Hilbert.
Pour cela©posons :
ª
– HA = © X variable aléatoire A-mesurable telle que E(X2 ) < +∞ª ,
– HB = X variable aléatoire B-mesurable telle que E(X2 ) < +∞ .
Alors HA est un espace de Hilbert : c’est un espace vectoriel complet muni d’une norme dérivant
du produit scalaire < X, Y >= E(XY) et kXk2 =< X, X >. HB est un sous espace vectoriel
fermé inclus dans cet espace de Hilbert. On peut alors montrer, en utisant le théorème de projection sur un sous espace fermé dans un espace de Hilbert, le résultat suivant.
Proposition 3.4. Si X est une variable aléatoire telle que E(X2 ) < +∞, il existe une unique
variable aléatoire Z, telle que E(Z2 ) < +∞, B-mesurable et vérifiant :
¡
¢
¡
¢
E (X − Z)2 = inf E (X − Y)2 .
Y∈HB
Z est, ainsi, la variable aléatoire la p
“plus proche” de X au sens de la norme de l’espace de
Hilbert HA , c’est à dire de la norme E(X2 ). Z est l’espérance conditionnelle de X sachant
B que l’on note :
E (X|B) .
X
Z
0
HB̄
F IG . 1 – Projection orthogonale sur HB
On obtient (voir dessin) le résultat suivant :
Proposition 3.5. Il existe une unique variable aléatoire B-mesurable telle que E(Z2 ) < +∞,
vérifiant pout toute variable aléatoire Y, B-mesurable et telle que E(Y 2 ) < +∞ :
E(XY) = E(ZY).
Cette variable aléatoire Z est la meilleure approximation, au sens de la norme
parmi les variables aléatoires B-mesurables de carré intégrable.
7
p
E(X2 ), de X
Cette définition ne permet pas de traiter le cas de variables aléatoires seulement intégrables
(i.e. telle que E(|X|) < +∞). L’extension au cas intégrable, pour l’essentiel identique au cas de
carré intégrable, est plus technique et nous admettrons donc le résultat suivant.
Théorème 3.1. Soit X une variable aléatoire réelle telle que E(|X|) < +∞, alors il existe une
unique variable aléatoire B-mesurable Z telle que E(|Z|) < +∞ vérifiant pour toute variable
aléatoire Y B-mesurable et bornée :
E(XY) = E(ZY).
On note la variable aléatoire Z sous la forme :
E (X|B) .
C’est l’espérance conditionnelle de X sachant B.
Remarque 3.6. Evidemment pour une variable aléatoire de carré intégrable, les deux définitions
coı̈ncident.
Remarque 3.7. Lorsque la tribu B est celle engendrée par une variable aléatoire X (B = σ(X)),
on note :
E(Y|X) := E(Y|σ(X)).
Noter que comme toute variable aléatoire σ(X)-mesurable est de la forme f(X), f étant une
fonction (voir la proposition 3.2), on a :
E(Y|X) = f(X).
E(Y|X) est ainsi la meilleure approximation de Y par une fonction de X.
Exemples : Soit B1 , . . . , Bn une partition de Ω et
©
ª
B = ∪réunion finie Bik .
Soit Y une variable B-mesurable. Pour 1 ≤ i ≤ n, on note ωi un élément de Bi et yi = Y(ωi ).
L’ensemble {Y = yi } contient ωi et appartient à B d’après l’hypothèse
sur Y. En utilisant la
P
définition de B, on en déduit que {Y = yi } contient Bi . Ainsi Y = ni=1 1Bi yi . Inversement si Y
est de cette forme, alors il est facile de vérifier que Y est B-mesurable.
En utilisant cette caractérisation des variables aléatoires B-mesurables, on peut vérifier que pour
toute variable aléatoire réelle X intégrable sur (Ω, A),
E(X|B) =
X
1Bi
i:P(Bi )>0
8
E(X1Bi )
.
P(Bi )
Propriétés de l’espérance conditionnelle On peut démontrer (exercice sans difficultés) les
propriétés suivantes de l’espérance conditionnelle qu’il faut impérativement connaı̂tre. Dans ce
qui suit toutes les variables aléatoires considérées sont supposées intégrables.
1. Linéarité :
E(λX + µY|B) = λE(X|B) + µE(Y|B).
2. Positivité :
Si X ≥ 0, alors E(X|B) ≥ 0.
Si X ≥ Y, alors E(X|B) ≥ E(Y|B).
3. Si X est intégrable et B-mesurable alors :
E (X|B) = X.
4. Si Z est une variable aléatoire B-mesurable et bornée :
E(ZX|B) = ZE(X|B).
5.
E (E (X|B)) = E(X).
Soit C une sous tribu de B alors :
E (E(X|B)|C) = E(X|C).
6. Si X est indépendante de la tribu B (c’est à dire indépendante de toutes la variables aléatoires B-mesurables) :
E (X|B) = E(X).
7. Contraction pour la norme L2 :
³
´
E |E(X|B)|2 ≤ E(|X|2 ).
Remarque 3.8. On déduit de la propriété 2 :
|E(X|B)| ≤ E (|X||B) ,
et (contraction pour la norme L1 ) :
E (|E(X|B)|) ≤ E(|X|).
9
4 Mouvement brownien et martingales
Généralités sur les processus à temps continu
repésente l’information disponible.
On peut introduire la notion de filtration qui
Définition 4.1. Soit (Ω, A) un espace muni d’une tribu, on appelle filtration une suite croissante
de sous tribus de A, (Ft , t ≥ 0). Un processus (Xt , t ≥ 0) est un processus adapté à une
filtration (Ft , t ≥ 0), si pour tout t ≥ 0, Xt est Ft -mesurable.
Remarque 4.2. La filtration naturelle associée à un processus (Xt ≥ 0) est par définition la
famille de sous tribus :
Ft = σ (Xs , s ≤ t) ,
où Ft est la plus petite tribu rendant mesurable les applications ω → Xs (ω), pour s ≤ t.
On définit la notion de temps d’arrêt.
Définition 4.3. Soit (Ft , t ≥ 0) une filtration, soit τ une variable aléatoire positive à valeurs
dans R+ ∪ {+∞}. On dit que τ est un temps d’arrêt si pour tout t :
{τ ≤ t} ∈ Ft .
Remarque 4.4. Il est facile de vérifier que si S et T sont deux temps d’arrêt, alors S ∧ T =
inf(S, T ) est encore un temps d’arrêt. En particulier, si t ∈ R+ , S ∧ t est un temps d’arrêt.
Martingales à temps continu
processus à temps continu.
On peut alors introduire la notion de martingale au cas des
Définition 4.5. Soit (Ft , t ≥ 0) une filtration sur un espace (Ω, A, P) et (Mt , t ≥ 0) un
processus adapté à cette filtration. On dit que (Mt , t ≥ 0) est une martingale par rapport à la
filtration (Ft , t ≥ 0), si pour tout t ∈ R+ , E(|Mt |) < +∞ et si pour tout s ≤ t :
E (Mt |Fs ) = Ms .
Théorème d’arrêt pour les martingales continues Si (Mt , t ≥ 0) est une martingale continue (i.e. les trajectoires t → Mt (ω) sont continues, sauf pour un ensemble de ω de probabilité
nulle pour P), on peut étendre l’égalité :
E(Mt ) = E(M0 ),
qui découle de la définition en prennant l’espérance des deux membres a priori vraie pour un
temps fixe t à un temps d’arrêt borné. Ce résultat porte le nom de théorème d’arrêt.
Théorème 4.1. Soit τ un temps d’arrêt par rapport à une filtration (Ft , t ≥ 0). Soit (Mt , t ≥
0) une martingale continue par rapport à la même filtration. Si τ ≤ k < +∞, k étant une
constante réelle, alors on a :
E(Mτ ) = E(M0 ).
Extensions de la définition du mouvement brownien
vement brownien par rapport à une filtration donnée.
Nous commencons par définir le mou-
Définition 4.6. On dit que (Bt , t ≥ 0) est un mouvement brownien par rapport à une filtration
(Ft , t ≥ 0), si (Bt , t ≥ 0) est un processus continu adapté à cette filtration, nul en 0 et si les
accroissements Bt+h − Bt sont indépendants de Ft et de loi gaussienne centrée de variance h.
Remarque 4.7. Noter que cette définition implique que (Bt , t ≥ 0) est un mouvement brownien
au sens classique (puisque σ(Bs , s ≤ t) ⊂ Ft ).
10
4.1 Exemples de martingales browniennes
Proposition 4.8. Soit (Bt , t ≥ 0) un mouvement brownien standard, alors si Ft = σ(Bs , s ≤
t) :
– (Bt , t ≥ 0) est une martingale par rapport à (Ft , t ≥ 0),
– (B2t − t, t ≥ 0) est une martingale par rapport à (Ft , t ≥ 0),
– (eσBt −
σ2
t
2
, t ≥ 0) est une martingale par rapport à (Ft , t ≥ 0).
Démonstration : Notons que si s ≤ t, on a, comme Bt − Bs est indépendante de la tribu Fs :
E (Bt − Bs |Fs ) = E(Bt − Bs ).
Mais E(Bt − Bs ) = E(Bt ) − E(Bs ) = 0 − 0 = 0, donc :
E (Bt − Bs |Fs ) = 0.
Bs étant Fs -mesurable on en déduit que E(Bs |Fs ) = Bs puis que :
E (Bt |Fs ) = Bs .
Ceci prouve le premier point.
Pour démontrer la deuxième propriété remarquons que :
³
´
E (Bt − Bs )2 |Fs = E(B2t |Fs ) − 2Bs E(Bt |Fs ) + B2s .
Comme Bs est une martingale, on a E(Bt |Fs ) = Bs et donc :
³
´
E (Bt − Bs )2 |Fs = E(B2t |Fs ) − B2s .
Notons, de plus, que comme Bt − Bs est indépendant de Fs , on a :
³
´
³
´
E (Bt − Bs )2 |Fs = E (Bt − Bs )2 .
Mais Bt − Bs suit la même loi que Bt−s − B0 = Bt−s , c’est à dire une loi gaussienne centrée de variance
t − s, on a donc :
³
´
E (Bt − Bs )2 |Fs = t − s.
Donc il vient :
ou encore :
³
´
E(B2t |Fs ) − B2s = E (Bt − Bs )2 = t − s,
E(B2t − t|Fs ) = B2s − s.
Ce qui prouve la deuxième propriété.
Pour prouver la troisième propriété notons, en utilisant l’indépendance des accroissements, que :
³
´
³
´
E eσ(Bt −Bs ) |Fs = E eσ(Bt −Bs ) .
Mais la loi de Bt − Bs est celle d’une gaussienne centrée de variance t − s (dont on peut calculer la
transformée de Laplace) donc :
³
´
σ2
E eσ(Bt −Bs ) = e 2 (t−s) .
On a donc :
³
´
σ2
E eσ(Bt −Bs ) |Fs = e 2 (t−s) .
La variable aléatoire Bs étant Fs -mesurable on obtient donc :
µ
¶
σ2
σ2
E eσBt − 2 t |Fs = eσBs − 2 s .
11
5 Intégrale stochastique et calcul d’Itô
Dans le cas des modèles à temps continu, nous allons généraliser la notion d’intégrales du
type
Z
t
Hs dBs ,
0
où (Bs , s ≥ 0) est un mouvement brownien.
L’une des propriétés importantes du mouvement brownien est que presque sûrement ses
trajectoires sont nulle part différentiables. Autrement dit, si Bt est un mouvement brownien, il
t
n’existe pas de points t de R+ tels que dB
ait un sens. On ne peut donc pas définir l’intégrale
dt
précédente par :
Zt
Zt
dBs
ds.
f(s)dBs = f(s)
ds
0
0
On peut donner, cependant, un sens précis à ce type d’ intégrales par rapport au mouvement
brownien. C’est ce que nous allons faire dans ce paragraphe. On appelle ces intégrales des
“intégrales stochastiques”.
5.1 Construction de l’intégrale stochastique
Soit (Bt )t≥0 un Ft -mouvement brownien standard sur un espace probabilisé filtré
Rt
(Ω, A, (Ft )t≥0 , P). Nous allons donner un sens à 0 f(s, ω)dBs pour une classe de processus
f(s, ω) adaptés à la filtration (Ft )t≥0 . On va commencer par construire l’intégrale stochastique
sur un ensemble de processus dits élémentaires. Dans toute la suite, on fixe T un réel strictement
positif et fini.
Définition 5.1. On appelle processus élémentaire (Ht )0≤t≤T un processus de la forme :
Ht (ω) =
p
X
φi (ω)1]ti−1 ,ti ] (t)
i=1
où 0 = t0 < t1 < . . . < tp = T et φi est Fti−1 -mesurable et bornée.
L’intégrale stochastique d’un processus élémentaire H est alors, par définition, le processus
continu (I(H)t )0≤t≤T défini par, si t ∈]tk , tk+1 ] :
X
I(H)t =
φi (Bti − Bti−1 ) + φk+1 (Bt − Btk ).
1≤i≤k
Notons que I(H)t peut s’écrire :
I(H)t =
X
φi (Bti ∧t − Bti−1 ∧t ),
1≤i≤p
ce qui prouve la continuité de la fonction t 7→ I(H)t . On notera
alors le résultat essentiel suivant :
Proposition
5.2. ´Si (Ht )0≤t≤T est un processus élémentaire :
³R
t
–
H dBs
est une Ft -martingale continue,
0 s
0≤t≤T !
õZ
µZ t
¶
¶
2
t
2
– E
=E
Hs ds ,
Hs dBs
0
0
12
Rt
0
Hs dBs pour I(H)t . On a
Ã
¯Z t
¯2 !
µZ T
¶
¯
¯
2
– E sup ¯¯ Hs dBs ¯¯ ≤ 4E
Hs ds .
t≤T
0
0
On vient de définir et donner des propriétés de l’intégrale stochastique pour les processus
élémentaires, nous allons maintenant étendre cette intégrale à une classe de processus adaptés :
¯
µZ T
¶
°
2
H = (Ht )0≤t≤T , processus adapté à (Ft )t≥0 , E
Hs ds < +∞ .
0
Proposition 5.3. Soit (Bt )t≥0 un Ft -brownien. Alors il existe une unique application linéaire J
de H dans l’espace des Ft -martingales continues définies sur [0, T ], telle que :
1. Si (Ht )t≤T est un processus élémentaire, P p.s. pour tout 0 ≤ t ≤ T J(H)t = I(H)t .
µZ t
¶
¡
¢
2
2
2. Si H ∈ H et si t ≤ T , E J(H)t = E
Hs ds .
0
Cette application linéaire est unique au sens suivant, si J et J 0 sont deux prolongements linéaires
vérifiant les propriétés précédentes alors :
P p.s.
∀0 ≤ t ≤ T, J(H)t = J 0 (H)t
Zt
On note, si H ∈ H,
Hs dBs = J(H)t .
0
De plus cette intégrale stochastique vérifie les propriétés suivantes :
Proposition 5.4. Si (Ht )0≤t≤T un processus de H alors :
1. On a :
Ã
¯Z t
¯2 !
¶
µZ T
¯
¯
2
¯
¯
E sup ¯ Hs dBs ¯ ≤ 4E
Hs ds
t≤T
0
(2)
0
2. Si τ est un Ft -temps d’arrêt :
Zτ
ZT
Hs dBs =
P p.s.
0
0
1{s ≤ τ} Hs dBs
(3)
Nous aurons besoin d’un résultat permettant de relaxer l’hypothèse d’intégrabilité portant
sur (Hs ). Posons :
°
¯
ZT
2
H̃ = (Hs )0≤s≤T est un processus adapté à (Ft )t≥0 ,
Hs ds < +∞ P p.s. .
0
La proposition suivante permet de prolonger l’intégrale stochastique de H à H̃.
Proposition 5.5. Il existe une unique application linéaire J̃ de l’espace H̃ dans l’espace vectoriel des processus continus définis sur [0, T ], telle que :
1. Propriété de prolongement. Si (Ht )0≤t≤T est un processus élémentaire alors :
P p.s. , ∀0 ≤ t ≤ T, J̃(H)t = I(H)t .
2. Propriété de continuité : Si (Hn )n≥0 est une suite de processus de H̃ telle que
tend vers 0 en probabilité alors supt≤T |J̃(Hn )t | tend vers 0 en probabilité.
13
RT
0
Hns 2 ds
On note toujours
Rt
0
Hs dBs pour J̃(H)t .
Remarque 5.6. Il est important de noter que dans ce cas
³R
t
0
´
Hs dBs
0≤t≤T
n’est pas
(nécessairement) une martingale.
Nous allons résumer les conditions d’existence de l’intégrale stochastique par rapport à un
mouvement brownien, et les hypothèses qui permettent d’affirmer qu’il s’agit d’une martingale.
Résumé :
Soit (Bt )t≥0 un Ft -mouvement brownien et (Ht )0≤t≤T un processus Ft -adapté. On peut définir
Rt
RT
l’intégrale stochastique ( 0 Hs dBs )0≤t≤T ³dès que ´0 H2s ds < +∞ P p.s. . Le processus
Rt
RT
( 0 Hs dBs )0≤t≤T est une martingale si E 0 H2s ds < +∞. Cette condition n’est cependant
´
³R
T
pas nécessaire. Remarquons, toutefois, que la condition E 0 H2s ds < +∞ est équivalente
à :
Ã
µZ
¶ !
2
t
E
Hs dBs
sup
t∈[0,T ]
et que , dans ce cas on a l’égalité :
"µZ
¶2 #
T
Hs dBs
E
< +∞,
0
µZ T
=E
0
0
¶
H2s ds
.
(4)
Références
[1] Karatzas, I. and Shreve, S.E. Brownian motion and stochastic calculus. Second edition.
Graduate Texts in Mathematics, 113. Springer-Verlag, New York, 1997.
[2] Lamberton, D. and Lapeyre, B. Introduction au calcul stochastique appliqué à la finance.
Second edition.
[3] Lamberton, D. and Lapeyre, B. Introduction to stochastic calculus applied to finance. Chapman & Hall, 1996.
[4] Protter, P.E. Stochastic integration and differential equations. Second edition. Applications
of Mathematics (New York), 21. Stochastic Modelling and Applied Probability. SpringerVerlag, Berlin, 2004.
[5] Revuz, D. and Yor, M. Continuous martingales and Brownian motion. Third edition. Grundlehren der Mathematischen Wissenschaften, 293. Springer-Verlag, Berlin, 1999.
[6] Rogers, L.C.G. and Williams, D. Diffusions, Markov processes, and martingales. Vol. 1
and 2. Second edition. John Wiley & Sons, 1994.
[7] Stroock, D.W. and Varadhan, S.R.S. Multidimensional diffusion processes Grundlehren
der Mathematischen Wissenschaften, 233. Springer-Verlag, Berlin, 1979.
14