CHAPITRE 3: MOUVEMENT BROWNIEN Le

Transcription

CHAPITRE 3: MOUVEMENT BROWNIEN Le
CHAPITRE 3: MOUVEMENT BROWNIEN
MR2, module B1: Cours de calcul stochastique
Fabrice Baudoin
Le mouvement brownien est une description du mouvement aléatoire de particules qui ne sont
soumises à aucune autre interaction que les chocs. Ce comportement a été décrit physiquement
pour la première fois par le biologiste Robert Brown en 1827. Il fut étudié mathématiquement au
20ème siècle notamment par Bachelier, Einstein, Wiener, Lévy, Yor. D’énormément de points de
vue, il constitue le processus ”canonique” de la théorie des probabilités et reste à l’heure actuelle
l’objet d’intenses recherches. Les outils introduits sont:
– La notion de marche aléatoire symétrique;
– La notion de processus de Lévy;
– La notion de mouvement brownien;
– La notion de propriété de Markov forte;
– La notion de processus de diffusion.
Table des matières
1.
2.
3.
4.
5.
6.
7.
8.
Préliminaires: La marche aléatoire symétrique
Processus de Lévy
Définition, existence et premières propriétés du mouvement brownien
Le principe d’invariance de Donsker
Loi du logarithme itéré
Propriété de Markov forte
Diffusions
Un invité de marque: Paul Lévy
1
2
9
13
20
24
26
29
34
2
MR2 B1, F.BAUDOIN
1. Préliminaires: La marche aléatoire symétrique
Le but de ce paragraphe est d’essayer de mettre en avant sur un objet simple quelques techniques
essentielles qui reviendront dans l’étude du mouvement brownien :
(1) L’utilisation de martingales et de temps d’arrêt.
(2) La notion de propriété de Markov forte.
Definition 1. On appelle marche aléatoire sur Z une suite de variables aléatoires (Sn )≥0 définies
sur un espace de probabilité (Ω,B,P) à valeurs dans Z et vérifiant les deux propriétés suivantes:
(1) (Sn )≥0 est à accroissements stationnaires, c’est-à-dire que pour m,n ∈ N, Sm+n − Sm a
même loi que Sn
(2) (Sn )≥0 est à accroissements indépendants, c’est-à-dire que pour m,n ∈ N, Sm+n − Sm
est indépendant de σ (S0 ,...,Sm ) .
Intuitivement, la marche aléatoire est un objet très simple à comprendre (mais pour lequel une
étude fine et approfondie est fort délicate !). Si on considère une partie de pile ou face non
biaisée pour laquelle on gagne 1 euro si pile tombe et perd 1 euro si c’est face, alors la fortune
(algèbrique) d’un joueur qui joue à ce jeu est une marche aléatoire symétrique sur Z. De manière
rigoureuse:
Considérons une suite de variables aléatoires indépendantes (Xi )i≥1 définies sur un espace de
probabilité (Ω,B,P) et vérifiant
1
P (Xi = −1) = P (Xi = 1) =
2
A une telle suite on associe la suite (Sn )n≥0 définie par S0 = 0 et pour n ≥ 1 par
Sn =
n
X
Xi
i=1
Sn s’interpréte également comme la position d’un marcheur (fou !) ayant effectué n pas sur un
axe soit en avant, soit en arrière avec la probabilité 12 .
Nous noterons pour n ≥ 0, Bn la tribu engendrée par les variables S0 ,...,Sn .
Proposition 2. (Sn )n≥0 et (−Sn )n≥0 sont des marches aléatoires au sens de la définition 1.
Preuve. Montrons tout d’abord que
(X1 ,...,Xn ) =loi (Xm+1 ,...,Xm+n )
Pour cela, il suffit de vérifier que pour tout n-uplet (fi )1≤i≤n de fonctions {−1,1} → R nous
avons
E (f1 (X1 ) ...fn (Xn )) = E (f1 (Xm+1 ) ...fn (Xm+n ))
Comme par indépendance des Xi nous avons
E (f1 (X1 ) ...fn (Xn )) = E (f1 (X1 )) ...E (fn (Xn ))
et
E (f1 (Xm+1 ) ...fn (Xm+n )) = E (f1 (Xm+1 )) ...E (fn (Xm+n ))
nous concluons du fait que
E (fi (Xi )) = E (fi (Xm+i ))
puisque
Xi =loi Xm+i
MR2 B1, F.BAUDOIN
Nous avons ainsi
Sn+m − Sm =
n+m
X
Xk =loi
k=m+1
3
n
X
Xk = Sn
k=1
et l’indépendance se montre de même, étant donné que pour tout m+n-uplet (fi )1≤i≤m+n de
fonctions {−1,1} → R nous avons
E (f1 (X1 ) ...fm+n (Xm+n )) = E (f1 (X1 ) ...fm (Xm )) E (fm+1 (Xm+1 ) ...fm+n (Xm+n ))
ce qui implique que la tribu σ (Xm+1 ,...,Xm+n ) est indépendante de la tribu Bm .
La démonstration est identique pour (−Sn )n≥0 . (Sn )n≥0 est appelée la marche aléatoire symétrique standard sur Z.
Proposition 3. Pour n ∈ N, k ∈ Z:
(1) Si n et k ont la même parité:
1
P(Sn = k) = n
2
n
n!
= p!(n−p)!
.
p
(2) Si n et k ont des parités différentes
où
n
n+k
2
,
P(Sn = k) = 0.
.
n
Preuve. On remarque que n+S
est une somme de n variables aléatoires de Bernoulli indépendantes.
2
n+Sn
Ainsi 2 suit une loi binomiale de paramètres (0,n).
√
Exercice 4. En déduire à l’aide de la formule de Stirling (n! ∼ e−n nn 2πn) un équivalent pour
x ∈ R de P (S2n = 2[x]) , [x] étant la partie entière de x.
Proposition 5. Les suites suivantes de v.a. sont des (Bn )n≥0 martingales:
(1) (Sn )n≥0
(2) Sn2 − n n≥0
(3) exp (−λSn − n ln(cosh(λ))) ,n ≥ 1,λ > 0.
Preuve.
(1) Pour n ≥ m
E (Sn | Bm ) = E (Sn − Sm | Bm ) + E (Sm | Bm )
= E (Sn − Sm ) + Sm
= Sm
(2) Tout d’abord remarquons que
P
E Sn2 = E ( i Xi )2
P
= E
X
X
i
j
Pn i,j 2 P
=
i6=j E (Xi ) E (Xj )
i=1 E Xi +
= n
4
MR2 B1, F.BAUDOIN
Maintenant, pour n ≥ m, nous avons
2
E (Sn − Sm )2 | Bm = E (Sn − Sm )2 = E Sn−m
=n−m
Mais, d’un autre côté
2 |B
= E Sn2 | Bm − 2E (Sn Sm | Bm ) + E Sm
E (Sn − Sm )2 | Bm
m
2 + S2
= E Sn2 | Bm − 2Sm
m
2
2
= E Sn | Bm − Sm
Ce qui nous permet de conclure
2
E Sn2 − n | Bm = Sm
−m
(3) Pour n ≥ m
E e−λ(Sn −Sm ) | Bm
=
=
=
=
ce qui amène à la conclusion souhaitée. E e−λ(Sn −Sm )
E e−λSn−m
n−m
E e−λX1
(cosh λ)n−m
Proposition 6. (Propriété de Markov simple) Pour m ≤ n, k ∈ Z,
P (Sn = k | Bm ) = P (Sn = k | Sm ) .
Preuve. On a pour λ > 0,
Ainsi
E e−λSn | Bm = (cosh λ)n−m e−λSm .
E e−λSn | Bm = E e−λSn | Sm .
Ainsi (Sn )n≥0 a la propriété de Markov.
Nous rappelons qu’une variable aléatoire T à valeurs dans N est appelée un temps d’arrêt pour
(Sn )n≥0 si pour tout m l’évènement {T ≤ m} est dans Bm . L’ensemble
BT = {A ∈ B, ∀ m ∈ N∗ , A ∩ {T ≤ m} ∈ Bm }
est alors une sous tribu de B (démontrez le !).
Proposition 7. Si T est un temps d’arrêt pour (Sn )n≥0 tel que P (T < +∞) = 1 alors la suite
(Sn+T − ST )n≥0 est une marche aléatoire symétrique sur Z indépendante de BT .
Preuve. Notons
et considérons alors le temps d’arrêt
Sen = Sn+T − ST
Tm = T + m
En appliquant le théorème d’arrêt de Doob à la martingale
(cos λ)−n eiλSn
n≥0
associée au temps d’arrêt Tm ∧ N avec N ∈ N∗ , nous obtenons, ∀ n ∈ N
E (cos λ)−n eiλ(Sn+Tm ∧N −STm ∧N ) | BTm ∧N = 1
MR2 B1, F.BAUDOIN
5
A la limite N → +∞, nous obtenons donc par le théorème de convergence dominée, ∀ n ∈ N
e
e
(1)
E (cos λ)−n eiλ(Sn+m −Sn ) | BT +m = 1
ce quiimplique
donc l’indépendance et la stationnarité des accroissements.
e
Ainsi Sn
est une marche aléatoire sur Z indépendante de BT .
n≥0
Pour conclure, montrons que cette marche est symétrique. La variable Sen+1 − Sen est à valeurs
dans {−1,1} et vérifie d’autre part,
e
e
E eiλ(Sn+1 −Sn ) = cos λ
ce qui donne évidemment
1
P Sen+1 − Sen = −1 = P Sen+1 − Sen = 1 = .
2
Corollaire 8. (Propriété de Markov forte) Soit T un temps d’arrêt pour (Sn )n≥0 tel que
P (T < +∞) = 1. Pour tout k ∈ Z
P (ST +1 = k | BT ) = P (ST +1 = k | ST )
Preuve. Comme la suite (Sn+T − ST )n≥0 est une marche aléatoire symétrique sur Z indépendante
de BT , on a pour λ > 0,
E e−λST +1 | BT = (cosh λ) e−λST .
Ainsi
E e−λST +1 | BT = E e−λST +1 | ST .
Ainsi (Sn )n≥0 a la propriété de Markov forte.
Dans la proposition suivante, nous montrons que la marche aléatoire symétrique est récurrente,
c’est-à-dire visite chaque point de Z avec une probabilité égale à 1.
Proposition 9. (Récurrence de la marche)
∀ k ∈ Z, ∀ m ∈ N, P (∃ n ≥ m, Sn = k) = 1
Preuve.
Montrons tout d’abord
On a
P (∀ k ∈ [1,2n] , Sk 6= 0) = P (S2n = 0) .
P (∀ k ∈ [1,2n] , Sk 6= 0)
= 2PP(∀ k ∈ [1,2n] , Sk > 0)
= 2 nj=1 P (∀ k ∈ [1,2n] , Sk > 0 | S2n = 2j) P (S2n = 2j)
P
= 2 nj=1 nj P (S
2n = 2j) Pn j 1
2n
= 2 j=1 n 22n
n+j
Maintenant, il est facile de démontrer par récurrence l’identité suivante
n
X
n 2n
2n
j
=
n
n+j
2
j=1
6
MR2 B1, F.BAUDOIN
qui assure bien
P (∀ k ∈ [1,2n] , Sk 6= 0) = P (S2n = 0) .
Comme
P (S2n = 0) =
(2n)! 1
→n→+∞ 0
(n!)2 22n
nous déduisons que
P (∃ n > 1, Sn = 0) = 1
Notons Z1 le premier zéro non nul de (Sn )n∈N . Soit maintenant
T1 = inf{n ≥ 0, Sn = 1}
et
Il est clair que T1 et T−1
Mmontrons que
T−1 = inf{n ≥ 0, Sn = −1}
sont des temps d’arrêt.
P (T1 < +∞) = 1
D’après la propriété de Markov, pour n ≥ 1
Comme
P (Z1 ≥ n)
= P (Z1 ≥ n | S1 = 1) P (S1 = 1) + P (Z1 ≥ n | S1 = −1) P (S1 = −1)
= 12 P (Z1 ≥ n | S1 = 1) + 21 P (Z1 ≥ n | S1 = −1)
= 12 P (T1 ≥ n − 1) + 21 P (T−1 ≥ n − 1)
(Sn )n≥0 = (−Sn )n≥0
il est clair que P (T1 < +∞) = 1 si et seulement si P (T−1 < +∞) = 1 et dans ce cas
T1 =loi T−1
Ainsi, puisque
P (Z1 < +∞) = 1
nous avons bien
P (T1 < +∞) = 1
En appliquant le résultat précédent à la marche aléatoire (Sn+T1 − 1)n≥0 , on en déduit que
P (∃ n > 1, Sn = 2) = 1.
Par récurrence nous déduisons donc que
Puis, par symétrie
∀k ∈ N,P (∃ n > 1, Sn = k) = 1.
∀k ∈ N,P (∃ n > 1, Sn = −k) = 1.
En appliquant cela à la marche aléatoire (Sn+m − Sm )n≥0 , on en déduit que
∀ k ∈ Z, ∀ m ∈ N, P (∃ n ≥ m, Sn = k) = 1.
Comme conséquence immédiate de la proposition précédente, pour k ∈ Z, le temps d’arrêt
est tel que
Tk = inf{n ≥ 1, Sn = k}
P (Tk < +∞) = 1.
MR2 B1, F.BAUDOIN
7
Tout d’abord, on remarque
Proposition 10. La suite (Tk )k≥0 est une marche aléatoire sur Z.
Preuve. Pour 0 ≤ a < b, on a
Tb = Ta + inf{n ≥ 1,Sn+Ta = b}.
Comme (Sn+Ta − a)n≥0 est une marche aléatoire sur Z indépendante de Ta , on en déduit que:
(1) inf{n ≥ 1,Sn+Ta = b} est indépendant de BTa .
(2)
inf{n ≥ 1,Sn+Ta = b} =loi Tb−a .
Calculons maintenant la loi de Tk .
Proposition 11. Pour 0 < x < 1, k ∈ Z,
X
xn P(Tk = n) =
1−
n=0
!k
√
1 − x2
.
x
Preuve. Soit λ > 0. En appliquant le théorème d’arrêt à la martingale
(cosh λ)−n e−λSn
n≥0
avec le temps d’arrêt Tk ∧ N , N ∈ N∗ , nous obtenons
E e−λSN∧Tk −(Tk ∧N ) ln cosh λ = 1.
On utilise maintenant le théorème de convergence dominée pour en déduire:
E e−λk−Tk ln cosh λ = 1.
D’où,
E e−(ln cosh λ)Tk = eλk .
En posant
x = e− ln cosh λ
on obtient
1−
E xTk =
On en déduit:
√
1 − x2
x
!k
.
Corollaire 12. Pour k ∈ N, n ∈ N,
1
1 X
1
2i1 − 1
2ik − 1
...
P(Tk = n) = n
...
,
ik
2
2i1 − 1 2ik − 1 i1
I
avec
I=
En particulier, pour n ∈ N,
n−k
(i1 ,...,ik ) ∈ N ,i1 + ... + ik =
2
k
.
P(T1 = 2n) = 0
1
1
2n − 1
P(T1 = 2n + 1) =
.
2n+1
n
2n − 1
2
8
MR2 B1, F.BAUDOIN
Preuve. Il suffit de développer en série entière la fonction
!k
√
1 − 1 − x2
x→
x
Exercice 13. On souhaite maintenant étudier la suite des zéros de S :
Z0 = 0,Zk+1 = inf{n > Zk , Sn = 0}
Montrer que:
(1) La suite (Zk )k≥0 est une marche aléatoire sur Z.
(2) Pour k ≥ 1,
Zk =loi k + Tk .
Proposition 14. (Principe de réflexion) Pour n ≥ 0, soit
Mn = max Sk .
0≤k≤n
On a alors pour k,n ∈ N,
1
(P (Tk ≤ n) − P (Sn = k)) .
2
Preuve. Fixons k,n ∈ N et avant toute chose nous remarquons l’égalité ensembliste suivante
P (Mn ≥ k, Sn < k) =
{Tk ≤ n} = {Mn ≥ k}
Ensuite, introduisons la suite de variables aléatoires Sem
m≥0
définie par
Sem = Sm+Tk − k
Cette suite est une marche aléatoire symétrique pour laquelle n − Tk ∧ n est un temps d’arrêt.
Maintenant,
Sen−T ∧n =loi −Sen−T ∧n
k
k
Nous pouvons donc écrire
P Tk ≤ n,Sen−Tk < 0 = P Tk ≤ n,Sen−Tk > 0
Autrement dit
P (Tk ≤ n,Sn < k) = P (Tk ≤ n,Sn > k)
Cela nous permet de conclure
2P (Tk ≤ n,Sn < k) + P (Sn = k) = P (Tk ≤ n)
Comme corollaire immédiat du principe de réflexion, nous en déduisons la loi de Mn .
Corollaire 15. Pour k,n ∈ N
P (Mn ≥ k) = 2P (Sn ≥ k) − P (Sn = k) .
Exercice 16. (Temps local de la marche en 0)
Pour n ∈ N on note
ln0 = Card {0 ≤ i ≤ n, Si = 0}
(1) Montrer que pour n ∈ N et k ∈ N∗
0
0
P l2n
= k = P l2n+1
= k = P (S2n+1−k = k − 1)
MR2 B1, F.BAUDOIN
9
(2) En déduire que quand n → +∞
l0
√n →loi |N (0,1)|
n
Exercice 17. Maintenant, au lieu de supposer que le marcheur effectue un pas de longueur
unité pendant l’unité de temps, on supposera qu’il effectue pendant chaque intervalle de temps
τ , un pas de longueur ξ. En désignant par p(t,x) la densité de probabilité de la variable aléatoire
Xt représentant la position du marcheur à l’instant t, établir une relation de récurrence entre
p(t + τ,x),p(t,x − ξ) et p(t,x + ξ). Montrer que si ξ et τ tendent vers 0 d’une manière que l’on
précisera alors p devient solution d’une équation aux dérivées partielles. Reconnaissez-vous cette
équation et pouvez-vous la résoudre?
2. Processus de Lévy
Dans ce qui suit, nous nous plaçons sur un espace de probabilité filtré (Ω,(Ft )t≥0 ,F,P). La bonne
généralisation de la notion de marche aléatoire en temps continu est celle de processus de Lévy.
Definition 18. Soit (Xt )t≥0 un processus stochastique. On dit que (Xt )t≥0 est un processus de
Lévy défini sur l’espace (Ω,(Ft )t≥0 ,F,P) si les conditions suivantes sont satisfaites:
(1) Presque sûrement X0 = 0;
(2) Presque sûrement, les trajectoires de (Xt )t≥0 sont continues à droite avec des limites à
gauche;
(3) (Xt )t≥0 est adapté à la filtration (Ft )t≥0 ;
(4) Pour tout T ≥ 0, le processus (Xt+T − XT )t≥0 est indépendant de la tribu FT ;
(5) Pour tout t,T ≥ 0, Xt+T − XT =loi Xt .
Exercice 19. Montrer que si (Xt )t≥0 est un processus de Lévy défini sur l’espace (Ω,(Ft )t≥0 ,F,P),
alors c’est aussi un processus de Lévy sur l’espace (Ω,(FtX )t≥0 ,F,P), où (FtX )t≥0 est la filtration
naturelle de (Xt )t≥0 .
Exercice 20. Montrer que si (Xt )t≥0 est un processus de Lévy défini sur l’espace (Ω,(Ft )t≥0 ,F,P),
alors c’est aussi un processus de Lévy sur l’espace (Ω,(Gt )t≥0 ,G,P), où
(Ω,(Gt )t≥0 ,G,P)
est la complétion usuelle de
(Ω,(Ft )t≥0 ,F,P).
Exercice 21. (Processus de Poisson) Soit (Tn )n∈N une suite de variables aléatoires exponentielles indépendantes,
P(Tn ∈ dt) = λe−λt dt,t ≥ 0,n ∈ N,
définies sur un espace de probabilité (Ω,F,P). On note
Sn =
n
X
i=1
et S0 = 0. Pour t ≥ 0, soit
Ti ,n ≥ 1,
Nt = max{n ≥ 0,Sn ≤ t}.
(1) Montrer que le processus (Nt )t≥0 est un processus de Lévy sur l’espace de probabilité
(Ω,(FtN )t≥0 ,F,P), où (FtN )t≥0 est la filtration naturelle de (Nt )t≥0 .
10
MR2 B1, F.BAUDOIN
(2) Montrer que pour t ≥ 0, Nt est une variable aléatoire de Poisson de paramètre λt, i.e.:
(λt)n
,n ∈ N.
n!
Le processus (Nt )t≥0 s’appelle le processus de Poisson d’intensité λ > 0.
(3) Soit maintenant (Yn )n≥0 une suite de variables aléatoires indépendantes de même loi µ.
On note alors pour t ≥ 0,
!
Nt
X
Yi .
Xt = 1Nt ≥1
P(Nt = n) = e−λt
i=1
Montrer que le processus (Xt )t≥0 est un processus de Lévy sur l’espace de probabilité
(Ω,(FtX )t≥0 ,F,P), où (FtX )t≥0 est la filtration naturelle de (Xt )t≥0 . Montrer, de plus,
que pour θ ∈ R et t ≥ 0:
E(eiθXt ) = etλ
R
R
(eiθx −1)µ(dx)
.
Le processus (Xt )t≥0 s’appelle un processus de Poisson composé.
On a un théorème très important concernant la structure des processus de Lévy continus:
Théorème 22. (Lévy)
Soit (Xt )t≥0 un processus de Lévy continu défini sur l’espace de probabilité filtré (Ω,(Ft )t≥0 ,F,P).
Alors on peut trouver σ ∈ R+ et µ ∈ R tels que (Xt )t≥0 est un processus gaussien de fonction
moyenne:
E(Xt ) = µt;
et de fonction de covariance:
E ((Xt − µt)(Xs − µs)) = σ 2 (s ∧ t).
Réciproquement, soit (Xt )t≥0 un processus gaussien continu et adapté à la filtration (Ft )t≥0 de
fonction moyenne:
E(Xt ) = µt;
et de fonction de covariance:
E ((Xt − µt)(Xs − µs)) = σ 2 (s ∧ t).
Alors (Xt )t≥0 est un processus de Lévy sur l’espace de probabilité filtré (Ω,(Ft )t≥0 ,F,P)
Preuve.
Soit (Xt )t≥0 est un processus de Lévy continu défini sur l’espace de probabilité filtré (Ω,(Ft )t≥0 ,F,P).
Tout d’abord remarquons que la loi de X1 est infiniment divisible (voir le chapitre 0 pour la
définition d’une loi infiniment divisible). En effet, pour tout n ∈ N, on a
n
X
X1 =
(X k − X k−1 ),
k=1
n
n
et les accroissements X k − X k−1 sont indépendants et identiquement distribués. Par conséquent,
n
n
d’après le théorème de Lévy-Khinchin (voir le chapitre 0), on peut trouver σ ∈ R+ , µ ∈ R et ν
une mesure borélienne sur R\{0} tels que:
Z
(| x |2 ∧1)ν(dx) < +∞
R
et
E(eiλX1 ) = eψ(λ) ,λ ∈ R,
MR2 B1, F.BAUDOIN
11
avec
Z
1
ψ(λ) = iµλ − σ 2 λ2 + (eiλx − 1 − iλx1|x|≤1 )ν(dx).
2
R
Soit maintenant λ ∈ R fixé. On considère l’application
f (t) = E(eiλXt ),t ≥ 0.
Comme (Xt )t≥0 est un processus de Lévy, on a, pour s,t ≥ 0,
f (t + s) = E(eiλXt+s )
= E(eiλ(Xt+s −Xt )+Xt )
= E(eiλ(Xt+s −Xt ) )E(eiλXt )
= E(eiλXs )E(eiλXt )
= f (t)f (s).
D’autre part, comme (Xt )t≥0 est à trajectoires continues, il est aussi continu en loi, ce qui veut
dire que l’application f est continue. Comme f (1) = eψ(λ) , on en déduit donc que pour tout
t ≥ 0,
f (t) = etψ(λ) ,t ≥ 0.
Ainsi pour λ ∈ R et t ≥ 0,
E(eiλXt ) = etψ(λ) .
Nous allons maintenant montrer que la mesure ν qui apparait dans l’expression de ψ est en fait
égale à 0.
Soit ε ∈ (0,1). On a
ψ = ψε + φε ,
où
Z
1
ψε (λ) = iµλ − σ 2 λ2 +
(eiλx − 1 − iλx)ν(dx),
2
|x|≤ε
et
Z
φε (λ) =
|x|>ε
(eiλx − 1 − iλx1|x|≤1 )ν(dx).
Cette décomposition de ψ va en fait correspondre à une décomposition trajectorielle de X.
Pour t ≥ 0, soit µt la loi de probabilité sur R de fonction caractéristique:
Z
eiλx µt (dx) = etψε (λ) ,λ ∈ R.
R
(une telle loi existe d’après le théorème de Lévy-Khinchin). On a alors pour s,t ≥ 0
µt ∗ µs = µt+s .
Par conséquent si on définit pour f fonction borélienne bornée
Z
f (x + y)µt (dy),
(Pt f )(x) =
R
alors la famille {Pt ,t ≥ 0} est une fonction de transition. D’autre part, il est facile de voir
(vérifiez le !) que cette fonction de transition est de Feller-Dynkin. Ainsi, d’après le théorème
27 du chapitre 2, on peut trouver un espace de probabilité filtré (Ω̃,(F̃t )t≥0 ,F̃ ,P̃) ainsi qu’un
processus (Yt )t≥0 défini sur cet espace tels que:
(1) Les trajectoires de (Yt )t≥0 sont continues à droite avec des limites à gauche;
12
MR2 B1, F.BAUDOIN
(2) (Yt )t≥0 est un processus de Markov de fonction de transition {Pt ,t ≥ 0} relativement à
la filtration (F̃t )t≥0 .
Le processus (Yt )t≥0 est alors un processus de Lévy puisque
Z
iλYt+s
eiλ(Ys +y) µt (dy),
E(e
| Fs ) =
R
ce qui implique
E(eiλ(Yt+s −Ys ) | Fs ) = etψε (λ) ,
et donc l’indépendance et la stationnarité des accroissements.
De même, on va pouvoir, quitte à grossir l’espace (Ω̃,(F̃t )t≥0 ,F̃ ,P̃) , construire un processus de
Lévy (Zt )t≥0 qui est indépendant du processus (Yt )t≥0 et tel que:
E(eiλZt ) = etφε (λ) .
On a
φε (λ) =
Z
|x|>ε
=
Z
|x|>ε
(eiλx − 1 − iλx1|x|≤1 )ν(dx)
Z
x1|x|≤1 ν(dx),
(eiλx − 1)ν(dx) − iλ
|x|>ε
et
ν({x, | x |> ε}) < +∞.
Ainsi, d’après l’exercice 4, on a en fait
Zt = Lt − t
Z
|x|>ε
x1|x|≤1 ν(dx),
où (Lt )t≥0 est un processus de Poisson composé. En particulier, les trajectoires du processus
(Zt )t≥0 ne peuvent donc qu’avoir un nombre fini de sauts sur tout intervalle de temps borné,
chaque saut éventuel étant de taille supérieure à ε.
Comme les deux processus (Yt )t≥0 et (Zt )t≥0 sont indépendants, il est alors facile de voir que le
processus
X̃t = Yt + Zt
est un processus de Lévy qui a même loi que le processus (Xt )t≥0 . Également par indépendance,
presque sûrement les sauts de (Yt )t≥0 et les sauts de (Zt )t≥0 ne s’intersectent pas. Donc chaque
saut éventuel de (Yt )t≥0 induit un saut sur (X̃t )t≥0 . Comme (Xt )t≥0 est continu, (Yt )t≥0 ne peut
donc pas avoir de saut, ce qui implique
ν({x, | x |> ε}) = 0.
Mais ε était arbitraire, donc en fait ν = 0. On en conclut que
1
E(eiλXt ) = et(iµλ− 2 σ
2 λ2 )
.
Ainsi pour t > 0, Xt =loi N (µt,σ 2 t). Enfin, pour vérifier que le processus est bien gaussien, on
utilise l’indépendance et la stationnarité des accroissements qui impliquent pour λ1 ,...,λn ∈ R,
MR2 B1, F.BAUDOIN
13
0 < t1 < ... < tn :
n
Y
Pn
E eiλk (Xtk+1 −Xtk )
E ei k=1 λk (Xtk+1 −Xtk ) =
=
k=1
n
Y
E eiλk Xtk+1 −tk
k=1
Pn
=e
1 2 2
k=1 (tk+1 −tk )(iµλk − 2 σ λk )
.
Cela conclut la démonstration de la première partie du théorème de structure de Lévy.
Réciproquement, soit maintenant (Xt )t≥0 un processus gaussien continu et adapté à la filtration
(Ft )t≥0 de fonction moyenne:
E(Xt ) = µt;
et de fonction de covariance:
E ((Xt − µt)(Xs − µs)) = σ 2 (s ∧ t).
On veut d’abord démontrer que tout T ≥ 0, le processus (Xt+T − XT )t≥0 est indépendant de la
tribu FT .
Soient t1 ,...,tn ≥ T , s1 ,...,sm ≤ T , α1 ,...,αn ∈ R, β1 ,...,βm ∈ R.
On a
!!
! m
n
X
X
X
=
E αi βj (Xti +T − XT )Xsj = 0.
βi Xsi
αi (Xti +T − XT )
E
i=1
i=1
i,j
Ainsi, le processus (Xt+T − XT )t≥0 est bien indépendant de la tribu FT . De même, il est facile
de montrer que pour tout t,T ≥ 0, Xt+T − XT =loi Xt .
3. Définition, existence et premières propriétés du mouvement brownien
Dans ce paragraphe, nous nous plaçons encore sur un espace de probabilité filtré (Ω,(Ft )t≥0 ,F,P)
donné.
Definition 23. Soit (Bt )t≥0 un processus stochastique continu adapté à la filtration (Ft )t≥0 . On
dit que (Bt )t≥0 est un mouvement brownien si c’est un processus gaussien de fonction moyenne
nulle et de fonction de covariance
E(Bs Bt ) = s ∧ t.
Remarque 24. On dira simplement qu’un processus (Bt )t≥0 défini sur (Ω,F,P) est un mouvement brownien si c’est un mouvement brownien sur l’espace (Ω,(FtB )t≥0 ,F,P), où (FtB )t≥0 est
la filtration naturelle de (Bt )t≥0 .
Exercice 25. Soit (Bt )t≥0 un mouvement brownien. On note (FtB )t≥0 sa filtration naturelle,
B = σ(B ,u ≥ 0) et N les sous-ensembles de F B de mesure nulle. Montrer que la filtration
F∞
u
∞
(σ(FtB ,N ))t≥0 satisfait les conditions usuelles.
On a également une définition markovienne du mouvement brownien.
Proposition 26. Soit (Bt )t≥0 un processus stochastique continu adapté à la filtration (Ft )t≥0 tel
que B0 = 0 p.s.. Alors (Bt )t≥0 est un mouvement brownien si et seulement si c’est un processus
de Markov relativement à la filtration (Ft )t≥0 de fonction de transition donnée par:
(x−y)2
Z
e− 2t
dy,t > 0,x ∈ R,
f (y) √
P0 = Id, (Pt f )(x) =
2πt
R
14
MR2 B1, F.BAUDOIN
f : R → R étant une fonction borélienne bornée. De plus la fonction de transition {Pt ,t ≥ 0} est
de Feller-Dynkin.
Preuve.
Soit (Bt )t≥0 un processus de Markov relativement à la filtration (Ft )t≥0 de fonction de transition
donnée par:
(x−y)2
Z
e− 2t
dy,t > 0,x ∈ R.
f (y) √
P0 = Id, (Pt f )(x) =
2πt
R
On a pour s,t ≥ 0, λ ∈ R,
2
Z
− y2t
iλ(Bs +y) e
iλBt+s
√
e
E(e
| Fs ) =
dy,
2πt
R
ce qui implique
2
Z
−y
1 2
iλy e 2t
iλ(Bt+s −Bs )
e √
| Fs ) =
E(e
dy = e− 2 λ t
2πt
R
et donc l’indépendance et la stationnarité des accroissements. Pour vérifier que le processus est
bien gaussien, avec la bonne structure de moyenne et de covariance, on utilise l’indépendance et
la stationnarité des accroissements qui impliquent pour λ1 ,...,λn ∈ R, 0 < t1 < ... < tn :
n
Y
Pn
i k=1 λk (Btk+1 −Btk )
E eiλk (Btk+1 −Btk )
=
E e
=
k=1
n
Y
k=1
1
= e− 2
E eiλk Btk+1 −tk
Pn
2
k=1 (tk+1 −tk )λk
.
Ce qui permet de conclure que (Bt )t≥0 est bien un mouvement brownien.
Réciproquement, soit (Bt )t≥0 un mouvement brownien sur (Ω,(Ft )t≥0 ,F,P). Soient maintenant
f : R → R une fonction borélienne bornée et s,t ≥ 0. On a:
E(f (Bt+s ) | Fs ) = E(f (Bt+s − Bs + Bs ) | Fs ).
Comme Bt+s − Bs est indépendant de Fs , on en déduit tout d’abord que
Pour x ∈ R,
E(f (Bt+s ) | Fs ) = E(f (Bt+s ) | Bs ).
E(f (Bt+s ) | Bs = x) = E(f (Bt+s − Bs + Bs ) | Bs = x) = E(f (Xt + x)),
où Xt est une variable aléatoire indépendante de Bs telle que Xt =loi N (0,t). Par conséquent,
y2
Z
e− 2t
f (x + y) √
E(f (Bt+s ) | Bs = x) =
dy
2πt
R
et
y2
Z
e− 2t
dy.
f (Bs + y) √
E(f (Bt+s ) | Fs ) =
2πt
R
Pour montrer que la fonction de transition {Pt ,t ≥ 0} est de Feller-Dynkin, il faut vérifier:
(1) Pt : C0 (R+ ,R) → C0 (R+ ,R);
(2) P0 = Id;
(3) ∀f ∈ C0 (R+ ,R),∀x ∈ R, limt→0 (Pt f )(x) = f (x).
MR2 B1, F.BAUDOIN
15
Ce que nous laissons en exercice. (On rappelle que C0 (R+ ,R) est l’ensemble des applications
continues f : R → R telles que lim−∞ f = lim+∞ f = 0). Bien entendu, le mouvement brownien n’est intéressant à étudier que s’il existe !
Théorème 27. On peut trouver un espace de probabilité filtré (Ω̃,(F̃t )t≥0 ,F̃ ,P̃) ainsi qu’un
mouvement brownien (Bt )t≥0 défini sur cet espace. D’autre part deux mouvements browniens
éventuellement définis sur des espaces de probabilité filtrés différents ont nécessairement la même
loi: Cette loi s’appelle la mesure de Wiener.
Preuve.
D’après la proposition 20 du chapitre 1, on peut trouver un espace de probabilité (Ω̃,F̃ ,P̃) ainsi
qu’un processus gaussien (Xt )t≥0 défini sur cet espace de fonction moyenne nulle et de fonction
de covariance
E(Xs Xt ) = s ∧ t.
On a pour tout n ≥ 0 et 0 ≤ s ≤ t:
(2n)!
E (Xt − Xs )2n = n (t − s)n .
2 n!
Par conséquent, en utilisant le théorème 26 du chapitre 1 (critère de continuité de Kolmogorov), on va pouvoir trouver une modification continue (Bt )t≥0 du processus (Xt )t≥0 dont les
trajectoires sont localement γ-Höldériennes pour tout γ ∈ [0, n−1
2n ).
Comme modification de (Xt )t≥0 , le processus (Bt )t≥0 a la même loi que (Xt )t≥0 c’est donc un
processus gaussien de fonction moyenne nulle et de fonction de covariance s ∧ t.
On en déduit que (Bt )t≥0 est un mouvement brownien sur l’espace de probabilité filtré (Ω̃,(F̃t )t≥0 ,F̃ ,P̃)
où (F̃t )t≥0 est la filtration naturelle de (Bt )t≥0 .
Quant à l’unicité de la loi du mouvement brownien, elle vient du fait que la loi d’un processus
gaussien est entièrement caractérisée par sa fonction moyenne et sa fonction de covariance.
Maintenant qu’on sait que le mouvement brownien existe, on va en exhiber quelques premières
propriétés.
Proposition 28. Soit (Bt )t≥0 un mouvement brownien sur (Ω,(Ft )t≥0 ,F,P). Alors, presque
toutes les trajectoires de (Bt )t≥0 sont localement γ-Höldériennes pour tout γ ∈ [0, 21 ).
Preuve.
Soit T > 0. On a pour tout n ≥ 0 et 0 ≤ s ≤ t:
(2n)!
E (Bt − Bs )2n = n (t − s)n .
2 n!
Par conséquent, en utilisant le théorème 26 du chapitre 1 (critère de continuité de Kolmogorov),
on va pouvoir trouver une modification continue (B̃t )0≤t≤T du processus (Bt )0≤t≤T dont les trajectoires sont localement γ-Höldériennes pour tout γ ∈ [0, n−1
2n ). Comme (Bt )0≤t≤T et (B̃t )0≤t≤T
sont tous les deux continus, on a en fait
P ∀t ∈ [0,T ],Bt = B̃t = 1,
ce qui implique que presque toutes les trajectoires de (Bt )0≤t≤T sont γ-Höldériennes pour tout
γ ∈ [0, n−1
2n ). L’entier n pouvant être pris aussi grand qu’on veut, on en déduit le résultat souhaité.
Exercice 29. Soit (Bt )t≥0 un mouvement brownien sur (Ω,(Ft )t≥0 ,F,P). Montrer que la variable
R1
aléatoire 0 Bs ds est gaussienne et calculer sa loi.
16
MR2 B1, F.BAUDOIN
Proposition 30. Soit (Bt )t≥0 un mouvement brownien sur (Ω,(Ft )t≥0 ,F,P). Alors, pour tout
ε > 0, presque sûrement,
Bt
= 0.
lim 1
t→+∞ t 2 +ε
Preuve.
La convergence L2 est claire, et comme Bt est une variable aléatoire gaussienne, on a également
la convergence presque sûre.
Proposition 31. Soit (Bt )t≥0 un mouvement brownien sur (Ω,(Ft )t≥0 ,F,P). Alors les processus
suivants sont des mouvements browniens:
(1) (−Bt )t≥0 . C’est la propriété de symétrie du mouvement brownien.
, c > 0. C’est la propriété d’autosimilarité du mouvement brownien.
(2) √1c Bct
t≥0
(3) (BT +t − BT )t≥0 , T ≥ 0. C’est la propriété d’invariance par translation du mouvement
brownien.
(4) (tB1/t )t≥0 . C’est la propriété d’invariance par inversion du temps du mouvement brownien.
Preuve.
Exercice !
Exercice 32. Soit (Bt )t≥0 un mouvement brownien sur (Ω,(Ft )t≥0 ,F,P).
Rt
(1) Montrer que pour t > 0, l’intégrale de Riemann 0 Bss ds existe presque sûrement.
Rt
est un mouvement brownien.
(2) Montrer que le processus Bt − 0 Bss ds
t≥0
Proposition 33. Soit (Bt )t≥0 un mouvement brownien sur (Ω,(Ft )t≥0 ,F,P). Alors
P inf Bt = −∞, sup Bt = +∞ = 1.
t≥0
t≥0
Preuve.
Comme le processus (−Bt )t≥0 est également un mouvement brownien, pour démontrer que
P inf Bt = −∞, sup Bt = +∞ = 1,
t≥0
il suffit en fait de vérifier que
t≥0
P sup Bt = +∞ = 1.
t≥0
Soit N ∈ N. On a par la propriété d’autosimilarité,
P c sup Bt ≤ N = P sup Bt ≤ N ,c > 0.
t≥0
Par conséquent,
t≥0
P sup Bt ≤ N
Mais
t≥0
= P sup Bt = 0 .
t≥0
P sup Bt = 0 ≤ P(B1 ≤ 0, sup Bt = 0) = P(B1 ≤ 0, sup(Bt+1 − B1 ) = −B1 ).
t≥0
t≥1
t≥0
MR2 B1, F.BAUDOIN
17
Comme le processus (Bt+1 − B1 )t≥0 est un mouvement brownien indépendant de B1 , on a pour
tout c > 0,
P(B1 ≤ 0, sup(Bt+1 − B1 ) = −B1 ) = P(B1 ≤ 0,c sup(Bt+1 − B1 ) = −B1 ).
t≥0
t≥0
D’où,
P(B1 ≤ 0, sup(Bt+1 − B1 ) = −B1 ) = P(B1 ≤ 0, sup(Bt+1 − B1 ) = 0)
t≥0
t≥0
= P(B1 ≤ 0)P(sup(Bt+1 − B1 ) = 0)
t≥0
1
= P sup Bt = 0 .
2
t≥0
Ainsi,
1
P sup Bt = 0 ≤ P sup Bt = 0 .
2
t≥0
t≥0
On en conclut
P sup Bt = 0 = 0,
et
t≥0
P sup Bt ≤ N
t≥0
= 0.
Comme cela est vrai pour tout N , cela implique
P sup Bt = +∞ = 1.
t≥0
De cette dernière proposition , on en déduit immédiatement que le mouvement brownien est
récurrent, c.a.d. que presque sûrement, il visite tous les points de R. Plus précisément:
Proposition 34. Soit (Bt )t≥0 un mouvement brownien sur (Ω,(Ft )t≥0 ,F,P). Alors pour tout
t ≥ 0 et x ∈ R,
P(∃s ≥ t,Bs = x) = 1.
Preuve.
Exercice !
Proposition 35. Soit (Bt )t≥0 un mouvement brownien sur (Ω,(Ft )t≥0 ,F,P). Alors les processus
suivants sont des martingales:
(1) (Bt )t≥0 ;
(2) (Bt2 − t)t≥0 ;
2
λBt − λ2 t
, λ ∈ C.
(3) e
t≥0
Preuve.
(1) Tout d’abord pour t ≥ 0, E(| Bt |) < +∞ car Bt est une variable gaussienne. Ensuite,
pour t ≥ s, E(Bt − Bs | Fs ) = E(Bt − Bs ) = 0, d’où E(Bt | Fs ) = Bs .
(2) Pour t ≥ 0, E(Bt2 ) = t < +∞ et pour t ≥ s, E((Bt − Bs )2 | Fs ) = E((Bt − Bs )2 ) = t − s,
d’où E(Bt2 − t | Fs ) = Bs2 − s.
18
MR2 B1, F.BAUDOIN
λ2
(3) Pour t ≥ 0, E eλBt − 2 t < +∞ car Bt est une variable gaussienne. Ensuite, pour t ≥ s,
λ2
λ2
λ2
(t−s)
λB
−
t
λ(B
λ(B
t
t −Bs )
t −Bs )
2
E(e
| Fs ) = E(e
)=e2
, d’où E e
| Fs = eλBs − 2 s .
Exercice 36. Soit (Bt )t≥0 un mouvement brownien. On note P la mesure de Wiener, (πt )t≥0
le processus des coordonnées et (Ft )t≥0 sa filtration naturelle. Soient maintenant µ ∈ R et Pµ la
loi du processus (Bt + µt)t≥0 . Montrer que pour tout t ≥ 0,
Pµ/Ft ≪ P/Ft ,
et que
dPµ/Ft
dP/Ft
A t’on
= eµπt −
µ2
t
2
Pµ/F∞ ≪ P/F∞
.
?
Les martingales précédentes sont souvent utiles pour calculer des lois en utilisant le théorème
d’arrêt de Doob.
Proposition 37. Soit (Bt )t≥0 un mouvement brownien sur (Ω,(Ft )t≥0 ,F,P). Pour a > 0, on
note
Ta = inf{t ≥ 0, Bt = a}.
On a alors pour tout λ > 0,
√
E e−λTa = e−a
et
P(Ta ∈ dt) =
2λ
,
2
a
− a2t
dt,
e
(2πt)3/2
t > 0.
Preuve.
Soit α > 0. Pour N ≥ 1, on note TN le temps d’arrêt presque sûrement borné:
TN = Ta ∧ N.
En appliquant le théorème d’arrêt de Doob à la martingale,
2
αBt − α2 t
,
e
t≥0
on obtient:
2
αBTa ∧N − α2 (Ta ∧N )
E e
Mais pour tout N ≥ 1,
α2
= 1.
eαBTa ∧N − 2 (Ta ∧N ) ≤ eαa .
Par conséquent, d’après le théorème de convergence dominé, on obtient quand n → +∞,
2
αBTa − α2 Ta
= 1.
E e
Par continuité des trajectoires on a presque sûrement,
BTa = a,
MR2 B1, F.BAUDOIN
d’où,
19
2
− α2 Ta
= eαa .
E e
Ainsi, pour tout λ > 0,
√
E e−λTa = e−a 2λ .
La densité de Ta s’obtient alors en inversant la transformée de Laplace précédente. La proposition 36 peut en fait être considérablement généralisée.
Théorème 38. Soit (Bt )t≥0 un mouvement brownien sur (Ω,(Ft )t≥0 ,F,P). Soit maintenant
f : R+ × R → C une application telle que:
(1) f est continument différentiable en sa première variable et deux fois continument différentiable
en sa seconde variable (On écrira f ∈ C 1,2 (R+ × R,C)).
(2) Pour tout t ≥ 0, on peut trouver des constantes K > 0 et α > 0 telles que
sup | f (s,x) |≤ Keαx .
0≤s≤t
Alors le processus (f (t,Bt ))t≥0 est une martingale si et seulement si f vérifie l’équation aux
dérivées partielles:
1 ∂2f
∂f
+
= 0.
∂t
2 ∂x2
Preuve.
Soit t > 0. D’après la propriété de Markov, on a pour s < t,
E(f (t,Bt ) | Fs ) =
Z
R
2
s)
− (y−B
2(t−s)
e
f (t,y) p
2π(t − s)
dy
Par conséquent, le processus (f (t,Bt ))t≥0 est une martingale si et seulement si pour tout 0 < s < t
et x ∈ R,
(y−x)2
Z
−
e 2(t−s)
dy = f (s,x).
f (t,y) p
2π(t − s)
R
Supposons d’abord que pour tout 0 < s < t et x ∈ R,
Z
− (y−x)
2
e 2(t−s)
dy = f (s,x).
f (t,y) p
2π(t − s)
R
On fixe alors t > 0 et on observe alors que la fonction
Z
−
(y−x)2
e 2(t−s)
dy
f (t,y) p
g : (s,x) →
2π(t − s)
R
définie sur [0,t) × R vérifie l’équation
∂g 1 ∂ 2 g
+
= 0.
∂s 2 ∂x2
Ce qui implique que f vérifie cette même équation.
Réciproquement, supposons que f vérifie l’équation aux dérivées partielles:
1 ∂2f
∂f
+
= 0.
∂t
2 ∂x2
20
MR2 B1, F.BAUDOIN
Soit t > 0. Alors, en considérant toujours
Z
− (y−x)
2
e 2(t−s)
dy,
f (t,y) p
g : (s,x) →
2π(t − s)
R
on s’aperçoit que h = f − g vérifie l’équation
∂h 1 ∂ 2 h
+
=0
∂s 2 ∂x2
sur [0,t) × R avec de plus la condition à la limite:
∀x ∈ R, lim h(s,x) = 0.
s→t
La théorie des équations aux dérivées partielles paraboliques implique alors h = 0.
Remarque 39. L’équation
1 ∂2f
∂f
+
= 0,
∂t
2 ∂x2
est connue sous le nom d’équation de la chaleur rétrograde.
Exercice 40. Soit {Pt ,t ≥ 0} la fonction de transition du mouvement brownien. Soit f : R → R
une fonction borélienne telle qu’il existe α,β > 0 vérifiant:
Montrer que la fonction:
∀x ∈ R, | f (x) |≤ αeβ|x| .
g : (0, + ∞) × R → R,
est solution du problème parabolique suivant:
(t,x) → (Pt f )(x),
∂g
1 ∂2g
=
, ∀x ∈ R, lim g(t,x) = f (x).
t→0
∂t
2 ∂x2
L’équation précédente est appelée l’équation de la chaleur. Il est possible de montrer que g est
en fait l’unique solution du problème précédent.
4. Le principe d’invariance de Donsker
À la fois d’un point de vue intuitif et théorique, il est intéressant de bien comprendre que le
mouvement brownien est une limite de marches aléatoires.
Soit (Sn )n∈N une marche aléatoire symétrique sur Z. On définit alors une suite de processus
continus ((Stn )t∈[0,1] )n∈N de la façon suivante:
√
k
k
k+1
k+1
n
t−
− t Sk , ≤ t ≤
.
Sk+1 +
St = n
n
n
n
n
Théorème 41. (Principe d’invariance de Donsker) La suite de processus ((Stn )t∈[0,1] )n∈N converge
en loi vers (Bt )t∈[0,1] où (Bt )t∈[0,1] est un mouvement brownien
Preuve.
Il nous suffit de vérifier deux choses:
(1) Pour tout t1 ,...,tk ∈ [0,1],
Stn1 ,...,Stnk →loi
n→+∞ (Bt1 ,...,Btk ).
(2) La famille ((Stn )t∈[0,1] )n∈N est relativement compacte dans la topologie de la convergence
étroite.
MR2 B1, F.BAUDOIN
21
Nous laissons le premier point (1) en exercice. Notons néanmoins que pour faciliter les calculs,
il sera plus aisé de démontrer que pour tout t1 ,...,tk ∈ [0,1],
Stn1 ,Stn2 − Stn1 ,...,Stnk − Stnk−1 →loi
n→+∞ (Bt1 ,Bt2 − Bt1 ...,Btk − Btk−1 ).
Démontrons que la famille ((Stn )t∈[0,1] )n∈N est relativement compacte dans la topologie de la
convergence étroite.
Soit λ > 0. Le processus (Sn4 )n∈N est une sous-martingale, par conséquent d’après l’inégalité
maximale de Doob, pour tout n ≥ 1,
√
E(S 4 )
3n2 − 2n
3
P max | Sk |> λ n ≤ 4 n2 =
≤ 4.
k≤n
λ n
λ4 n2
λ
Par stationnarité des accroissements de (Sn )n∈N , on en déduit finalement que pour tout k,n ≥ 1,
λ > 0,
√
3
P max | Si+k − Sk |> λ n ≤ 4 .
i≤n
λ
Soient maintenant ε,η ∈ (0,1). De l’inégalité qui précéde, il est facile de voir qu’on peut trouver
δ > 0 tel que pour tout k,n ≥ 1
√
P max | Si+k − Sk |≥ ε n ≤ ηδ.
i≤[nδ]
Soient N,ε,η > 0. Par définition de S n on en déduit qu’on peut trouver δ ∈ (0,1) tel que pour
tout n ≥ 1 et t ≤ N ,
!
sup
P
t≤s≤t+δ
Pour 0 ≤ i <
N
δ
et n ≥ 1, soit
Ani =
(
ω ∈ Ω,
| Ssn − Stn |≥ η
sup
iδ≤s≤(i+1)δ∧N
≤ εδ.
n
− Ssn |≥ η
| Siδ
)
.
Il est facile de voir que
∩ci Ani ⊂ {sup{| Stn − Ssn | , | t − s |≤ δ, s,t ≤ N } < 3η} .
Par conséquent, pour tout n ≥ 1,
P (sup{| Stn − Ssn | , | t − s |≤ δ, s,t ≤ N } ≥ 3η) ≤ P
[
i
Ani
!
≤ 1 + [N δ−1 ] δε < (N + 1)ε.
Ce qui implique, par la proposition 30 du chapitre 1 que ((Stn )t∈[0,1] )n∈N est relativement compacte dans la topologie de la convergence étroite.
Le principe d’invariance de Donsker peut s’avérer utile pour calculer des lois de fonctionnelles
browniennes. Comme illustration nous allons montrer comment dériver la loi du temps passé
dans R+ par un mouvement brownien.
Théorème 42. (Loi de l’arcsinus de Lévy) Soit (Bt )t≥0 un mouvement brownien sur (Ω,(Ft )t≥0 ,F,P).
Pour t ≥ 0, on note
Z t
1R+ (Bs )ds.
At =
0
22
MR2 B1, F.BAUDOIN
On a alors pour x ≤ t:
2
P(At ≤ x) = arcsin
π
r
x
t
Preuve.
Soit (Sn )n∈N une marche aléatoire symétrique sur Z. On note T1 son temps d’atteinte de 1 et
Z1 son premier zéro non nul. Rappelons, comme nous l’avons vu dans un exercice de la section
1 que
Z1 =loi T1 + 1.
On note
An = Card{1 ≤ i ≤ n, max (Si−1 ,Si ) > 0},
qui correspond au temps passé dans R+ avant l’instant n par (Sn )n∈N .
On va montrer par récurrence sur n que pour 0 ≤ k ≤ n,
P (A2n = 2k) = P (S2k = 0) P (S2n−2k = 0)
Tout d’abord,
P (A2n = 0) = P (T1 ≥ 2n + 1) = P (Z1 ≥ 2n + 2) = P (S1 6= 0,...,S2n 6= 0) .
Mais comme nous l’avons vu dans la démonstration de la Proposition 9:
P (S1 6= 0,...,S2n 6= 0) = P (S2n = 0) .
Par conséquent,
P (A2n = 0) = P (S2n = 0) .
On montre de même que
P (A2n = 2n) = P (S2n = 0) .
Ce qui initialise la récurrence.
Pour 1 ≤ k ≤ n − 1,
ainsi:
P (A2n = 2k) =
k
X
i=1
{A2n = 2k} ⊂ {Z1 ≤ 2k}
P (A2n = 2k | Z1 = 2i) P (Z1 = 2i)
k
1X
=
P (Z1 = 2i) (P (A2n−2i = 2k) + P (A2n−2i = 2k − 2i)) ,
2
i=1
cela nous donne, grâce à l’hypothèse de récurrence,
=
P (A2n = 2k)
1 Pk
i=1 P (Z1 = 2i) (P (S2k = 0) P (S2n−2k−2i = 0) + P (S2k−2i = 0) P (S2n−2k = 0))
2
mais maintenant, grâce à la propriété de Markov
k
X
P (Z1 = 2i) P (S2k−2i = 0) =
k
X
i=1
i=1
P (Z1 = 2i) P (S2k = 0 | Z1 = 2i)
= P (S2k = 0)
De même,
k
X
i=1
P (Z1 = 2i) P (S2n−2k−2i = 0) = P (S2n−2k = 0) .
MR2 B1, F.BAUDOIN
23
Ainsi
P (A2n = 2k) = P (S2k = 0) P (S2n−2k = 0)
ce qui achève la récurrence.
Par conséquent pour 0 ≤ k ≤ n,
P (A2n = 2k) = P (S2k = 0) P (S2n−2k = 0) =
1 (2n − 2k)! (2k)!
2n (n − k)!2 (k)!2
Avec l’aide de la formule de Stirling on peut alors en déduire (faites la justification !) que pour
x ∈ [0,1]:
[nx]
A2n
1
1X
p
P
≤ x ∼n→+∞
2n
π
k (n − k)
k=0
Etant donné que
Z
x
0
π
nous avons donc pour tout x ∈ [0,1]:
p
lim P
n→+∞
du
u (1 − u)
A2n
≤x
2n
=
√
2
arcsin x
π
=
√
2
arcsin x.
π
Considérons maintenant la suite de Donsker:
√
k
k+1
k
k+1
n
St = n
t−
− t Sk , ≤ t ≤
.
Sk+1 +
n
n
n
n
Il est facile de voir que
Z
1
A2n
.
2n
0
R1
R1
Le théorème de Donsker implique la convergence en loi de 0 1R+ (Stn )dt vers 0 1R+ (Bs )ds. Par
conséquent
√
2
P(A1 ≤ x) = arcsin x.
π
Et la loi de At est déduite de celle de A1 par la propriété d’autosimilarité du mouvement
brownien.
1R+ (Stn )dt =
Exercice 43.
(1) Soit (Sn )n∈N une marche aléatoire symétrique sur Z. On note toujours
An = Card{1 ≤ i ≤ n, max (Si−1 ,Si ) > 0}
(a) Montrer que pour 0 < x,y < 1
+∞ X
n
X
2
p
P (A2n = 2k,S2n = 0) x2k y 2n = p
2
1 − y + 1 − x2 y 2
n=0 k=0
(b) En déduire que, conditionnellement à S2n = 0, A2n est uniformément distribuée sur
l’ensemble 0,2,4,...,2n.
24
MR2 B1, F.BAUDOIN
(2) Soit (Bt )t≥0 un mouvement brownien sur (Ω,(Ft )t≥0 ,F,P). En utilisant le théorème de
Donsker, montrer que conditionnellement à B1 = 0, la variable aléatoire
Z 1
1R+ (Bs )ds,
0
est uniformément distribuée sur l’intervalle [0,1].
Exercice 44. Soit (Bt )t≥0 un mouvement brownien sur (Ω,(Ft )t≥0 ,F,P). Le but de l’exercice
est de calculer la loi de
g1 = sup{t ∈ [0,1],Bt = 0}.
(1) Soit (Sn )n∈N une marche aléatoire symétrique sur Z. Pour n ∈ N, on note
dn = max{1 ≤ k ≤ n,Sk = 0}.
Montrer que pour 0 ≤ k ≤ n
P (d2n = 2k) = P (S2k = 0) P (S2n−2k = 0)
(2) En déduire que pour x ∈ [0,1]
lim P
n→+∞
√
dn
2
≤ x = arcsin x.
n
π
(3) Grâce au principe de Donsker, en déduire la loi de g1 .
5. Loi du logarithme itéré
Nous avons vu que les trajectoires
d’un mouvement brownien sont presque sûrement localement
1
γ-Hölder pour tout γ ∈ 0, 2 . La proposition suivante connue sous le nom de loi du logarithme
itéré aide à visualiser un peu les trajectoires browniennes et montre en particulier que les trajectoires ne sont pas 12 -Hölder.
Théorème 45. (Loi du logarithme itéré)
Soit (Bt )t≥0 un mouvement brownien sur (Ω,(Ft )t≥0 ,F,P). Pour tout s ≥ 0,


B
−
B
B
−
B
t+s
s
t+s
s
P lim inf q
= −1 , lim sup q
= 1 = 1.
t→0
1
t→0
2t ln ln t
2t ln ln 1t
Preuve.
Grâce aux propriétés de symétrie et d’invariance par translation du mouvement brownien, il
suffit en fait de démontrer que:


Bt
P lim sup q
= 1 = 1.
1
t→0
2t ln ln t
Dans un premier temps, montrons que

P lim sup q
t→0
Bt
2t ln ln
Pour simplifier les notations, on note
h(t) =
r
1
t

≤ 1 = 1.
1
2t ln ln .
t
MR2 B1, F.BAUDOIN
25
Soit α,β > 0, d’après l’inégalité maximale de Doob appliquée à la martingale
on a pour tout t ≥ 0:
2
α αBs − α2 s
αβ
P sup Bs − − s > β = P sup e
>e
≤ e−αβ .
2
0≤s≤t
0≤s≤t
eαBt −
α2
t
2
,
t≥0
Soit maintenant θ,δ ∈ (0,1). En appliquant l’inégalité précédente pour tout n ∈ N avec
t = θ n ,α =
1
(1 + δ)h(θ n )
,β = h(θ n ),
n
θ
2
on obtient, quand n → +∞,
!
(1 + δ)h(θ n )
1
1
n
P
sup
Bs −
h(θ
)
=
O
s
>
.
2θ n
2
n1+δ
0≤s≤θ n
Par conséquent, d’après le lemme de Borel-Cantelli, pour presque tout ω ∈ Ω, on peut trouver
N (ω) ∈ N tel que pour tout n ≥ N (ω),
1
(1 + δ)h(θ n )
s ≤ h(θ n ).
sup
Bs (ω) −
n
n
2θ
2
0≤s≤θ
Mais
sup
0≤s≤θ n
Bs (ω) −
(1 + δ)h(θ n )
s
2θ n
implique que pour θ n+1 < t ≤ θ n ,
Bt (ω) ≤ sup Bs (ω) ≤
0≤s≤θ n
On en déduit ainsi

P lim sup q
t→0
2t ln ln 1t
P lim sup q
t→0
Montrons maintenant que

P lim sup q
t→0
≤
1
h(θ n )
2
1
(2 + δ)h(t)
√
.
(2 + δ)h(θ n ) ≤
2
2 θ
Bt
En faisant θ → 1 et δ → 0, on obtient bien


2 + δ
≤ √
= 1.
2 θ
Bt
2t ln ln 1t
Bt
2t ln ln
1
t

≤ 1 = 1.

≥ 1 = 1.
Soit θ ∈ (0,1). Pour n ∈ N, on note
n
o
√
An = ω,Bθn (ω) − Bθn+1 (ω) ≥ (1 − θ)h(θ n ) .
On va montrer que
X
P(An ) = +∞.
Pour cela, on utilise l’inégalité élémentaire (justifiez la !):
Z +∞
2
u2
a
− a2
e
, a > 0.
e− 2 du ≥
1 + a2
a
26
On a ainsi:
avec
MR2 B1, F.BAUDOIN
1
P(An ) = √
2π
Z
+∞
e−
u2
2
an
du ≥
an − a2n
e 2 ,
1 + a2n
√
(1 − θ)h(θ n )
√
.
an =
θ n/2 1 − θ
Au voisinage de +∞,
an − a2n
e 2 =O
1 + a2n
Par conséquent,
X
1
n
√
1+θ−2 θ
1−θ
!
.
P(An ) = +∞.
D’après le lemme de Borel-Cantelli, avec probabilité 1,
√
Bθn − Bθn+1 ≥ (1 − θ)h(θ n )
se produit pour une infinité de n. Mais d’après la première partie de la démonstration, pour
presque tout ω, on peut trouver N (ω) tel que pour n ≥ N (ω)
√
Bθn+1 > −2h(θ n+1 ) ≥ −2 θh(θ n ).
Par conséquent, avec probabilité 1,
√
Bθn > h(θ n )(1 − 5 θ)
se produit pour une infinité de n. Cela implique


√
Bt
P lim sup q
≥ 1 − 5 θ  = 1.
1
t→0
2t ln ln t
On obtient alors

P lim sup q
t→0
Bt
2t ln ln
1
t

≥ 1 = 1.
en faisant θ → 0. Par la propriété d’invariance par inversion du temps du mouvement brownien, on a:
Corollaire 46. Soit (Bt )t≥0 un mouvement brownien sur (Ω,(Ft )t≥0 ,F,P).
Bt
Bt
√
√
= −1 , lim sup
= 1 = 1.
P lim inf
t→+∞
t→+∞
2t ln ln t
2t ln ln t
6. Propriété de Markov forte
Dans ce paragraphe, nous allons donner quelques applications de la propriété de Markov dite
forte du mouvement brownien. Un processus est dit Markov fort, s’il vérifie la propriété de
Markov également par rapport à des temps d’arrêt, plus précisément:
Definition 47. Soient (Ω,(Ft )t≥0 ,F,P) un espace de probabilité filtré et (Xt )t≥0 un processus
adapté à la filtration (Ft )t≥0 . On dit que (Xt )t≥0 est un processus de Markov fort de fonction de
transition {Pt ,t ≥ 0} relativement à la filtration (Ft )t≥0 si pour toute fonction borélienne bornée
f : R → R, et pour tout temps d’arrêt fini S de la filtration (Ft )t≥0 :
E(f (XS+t ) | FS ) = (Pt f )(XS ), t > 0.
MR2 B1, F.BAUDOIN
27
Un processus de Markov fort est évidemment un processus de Markov. Comme nous allons le
montrer, un exemple de processus de Markov fort est le mouvement brownien.
Proposition 48. Soit (Bt )t≥0 un mouvement brownien sur (Ω,(Ft )t≥0 ,F,P). Soit maintenant
T un temps d’arrêt fini de la filtration (Ft )t≥0 . Alors le processus,
(BT +t − BT )t≥0
est un mouvement brownien indépendant de la tribu FT .
Preuve.
Soit T un temps d’arrêt fini de la filtration (Ft )t≥0 . Pour t ≥ 0, on note
B̃t = BT +t − BT
Soient λ ∈ R, 0 ≤ s ≤ t et N ≥ 1. En appliquant le théorème d’arrêt de Doob à la martingale
2
iλBt + λ2 t
,
e
t≥0
avec les temps s’arrêt t + T ∧ N et s + T ∧ N , on obtient:
λ2
λ2
E eiλBT ∧N+t + 2 (T ∧N +t) | FT ∧N +s = eiλBT ∧N+s + 2 (T ∧N +s) ,
d’où
λ2
E eiλ(BT ∧N+t −BT ∧N+s ) | FT ∧N +s = e− 2 (t−s) .
Par le théorème de convergence dominée, quand N → +∞, on obtient:
λ2
E eiλ(B̃t −B̃s ) | FT +s = e− 2 (t−s) .
Le processus (B̃t )t≥0 est par conséquent à accroissements indépendants et stationnaires. Il est
d’autre part évidemment continu. Donc (B̃t )t≥0 est un processus de Lévy continu. La relation
λ2
E eiλ(B̃t −B̃s ) = e− 2 (t−s) ,
implique que c’est un mouvement brownien.
Comme corollaire, nous en déduisons:
Corollaire 49. Soit (Bt )t≥0 un mouvement brownien sur (Ω,(Ft )t≥0 ,F,P). Alors (Bt )t≥0 vérifie
la propriété de Markov forte relativement à la filtration (Ft )t≥0 .
Preuve.
Soient f : R → R une fonction borélienne bornée, t ≥ 0 et S un temps d’arrêt fini. On a:
E(f (Bt+S ) | FS ) = E(f (Bt+S − BS + BS ) | FS ).
Comme Bt+S − BS est indépendant de FS , on en déduit tout d’abord que
E(f (Bt+S ) | FS ) = E(f (Bt+S ) | BS ).
Pour x ∈ R,
E(f (Bt+S ) | BS = x) = E(f (Bt+S − BS + BS ) | BS = x) = E(f (Xt + x)),
28
MR2 B1, F.BAUDOIN
où Xt est une variable aléatoire indépendante de BS telle que Xt =loi N (0,t). Par conséquent,
Z
y2
e− 2t
f (x + y) √
E(f (Bt+S ) | BS = x) =
dy
2πt
R
et
Z
y2
e− 2t
dy.
f (BS + y) √
E(f (Bt+S ) | FS ) =
2πt
R
La propriété de Markov forte permet de déduire plusieurs résultats intéressants.
Dans ce qui suit, pour a ∈ R, on note
Ta = inf{t > 0,Bt = a},
où (Bt )t≥0 est un mouvement brownien sur (Ω,(Ft )t≥0 ,F,P).
Dans un premier temps, on a un principe de réflexion analogue à celui des marches aléatoires.
Proposition 50. (Principe de réflexion)
Soit a ∈ R. Le processus
B̃t = Bt , t < Ta
= 2a − Bt , t ≥ Ta ,
est un mouvement brownien.
Preuve.
Exercice.
Proposition 51. Pour t ≥ 0, on note
St = sup{Bs ,s ≤ t}.
Alors, pour t ≥ 0, a ≥ 0, x ≤ a,
P(St ∈ da,Bt ∈ dx) =
2(2a − x) − (2a−x)2
2t
√
e
dadx.
2πt3
Preuve.
Exercice.
Proposition 52. On a
(St − Bt )t≥0 =loi (| Bt |)t≥0 .
D’autre part, (| Bt |)t≥0 est un processus de Markov fort de fonction de transition:
Z +∞
xy x2 +y 2
2
f (y)dy, t > 0.
(Pt f )(x) = √
e− 2t cosh
t
2πt 0
Preuve.
Exercice.
MR2 B1, F.BAUDOIN
29
7. Diffusions
L’étude des martingales browniennes nous a montré que le mouvement brownien était, dans un
certain sens, relié à l’équation de la chaleur:
1 ∂2f
∂f
=
.
∂t
2 ∂x2
Dans ce paragraphe, nous allons préciser un plus ce lien, en introduisant la notion de diffusion.
Exercice 53. Soit {Pt ,t ≥ 0} une fonction de transition de Feller-Dynkin. Montrer que si
f : R → R est une fonction C ∞ à support compact, alors
lim kPt f − f k∞ = 0.
t→0
Exercice 54. Soit {Pt ,t ≥ 0} la fonction de transition du mouvement brownien.
(1) Soit f : R → R une fonction C ∞ à support compact. Montrer que pour tout x ∈ R,
(Pt f )(x) − f (x)
1
= f ′′ (x).
t→0
t
2
∞
(2) Soit f : R → R une fonction C à support compact. Montrer, en fait que,
Pt f − f
1 ′′ lim
= 0.
− f t→0 t
2 lim
∞
(3) Montrer que si f : R → R est une fonction polynomiale alors pour tout x ∈ R
+∞
X
1 k (2k)
t f
(x).
(Pt f )(x) =
k
2 k!
k=0
Cc∞ (R,R),
Dans la suite on notera
l’espace des fonctions R → R, C ∞ à support compact et
on rappelle que C0 (R,R) dénote l’ensemble des applications continues f : R → R telles que
lim−∞ f = lim+∞ f = 0.
On rappelle également que C(R+ ,R) est l’espace des fonctions continues R+ → R. Le processus
des coordonnées sur cet espace est noté comme d’habitude (πt )t≥0 et on note enfin:
Gt = σ(πs ,0 ≤ s ≤ t), t ≥ 0,
G∞ = σ(πs ,s ≥ 0).
Definition 55. Soit {Pt ,t ≥ 0} une fonction de transition. On dit que {Pt ,t ≥ 0} est une
fonction de transition de diffusion si:
(1) La fonction de transition {Pt ,t ≥ 0} est de Feller-Dynkin;
(2) Pour tout f ∈ Cc∞ (R,R), il existe g ∈ C0 (R,R) telle que:
Pt f − f
− g
lim .
t→0
t
∞
(3) Pour toute mesure de probabilité ν sur R, on peut trouver une probabilité Pν sur G∞ telle
que :
(a) Sous Pν , π0 =loi ν;
(b) Sur l’espace de probabilité filtré (C(R+ ,R),(Gt )t≥0 ,G∞ ,Pν ), (πt )t≥0 est un processus
de Markov de fonction de transition {Pt ,t ≥ 0} relativement à la filtration (Gt )t≥0 .
Dans (2) le g qui est associé au f est unique et on notera g = Lf . L’opérateur L : Cc∞ (R,R) →
C0 (R,R) s’appelle le générateur infinitésimal de la fonction de transition {Pt ,t ≥ 0}.
30
MR2 B1, F.BAUDOIN
Definition 56. Soit (Xt )t≥0 un processus continu défini sur un espace de probabilité filtré
(Ω,(Ft )t≥0 ,F,P). On dit que (Xt )t≥0 est un processus de diffusion par rapport à la filtration
(Ft )t≥0 si c’est un processus de Markov dont la fonction de transition est une fonction de transition de diffusion. Le générateur infinitésimal de cette fonction de transition est encore appelé
le générateur infinitésimal de la diffusion.
Exercice 57. Soit (Bt )t≥0 un mouvement brownien sur (Ω,(Ft )t≥0 ,F,P). Pour µ ∈ R, montrer
que le processus (Bt + µt)t≥0 est un processus de diffusion de générateur infinitésimal:
L=µ
1 d2
d
+
.
dx 2 dx2
Exercice 58. (Processus d’Ornstein-Uhlenbeck)
Soit (Bt )t≥0 un mouvement brownien sur (Ω,(Ft )t≥0 ,F,P). Soit θ ∈ R\{0}. On considère le
processus
Xt = eθt B 1−e−2θt .
2θ
(1) Montrer que (Xt )t≥0 est un processus gaussien dont on calculera la fonction moyenne et
la fonction de covariance.
(2) Montrer que (Xt )t≥0 est un processus de Markov de fonction de transition donnée par:
! y2
r
Z
e− 2
e2θt − 1
θt
f e x+
y √ dy.
(Pt f )(x) =
2θ
2π
R
(3) Montrer que (Xt )t≥0 est une diffusion de générateur infinitésimal
L = θx
d
1 d2
+
.
dx 2 dx2
Exercice 59. Soit (Xt )t≥0 un processus de diffusion de fonction de transition {Pt ,t ≥ 0} et de
générateur infinitésimal L. Montrer que si f ∈ Cc∞ (R,R) est une fonction telle que
Lf = µf,
alors pour tout x ∈ R
(Pt f )(x) =
µ ∈ R,
+∞
X
1
1 k k
t (L f )(x) = e 2 µt f (x).
2k k!
k=0
On peut construire toute une famille de martingales associées à un processus de diffusion:
Proposition 60. Soit (Xt )t≥0 un processus de diffusion défini sur un espace de probabilité
filtré (Ω,(Ft )t≥0 ,F,P) de fonction de transition {Pt ,t ≥ 0} et de générateur infinitésimal L. Soit
f ∈ Cc∞ (R,R). Alors, le processus
Z t
(Lf )(Xs )ds
f (Xt ) −
0
t≥0
est une martingale relativement à la filtration (Ft )t≥0 .
Preuve.
Remarquons tout d’abord, d’après l’exercice 53, que pour f ∈ Cc∞ (R,R) et t ≥ 0,
Pε f − f
Pt+ε f − Pt f
= Pt lim
= Pt Lf.
lim
ε→0
ε→0
ε
ε
MR2 B1, F.BAUDOIN
Il s’en suit que pour f ∈ Cc∞ (R,R) et t ≥ 0,
Pt f = f +
Z
0
31
t
Pu Lf du.
Soient maintenant f ∈ Cc∞ (R,R) et t ≥ s ≥ 0, on a:
E (f (Xt ) | Fs ) = (Pt−s f )(Xs )
Z t−s
(Pu Lf )(Xs )du
= f (Xs ) +
0
Z t
(Pu−s Lf )(Xs )du
= f (Xs ) +
s
Z t
E ((Lf )(Xu ) | Fs )
= f (Xs ) +
s
Z t
(Lf )(Xu )du | Fs .
= f (Xs ) + E
s
Ce qui conclut la démonstration.
Le joli théorème suivant dû à Dynkin nous dit qu’un générateur infinitésimal de diffusion est
nécessairement un opérateur différentiel elliptique du second ordre:
Théorème 61. (Dynkin) Soit (Xt )t≥0 un processus de diffusion de générateur infinitésimal L
défini sur un espace de probabilité filtré (Ω,(Ft )t≥0 ,F,P). On peut trouver des fonctions continues
b : R → R et σ : R → [0, + ∞) telles que:
L = b(x)
1
d2
d
+ σ(x)2 2 .
dx 2
dx
Preuve.
Soit (Xt )t≥0 un processus de diffusion de fonction de transition {Pt ,t ≥ 0} et de générateur
infinitésimal L défini sur un espace de probabilité filtré (Ω,(Ft )t≥0 ,F,P). Montrons tout d’abord
que L vérifie les propriétés suivantes:
(1) L : Cc∞ (R,R) → C0 (R+ ,R) est un opérateur linéaire;
(2) L est un opérateur local, i.e. si f,g ∈ Cc∞ (R,R) coincident sur un voisinage de x ∈ R,
alors (Lf )(x) = (Lg)(x);
(3) L vérifie le principe du maximum: Si f ∈ Cc∞ (R,R) atteint son maximum en x ∈ R avec
f (x) ≥ 0, alors (Lf )(x) ≤ 0.
La propriété (1) est claire et découle de la linéarité de Pt .
Soient maintenant f,g ∈ Cc∞ (R,R) qui coincident sur un voisinage de x ∈ R. On a
(Pt f )(x) = Ex (f (πt )),
où Ex désigne l’espérance sous la probabilité Px telle que:
– Sous Px , π0 =loi δx (distribution de Dirac en x);
– Sur l’espace de probabilité filtré (C(R+ ,R),(Gt )t≥0 ,G∞ ,Pν ), (πt )t≥0 est un processus de
Markov de fonction de transition {Pt ,t ≥ 0} relativement à la filtration (Gt )t≥0 .
De même,
(Pt g)(x) = Ex (g(πt )).
Comme (πt )t≥0 est continu, on en déduit l’existence d’un temps d’arrêt T tel que T > 0, Px p.s.
et
f (πt ) = g(πt ), t < T.
32
MR2 B1, F.BAUDOIN
Ce qui implique
Ex (f (1t<T πt )) − Ex (g(1t<T πt ))
Ex (f (πt )) − Ex (g(πt ))
= lim
= 0.
t→0
t→0
t
t
Comme d’un autre côté, on a
lim
Ex (f (πt )) − Ex (g(πt ))
= (Lf )(x) − (Lg)(x),
t→0
t
lim
on en déduit que
(Lf )(x) = (Lg)(x).
La propriété (2) est donc bien satisfaite.
Montrons que la propriété (3) l’est également. Soit f ∈ Cc∞ (R,R) qui atteint son maximum en
x ∈ R avec f (x) ≥ 0.
Soit encore Px la probabilité sur G∞ telle que:
– Sous Px , π0 =loi δx (distribution de Dirac en x);
– Sur l’espace de probabilité filtré (C(R+ ,R),(Gt )t≥0 ,G∞ ,Pν ), (πt )t≥0 est un processus de
Markov de fonction de transition {Pt ,t ≥ 0} relativement à la filtration (Gt )t≥0 .
D’après la proposition précédente, sous cette probabilité Px , le processus
Z t
(Lf )(πs )ds
f (πt ) −
0
t≥0
est une martingale relativement à la filtration (Gt )t≥0 . Par conséquent, pour tout t ≥ 0,
Z t
x
Ex ((Lf )(πu ))du.
E (f (πt )) = f (x) +
0
Comme pour tout t ≥ 0,
on en déduit que pour t ≥ 0
A la limite t → 0, on récupère:
Ex (f (πt )) ≤ f (x),
1
t
Z
t
0
Ex ((Lf )(πu ))du ≤ 0.
(Lf )(x) ≤ 0.
En conclusion, les propriétés (1), (2) et (3) sont bien satisfaites.
On veut maintenant démontrer que L est un opérateur différentiel elliptique du second ordre.
Soit x ∈ R.
Soit ψ0 une fonction C ∞ à support compact telle que dans un voisinage de x,
ψ(y) = 1.
De Pt 1 = 1, il est facile de voir, en utilisant la propriété d’opérateur local de L que:
(Lψ0 )(x) = 0.
Soit maintenant ψ1 une fonction
On pose alors
La fonction
ψ12
C∞
à support compact telle que dans un voisinage de x,
ψ1 (y) = y − x.
b(x) = (Lψ1 )(x).
atteint un minimum local en x, par conséquent
(Lψ12 )(x) ≥ 0,
MR2 B1, F.BAUDOIN
33
et on pose alors
σ 2 (x) = (Lψ12 )(x).
Les fonctions b et σ sont bien définies et continues (justifiez le !).
Montrons maintenant que pour tout f ∈ Cc∞ (R,R),
1
(Lf )(x) = b(x)f ′ (x) + σ(x)2 f ′′ (x).
2
Soit donc f ∈ Cc∞ (R,R). D’après la formule de Taylor, au voisinage de x, on peut écrire
1
f (y) = f (x)ψ0 (y) + f ′ (x)ψ1 (y) + f ′′ (x)ψ12 (y) + R(y)ψ13 (y)
2
où R est continue.
On en déduit donc
1
(Lf )(x) = f (x)(Lψ0 )(x) + f ′ (x)(Lψ1 )(x) + f ′′ (x)(Lψ12 )(x) + (LRψ13 )(x).
2
Pour conclure notre démonstration, il reste donc à vérifier que
(LRψ13 )(x) = 0.
Pour ε > 0 assez petit,
a un maximum local en x, d’où
(LRψ13 )(x) ≤ εσ 2 (x).
On en déduit
De même, en considérant
on montre que
Ce qui montre bien
y → R(y)ψ13 (y) − ε(y − x)2
(LRψ13 )(x) ≤ 0.
y → R(y)ψ13 (y) + ε(y − x)2 ,
(LRψ13 )(x) ≥ 0.
(LRψ13 )(x) = 0.
Les processus de diffusion permettent de résoudre des équations aux dérivées partielles:
Proposition 62. Soit (Xt )t≥0 un processus de diffusion de fonction de transition {Pt ,t ≥ 0} et
de générateur infinitésimal
d2
1
d
+ σ(x)2 2 .
L = b(x)
dx 2
dx
∞
Soit f ∈ Cc (R,R). Alors, la fonction:
g : (0, + ∞) × R → R,
(t,x) → (Pt f )(x),
est solution du problème parabolique suivant:
∂g
1
∂2g
∂g
= b(x)
+ σ 2 (x) 2 ,
∂t
∂x 2
∂x
∀x ∈ R, lim g(t,x) = f (x).
t→0
34
MR2 B1, F.BAUDOIN
Preuve.
Exercice.
.
Ainsi, si on a en tête des applications en théorie des équations aux dérivées partielles, il est
important de savoir comment construire des processus de diffusion. Le calcul d’Itô présenté au
chapitre suivant s’avèrera un outil très puissant facile à étendre en dimension plus grande que 1.
En attendant, on a le théorème remarquable suivant, que démontrerons plus tard et qui règle le
problème de l’existence des diffusions en dimension 1, sous des hypothèses relativement faibles:
Théorème 63. Soient b : R → R et σ : R → (0, + ∞) deux fonctions continues.
Soit
Z y
Z x
| b(z) |
dz dy, x ∈ R.
exp −2
s(x) =
2
0 σ(z)
0
Soit maintenant (Bt )t≥0 un mouvement brownien.
Pour u ≥ 0, on note
Z u exp 2 R Bs |b(z)|2 dz
Z u
0 σ(z)
ds
=
ds,
Au =
′
2
2
σ (Bs )
0
0 s (Bs )σ (Bs )
Alors le processus
s−1 Binf{u,Au >t} t≥0
est une diffusion de générateur infinitésimal
d2
1
d
+ σ(x)2 2 .
dx 2
dx
Ce qu’il y a de remarquable dans ce théorème, c’est qu’ainsi toutes les diffusions unidimensionnelles peuvent être construite à partir du seul mouvement brownien.
L = b(x)
8. Un invité de marque: Paul Lévy
Born: 15 Sept 1886 in Paris, France
Died: 15 Dec 1971 in Paris, France
Paul Lévy was born into a family containing several mathematicians. His grandfather was a
professor of mathematics while Paul’s father, Lucien Lévy, was an examiner with the École
Polytechnique and wrote papers on geometry. Paul attended the Lycée Saint Louis in Paris
and he achieved outstanding success winning prizes not only in mathematics but also in Greek,
chemistry and physics. He was placed first for entry to the École Normale Supérieur and second
for entry to the École Polytechnique in the Concours d’entrée for the two institutions.
He chose to attend the École Polytechnique and he while still an undergraduate there published
his first paper on semiconvergent series in 1905. After graduating in first place, Lv́y took a year
doing military service before entering the École des Mines in 1907. While he studied at the
École des Mines he also attended courses at the Sorbonne given by Darboux and Emile Picard.
In addition he attended lectures at the Collège de France by Georges Humbert and Hadamard.
It was Hadamard who was the major influence in determining the topics on which Lévy would
undertake research. Finishing his studies at the École des Mines in 1910 he began research
in functional analysis. His thesis on this topic was examined by Emile Picard, Poincaré and
Hadamard in 1911 and he received his Docteur ès Sciences in 1912.
Lévy became professor École des Mines in Paris in 1913, then professor of analysis at the
École Polytechnique in Paris in 1920 where he remained until he retired in 1959. During World
War I Lévy served in the artillery and was involved in using his mathematical skills in solving
MR2 B1, F.BAUDOIN
35
problems concerning defence against attacks from the air. A young mathematician R Gateaux
was killed near the beginning of the war and Hadamard asked Lévy to prepare Gateaux’s work
for publication. He did this but he did not stop at writing up Gateaux’s results, rather he took
Gateaux’s ideas and developed them further publishing the material after the war had ended in
1919.
As we indicated above Lévy first worked on functional analysis:
... done in the spirit of Volterra. This involved extending the calculus of functions of a real
variable to spaces where the points are curves, surfaces, sequences or functions.
In 1919 Lévy was asked to give three lectures at the École Polytechnique on:
... notions of calculus of probabilities and the role of Gaussian law in the theory of errors.
Taylor writes:
At that time there was no mathematical theory of probability - only a collection of small computational problems. Now it is a fully-fledged branch of mathematics using techniques from all
branches of modern analysis and making its own contribution of ideas, problems, results and useful machinery to be applied elsewhere. If there is one person who has influenced the establishment
and growth of probability theory more than any other, that person must be Paul Lévy.
Loève, one of his students, gives a very colorful description of Lévy’s contributions:
Paul Lévy was a painter in the probabilistic world. Like the very great painting geniuses, his
palette was his own and his paintings transmuted forever our vision of reality. ... His three main,
somewhat overlapping, periods were: the limit laws period, the great period of additive processes
and of martingales painted in pathtime colors, and the Brownian pathfinder period.
Not only did Lévy contribute to probability and functional analysis but he also worked on partial
differential equations and series. In 1926 he extended Laplace transforms to broader function
classes. He undertook a large-scale work on generalized differential equations in functional derivatives. He also studied geometry.
His main books are Leçons d’analyse fonctionnelle (1922), Calcul des probabilités (1925), Théorie
de l’addition des variables aléatoires (1937-54), and Processus stochastiques et mouvement brownien (1948).
Loève sums up in these words:
He was a very modest man while believing fully in the power of rational thought. ... whenever
I pass by the Luxembourg gardens, I still see us there strolling, sitting in the sun on a bench; I
still hear him speaking carefully his thoughts. I have known a great man.
Article by: J J O’Connor and E F Robertson,