CHAPITRE 1 - Department of Mathematics

Transcription

CHAPITRE 1 - Department of Mathematics
CHAPITRE 1: PROCESSUS STOCHASTIQUES EN TEMPS CONTINU
MR2, module B1: Cours de calcul stochastique
Fabrice Baudoin
Dans ce chapitre nous jetons les bases de la théorie des processus stochastiques en temps continu.
Nous définissons un processus stochastique comme une variable aléatoire à valeurs dans un espace
de fonctions réels. Les outils importants introduits sont:
– La théorie de la mesure dans les espaces de fonctions;
– Le théorème de Daniell-Kolmogorov ;
– La notion de processus de Markov et de processus gaussien;
– Le critère de continuité de Kolmogorov qui donne une condition simple pour l’existence
d’une version continue d’un processus;
– La notion de convergence en loi d’une suite de processus continus.
Table des matières
1. Quelques éléments de théorie de la mesure dans les espaces de fonctions
2. Processus stochastiques
3. Le théorème d’extension de Daniell-Kolmogorov
4. Quelques applications du théorème de Daniell-Kolmogorov
4.1. Processus de Markov
4.2. Processus gaussiens
5. Le critère de continuité de Kolmogorov
6. Convergence en loi de processus continus
7. Un invité de marque: A. Kolmogorov
1
2
3
5
8
8
11
12
14
16
2
MR2 B1, F.BAUDOIN
1. Quelques éléments de théorie de la mesure dans les espaces de fonctions
Avant d’attaquer la théorie des processus stochastiques qui peuvent être vus comme des variables
aléatoires à valeurs dans un espace de fonctions, il est important de bien comprendre quelles
sont les tribus canoniques sur ces espaces fonctionnels.
Notons A(R+ ,R) l’ensemble de toutes les applications R+ → R.
On considère la famille d’ensemble dits cylindriques:
{f ∈ A(R+ ,R),f (t1 ) ∈ I1 ,...,f (tn ) ∈ In }
où
t1 ,...,tn ∈ R+
et où I1 ,...,In sont des intervalles de la forme (ai ,bi ].
On note alors T (R+ ,R) la σ-algèbre de A(R+ ,R) engendrée par cette famille. Cette σ-algèbre
admet d’autres familles génératrices.
Proposition 1. En tant que σ-algèbre, T (R+ ,R) est également engendrée par les familles suivantes:
(1)
{f ∈ A(R+ ,R),f (t1 ) ∈ B1 ,...,f (tn ) ∈ Bn }
où
t1 ,...,tn ∈ R+
et où B1 ,...,Bn sont des ensembles boréliens de R.
(2)
{f ∈ A(R+ ,R),(f (t1 ),...,f (tn )) ∈ B}
où
t1 ,...,tn ∈ R+
et où B est un ensemble borélien de Rn .
Preuve.
Exercice Exercice 2. Montrer que les ensembles suivants ne sont pas dans T ([0,1],R):
(1)
{f ∈ A([0,1],R), sup f (t) < 1}
t∈[0,1]
(2)
{f ∈ A([0,1],R),∃t ∈ [0,1]f (t) = 0}
L’exercice précédent montre bien que la tribu T (R+ ,R) n’est pas assez riche pour rendre mesurable des événements dont, pourtant, on aimerait pouvoir calculer la probabilité (sic !). Cela est
dû au fait que l’espace dont on est parti, A(R+ ,R) est bien trop gros.
Dans ce cours nous nous intéresserons beaucoup à des processus qui ont des trajectoires continues. Dans ce cas on part de l’espace des fonctions continues C(R+ ,R) et on considère la tribu
B(R+ ,R) engendrée par les cylindres:
{f ∈ C(R+ ,R),f (t1 ) ∈ I1 ,...,f (tn ) ∈ In }
où
t1 ,...,tn ∈ R+
et où I1 ,...,In sont des intervalles de la forme (ai ,bi ].
MR2 B1, F.BAUDOIN
3
Il est intéressant de noter que B(R+ ,R) est borélienne:
Proposition 3. B(R+ ,R) est engendrée par les ouverts de la topologie de la convergence uniforme sur tout compact.
Preuve.
On rappelle tout d’abord que sur C(R+ ,R) la topologie de la convergence uniforme sur tout
compact est métrisable, par exemple grâce à la distance
+∞
X
1
d(f,g) =
min( sup | f (t) − g(t) | ,1).
2n
0≤t≤n
n=1
Cette distance fait de C(R+ ,R) un espace métrique complet séparable.
Notons O la tribu engendrée par les ouverts.
Il est clair que les cylindres de la forme
{f ∈ C(R+ ,R),f (t1 ) < a1 ,...,f (tn ) < an }
sont des ouverts qui engendrent B(R+ ,R). Par conséquent
B(R+ ,R) ⊂ O.
Pour démontrer l’inclusion inverse, il suffit de démontrer que pour tout n ∈ N, n ≥ 1 tout ρ > 0
et tout g ∈ C(R+ ,R),
{f ∈ C(R+ ,R), sup | f (t) − g(t) |< ρ} ∈ B(R+ ,R),
0≤t≤n
ce qui découle de l’égalité
{f ∈ C(R+ ,R), sup | f (t) − g(t) |< ρ} = ∩t∈Q,0≤t≤n {f ∈ C(R+ ,R), | f (t) − g(t) |< ρ}.
0≤t≤n
Exercice 4. Montrer que les ensembles suivants sont dans B([0,1],R):
(1)
{f ∈ C([0,1],R), sup f (t) < 1}
t∈[0,1]
(2)
{f ∈ C([0,1],R),∃t ∈ [0,1]f (t) = 0}
2. Processus stochastiques
Soit (Ω,F,P) un espace de probabilité.
Definition 5. Un processus stochastique sur (Ω,F,P) est une suite (Xt )t∈R+ de variables aléatoires
reélles F-mesurables.
Un processus (Xt )t∈R+ peut être vu comme une application
X(ω) ∈ A(R+ ,R),t → Xt (ω).
L’ensemble de ces applications est l’ensemble des trajectoires de (Xt )t∈R+ . Il est facile de
voir (exercice !) qu’un processus (Xt )t∈R+ est mesurable en tant qu’application X : (Ω,F) →
(A(R+ ,R),T (R+ ,R)). La loi image µ de P par cette application, définie par
µ(A) = P(X −1 (A)),A ∈ T (R+ ,R))
s’appelle la loi du processus (Xt )t∈R+ .
4
MR2 B1, F.BAUDOIN
Si, pour t ≥ 0, on note πt l’application qui à f ∈ A(R+ ,R) associe f (t). Le processus stochastique
(πt )t∈R+ défini sur l’espace de probabilité (A(R+ ,R),T (R+ ,R),µ) s’appelle le processus canonique
associé à X. C’est un processus de loi µ.
À ce degré de géneralité, il n’y a priori aucune régularité des trajectoires du processus. Le
minimum à exiger est la mesurabilité jointe en temps et en ω:
Definition 6. Un processus (Xt )t∈R+ est dit mesurable si l’application
(t,ω) → Xt (ω)
est mesurable par rapport à B(R+ ) ⊗ F, c’est-à-dire si
∀A ∈ B(R),{(t,ω),Xt (ω) ∈ A} ∈ B(R+ ) ⊗ F.
Un processus mesurable a évidemment des trajectoires qui sont des fonctions mesurables.
Definition 7. Si X est à valeurs dans C(R+ ,R), c’est-à-dire si les trajectoires de X sont continues, on dit que (Xt )t∈R+ est un processus continu.
Dans ce cas, l’application X : (Ω,F) → (C(R+ ,R),B(R+ ,R)) est mesurable et la loi de X vit sur
l’espace (C(R+ ,R),B(R+ ,R)). De plus,
Proposition 8. Un processus continu est mesurable.
Preuve. Soit (Xt )t∈R+ un processus continu. Montrons tout d’abord que si A est un borélien
de R,
{(t,ω) ∈ [0,1] × Ω,Xt (ω) ∈ A} ∈ B(R+ ) ⊗ F.
Pour n ∈ N, soit
Xtn = X [2n t] ,t ∈ [0,1],
2n
où [.] désigne la partie entière. Comme les trajectoires de X n sont constantes par morceaux, il
est clair que
{(t,ω) ∈ [0,1] × Ω,Xtn (ω) ∈ A} ∈ B(R+ ) ⊗ F.
D’autre part, ∀t ∈ [0,1],ω ∈ Ω
lim Xtn (ω) = Xt (ω).
n→+∞
Donc
{(t,ω) ∈ [0,1] × Ω,Xt (ω) ∈ A} ∈ B(R+ ) ⊗ F.
De même on montre que ∀k ∈ N,
{(t,ω) ∈ [k,k + 1] × Ω,Xt (ω) ∈ A} ∈ B(R+ ) ⊗ F.
Comme
{(t,ω) ∈ R × Ω,Xt (ω) ∈ A} = ∪k∈N {(t,ω) ∈ R × Ω,Xt (ω) ∈ A},
on en déduit le résultat souhaité.
MR2 B1, F.BAUDOIN
5
3. Le théorème d’extension de Daniell-Kolmogorov
Dans le paragraphe précédent, nous avons vu qu’un processus stochastique définissait une mesure
de probabilité sur l’espace (A(R+ ,R),T (R+ ,R)). Nous allons tout d’abord voir que cette mesure
est entièrement déterminée par ce que l’on appelle les lois fini-dimensionnelles du processus.
Definition 9. Soit t1 ,...,tn ∈ Rn+ . On note µt1 ,...,tn la loi de la variable aléatoire
(Xt1 ,...,Xtn ).
C’est donc une mesure de probabilité portée par Rn . Cette probabilité s’appelle une loi finidimensionnelle du processus X.
Proposition 10. Soient (Xt )t∈R+ et (Xt0 )t∈R+ 2 processus stochastiques éventuellement définis
sur des espaces de probabilité différents. Si ces 2 processus ont les mêmes lois fini-dimensionnelles,
alors ils ont les mêmes lois.
Preuve.
Dire que (Xt )t∈R+ et (Xt0 )t∈R+ ont les mêmes lois fini-dimensionnelles revient à dire que les lois
de X et X 0 coincident sur les cylindres
{f ∈ A(R+ ,R),f (t1 ) ∈ I1 ,...,f (tn ) ∈ In }.
Comme ces cylindres engendrent la σ-algèbre T (R+ ,R), nous en déduisons que X et X 0 ont la
même loi. L’ensemble des lois fini-dimensionnelles d’un processus vérifient les 2 conditions dite de compatibilité: Soient t1 ,...,tn ∈ R+ et τ une permutation de l’ensemble {1,...,n}, on a
(1)
µt1 ,...,tn (A1 × ... × An ) = µtτ (1) ,...,tτ (n) (Aτ (1) × ... × Aτ (n) ),
Ai ∈ B(R).
(2)
µt1 ,...,tn (A1 × ... × An−1 × R) = µt1 ,...,tn−1 (A1 × ... × An−1 ),
Ai ∈ B(R).
Le théorème de Daniell-Kolmogorov affirme que réciproquement, étant donnée une famille compatible de probabilités définis sur les cylindres de T (R+ ,R), il est toujours possible de construire
un processus dont les lois fini-dimensionnelles sont données par ces probabilités.
Théorème 11. (Daniell 1918, Kolmogorov 1933)
Supposons donnée pour chaque t1 ,...,tn ∈ R+ une probabilité µt1 ,...,tn sur Rn . Supposons que cette
famille de probabilités vérifie les 2 conditions:
(1)
µt1 ,...,tn (A1 × ... × An ) = µtτ (1) ,...,tτ (n) (Aτ (1) × ... × Aτ (n) ), Ai ∈ B(R).
(2)
µt1 ,...,tn (A1 × ... × An−1 × R) = µt1 ,...,tn−1 (A1 × ... × An−1 ),
Ai ∈ B(R).
Alors il existe une unique probabilité µ sur (A(R+ ,R),T (R+ ,R)) telle que pour t1 ,...,tn ∈ R+ ,
A1 ,...,An ∈ B(R):
µ(πt1 ∈ A1 ,...,πtn ∈ An ) = µt1 ,...,tn (A1 × ... × An ).
6
MR2 B1, F.BAUDOIN
Pour démontrer ce théorème, nous nous appuyons sur le théorème classique de Carathéodory
d’extension de la mesure que nous rappelons ici:
Théorème 12. (Carathédory) Soit Ω un ensemble non vide et A une famille de sous-ensembles
de Ω telle que:
(1) Ω ∈ A;
(2) Si A,B ∈ A, A ∪ B ∈ A;
(3) Si A ∈ A, Ω\A ∈ A.
Notons σ(A) la σ-algèbre engendrée par A. Si µ0 est une mesure σ-additive sur (Ω,A), alors il
existe une unique mesure µ sur (Ω,σ(A)) telle que pour A ∈ A,
µ0 (A) = µ(A).
Nous utiliserons également le lemme suivant:
Lemme 13. Soit Bn ⊂ Rn , n ∈ N, une suite de boréliens tels que
Bn+1 ⊂ Bn × R.
On suppose donnée pour chaque n ∈ N une probabilité µn sur (Rn ,B(Rn )) telle que,
µn (Bn ) > ε,
où ε est un réel strictement positif strictement inférieur à 1. Alors, on peut trouver une suite
de compacts Kn ⊂ Rn , n ∈ N, tels que:
– Kn ⊂ Bn
– Kn+1 ⊂ Kn × R.
– µn (Kn ) ≥ 2ε .
Preuve du lemme. C’est un résultat classique de théorie de la mesure que pour chaque Bn on
peut trouver un compact Kn∗ ⊂ Rn tel que
Kn∗ ⊂ Bn
et
µn (Bn \Kn∗ ) ≤
ε
2n+1
.
On pose alors
∗
Kn = (K1∗ × Rn−1 ) ∩ ... ∩ (Kn−1
× R) ∩ Kn∗ .
Il est facile de vérifier que:
– Kn ⊂ Bn
– Kn+1 ⊂ Kn × R.
D’autre part,
µn (Kn ) = µn (Bn ) − µn (Bn \Kn )
∗
= µn (Bn ) − µn Bn \ (K1∗ × Rn−1 ) ∩ ... ∩ (Kn−1
× R) ∩ Kn∗
∗
≥ µn (Bn ) − µn Bn \ (K1∗ × Rn−1 ) − ... − µn Bn \ Kn−1
× R − µn (Bn \Kn∗ )
≥ µn (Bn ) − µn (B1 \K1∗ ) − ... − µn (Bn \Kn∗ )
ε
ε
≥ ε − − ... − n+1
4
2
ε
≥ .
2
MR2 B1, F.BAUDOIN
7
Preuve du théorème de Daniell-Kolmogorov. Pour le cylindre
Ct1 ,...,tn (B) = {f ∈ A(R+ ,R),(f (t1 ),...,f (tn )) ∈ B}
où
t1 ,...,tn ∈ R+
et où B est un borélien de
Rn ,
on pose
µ (Ct1 ,...,tn ((B))) = µt1 ,...,tn (B).
Grâce aux propriétés de compatibilité, il est facile de voir que µ est bien définie et que
µ (A(R+ ,R)) = 1.
Maintenant, l’ensemble A de tous les cylindres Ct1 ,...,tn (B) vérifie les hypothéses du théorème
de Carathéodory. Pour conclure la démonstration du théorème de Daniell-Kolmogorov, il reste
donc à démontrer que µ est σ-additive, c’est-à-dire que si (Cn )n∈N est une suite de cylindres 2
à 2 disjoints telle que C = ∪n∈N Cn est un cylindre alors
µ (C) =
+∞
X
µ(Cn ).
n=0
C’est la partie difficile du théorème.
Comme pour tout N ∈ N, on a
N
µ(C) = µ C\ ∪N
n=0 Cn + µ ∪n=0 Cn ,
il suffit de montrer que
lim µ (DN ) = 0.
N →+∞
où DN = C\ ∪N
n=0 Cn .
La suite (µ(DN ))N ∈N est décroissante et positive et donc convergente. Supposons par l’absurde
qu’elle converge vers ε > 0. Nous allons démontrer que cela implique
∩N ∈N DN 6= ∅,
ce qui est clairement absurde.
Comme chaque DN est un cylindre, l’événement ∪N ∈N DN ne fait intervenir qu’un nombre
dénombrable d’instants t1 < ... < tn < ... et on peut supposer, quitte à rajouter des ensembles
dans la suite des DN , que chaque ensemble DN peut être écrit
DN = {f ∈ A(R+ ,R),(f (t1 ),...,f (tN )) ∈ BN }
où Bn ⊂ Rn , n ∈ N, est une suite de boréliens tels que
Bn+1 ⊂ Bn × R.
Comme, par hypothèse, µ(DN ) ≥ ε, on peut utiliser le lemme précédent pour construire une
suite de compacts Kn ⊂ Rn , n ∈ N, tels que:
– Kn ⊂ Bn
– Kn+1 ⊂ Kn × R.
– µt1 ,...,tn (Kn ) ≥ 2ε .
Chaque Kn étant non vide, on peut trouver
(xn1 ,...,xnn ) ∈ Kn .
j (n)
La suite (xn1 )n∈N admet une suite extraite (x11 )n∈N qui converge vers x1 ∈ K1 . De même
j (n) j (n)
la suite ((x11 ,x21 )n∈N va admettre une suite extraite qui converge vers (x1 ,x2 ) ∈ K2 . En
8
MR2 B1, F.BAUDOIN
raisonnant ainsi, de proche en proche, on construit ainsi une suite (xn )n∈N telle que pour tout
n,
(x1 ,...,xn ) ∈ Kn .
L’événement
{f ∈ A(R+ ,R),(f (t1 ),...,f (tN )) = (x1 ,...,xN )}
se trouve alors dans chaque DN , ce qui conduit à notre contradiction. L’intérêt essentiel du théorème de Daniell-Kolmogorov est de pouvoir construire un processus à
l’aide de ses lois fini-dimensionnelles:
Corollary 14. Supposons donnée pour chaque t1 ,...,tn ∈ R+ une probabilité µt1 ,...,tn sur Rn .
Supposons que cette famille de probabilités vérifie les conditions de compatibilité du théorème de
Daniell-Kolmogorov.
Alors on peut trouver un espace de probabilité (Ω,F,P) ainsi qu’un processus (Xt )t≥0 défini sur
cet espace dont les lois fini-dimensionnelles sont les µt1 ,...,tn .
Preuve du corollaire. Comme espace de probabilité, on prend
(Ω,F,P) = (A(R+ ,R),T (R+ ,R),µ)
où µ est la probabilité donnée par le théorème de Daniell-Kolmogorov. On considère alors le
processus (πt )t≥0 défini sur A(R+ ,R) par πt (f ) = f (t). Par construction même, ce processus est
de loi µ.
4. Quelques applications du théorème de Daniell-Kolmogorov
4.1. Processus de Markov. Intuitivement, un processus de Markov (Xt )t≥0 défini sur un
espace de probabilité (Ω,F,P) est un processus sans mémoire. Un tel processus est caractérisé
par sa fonction de transition. La fonction de transition d’un processus de Markov est l’analogue
en temps continu de la matrice de transition associée à une chaine de Markov. Tout au long de
ce cours, nous rencontrerons de nombreux exemples de processus de Markov dont notamment,
le mouvement brownien.
Definition 15. Une fonction de transition {Pt ,t ≥ 0} sur R est une famille de noyaux
Pt : R × B(R) → [0,1]
telle que:
(1) Pour t ≥ 0 et x ∈ R, Pt (x,·) est une mesure de probabilité sur B(R);
(2) Pour t ≥ 0 et A ∈ B(R), la fonction x → Pt (x,A) est mesurable par rapport à B(R);
(3) Pour s,t ≥ 0, x ∈ R et A ∈ B(R),
Z
Pt (y,A)Ps (x,dy);
(1)
Pt+s (x,A) =
R
L’équation (1) est appelée l’équation de Chapman-Kolmogorov.
Une fonction de transition peut également être vu comme une famille d’opérateurs (Pt )t≥0
continus et de norme inférieure à 1 définis sur l’espace des fonctions f : R → R boréliennes
bornées:
Z
f (y)Pt (x,dy).
(Pt f )(x) =
R
MR2 B1, F.BAUDOIN
9
Exercice 16.
(1) Montrer que l’équation de Chapman-Kolmogorov equation est équivalente à la propriété
de semigroupe:
Pt+s = Pt Ps ,s,t ≥ 0.
(2) Soit f : R+ → R une fonction continue en 0 telle que
f (t + s) = f (t)f (s),s,t ≥ 0.
Montrer qu’il existe α ∈ R tel que pour t ≥ 0,
f (t) = eαt .
(3) Soit f : R+ → Mn (R) (espace des matrices n × n) une fonction continue en 0 telle que
f (t + s) = f (t)f (s),s,t ≥ 0.
Montrer qu’il existe α ∈ Mn (R) tel que pour t ≥ 0,
f (t) = etα .
Cet exercice suggére que sous une hypothèse de continuité en 0, on doit pouvoir écrire
Pt = etL ,
où L sera un opérateur défini sur un certain espace fonctionnel.
Definition 17. Un processus (Xt )t≥0 défini sur l’espace de probabilité (Ω,F,P) est appelé un
processus de Markov s’il existe une fonction de transition {Pt ,t ≥ 0} telle que pour toute fonction
borélienne bornée f : R → R, et 0 < s,t,
E (f (Xs+t ) | σ(Xu ,u ≤ s)) = (Pt f )(Xs ),
où σ(Xu ,u ≤ s) est la plus petite sous-tribu de T (R+ ,R) qui rend mesurable toutes les variables
aléatoires
(Xu1 ,...,Xun ),u1 ,...,un ∈ [0,s].
La fonction de transition {Pt ,t ≥ 0} est appelée la fonction de transition du processus (Xt )t≥0 .
Ainsi, pour un processus de Markov, toute l’information contenue dans Xs+t conditionnellement
à σ(Xu ,u ≤ s) se résume à Xs . Le théorème de Daniell-Kolomogorov assure l’existence d’un
processus de Markov de fonction de transition donnée.
Proposition 18. Soient {Pt ,t ≥ 0} une fonction de transition et ν une mesure de probabilité
sur R. Alors, il existe un espace de probabilité (Ω,F,P) ainsi qu’un processus de Markov (Xt )t≥0
de fonction de transition {Pt ,t ≥ 0} défini sur cet espace tel que
X0 =loi ν.
Preuve. Nous allons montrer comment la fonction de transition caractérise les lois fini-dimensionnelles
et ensuite utiliser le corollaire 14.
Si (Xt )t≥0 est un processus de Markov de fonction de transition {Pt ,t ≥ 0} tel que:
X0 =loi ν.
10
MR2 B1, F.BAUDOIN
Alors on doit avoir, pour toute fonction borélienne bornée f :
E(f (Xt )) = E ((Pt f )(X0 ))
Z
= (Pt f )(x)ν(dx)
ZR Z
=
f (y)Pt (x,dy)ν(dx).
R
R
Ainsi nécessairement, si B est un borélien de R,
Z Z
µt (B) =
Pt (x,dy)ν(dx).
R
B
De même on peut calculer les lois bi-dimensionnelles. Si f est une fonction borélienne bornée
R2 → R, pour 0 < t1 < t2 ,
E(f (Xt1 ,Xt2 )) = E (E (f (Xt1 ,Xt2 ) | σ(Xu ,u ≤ t1 )))
Z
f (Xt1 ,y)Pt2 −t1 (Xt1 ,dy)
=E
R
Z Z Z
=
f (x,y)Pt1 (z,dx)Pt2 −t1 (x,dy)ν(dz).
R
R
R
Ainsi, nécessairement, si B est un borélien de R2 ,
Z Z
µt1 ,t2 (B) =
Pt2 −t1 (x,dy)Pt1 (z,dx)ν(dz).
B
R
De même, on montre que nécessairement, si 0 < t1 < ... < tn et si B est un borélien de Rn alors
Z Z
µt1 ,...,tn (B) =
Pt1 (z,dx1 )Pt2 −t1 (x1 ,dx2 )...Ptn −tn−1 (xn−1 ,dxn )ν(dz).
R
B
L’idée est donc maintenant de définir pour 0 = t0 < t1 < ... < tn , A borélien de R et B borélien
de Rn ,
Z Z
µt0 ,t1 ,...,tn (A × B) =
Pt1 (z,dx1 )Pt2 −t1 (x1 ,dx2 )...Ptn −tn−1 (xn−1 ,dxn )ν(dz).
A
B
Voir que cette famille de probabilités est compatible au sens du théorème de Daniell-Kolmogorov
est une conséquence de l’équation de Chapman-Kolmogorov (Exercice !).
Donc d’après le corollaire 14 on peut trouver un processus (Xt )t≥0 défini sur un certain espace
de probabilité dont les lois fini-dimensionnelles sont données par les µt0 ,t1 ,...,tn . Montrons que ce
processus est un processus de Markov de fonction de transition {Pt ,t ≥ 0} et que:
X0 =loi ν.
Comme
Z
ν(dz) = ν(A),A ∈ B(R),
µ0 (A) =
A
on a bien
X0 =loi ν.
Il s’agit maintenant de démontrer que pour toute fonction borélienne bornée f : R → R, et
0 < s,t,
E (f (Xs+t ) | σ(Xu ,u ≤ s)) = (Pt f )(Xs ).
MR2 B1, F.BAUDOIN
11
Pour cela, il suffit de démontrer que pour toutes fonctions boréliennes bornées f : R → R,
F : Rn → R, et 0 = t0 < t1 < ... < tn ,
E f (Xtn )F (Xt0 ,...,Xtn−1 ) = E (Ptn −tn−1 f )(Xtn−1 )F (Xt0 ,...,Xtn−1 ) .
Mais d’après le théorème de Fubini:
E f (Xtn )F (Xt0 ,...,Xtn−1 )
Z
=
f (xn )F (z,x1 ,...,xn−1 )Pt1 (z,dx1 )Pt2 −t1 (x1 ,dx2 )...Ptn −tn−1 (xn−1 ,dxn )ν(dz)
n+1
ZR Z
=
(Ptn −tn−1 f )(xn−1 )F (z,x1 ,...,xn−1 )Pt1 (z,dx1 )Pt2 −t1 (x1 ,dx2 )...Ptn−1 −tn−2 (xn−2 ,dxn−1 )ν(dz)
R Rn−1
=E (Ptn −tn−1 f )(Xtn−1 )F (Xt0 ,...,Xtn−1 ) .
Ce qui conclut la démonstration. 4.2. Processus gaussiens.
Definition 19. Un processus (Xt )t≥0 défini sur un espace de probabilité (Ω,F,P) est dit gaussien
si toutes ses lois fini-dimensionnelles sont des lois gaussiennes.
La loi d’un tel processus est caractérisée par sa fonction moyenne
m(t) = E(Xt )
et sa fonction de covariance
R(s,t) = E ((Xt − m(t))(Xs − m(s))) .
En effet la loi fini-dimensionnelle µt1 ,...,tn a la densité suivante par rapport à la mesure de
Lebesgue:


X
1
1
1
√
exp −
(xi − m(ti ))(Σ−1 )i,j (xj − m(tj )) ,
n/2
2
(2π)
detΣ
1≤i,j≤n
où Σi,j = R(ti ,tj ).
On remarquera que la fonction de covariance R(s,t) est symétrique (R(s,t) = R(t,s)) et telle que
pour tout a1 ,...,an ∈ R et t1 ,...,tn ∈ R+ ,
X
X
ai aj R(ti ,tj ) =
ai aj E (Xti − m(ti ))(Xtj − m(tj ))
1≤i,j≤n
1≤i,j≤n

= E
n
X
!2 
(Xti − m(ti ))

i=1
≥ 0.
Réciproquement,
Proposition 20. Soient m : R+ → R et R : R+ × R+ → R une fonction symétrique qui vérifie
pour tout a1 ,...,an ∈ R et t1 ,...,tn ∈ R+ ,
X
ai aj R(ti ,tj ) ≥ 0.
1≤i,j≤n
Alors, il existe un espace de probabilité (Ω,F,P) ainsi qu’un processus gaussien (Xt )t≥0 défini
sur cet espace de fonction moyenne m et de fonction de covariance R.
12
MR2 B1, F.BAUDOIN
Preuve. Définissons une famille de probabilités par


X
1
1
1
√
(xi − m(ti ))(Σ−1 )i,j (xj − m(tj )) dx1 ...dxn ,
exp −
µt1 ,...,tn =
n/2
2
(2π)
detΣ
1≤i,j≤n
où Σi,j = R(ti ,tj ) et où dx1 ...dxn est la mesure de Lebesgue sur Rn . Par hypothèse sur R, notez
que Σ est bien une matrice symétrique positive, de sorte que µt1 ,...,tn est bien une loi gaussienne. Il
est facile de vérifier que cette famille est compatible au sens du théorème de Daniell-Kolmogorov,
on peut donc appliquer le corollaire 14 pour obtenir la conclusion souhaitée. Exercice 21. Soit (Xt )t≥0 un processus gaussien de fonction moyenne nulle et de fonction de
covariance R(s,t) = min(s,t). Montrer que (Xt )t≥0 est également un processus de Markov et
calculer sa fonction de transition.
5. Le critère de continuité de Kolmogorov
Comme nous l’avons déjà précisé, les processus stochastiques que nous avons étudiés jusqu’à
présent sont encore extrêmement géneraux dans le sens où leurs trajectoires sont quelconques.
Néanmoins, de nombreux processus continus qui sont intéressants dans la pratique ont des
trajectoires relativement régulières.
Definition 22. Une fonction f : R+ → R est dite Hölderienne d’exposant α > 0 si il existe une
constante C > 0 telle que pour tout s,t ∈ R+ ,
| f (t) − f (s) |≤ C | t − s |α .
Exercice 23.
(1) Montrer que si f est une fonction Hölderienne d’exposant α > 1, alors f est constante.
(2) Montrer qu’une fonction Höldérienne est uniformément continue.
(3) Donner un exemple de fonction Höldérienne d’ordre 12 .
Definition 24. Un processus stochastique (X̃t )t≥0 est appelé une modification du processus
(Xt )t≥0 si pour t ≥ 0,
P Xt = X̃t = 1.
Remarque 25. Si (X̃t )t≥0 est une modification du processus (Xt )t≥0 alors (X̃t )t≥0 a les mêmes
loi-fini-dimensionnelles que (Xt )t≥0 .
Le théorème important suivant, dû à A. Kolmogorov, donne une condition suffisante pour qu’un
processus X admette une modification continue avec des trajectoires Hölderiennes.
Théorème 26. (Kolmogorov 1956) Soit α,ε,c > 0. Si un processus (Xt )t∈[0,1] défini sur (Ω,F,P)
vérifie pour tout s,t ∈ [0,1],
E (| Xt − Xs |α ) ≤ c | t − s |1+ε ,
alors il existe une modification de (Xt )t∈[0,1] qui est un processus continu dont les trajectoires
sont γ Hölderiennes pour tout γ ∈ [0, αε ).
Preuve. Pour n ∈ N, notons
Dn =
k
,k = 0,...,2n
2n
MR2 B1, F.BAUDOIN
13
et
D = ∪n∈N Dn .
On remarque que D est dense dans [0,1]. Soit γ ∈ [0, αε ).
On a, d’après l’inégalité de Tchebychev:
−γn
P max n | X kn − X k−1
|≥
2
=
P
∪1≤k≤2n | X
n
1≤k≤2
2
2
k
2n
− X k−1
|≥ 2−γn
n
2
2n
≤
X P |X
k=1
k
2n
|≥ 2−γn
− X k−1
n
≤
k=1
−n(ε−γα)
2
2n E | X
X
− X k−1
|α
n
k
2n
2
2−γαn
≤ c2
Ainsi, comme γα > ε, on a
+∞ X
P max n | X
1≤k≤2
n=1
k
2n
−γn
− X k−1
|≥ 2
n
< +∞,
2
donc d’après le lemme de Borel-Cantelli on peut trouver un ensemble Ω∗ ∈ F tel que P(Ω∗ ) = 1
et tel que pour ω ∈ Ω∗ , il existe N (ω) tel que pour tout n ≥ N (ω),
max | X
1≤k≤2n
k
2n
(ω) − X k−1
(ω) |< 2−γn .
n
2
De là, on peut en déduire que les trajectoires de X/Ω∗ sont γ Hölderiennes sur D. En effet, soient
ω ∈ Ω∗ et s,t ∈ D tels que
1
| s − t |≤ n
2
où n ≥ N (ω).
On peut trouver une suite (sn )n∈N croissante et stationnaire qui converge vers s, telle que sn ∈ Dn
et
| sn+1 − sn |= 2−(n+1) ou 0.
De même on peut trouver une suite (tn )n∈N qui converge vers t et qui vérifie des propriétés
identiques. On a alors:
Xt − Xs =
+∞
X
(Xsi+1 − Xsi ) + (Xsn − Xtn ) +
i=n
+∞
X
(Xti − Xti+1 )
i=n
Remarquez que les sommes ci-dessus sont en réalité finies.
Par conséquent,
| Xt − Xs | ≤ 2
≤2
+∞
X
i=n
+∞
X
max | X k (ω) − X k−1 (ω) |
1≤k≤2i
2i
2−γi
i=n
2
2−γn .
1 − 2−γ
sont bien γ Hölderiennes sur D.
≤
Ainsi, les trajectoires de X/Ω∗
2i
14
MR2 B1, F.BAUDOIN
Pour ω ∈ Ω∗ , soit t → X̃t (ω) l’unique fonction continue qui coincide avec t → Xt (ω) sur D. Pour
ω∈
/ Ω∗ , on pose X̃t (ω) = 0. On obtient alors un processus (X̃t )t∈[0,1] qui est la modification de
(Xt )t∈[0,1] désirée (vérifiez le !).
6. Convergence en loi de processus continus
Dans ce paragraphe, nous allons donner des critères qui assurent la convergence en loi d’une
suite de processus continus.
On se place sur l’espace des fonctions continues C(R+ ,R) sur lequel on considère la tribu
borélienne B(R+ ,R) engendrée par les ouverts de la topologie de la convergence uniforme sur
tout compact. On notera, comme d’habitude, (πt )t≥0 , le processus des coordonnées.
On rappelle que le théorème d’Ascoli caractérise les ensembles relativement compacts 1 de cette
topologie:
Théorème 27. (Ascoli)
Pour N ∈ N, f ∈ C(R+ ,R) et δ > 0, on note:
V N (f,δ) = sup{| f (t) − f (s) | , | t − s |≤ δ, s,t ≤ N }.
Un sous-ensemble K ⊂ C(R+ ,R) est relativement compact si et seulement si:
(1) L’ensemble {f (0),f ∈ K} est borné;
(2) Pour tout N ∈ N,
lim sup V N (f,δ) = 0.
δ→0 f ∈K
Comme un processus stochastique continu n’est rien d’autre qu’une variable aléatoire à valeurs
dans C(R+ ,R), on a une notion de convergence en loi pour une suite de processus:
Definition 28. Une suite (X n )n∈N de processus continus (éventuellement définis sur des espaces
de probabilité différents) est dite convergente en loi vers un processus X, si la suite des lois de
X n converge étroitement dans l’espace polonais C(R+ ,R) vers la loi de X.
On a alors un critère, très utile en pratique, qui assure la convergence en loi d’une suite de
processus continus:
Proposition 29. Soient (X n )n∈N une suite de processus continus et X un processus continu.
Supposons les deux conditions suivantes satisfaites:
(1) La suite des lois de X n est relativement compacte dans la topologie de la convergence
étroite;
(2) Pour tout t1 ,...,tk ∈ Rk ,
(Xtn1 ,...,Xtnk ) →loi
n→+∞ (Xt1 ,...,Xtk ).
Alors la suite (X n )n∈N converge en loi vers X.
Preuve.
Pour démontrer qu’une suite relativement compacte est convergente, il suffit de démontrer qu’elle
a une et une seule valeur d’adhérence, ce qui est ici immédiat étant donné que la loi d’un processus
est caractérisée par ses loi fini-dimensionnelles.
1. Un ensemble est dit relativement compact si son adhérence est compacte
MR2 B1, F.BAUDOIN
15
Pour pouvoir mettre en oeuvre le critère précédent, il faut pouvoir caractériser les suites relativement compactes dans la topologie de la convergence étroite, et c’est là que le théorème
d’Ascoli intervient:
Proposition 30. Sur l’espace C(R+ ,R), une suite (Pn )n∈N de probabilité est relativement compacte dans la topologie de la convergence étroite si et seulement si:
(1) Pour tout ε > 0, on peut trouver A > 0 et n0 ∈ N tels que pour tout n ≥ n0 ,
Pn (| π0 |> A) ≤ ε;
(2) Pour tout η,ε > 0 et N ∈ N, on peut trouver δ > 0 et n0 ∈ N tels que pour tout n ≥ n0 ,
Pn (V n0 (π,δ) > η) ≤ ε.
Preuve.
Supposons que la suite (Pn )n∈N est relativement compacte dans la topologie de la convergence
étroite, alors d’après le théorème de Prokhorov, cette suite est tendue, i.e. pour tout ε ∈ (0,1),
on peut trouver un ensemble relativement compact Kε ⊂ C(R+ ,R), tel que pour tout n ∈ N:
Pn (Kε ) ≥ 1 − ε.
En écrivant Kε sous la forme donnée par le théorème d’Ascoli, on vérifie alors facilement que
les propriétés (1) et (2) sont satisfaites avec n0 = 0.
Supposons maintenant que les propriétés (1) et (2) sont satisfaites. Tout d’abord, comme une
suite finie est toujours relativement compacte, on peut supposer que les propriétés (1) et (2) sont
satisfaites avec n0 = 0. Toujours d’après le théorème de Prokhorov, pour démontrer la relative
compacité, il suffit de démontrer la tension.
Soient ε > 0 et N ∈ N. Pour tout k ≥ 1, on peut alors trouver AN > 0 et δN,k tels que:
ε
sup Pn (| π0 |> AN ) ≤ N +1
2
n∈N
1
ε
sup Pn V N (π,δk ) >
≤ N +k+1
k
2
n∈N
On pose alors,
\ 1
N
Kε =
f ∈ C(R+ ,R), | f (0) |≤ AN ,V (π,δN,k ) ≤ ,∀k ≥ 1 .
k
N ∈N
Le théorème d’Ascoli implique la relative compacité de Kε , et il est facile de voir que pour tout
n ≥ 0,
Pn (Kε ) ≥ 1 − ε.
Enfin, le critère suivant de compacité relative s’avère souvent applicable en pratique:
Proposition 31. (Critère de compacité de Kolmogorov) Soit (X n )n∈N une suite de processus
continus telle que:
(1) La famille des lois de (X0n )n∈N est tendue;
(2) On peut trouver des constantes α,β,γ > 0 telles que pour s,t ≥ 0 et n ≥ 0,
E (| Xtn − Xsn |α ) ≤ β | t − s |1+γ .
Alors la famille des lois de (X n )n∈N est relativement compacte dans la topologie de la convergence
étroite.
16
MR2 B1, F.BAUDOIN
Preuve.
Exercice.
.
7. Un invité de marque: A. Kolmogorov
Born: 25 April 1903 in Tambov, Tambov province, Russia
Died: 20 Oct 1987 in Moscow, Russia
Andrei Nikolaevich Kolmogorov’s parents were not married and his father took no part in his
upbringing. His father Nikolai Kataev, the son of a priest, was an agriculturist who was exiled. He returned after the Revolution to head a Department in the Agricultural Ministry but
died in fighting in 1919. Kolmogorov’s mother also, tragically, took no part in his upbringing
since she died in childbirth at Kolmogorov’s birth. His mother’s sister, Vera Yakovlena, brought
Kolmogorov up and he always had the deepest affection for her.
In fact it was chance that had Kolmogorov born in Tambov since the family had no connections
with that place. Kolmogorov’s mother had been on a journey from the Crimea back to her home
in Tunoshna near Yaroslavl and it was in the home of his maternal grandfather in Tunoshna that
Kolmogorov spent his youth. Kolmogorov’s name came from his grandfather, Yakov Stepanovich
Kolmogorov, and not from his own father. Yakov Stepanovich was from the nobility, a difficult
status to have in Russia at this time, and there is certainly stories told that an illegal printing
press was operated from his house.
After Kolmogorov left school he worked for a while as a conductor on the railway. In his spare
time he wrote a treatise on Newton’s laws of mechanics. Then, in 1920, Kolmogorov entered
Moscow State University but at this stage he was far from committed to mathematics. He
studied a number of subjects, for example in addition to mathematics he studied metallurgy
and Russian history. Nor should it be thought that Russian history was merely a topic to fill
out his course, indeed he wrote a serious scientific thesis on the owning of property in Novgorod
in the 15th and 16th centuries. There is an anecdote regarding this thesis, his teacher saying:
You have supplied one proof of your thesis, and in the mathematics that you study this would
perhaps suffice, but we historians prefer to have at least ten proofs.
Kolmogorov may have told this story as a joke but nevertheless jokes are only funny if there is
some truth in them and undoubtedly this is the case here.
In mathematics Kolmogorov was influenced at an early stage by a number of outstanding mathematicians. P S Aleksandrov was beginning his research (for the second time) at Moscow around
the time Kolmogorov began his undergraduate career. Luzin and Egorov were running their
impressive research group at this time which the students called ’Luzitania’. It included M Ya
Suslin and P S Urysohn, in addition to Aleksandrov. However the person who made the deepest
impression on Kolmogorov at this time was Stepanov who lectured to him on trigonometric
series.
It is remarkable that Kolmogorov, although only an undergraduate, began research and produced
results of international importance at this stage. He had finished writing a paper on operations
on sets by the spring of 1922 which was a major generalisation of results obtained by Suslin. By
June of 1922 he had constructed a summable function which diverged almost everywhere. This
was wholly unexpected by the experts and Kolmogorov’s name began to be known around the
world.
Kolmogorov graduated from Moscow State University in 1925 and began research under Lusin’s
supervision in that year. It is remarkable that Kolmogorov published eight papers in 1925,
all written while he was still an undergraduate. Another milestone occurred in 1925, namely
Kolmogorov’s first paper on probability appeared. This was published jointly with Khinchin
MR2 B1, F.BAUDOIN
17
and contains the ’three series’ theorem as well as results on inequalities of partial sums of
random variables which would become the basis for martingale inequalities and the stochastic
calculus.
In 1929 Kolmogorov completed his doctorate. By this time he had 18 publications and Kendall
writes:
These included his versions of the strong law of large numbers and the law of the iterated logarithm, some generalisations of the operations of differentiation and integration, and a contribution to intuitional logic. His papers ... on this last topic are regarded with awe by specialists in
the field. The Russian language edition of Kolmogorov’s collected works contains a retrospective
commentary on these papers which [Kolmogorov] evidently regarded as marking an important
development in his philosophical outlook.
An important event for Kolmogorov was his friendship with Aleksandrov which began in the
summer of 1929 when they spent three weeks together. On a trip starting from Yaroslavl, they
went by boat down the Volga then across the Caucasus mountains to Lake Sevan in Armenia. There Aleksandrov worked on the topology book which he co-authored with Hopf, while
Kolmogorov worked on Markov processes with continuous states and continuous time. Kolmogorov’s results from his work by the Lake were published in 1931 and mark the beginning of
diffusion theory. In the summer of 1931 Kolmogorov and Aleksandrov made another long trip.
They visited Berlin, Gttingen, Munich, and Paris where Kolmogorov spent many hours in deep
discussions with Paul Lévy. After this they spent a month at the seaside with Fréchet
Kolmogorov was appointed a professor at Moscow University in 1931. His monograph on probability theory Grundbegriffe der Wahrscheinlichkeitsrechnung published in 1933 built up probability
theory in a rigorous way from fundamental axioms in a way comparable with Euclid’s treatment
of geometry. One success of this approach is that it provides a rigorous definition of conditional
expectation.
Around this time Malcev and Gelfand and others were graduate students of Kolmogorov along
with Gnedenko who describes what it was like being supervised by Kolmogorov:
The time of their graduate studies remains for all of Kolmogorov’s students an unforgettable
period in their lives, full of high scientific and cultural strivings, outbursts of scientific progress
and a dedication of all one’s powers to the solutions of the problems of science. It is impossible to
forget the wonderful walks on Sundays to which [Kolmogorov] invited all his own students (graduates and undergraduates), as well as the students of other supervisors. These outings in the
environs of Bolshevo, Klyazma, and other places about 30-35 kilometres away, were full of discussions about the current problems of mathematics (and its applications), as well as discussions
about the questions of the progress of culture, especially painting, architecture and literature.
In 1938-1939 a number of leading mathematicians from the Moscow University joined the Steklov
Mathematical Institute of the USSR Academy of Sciences while retaining their positions at the
University. Among them were Aleksandrov, Gelfand, Kolmogorov, Petrovsky, and Khinchin.
The Department of Probability and Statistics was set up at the Institute and Kolmogorov was
appointed as Head of Department.
Kolmogorov later extended his work to study the motion of the planets and the turbulent flow of
air from a jet engine. In 1941 he published two papers on turbulence which are of fundamental
importance. In 1954 he developed his work on dynamical systems in relation to planetary motion.
He thus demonstrated the vital role of probability theory in physics.
We must mention just a few of the numerous other major contributions which Kolmogorov
made in a whole range of different areas of mathematics. In topology Kolmogorov introduced
the notion of cohomology groups at much the same time, and independently of, Alexander.
In 1934 Kolmogorov investigated chains, cochains, homology and cohomology of a finite cell
18
MR2 B1, F.BAUDOIN
complex. In further papers, published in 1936, Kolmogorov defined cohomology groups for an
arbitrary locally compact topological space. Another contribution of the highest significance in
this area was his definition of the cohomology ring which he announced at the International
Topology Conference in Moscow in 1935. At this conference both Kolmogorov and Alexander
lectured on their independent work on cohomology.
In 1953 and 1954 two papers by Kolmogorov, each of four pages in length, appeared. These are
on the theory of dynamical systems with applications to Hamiltonian dynamics. These papers
mark the beginning of KAM-theory, which is named after Kolmogorov, Arnold and Moser.
Kolmogorov addressed the International Congress of Mathematicians in Amsterdam in 1954 on
this topic with his important talk General theory of dynamical systems and classical mechanics.
N H Bingham notes Kolmogorov’s major part in setting up the theory to answer the probability
part of Hilbert’s Sixth Problem ”to treat ... by means of axioms those physical sciences in
which mathematics plays an important part; in the first rank are the theory of probability and
mechanics” in his 1933 monograph Grundbegriffe der Wahrscheinlichkeitsrechnung. Bingham
also notes:
Paul Lévy writes poignantly of his realisation, immediately on seeing the ”Grundbegriffe”, of the
opportunity which he himself had neglected to take. A rather different perspective is supplied by
the eloquent writings of Mark Kac on the struggles that Polish mathematicians of the calibre
Steinhaus and himself had in the 1930s, even armed with the ”Grundbegriffe”, to understand the
(apparently perspicuous) notion of stochastic independence.
If Kolmogorov made a major contribution to Hilbert’s sixth problem, he completely solved
Hilbert’s Thirteenth Problem in 1957 when he showed that Hilbert was wrong in asking for a
proof that there exist continuous functions of three variables which could not be represented by
continuous functions of two variables.
Kolmogorov had many interests outside mathematics, in particular he was interested in the form
and structure of the poetry of the Russian author Pushkin.
Article by: J J O’Connor and E F Robertson,

Documents pareils