Stochastic differential equations

Transcription

Stochastic differential equations
Deuxième année F4
Année universitaire 2005/2006
Modélisation des processus aléatoires
Introduction aux équations différentielles
stochastiques
Vincent Barra
Institut Supérieur d’Informatique, de Modélisation et de leurs
Applications
Campus des Cézeaux - B.P. 1025 - 63173 AUBIERE CEDEX
Table des matières
1 Introduction
1.1 Motivations . . . . .
1.2 Avec les mains... . .
1.3 Des faux semblants .
1.3.1 Formule d’Itô
1.3.2 Exemple . . .
.
.
.
.
.
1
1
2
3
3
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
6
6
9
9
10
11
12
14
15
15
17
18
3 Applications
3.1 Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . .
3.1.2 Intégrales stochastiques et temps d’arrêt . . . . . . .
3.1.3 Formule d’Itô avec temps d’arrêt . . . . . . . . . . .
3.1.4 Mouvement brownien et laplacien . . . . . . . . . . .
3.2 Interprétation probabiliste d’équations aux dérivées partielles
3.2.1 Interprétation probabiliste . . . . . . . . . . . . . . .
3.2.2 Formule de Feynman-Kac . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
19
19
19
21
22
22
23
23
25
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Equations différentielles stochastiques
2.1 Définitions et exemples . . . . . . . . . . . . . . .
2.1.1 Définition . . . . . . . . . . . . . . . . . .
2.1.2 Exemples . . . . . . . . . . . . . . . . . .
2.2 Existence et unicité de solutions . . . . . . . . . .
2.2.1 Un exemple en dimension 1 . . . . . . . .
2.2.2 Résolution par changement de variable . .
2.2.3 Théorème d’existence et d’unicité . . . . .
2.3 Equations différentielles stochastiques linéaires . .
2.4 Simulation d’équations différentielles stochastiques
2.4.1 A propos de convergence . . . . . . . . . .
2.4.2 Schéma d’Euler-Maruyama . . . . . . . . .
2.4.3 Schéma de Milstein . . . . . . . . . . . . .
2.4.4 Méthode de Romberg . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
ii
TABLE DES MATIÈRES
3.3
3.4
Arrêt optimal . . . . . . . . . . . . . . . . . . . . . .
3.3.1 Arrêt d’une équation différentielle stochastique
3.3.2 Arrêt optimal . . . . . . . . . . . . . . . . . .
3.3.3 Conditions d’optimalité . . . . . . . . . . . . .
3.3.4 Résolution . . . . . . . . . . . . . . . . . . . .
3.3.5 Construction d’une politique optimale d’arrêt
Applications en finance . . . . . . . . . . . . . . . . .
3.4.1 Problème de base . . . . . . . . . . . . . . . .
3.4.2 Arbitrage et couverture . . . . . . . . . . . . .
3.4.3 Modélisation . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
26
26
27
27
28
29
29
29
30
30
Chapitre 1
Introduction
Sommaire
1.1
1.2
1.3
1.1
Motivations . . . . .
Avec les mains... . .
Des faux semblants
1.3.1 Formule d’Itô . .
1.3.2 Exemple . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
.
.
.
.
.
.
.
.
. .
. .
1
2
3
3
3
Motivations
Soit x0 ∈ Rn . Considérons, pour b : Rn → Rn champ vectoriel régulier,
l’équation différentielle ordinaire (EDO) :
dx
(t) = b(x(t)), t > 0
dt
(1.1)
x(0) = x0
La solution, si elle est unique, est représentée par une trajectoire
x : R+ → R n
Dans la plupart des applications où une telle EDO intervient, les trajectoires
mesurées expérimentalement ne sont que rarement conformes aux solutions
analytiques de l’équation. Des effets aléatoires viennent se superposer à la
trajectoire idéale, et il semble donc raisonnable de modifier (1.1) en y introduisant un processus aléatoire perturbant le système. Formellement, la
modification s’écrit :
dX
(t) = b(Xt ) + B(Xt )ξ(t), t > 0
dt
(1.2)
X0
= x0
2
Introduction
où B : Rn → Mn,m (R), et ξ : R+ → Rm est un ”‘bruit blanc”’ mdimensionnel.
Cette approche soulève les problèmes suivants :
– définir ξ de manière rigoureuse
– en déduire l’influence de ξ dans la résolution de (1.1)
– montrer que (1.1) a une solution, discuter de l’unicité, du comportement
asymptotique, du rôle de B, de x0 ...
1.2
Avec les mains...
Considérons tout d’abord le cas m = n, x0 = 0, b = 0 et B = I. La solution
de (1.1) est le processus de Wiener n-dimensionnel ou mouvement
brownien, noté W (.). (1.1) implique alors que
dW
(t) = ξ(t)
dt
et le ”‘bruit blanc”’ est alors la dérivée temporelle du processus de Wiener.
Dans le cas général, (1.1) peut alors se réecrire :
dXt = b(Xt )dt + B(Xt )dWt , t > 0
(1.3)
X0 = x0
et l’équation obtenue alors est une équation différentielle stochastique.
X est solution de (1.2) si et seulement si
Z
Xt = x0 +
t
Z
b(Xs )ds +
0
t
B(Xs )dWs , t > 0
(1.4)
0
X est donc défini à l’aide d’intégrales dites intégrales stochastiques qui
nous permettent d’introduire le plan de ce cours :
– rappels de probabilité (chapitre 2) et introduction aux martingales (chapitre 3)
– construction de W : chapitre 4
– définition de l’intégrale stochastique : chapitre 5
– existence et construction des solutions de (1.2) : chapitre 6
Une fois développées ces grandes parties, il restera à répondre à des questions concernant la modélisation, et traitées dans le chapitre 7 :
– (1.2) modélise-t-elle correctement une situation physique observée
– le terme ξ est-il réellement un bruit blanc, ou est-il d’une autre nature
1.3. Des faux semblants
1.3
3
Des faux semblants
Les questions soulevées dans le paragraphe précédent sont loin d’être triviales, et différentes réponses peuvent y être apportées, amenant des solutions
de (1.2) bien différentes. Comme nous le verrons, ceci est dû aux subtilités
introduites dans le calcul stochastique, et nous introduisons ici rapidement
un exemple pour illustrer ce propos.
1.3.1
Formule d’Itô
Si n = 1 et si X verifie :
dX = b(X)dt + dW
on se pose la question suivante : pour u : R → R suffisamment régulière,
quelle équation différentielle stochastique satisfait Y (t) = u(X(t)), t > 0 ?
Si l’on dérive suivant la méthode déterministe classique, on s’attend à écrire
dY = u0 dX = u0 bdt + u0 dW
1
ce qui amène un résultat faux, puisque nous verrons qu’en fait dW ≈ (dt) 2 ,
dans un certain sens. La dérivation de Y amène alors à un résultat, connu
sous le nom de formule d’Itô :
1 00
0
dY = u b + u dt + u0 dW
2
1.3.2
Exemple
La solution de l’équation différentielle stochastique
dY
= Y dW, t > 0
Y (0) = 1
est
t
Yt = eWt − 2
et non pas
Yt = eWt
(1.5)
4
Introduction
Chapitre 2
Equations différentielles
stochastiques
Sommaire
2.1
2.2
2.1
Définitions et exemples . . . . . . . . . . . . . . .
5
2.1.1
Définition . . . . . . . . . . . . . . . . . . . . . . .
6
2.1.2
Exemples . . . . . . . . . . . . . . . . . . . . . . .
6
Existence et unicité de solutions . . . . . . . . .
9
2.2.1
Un exemple en dimension 1 . . . . . . . . . . . . .
9
2.2.2
Résolution par changement de variable . . . . . . . 10
2.2.3
Théorème d’existence et d’unicité . . . . . . . . . . 11
2.3
Equations différentielles stochastiques linéaires
12
2.4
Simulation d’équations différentielles stochastiques 14
2.4.1
A propos de convergence . . . . . . . . . . . . . . . 15
2.4.2
Schéma d’Euler-Maruyama . . . . . . . . . . . . . 15
2.4.3
Schéma de Milstein . . . . . . . . . . . . . . . . . . 17
2.4.4
Méthode de Romberg . . . . . . . . . . . . . . . . 18
Définitions et exemples
Dans la suite, on note pour tout t ≥ 0 Ft = U(X0 , Ws , 0 ≤ s ≤ t)) la σalgèbre générée par la variable aléatoire n-dimensionnelle X0 et l’historique
du processus brownien m-dimensionnel W jusqu’à l’instant t. X0 et W sont
supposés indépendants.
6
Equations différentielles stochastiques
Soient de plus
b : Rn × [0, T ] → Rn
B : Rn × [0, T ] → Mn,m (R)
deux fonctions, données pour T > 0.
2.1.1
Définition
Définition 2.1. Un processus stochastique X = (Xt )0≤t≤T à valeurs dans
Rn est solution de l’équation différentielle stochastique d’Itô
dX = b(X, t)dt + B(X, t)dW
X0
si, pour 0 ≤ t ≤ T :
1. X est progressivement mesurable par rapport à (Ft )
2. F = b(X, t) ∈ L1n (0, T )
3. G = B(X, t) ∈ L2n×m (0, T )
Rt
Rt
4. Xt = X0 + 0 b(Xs , s)ds + 0 B(Xs , s)dW presque sûrement pour tout
0≤t≤T
2.1.2
Exemples
Exemple 1
Si m = n = 1, et si f, g sont deux fonctions continues, l’unique solution de
dX = f Xdt + gXdW
X0 = 1
R
t
1 2
est : (∀0 ≤ t ≤ T ) Xt = e 0 (f − 2 g )ds+
Rt
0
gdW
.
Exemple 2 : prix d’action
Si Pt est le prix d’une action à l’instant t, il est possible (cf. chapitre 7) de
modéliser son évolution en supposant que dP
, la variation relative du prix,
P
évolue selon l’équation différentielle stochastique
dP
= µdt + σdW
P
2.1. Définitions et exemples
7
où µ et σ sont deux constantes appelées dérive et volatilité de l’action. Alors
dP = µP dt + σP dW
et par la formule d’Itô :
dP
1 σ 2 P 2 dt
−
2 P 2
P
σ2
= µ−
dt + σdW
2
d(log(P )) =
soit
2
σWt + µ− σ2
t
Pt = P0 e
Exemple 3 : pont brownien
La solution de
X
dX = 1−t
dt + dW
X0 = 0
est
Z
1
(∀0 ≤ t < 1) Xt = (1 − t)
0
1
dW
1−s
et est appelée le pont brownien entre l’origine au temps 0 et au temps 1.
Exemple 4 : équation de Langevin
Une amélioration possible du mouvement brownien consiste à prendre en
compte dans le mouvement des particules une force de frottement. Dans le
cas monodimensionnel :
dX = −bXdt + σdW
où b > 0 est le coefficient de frottement, et σ est le coefficient de diffusion. X est alors la vitesse de la particule brownienne. La solution, pour X0
indépendant du mouvement brownien, est :
Z t
−bt
(∀t ≥ 0) Xt = X0 e + σ
e−b(t−s) dW
0
On remarque alors que
E(Xt ) = e−bt E(X0 )
8
Equations différentielles stochastiques
et que
E(Xt2 ) = E e−2bt X02 + 2σe−bt X0
Z
t
e−b(t−s) dW + σ 2
Z
0
−2bt
=e
E(X02 )
+ 2σe
−bt
e−b(t−s) dW
2 !
0
Z
E(X0 )E
t
−b(t−s)
e
0
= e−2bt E(X02 ) +
t
dW
+σ
2
Z
t
e−2b(t−s) ds
0
2
σ
(1 − e−2bt )
2b
et la variance V(Xt ) est donnée par :
σ2
(1 − e−2bt )
2b
En supposant V(X0 ) < ∞, il s’en suit que lorsque t → ∞
E(Xt ) → 0
2
V(Xt ) → σ2b
2
La distribution de Xt approche N 0, σ2b lorsque t → ∞. Ainsi, quelquesoit la distribution initiale, la solution de l’équation différentielle stochastique
pour des temps très grands suit approximativement une loi gausienne centrée
2
et de variance σ2b , qui représente un équilibre entre la force aléatoire de perturbation dW (que nous avons appelé dans l’introduction un bruit blanc) et
la force de frottement −bX.
V(Xt ) = e−2bt V(X0 ) +
Exemple 5 : Processus d’Ornstein-Uhlenbeck
Le mouvement brownien a été construit pour modéliser le déplacement
d’une particule microscopique en suspension dans un liquide, soumise à l’agitation thermique. Une critique de cette modélisation est que les accroissements sont indépendants et ne dépendent pas de la vitesse de la particule
au début de chaque période. Un modèle plus approprié est alors donné par
l’équation d’Ornstein-Uhlenbeck :
2
d Y = −bdY + σdW
Y0
= y0 , dY0 = y1
où Yt est la position de la particule à l’instant t, y0 et y1 sont des variables
aléatoires gaussiennes données. Si X = dY , le processus de vitesse satisfait
l’équation de Langevin :
dX = −bXdt + σdW
X0 = y1
2.2. Existence et unicité de solutions
9
et la solution est alors
−bt
(∀t ≥ 0) Xt = e
t
Z
e−b(t−s) dW
X0 + σ
0
La position Yt satisfait alors
t
Z
(∀t ≥ 0) Yt = Y0 +
Xds
0
et on montre qu’alors :
E(Yt ) = E(Y0 ) +
et
V(Yt ) = V(Y0 ) +
2.2
2.2.1
1 − e−bt
b
E(Y1 )
σ2
σ2
−bt
−2bt
t
+
−3
+
4e
−
e
b2
2b3
Existence et unicité de solutions
Un exemple en dimension 1
Soient b : R → R une fonction de classe C 1 , avec |b0 | ≤ L, et l’équation
différentielle stochastique
dX = b(X)dt + dW
X0 = x
Définissons Xt0 = x et
(∀t ≥ 0)(∀n ≥ 0)
Xtn+1
Z
=x+
t
b(Xsn )ds + Wt
0
En posant
(∀t ≥ 0)(∀n ≥ 0) Dtn = max Xsn+1 − Xsn 0≤s≤t
n
on montre par récurrence que (∀0 ≤ t ≤ T ) Dtn ≤ C Ln! tn . En effet :
Z s
n
n
n−1
Dt = max b(Xr ) − b(Xr
dr
0≤s≤t
0
Z t
≤L
Dsn−1 ds
Z0 t
Ln−1 n−1
≤L
C
t ds par induction
(n − 1)!
0
Ln
≤ C tn
n!
10
Equations différentielles stochastiques
Ainsi, pour m ≥ n :
max |Xtm − Xtn | ≤ C
0≤t≤T
∞
X
Lk
k=n
k!
T k → 0 lorsque n → ∞
et pour presque tout ω, X n (ω) converge uniformément pour 0 ≤ t ≤ T vers
un processus limite X, qui est solution du problème posé.
2.2.2
Résolution par changement de variable
Soit l’équation différentielle stochastique
dX = b(X)dt + σ(X)dW
X0 = x
(2.1)
Cherchons à résoudre, pour f précisée plus bas, l’équation différentielle stochastique
dY = f (Y )dt + dW
(2.2)
Y0 = y
et trouvons une fonction u telle que X = u(Y ).
En principe, (2.2) peut être résolue par l’approche du paragraphe précédent.
En supposant que f et u sont connues, la formule d’Itô donne
1
dX = u0 (Y )dY + u00 (Y )dt
2
1
= u0 f + u00 dt + u0 dW
2
Ainsi, X résout (2.1) à condition que
 0
= σ(X) = σ(u(Y ))
 u (Y )
1 00
0
u (Y )f (Y ) + 2 u (Y ) = b(X) = b(u(Y ))

u(y)
=x
On résout donc l’équation différentielle ordinaire pour z ∈ R :
du
(z)
dz
u(y)
= σ(u(z))
=x
et une fois que u est connue, on résout (2.2) pour f (z) =
1
σ(u(z))
b(u(z)) − 12 u00 (z)
2.2. Existence et unicité de solutions
2.2.3
11
Théorème d’existence et d’unicité
De la même manière que pour les équations différentielles ordinaires, il est
possible d’énoncer un théorème d’existence et d’unicité de la solution d’une
équation différentielle stochastique.
Théorème 2.1. Soient T > 0 et
b : Rn × [0, T ] → Rn
B : Rn × [0, T ] → Mn,m (R)
deux fonctions continues satisfaisant pour L > 0, 0 ≤ t ≤ T et x, y ∈ Rn :
(a)
|b(x, t) − b(y, t)|
≤ L|x − y|
|B(x, t) − B(y, t)| ≤ L|x − y|
(b)
|b(x, t)| ≤ L(|x| + 1)
|B(x, t)| ≤ L(|x| + 1)
Soit X0 une variable aléatoire à valeurs dans Rn telle que
(c)E(|X0 |2 ) < ∞
(d)X0 indépendant de W0+
où W est un mouvement brownien de dimension m donné.
Alors, il existe une unique solution X ∈ L2 (0, T ) à l’équation différentielle
stochastique
dX = b(X, t)dt + B(X, t)dW
(2.3)
X0
Cette solution, appelée solution forte, est de la forme
(∀i ∈ {1 · · · n})
Xti
=
X0i
Z
+
t
i
b (Xs , s)ds +
0
m Z
X
j=1
t
B ij (Xs , s)dWsi
0
Remarque : le terme unique signifie que si X, Y ∈ L2 (0, T ) à trajectoires
continues presque sûrement satisfont (2.3), alors P (Xt = Yt , 0 ≤ t ≤ T ) = 1
Notons que les conditions (a) et (b) traduisent le fait que b et B sont
localement lipschitziennes par rapport à leur première variable.
Nous énonçons enfin une propriété des solutions de l’équation (2.3)
12
Equations différentielles stochastiques
Théorème 2.2. Sous les hypothèses du théorème précedent pour b, B, X0 , et
si de plus E(|X0 |2p ) ≤ ∞ pour p > 1, alors la solution X de
dX = b(X, t)dt + B(X, t)dW
X0
satisfait
1. E(|Xt |2p ) ≤ C2 (1 + E(|X0 |2p ))eC1 t
2. E(|Xt − X0 |2p ) ≤ C2 (1 + E(|X0 |2p ))tp eC1 t
avec C1 , C2 constantes ne dépendant que de T, L, m, n.
Si ces estimations des moments de X semblent complexes, elles peuvent
se réveler parfois utiles, par exemple dans le cas suivant : si B = 0, la solution de l’équation différentielle stochastique devient solution de l’équation
différentielle ordinaire
dX
= b(X, t)
dt
avec condition initiale potentiellement aléatoire. Dans ce cas, la fonction
t 7→ Xt est régulière si b l’est, et dans le cas contraire, si pour un i ∈ {1 · · · n} :
(∀x ∈ Rn )(∀0 ≤ t ≤ T )
m
X
|bil (x, t)|2 > 0
l=1
alors presque toutes les trajectoires t 7→ Xti sont nulle part différentiables
pour presque tout ω. Il est cependant possible d’utiliser les estimations
précédentes pour affirmer que presque toutes les trajectoires t 7→ Xt sont
continues au sens de Hölder, avec pour chacune un exposant 0 < γ < 1/2, à
condition que pour tout p > 1, E(|X0 |2p ) ≤ ∞, ou en d’autres termes
(∀s, t ∈ [0, T ])(∃K > 0) |Xt − Xs | ≤ K|t − s|γ
2.3
Equations différentielles stochastiques linéaires
Dans le cas d’équations différentielles stochastiques linéaires, il est possible
dans certains cas de donner des solutions explicites à (2.3).
Définition 2.2. L’équation différentielle stochastique
dX = b(X, t)dt + B(X, t)dW
2.3. Equations différentielles stochastiques linéaires
13
est linéaire si b et B sont de la forme
b(x, t) = c(t) + D(t)x, avec c : [0, T ] → Rn et D : [0, T ] → Mn,n (R)
B(x, t) = E(t)+F (t)x, avec E : [0, T ] → Mn,m (R) et F : [0, T ] → L(Rn , Mn,m (R))
où L(Rn , Mn,m (R)) est l’espace des fonctions linéaires continues de Rn dans
Mn,m .
Définition 2.3. Une équation différentielle stochastique linéaire est dite homogène si c = E = 0. Elle est dite linéaire au sens faible si F = 0.
Examinons tout d’abord le cas des équations différentielles stochastiques
faiblement linéaires, et supposons tout d’abord D constante. La solution de
dX = (c(t) + DX)dt + E(t)dW
(2.4)
X0
est
Z
Dt
t
Xt = e X0 +
eD(t−s) (c(s)ds + E(s)dW )
(2.5)
0
avec
eDt =
∞
X
Dk tk
k=0
k!
Plus généralement, la solution de
dX = (c(t) + D(t)X)dt + E(t)dW
X0
(2.6)
est
Z
Xt = Φ(t) X0 +
t
Φ (s)(c(s)ds + E(s)dW )
−1
(2.7)
0
où Φ est la matrice fondamentale du système d’équations différentielles
ordinaires dΦ
= D(t), Φ(0) = 1.
dt
Remarquons au passage que (2.7) assure que Xt est gaussien, si X0 l’est.
Si maintenant, n = 1, m ≥ 1, on s’intéresse au cas des équations linéaires
scalaires, et la solution de

m
X

 dX = (c(t) + d(t)X)dt +
(ej (t) + f j (t)X)dW j
(2.8)
j=1


X0
14
Equations différentielles stochastiques
est
Z
t
−1
Φ (s) c(s)ds −
Xt = Φ(t) X0 +
0
m
X
!
! Z m
tX
Φ−1 (s)ej (s)dW j
e (s)f (s) ds +
j
j
0 j=1
j=1
où
Z
d−
Φ(t) = exp
0
2.4
t
m
X
(f j )2
j=1
2
!
ds +
Z tX
m
!
f j dW j
0 j=1
Simulation d’équations différentielles stochastiques
L’intérêt pratique de la simulation d’équations différentielles stochastiques
sera illustré dans le chapitre suivant. Nous en donnons néanmoins un aperçu
rapide ici. Nous verrons qu’il est possible de représenter la solution u d’une
EDP classique à l’aide de la solution d’une équation différentielle stochastique, au moyen d’une formule du type
u(x, t) = E(h(XT ))
Pour simuler numériquement u, dont on ne peut connaı̂tre l’expression analytique, il existe donc deux possibilités : soit utiliser des méthodes classiques
sans passer par la représentation ci-dessus, soit simuler numériquement Xt
jusqu’au temps T , puis approcher l’espérance à l’aide de la loi des grands
nombres (moyenne de M trajectoires indépendantes de (Xt )). Cette dernière
technique présente un certain intérêt, surtout lorsque la dimension de X est
grande. En effet, les méthodes classiques (éléments finis, éléments frontière,...)
deviennent dans ce cas vite lourdes à mettre en oeuvre, et l’ordre de convergence des méthodes déterministes diminue fortement lorsque la dimension
augmente, alors qu’il est possible de montrer que celui obtenu avec des
méthodes stochastiques est indépendant de cette dimension.
Il s’agit donc dans la suite d’approcher numériquement
dXt = b(X, t)dt + B(X, t)dWt
partant de X0 = x. Pour la suite, on suppose que b et B sont homogènes,
et sans resteindre le propos, que Xt est un processus à valeurs réelles. Les
schémas de simulation sont alors des extensions du cas déterministe (B=0)
2.4. Simulation d’équations différentielles stochastiques
2.4.1
15
A propos de convergence
Deux mesures de vitesse de convergence sont habituellement utilisées sur les
schémas décrits dans la suite. Si Yn ≈ Xnh est une approximation d’une trajectoire du processus solution de l’équation différentielle stochastique précédente :
– la vitesse de convergence forte est donnée par le plus grand γ tel que
E(|XT − YN |) = o(hγ )
– la vitesse de convergence faible concerne la convergence des moments et
est donnée par le plus grand β tel que |E(f (Xt ) − E(f (YN ))| = o(hβ ),
pour f polynôme ou fonction régulière à support compact.
Pour chaque schéma, des conditions de régularité spécifiques devront être
imposées à b et B pour que la vitesse propre à la méthode soit effectivement
atteinte.
2.4.2
Schéma d’Euler-Maruyama
On approche
Z
Xt+h = Xt +
t+h
Z
t+h
b(Xs )ds +
t
B(Xs )dWs
t
par
Xt+h ≈ Xt + hb(Xt ) + B(Xt )(Wnh+h − Wnh )
Ici, le schéma d’Euler suppose les intégrands constants sur l’intervalle d’intégration.
Puisque les variables Wnh+h − Wnh sont normales et indépendantes de variance h, on obtient le schéma :
√
Yn+1 = Yn + hb(Yn ) + B(Yn ) hδn
où les δn sont des variables i.i.d. de loi N (0, 1). Si b et B dépendent de t,
ils sont remplacés dans le schéma par b(nh, Yn ) et B(nh, Yn ). La figure 2.1
donne le code Matlab de résolution de dXt = λXt dt + µXdW, X0 = 1 par ce
schéma. La solution analytique de ce problème est connue :
1
Xt = X0 + e(λ− 2 µ
2 )t+µW
t
et permet donc de calculer une erreur emerr commise par le schéma. La
figure 2.2 montre le tracé d’une trajectoire de la solution exacte (trait plein),
et l’approximation correspondante donnée par le schéma (trait pointillé).
16
Equations différentielles stochastiques
randn(’state’,500)
lambda = 2; mu = 1; Xzero = 1;
T = 1; N = 2^8; dt = T/N;
dW = sqrt(dt)*randn(1,N);
W = cumsum(dW);
Xtrue = Xzero*exp((lambda-0.5*mu^2)*([dt:dt:T])+mu*W);
R = 4; Dt = R*dt; L = N/R;
Xem = zeros(1,L);
Xtemp = Xzero;
for j = 1:L
Winc = sum(dW(R*(j-1)+1:R*j));
Xtemp = Xtemp + Dt*lambda*Xtemp + mu*Xtemp*Winc;
Xem(j) = Xtemp;
end
emerr = abs(Xem(end)-Xtrue(end))
Fig. 2.1 – Schéma d’Euler-Maruyama pour la résolution de dXt = λXt dt +
µXdW : code MATLAB
Fig. 2.2 – Comparaison de l’approximation d’Euler-Maruyama et d’une trajectoire de l’EDS précédente
2.4. Simulation d’équations différentielles stochastiques
2.4.3
17
Schéma de Milstein
√
En raison du terme brownien, d’ordre h, le schéma d’Euler n’a une vitesse
de convergence forte que de 0.5 (alors que dans le cas déterministe, γ = 1). Il
est possible d’améliorer cet ordre en avançant plus loin dans le développement
de sorte à arriver jusqu’à l’ordre h. Ceci amène naturellement à une estimation plus fine de Xs dans la seconde intégrale, et
Z
t+h
Xt+h ≈ Xt + hb(Xt ) +
B(Xt + B(Xt )(Ws − Wt ))dWs
t
Z
t+h
B(Xt ) + B 0 (Xt )B(Xt )(Ws − Wt )dWs
t
Z t+h
0
≈ Xt + hb(Xt ) + B(Xt )(Wt+h − Wt ) + B (Xt )B(Xt )
(Ws − Wt )dWs
≈ Xt + hb(Xt ) +
t
B(Xt )(Wt+h − Wt ) + B 0 (Xt )B(Xt )((Wt+h − Wt )2 − h)
≈ Xt + hb(Xt ) +
2
d’où
√
B(Yn )B 0 (Yn )(δn2 − 1)h
Yn+1 = Yn + b(Yn )h + B(Yn ) hδn +
2
Ce schéma est uniquement
valide en dimension 1, car en dimension supérieure
R t+h
des termes de la forme t (Ws − Wt )dWs0 inconnus vont intervenir, où W 0
est un mouvement brownien indépendant de W .
La figure 2.3 donne un exemple de simulation d’une trajectoire du processus
solution de dXt = rXt (K − Xt )dt + βXt dWt , qui intervient dans l’étude de
la dynamique des populations.
18
Equations différentielles stochastiques
randn(’state’,100)
r = 2; K = 1; beta = 0.25; Xzero = 0.5;
T = 1; N = 2^(11); dt = T/N;
R = 32;
dW = sqrt(dt)*randn(N);
Dt = R*dt; L = N/R;
Xtemp = Xzero;
for j = 1:L
Winc = sum(dW(:,R*(j-1)+1:R*j),2);
Xtemp = Xtemp + Dt*r*Xtemp.*(K-Xtemp) + beta*Xtemp.*Winc ...
+ 0.5*beta^2*Xtemp.*(Winc.^2 - Dt);
end
Xmil = Xtemp;
end
Fig. 2.3 – Schéma de Milstein pour dXt = rXt (K − Xt )dt + βXt dWt : code
MATLAB
2.4.4
Méthode de Romberg
Contrairement au cas déterministe, les schémas deviennent très rapidement
extrêmement compliqués. Si l’on cherche un bon ordre de loi, une alternative
est d’utiliser la méthode de Romberg : partir d’un schéma simple (EulerMaruyama par exemple), et le faire fonctionner pour différentes valeurs de h
(et donc obtenir des trajectoires simulées Xtk,h ), puis extrapoler polynomialement (en h) les espérances obtenues pour trouver la valeur en h = 0.
Chapitre 3
Applications
Sommaire
3.1
3.2
3.3
3.4
Temps d’arrêt
. . . . . . . . . . . . . . . . . . . .
19
3.1.1
Définitions . . . . . . . . . . . . . . . . . . . . . . 19
3.1.2
Intégrales stochastiques et temps d’arrêt . . . . . . 21
3.1.3
Formule d’Itô avec temps d’arrêt . . . . . . . . . . 22
3.1.4
Mouvement brownien et laplacien . . . . . . . . . . 22
Interprétation probabiliste d’équations aux dérivées
23
partielles . . . . . . . . . . . . . . . . . . . . . . . .
3.2.1
Interprétation probabiliste . . . . . . . . . . . . . . 23
3.2.2
Formule de Feynman-Kac . . . . . . . . . . . . . . 25
Arrêt optimal . . . . . . . . . . . . . . . . . . . . .
26
3.3.1
Arrêt d’une équation différentielle stochastique . . 26
3.3.2
Arrêt optimal . . . . . . . . . . . . . . . . . . . . . 27
3.3.3
Conditions d’optimalité . . . . . . . . . . . . . . . 27
3.3.4
Résolution . . . . . . . . . . . . . . . . . . . . . . . 28
3.3.5
Construction d’une politique optimale d’arrêt . . . 29
Applications en finance . . . . . . . . . . . . . . .
29
3.4.1
Problème de base . . . . . . . . . . . . . . . . . . . 29
3.4.2
Arbitrage et couverture . . . . . . . . . . . . . . . 30
3.4.3
Modélisation . . . . . . . . . . . . . . . . . . . . . 30
20
Applications
3.1
3.1.1
Temps d’arrêt
Définitions
Soit (Ω, U, P ) un espace probabilisé, et F une filtration de σ-algèbres. Nous
rappelons ici quelques définitions et propriétés qui seront utiles dans la suite
de ce paragraphe.
Définition 3.1. Une variable aléatoire τ : Ω → R est un temps d’arrêt
par rapport à F si pour tout t ≥ 0 {τ ≤ t} ∈ Ft
En d’autres termes, l’ensemble des ω ∈ Ω tels que τ (ω) ≤ t est un ensemble
Ft -mesurable.
Théorème 3.1. Si τ1 et τ2 sont deux temps d’arrêt par rapport à F, alors :
1. τ1 ∧ τ2 = min(τ1 , τ2 ) est un temps d’arrêt
2. τ1 ∨ τ2 = max(τ1 , τ2 ) est un temps d’arrêt
Démonstration
En remarquant que {τ < t} =
∞
[
1
{τ ≤ t − }, on a :
{z k }
k=1 |
∈F t−1 ⊆Ft
k
{τ1 ∧ τ2 < t} = {τ1 < t} ∪ {τ2 < t} ∈ Ft et
{τ1 ∨ τ2 < t} = {τ1 < t} ∩ {τ2 < t} ∈ Ft
La notion de temps d’arrêt vient naturellement à l’esprit lors de l’étude
d’équations différentielles stochastiques, lorsqu’il s’agit d’étudier des phénomènes intervenant à des intervalles de temps aléatoires.
Exemple : Soit X la solution de l’équation différentielle stochastique
dX = b(X, t)dt + B(X, t)dW
X0
où B, b et X0 satisfont les propriétés du théorème d’existence et d’unicité de
X.
Théorème 3.2. Soit E un ensemble ouvert ou fermé non vide de Rn . Alors
τ = inf {t ≥ 0, Xt ∈ E}
est un temps d’arrêt, en posant τ = +∞ pour les trajectoires de X n’atteignant jamais E
3.1. Temps d’arrêt
21
Démonstration
Soit t ≥ 0. Il s’agit de montrer que {τ ≤ t} ∈ Ft . Soit pour cela (ti )i>0 un
sous-ensemble dense dénombrable de Rn+ . En supposant tout d’abord que E
est ouvert, l’événement
[
{τ ≤ t} =
{X ∈ E}
| ti{z }
ti ≤t
∈Fti ⊆Ft
appartient à Ft .
En supposant maintenant que E est fermé. Soit d(x, E) la distance entre un
point x et E, définissons En = {x, d(x, E) < n1 }. Alors l’événement
{τ ≤ t} =
∞ [
\
n=1 ti ≤t
{Xti ∈ En }
| {z }
∈Fti ⊆Ft
appartient à Ft .
Remarque :
1. la variable aléatoire σ = sup{t ≥ 0, Xt ∈ E}, n’est en général pas un
temps d’arrêt. La justification heuristique vient du fait que l’évenement
{σ ≤ t} dépend du futur de X, et n’est donc en général par Ft mesurable.
2. ”temps d’arrêt” est un terme un peu restrictif, puisque dans de nombreux exemples, X ne s’arrête pas à cet instant.
3.1.2
Intégrales stochastiques et temps d’arrêt
Définition 3.2. Si G ∈ L2 ([0, T ]) et si τ ∈ [0, T ] est un temps d’arrêt, on
définit :
Z τ
Z T
GdW =
χ{t≤τ } GdW
0
O
Lemme 3.1. : intégrale d’Itô avec temps d’arrêt
Si G ∈ L2 ([0, T ]) et si τ ∈ [0, T ] est un temps d’arrêt, alors
Z τ
E
GdW = 0
0
et
Z
2 !
τ
GdW
E
0
Z
=E
0
τ
G ds
2
22
Applications
Démonstration
En effet,
Z
E

τ
GdW

= E
0

Z
0
T

χ{t≤τ } G dW  = 0
| {z }
∈L2 ([0,T ])
et
Z
2 !
τ
GdW
E
Z
2 !
T
=E
χ{t≤τ } GdW
0
0
T
Z
=E
(χ{t≤τ } G) dt
0
Z τ
2
G ds
=E
2
0
3.1.3
Formule d’Itô avec temps d’arrêt
Notons encore W le mouvement brownien m-dimensionnel. Si dX = b(X, t)dt+
B(X, t)dW , alors nous avons vu que pour toute fonction u deux fois continument différentiable :
n
n
m
X
X
X
∂u
∂u
∂2u
i 1
d(u(Xt , t)) =
(Xt , t)dt+
(Xt , t)dX +
(Xt , t)
B il B jl dt
∂t
∂xi
2 i,j=1 ∂xi xj
i=1
l=1
Sous la forme intégrale, on a aussi
Z t
Z t
∂u
u(Xt , t) = u(X0 , 0) +
Du.BdW
+ Lu ds +
∂t
0
0
avec
Lu =
n
m
X
1 X ij ∂ 2 u
∂u
a
+
bi
2 i,j=1 ∂xi xj
∂xi
i=1
où
ij
a =
m
X
B ik B jk , et
k=1
m X
n
X
∂u ik
Du.BdW =
B dW k
∂xi
k=1 i=1
L est le générateur.
Pour ω ∈ Ω, la formule d’Itô convient pour tout t ∈ [0, T ], et en particulier
3.2. Interprétation probabiliste d’équations aux dérivées partielles
23
pour un temps d’arrêt τ . En prenant l’espérance de la formule pour ce temps
d’arrêt, on aboutit à :
Z τ ∂u
E(u(Xτ , τ )) = E(u(X0 , 0)) + E
+ Lu ds
(3.1)
∂t
0
qui permet de relier fortement, comme nous le verrons plus tard, les équations
différentielles stochastiques et les équations aux dérivées partielles ordinaires.
3.1.4
Mouvement brownien et laplacien
Un cas important survient lorsque X = W , le mouvement brownien ndimensionnel, dont le générateur est
n
1 X ∂2u
1
Lu =
= ∆u
2
2 i=1 ∂xi
2
où ∆u est le laplacien de u
3.2
3.2.1
Interprétation probabiliste d’équations aux
dérivées partielles
Interprétation probabiliste
Temps d’atteinte d’une frontière
Soit E un ouvert borné de Rn , de frontière ∂E. Par la théorie des équations
aux dérivées partielles, on sait qu’il existe une solution unique à l’équation
de Laplace
1
− 2 ∆u = 1 sur E
(3.2)
u
= 0 sur ∂E
Le but de la présente section est de trouver une représentation probabiliste
de la solution de (3.2). Pour ce faire, on se donne x ∈ E et on considère
un mouvement brownien n-dimensionnel W à partir duquel on construit le
processus stochastique X = W + x. On définit alors τx = inf {t ≥ 0, Xt ∈
/ E}
le temps d’atteinte du bord de E par une trajectoire de X partant de x.
Théorème 3.3. Avec les notations précédentes :
(∀x ∈ E) u(x) = E(τx )
24
Applications
En particulier, u > 0 sur tout E.
Démonstration
On applique (3.1) avec Lu = 12 ∆u. Pour tout n > 0 :
Z τx ∧n
1
E (u(Xτx ∧n )) = E(u(X0 )) + E
∆u(Xs )ds
2
0
Puisque 12 ∆u = −1 et que u est bornée, on a lim E(τx ∧n) < ∞ et la variable
n→∞
aléatoire τx est intégrable. En faisant tendre n vers l’infini, on obtient alors
Z τx
u(x) = E(u(Xτx )) + E
1ds = E(u(Xτx )) + E(τx )
0
mais u = 0 sur ∂E et donc u(Xτx ) = 0, ce qui achève la démonstration.
En remarquant que u est bornée, E(τx ) < ∞ et donc presque sûrement pour
tout x ∈ E, τx < ∞. Les trajectoires du processus X, mouvement brownien
partant de x, atteignent donc avec probabilité 1 ∂E.
Dans le cas non stationnaire, l’équation précédente s’écrit :
∂u
= − 12 ∆u sur E × R
∂t
u(x, 0) = f (x)
sur ∂E
(3.3)
C’est l’équation de la chaleur, et on peut montrer que
u(x, t) = E(f (Xt ))
est solution de ce problème, si f est continue et bornée.
Représentation probabiliste de fonctions harmoniques
Soit E un domaine de Rn et g : ∂E → R une fonction continue. On démontre
qu’il existe une solution unique u, de classe C 2 sur le domaine et C 1 sur sa
frontière au problème différentiel (problème de Dirichlet) :
∆u = 0 sur E
(3.4)
u
= g sur ∂E
u est une fonction harmonique.
Théorème 3.4. Avec les notations précédentes, et pour X mouvement brownien partant de x, on a :
(∀x ∈ E) u(x) = E(g(Xτx ))
3.2. Interprétation probabiliste d’équations aux dérivées partielles
25
La démontration est identique au théorème précédent.
Donnons un exemple simple d’utilisation de ce théorème : si ∆u = 0 dans
un ouvert contenant la boule B(x, r) centrée en x et de rayon r, alors
u(x) = E(u(Xτx ))
où τx est le temps d’atteinte par X de la sphère ∂B(x, r). Le mouvement
brownien étant isotrope dans l’espace, on peut supposer que le terme à droite
du signe égalité est la moyenne de u sur la sphère ∂B(x, r), par rapport à la
mesure de la surface, d’où :
Z
1
u(x) =
udS
aire de ∂B(x, r) ∂B(x,r)
qui représente la formule de la valeur moyenne pour une fonction harmonique.
Temps d’atteinte d’une partie de la frontière
Avec les mêmes notations que précédemment, on suppose de plus que la
frontière de E est réunion de deux sous-ensembles disjoints, i.e. ∂E = Γ1 ∪Γ2 ,
avec Γ1 ∩ Γ2 = ∅. On cherche à résoudre

 ∆u = 0 sur E
u
= 1 sur Γ1

u
= 0 sur Γ2
Théorème 3.5. Pour tout x ∈ E, u(x) est la probabilité que la trajectoire
d’un mouvement brownien initiée en x touche Γ1 avant Γ2
Démonstration
La démonstration est évidente en appliquant le théorème précédent avec
g = 1 sur Γ1 et g = 0 sur Γ2 .
3.2.2
Formule de Feynman-Kac
Nous étendons ici le théorème de représentation des fonctions harmoniques
pour obtenir une représentation probabiliste de l’unique solution de l’équation
aux dérivées partielles
1
∆u + cu = f
sur E
2
(3.5)
u = 0 sur ∂E
où nous supposons c, f régulières, c ≥ 0 sur E. Avec les mêmes notations
que dans le paragraphe précédent, on montre que :
26
Applications
Théorème 3.6. : formule de Feynman-Kac
Z τx
R
− 0t c(Xs )ds
(∀x ∈ E) u(x) = E
f (Xt )e
dt
0
Démonstration
Remarquons que puisque E(τx ) < ∞ et c ≥ 0 sur E, toutes les intégrales
sont convergentes.
Rt
Soit Yt = eZt pour Zt = − 0 c(Xs )ds. Alors dZ = −c(X)dt et la formule d’Itô
donne dY = −c(X)Y dt. La règle du produit d’Itô permet alors d’écrire :
d u(X)eZt = (du(X))Yt + u(X)dYt
!
n
X
1
∂u
=
∆u(X)dt +
dW i Yt + u(X)(−c(X)dt)Yt
2
∂x
i
i=1
Enn utilisant (3.1) pour τ = τx et en prenant l’espérance
Z τx 1
E (u(X)Yt ) = E(u(X0 )) + E
∆u(X) − c(X)u(X) Yt dt
2
0
et puisque u résout (3.5), on en déduit
Z
u(x) = E(u(X0 )) = E
τx
−
f (X)e
Rt
0
c(Xs )ds
dt
0
il est possible d’interpréter cette formule en considérant que les particules
browniennes disparaissent à des temps aléatoires σ, par exemple en étant
absorbées par le mileu dans lequel elles évoluent. En supposant de plus que
la probabilité de disparition dans un court intervalle de temps [t, t + h] est de
la forme c(Xt )h + o(h), alors la probabilité de survie d’une particule jusqu’au
temps t est approximativement égale à
(1 − c(Xt1 )h)(1 − c(Xt2 )h) · · · (1 − c(Xtn )h)
où 0 = t0 < t1 · · · < tn = t, h = tk+1 − tk . Lorsque h → 0, cette probabilité
converge vers Yt et donc u(x) peut être interprétée comme la moyenne de
f (X) sur toutes les trajectoires qui survivent suffisamment pour atteindre
∂E.
Dans le cas non stationnaire, le problème précédent s’écrit
∂u
= 12 ∆u + cu sur E × R
∂t
u(x, 0) = f (x)
sur ∂E
On montre alors que
u(x, t) = E(f (Xt ect )
est solution de (3.6) pour c bornée, et f continue bornée.
(3.6)
3.3. Arrêt optimal
3.3
27
Arrêt optimal
On s’intéresse ici à des problèmes de contrôle optimal. Soit un système
dont l’état évolue au cours du temps selon une équation différentielle. On se
donne des contrôles qui modifient en un certain sens le comportement de ce
système, soit par l’intermédiaire d’une modification de ses paramètres, soit
par un arrêt du processus. On se donne enfin un critère de coût, dépendant
du choix des contrôles et de l’état du système. Le but du contrôle optimal
est de trouver un choix de contrôles permettant de minimiser le coût.
Le problème de contrôle stochastique le plus simple survient lorsqu’il est impossible de modifier l’équation différentielle stochastique contrôlant l’évolution d’un processus X, mais qu’il est seulement envisageable de décider un
temps où arrêter le processus.
3.3.1
Arrêt d’une équation différentielle stochastique
Soient E un domaine borné régulier de Rn , b : Rn → Rn , B : Rn →
Mn×m (R) satisfaisant les conditions habituelles d’existence et d’unicité de
l’équation différentielle stochastique
dX = b(X)dt + B(X)dW
X0 = x
pour x ∈ E
Notons τ = τx le temps d’atteinte de ∂E d’une trajectoire de X initiée en
x. Pour θ un temps d’arrêt par rapport à F, on définit l’espérance du coût
d’arrêt de X en θ ∧ τ par :
Z θ∧τ
f (Xs )ds + g(Xθ∧τ )
(3.7)
Jx (θ) = E
0
En s’arrêtant en θ, le coût est une fonction g de l’état courant du système
X(θ). Si le processus n’est pas arrêté avant que la trajectoire ait atteint ∂E,
i.e. si θ ≥ τ , le coût est dans ce cas g(Xτ ). Enfin, un coût de fonctionnement
par unité de temps f est ajouté, modélisant les dépenses de fonctionnement
du processus jusqu’au temps θ ∧ τ .
3.3.2
Arrêt optimal
La principale question concerne l’existence d’un temps d’arrêt optimal θ∗ =
pour lequel
Jx (θ∗ ) =
min
Jx (θ)
θx∗
θ temps d’arrêt
28
Applications
Si un tel temps existe, la seconde question concerne la méthode de recherche
de θ∗ .
Notons u(x) = inf Jx (θ). S’il est difficile de calculer θ∗ directement, il va être
θ
possible à partir de u de construire θ∗ par programmation dynamique.
3.3.3
Conditions d’optimalité
Dans la suite, on suppose u suffisamment régulière. Notons tout d’abord
qu’il est possible de s’arrêter au début (θ = 0) et que donc : (∀x ∈ E) u(x) ≤
g(x). De plus, τ = 0 si x ∈ ∂E et donc : (∀x ∈ ∂E) u(x) = g(x)
Soient maintenant x ∈ E et δ > 0. Si le système n’est pas arrêté au temps δ,
alors d’après l’équation différentielle stochastique, le nouvel état du système
au temps δ est Xδ . En ce point, le meilleur coût possible est u(Xδ ). Ainsi, en
supposant que ∂E n’est pas atteint, et que l’on ne stoppe pas en δ, le coût
est supérieur à
Z δ
f (Xs )ds + u(Xδ )
E
0
Puisque u(x) = inf Jx (θ), alors
θ
t
Z
u(x) ≤ E
f (Xs ) + u(Xδ )ds
0
La formule d’Itô donne par ailleurs
Z
δ
Lu(Xs )ds
E(u(Xδ )) = u(x) + E
0
pour
n
m
X
1 X ij ∂ 2 u
∂u
Lu =
a
+
Bi
2 i,j=1 ∂xi xj
∂xi
l=1
où
ij
a =
m
X
B ik B jk
k=1
Ainsi
Z
0≤E
δ
f (X) + Lu(Xs )ds
0
en divisant par δ et en le faisant tendre vers 0, on obtient 0 ≤ f (x) + Lu(x).
De manière équivalente, on obtient M u ≤ f (x), x ∈ E, où M = −L.
En observant finalement que si pour un x ∈ E, u(x) < g(x), alors il est
3.3. Arrêt optimal
29
optimal de ne pas stopper le processus, il est envisageable de penser que le
système peut encore évoluer un petit temps δ, de telle sorte que M u = f
pour les points x tels que u(x) < g(x).
En résumé, si le raisonnement précédent est valide, alors u satisfait
max(M u − f, u − g) = 0 sur E
u = g sur ∂E
(3.8)
qui forment les conditions d’optimalité.
3.3.4
Résolution
L’étude rigoureuse du problème d’arrêt commence par montrer que (3.8)
possède une solution unique u, puis que ce u est exactement inf Jx (θ). u
permettra alors de définir θ∗ , un temps d’arrêt optimal.
θ
Théorème 3.7. Soient f, g des fonctions régulières. Il existe une unique
fonction u, à dérivées secondes bornées, telle que :
1. u ≤ g ∈ E
2. M u ≤ f presque partout sur E
3. max(M u − f, u − g) = 0 presque partout sur E
4. u = g sur ∂E.
En général, u n’est pas de classe C 2 sue E.
3.3.5
Construction d’une politique optimale d’arrêt
En notant S = {x ∈ E, u(x) = g(x)} l’ensemble d’arrêt, on montre facilement que S est fermé et que pour tout x ∈ E, θ∗ est le premier temps
d’atteinte de S.
Théorème 3.8. Si u est la solution de (3.8), alors
(∀x ∈ E) u(x) = Jx (θ∗ ) = inf Jx (θ)
θ
Ce théorème affirme que le problème de construction de la politique optimale revient à calculer la solution de (3.8), puis à définir θ∗ , et enfin lancer
des trajectoires de X jusqu’à ce qu’elles atteignent S ou qu’elles sortent de
E.
30
Applications
3.4
Applications en finance
3.4.1
Problème de base
On cherche à étudier le prix St d’un actif S (qui peut être une action, une
obligation, une matière première...) qui évolue selon l’équation différentielle
stochastique
dS = µSdt + σSdW
(3.9)
S0 = s0
où µ > 0 est la dérive (ou tendance) de l’actif, et σ 6= 0 est sa volatilité. Il
t
de l’actif comme la
est naturel de décomposer le rendement instantané dS
St
superposition d’une tendance locale µdt et d’un bruit. Ce problème, traité
par Black et Scholes d’une part, Merton d’autre part en 1973, est encore
très utilisé aujourd’hui pour le calcul d’options d’achat (ou call option). Ce
contrat confère à son acheteur le droit (mais pas l’obligation) d’acheter S à un
cours p fixé à la signature du contrat (p est le prix d’exercice) à la date future
T appelée temps d’exercice ou échéance. En échange, il versera aujourd’hui
une prime C0 au vendeur de S. Le problème posé ici est la détermination de
la ”meilleure” valeur de C0 .
3.4.2
Arbitrage et couverture
On suppose dans la suite qu’un euro mis en banque en t = 0 rapporte erT
au temps T . En d’autres termes, r > 0 est un taux d’intérêt constant sans
risque. De manière équivalente, 1 euro en t = T vaut e−rT en t = 0, qui est
appelé le facteur d’escompte.
Il est alors raisonnable de penser que l’acheteur du contrat aura en T un gain
égal à
e−rT E (max(ST − p, 0))
(3.10)
En effet, si ST < p, alors S est sans valeur. Si ST > p on peut acheter une
unité de S au prix p, pour la revendre immédiatement à ST et réaliser un
bénéfice de max(ST − p, 0). En moyennant sur toutes les trajectoires de S,
et en pondérant par le facteur d’escompte e−rT , on obtient (3.10).
En fait, (3.10) n’est pas la bonne réponse, puisque d’autres facteurs interviennent dans les marchés financiers, dont le plus important est l’arbitrage,
qui consiste en la possibilité de réaliser des profits sans risque (i.e. d’acheter
une unité de S en t, de la revendre immédiatement à un prix S 0 > St en
3.4. Applications en finance
31
profitant par exemple des décalages de prix entre différentes places de cotation, et de réaliser ainsi un profit). Une stratégie d’arbitrage réalisée par un
investisseur totalement démuni en t = 0 lui permet donc de n’avoir à coup
sûr aucune dette à l’instant T , tout en gagnant de l’argent avec une probabilité stictement positive. Dans un marché financier réel, cette possibilité
est en principe interdite par les autorités de régulation (elles répriment en
particulier les ”délits d’initié”).
Il faut donc essayer de ne pas créer d’opportunité d’arbitrage. Cette idée
est introduite dans le modèle sous la forme de la notion de couverture, qui
consiste à gérer dynamiquement un portefeuille contenant S et des obligations sans risque.
Le vendeur de l’option va rechercher une stratégie qui, partant d’une richesse initiale C0 , lui permettra d’atteindre la richesse terminale souhaitée
max(St − p, 0), de manière à honorer son engagement envers l’acheteur, et
cela dans tous les scénarios (trajectoires) d’évolution du marché.
3.4.3
Modélisation
Pout s ≥ 0 et 0 ≤ t ≤ T , on note u(s, t) le prix de l’option à l’instant t,
sachant St = s. Au temps T , on a évidemment u(s, T ) = max(s − p, 0). De
plus, si s = 0, alors St = 0 pour 0 ≤ t ≤ T et u(0, t) = 0. On recherche ici
C0 = u(s0 , 0).
On définit alors pour 0 ≤ t ≤ T le processus stochastique Ct = u(St , t). En
utilisant (3.9) et la formule d’Itô, on obtient :
2
2
dt + ∂u
dS + 12 ∂∂su2 (dS)
dC = ∂u
∂t
∂s
2
2
= ∂u
+ µS ∂u
+ σ2 S 2 ∂∂su2 dt + σS ∂u
dW
∂t
∂s
∂s
(3.11)
L’introduction de la notion de couverture passe par la ”duplication” de
C dans un portefeuille contenant des actifs S et des obligations B. Plus
précisément, si B est un investissement sans risque, qui suit donc l’évolution
Bt = ert , soit ;
dB = rBdt
(3.12)
B0 = 1
il s’agit de trouver des processus φ et ψ tels que :
(∀t ∈ [0, T ]) Ct = φSt + ψBt
(3.13)
Bien sûr, la construction effective de φ et ψ élimine tout facteur de risque : si
une entreprise vend une option d’achat, elle encourt le risque qu’au temps T ,
32
Applications
ST excède p, et que donc l’acheteur fasse un grand profit. Mais si en même
temps elle construit le portefuille (3.13), les profits générés par ce dernier
vont exactement compenser la dépense effectuée pour payer le bénéfice de
l’acheteur. Inversement, si ST < p, le portefeuille n’apporte aucun profit.
Pour réaliser une telle opération, l’entreprise ne doit pas injecter le moindre
argent dans le système de couverture, en dehors de l’investissement initial.
Cet état de fait est modélisé en forçant le portefeuille représenté par le terme
de droite dans (3.13) à être auto-financé. En d’autres termes, les changements
de valeurs du portefeuille ne dépendent que des changement de S et B. Ainsi,
(∀t ∈ [0, T ]) dCt = φdSt + ψdBt
(3.14)
En combinant (3.11), (3.12) et (3.14), on aboutit à l’identité
∂u σ 2 2 ∂ 2 u
∂u
∂u
+ µS
+ S
dt + σS dW = φ(µSdt + σSdW ) + ψrBdt
2
∂t
∂s
2
∂s
∂s
(3.15)
et si (3.13) est valide, il faut donc choisir φ et ψ pour que (3.15) soit valide.
En particulier, les facteurs de dW coı̈ncident, à condition de prendre
∂u
(St , t)
(3.16)
(∀t ∈ [0, T ]) φt =
∂s
ce qui amène à
∂u σ 2 2 ∂ 2 u
+ S
dt = ψrBdt
∂t
2
∂s2
S par (3.13) et (3.16). Et donc
Mais ψB = C − φC = u − ∂u
∂s
∂u
∂u
σ2 2 ∂ 2u
(∀t ∈ [0, T ])
(St , t) + rS (St , t) + S
(St , t) − ru(St , t) dt = 0
∂t
∂s
2
∂s2
(3.17)
et pour assurer Ct = u(St , t), on impose donc à u(s, t) de verifier l’équation
aux dérivées partielles de Black-Scholes-Merton
∂u σ 2 2 ∂ 2 u
∂u
+ rs
+ S
− ru = 0
(3.18)
∂t
∂s
2
∂s2
On remarque au passage que la dérive µ n’apparaı̂t plus.
Ainsi, pour répondre au problème posé de la détermination de la ”meilleure”
valeur de C0 , il s’agit de trouver u(s0 , 0), et donc u, vérifiant
 ∂u
2
2
+ σ2 s2 ∂∂su2 − ru = 0
,s > 0 0 ≤ t ≤ T
 ∂t + rs ∂u
∂s
u = max(s − p, 0) , s > 0 t = T

u =0
,s = 0 0 ≤ t ≤ T
(∀t ∈ [0, T ])
problème qui peut être résolu explicitement.