Stochastic differential equations
Transcription
Stochastic differential equations
Deuxième année F4 Année universitaire 2005/2006 Modélisation des processus aléatoires Introduction aux équations différentielles stochastiques Vincent Barra Institut Supérieur d’Informatique, de Modélisation et de leurs Applications Campus des Cézeaux - B.P. 1025 - 63173 AUBIERE CEDEX Table des matières 1 Introduction 1.1 Motivations . . . . . 1.2 Avec les mains... . . 1.3 Des faux semblants . 1.3.1 Formule d’Itô 1.3.2 Exemple . . . . . . . . 1 1 2 3 3 3 . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 6 6 9 9 10 11 12 14 15 15 17 18 3 Applications 3.1 Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . 3.1.2 Intégrales stochastiques et temps d’arrêt . . . . . . . 3.1.3 Formule d’Itô avec temps d’arrêt . . . . . . . . . . . 3.1.4 Mouvement brownien et laplacien . . . . . . . . . . . 3.2 Interprétation probabiliste d’équations aux dérivées partielles 3.2.1 Interprétation probabiliste . . . . . . . . . . . . . . . 3.2.2 Formule de Feynman-Kac . . . . . . . . . . . . . . . . . . . . . . . 19 19 19 21 22 22 23 23 25 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Equations différentielles stochastiques 2.1 Définitions et exemples . . . . . . . . . . . . . . . 2.1.1 Définition . . . . . . . . . . . . . . . . . . 2.1.2 Exemples . . . . . . . . . . . . . . . . . . 2.2 Existence et unicité de solutions . . . . . . . . . . 2.2.1 Un exemple en dimension 1 . . . . . . . . 2.2.2 Résolution par changement de variable . . 2.2.3 Théorème d’existence et d’unicité . . . . . 2.3 Equations différentielles stochastiques linéaires . . 2.4 Simulation d’équations différentielles stochastiques 2.4.1 A propos de convergence . . . . . . . . . . 2.4.2 Schéma d’Euler-Maruyama . . . . . . . . . 2.4.3 Schéma de Milstein . . . . . . . . . . . . . 2.4.4 Méthode de Romberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ii TABLE DES MATIÈRES 3.3 3.4 Arrêt optimal . . . . . . . . . . . . . . . . . . . . . . 3.3.1 Arrêt d’une équation différentielle stochastique 3.3.2 Arrêt optimal . . . . . . . . . . . . . . . . . . 3.3.3 Conditions d’optimalité . . . . . . . . . . . . . 3.3.4 Résolution . . . . . . . . . . . . . . . . . . . . 3.3.5 Construction d’une politique optimale d’arrêt Applications en finance . . . . . . . . . . . . . . . . . 3.4.1 Problème de base . . . . . . . . . . . . . . . . 3.4.2 Arbitrage et couverture . . . . . . . . . . . . . 3.4.3 Modélisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 26 27 27 28 29 29 29 30 30 Chapitre 1 Introduction Sommaire 1.1 1.2 1.3 1.1 Motivations . . . . . Avec les mains... . . Des faux semblants 1.3.1 Formule d’Itô . . 1.3.2 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 2 3 3 3 Motivations Soit x0 ∈ Rn . Considérons, pour b : Rn → Rn champ vectoriel régulier, l’équation différentielle ordinaire (EDO) : dx (t) = b(x(t)), t > 0 dt (1.1) x(0) = x0 La solution, si elle est unique, est représentée par une trajectoire x : R+ → R n Dans la plupart des applications où une telle EDO intervient, les trajectoires mesurées expérimentalement ne sont que rarement conformes aux solutions analytiques de l’équation. Des effets aléatoires viennent se superposer à la trajectoire idéale, et il semble donc raisonnable de modifier (1.1) en y introduisant un processus aléatoire perturbant le système. Formellement, la modification s’écrit : dX (t) = b(Xt ) + B(Xt )ξ(t), t > 0 dt (1.2) X0 = x0 2 Introduction où B : Rn → Mn,m (R), et ξ : R+ → Rm est un ”‘bruit blanc”’ mdimensionnel. Cette approche soulève les problèmes suivants : – définir ξ de manière rigoureuse – en déduire l’influence de ξ dans la résolution de (1.1) – montrer que (1.1) a une solution, discuter de l’unicité, du comportement asymptotique, du rôle de B, de x0 ... 1.2 Avec les mains... Considérons tout d’abord le cas m = n, x0 = 0, b = 0 et B = I. La solution de (1.1) est le processus de Wiener n-dimensionnel ou mouvement brownien, noté W (.). (1.1) implique alors que dW (t) = ξ(t) dt et le ”‘bruit blanc”’ est alors la dérivée temporelle du processus de Wiener. Dans le cas général, (1.1) peut alors se réecrire : dXt = b(Xt )dt + B(Xt )dWt , t > 0 (1.3) X0 = x0 et l’équation obtenue alors est une équation différentielle stochastique. X est solution de (1.2) si et seulement si Z Xt = x0 + t Z b(Xs )ds + 0 t B(Xs )dWs , t > 0 (1.4) 0 X est donc défini à l’aide d’intégrales dites intégrales stochastiques qui nous permettent d’introduire le plan de ce cours : – rappels de probabilité (chapitre 2) et introduction aux martingales (chapitre 3) – construction de W : chapitre 4 – définition de l’intégrale stochastique : chapitre 5 – existence et construction des solutions de (1.2) : chapitre 6 Une fois développées ces grandes parties, il restera à répondre à des questions concernant la modélisation, et traitées dans le chapitre 7 : – (1.2) modélise-t-elle correctement une situation physique observée – le terme ξ est-il réellement un bruit blanc, ou est-il d’une autre nature 1.3. Des faux semblants 1.3 3 Des faux semblants Les questions soulevées dans le paragraphe précédent sont loin d’être triviales, et différentes réponses peuvent y être apportées, amenant des solutions de (1.2) bien différentes. Comme nous le verrons, ceci est dû aux subtilités introduites dans le calcul stochastique, et nous introduisons ici rapidement un exemple pour illustrer ce propos. 1.3.1 Formule d’Itô Si n = 1 et si X verifie : dX = b(X)dt + dW on se pose la question suivante : pour u : R → R suffisamment régulière, quelle équation différentielle stochastique satisfait Y (t) = u(X(t)), t > 0 ? Si l’on dérive suivant la méthode déterministe classique, on s’attend à écrire dY = u0 dX = u0 bdt + u0 dW 1 ce qui amène un résultat faux, puisque nous verrons qu’en fait dW ≈ (dt) 2 , dans un certain sens. La dérivation de Y amène alors à un résultat, connu sous le nom de formule d’Itô : 1 00 0 dY = u b + u dt + u0 dW 2 1.3.2 Exemple La solution de l’équation différentielle stochastique dY = Y dW, t > 0 Y (0) = 1 est t Yt = eWt − 2 et non pas Yt = eWt (1.5) 4 Introduction Chapitre 2 Equations différentielles stochastiques Sommaire 2.1 2.2 2.1 Définitions et exemples . . . . . . . . . . . . . . . 5 2.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . 6 2.1.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . 6 Existence et unicité de solutions . . . . . . . . . 9 2.2.1 Un exemple en dimension 1 . . . . . . . . . . . . . 9 2.2.2 Résolution par changement de variable . . . . . . . 10 2.2.3 Théorème d’existence et d’unicité . . . . . . . . . . 11 2.3 Equations différentielles stochastiques linéaires 12 2.4 Simulation d’équations différentielles stochastiques 14 2.4.1 A propos de convergence . . . . . . . . . . . . . . . 15 2.4.2 Schéma d’Euler-Maruyama . . . . . . . . . . . . . 15 2.4.3 Schéma de Milstein . . . . . . . . . . . . . . . . . . 17 2.4.4 Méthode de Romberg . . . . . . . . . . . . . . . . 18 Définitions et exemples Dans la suite, on note pour tout t ≥ 0 Ft = U(X0 , Ws , 0 ≤ s ≤ t)) la σalgèbre générée par la variable aléatoire n-dimensionnelle X0 et l’historique du processus brownien m-dimensionnel W jusqu’à l’instant t. X0 et W sont supposés indépendants. 6 Equations différentielles stochastiques Soient de plus b : Rn × [0, T ] → Rn B : Rn × [0, T ] → Mn,m (R) deux fonctions, données pour T > 0. 2.1.1 Définition Définition 2.1. Un processus stochastique X = (Xt )0≤t≤T à valeurs dans Rn est solution de l’équation différentielle stochastique d’Itô dX = b(X, t)dt + B(X, t)dW X0 si, pour 0 ≤ t ≤ T : 1. X est progressivement mesurable par rapport à (Ft ) 2. F = b(X, t) ∈ L1n (0, T ) 3. G = B(X, t) ∈ L2n×m (0, T ) Rt Rt 4. Xt = X0 + 0 b(Xs , s)ds + 0 B(Xs , s)dW presque sûrement pour tout 0≤t≤T 2.1.2 Exemples Exemple 1 Si m = n = 1, et si f, g sont deux fonctions continues, l’unique solution de dX = f Xdt + gXdW X0 = 1 R t 1 2 est : (∀0 ≤ t ≤ T ) Xt = e 0 (f − 2 g )ds+ Rt 0 gdW . Exemple 2 : prix d’action Si Pt est le prix d’une action à l’instant t, il est possible (cf. chapitre 7) de modéliser son évolution en supposant que dP , la variation relative du prix, P évolue selon l’équation différentielle stochastique dP = µdt + σdW P 2.1. Définitions et exemples 7 où µ et σ sont deux constantes appelées dérive et volatilité de l’action. Alors dP = µP dt + σP dW et par la formule d’Itô : dP 1 σ 2 P 2 dt − 2 P 2 P σ2 = µ− dt + σdW 2 d(log(P )) = soit 2 σWt + µ− σ2 t Pt = P0 e Exemple 3 : pont brownien La solution de X dX = 1−t dt + dW X0 = 0 est Z 1 (∀0 ≤ t < 1) Xt = (1 − t) 0 1 dW 1−s et est appelée le pont brownien entre l’origine au temps 0 et au temps 1. Exemple 4 : équation de Langevin Une amélioration possible du mouvement brownien consiste à prendre en compte dans le mouvement des particules une force de frottement. Dans le cas monodimensionnel : dX = −bXdt + σdW où b > 0 est le coefficient de frottement, et σ est le coefficient de diffusion. X est alors la vitesse de la particule brownienne. La solution, pour X0 indépendant du mouvement brownien, est : Z t −bt (∀t ≥ 0) Xt = X0 e + σ e−b(t−s) dW 0 On remarque alors que E(Xt ) = e−bt E(X0 ) 8 Equations différentielles stochastiques et que E(Xt2 ) = E e−2bt X02 + 2σe−bt X0 Z t e−b(t−s) dW + σ 2 Z 0 −2bt =e E(X02 ) + 2σe −bt e−b(t−s) dW 2 ! 0 Z E(X0 )E t −b(t−s) e 0 = e−2bt E(X02 ) + t dW +σ 2 Z t e−2b(t−s) ds 0 2 σ (1 − e−2bt ) 2b et la variance V(Xt ) est donnée par : σ2 (1 − e−2bt ) 2b En supposant V(X0 ) < ∞, il s’en suit que lorsque t → ∞ E(Xt ) → 0 2 V(Xt ) → σ2b 2 La distribution de Xt approche N 0, σ2b lorsque t → ∞. Ainsi, quelquesoit la distribution initiale, la solution de l’équation différentielle stochastique pour des temps très grands suit approximativement une loi gausienne centrée 2 et de variance σ2b , qui représente un équilibre entre la force aléatoire de perturbation dW (que nous avons appelé dans l’introduction un bruit blanc) et la force de frottement −bX. V(Xt ) = e−2bt V(X0 ) + Exemple 5 : Processus d’Ornstein-Uhlenbeck Le mouvement brownien a été construit pour modéliser le déplacement d’une particule microscopique en suspension dans un liquide, soumise à l’agitation thermique. Une critique de cette modélisation est que les accroissements sont indépendants et ne dépendent pas de la vitesse de la particule au début de chaque période. Un modèle plus approprié est alors donné par l’équation d’Ornstein-Uhlenbeck : 2 d Y = −bdY + σdW Y0 = y0 , dY0 = y1 où Yt est la position de la particule à l’instant t, y0 et y1 sont des variables aléatoires gaussiennes données. Si X = dY , le processus de vitesse satisfait l’équation de Langevin : dX = −bXdt + σdW X0 = y1 2.2. Existence et unicité de solutions 9 et la solution est alors −bt (∀t ≥ 0) Xt = e t Z e−b(t−s) dW X0 + σ 0 La position Yt satisfait alors t Z (∀t ≥ 0) Yt = Y0 + Xds 0 et on montre qu’alors : E(Yt ) = E(Y0 ) + et V(Yt ) = V(Y0 ) + 2.2 2.2.1 1 − e−bt b E(Y1 ) σ2 σ2 −bt −2bt t + −3 + 4e − e b2 2b3 Existence et unicité de solutions Un exemple en dimension 1 Soient b : R → R une fonction de classe C 1 , avec |b0 | ≤ L, et l’équation différentielle stochastique dX = b(X)dt + dW X0 = x Définissons Xt0 = x et (∀t ≥ 0)(∀n ≥ 0) Xtn+1 Z =x+ t b(Xsn )ds + Wt 0 En posant (∀t ≥ 0)(∀n ≥ 0) Dtn = max Xsn+1 − Xsn 0≤s≤t n on montre par récurrence que (∀0 ≤ t ≤ T ) Dtn ≤ C Ln! tn . En effet : Z s n n n−1 Dt = max b(Xr ) − b(Xr dr 0≤s≤t 0 Z t ≤L Dsn−1 ds Z0 t Ln−1 n−1 ≤L C t ds par induction (n − 1)! 0 Ln ≤ C tn n! 10 Equations différentielles stochastiques Ainsi, pour m ≥ n : max |Xtm − Xtn | ≤ C 0≤t≤T ∞ X Lk k=n k! T k → 0 lorsque n → ∞ et pour presque tout ω, X n (ω) converge uniformément pour 0 ≤ t ≤ T vers un processus limite X, qui est solution du problème posé. 2.2.2 Résolution par changement de variable Soit l’équation différentielle stochastique dX = b(X)dt + σ(X)dW X0 = x (2.1) Cherchons à résoudre, pour f précisée plus bas, l’équation différentielle stochastique dY = f (Y )dt + dW (2.2) Y0 = y et trouvons une fonction u telle que X = u(Y ). En principe, (2.2) peut être résolue par l’approche du paragraphe précédent. En supposant que f et u sont connues, la formule d’Itô donne 1 dX = u0 (Y )dY + u00 (Y )dt 2 1 = u0 f + u00 dt + u0 dW 2 Ainsi, X résout (2.1) à condition que 0 = σ(X) = σ(u(Y )) u (Y ) 1 00 0 u (Y )f (Y ) + 2 u (Y ) = b(X) = b(u(Y )) u(y) =x On résout donc l’équation différentielle ordinaire pour z ∈ R : du (z) dz u(y) = σ(u(z)) =x et une fois que u est connue, on résout (2.2) pour f (z) = 1 σ(u(z)) b(u(z)) − 12 u00 (z) 2.2. Existence et unicité de solutions 2.2.3 11 Théorème d’existence et d’unicité De la même manière que pour les équations différentielles ordinaires, il est possible d’énoncer un théorème d’existence et d’unicité de la solution d’une équation différentielle stochastique. Théorème 2.1. Soient T > 0 et b : Rn × [0, T ] → Rn B : Rn × [0, T ] → Mn,m (R) deux fonctions continues satisfaisant pour L > 0, 0 ≤ t ≤ T et x, y ∈ Rn : (a) |b(x, t) − b(y, t)| ≤ L|x − y| |B(x, t) − B(y, t)| ≤ L|x − y| (b) |b(x, t)| ≤ L(|x| + 1) |B(x, t)| ≤ L(|x| + 1) Soit X0 une variable aléatoire à valeurs dans Rn telle que (c)E(|X0 |2 ) < ∞ (d)X0 indépendant de W0+ où W est un mouvement brownien de dimension m donné. Alors, il existe une unique solution X ∈ L2 (0, T ) à l’équation différentielle stochastique dX = b(X, t)dt + B(X, t)dW (2.3) X0 Cette solution, appelée solution forte, est de la forme (∀i ∈ {1 · · · n}) Xti = X0i Z + t i b (Xs , s)ds + 0 m Z X j=1 t B ij (Xs , s)dWsi 0 Remarque : le terme unique signifie que si X, Y ∈ L2 (0, T ) à trajectoires continues presque sûrement satisfont (2.3), alors P (Xt = Yt , 0 ≤ t ≤ T ) = 1 Notons que les conditions (a) et (b) traduisent le fait que b et B sont localement lipschitziennes par rapport à leur première variable. Nous énonçons enfin une propriété des solutions de l’équation (2.3) 12 Equations différentielles stochastiques Théorème 2.2. Sous les hypothèses du théorème précedent pour b, B, X0 , et si de plus E(|X0 |2p ) ≤ ∞ pour p > 1, alors la solution X de dX = b(X, t)dt + B(X, t)dW X0 satisfait 1. E(|Xt |2p ) ≤ C2 (1 + E(|X0 |2p ))eC1 t 2. E(|Xt − X0 |2p ) ≤ C2 (1 + E(|X0 |2p ))tp eC1 t avec C1 , C2 constantes ne dépendant que de T, L, m, n. Si ces estimations des moments de X semblent complexes, elles peuvent se réveler parfois utiles, par exemple dans le cas suivant : si B = 0, la solution de l’équation différentielle stochastique devient solution de l’équation différentielle ordinaire dX = b(X, t) dt avec condition initiale potentiellement aléatoire. Dans ce cas, la fonction t 7→ Xt est régulière si b l’est, et dans le cas contraire, si pour un i ∈ {1 · · · n} : (∀x ∈ Rn )(∀0 ≤ t ≤ T ) m X |bil (x, t)|2 > 0 l=1 alors presque toutes les trajectoires t 7→ Xti sont nulle part différentiables pour presque tout ω. Il est cependant possible d’utiliser les estimations précédentes pour affirmer que presque toutes les trajectoires t 7→ Xt sont continues au sens de Hölder, avec pour chacune un exposant 0 < γ < 1/2, à condition que pour tout p > 1, E(|X0 |2p ) ≤ ∞, ou en d’autres termes (∀s, t ∈ [0, T ])(∃K > 0) |Xt − Xs | ≤ K|t − s|γ 2.3 Equations différentielles stochastiques linéaires Dans le cas d’équations différentielles stochastiques linéaires, il est possible dans certains cas de donner des solutions explicites à (2.3). Définition 2.2. L’équation différentielle stochastique dX = b(X, t)dt + B(X, t)dW 2.3. Equations différentielles stochastiques linéaires 13 est linéaire si b et B sont de la forme b(x, t) = c(t) + D(t)x, avec c : [0, T ] → Rn et D : [0, T ] → Mn,n (R) B(x, t) = E(t)+F (t)x, avec E : [0, T ] → Mn,m (R) et F : [0, T ] → L(Rn , Mn,m (R)) où L(Rn , Mn,m (R)) est l’espace des fonctions linéaires continues de Rn dans Mn,m . Définition 2.3. Une équation différentielle stochastique linéaire est dite homogène si c = E = 0. Elle est dite linéaire au sens faible si F = 0. Examinons tout d’abord le cas des équations différentielles stochastiques faiblement linéaires, et supposons tout d’abord D constante. La solution de dX = (c(t) + DX)dt + E(t)dW (2.4) X0 est Z Dt t Xt = e X0 + eD(t−s) (c(s)ds + E(s)dW ) (2.5) 0 avec eDt = ∞ X Dk tk k=0 k! Plus généralement, la solution de dX = (c(t) + D(t)X)dt + E(t)dW X0 (2.6) est Z Xt = Φ(t) X0 + t Φ (s)(c(s)ds + E(s)dW ) −1 (2.7) 0 où Φ est la matrice fondamentale du système d’équations différentielles ordinaires dΦ = D(t), Φ(0) = 1. dt Remarquons au passage que (2.7) assure que Xt est gaussien, si X0 l’est. Si maintenant, n = 1, m ≥ 1, on s’intéresse au cas des équations linéaires scalaires, et la solution de m X dX = (c(t) + d(t)X)dt + (ej (t) + f j (t)X)dW j (2.8) j=1 X0 14 Equations différentielles stochastiques est Z t −1 Φ (s) c(s)ds − Xt = Φ(t) X0 + 0 m X ! ! Z m tX Φ−1 (s)ej (s)dW j e (s)f (s) ds + j j 0 j=1 j=1 où Z d− Φ(t) = exp 0 2.4 t m X (f j )2 j=1 2 ! ds + Z tX m ! f j dW j 0 j=1 Simulation d’équations différentielles stochastiques L’intérêt pratique de la simulation d’équations différentielles stochastiques sera illustré dans le chapitre suivant. Nous en donnons néanmoins un aperçu rapide ici. Nous verrons qu’il est possible de représenter la solution u d’une EDP classique à l’aide de la solution d’une équation différentielle stochastique, au moyen d’une formule du type u(x, t) = E(h(XT )) Pour simuler numériquement u, dont on ne peut connaı̂tre l’expression analytique, il existe donc deux possibilités : soit utiliser des méthodes classiques sans passer par la représentation ci-dessus, soit simuler numériquement Xt jusqu’au temps T , puis approcher l’espérance à l’aide de la loi des grands nombres (moyenne de M trajectoires indépendantes de (Xt )). Cette dernière technique présente un certain intérêt, surtout lorsque la dimension de X est grande. En effet, les méthodes classiques (éléments finis, éléments frontière,...) deviennent dans ce cas vite lourdes à mettre en oeuvre, et l’ordre de convergence des méthodes déterministes diminue fortement lorsque la dimension augmente, alors qu’il est possible de montrer que celui obtenu avec des méthodes stochastiques est indépendant de cette dimension. Il s’agit donc dans la suite d’approcher numériquement dXt = b(X, t)dt + B(X, t)dWt partant de X0 = x. Pour la suite, on suppose que b et B sont homogènes, et sans resteindre le propos, que Xt est un processus à valeurs réelles. Les schémas de simulation sont alors des extensions du cas déterministe (B=0) 2.4. Simulation d’équations différentielles stochastiques 2.4.1 15 A propos de convergence Deux mesures de vitesse de convergence sont habituellement utilisées sur les schémas décrits dans la suite. Si Yn ≈ Xnh est une approximation d’une trajectoire du processus solution de l’équation différentielle stochastique précédente : – la vitesse de convergence forte est donnée par le plus grand γ tel que E(|XT − YN |) = o(hγ ) – la vitesse de convergence faible concerne la convergence des moments et est donnée par le plus grand β tel que |E(f (Xt ) − E(f (YN ))| = o(hβ ), pour f polynôme ou fonction régulière à support compact. Pour chaque schéma, des conditions de régularité spécifiques devront être imposées à b et B pour que la vitesse propre à la méthode soit effectivement atteinte. 2.4.2 Schéma d’Euler-Maruyama On approche Z Xt+h = Xt + t+h Z t+h b(Xs )ds + t B(Xs )dWs t par Xt+h ≈ Xt + hb(Xt ) + B(Xt )(Wnh+h − Wnh ) Ici, le schéma d’Euler suppose les intégrands constants sur l’intervalle d’intégration. Puisque les variables Wnh+h − Wnh sont normales et indépendantes de variance h, on obtient le schéma : √ Yn+1 = Yn + hb(Yn ) + B(Yn ) hδn où les δn sont des variables i.i.d. de loi N (0, 1). Si b et B dépendent de t, ils sont remplacés dans le schéma par b(nh, Yn ) et B(nh, Yn ). La figure 2.1 donne le code Matlab de résolution de dXt = λXt dt + µXdW, X0 = 1 par ce schéma. La solution analytique de ce problème est connue : 1 Xt = X0 + e(λ− 2 µ 2 )t+µW t et permet donc de calculer une erreur emerr commise par le schéma. La figure 2.2 montre le tracé d’une trajectoire de la solution exacte (trait plein), et l’approximation correspondante donnée par le schéma (trait pointillé). 16 Equations différentielles stochastiques randn(’state’,500) lambda = 2; mu = 1; Xzero = 1; T = 1; N = 2^8; dt = T/N; dW = sqrt(dt)*randn(1,N); W = cumsum(dW); Xtrue = Xzero*exp((lambda-0.5*mu^2)*([dt:dt:T])+mu*W); R = 4; Dt = R*dt; L = N/R; Xem = zeros(1,L); Xtemp = Xzero; for j = 1:L Winc = sum(dW(R*(j-1)+1:R*j)); Xtemp = Xtemp + Dt*lambda*Xtemp + mu*Xtemp*Winc; Xem(j) = Xtemp; end emerr = abs(Xem(end)-Xtrue(end)) Fig. 2.1 – Schéma d’Euler-Maruyama pour la résolution de dXt = λXt dt + µXdW : code MATLAB Fig. 2.2 – Comparaison de l’approximation d’Euler-Maruyama et d’une trajectoire de l’EDS précédente 2.4. Simulation d’équations différentielles stochastiques 2.4.3 17 Schéma de Milstein √ En raison du terme brownien, d’ordre h, le schéma d’Euler n’a une vitesse de convergence forte que de 0.5 (alors que dans le cas déterministe, γ = 1). Il est possible d’améliorer cet ordre en avançant plus loin dans le développement de sorte à arriver jusqu’à l’ordre h. Ceci amène naturellement à une estimation plus fine de Xs dans la seconde intégrale, et Z t+h Xt+h ≈ Xt + hb(Xt ) + B(Xt + B(Xt )(Ws − Wt ))dWs t Z t+h B(Xt ) + B 0 (Xt )B(Xt )(Ws − Wt )dWs t Z t+h 0 ≈ Xt + hb(Xt ) + B(Xt )(Wt+h − Wt ) + B (Xt )B(Xt ) (Ws − Wt )dWs ≈ Xt + hb(Xt ) + t B(Xt )(Wt+h − Wt ) + B 0 (Xt )B(Xt )((Wt+h − Wt )2 − h) ≈ Xt + hb(Xt ) + 2 d’où √ B(Yn )B 0 (Yn )(δn2 − 1)h Yn+1 = Yn + b(Yn )h + B(Yn ) hδn + 2 Ce schéma est uniquement valide en dimension 1, car en dimension supérieure R t+h des termes de la forme t (Ws − Wt )dWs0 inconnus vont intervenir, où W 0 est un mouvement brownien indépendant de W . La figure 2.3 donne un exemple de simulation d’une trajectoire du processus solution de dXt = rXt (K − Xt )dt + βXt dWt , qui intervient dans l’étude de la dynamique des populations. 18 Equations différentielles stochastiques randn(’state’,100) r = 2; K = 1; beta = 0.25; Xzero = 0.5; T = 1; N = 2^(11); dt = T/N; R = 32; dW = sqrt(dt)*randn(N); Dt = R*dt; L = N/R; Xtemp = Xzero; for j = 1:L Winc = sum(dW(:,R*(j-1)+1:R*j),2); Xtemp = Xtemp + Dt*r*Xtemp.*(K-Xtemp) + beta*Xtemp.*Winc ... + 0.5*beta^2*Xtemp.*(Winc.^2 - Dt); end Xmil = Xtemp; end Fig. 2.3 – Schéma de Milstein pour dXt = rXt (K − Xt )dt + βXt dWt : code MATLAB 2.4.4 Méthode de Romberg Contrairement au cas déterministe, les schémas deviennent très rapidement extrêmement compliqués. Si l’on cherche un bon ordre de loi, une alternative est d’utiliser la méthode de Romberg : partir d’un schéma simple (EulerMaruyama par exemple), et le faire fonctionner pour différentes valeurs de h (et donc obtenir des trajectoires simulées Xtk,h ), puis extrapoler polynomialement (en h) les espérances obtenues pour trouver la valeur en h = 0. Chapitre 3 Applications Sommaire 3.1 3.2 3.3 3.4 Temps d’arrêt . . . . . . . . . . . . . . . . . . . . 19 3.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . 19 3.1.2 Intégrales stochastiques et temps d’arrêt . . . . . . 21 3.1.3 Formule d’Itô avec temps d’arrêt . . . . . . . . . . 22 3.1.4 Mouvement brownien et laplacien . . . . . . . . . . 22 Interprétation probabiliste d’équations aux dérivées 23 partielles . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1 Interprétation probabiliste . . . . . . . . . . . . . . 23 3.2.2 Formule de Feynman-Kac . . . . . . . . . . . . . . 25 Arrêt optimal . . . . . . . . . . . . . . . . . . . . . 26 3.3.1 Arrêt d’une équation différentielle stochastique . . 26 3.3.2 Arrêt optimal . . . . . . . . . . . . . . . . . . . . . 27 3.3.3 Conditions d’optimalité . . . . . . . . . . . . . . . 27 3.3.4 Résolution . . . . . . . . . . . . . . . . . . . . . . . 28 3.3.5 Construction d’une politique optimale d’arrêt . . . 29 Applications en finance . . . . . . . . . . . . . . . 29 3.4.1 Problème de base . . . . . . . . . . . . . . . . . . . 29 3.4.2 Arbitrage et couverture . . . . . . . . . . . . . . . 30 3.4.3 Modélisation . . . . . . . . . . . . . . . . . . . . . 30 20 Applications 3.1 3.1.1 Temps d’arrêt Définitions Soit (Ω, U, P ) un espace probabilisé, et F une filtration de σ-algèbres. Nous rappelons ici quelques définitions et propriétés qui seront utiles dans la suite de ce paragraphe. Définition 3.1. Une variable aléatoire τ : Ω → R est un temps d’arrêt par rapport à F si pour tout t ≥ 0 {τ ≤ t} ∈ Ft En d’autres termes, l’ensemble des ω ∈ Ω tels que τ (ω) ≤ t est un ensemble Ft -mesurable. Théorème 3.1. Si τ1 et τ2 sont deux temps d’arrêt par rapport à F, alors : 1. τ1 ∧ τ2 = min(τ1 , τ2 ) est un temps d’arrêt 2. τ1 ∨ τ2 = max(τ1 , τ2 ) est un temps d’arrêt Démonstration En remarquant que {τ < t} = ∞ [ 1 {τ ≤ t − }, on a : {z k } k=1 | ∈F t−1 ⊆Ft k {τ1 ∧ τ2 < t} = {τ1 < t} ∪ {τ2 < t} ∈ Ft et {τ1 ∨ τ2 < t} = {τ1 < t} ∩ {τ2 < t} ∈ Ft La notion de temps d’arrêt vient naturellement à l’esprit lors de l’étude d’équations différentielles stochastiques, lorsqu’il s’agit d’étudier des phénomènes intervenant à des intervalles de temps aléatoires. Exemple : Soit X la solution de l’équation différentielle stochastique dX = b(X, t)dt + B(X, t)dW X0 où B, b et X0 satisfont les propriétés du théorème d’existence et d’unicité de X. Théorème 3.2. Soit E un ensemble ouvert ou fermé non vide de Rn . Alors τ = inf {t ≥ 0, Xt ∈ E} est un temps d’arrêt, en posant τ = +∞ pour les trajectoires de X n’atteignant jamais E 3.1. Temps d’arrêt 21 Démonstration Soit t ≥ 0. Il s’agit de montrer que {τ ≤ t} ∈ Ft . Soit pour cela (ti )i>0 un sous-ensemble dense dénombrable de Rn+ . En supposant tout d’abord que E est ouvert, l’événement [ {τ ≤ t} = {X ∈ E} | ti{z } ti ≤t ∈Fti ⊆Ft appartient à Ft . En supposant maintenant que E est fermé. Soit d(x, E) la distance entre un point x et E, définissons En = {x, d(x, E) < n1 }. Alors l’événement {τ ≤ t} = ∞ [ \ n=1 ti ≤t {Xti ∈ En } | {z } ∈Fti ⊆Ft appartient à Ft . Remarque : 1. la variable aléatoire σ = sup{t ≥ 0, Xt ∈ E}, n’est en général pas un temps d’arrêt. La justification heuristique vient du fait que l’évenement {σ ≤ t} dépend du futur de X, et n’est donc en général par Ft mesurable. 2. ”temps d’arrêt” est un terme un peu restrictif, puisque dans de nombreux exemples, X ne s’arrête pas à cet instant. 3.1.2 Intégrales stochastiques et temps d’arrêt Définition 3.2. Si G ∈ L2 ([0, T ]) et si τ ∈ [0, T ] est un temps d’arrêt, on définit : Z τ Z T GdW = χ{t≤τ } GdW 0 O Lemme 3.1. : intégrale d’Itô avec temps d’arrêt Si G ∈ L2 ([0, T ]) et si τ ∈ [0, T ] est un temps d’arrêt, alors Z τ E GdW = 0 0 et Z 2 ! τ GdW E 0 Z =E 0 τ G ds 2 22 Applications Démonstration En effet, Z E τ GdW = E 0 Z 0 T χ{t≤τ } G dW = 0 | {z } ∈L2 ([0,T ]) et Z 2 ! τ GdW E Z 2 ! T =E χ{t≤τ } GdW 0 0 T Z =E (χ{t≤τ } G) dt 0 Z τ 2 G ds =E 2 0 3.1.3 Formule d’Itô avec temps d’arrêt Notons encore W le mouvement brownien m-dimensionnel. Si dX = b(X, t)dt+ B(X, t)dW , alors nous avons vu que pour toute fonction u deux fois continument différentiable : n n m X X X ∂u ∂u ∂2u i 1 d(u(Xt , t)) = (Xt , t)dt+ (Xt , t)dX + (Xt , t) B il B jl dt ∂t ∂xi 2 i,j=1 ∂xi xj i=1 l=1 Sous la forme intégrale, on a aussi Z t Z t ∂u u(Xt , t) = u(X0 , 0) + Du.BdW + Lu ds + ∂t 0 0 avec Lu = n m X 1 X ij ∂ 2 u ∂u a + bi 2 i,j=1 ∂xi xj ∂xi i=1 où ij a = m X B ik B jk , et k=1 m X n X ∂u ik Du.BdW = B dW k ∂xi k=1 i=1 L est le générateur. Pour ω ∈ Ω, la formule d’Itô convient pour tout t ∈ [0, T ], et en particulier 3.2. Interprétation probabiliste d’équations aux dérivées partielles 23 pour un temps d’arrêt τ . En prenant l’espérance de la formule pour ce temps d’arrêt, on aboutit à : Z τ ∂u E(u(Xτ , τ )) = E(u(X0 , 0)) + E + Lu ds (3.1) ∂t 0 qui permet de relier fortement, comme nous le verrons plus tard, les équations différentielles stochastiques et les équations aux dérivées partielles ordinaires. 3.1.4 Mouvement brownien et laplacien Un cas important survient lorsque X = W , le mouvement brownien ndimensionnel, dont le générateur est n 1 X ∂2u 1 Lu = = ∆u 2 2 i=1 ∂xi 2 où ∆u est le laplacien de u 3.2 3.2.1 Interprétation probabiliste d’équations aux dérivées partielles Interprétation probabiliste Temps d’atteinte d’une frontière Soit E un ouvert borné de Rn , de frontière ∂E. Par la théorie des équations aux dérivées partielles, on sait qu’il existe une solution unique à l’équation de Laplace 1 − 2 ∆u = 1 sur E (3.2) u = 0 sur ∂E Le but de la présente section est de trouver une représentation probabiliste de la solution de (3.2). Pour ce faire, on se donne x ∈ E et on considère un mouvement brownien n-dimensionnel W à partir duquel on construit le processus stochastique X = W + x. On définit alors τx = inf {t ≥ 0, Xt ∈ / E} le temps d’atteinte du bord de E par une trajectoire de X partant de x. Théorème 3.3. Avec les notations précédentes : (∀x ∈ E) u(x) = E(τx ) 24 Applications En particulier, u > 0 sur tout E. Démonstration On applique (3.1) avec Lu = 12 ∆u. Pour tout n > 0 : Z τx ∧n 1 E (u(Xτx ∧n )) = E(u(X0 )) + E ∆u(Xs )ds 2 0 Puisque 12 ∆u = −1 et que u est bornée, on a lim E(τx ∧n) < ∞ et la variable n→∞ aléatoire τx est intégrable. En faisant tendre n vers l’infini, on obtient alors Z τx u(x) = E(u(Xτx )) + E 1ds = E(u(Xτx )) + E(τx ) 0 mais u = 0 sur ∂E et donc u(Xτx ) = 0, ce qui achève la démonstration. En remarquant que u est bornée, E(τx ) < ∞ et donc presque sûrement pour tout x ∈ E, τx < ∞. Les trajectoires du processus X, mouvement brownien partant de x, atteignent donc avec probabilité 1 ∂E. Dans le cas non stationnaire, l’équation précédente s’écrit : ∂u = − 12 ∆u sur E × R ∂t u(x, 0) = f (x) sur ∂E (3.3) C’est l’équation de la chaleur, et on peut montrer que u(x, t) = E(f (Xt )) est solution de ce problème, si f est continue et bornée. Représentation probabiliste de fonctions harmoniques Soit E un domaine de Rn et g : ∂E → R une fonction continue. On démontre qu’il existe une solution unique u, de classe C 2 sur le domaine et C 1 sur sa frontière au problème différentiel (problème de Dirichlet) : ∆u = 0 sur E (3.4) u = g sur ∂E u est une fonction harmonique. Théorème 3.4. Avec les notations précédentes, et pour X mouvement brownien partant de x, on a : (∀x ∈ E) u(x) = E(g(Xτx )) 3.2. Interprétation probabiliste d’équations aux dérivées partielles 25 La démontration est identique au théorème précédent. Donnons un exemple simple d’utilisation de ce théorème : si ∆u = 0 dans un ouvert contenant la boule B(x, r) centrée en x et de rayon r, alors u(x) = E(u(Xτx )) où τx est le temps d’atteinte par X de la sphère ∂B(x, r). Le mouvement brownien étant isotrope dans l’espace, on peut supposer que le terme à droite du signe égalité est la moyenne de u sur la sphère ∂B(x, r), par rapport à la mesure de la surface, d’où : Z 1 u(x) = udS aire de ∂B(x, r) ∂B(x,r) qui représente la formule de la valeur moyenne pour une fonction harmonique. Temps d’atteinte d’une partie de la frontière Avec les mêmes notations que précédemment, on suppose de plus que la frontière de E est réunion de deux sous-ensembles disjoints, i.e. ∂E = Γ1 ∪Γ2 , avec Γ1 ∩ Γ2 = ∅. On cherche à résoudre ∆u = 0 sur E u = 1 sur Γ1 u = 0 sur Γ2 Théorème 3.5. Pour tout x ∈ E, u(x) est la probabilité que la trajectoire d’un mouvement brownien initiée en x touche Γ1 avant Γ2 Démonstration La démonstration est évidente en appliquant le théorème précédent avec g = 1 sur Γ1 et g = 0 sur Γ2 . 3.2.2 Formule de Feynman-Kac Nous étendons ici le théorème de représentation des fonctions harmoniques pour obtenir une représentation probabiliste de l’unique solution de l’équation aux dérivées partielles 1 ∆u + cu = f sur E 2 (3.5) u = 0 sur ∂E où nous supposons c, f régulières, c ≥ 0 sur E. Avec les mêmes notations que dans le paragraphe précédent, on montre que : 26 Applications Théorème 3.6. : formule de Feynman-Kac Z τx R − 0t c(Xs )ds (∀x ∈ E) u(x) = E f (Xt )e dt 0 Démonstration Remarquons que puisque E(τx ) < ∞ et c ≥ 0 sur E, toutes les intégrales sont convergentes. Rt Soit Yt = eZt pour Zt = − 0 c(Xs )ds. Alors dZ = −c(X)dt et la formule d’Itô donne dY = −c(X)Y dt. La règle du produit d’Itô permet alors d’écrire : d u(X)eZt = (du(X))Yt + u(X)dYt ! n X 1 ∂u = ∆u(X)dt + dW i Yt + u(X)(−c(X)dt)Yt 2 ∂x i i=1 Enn utilisant (3.1) pour τ = τx et en prenant l’espérance Z τx 1 E (u(X)Yt ) = E(u(X0 )) + E ∆u(X) − c(X)u(X) Yt dt 2 0 et puisque u résout (3.5), on en déduit Z u(x) = E(u(X0 )) = E τx − f (X)e Rt 0 c(Xs )ds dt 0 il est possible d’interpréter cette formule en considérant que les particules browniennes disparaissent à des temps aléatoires σ, par exemple en étant absorbées par le mileu dans lequel elles évoluent. En supposant de plus que la probabilité de disparition dans un court intervalle de temps [t, t + h] est de la forme c(Xt )h + o(h), alors la probabilité de survie d’une particule jusqu’au temps t est approximativement égale à (1 − c(Xt1 )h)(1 − c(Xt2 )h) · · · (1 − c(Xtn )h) où 0 = t0 < t1 · · · < tn = t, h = tk+1 − tk . Lorsque h → 0, cette probabilité converge vers Yt et donc u(x) peut être interprétée comme la moyenne de f (X) sur toutes les trajectoires qui survivent suffisamment pour atteindre ∂E. Dans le cas non stationnaire, le problème précédent s’écrit ∂u = 12 ∆u + cu sur E × R ∂t u(x, 0) = f (x) sur ∂E On montre alors que u(x, t) = E(f (Xt ect ) est solution de (3.6) pour c bornée, et f continue bornée. (3.6) 3.3. Arrêt optimal 3.3 27 Arrêt optimal On s’intéresse ici à des problèmes de contrôle optimal. Soit un système dont l’état évolue au cours du temps selon une équation différentielle. On se donne des contrôles qui modifient en un certain sens le comportement de ce système, soit par l’intermédiaire d’une modification de ses paramètres, soit par un arrêt du processus. On se donne enfin un critère de coût, dépendant du choix des contrôles et de l’état du système. Le but du contrôle optimal est de trouver un choix de contrôles permettant de minimiser le coût. Le problème de contrôle stochastique le plus simple survient lorsqu’il est impossible de modifier l’équation différentielle stochastique contrôlant l’évolution d’un processus X, mais qu’il est seulement envisageable de décider un temps où arrêter le processus. 3.3.1 Arrêt d’une équation différentielle stochastique Soient E un domaine borné régulier de Rn , b : Rn → Rn , B : Rn → Mn×m (R) satisfaisant les conditions habituelles d’existence et d’unicité de l’équation différentielle stochastique dX = b(X)dt + B(X)dW X0 = x pour x ∈ E Notons τ = τx le temps d’atteinte de ∂E d’une trajectoire de X initiée en x. Pour θ un temps d’arrêt par rapport à F, on définit l’espérance du coût d’arrêt de X en θ ∧ τ par : Z θ∧τ f (Xs )ds + g(Xθ∧τ ) (3.7) Jx (θ) = E 0 En s’arrêtant en θ, le coût est une fonction g de l’état courant du système X(θ). Si le processus n’est pas arrêté avant que la trajectoire ait atteint ∂E, i.e. si θ ≥ τ , le coût est dans ce cas g(Xτ ). Enfin, un coût de fonctionnement par unité de temps f est ajouté, modélisant les dépenses de fonctionnement du processus jusqu’au temps θ ∧ τ . 3.3.2 Arrêt optimal La principale question concerne l’existence d’un temps d’arrêt optimal θ∗ = pour lequel Jx (θ∗ ) = min Jx (θ) θx∗ θ temps d’arrêt 28 Applications Si un tel temps existe, la seconde question concerne la méthode de recherche de θ∗ . Notons u(x) = inf Jx (θ). S’il est difficile de calculer θ∗ directement, il va être θ possible à partir de u de construire θ∗ par programmation dynamique. 3.3.3 Conditions d’optimalité Dans la suite, on suppose u suffisamment régulière. Notons tout d’abord qu’il est possible de s’arrêter au début (θ = 0) et que donc : (∀x ∈ E) u(x) ≤ g(x). De plus, τ = 0 si x ∈ ∂E et donc : (∀x ∈ ∂E) u(x) = g(x) Soient maintenant x ∈ E et δ > 0. Si le système n’est pas arrêté au temps δ, alors d’après l’équation différentielle stochastique, le nouvel état du système au temps δ est Xδ . En ce point, le meilleur coût possible est u(Xδ ). Ainsi, en supposant que ∂E n’est pas atteint, et que l’on ne stoppe pas en δ, le coût est supérieur à Z δ f (Xs )ds + u(Xδ ) E 0 Puisque u(x) = inf Jx (θ), alors θ t Z u(x) ≤ E f (Xs ) + u(Xδ )ds 0 La formule d’Itô donne par ailleurs Z δ Lu(Xs )ds E(u(Xδ )) = u(x) + E 0 pour n m X 1 X ij ∂ 2 u ∂u Lu = a + Bi 2 i,j=1 ∂xi xj ∂xi l=1 où ij a = m X B ik B jk k=1 Ainsi Z 0≤E δ f (X) + Lu(Xs )ds 0 en divisant par δ et en le faisant tendre vers 0, on obtient 0 ≤ f (x) + Lu(x). De manière équivalente, on obtient M u ≤ f (x), x ∈ E, où M = −L. En observant finalement que si pour un x ∈ E, u(x) < g(x), alors il est 3.3. Arrêt optimal 29 optimal de ne pas stopper le processus, il est envisageable de penser que le système peut encore évoluer un petit temps δ, de telle sorte que M u = f pour les points x tels que u(x) < g(x). En résumé, si le raisonnement précédent est valide, alors u satisfait max(M u − f, u − g) = 0 sur E u = g sur ∂E (3.8) qui forment les conditions d’optimalité. 3.3.4 Résolution L’étude rigoureuse du problème d’arrêt commence par montrer que (3.8) possède une solution unique u, puis que ce u est exactement inf Jx (θ). u permettra alors de définir θ∗ , un temps d’arrêt optimal. θ Théorème 3.7. Soient f, g des fonctions régulières. Il existe une unique fonction u, à dérivées secondes bornées, telle que : 1. u ≤ g ∈ E 2. M u ≤ f presque partout sur E 3. max(M u − f, u − g) = 0 presque partout sur E 4. u = g sur ∂E. En général, u n’est pas de classe C 2 sue E. 3.3.5 Construction d’une politique optimale d’arrêt En notant S = {x ∈ E, u(x) = g(x)} l’ensemble d’arrêt, on montre facilement que S est fermé et que pour tout x ∈ E, θ∗ est le premier temps d’atteinte de S. Théorème 3.8. Si u est la solution de (3.8), alors (∀x ∈ E) u(x) = Jx (θ∗ ) = inf Jx (θ) θ Ce théorème affirme que le problème de construction de la politique optimale revient à calculer la solution de (3.8), puis à définir θ∗ , et enfin lancer des trajectoires de X jusqu’à ce qu’elles atteignent S ou qu’elles sortent de E. 30 Applications 3.4 Applications en finance 3.4.1 Problème de base On cherche à étudier le prix St d’un actif S (qui peut être une action, une obligation, une matière première...) qui évolue selon l’équation différentielle stochastique dS = µSdt + σSdW (3.9) S0 = s0 où µ > 0 est la dérive (ou tendance) de l’actif, et σ 6= 0 est sa volatilité. Il t de l’actif comme la est naturel de décomposer le rendement instantané dS St superposition d’une tendance locale µdt et d’un bruit. Ce problème, traité par Black et Scholes d’une part, Merton d’autre part en 1973, est encore très utilisé aujourd’hui pour le calcul d’options d’achat (ou call option). Ce contrat confère à son acheteur le droit (mais pas l’obligation) d’acheter S à un cours p fixé à la signature du contrat (p est le prix d’exercice) à la date future T appelée temps d’exercice ou échéance. En échange, il versera aujourd’hui une prime C0 au vendeur de S. Le problème posé ici est la détermination de la ”meilleure” valeur de C0 . 3.4.2 Arbitrage et couverture On suppose dans la suite qu’un euro mis en banque en t = 0 rapporte erT au temps T . En d’autres termes, r > 0 est un taux d’intérêt constant sans risque. De manière équivalente, 1 euro en t = T vaut e−rT en t = 0, qui est appelé le facteur d’escompte. Il est alors raisonnable de penser que l’acheteur du contrat aura en T un gain égal à e−rT E (max(ST − p, 0)) (3.10) En effet, si ST < p, alors S est sans valeur. Si ST > p on peut acheter une unité de S au prix p, pour la revendre immédiatement à ST et réaliser un bénéfice de max(ST − p, 0). En moyennant sur toutes les trajectoires de S, et en pondérant par le facteur d’escompte e−rT , on obtient (3.10). En fait, (3.10) n’est pas la bonne réponse, puisque d’autres facteurs interviennent dans les marchés financiers, dont le plus important est l’arbitrage, qui consiste en la possibilité de réaliser des profits sans risque (i.e. d’acheter une unité de S en t, de la revendre immédiatement à un prix S 0 > St en 3.4. Applications en finance 31 profitant par exemple des décalages de prix entre différentes places de cotation, et de réaliser ainsi un profit). Une stratégie d’arbitrage réalisée par un investisseur totalement démuni en t = 0 lui permet donc de n’avoir à coup sûr aucune dette à l’instant T , tout en gagnant de l’argent avec une probabilité stictement positive. Dans un marché financier réel, cette possibilité est en principe interdite par les autorités de régulation (elles répriment en particulier les ”délits d’initié”). Il faut donc essayer de ne pas créer d’opportunité d’arbitrage. Cette idée est introduite dans le modèle sous la forme de la notion de couverture, qui consiste à gérer dynamiquement un portefeuille contenant S et des obligations sans risque. Le vendeur de l’option va rechercher une stratégie qui, partant d’une richesse initiale C0 , lui permettra d’atteindre la richesse terminale souhaitée max(St − p, 0), de manière à honorer son engagement envers l’acheteur, et cela dans tous les scénarios (trajectoires) d’évolution du marché. 3.4.3 Modélisation Pout s ≥ 0 et 0 ≤ t ≤ T , on note u(s, t) le prix de l’option à l’instant t, sachant St = s. Au temps T , on a évidemment u(s, T ) = max(s − p, 0). De plus, si s = 0, alors St = 0 pour 0 ≤ t ≤ T et u(0, t) = 0. On recherche ici C0 = u(s0 , 0). On définit alors pour 0 ≤ t ≤ T le processus stochastique Ct = u(St , t). En utilisant (3.9) et la formule d’Itô, on obtient : 2 2 dt + ∂u dS + 12 ∂∂su2 (dS) dC = ∂u ∂t ∂s 2 2 = ∂u + µS ∂u + σ2 S 2 ∂∂su2 dt + σS ∂u dW ∂t ∂s ∂s (3.11) L’introduction de la notion de couverture passe par la ”duplication” de C dans un portefeuille contenant des actifs S et des obligations B. Plus précisément, si B est un investissement sans risque, qui suit donc l’évolution Bt = ert , soit ; dB = rBdt (3.12) B0 = 1 il s’agit de trouver des processus φ et ψ tels que : (∀t ∈ [0, T ]) Ct = φSt + ψBt (3.13) Bien sûr, la construction effective de φ et ψ élimine tout facteur de risque : si une entreprise vend une option d’achat, elle encourt le risque qu’au temps T , 32 Applications ST excède p, et que donc l’acheteur fasse un grand profit. Mais si en même temps elle construit le portefuille (3.13), les profits générés par ce dernier vont exactement compenser la dépense effectuée pour payer le bénéfice de l’acheteur. Inversement, si ST < p, le portefeuille n’apporte aucun profit. Pour réaliser une telle opération, l’entreprise ne doit pas injecter le moindre argent dans le système de couverture, en dehors de l’investissement initial. Cet état de fait est modélisé en forçant le portefeuille représenté par le terme de droite dans (3.13) à être auto-financé. En d’autres termes, les changements de valeurs du portefeuille ne dépendent que des changement de S et B. Ainsi, (∀t ∈ [0, T ]) dCt = φdSt + ψdBt (3.14) En combinant (3.11), (3.12) et (3.14), on aboutit à l’identité ∂u σ 2 2 ∂ 2 u ∂u ∂u + µS + S dt + σS dW = φ(µSdt + σSdW ) + ψrBdt 2 ∂t ∂s 2 ∂s ∂s (3.15) et si (3.13) est valide, il faut donc choisir φ et ψ pour que (3.15) soit valide. En particulier, les facteurs de dW coı̈ncident, à condition de prendre ∂u (St , t) (3.16) (∀t ∈ [0, T ]) φt = ∂s ce qui amène à ∂u σ 2 2 ∂ 2 u + S dt = ψrBdt ∂t 2 ∂s2 S par (3.13) et (3.16). Et donc Mais ψB = C − φC = u − ∂u ∂s ∂u ∂u σ2 2 ∂ 2u (∀t ∈ [0, T ]) (St , t) + rS (St , t) + S (St , t) − ru(St , t) dt = 0 ∂t ∂s 2 ∂s2 (3.17) et pour assurer Ct = u(St , t), on impose donc à u(s, t) de verifier l’équation aux dérivées partielles de Black-Scholes-Merton ∂u σ 2 2 ∂ 2 u ∂u + rs + S − ru = 0 (3.18) ∂t ∂s 2 ∂s2 On remarque au passage que la dérive µ n’apparaı̂t plus. Ainsi, pour répondre au problème posé de la détermination de la ”meilleure” valeur de C0 , il s’agit de trouver u(s0 , 0), et donc u, vérifiant ∂u 2 2 + σ2 s2 ∂∂su2 − ru = 0 ,s > 0 0 ≤ t ≤ T ∂t + rs ∂u ∂s u = max(s − p, 0) , s > 0 t = T u =0 ,s = 0 0 ≤ t ≤ T (∀t ∈ [0, T ]) problème qui peut être résolu explicitement.