Mouvement brownien, espérance conditionnelle
Transcription
Mouvement brownien, espérance conditionnelle
Mouvement brownien, espérance conditionnelle, martingale, intégrale stochastique Benjamin Jourdain Bernard Lapeyre 30 mai 2006 1 Rappels de probabilités Let Ω be endowed with a probability measure P. d d Définition 1.1. R We say that a random vector X : Ω → R has the density p where p : R → R+ is such that Rd p(x)dx = 1 if Z Z d d ∀A ⊂ R , P(X ∈ A) = p(x)dx ⇔ ∀f : R → R bounded , E(f(X)) = f(x)p(x)dx. Rd A Intuitively P(X ∈ [x, x + dx]) = p(x)dx. Exemples : The real random variable U is uniformly distributed on the interval [a, b] where 1{a<u<b} . a < b if it has the density p(u) = b−a Définition 1.2. A real random variable X with density p is R 1. integrable if R |x|p(x)dx < +∞ and then its expectation is Z E(X) = xp(x)dx, R R 2. square integrable if E(X2 ) = x2 p(x)dx < +∞ and then its variance is £ ¤ Var(X) = E (X − E(X))2 = E(X2 ) − (E(X))2 . R The standard deviation of X is σ(X) = p Var(X). Exemples : We say that the real variable X is Gaussian (or normal) with parameter (µ, σ2 ) with (µ, σ) ∈ R × R∗+ and denote X ∼ N (µ, σ2 ) if X possesses the density (x−µ)2 1 p(x) = √ e− 2σ2 . σ 2π Then X is square integrable and Z E(X) = xe R − (x−µ)2 2σ2 dx √ =µ+ σ 2π Z (x − µ)e − R 1 (x−µ)2 2σ2 ¸ · 2 +∞ dx σ − (x−µ) 2 √ = µ − √ e 2σ = µ. σ 2π 2π −∞ Using this result, then the change of variable y = (x − µ)/σ, one obtains Z Z (x−µ)2 £ ¤ y2 dy dx 2 − 2σ2 2 2 √ =σ y × ye− 2 √ Var(X) = E (X − E(X)) = (x − µ) e 2π R R " σ 2π #+∞ Z y2 y2 dy ye− 2 = σ2 − √ + e− 2 √ = σ2 . 2π −∞ 2π R Hence the expectation and the variance of X are respectively µ and σ2 . By a computation similar to the variance, one obtains Z Z 2 £ ¤ y2 dy 4 4 4 3 − y2 dy √ = 3σ y2 × ye− 2 √ = 3σ4 . (1) E (X − E(X)) = σ y × ye 2π 2π R R Proposition 1.3. The expectation is linear : if X and Y are integrable real random variables and λ ∈ R then X + λY is integrable and E(X + λY) = E(X) + λE(Y). The concept of independence plays a key role in probability theory. Définition 1.4. We say that the real random variables X1 , . . . , Xn are independent if ∀A1 , . . . , An ⊂ R, P(X1 ∈ A1 , . . . , Xn ∈ An ) = P(X1 ∈ A1 ) . . . P(Xn ∈ An ). Independence of X1 , . . . , Xn implies Qn that for all functions fi : R → R such that fi (Xi ) is integrable for i ∈ {1, . . . , n}, then i=1 fi (Xi ) is integrable and " n # n Y Y E fi (Xi ) = E [fi (Xi )] . i=1 i=1 In case each Xi has the Q density pi , this means that the random vector (X1 , . . . , Xn ) has the density p(x1 , . . . , xn ) = ni=1 pi (xi ). Proposition 1.5. If X1 , . . . , Xn are independent square integrable real variables, then X1 + . . . + Xn is square integrable and Var(X1 + . . . + Xn ) = n X Var(Xi ). i=1 Démonstration : ·µ X ¶2 ¸ n Var(X1 + . . . + Xn ) = E (Xi − E(Xi )) i=1 = = = n X i,j=1 n X i=1 n X E [(Xi − E(Xi ))(Xj − E(Xj ))] by linearity of E, X £ ¤ E (Xi − E(Xi ))2 + E[Xi − E(Xi )]E[Xj − E(Xj )] by independence, 1≤i6=j≤n Var(Xi ) + 0. i=1 2 Let us recall the two fundamental convergence theorems in probability theory : the strong law of large numbers and the central limit theorem. We assume that (Xi )i≥1 is a sequence of real random variables such that for each n ≥ 1, ∀A1 , . . . , An ⊂ R, P(X1 ∈ A1 . . . , Xn ∈ An ) = P(X1 ∈ A1 )P(X1 ∈ A2 ) . . . P(X1 ∈ An ). In other words, the variables (Xi )i≥1 are independent and identically distributed. When X1 has the density p(x1 ) this means that (X1 , . . . , Xn ) has the density q(x1 , . . . , xn ) = p(x1 ) . . . p(xn ). The strong law of large numbers states the convergence of the empirical mean n 1X X̄n = Xi n i=1 to the expectation E(X1 ) common to the variables Xi as n → +∞. Théorème 1.6. If the random variables Xi are integrable then µ ¶ P lim X̄n = E(X1 ) = 1. n→+∞ The strong law of large numbers justifies the Monte-Carlo method which consists in apR proximating E(X1 ) = xp(x)dx by the empirical mean X̄n . The central limit theorem gives the precision of this approximation. Théorème 1.7. Assume √ that the random variables Xi are square integrable. Then, as n → +∞, the distribution of n(E(X1 ) − X̄n ) converges to N (0, Var(X1 )). When Var(X1 ) > 0 this means that µ ¶ Zb √ dy y2 p ∀a < b ∈ R, P(a ≤ n(E(X1 ) − X̄n ) ≤ b) → exp − . 2Var(X1 ) 2πVar(X1 ) a √ For each n ≥ 1, the expectation of the random variable n(E(X1 ) − X̄n ) is 0 and according to Proposition 1.5 "µ n ¶2 # X £ ¤ √ 1 Xi − nE(X1 ) Var( n(E(X1 ) − X̄n )) = E n(X̄n − E(X1 ))2 = E n i=1 ! à n n X 1X 1 Xi = = Var Var(Xi ) = Var(X1 ). n n i=1 i=1 Hence the expectation and the variance of the limit distribution N (0, Var(X1 )) are not surprising. p Remarque 1.8. Choosing b = −a = 1.96 Var(X1 ) gives the following confidence interval for the Monte-Carlo approximation of E(X1 ) : #! Z à " p p 1.96 Var(X ) Var(X ) 1.96 1.96 dz 2 1 1 √ √ , X¯n + ' e−z /2 √ = 0.95. P E(X1 ) ∈ X¯n − n n 2π −1.96 3 Of course in general when one wants to compute E(X1 ), one does Var(X1 ). But Pnnot know 1 2 Var(X1 ) can be replaced by the following approximation Vn = n i=1 Xi − (X̄n )2 which is convergent according to the strong law of large numbers. The derived confidence interval gives the precision of the Monte-Carlo computation with no supplementary cost. In order to obtain a better precision for fixed n, one can compute the empirical mean Ȳn of random variables Yi with the same expectation as X1 but smaller variance. This is the principle of variance reduction techniques. 2 Brownian motion Let us first consider the simple symmetric random walk on the set of integers Z. The walker starts at time 0 at the origin. From time n to time n + 1, it moves from its present location to one of its 2 nearest neighbours with equal probabilities 1/2. The mathematical formalization of this walk is based on a sequence (ξi )i≥1 of independent and identically distributed variables such that P(ξi = 1) = P(ξi = −1) = 12 . The variable ξn+1 represents the move of the walker from time n to time n + 1. By induction, the position of the walker at time n is Sn = n X ξi (Convention : S0 = 0). i=1 The Brownian motion is obtained by a suitable renormalization of this random walk : 1 ∀t ∈ [0, +∞[, Bkt = √ Sbktc k where k ∈ N∗ and for x √ ∈ R, bxc denotes the Pninteger part of x. 1 Let t > 0. Setting Xi = tξi and X̄n = n i=1 Xi , one obtains r ´ ¢ bktc ³p 1 ¡ k bktcX̄bktc = bktcX̄bktc . Bt = √ kt kt 2 2 By symmetry E(X1 ) = E(ξ1 ) = 0 and since ξ21 = 1, Var(X p 1 ) = E(X1 ) = E(tξ1 ) = t. Hence the central limit theorem 1.7 implies that qas k tends to ∞, bktcX̄bktc converges in distribution to a random variable Bt ∼ N (0, t). As bktc converges to 1, one deduces that Bkt converges in kt distribution to Bt . Now if s > t, by a similar reasoning one obtains the distribution of Bks − Bkt converges to Pbksc N (0, s − t). Since Bks − Bkt = √1k i=bktc+1 ξi , this random variable is independent from Bkt . In the limit k → +∞, independence is preserved. Hence (Bkt , Bks −Bkt ) converges in distribution to (Bt , Bs − Bt ) where Bt ∼ N (0, t) and Bs − Bt ∼ N (0, s − t) are independent random variables. More generally when 0 = t0 ≤ t1 ≤ . . . ≤ tn , the vector (Bkt1 , Bkt2 − Bkt1 , . . . , Bktn − Bktn−1 ) converges in distribution to (Bt1 , Bt2 − Bt1 , . . . , Btn − Btn−1 ) where for i ∈ {0, . . . n − 1}, the random variables Bti+1 − Bti are independent and respectively distributed according to N (0, ti+1 − ti ). In fact the whole family (Bkt )t≥0 converges in distribution to the standard Brownian motion. Définition 2.1. We say that a family (Bt )t≥0 is a standard Brownian motion if 1. B0 = 0, 2. For 0 = t0 ≤ t1 ≤ . . . ≤ tn , the random variables Bti+1 − Bti , i ∈ {0, . . . n − 1} are independent and respectively distributed according to N (0, ti+1 − ti ), 4 3. the sample-paths t ∈ [0, +∞[→ Bt are continuous : P(t ∈ [0, +∞[→ Bt continuous) = 1. Remarque 2.2. – The Brownian motion is a continuous (see 3) process with independent and stationary increments (see 2). – Continuity of the sample-paths is of course not obtained by the renormalization of the symmetric random walk described above. In fact, one can prove that the sample-paths of the Brownian motion are locally Hölder continuous with exponent α < 1/2 but nowhere differentiable. The following property concerning the quadratic variation of the Brownian path is the key to understandind the specificity of stochastic differential calculus. Proposition 2.3. Let t > 0, n ∈ N∗ and tk = kt for k ∈ {0, . . . , n}. n à !2 n−1 X 2t2 E . (Btk+1 − Btk )2 − t = n k=0 Démonstration : Since Btk+1 − Btk ∼ N (0, nt ), E((Btk+1 − Btk )2 ) = Var(Btk+1 − Btk ) = By linearity of the expectation one deduces that E t . n hP n−1 i 2 (B − B ) = t. Hence tk+1 tk k=0 à ! n−1 !2 à n−1 n−1 X X X Var((Btk+1 − Btk )2 ), (Btk+1 − Btk )2 = (Btk+1 − Btk )2 − t = Var E k=0 k=0 k=0 by independence of the Brownian increments and Proposition 1.5. Since according to (1), 2 £ 4 Var((Btk+1 − Btk ) ) = E (Btk+1 − Btk ) ¤ µ £ − E (Btk+1 − Btk ) 2 ¤ ¶2 = 3t2 t2 2t2 − = , n2 n2 n2 one easily concludes. Notice that when g is a C1 function on [0, t] then n−1 n−1 2 X X sups∈[0,t] (g 0 (s))2 t2 n→+∞ 2 0 2t −→ 0. (g(tk+1 ) − g(tk )) ≤ sup (g (s)) 2 = n n k=0 k=0 s∈[0,t] Rt Therefore 0 g(s)dg(s) = 21 (g2 (t) − g2 (0)). On this simple example, we can see the main difference between usual and stochastic integral calculus. The lack of regularity of the Brownian path with respect to the time variable implies that the quadratic variation of this path does not vanishes as n → +∞. As a consequence a supplementary term (− 12 t in the above example) appears. 5 3 Espérance conditionnelle 3.1 Tribus construites à partir de variables aléatoires Soit Ω un ensemble muni d’une tribu A c’est-à-dire un sous-ensemble de l’ensemble P(Ω) des parties de Ω – contenant ∅ et Ω, – stable par passage au complémentaire, – stable par union ou intersection dénombrable. Rappelons la définition d’une variable aléatoire réelle sur (Ω, A) : Définition 3.1. Une application X de Ω muni de la tribu A dans R est une variable aléatoire si pour tout B dans la tribu borélienne de R (plus petite tribu qui contient tous les intervalles) : {ω ∈ Ω, X(ω) ∈ B} = {X ∈ B} ∈ A. Cette propriété est la A-mesurabilité de X. Une sous-tribu B de A est une tribu sur Ω t.q. B ⊂ A. – Soit X une variable aléatoire sur (Ω, A) à valeurs dans R. On note : σ(X) la plus petite sous tribu B de A, rendant l’application X B-mesurable. Cette tribu représente l’information donnée par la connaissance de X. Notez, par exemple, que si A ∈ A, alors la tribu engendrée par la variable aléatoire 1A est égale à : {φ, A, Ac , Ω} . – Soit X1 , . . . , Xn , n variables aléatoires sur (Ω, A) à valeurs dans R, on note : σ(X1 , . . . , Xn ) la plus petite sous tribu B de A rendant les applications X1 , . . . , Xn B-mesurables. Cette tribu représente l’information donnée par la connaissance des variables aléatoires X1 , . . . , X n . – Soit (Xn , n ≥ 1) une suite de variables aléatoires réelles A-mesurables. On note, pour tout n ≥ 1 : Fn = σ(Xk , 1 ≤ k ≤ n). Alors (Fn , n ≥ 1) est une suite croissante de tribus qui porte le nom de filtration naturelle. Pour un n fixé, Fn représente l’information disponible à l’instant n. Le résultat suivant (admis) clarifie l’interprétation d’une tribu comme information. Proposition 3.2. Soit X et Y deux variables aléatoires réelles. Alors Y est σ(X)-mesurable si et seulement si il existe une fonction1 f de R dans R, telle que : P (Y = f(X)) = 1. Remarque 3.3. Si Y est σ(X)-mesurable et, si l’on connaı̂t la valeur de X, on peut en déduire la valeur de Y. mesurable au sens où l’image réciproque par f de tout élément de la tribu borélienne de R est dans la tribu borélienne de R 1 6 3.2 Notion d’espérance conditionnelle Soit X une variable aléatoire réelle définie sur (Ω, A) et soit B ⊂ A une sous tribu de A. L’espérance conditionnelle vise à définir la notion de meilleure approximation de X par une variable aléatoire B-mesurable. Cette notion est, évidemment, relative au choix d’une probabilité P sur (Ω, A). Nous allons commencer par traiter le cas où X est une variable aléatoire de carré intégrable, c’est à dire telle que E(X2 ) < +∞ (on le note aussi X ∈ L2 (P)). La construction se fait en utilisant le théorème de projection sur un sous espace fermé d’un espace de Hilbert. Pour cela©posons : ª – HA = © X variable aléatoire A-mesurable telle que E(X2 ) < +∞ª , – HB = X variable aléatoire B-mesurable telle que E(X2 ) < +∞ . Alors HA est un espace de Hilbert : c’est un espace vectoriel complet muni d’une norme dérivant du produit scalaire < X, Y >= E(XY) et kXk2 =< X, X >. HB est un sous espace vectoriel fermé inclus dans cet espace de Hilbert. On peut alors montrer, en utisant le théorème de projection sur un sous espace fermé dans un espace de Hilbert, le résultat suivant. Proposition 3.4. Si X est une variable aléatoire telle que E(X2 ) < +∞, il existe une unique variable aléatoire Z, telle que E(Z2 ) < +∞, B-mesurable et vérifiant : ¡ ¢ ¡ ¢ E (X − Z)2 = inf E (X − Y)2 . Y∈HB Z est, ainsi, la variable aléatoire la p “plus proche” de X au sens de la norme de l’espace de Hilbert HA , c’est à dire de la norme E(X2 ). Z est l’espérance conditionnelle de X sachant B que l’on note : E (X|B) . X Z 0 HB̄ F IG . 1 – Projection orthogonale sur HB On obtient (voir dessin) le résultat suivant : Proposition 3.5. Il existe une unique variable aléatoire B-mesurable telle que E(Z2 ) < +∞, vérifiant pout toute variable aléatoire Y, B-mesurable et telle que E(Y 2 ) < +∞ : E(XY) = E(ZY). Cette variable aléatoire Z est la meilleure approximation, au sens de la norme parmi les variables aléatoires B-mesurables de carré intégrable. 7 p E(X2 ), de X Cette définition ne permet pas de traiter le cas de variables aléatoires seulement intégrables (i.e. telle que E(|X|) < +∞). L’extension au cas intégrable, pour l’essentiel identique au cas de carré intégrable, est plus technique et nous admettrons donc le résultat suivant. Théorème 3.1. Soit X une variable aléatoire réelle telle que E(|X|) < +∞, alors il existe une unique variable aléatoire B-mesurable Z telle que E(|Z|) < +∞ vérifiant pour toute variable aléatoire Y B-mesurable et bornée : E(XY) = E(ZY). On note la variable aléatoire Z sous la forme : E (X|B) . C’est l’espérance conditionnelle de X sachant B. Remarque 3.6. Evidemment pour une variable aléatoire de carré intégrable, les deux définitions coı̈ncident. Remarque 3.7. Lorsque la tribu B est celle engendrée par une variable aléatoire X (B = σ(X)), on note : E(Y|X) := E(Y|σ(X)). Noter que comme toute variable aléatoire σ(X)-mesurable est de la forme f(X), f étant une fonction (voir la proposition 3.2), on a : E(Y|X) = f(X). E(Y|X) est ainsi la meilleure approximation de Y par une fonction de X. Exemples : Soit B1 , . . . , Bn une partition de Ω et © ª B = ∪réunion finie Bik . Soit Y une variable B-mesurable. Pour 1 ≤ i ≤ n, on note ωi un élément de Bi et yi = Y(ωi ). L’ensemble {Y = yi } contient ωi et appartient à B d’après l’hypothèse sur Y. En utilisant la P définition de B, on en déduit que {Y = yi } contient Bi . Ainsi Y = ni=1 1Bi yi . Inversement si Y est de cette forme, alors il est facile de vérifier que Y est B-mesurable. En utilisant cette caractérisation des variables aléatoires B-mesurables, on peut vérifier que pour toute variable aléatoire réelle X intégrable sur (Ω, A), E(X|B) = X 1Bi i:P(Bi )>0 8 E(X1Bi ) . P(Bi ) Propriétés de l’espérance conditionnelle On peut démontrer (exercice sans difficultés) les propriétés suivantes de l’espérance conditionnelle qu’il faut impérativement connaı̂tre. Dans ce qui suit toutes les variables aléatoires considérées sont supposées intégrables. 1. Linéarité : E(λX + µY|B) = λE(X|B) + µE(Y|B). 2. Positivité : Si X ≥ 0, alors E(X|B) ≥ 0. Si X ≥ Y, alors E(X|B) ≥ E(Y|B). 3. Si X est intégrable et B-mesurable alors : E (X|B) = X. 4. Si Z est une variable aléatoire B-mesurable et bornée : E(ZX|B) = ZE(X|B). 5. E (E (X|B)) = E(X). Soit C une sous tribu de B alors : E (E(X|B)|C) = E(X|C). 6. Si X est indépendante de la tribu B (c’est à dire indépendante de toutes la variables aléatoires B-mesurables) : E (X|B) = E(X). 7. Contraction pour la norme L2 : ³ ´ E |E(X|B)|2 ≤ E(|X|2 ). Remarque 3.8. On déduit de la propriété 2 : |E(X|B)| ≤ E (|X||B) , et (contraction pour la norme L1 ) : E (|E(X|B)|) ≤ E(|X|). 9 4 Mouvement brownien et martingales Généralités sur les processus à temps continu repésente l’information disponible. On peut introduire la notion de filtration qui Définition 4.1. Soit (Ω, A) un espace muni d’une tribu, on appelle filtration une suite croissante de sous tribus de A, (Ft , t ≥ 0). Un processus (Xt , t ≥ 0) est un processus adapté à une filtration (Ft , t ≥ 0), si pour tout t ≥ 0, Xt est Ft -mesurable. Remarque 4.2. La filtration naturelle associée à un processus (Xt ≥ 0) est par définition la famille de sous tribus : Ft = σ (Xs , s ≤ t) , où Ft est la plus petite tribu rendant mesurable les applications ω → Xs (ω), pour s ≤ t. On définit la notion de temps d’arrêt. Définition 4.3. Soit (Ft , t ≥ 0) une filtration, soit τ une variable aléatoire positive à valeurs dans R+ ∪ {+∞}. On dit que τ est un temps d’arrêt si pour tout t : {τ ≤ t} ∈ Ft . Remarque 4.4. Il est facile de vérifier que si S et T sont deux temps d’arrêt, alors S ∧ T = inf(S, T ) est encore un temps d’arrêt. En particulier, si t ∈ R+ , S ∧ t est un temps d’arrêt. Martingales à temps continu processus à temps continu. On peut alors introduire la notion de martingale au cas des Définition 4.5. Soit (Ft , t ≥ 0) une filtration sur un espace (Ω, A, P) et (Mt , t ≥ 0) un processus adapté à cette filtration. On dit que (Mt , t ≥ 0) est une martingale par rapport à la filtration (Ft , t ≥ 0), si pour tout t ∈ R+ , E(|Mt |) < +∞ et si pour tout s ≤ t : E (Mt |Fs ) = Ms . Théorème d’arrêt pour les martingales continues Si (Mt , t ≥ 0) est une martingale continue (i.e. les trajectoires t → Mt (ω) sont continues, sauf pour un ensemble de ω de probabilité nulle pour P), on peut étendre l’égalité : E(Mt ) = E(M0 ), qui découle de la définition en prennant l’espérance des deux membres a priori vraie pour un temps fixe t à un temps d’arrêt borné. Ce résultat porte le nom de théorème d’arrêt. Théorème 4.1. Soit τ un temps d’arrêt par rapport à une filtration (Ft , t ≥ 0). Soit (Mt , t ≥ 0) une martingale continue par rapport à la même filtration. Si τ ≤ k < +∞, k étant une constante réelle, alors on a : E(Mτ ) = E(M0 ). Extensions de la définition du mouvement brownien vement brownien par rapport à une filtration donnée. Nous commencons par définir le mou- Définition 4.6. On dit que (Bt , t ≥ 0) est un mouvement brownien par rapport à une filtration (Ft , t ≥ 0), si (Bt , t ≥ 0) est un processus continu adapté à cette filtration, nul en 0 et si les accroissements Bt+h − Bt sont indépendants de Ft et de loi gaussienne centrée de variance h. Remarque 4.7. Noter que cette définition implique que (Bt , t ≥ 0) est un mouvement brownien au sens classique (puisque σ(Bs , s ≤ t) ⊂ Ft ). 10 4.1 Exemples de martingales browniennes Proposition 4.8. Soit (Bt , t ≥ 0) un mouvement brownien standard, alors si Ft = σ(Bs , s ≤ t) : – (Bt , t ≥ 0) est une martingale par rapport à (Ft , t ≥ 0), – (B2t − t, t ≥ 0) est une martingale par rapport à (Ft , t ≥ 0), – (eσBt − σ2 t 2 , t ≥ 0) est une martingale par rapport à (Ft , t ≥ 0). Démonstration : Notons que si s ≤ t, on a, comme Bt − Bs est indépendante de la tribu Fs : E (Bt − Bs |Fs ) = E(Bt − Bs ). Mais E(Bt − Bs ) = E(Bt ) − E(Bs ) = 0 − 0 = 0, donc : E (Bt − Bs |Fs ) = 0. Bs étant Fs -mesurable on en déduit que E(Bs |Fs ) = Bs puis que : E (Bt |Fs ) = Bs . Ceci prouve le premier point. Pour démontrer la deuxième propriété remarquons que : ³ ´ E (Bt − Bs )2 |Fs = E(B2t |Fs ) − 2Bs E(Bt |Fs ) + B2s . Comme Bs est une martingale, on a E(Bt |Fs ) = Bs et donc : ³ ´ E (Bt − Bs )2 |Fs = E(B2t |Fs ) − B2s . Notons, de plus, que comme Bt − Bs est indépendant de Fs , on a : ³ ´ ³ ´ E (Bt − Bs )2 |Fs = E (Bt − Bs )2 . Mais Bt − Bs suit la même loi que Bt−s − B0 = Bt−s , c’est à dire une loi gaussienne centrée de variance t − s, on a donc : ³ ´ E (Bt − Bs )2 |Fs = t − s. Donc il vient : ou encore : ³ ´ E(B2t |Fs ) − B2s = E (Bt − Bs )2 = t − s, E(B2t − t|Fs ) = B2s − s. Ce qui prouve la deuxième propriété. Pour prouver la troisième propriété notons, en utilisant l’indépendance des accroissements, que : ³ ´ ³ ´ E eσ(Bt −Bs ) |Fs = E eσ(Bt −Bs ) . Mais la loi de Bt − Bs est celle d’une gaussienne centrée de variance t − s (dont on peut calculer la transformée de Laplace) donc : ³ ´ σ2 E eσ(Bt −Bs ) = e 2 (t−s) . On a donc : ³ ´ σ2 E eσ(Bt −Bs ) |Fs = e 2 (t−s) . La variable aléatoire Bs étant Fs -mesurable on obtient donc : µ ¶ σ2 σ2 E eσBt − 2 t |Fs = eσBs − 2 s . 11 5 Intégrale stochastique et calcul d’Itô Dans le cas des modèles à temps continu, nous allons généraliser la notion d’intégrales du type Z t Hs dBs , 0 où (Bs , s ≥ 0) est un mouvement brownien. L’une des propriétés importantes du mouvement brownien est que presque sûrement ses trajectoires sont nulle part différentiables. Autrement dit, si Bt est un mouvement brownien, il t n’existe pas de points t de R+ tels que dB ait un sens. On ne peut donc pas définir l’intégrale dt précédente par : Zt Zt dBs ds. f(s)dBs = f(s) ds 0 0 On peut donner, cependant, un sens précis à ce type d’ intégrales par rapport au mouvement brownien. C’est ce que nous allons faire dans ce paragraphe. On appelle ces intégrales des “intégrales stochastiques”. 5.1 Construction de l’intégrale stochastique Soit (Bt )t≥0 un Ft -mouvement brownien standard sur un espace probabilisé filtré Rt (Ω, A, (Ft )t≥0 , P). Nous allons donner un sens à 0 f(s, ω)dBs pour une classe de processus f(s, ω) adaptés à la filtration (Ft )t≥0 . On va commencer par construire l’intégrale stochastique sur un ensemble de processus dits élémentaires. Dans toute la suite, on fixe T un réel strictement positif et fini. Définition 5.1. On appelle processus élémentaire (Ht )0≤t≤T un processus de la forme : Ht (ω) = p X φi (ω)1]ti−1 ,ti ] (t) i=1 où 0 = t0 < t1 < . . . < tp = T et φi est Fti−1 -mesurable et bornée. L’intégrale stochastique d’un processus élémentaire H est alors, par définition, le processus continu (I(H)t )0≤t≤T défini par, si t ∈]tk , tk+1 ] : X I(H)t = φi (Bti − Bti−1 ) + φk+1 (Bt − Btk ). 1≤i≤k Notons que I(H)t peut s’écrire : I(H)t = X φi (Bti ∧t − Bti−1 ∧t ), 1≤i≤p ce qui prouve la continuité de la fonction t 7→ I(H)t . On notera alors le résultat essentiel suivant : Proposition 5.2. ´Si (Ht )0≤t≤T est un processus élémentaire : ³R t – H dBs est une Ft -martingale continue, 0 s 0≤t≤T ! õZ µZ t ¶ ¶ 2 t 2 – E =E Hs ds , Hs dBs 0 0 12 Rt 0 Hs dBs pour I(H)t . On a à ¯Z t ¯2 ! µZ T ¶ ¯ ¯ 2 – E sup ¯¯ Hs dBs ¯¯ ≤ 4E Hs ds . t≤T 0 0 On vient de définir et donner des propriétés de l’intégrale stochastique pour les processus élémentaires, nous allons maintenant étendre cette intégrale à une classe de processus adaptés : ¯ µZ T ¶ ° 2 H = (Ht )0≤t≤T , processus adapté à (Ft )t≥0 , E Hs ds < +∞ . 0 Proposition 5.3. Soit (Bt )t≥0 un Ft -brownien. Alors il existe une unique application linéaire J de H dans l’espace des Ft -martingales continues définies sur [0, T ], telle que : 1. Si (Ht )t≤T est un processus élémentaire, P p.s. pour tout 0 ≤ t ≤ T J(H)t = I(H)t . µZ t ¶ ¡ ¢ 2 2 2. Si H ∈ H et si t ≤ T , E J(H)t = E Hs ds . 0 Cette application linéaire est unique au sens suivant, si J et J 0 sont deux prolongements linéaires vérifiant les propriétés précédentes alors : P p.s. ∀0 ≤ t ≤ T, J(H)t = J 0 (H)t Zt On note, si H ∈ H, Hs dBs = J(H)t . 0 De plus cette intégrale stochastique vérifie les propriétés suivantes : Proposition 5.4. Si (Ht )0≤t≤T un processus de H alors : 1. On a : à ¯Z t ¯2 ! ¶ µZ T ¯ ¯ 2 ¯ ¯ E sup ¯ Hs dBs ¯ ≤ 4E Hs ds t≤T 0 (2) 0 2. Si τ est un Ft -temps d’arrêt : Zτ ZT Hs dBs = P p.s. 0 0 1{s ≤ τ} Hs dBs (3) Nous aurons besoin d’un résultat permettant de relaxer l’hypothèse d’intégrabilité portant sur (Hs ). Posons : ° ¯ ZT 2 H̃ = (Hs )0≤s≤T est un processus adapté à (Ft )t≥0 , Hs ds < +∞ P p.s. . 0 La proposition suivante permet de prolonger l’intégrale stochastique de H à H̃. Proposition 5.5. Il existe une unique application linéaire J̃ de l’espace H̃ dans l’espace vectoriel des processus continus définis sur [0, T ], telle que : 1. Propriété de prolongement. Si (Ht )0≤t≤T est un processus élémentaire alors : P p.s. , ∀0 ≤ t ≤ T, J̃(H)t = I(H)t . 2. Propriété de continuité : Si (Hn )n≥0 est une suite de processus de H̃ telle que tend vers 0 en probabilité alors supt≤T |J̃(Hn )t | tend vers 0 en probabilité. 13 RT 0 Hns 2 ds On note toujours Rt 0 Hs dBs pour J̃(H)t . Remarque 5.6. Il est important de noter que dans ce cas ³R t 0 ´ Hs dBs 0≤t≤T n’est pas (nécessairement) une martingale. Nous allons résumer les conditions d’existence de l’intégrale stochastique par rapport à un mouvement brownien, et les hypothèses qui permettent d’affirmer qu’il s’agit d’une martingale. Résumé : Soit (Bt )t≥0 un Ft -mouvement brownien et (Ht )0≤t≤T un processus Ft -adapté. On peut définir Rt RT l’intégrale stochastique ( 0 Hs dBs )0≤t≤T ³dès que ´0 H2s ds < +∞ P p.s. . Le processus Rt RT ( 0 Hs dBs )0≤t≤T est une martingale si E 0 H2s ds < +∞. Cette condition n’est cependant ´ ³R T pas nécessaire. Remarquons, toutefois, que la condition E 0 H2s ds < +∞ est équivalente à : à µZ ¶ ! 2 t E Hs dBs sup t∈[0,T ] et que , dans ce cas on a l’égalité : "µZ ¶2 # T Hs dBs E < +∞, 0 µZ T =E 0 0 ¶ H2s ds . (4) Références [1] Karatzas, I. and Shreve, S.E. Brownian motion and stochastic calculus. Second edition. Graduate Texts in Mathematics, 113. Springer-Verlag, New York, 1997. [2] Lamberton, D. and Lapeyre, B. Introduction au calcul stochastique appliqué à la finance. Second edition. [3] Lamberton, D. and Lapeyre, B. Introduction to stochastic calculus applied to finance. Chapman & Hall, 1996. [4] Protter, P.E. Stochastic integration and differential equations. Second edition. Applications of Mathematics (New York), 21. Stochastic Modelling and Applied Probability. SpringerVerlag, Berlin, 2004. [5] Revuz, D. and Yor, M. Continuous martingales and Brownian motion. Third edition. Grundlehren der Mathematischen Wissenschaften, 293. Springer-Verlag, Berlin, 1999. [6] Rogers, L.C.G. and Williams, D. Diffusions, Markov processes, and martingales. Vol. 1 and 2. Second edition. John Wiley & Sons, 1994. [7] Stroock, D.W. and Varadhan, S.R.S. Multidimensional diffusion processes Grundlehren der Mathematischen Wissenschaften, 233. Springer-Verlag, Berlin, 1979. 14