Examen : correction

Transcription

Examen : correction
Université Denis Diderot Paris 7
septembre 2012-janvier 2013
M1 ISIFAR : Probabilités
Examen : correction
durée : 3 heures
Les documents et calculatrices ne sont pas autorisés.
On prendra soin de bien justifier les réponses.
Le barême est provisoire, et n’est donné qu’à titre d’indication de l’importance relative
des questions.
Exercice 1 Les questions de cet exercice sont indépendantes. De façon générique on se
place sur un espace filtré (Ω, F, (Fn ), P).
1. (1 pt) Enoncer le théorème de convergence p.s. des martingales.
Soit M une (Fn )-martingale telle que supn≥0 E[|Mn |] < ∞. Alors il existe une
variable intégrable M∞ telle que lorsque n → ∞, Mn → M∞ presque sûrement.
2. (1.5 pt) On suppose que (Xn )n≥0 est une (Fn )-sous-martingale bornée. Pour tout
n ∈ N, on pose Yn = exp(Xn ). Montrer que (Yn )n≥0 est également une
(Fn )-sous-martingale. Le théorème de convergence s’applique-t-il à (Yn ) ?
La fonction x → exp(x) est continue (donc mesurable), ainsi pour tout n ≥ 0, Yn
est Fn -mesurable puisque Xn l’est.
La suite X est bornée, i.e. pour un certain K on a supn≥0 |Xn | ≤ K. On a donc
supn≥0 |Yn | ≤ exp(K). En particulier pour tout n ≥ 0 la variable Yn est intégrable
car |Yn | ≤ exp(K).
Par Jensen conditionnel, on a pour tout n ≥ 0,
E[exp(Xn+1 ) | Fn ] ≥ exp[E[Xn+1 | Fn ]] ≥ exp(Xn ),
où, pour la deuxième inégalité ci-dessus, on a utilisé la propriété de sous-martingale
de X et la croissance de la fonction exponentielle.
Finalement, Y est une (Fn )-sous-martingale. Elle est bornée, donc bornée dans L1 ,
ainsi le théorème de convergence s’applique et il existe Y∞ ∈ L1 telle que Yn → Y∞
presque sûrement lorsque n → ∞.
3. (2 pts) Soit (Sn )n≥0 la marche aléatoire simple
issue de 0, avec ici Fn = σ(Si , i ≤ n).
On définit τ = inf n ≥ 0 : Sn ∈ {−4, 8} . Montrer que τ est un (Fn )-temps d’arrêt
fini p.s., puis calculer P(Sτ = 8).
1
On a, pour tout n ∈ N,
{τ ≤ n} =
n
[
({Si = −4} ∪ {Si = 8}) ∈ Fn ,
i=1
et donc τ est bien un (Fn )-temps d’arrêt.
Si la marche n’a pas encore atteint l’une des barrières et effectue 11 pas consécutifs
vers le haut elle atteint forcément le niveau 8, et donc pour tout n ∈ N,
P(τ ≤ n + 11 | τ > n) ≥
1
.
211
ainsi d’après le lemme du cours, τ < ∞, p.s.
La marche simple est bien entendu une (Fn )-martingale, et donc la marche arrêtée
S τ := S·∧τ reste une (Fn )-martingale. Mais de plus S τ est bornée puisque pour tout
n ≥ 0, |Sn∧τ | ≤ 8.
On peut donc appliquer un théorème d’arrêt (la version 2 du cours) à S τ au temps
τ , pour obtenir
0 = E(Sτ ) = 8P(Sτ = 8) − 4(1 − P(Sτ = 8)),
ce qui conduit à P(Sτ = 8) = 1/3.
4. (4 pts) A nouveau on considère (Sn )n≥0 la marche aléatoire simple issue de 0,
Fn = σ(Si , i ≤ n), et cette fois T = inf{n ≥ 0 : Sn = 1}. On admet que T < ∞ p.s.
Pour λ ∈ R, on pose
Mnλ := exp(λSn − n ln(cosh(λ))),
∀ n ≥ 0.
Montrer que M λ est une martingale,
Lorsque λ ≥ 0, en déduire que
E[exp(− ln(cosh(λ))T )] = exp(−λ).
Expliquer pourquoi l’égalité ci-dessus permet finalement d’exprimer E[exp(−uT )],
pour tout u ≥ 0 (il n’est pas nécessaire d’effectuer le calcul explicite de cette
quantité en fonction de u).
Comme dans la question précédente T est un temps d’arrêt fini presque sûrement.
Fixons λ ∈ R. Pour tout n, la fonction x → exp(λx − n ln(cosh(λ))) est bien
entendu continue et donc Mnλ reste Fn -mesurable.
Comme, pour tout n, |Sn | ≤ n, il est également évident que Mnλ est intégrable.
Enfin,
E[exp(λSn+1 − (n + 1) ln(cosh(λ))) | Fn ] = xs
2
1
M λ E[exp(λ(Sn+1 − Sn ) | Fn ],
cosh(λ) n
en utilisant simplement que Mnλ est Fn -mesurable. Mais comme Sn+1 − Sn est
indépendant de Fn , on a finalement
λ
E[Mn+1
| Fn ] =
1
M λ E[exp(λ(Sn+1 − Sn )] = Mnλ ,
cosh(λ) n
en utilisant que E[exp(λ(Sn+1 − Sn )] = 21 (eλ + e−λ ) = cosh(λ).
λ
On conclut que M λ est une (Fn )-martingale. Notons alors Wn = Mn∧T
, n ≥ 0, qui
λ
est la martingale M arrêtée au temps d’arrêt T , et qui est donc également une
(Fn )-martingale.
Lorsque λ ≥ 0, comme on a Sn∧T ≤ 1 et cosh(λ) ≥ 0, on voit que
sup |Wn | ≤ exp(λ).
n≥0
Pour λ ≥ 0, la martingale W est donc bornée, on peut donc appliquer le théorème
d’arrêt au temps T < ∞ p.s. pour obtenir
E[WT ] = W0 = 1.
Comme ST = 1, E[WT ] = E[exp(λ − T ln(cosh(λ)))] = 1, et donc
E[exp(− ln(cosh(λ))T )] = exp(−λ).
La fonction x → ln(cosh(x)) est paire, et elle réalise une bijection décroissante de
R− vers R+ , et une bijection croissante sur R+ vers R+ . Pour u > 0 fixé, l’équation
ln(cosh(λ)) = u possède donc exactement deux solutions, disons λ(u) > 0 et −λ(u) .
Comme E[exp(− ln(cosh(λ))T )] ≤ 1, il nous faut nécessairement choisir la solution
positive, et on trouve
E[exp(−uT )] = exp(−λ(u) ).
Exercice 2 On considère le vecteur gaussien
 
  
X1
0
1
X2 
0 1
 
  
X3  ∼ N 0 , 1
 
  
X4 
0 1
X5
0
1
On introduit d’autre part les vecteurs
 
X1
X4


Y = X2 , Z =
,
X5
X3
3
1
2
2
2
2
1
2
3
3
3
1
2
3
4
4


1

2


3
 .

4 
5

X4 /4
V =  X4 /2  .
3X4 /4
1. (2 pts) Montrer que le vecteur V introduit ci-dessus est σ(Z)-mesurable, et qu’on a
la décomposition
Y = V + W,
avec W indépendant de Z.
En déduire E[Y | Z].
On a


1/4 0
V = 1/2 0 Z,
3/4 0
et donc bien entendu V est σ(Z)-mesurable.
On a donc la décomposition souhaitée pourvu qu’on pose W = Y − V . De plus
cov(W, Z) = cov(Y, Z) − cov(V, Z)

 
 

1 1
cov(X4 /4, X4 ) cov(X4 /4, X5 )
0 0
= 2 2 −  cov(X4 /2, X4 ) cov(X4 /2, X5 )  = 0 0 .
3 3
cov(3X4 /4, X4 ) cov(3X4 /4, X5 )
0 0
W
Comme le vecteur X est gaussien, il en est de même du vecteur
qui en est
Z
une transformation linéaire. On conclut donc que W et Z sont indépendants.
On a donc finalement, d’après les propriétés de l’espérance conditionnelle, que
E[Y | Z] = E[V | Z] + E[W | Z] = V + E[W ] = V,
car W est centré.
2. (2 pts) Exprimer la loi conditionnelle de Y sachant Z.
D’après la décomposition de la question précédente il nous suffit de déterminer la
loi de W pour conclure. Il suffit pour cela de calculer la matrice de covariances de
ce vecteur. Par exemple
cov(X1 − X4 /4, X2 − X4 /4) = 1 − 1/4 − 1/2 + 1/4 = 1/2.
Des calculs en tous points similaires conduisent à la
  
0
3/4 1/2
W ∼ N 0 , 1/2 1
0
1/4 1/2
conclusion

1/4
1/2 .
3/4
Onobtient
 donc finalement
 que la loi conditionnelle de Y sachant Z est
3/4 1/2 1/4
N V, 1/2 1 1/2 .
1/4 1/2 3/4
4
Exercice 3 On considère le couple de variables réelles (T, Z) de densité
1 4z 2
2z 2 z 2
f(T,Z) (t, z) = √
1{t>0} .
exp − 2 −
t
2
2π t3
1. (1 pt) Montrer que pour tout c ∈ R, a > 0 on a
Z ∞
a
c
c
exp − 2 dt = ,
3
t
t
2a
√
Z0 ∞
c
c π
a
exp − 2 dt = √ .
t2
t
2 a
0
R∞
√
On rappelle que Γ(1/2) = 0 u−1/2 exp(−u)du = π.
On a
Z ∞
a
a i∞
hc
c
exp − 2 dt =
exp − 2
t3
t
2a
t
0
0
c
=
.
2a
D’autre part, en effectuant le changement de variables ta2 = u, on trouve
√
Z ∞
Z ∞
a
c
c
a
exp − 2 dt =
u exp(−u) 3/2 du
2
t
t
a
2u
0
0
Z ∞
c
c −1/2
= √
u
exp(−u)du
2 a 0 a
√
c
c π
= √ Γ(1/2) = √ .
2 a
2 a
2. (1 pt) En déduire la loi de Z, puis une expression de fT |Z (t | z), (t, z) ∈ R2 .
On calcule la marginale de Z en intégrant par rapport à t la densité jointe. On
obtient donc d’après la question précédente
Z ∞
2z 2 z 2
2z 2 1
1
1 4z 2
2
√
√
exp − 2 −
dt = exp(−z /2)
= √ exp(−z 2 /2),
fZ (z) =
3
2
t
2
2π t
2π 2z
2π
0
et donc Z ∼ N (0, 1).
Notons au passage que notre raisonnement permet en particulier de vérifier que la
densité jointe proposée est bien une densité de probabilité.
On a alors, pour tout (t, z) ∈ R2 ,
4z 2
2z 2
fT |Z (t | z) = 3 exp − 2 1{t>0} .
t
t
5
√
3. (1 pt) Conclure finalement que E[T | Z] = 2π|Z|.
R
On a E[T | Z] = φ(Z) avec φ(z) = R tfT |Z (t | z)dt.
D’après les deux premières questions on a
√
Z ∞ 2
4z
4z 2 π √
2z 2
φ(z) =
= 2π|z|,
exp − 2 dt = √
t2
t
2 2z 2
0
ce qui conduit à la conclusion souhaitée.
Problème
On considère une suite (Un )n=1,2,... de variables aléatoires i.i.d de loi Unif[0, 1] sur un
espace de probabilité (Ω, F, P).
On note F0 = {∅, Ω} et Fn := σ(U1 , . . . , Un ) pour n ≥ 1.
On fixe p ∈ (0, 1), θ ∈ (0, 1) et on construit par récurrence la suite X := (Xn )n≥0 :
X0 = p,
et pour n ≥ 0,
Xn+1 := θXn + (1 − θ)1{0≤Un+1 ≤Xn } .
1. (0.5 pt) Montrer que 0 < Xn < 1 pour tout n.
On prouve l’assertion par récurrence. Puisque p ∈ (0, 1) l’assertion initiale (pour
n = 0) est vrai. Si elle est vraie pour un certain n, alors 0 < Xn < 1, et par
définition,
Xn+1 ∈ {θXn , θXn + 1 − θ}.
Mais puisque θ ∈ (0, 1), et Xn ∈ (0, 1),
0 < θXn < Xn = θXn + (1 − θ)Xn < θXn + 1 − θ < θ + 1 − θ = 1,
et donc forcément Xn+1 ∈ (0, 1), ce qui achève la preuve.
2. (2.5 pts) Montrer que X est une (Fn )-martingale.
Par récurrence on montre tout d’abord que pour tout n, Xn est (Fn )-mesurable.
Pour n = 0 c’est évident puisque X0 est déterministe.
Si c’est vrai au rang n, alors Xn est Fn -mesurable et comme Un+1 est
Fn+1 -mesurable,
Xn+1 = θXn + (1 − θ)1{0≤Un+1 ≤Xn }
est également Fn+1 -mesurable, ce qui achève la preuve par récurrence.
D’après la question 1, 0 < Xn < 1 pour tout n, et donc en particulier Xn est
intégrable pour tout n.
Enfin, reste à montrer la propriété de martingale. Pour cela, observons tout d’abord
que
E[1{0≤Un+1 ≤Xn } | Fn ] = E[f (Xn , Un+1 ] | Fn )
avec f (x, y) = 1{0≤y≤x} une fonction mesurable, Xn une variable Fn -mesurable et
Un+1 une variable indépendante de Fn . On est donc dans le cadre de l’EF4 du cours
sur l’espérance conditionnelle, et donc
E(f (Xn , Un+1 ) | Fn ) = g(Xn ),
6
où
g(x) = E[f (x, Un+1 )] = E[1{0≤Un+1 ≤x} ] = P(Un+1 ≤ x) = x.
Finalement, en utilisant ce qui précède, à nouveau le fait que Xn est Fn -mesurable,
et la linéarité de l’espérance conditionnelle, on obtient
E[Xn+1 | Fn ] = E[θXn + (1 − θ)1{0≤Un+1 ≤Xn } | Fn ] = θXn + (1 − θ)Xn = Xn ,
de sorte que X est bien une (Fn )-martingale.
3. (0.5 pt) Montrer que X converge presque sûrement vers une variable aléatoire
intégrable qu’on notera X∞ .
|X| est bornée par la constante 1 d’après la première question, et donc elle est
bornée dans L1 , le théorème de convergence s’applique, et il mène exactement à la
conclusion souhaitée.
4. (0.5 pt) Montrer que cette convergence a également lieu dans L2 , et dans L1 .
|X| est bornée par la constante 1 donc elle est bornée dans L2 :
sup E[Xn2 ] ≤ 1,
n≥0
et le théorème de convergence des martingales bornées dans L2 s’applique donc, ce
qui mène à la conclusion souhaitée.
5. (1 pt) Expliquer pourquoi ceci entraı̂ne en particulier que lorsque n → ∞,
E[Xn ] → E[X∞ ],
2
E[Xn2 ] → E[X∞
],
E[(Xn+1 − Xn )2 ] → 0
Notons tout d’abord que tout simplement on pourrait voir ces trois limites comme
des conséquences immédiates de 3. et du théorème de convergence dominée, puisque
sup |Xn | ≤ 1,
n≥0
sup Xn2 ≤ 1
n≥0
sup |Xn+1 − Xn | ≤ 2
n≥0
De façon alternative, on propose ici une preuve plus générale qui ne fait appel qu’à
la définition des convergences L1 , L2 .
Par définition lorsque n → ∞,
E[|Xn − X∞ |] → 0,
E[(Xn − X∞ )2 ] → 0.
En utilisant la première limite ci-dessus on obtient
E[Xn ] = E[Xn − X∞ ] + E[X∞ ] → E[X∞ ]
D’autre part
2
E[Xn2 ] = E[X∞
] + 2E[X∞ (Xn − X∞ )] + E[(Xn − X∞ )2 ].
7
(1)
Le dernier terme de la somme ci-dessus tend vers 0 d’après (1). Quant au deuxième,
on utilise Cauchy-Schwarz pour obtenir que
2
]E[(Xn − X∞ )2 ],
(E[X∞ (Xn − X∞ )])2 ≤ E[X∞
qui tend donc vers 0, à nouveau en utilisant (1), ce qui entraı̂ne donc
2
].
E[Xn2 ] → E[X∞
Pour la dernière limite on fait un raisonnement similaire à celui de la question
précédente, en décomposant (Xn+1 − Xn )2 = ((Xn+1 − X∞ ) + (X∞ − Xn ))2 et en
majorant l’espérance du double produit grâce à Cauchy-Schwarz.
6. (1.5 pt) Montrer que pour tout n ≥ 0
E (Xn+1 − Xn )2 = (1 − θ)2 E [Xn (1 − Xn )] .
Notons que
Xn+1 − Xn = (1 − θ) 1{0≤Un+1 ≤Xn } − Xn ,
et donc
E (Xn+1 − Xn )2 = (1 − θ)2 E (1{0≤Un+1 ≤Xn } − Xn )2
= (1 − θ)2 E (1{0≤Un+1 ≤Xn } − 2E Xn 1{0≤Un+1 ≤Xn } + E[Xn2 ]
Or, en utilisant le raisonnement de la question 2,
E 1{0≤Un+1 ≤Xn } = E E 1{0≤Un+1 ≤Xn } | Fn
= E[Xn ],
et de même
E Xn 1{0≤Un+1 ≤Xn } = E E Xn 1{0≤Un+1 ≤Xn } | Fn
= E Xn E 1{0≤Un+1 ≤Xn } | Fn
= E[Xn2 ],
On obtient finalement
E (Xn+1 − Xn )2 = (1 − θ)2 E [Xn ] − 2E Xn2 + E[Xn2 ]
= (1 − θ)2 E[Xn − Xn2 ] = (1 − θ)2 E[Xn (1 − Xn )]
7. (1.5 pt) Déduire des questions précédentes que E [X∞ (1 − X∞ )] = 0, puis montrer
que p.s., X∞ ∈ {0, 1}.
En déduire la loi de X∞ .
8
D’après la question 5, on a d’une part
E (Xn+1 − Xn )2 → 0,
et d’autre part
2
] = E[X∞ (1 − X∞ )].
E[Xn (1 − Xn )] = E[Xn ] − E[Xn2 ] −→ E[X∞ ] − E[X∞
n→∞
En passant à la limite dans les membres de gauche et de droite de l’égalité obtenue
à la question 6, on déduit donc que
E[X∞ (1 − X∞ )] = 0.
Mais puisque 0 < Xn < 1 pour tout n, la limite presque sûre X∞ vérifie donc
0 ≤ X∞ ≤ 1 p.s., et donc X∞ (1 − X∞ ) ≥ 0 p.s.
L’espérance de cette variable p.s. positive est nulle, c’est donc que la variable
considérée est p.s. égale à 0. On obtient donc X∞ (1 − X∞ ) = 0 p.s, i.e. X∞ ∈ {0, 1}
p.s.
On a donc trouvé que X∞ suit une loi de Bernoulli. Pour déterminer cette loi il ne
reste plus qu’à trouver le paramètre. Mais d’après la question 5, et une propriété de
martingale,
p = E[X0 ] = E[Xn ] → E[X∞ ],
ainsi E[X∞ ] = p, et on conclut donc que
X∞ ∼ Ber(p).
9

Documents pareils