Corrigé du DM pour le 26 avril 2010

Transcription

Corrigé du DM pour le 26 avril 2010
École des Mines de Douai — FI1A Mathématiques
Année 2009-2010
Corrigé du DM pour le 26 avril 2010
Problème
Ce problème consiste en la définition et l’étude de la notion d’espérance conditionnelle. On se limite dans ce problème aux variables aléatoires discrètes, sachant que la
notion d’espérance conditionnelle s’étend aux variables aléatoires non discrètes (y compris continues) au prix de quelques complications.
Soit X une variable aléatoire discrète dont les valeurs possibles sont notées xn (n ∈ N)
et A un événement de probabilité non nulle. On définit l’espérance conditionnelle de
X relativement à A par
E[X|A] =
∞
X
xn P ({X = xn }|A)
n=0
ceci n’ayant bien évidemment un sens qu’en cas de convergence de la série. Si X ne peut
prendre qu’un nombre fini de valeurs, on adapte évidemment cette notion en remplaçant
la série par une somme ordinaire.
1. Existence.
1.1 On suppose que tous les xn sont positifs ou nuls et que la variable aléatoire X
P
admet une espérance. Cela signifie que la série numérique un , où un = xn P (X = xn ),
est convergente.
Soit A un événement de probabilité non nulle. L’espérance conditionnelle E[X|A] est
P
par définition la somme de la série vn où vn = xn P ({X = xn }|A). Il s’agit donc de
prouver que cette nouvelle série est encore convergente.
On a :
1
xn P ({X = xn } ∩ A)
0 6 vn =
P (A)
avec P ({X = xn } ∩ A) 6 P (X = xn ) puisque {X = xn } ∩ A ⊂ {X = xn }. Ainsi,
0 6 vn 6
1
1
xn P (X = xn ) =
un .
P (A)
P (A)
| {z }
cste
P
Puisque la série
un est convergente et qu’il s’agit de séries à termes positifs, cette
P
majoration entraîne la convergence de la série vn , c’est-à-dire l’existence de l’espérance
conditionnelle E[X|A].
1.2 Soit X une variable aléatoire telle que
X(Ω) = {(−1)n n,
n ∈ N∗ }
et ∀n ∈ N∗ , P (X = (−1)n n) =
C
n2
où C est une constante réelle.
Pour que cette loi de probabilité soit bien définie, il est nécessaire et suffisant que
∀n ∈ N∗ ,
P (X = (−1)n n) > 0 et
∞
X
P (X = (−1)n n) = 1
n=1
1
Année 2009-2010
Mathématiques École des Mines de Douai — FI1A
c’est-à-dire que
C
> 0 et
n2
∗
∀n ∈ N ,
∞
X
C
= 1.
2
n=1 n
On doit donc avoir C > 0 et Cζ(2) = 1 (on remarque que la convergence de la série ne
pose pas de problème puisque c’est, à une constante près, la série de Riemann d’exposant
1
= π62 .
2), c’est-à-dire C = ζ(2)
X Montrons maintenant que X admet une espérance, c’est-à-dire que la série numérique
un , où un = (−1)n n P (X = (−1)n n), converge. Explicitons :
n>1
un = (−1)n n
6 1
6 (−1)n
.
=
π 2 n2
π2 n
P
La série un est une série alternée vérifiant les hypothèses du critère des séries alternées,
à savoir que (−1)n un > 0 et que la suite (|un |) décroît vers 0.
P
Par conséquent, un converge, c’est-à-dire que E[X] existe.
(♠) Remarque
Ce point est en fait discutable. La plupart des auteurs requièrent l’intégrabilité au sens
de Lebesgue de la variable aléatoire X. Dans ce contexte, cela signifierait la convergence
P
absolue de la série un , qui n’est évidemment pas vérifiée ici.
L’inconvénient de la semi-convergence employée ici est qu’elle est liée à l’ordre dans
lequel la sommation des termes est effectuée. Si ϕ est une bijection de N∗ dans luiP
même (servant à «mélanger» les indices), la convergence de la série un n’entraîne pas
P
P
nécessairement celle de la série uϕ(n) , sauf si la série un est absolument convergente.
On dit qu’une telle série est commutativement convergente.
De ce point de vue, il peut effectivement paraître étrange, intuitivement parlant,
que l’existence de la moyenne est conditionnée par l’ordre qu’on a choisi pour énumérer
les valeurs possibles de X !
Calculons maintenant l’espérance de X :
E[X] =
∞
X
un =
n=1
On se souvient que la série entière
sa somme S est donnée par
∀x ∈] − 1, 1[,
∞
6 X
(−1)n
.
π 2 n=1 n
(−1)n−1 n
x a pour rayon de convergence 1 et que
n
n>1
X
S(x) =
∞
X
(−1)n−1 n
x = ln(1 + x).
n
n=1
Montrons que cette formule reste encore valable pour x = 1, grâce à la proposition 18 du
chapitre 9 consacrée à l’étude d’un problème sur le cercle d’incertitude.
On sait, d’après ce qui précède, que la série entière précédente est convergente au
point z0 = 1 ; la fonction somme S de la série entière est donc bien définie sur ] − 1, 1].
D’après cette proposition 18 du chapitre 9, la fonction S est continue sur cet intervalle,
et en particulier à gauche en 1 :
∞
X
(−1)n−1
= S(1) = lim− S(x) = lim− ln(1 + x) = ln 2.
x→1
x→1
n
n=1
2
École des Mines de Douai — FI1A Mathématiques
Ainsi,
E[X] = −
Année 2009-2010
∞
6
6 X
(−1)n−1
= − 2 ln 2.
2
π n=1
n
π
1.3 Soit A l’événement A = {X > 0}. On peut écrire la partition suivante
A=
∞
[
({X > 0} ∩ {X = (−1)n n})
n=1
avec

∅
{X > 0} ∩ {X = (−1)n n} = 
si n est impair
{X = n} si n est pair.
La partition précédente s’écrit donc encore, si l’on omet les termes obtenus pour n impair
et en posant n = 2k pour les autres :
A=
∞
[
{X = 2k}.
k=1
Puisque c’est une partition de A, on a donc
P (A) =
∞
X
P (X = 2k) =
k=1
∞
∞
6 X
1
3 X
1
3 π2
=
=
π 2 k=1 (2k)2
2π 2 k=1 k 2
2π 2 6
1
= .
4
Si elle existe, l’espérance conditionnnelle E[X|A] est la somme de la série
∀n ∈ N,
P
un où
un = (−1)n n P (X = (−1)n n|A) .
Explicitons un pour déterminer in fine la nature de cette série :
un =
1
(−1)n nP ({X = (−1)n n} ∩ {X > 0})
P (A)
avec {X = (−1)n n} ∩ {X > 0} =


0
6 1
un =  1
n 2 2

P (A) π n

∅
si n est impair
{X = n} si n est pair
si n est impair
si n est pair
.
Ainsi, un = 0 si n est impair et sinon, en posant n = 2k (en tenant compte de
u2k =
1
P (A)
= 4) :
4×6 1
12 1
= 2 .
2
π 2k
π k
À constante près, on retrouve donc le terme général de la série harmonique, qui est
divergente. Ainsi, E[X|A] n’existe pas.
1.4 Supposons que |X| admette une espérance.
D’après un théorème de cours (chapitre
X
13 théorème 8), cela signifie que la série
un où
un = |xn | P (X = xn )
3
Année 2009-2010
Mathématiques École des Mines de Douai — FI1A
est convergente.
Soit A un événement de probabilité non nulle ; montrons que l’espérance conditionnelle
E[X|A] existe. Il s’agit donc de prouver que la série de terme général
vn = xn P ({X = xn }|A)
est convergente. Montrons qu’elle est absolument convergente, en écrivant
0 6 |vn | = |xn |
1
1
P ({X = xn } ∩ A)
=
|xn | P ({X = xn } ∩ A) 6
|xn | P (X = xn )
P (A)
P (A)
P (A)
puisque {X = xn } ∩ A ⊂ {X = xn }. Ainsi
0 6 |vn | 6
1
un .
P (A)
| {z }
cste
Puisque la série un est convergente, il en est de même de |vn |. Ainsi, la série
absolument convergente donc convergente, et E[X|A] existe.
P
P
P
vn est
2. Couple de variables. On considère cette fois deux variables aléatoires X et Y .
2.1 Supposons que X et Y sont indépendantes et que E[X] existe ; et soit y ∈ Y (Ω)
P
tel que P (Y = y) 6= 0. Par définition, E[X|{Y = y}] existe si et seulement si la série un
converge, lorsqu’on a posé
un = xn P ({X = xn }|{Y = y}).
Puisque X et Y sont indépendantes, les événements {X = xn } et {Y = y} sont eux-mêmes
indépendants, et on a clairement
un = xn P (X = xn )
qui est le terme général d’une série convergente dont la somme n’est autre que E[X].
Ainsi, E[X|{Y = y}] existe et vaut simplement E[X].
2.2 Pour y ∈ Y (Ω), l’espérance conditionnelle E[X|{Y = y}] a été définie à la question 1. Cette quantité, si elle existe, dépend de y, c’est-à-dire de la valeur prise par la
variable aléatoire Y , c’est donc une fonction de y.
Si la valeur de Y n’est plus fixée, on peut alors définir Z = E[X|Y ] comme la variable
aléatoire dont les valeurs possibles sont les espérances conditionnelles E[X|{Y = y}] pour
chaque y ∈ Y (Ω). Cette nouvelle variable aléatoire apparaît donc comme une fonction de
Y . Sa loi de probabilité est décrite par
Z(Ω) = {E[X|{Y = y}],
y ∈ Y (Ω)}
et, pour chaque z ∈ Z(Ω),
P (Z = z) =
X
P (Y = y).
y∈Y (Ω)
E[X|{Y =y}]=z
Autrement dit, on ajoute les probabilités d’apparition de chaque valeur y de Y telle que
Z = z pour cette valeur y. Dit encore autrement, Z est une fonction de Y : elle s’écrit
4
École des Mines de Douai — FI1A Mathématiques
Année 2009-2010
Z = g(Y ). On ajoute alors les probabilités d’apparition de chacun des antécédents de z
par la fonction g.
3. Quelques propriétés
3.1 Théorème de l’espérance itérée. On suppose que E[|X|] existe, c’est-à-dire que la
P
série un , où un = xn P (X = xn ), est absolument convergente, comme on l’a vu à la
question 1.4. Écrivons
Y (Ω) = {yk , k ∈ N} .
D’après cette même question 1.4, on sait que pour tout k ∈ N l’espérance conditionnelle
E[X|{Y = yk }] existe (la série qui la définit est absolument convergente).
Sous réserve d’existence et d’après la définition même de la variable aléatoire E[X|Y ]
ainsi que le théorème relatif à l’espérance d’une fonction d’une variable aléatoire (chapitre
13, théorème 8),
∞
X
E[E[X|Y ]] =
k=0
E[X|{Y = yk }] P (Y = yk ) .
{z
|
}
vk
Il s’agit donc, pour prouver l’existence de cette espérance, de prouver la convergence de
P
la série vk . Explicitons le terme général :
vk = E[X|{Y = yk }] P (Y = yk ) =
∞
X
!
xn P ({X = xn }|{Y = yk }) P (Y = yk )
n=0
=
=
∞
X
n=0
∞
X
n=0
xn P ({X = xn }|{Y = yk }) P (Y = yk )
xn P ({X = xn } ∩ {Y = yk }) .
|
{z
}
un,k
Pour k ∈ N fixé, on a, grâce à l’inclusion {X = xn } ∩ {Y = yk } ⊂ {X = xn },
|un,k | 6 |xn | P (X = xn ).
Puisque E[|X|] existe, ceX
majorant est le terme général d’une série convergente. Ainsi, la
série (à k fixé, toujours)
un,k est absolument convergente.
n>0
De la même façon, si on fixe cette fois n ∈ N, on a
|un,k | = |xn | P ({X = xn } ∩ {Y = yk }) 6 |xn | P (Y = yk ).
Comme |xn | est constant (vis-à-vis de k) et que la sérieX P (Y = yk ) est convergente
(sa somme vaut 1), on en déduit que la série numérique
un,k est elle aussi absolument
k>0
convergente.
P
Alors, d’après le théorème donné dans l’énoncé, la série vk est (absolument) convergente, c’est-à-dire que E[E[X|Y ]] existe. De plus, on peut permuter les deux symboles de
sommation :
P
E[E[X|Y ]] =
=
∞ X
∞
X
un,k
k=0 n=0
∞
∞
X
X
un,k
n=0 k=0
P ({X = xn }|{Y = yk })P (Y = yk ).
xn
n=0
=
∞ X
∞
X
k=0
5
Année 2009-2010
Mathématiques École des Mines de Douai — FI1A
On applique la formule des probabilités totales pour « réduire » la somme intérieure, les
événements {Y = yk } constituant bien une partition de l’univers :
E[E[X|Y ]] =
∞
X
xn P (X = xn ) = E[X].
n=0
3.2 Soit f une fonction continue par morceaux ; on suppose la variable aléatoire E[X|Y ]
bien définie. Alors, par définition et sous réserve d’existence, E[X f (Y )]|Y ] est une variable
aléatoire dont les valeurs possibles sont les espérances conditionnelles E[Xf (Y )|{Y = y}]
pour chaque y ∈ Y (Ω), c’est-à-dire les
∞
X
n=0
xn f (y) P ({X f (Y ) = xn f (y)}|{Y = y}) .
{z
|
}
wn
P
Il s’agit donc de prouver la convergence de la série wn . Explicitons la probabilité conditionnelle intervenant dans l’expression de wn : on a, en supposant l’événement {Y = y}
réalisé :
P ({X f (Y ) = xn f (y)}|{Y = y}) = P ({X f (y) = xn f (y)}|{Y = y})
=

1
P ({X
si f (y) = 0
= xn }|{Y = y}) sinon.
Alors, wn s’écrit
wn =

x
×0×1
si f (y) = 0
xn f (y) P ({X = xn }|{Y = y}) sinon
n
= xn f (y) P ({X = xn }|{Y = y} dans les deux cas.
On sait que f (y) est constant (vis-à-vis de n) et que la série xn P ({X = xn }|{Y = y})
est une série convergente dont la somme est E[X|{Y = y}]. Ainsi, l’espérance conditionnelle E[X f (Y )|{Y = y}] existe, c’est-à-dire que la variable aléatoire E[X f (Y )|Y ] est
bien définie, et on a de plus
P
E[X f (Y )|{Y = y}] =
∞
X
wn = f (y) E[X|{Y = y}].
n=0
Ainsi, les variables aléatoires E[X f (Y )|Y ] et f (Y ) E[X|Y ] prennent la même valeur
quel que soit y ∈ Y (Ω). Elles sont donc égales.
3.3 Soit g une fonction continue par morceaux et injective ; on suppose que la variable
aléatoire E[X|Y ] est bien définie. Si elle est bien définie, la variable aléatoire E[X|g(Y )]
a pour valeurs possibles les E[X|g(Y ) = g(y)] où y ∈ Y (Ω). En effet, les valeurs possibles
de g(Y ) sont les g(y) avec y ∈ Y (Ω).
Soit un tel y. On a, toujours sous réserve d’existence,
E[X|{g(Y ) = g(y)}] =
∞
X
n=0
6
xn P ({X = xn }|{g(Y ) = g(y)}) ;
|
{z
un
}
École des Mines de Douai — FI1A Mathématiques
Année 2009-2010
P
il s’agit donc de prouver que la série un est convergente et que sa somme vaut E[X|{Y =
y}]. On a
P ({X = xn } ∩ {g(Y ) = g(y)})
un = xn
.
P (g(Y ) = g(y))
Puisque g est injective, on a g(Y ) = g(y) =⇒ Y = y , l’implication réciproque étant
triviale. Autrement dit, les événements {g(Y ) = g(y)} et {Y = y} sont égaux. Alors
u n = xn
P ({X = xn } ∩ {Y = y})
= xn P ({X = xn }|{Y = y}).
P (Y = y)
Puisque E[X|{Y = y}] existe par hypothèse, ce qui précède est le terme général d’une
série convergente, et on a bien
∞
X
E[X|{g(Y ) = g(y)}] =
un = E[X|Y = y].
n=0
Finalement, les variables aléatoires E[X|g(Y )] et E[X|Y ] prennent la même valeur
quel que soit y ∈ Y (Ω), elles sont donc égales.
Donnons maintenant un exemple de fonction g (fatalement non injective) pour laquelle
cette égalité devient fausse. Ne cherchons pas loin et considérons la fonction nulle :
∀y ∈ R,
g(y) = 0.
Donnons-nous également une variable aléatoire X suivant la loi de Bernoulli B(1, p) (où
p ∈]0, 1[), et posons Y = X. On a
E[X|{g(Y ) = g(1)}] = E[X] = p
puisque l’événement {g(Y ) = g(1)} est l’événement certain. En revanche (en n’oubliant
pas que X = Y par définition),
E[X|{Y = 1}] = 0 × P ({X = 0}|{Y = 1}) +1 × P ({X = 1}|{Y = 1}) = 1.
|
{z
=0
}
|
{z
=1
}
Sur cet exemple, les deux espérances conditionnelles sont bien différentes.
4. Application Par hypothèse,
X(Ω) = N et ∀n ∈ N,
P (X = n) = e−λ
λn
.
n!
Un entier n étant fixé, calculons l’espérance conditionnelle E[Z|{X = n}]. Supposons
que l’événement {X = n} est réalisé : dans notre magasin sont entrés n clients potentiels.
Pour k ∈ {1, . . . , n}, notons Yk le nombre de journaux achetés par le k ème client. Le nombre
total de journaux vendus est donc Z = Y1 + · · · + Yn .
7
Année 2009-2010
Mathématiques École des Mines de Douai — FI1A
Remarque
Cette écriture n’est pas rigoureusement juste car Z ne dépend pas de n a priori. C’est
un abus puisqu’on a supposé l’événément {X = n} ; on devrait en toute rigueur parler
de la loi conditionnelle de Z.
Par hypothèse, Yk (Ω) = {0, . . . , N }. Si on suppose que les achats de ce clients sont
mutuellement indépendants et de même probabilité p ∈]0, 1[, alors la variable aléatoire
Yk indique le nombre de succès dans un schéma de Bernoulli comportant N épreuves : les
N journaux achetés ou non par ce client. Ainsi, d’après le cours, Yk suit la loi binomiale
B(N, p) et donc E[Yk ] = N p.
On a donc l’espérance conditionnelle, représentant le nombre moyen de journaux vendus avec l’hypothèse que n clients potentiels sont entrés :
E[Z|{X = n}] = E
" n
X
k=1
#
Yk =
n
X
k=1
E[Yk ] =
n
X
N p = nN p.
k=1
Comme n est la valeur prise par la variable aléatoire X, on en déduit que E[Z|X] = N p X.
Alors, d’après le théorème de l’espérance itérée démontré à la question 3.1, on a le
nombre moyen de journaux vendus :
E[Z] = E[E[Z|X]] = E[N p X] = N p E[X] = N pλ.
Remarque
Finalement, peu importe la loi de X, seule son espérance intervient !
8