Compléments autour de la notion d`indépendance

Transcription

Compléments autour de la notion d`indépendance
Compléments autour de la notion d’indépendance
1
Tribus engendrées
Soit Ω un ensemble. On note P(Ω) l’ensemble des parties de Ω. Une tribu T est un sous-ensemble
de P(Ω) contenant l’ensemble vide, stable par réunion et intersection dénombrable et par passage au
complémentaire. Étant données deux tribus T1 et T2 , on vérifie aisément que leur intersection T1 ∩ T2
est également une tribu. Cette tribu est constituée de toutes les parties de T1 qui sont également dans
T2 . De manière générale, l’intersection d’une famille quelconque de tribu (Ti )i∈I est une tribu.
Étant donné P un sous ensemble quelconque de P(Ω) (c’est à dire que les éléments de P sont des
parties de Ω) on note σ(P ) l’intersection de toutes les tribus qui contiennent P :
\
σ(P ) :=
T.
P ⊂T
Par définition σ(P ) est la plus petite tribu contenant P , en particulier P ⊂ σ(P ). Si P = {Aj }j∈J
on note aussi σ(Aj , j ∈ J ) pour σ(P ). Ainsi si A est une partie de Ω, on note σ(A) pour σ({A}) et
on a 1
σ(A) = {∅, Ω, A, Ac } .
La réunion T1 ∪ T2 de deux tribus n’est pas, en général, une tribu. Ces éléments sont les parties de
Ω qui sont soit dans T1 soit dans T2 . On note T1 ∨ T2 := σ(T1 ∪ T2 ) la tribu engendrée par T1 ∪ T2 . On
dit aussi que T1 ∨ T2 est la tribu engendrée par T1 et T2 . Notons que le "et" peut sembler trompeur
car il s’agit en fait de la réunion et non de l’intersection de T1 et T2 . De manière générale, la tribu
engendrée par une famille quelconque (T )i∈I de tribus est la tribu engendrée par la réunion des Ti :
!
_
[
Ti := σ
Ti .
i∈I
i∈I
Soit X : Ω → E une application et T une tribu sur E. Le sous ensemble de P(Ω) formé des images
réciproques d’éléments de T par X est une tribu 2 sur Ω. On la note σ(X) et on a ainsi par définition
σ(X) := X −1 (A), A ∈ T .
On dit aussi que σ(X) est la tribu engendrée par l’application X. C’est aussi 3 la tribu sur Ω la
plus petite qui rende l’application X mesurable.
Notons que si X est une application mesurable de (Ω, F) dans (E, T ) alors σ(X) est une sous-tribu
de F.
Exemple 1. Soit A ∈ F une partie mesurable de (Ω, F) ; on note 1A l’application indicatrice de A
définie sur Ω et à valeurs 4 dans {0, 1} telle que 1A (ω) = 1 si ω ∈ A et 1A (ω) = 0 sinon. Cette
application est mesurable lorsque {0, 1} est muni de la tribu P({0, 1}). Et on vérifie que
σ(1A ) = σ(A) = {∅, Ω, A, Ac } .
Ainsi la tribu engendrée par 1A coïncide avec la tribu engendrée par A.
1. vérifier le.
2. vérifier le aussi.
3. c’est évident non ?
4. Comme il est souvent utile de considérer des limites de combinaisons linéaires de fonction indicatrices il est en
fait plus judicieux de les définir à valeurs dans R muni de la tribu Borélienne (qui lorsqu’elle est restreinte à {0, 1}
redonne P({0, 1})).
1
Si on considère deux applications X : Ω → (E, T ) et Y : Ω → (E 0 , T 0 ) à valeurs dans des espaces
mesurables (qui peuvent être distincts) on note σ(X, Y ) la tribu engendrée par σ(X) et σ(Y ). Ainsi
par définition
σ(X, Y ) := σ(X) ∨ σ(Y ) = σ (σ(X) ∪ σ(Y )) .
On peut vérifier également que c’est la la plus petite tribu sur Ω qui rend les applications X et Y
mesurables.
L’ensemble produit E × E 0 est muni d’une tribu naturelle appelée tribu produit et notée T ⊗ T 0
qui est par définition la tribu engendrée par les applications coordonnées p : E × E 0 → E et p0 :
E × E0 → E0 :
T ⊗ T 0 := σ(p, p0 ).
La tribu σ((X, Y )) engendrée par l’application produit (X, Y ) : Ω → (E × E 0 , T ⊗ T 0 ) coïncide ainsi 5
avec la tribu σ(X, Y ).
De manière générale, étant donnée une famille quelconque d’applications (Xi )i∈I définies sur un
même espace Ω et chacune à valeurs dans un espace mesurable (Ei , Ti ) (les Ei peuvent être distincts),
on note σ(Xi , i ∈ I) la tribu engendrée par la famille (σ(Xi ))i∈I :
_
σ(Xi , i ∈ I) :=
σ(Xi ).
i∈I
On dit aussi que σ(Xi , i ∈ I) est la tribu engendrée par les applications (Xi )i∈I . C’est naturellement la plus petite tribu sur Ω pour laquelle toutes les application
Xi sont mesurables. C’est aussi la
Q
tribu engendrée par l’application produit (Xi )i∈I : Ω → ( i∈I Ei , ⊗i∈I Ti ) ; ainsi :
σ(Xi , i ∈ I) = σ((Xi )i∈I ).
2
Indépendance
La notion d’indépendance est une notion relative à une probabilité sur un ensemble mesurable.
Fixons-nous donc (Ω, F, P) un espace de probabilité. On dit que deux évènements A, B ∈ F sont
indépendants lorsque
P(A ∩ B) = P(A)P(B).
Cela signifie qu’en cas d’indépendance, et lorsque P(A) est non nulle, la probabilité conditionnelle de
B sachant A est égale à la probabilité de B :
P(B|A) = P(B).
Lorsque A et B sont indépendants on a en fait un peu plus d’information que cela puisqu’il est aisé
de vérifier que nécessairement A est aussi indépendant de B c et que Ac est indépendant de B. En
fait n’importe quel évènement de σ(A) est indépendant de n’importe quel évènement de σ(B). Cela
suggère la définition suivante de l’indépendance entre deux tribus.
Définition 1. Deux sous-tribus T et T 0 de F sont indépendantes si tout évènement A ∈ T est
indépendant de tout évènement B ∈ T 0 . C’est à dire :
∀A ∈ T , ∀B ∈ T 0 ,
P(A ∩ B) = P(A)P(B).
5. vérifier le également.
2
On dit qu’une famille quelconque (Ai )i∈I d’évènements est une famille d’évènements indépendants
lorsque pour toute sous-famille finie J ⊂ I on a


\
Y
P
Aj  =
P(Aj ).
j∈J
j∈J
Encore une fois, on peut vérifier 6 que lorsque les (Ai ) sont indépendants on a en fait un peu plus. En
effet pour toute sous-famille finie J ⊂ I et n’importe quel évènement Cj ∈ σ(Aj ) 7 on a


\
Y
P
Cj  =
P(Cj ).
j∈J
j∈J
Cela suggère la définition suivante d’une famille de tribus indépendantes.
Définition 2. Soit (Ti )i∈I une famille quelconque de tribus. On dit que ces tribus sont indépendantes
lorsque pour toute sous-famille finie J ⊂ I et tout évènement Cj ∈ Tj on a


\
Y
P
Cj  =
P(Cj ).
j∈J
j∈J
Reformulée différemment la définition affirme que (Ti )i∈I est une famille de tribu indépendantes
si et seulement si toutes les familles (Ci )i∈I , où Ci ∈ Ti sont des familles d’évènements indépendants.
La remarque précédant la définition indique simplement que les évènements (Ai )i∈I sont indépendants si et seulement si les tribus engendrées (σ(Ai ))i∈I sont indépendantes.
Considérons maintenant une famille quelconque de variables aléatoires (Xi )i∈I à valeurs dans des
espaces mesurables (Ei , Ti ), i ∈ I :
Xi : (Ω, F) −→ (Ei , Ti ).
Par définition, les variables aléatoires Xi sont indépendantes si pour toute famille finie J ⊂ I et
tout Cj ∈ Tj (j ∈ J ) on a


\
Y
P
{Xj ∈ Cj } =
P(Xj ∈ Cj ).
j∈J
j∈J
On vérifie donc immédiatement que les variables aléatoires Xi sont indépendantes si et seulement si
les tribus σ(Xi ) sont indépendantes.
Ainsi pour résumé, derrière la notion d’indépendance d’évènements et de variables aléatoires il y
a la notion plus générale d’indépendance de tribus.
Ce qui est agréable avec l’indépendance c’est que c’est une notion qui se "regroupe". On a en effet
la proposition importante suivante qui découle du théorème de classe monotone.
Proposition 1 (Regroupement). Soit (Ti )i∈I une famille de tribus indépendantes et (Ik )k∈K une
partition 8 de I, alors (∨i∈Ik Ti )k∈K est une famille de tribus indépendantes.
6. le faire.
7. ainsi Cj est soit Aj soit Acj soit Ω ou encore ∅.
8. c’est à dire qu’on a la réunion disjointe suivante I = ∪k∈K Ik
3
Une conséquence de ce résultat est par exemple que si (X, Y, Z) sont trois variables aléatoires
réelles indépendantes alors en particulier X est indépendante du couple (Y, Z).
Plus généralement, on a aussi que si (Xn : Ω → En )n∈N est une suite de variables aléatoires
indépendantes alors, pour toute partition (Ik )k∈K de N, ((Xn )n∈Ik , k ∈ K) est une famille (indexée
par K) de variables aléatoires 9 indépendantes. Autrement dit on a l’indépendance de tout les paquets
disjoints que l’on peut faire avec les (Xn )n∈N .
De même, si (An )n∈N est une suite d’évènements indépendants alors pour toute partition (Ik )k∈K
de N, la famille (σ(An , n ∈ Ik ))k∈K est une famille de tribus indépendantes.
3
Retour à l’exercice 2 de la feuille N◦ 2
Soit (Xn )n∈N une suite de variable de Bernoulli de paramètre p ∈]0, 1[, indépendantes définies sur
un espace de probabilité (Ω, F, P).
On définit les évènements An pour n ≥ 2 par
An = {ω ∈ Ω, Xn (ω) 6= Xn−1 (ω)} = {Xn 6= Xn−1 }.
Remarquons que par définition An ∈ σ(Xn−1 , Xn )
On a alors, en décomposant selon les différentes valeurs que peut prendre Xn 10 :
P(An ∩ An+1 ) = P({Xn 6= Xn1 } ∩ {Xn+1 6= Xn } ∩ {Xn = 0}) + P({Xn 6= Xn1 } ∩ {Xn+1 6= Xn } ∩ {Xn = 1})
= P({Xn = 0} ∩ {Xn+1 = 1} ∩ {Xn−1 = 1}) + P({Xn = 1} ∩ {Xn+1 = 0} ∩ {Xn−1 = 0})
= (1 − p)p2 + p(1 − p)2 (par independance).
D’autre part puisque le couple (Xn−1 , Xn ) à même loi que le couple (Xn , Xn+1 ) (cela découle du fait
que les (Xn )n∈N sont indépendantes et identiquement distribuées) alors les évènements An et An+1
ont la même probabilité. On a ainsi en décomposant selon les valeurs que peut prendre Xn
P(An )P(An+1 ) = P(An )2
= (P({Xn = 1} ∩ {Xn−1 = 0}) + P({Xn = 0} ∩ {Xn−1 = 1}))2
= (2p(p − 1))2 (par independance).
Donc on obtient,
P(An ∩ An+1 ) = P(An )P(An+1 ) ⇐⇒ (1 − p)p2 + p(1 − p)2 = (2p(p − 1))2
⇐⇒ p + 1 − p = 4p(1 − p)
⇐⇒ p = 1/2.
Maintenant si n1 < n2 sont deux entiers ≥ 2 non consécutifs alors n2 −1 est différent de n1 et donc, par
la proposition de regroupement, les couples (Xn1 −1 , Xn1 ) et (Xn2 −1 , Xn2 ) sont indépendants. Puisque
An1 ∈ σ(Xn1 −1 , Xn1 ) et An2 ∈ σ(Xn2 −1 , Xn2 ) il en découle que An1 et An2 sont indépendants 11 .
On déduit donc de ce qui précède que les évènements An sont indépendants deux à deux si et
seulement si p = 1/2.
Maintenant si les An sont indépendants (sous-entendus "dans leur ensemble") alors en particulier
il s le sont deux à deux. Donc nécessairement p = 1/2.
Q
9. chacune à valeurs dans un n∈Ik En .
10. Ω = {Xn = 1} ∪ {Xn = 0}
11. ici c’est vrai pour n’importe quel p.
4
Réciproquement, si p = 1/2 montrons que (An )n≥2 est une famille d’évènements indépendants.
Nous proposons deux méthodes.
1ère méthode. Soit J une partie finie de N \ {0, 1}. Nous devons montrer que
!
Y
\
P
P(Ai ).
Ai =
i∈J
i∈J
Considérons la plus petite 12 partition (Ji )i=1...N de J dont chaque partie Ji est constituée d’entiers
consécutifs. On suppose que cette partition est indexée de sorte que les entiers de Ji−1 sont plus petits
que ceux de Ji . Ainsi, pour i = 2, . . . , N on a que 13 min(Ji ) n’est pas consécutif à max(Ji−1 ). Cela
veut dire que min(Ji ) − 1 6= max(Ji−1 ) et puisque ∩n∈Ji An ∈ σ(Xmin(Ji )−1 , Xn , n ∈ Ji ) on a donc
que la famille (∩n∈Ji An )i=1,...,N est une famille d’évènements indépendants. Donc


!
N
\
Y
\
P
Ai =
P
An  .
i=1
i∈J
n∈Ji
Il ne reste donc plus qu’à vérifier que pour une suite finie d’entiers consécutifs, {n + 1, . . . , n + m} on
a bien
!
m
m
\
Y
An+k =
P(An+k ).
P
k=1
k=1
C’est à dire a-t-on, puisque p = 1/2 et donc que P(An+k ) = 1/2 :
! m
\
1 m
?
.
P
An+k =
2
k=1
En décomposant suivant les valeurs de Xn et en utilisant l’indépendance il vient
!
!
!
m m
m \
\
\
1 si kpair
0 si k pair
+P
Xn+k =
P
An+k = P
Xn+k =
0 sinon
1 sinon
k=0
k=1
k=0
m+1 m+1 m
1
1
1
=
+
=
2
2
2
2ème méthode. On veut donc montrer que pour toute suite d’entiers 1 ≤ n1 < n2 < . . . < nk ,
k
1
P(An1 ∩ · · · ∩ Ank ) =
.
2
On le montre par récurrence sur k. Si k = 1, l’identité est triviale car P(An ) = 1/2 pour tout n.
Supposons que l’identité est vraie au rang k. Montrons qu’elle est vraie au rang k + 1. On a
P(An1 ∩ . . . ∩ Ank+1 ) = P(An1 ∩ . . . ∩ Ank ∩ {Xnk+1 6= Xnk+1 +1 })
(1)
= P(An1 ∩ . . . ∩ Ank ∩ {Xnk+1 = 0} ∩ {Xnk+1 +1 = 1})
+ P(An1 ∩ . . . ∩ Ank ∩ {Xnk+1 = 1} ∩ {Xnk+1 +1 = 0}).
Comme la suite (X` )`≥1 est indépendante, on a en particulier (par regroupement) que la tribu
σ(X1 , . . . , Xnk+1 ) et la tribu σ(Xnk+1 +1 ) sont indépendantes (Ceci veut donc dire que tout évènement de la tribu σ(X1 , . . . , Xnk+1 ) et tout évènement de la tribu σ(Xnk+1 +1 ) sont indépendants). Or
12. c’est dire que N est minimal
13. pourquoi ?
5
l’évènement An1 ∩ . . . ∩ Ank ∩ {Xnk+1 = 0} appartient à σ(X1 , . . . , Xnk+1 ) tandis que {Xnk+1 +1 =
1} ∈ σ(Xnk+1 +1 ). Ainsi
P(An1 ∩ . . . ∩ Ank ∩ {Xnk+1 = 0} ∩ {Xnk+1 +1 = 1}) = P(An1 ∩ . . . ∩ Ank ∩ {Xnk+1 = 0})P(Xnk+1 +1 = 1)
1
= P(An1 ∩ . . . ∩ Ank ∩ {Xnk+1 = 0}) .
2
De même,
P(An1 ∩ . . . ∩ Ank ∩ {Xnk+1 = 1} ∩ {Xnk+1 +1 = 0}) = P(An1 ∩ . . . ∩ Ank ∩ {Xnk+1 = 1})P(Xnk+1 +1 = 0)
1
= P(An1 ∩ . . . ∩ Ank ∩ {Xnk+1 = 1}) .
2
Donc, en revenant à (1), on obtient
1
P(An1 ∩ . . . ∩ Ank+1 ) = P(An1 ∩ . . . ∩ Ank ∩ {Xnk+1 = 0}) + P(An1 ∩ . . . ∩ Ank ∩ {Xnk+1 = 1}) .
2
On remarque que
P(An1 ∩ . . . ∩ Ank ∩ {Xnk+1 = 0}) + P(An1 ∩ . . . ∩ Ank ∩ {Xnk+1 = 1}) = P(An1 ∩ . . . ∩ Ank ).
Donc,
1
P(An1 ∩ . . . ∩ Ank+1 ) = P(An1 ∩ . . . ∩ Ank ) .
2
Il suffit d’appliquer l’hypothèse de récurrence pour terminer la récurrence.
6

Documents pareils