Compléments autour de la notion d`indépendance
Transcription
Compléments autour de la notion d`indépendance
Compléments autour de la notion d’indépendance 1 Tribus engendrées Soit Ω un ensemble. On note P(Ω) l’ensemble des parties de Ω. Une tribu T est un sous-ensemble de P(Ω) contenant l’ensemble vide, stable par réunion et intersection dénombrable et par passage au complémentaire. Étant données deux tribus T1 et T2 , on vérifie aisément que leur intersection T1 ∩ T2 est également une tribu. Cette tribu est constituée de toutes les parties de T1 qui sont également dans T2 . De manière générale, l’intersection d’une famille quelconque de tribu (Ti )i∈I est une tribu. Étant donné P un sous ensemble quelconque de P(Ω) (c’est à dire que les éléments de P sont des parties de Ω) on note σ(P ) l’intersection de toutes les tribus qui contiennent P : \ σ(P ) := T. P ⊂T Par définition σ(P ) est la plus petite tribu contenant P , en particulier P ⊂ σ(P ). Si P = {Aj }j∈J on note aussi σ(Aj , j ∈ J ) pour σ(P ). Ainsi si A est une partie de Ω, on note σ(A) pour σ({A}) et on a 1 σ(A) = {∅, Ω, A, Ac } . La réunion T1 ∪ T2 de deux tribus n’est pas, en général, une tribu. Ces éléments sont les parties de Ω qui sont soit dans T1 soit dans T2 . On note T1 ∨ T2 := σ(T1 ∪ T2 ) la tribu engendrée par T1 ∪ T2 . On dit aussi que T1 ∨ T2 est la tribu engendrée par T1 et T2 . Notons que le "et" peut sembler trompeur car il s’agit en fait de la réunion et non de l’intersection de T1 et T2 . De manière générale, la tribu engendrée par une famille quelconque (T )i∈I de tribus est la tribu engendrée par la réunion des Ti : ! _ [ Ti := σ Ti . i∈I i∈I Soit X : Ω → E une application et T une tribu sur E. Le sous ensemble de P(Ω) formé des images réciproques d’éléments de T par X est une tribu 2 sur Ω. On la note σ(X) et on a ainsi par définition σ(X) := X −1 (A), A ∈ T . On dit aussi que σ(X) est la tribu engendrée par l’application X. C’est aussi 3 la tribu sur Ω la plus petite qui rende l’application X mesurable. Notons que si X est une application mesurable de (Ω, F) dans (E, T ) alors σ(X) est une sous-tribu de F. Exemple 1. Soit A ∈ F une partie mesurable de (Ω, F) ; on note 1A l’application indicatrice de A définie sur Ω et à valeurs 4 dans {0, 1} telle que 1A (ω) = 1 si ω ∈ A et 1A (ω) = 0 sinon. Cette application est mesurable lorsque {0, 1} est muni de la tribu P({0, 1}). Et on vérifie que σ(1A ) = σ(A) = {∅, Ω, A, Ac } . Ainsi la tribu engendrée par 1A coïncide avec la tribu engendrée par A. 1. vérifier le. 2. vérifier le aussi. 3. c’est évident non ? 4. Comme il est souvent utile de considérer des limites de combinaisons linéaires de fonction indicatrices il est en fait plus judicieux de les définir à valeurs dans R muni de la tribu Borélienne (qui lorsqu’elle est restreinte à {0, 1} redonne P({0, 1})). 1 Si on considère deux applications X : Ω → (E, T ) et Y : Ω → (E 0 , T 0 ) à valeurs dans des espaces mesurables (qui peuvent être distincts) on note σ(X, Y ) la tribu engendrée par σ(X) et σ(Y ). Ainsi par définition σ(X, Y ) := σ(X) ∨ σ(Y ) = σ (σ(X) ∪ σ(Y )) . On peut vérifier également que c’est la la plus petite tribu sur Ω qui rend les applications X et Y mesurables. L’ensemble produit E × E 0 est muni d’une tribu naturelle appelée tribu produit et notée T ⊗ T 0 qui est par définition la tribu engendrée par les applications coordonnées p : E × E 0 → E et p0 : E × E0 → E0 : T ⊗ T 0 := σ(p, p0 ). La tribu σ((X, Y )) engendrée par l’application produit (X, Y ) : Ω → (E × E 0 , T ⊗ T 0 ) coïncide ainsi 5 avec la tribu σ(X, Y ). De manière générale, étant donnée une famille quelconque d’applications (Xi )i∈I définies sur un même espace Ω et chacune à valeurs dans un espace mesurable (Ei , Ti ) (les Ei peuvent être distincts), on note σ(Xi , i ∈ I) la tribu engendrée par la famille (σ(Xi ))i∈I : _ σ(Xi , i ∈ I) := σ(Xi ). i∈I On dit aussi que σ(Xi , i ∈ I) est la tribu engendrée par les applications (Xi )i∈I . C’est naturellement la plus petite tribu sur Ω pour laquelle toutes les application Xi sont mesurables. C’est aussi la Q tribu engendrée par l’application produit (Xi )i∈I : Ω → ( i∈I Ei , ⊗i∈I Ti ) ; ainsi : σ(Xi , i ∈ I) = σ((Xi )i∈I ). 2 Indépendance La notion d’indépendance est une notion relative à une probabilité sur un ensemble mesurable. Fixons-nous donc (Ω, F, P) un espace de probabilité. On dit que deux évènements A, B ∈ F sont indépendants lorsque P(A ∩ B) = P(A)P(B). Cela signifie qu’en cas d’indépendance, et lorsque P(A) est non nulle, la probabilité conditionnelle de B sachant A est égale à la probabilité de B : P(B|A) = P(B). Lorsque A et B sont indépendants on a en fait un peu plus d’information que cela puisqu’il est aisé de vérifier que nécessairement A est aussi indépendant de B c et que Ac est indépendant de B. En fait n’importe quel évènement de σ(A) est indépendant de n’importe quel évènement de σ(B). Cela suggère la définition suivante de l’indépendance entre deux tribus. Définition 1. Deux sous-tribus T et T 0 de F sont indépendantes si tout évènement A ∈ T est indépendant de tout évènement B ∈ T 0 . C’est à dire : ∀A ∈ T , ∀B ∈ T 0 , P(A ∩ B) = P(A)P(B). 5. vérifier le également. 2 On dit qu’une famille quelconque (Ai )i∈I d’évènements est une famille d’évènements indépendants lorsque pour toute sous-famille finie J ⊂ I on a \ Y P Aj = P(Aj ). j∈J j∈J Encore une fois, on peut vérifier 6 que lorsque les (Ai ) sont indépendants on a en fait un peu plus. En effet pour toute sous-famille finie J ⊂ I et n’importe quel évènement Cj ∈ σ(Aj ) 7 on a \ Y P Cj = P(Cj ). j∈J j∈J Cela suggère la définition suivante d’une famille de tribus indépendantes. Définition 2. Soit (Ti )i∈I une famille quelconque de tribus. On dit que ces tribus sont indépendantes lorsque pour toute sous-famille finie J ⊂ I et tout évènement Cj ∈ Tj on a \ Y P Cj = P(Cj ). j∈J j∈J Reformulée différemment la définition affirme que (Ti )i∈I est une famille de tribu indépendantes si et seulement si toutes les familles (Ci )i∈I , où Ci ∈ Ti sont des familles d’évènements indépendants. La remarque précédant la définition indique simplement que les évènements (Ai )i∈I sont indépendants si et seulement si les tribus engendrées (σ(Ai ))i∈I sont indépendantes. Considérons maintenant une famille quelconque de variables aléatoires (Xi )i∈I à valeurs dans des espaces mesurables (Ei , Ti ), i ∈ I : Xi : (Ω, F) −→ (Ei , Ti ). Par définition, les variables aléatoires Xi sont indépendantes si pour toute famille finie J ⊂ I et tout Cj ∈ Tj (j ∈ J ) on a \ Y P {Xj ∈ Cj } = P(Xj ∈ Cj ). j∈J j∈J On vérifie donc immédiatement que les variables aléatoires Xi sont indépendantes si et seulement si les tribus σ(Xi ) sont indépendantes. Ainsi pour résumé, derrière la notion d’indépendance d’évènements et de variables aléatoires il y a la notion plus générale d’indépendance de tribus. Ce qui est agréable avec l’indépendance c’est que c’est une notion qui se "regroupe". On a en effet la proposition importante suivante qui découle du théorème de classe monotone. Proposition 1 (Regroupement). Soit (Ti )i∈I une famille de tribus indépendantes et (Ik )k∈K une partition 8 de I, alors (∨i∈Ik Ti )k∈K est une famille de tribus indépendantes. 6. le faire. 7. ainsi Cj est soit Aj soit Acj soit Ω ou encore ∅. 8. c’est à dire qu’on a la réunion disjointe suivante I = ∪k∈K Ik 3 Une conséquence de ce résultat est par exemple que si (X, Y, Z) sont trois variables aléatoires réelles indépendantes alors en particulier X est indépendante du couple (Y, Z). Plus généralement, on a aussi que si (Xn : Ω → En )n∈N est une suite de variables aléatoires indépendantes alors, pour toute partition (Ik )k∈K de N, ((Xn )n∈Ik , k ∈ K) est une famille (indexée par K) de variables aléatoires 9 indépendantes. Autrement dit on a l’indépendance de tout les paquets disjoints que l’on peut faire avec les (Xn )n∈N . De même, si (An )n∈N est une suite d’évènements indépendants alors pour toute partition (Ik )k∈K de N, la famille (σ(An , n ∈ Ik ))k∈K est une famille de tribus indépendantes. 3 Retour à l’exercice 2 de la feuille N◦ 2 Soit (Xn )n∈N une suite de variable de Bernoulli de paramètre p ∈]0, 1[, indépendantes définies sur un espace de probabilité (Ω, F, P). On définit les évènements An pour n ≥ 2 par An = {ω ∈ Ω, Xn (ω) 6= Xn−1 (ω)} = {Xn 6= Xn−1 }. Remarquons que par définition An ∈ σ(Xn−1 , Xn ) On a alors, en décomposant selon les différentes valeurs que peut prendre Xn 10 : P(An ∩ An+1 ) = P({Xn 6= Xn1 } ∩ {Xn+1 6= Xn } ∩ {Xn = 0}) + P({Xn 6= Xn1 } ∩ {Xn+1 6= Xn } ∩ {Xn = 1}) = P({Xn = 0} ∩ {Xn+1 = 1} ∩ {Xn−1 = 1}) + P({Xn = 1} ∩ {Xn+1 = 0} ∩ {Xn−1 = 0}) = (1 − p)p2 + p(1 − p)2 (par independance). D’autre part puisque le couple (Xn−1 , Xn ) à même loi que le couple (Xn , Xn+1 ) (cela découle du fait que les (Xn )n∈N sont indépendantes et identiquement distribuées) alors les évènements An et An+1 ont la même probabilité. On a ainsi en décomposant selon les valeurs que peut prendre Xn P(An )P(An+1 ) = P(An )2 = (P({Xn = 1} ∩ {Xn−1 = 0}) + P({Xn = 0} ∩ {Xn−1 = 1}))2 = (2p(p − 1))2 (par independance). Donc on obtient, P(An ∩ An+1 ) = P(An )P(An+1 ) ⇐⇒ (1 − p)p2 + p(1 − p)2 = (2p(p − 1))2 ⇐⇒ p + 1 − p = 4p(1 − p) ⇐⇒ p = 1/2. Maintenant si n1 < n2 sont deux entiers ≥ 2 non consécutifs alors n2 −1 est différent de n1 et donc, par la proposition de regroupement, les couples (Xn1 −1 , Xn1 ) et (Xn2 −1 , Xn2 ) sont indépendants. Puisque An1 ∈ σ(Xn1 −1 , Xn1 ) et An2 ∈ σ(Xn2 −1 , Xn2 ) il en découle que An1 et An2 sont indépendants 11 . On déduit donc de ce qui précède que les évènements An sont indépendants deux à deux si et seulement si p = 1/2. Maintenant si les An sont indépendants (sous-entendus "dans leur ensemble") alors en particulier il s le sont deux à deux. Donc nécessairement p = 1/2. Q 9. chacune à valeurs dans un n∈Ik En . 10. Ω = {Xn = 1} ∪ {Xn = 0} 11. ici c’est vrai pour n’importe quel p. 4 Réciproquement, si p = 1/2 montrons que (An )n≥2 est une famille d’évènements indépendants. Nous proposons deux méthodes. 1ère méthode. Soit J une partie finie de N \ {0, 1}. Nous devons montrer que ! Y \ P P(Ai ). Ai = i∈J i∈J Considérons la plus petite 12 partition (Ji )i=1...N de J dont chaque partie Ji est constituée d’entiers consécutifs. On suppose que cette partition est indexée de sorte que les entiers de Ji−1 sont plus petits que ceux de Ji . Ainsi, pour i = 2, . . . , N on a que 13 min(Ji ) n’est pas consécutif à max(Ji−1 ). Cela veut dire que min(Ji ) − 1 6= max(Ji−1 ) et puisque ∩n∈Ji An ∈ σ(Xmin(Ji )−1 , Xn , n ∈ Ji ) on a donc que la famille (∩n∈Ji An )i=1,...,N est une famille d’évènements indépendants. Donc ! N \ Y \ P Ai = P An . i=1 i∈J n∈Ji Il ne reste donc plus qu’à vérifier que pour une suite finie d’entiers consécutifs, {n + 1, . . . , n + m} on a bien ! m m \ Y An+k = P(An+k ). P k=1 k=1 C’est à dire a-t-on, puisque p = 1/2 et donc que P(An+k ) = 1/2 : ! m \ 1 m ? . P An+k = 2 k=1 En décomposant suivant les valeurs de Xn et en utilisant l’indépendance il vient ! ! ! m m m \ \ \ 1 si kpair 0 si k pair +P Xn+k = P An+k = P Xn+k = 0 sinon 1 sinon k=0 k=1 k=0 m+1 m+1 m 1 1 1 = + = 2 2 2 2ème méthode. On veut donc montrer que pour toute suite d’entiers 1 ≤ n1 < n2 < . . . < nk , k 1 P(An1 ∩ · · · ∩ Ank ) = . 2 On le montre par récurrence sur k. Si k = 1, l’identité est triviale car P(An ) = 1/2 pour tout n. Supposons que l’identité est vraie au rang k. Montrons qu’elle est vraie au rang k + 1. On a P(An1 ∩ . . . ∩ Ank+1 ) = P(An1 ∩ . . . ∩ Ank ∩ {Xnk+1 6= Xnk+1 +1 }) (1) = P(An1 ∩ . . . ∩ Ank ∩ {Xnk+1 = 0} ∩ {Xnk+1 +1 = 1}) + P(An1 ∩ . . . ∩ Ank ∩ {Xnk+1 = 1} ∩ {Xnk+1 +1 = 0}). Comme la suite (X` )`≥1 est indépendante, on a en particulier (par regroupement) que la tribu σ(X1 , . . . , Xnk+1 ) et la tribu σ(Xnk+1 +1 ) sont indépendantes (Ceci veut donc dire que tout évènement de la tribu σ(X1 , . . . , Xnk+1 ) et tout évènement de la tribu σ(Xnk+1 +1 ) sont indépendants). Or 12. c’est dire que N est minimal 13. pourquoi ? 5 l’évènement An1 ∩ . . . ∩ Ank ∩ {Xnk+1 = 0} appartient à σ(X1 , . . . , Xnk+1 ) tandis que {Xnk+1 +1 = 1} ∈ σ(Xnk+1 +1 ). Ainsi P(An1 ∩ . . . ∩ Ank ∩ {Xnk+1 = 0} ∩ {Xnk+1 +1 = 1}) = P(An1 ∩ . . . ∩ Ank ∩ {Xnk+1 = 0})P(Xnk+1 +1 = 1) 1 = P(An1 ∩ . . . ∩ Ank ∩ {Xnk+1 = 0}) . 2 De même, P(An1 ∩ . . . ∩ Ank ∩ {Xnk+1 = 1} ∩ {Xnk+1 +1 = 0}) = P(An1 ∩ . . . ∩ Ank ∩ {Xnk+1 = 1})P(Xnk+1 +1 = 0) 1 = P(An1 ∩ . . . ∩ Ank ∩ {Xnk+1 = 1}) . 2 Donc, en revenant à (1), on obtient 1 P(An1 ∩ . . . ∩ Ank+1 ) = P(An1 ∩ . . . ∩ Ank ∩ {Xnk+1 = 0}) + P(An1 ∩ . . . ∩ Ank ∩ {Xnk+1 = 1}) . 2 On remarque que P(An1 ∩ . . . ∩ Ank ∩ {Xnk+1 = 0}) + P(An1 ∩ . . . ∩ Ank ∩ {Xnk+1 = 1}) = P(An1 ∩ . . . ∩ Ank ). Donc, 1 P(An1 ∩ . . . ∩ Ank+1 ) = P(An1 ∩ . . . ∩ Ank ) . 2 Il suffit d’appliquer l’hypothèse de récurrence pour terminer la récurrence. 6