Exercises : Random Experiments, Sample Spaces and Probability
Transcription
Exercises : Random Experiments, Sample Spaces and Probability
CHAPITRE II NOTIONS DE PROBABILITES II.1. Un exemple : le poker Distribuer une main de poker (5 cartes sur 52) revient à tirer au hasard 5 cartes parmi 52. On appelle expérience aléatoire une telle expérience dont l’issue est soumise au hasard. Une main ainsi effectivement tirée au hasard est une réalisation de l’expérience, appelée une épreuve ou expérience élémentaire. Pour permettre l’analyse des mains distribuées on doit d’abord identifier l’ensemble des mains possibles. L’ensemble de tous les résultats possibles d’une expérience aléatoire est appelé ensemble fondamental de l’expérience aléatoire ou univers des possibles, ou espace des épreuves, (anglais : sample space), dénoté par Ω ou E ou S. Pour le poker c’est l’ensemble de toutes les mains possibles. Il s’agit bien entendu ici de l’ensemble de tous les sous-ensembles à 5 éléments d’un ensemble à 52 éléments. Le nombre d’épreuves possibles est alors donné par le coefficient binomial C552 (voir Ch. I), i.e. card E = C552 = 2 598 960. Un événement aléatoire A est représenté par un sous-ensemble, également noté A, de l’ensemble fondamental. Par exemple, l’événement aléatoire A = « la main est un brelan » est décrit par l’ensemble de toutes les mains contenant trois cartes de même hauteur et deux autres cartes de hauteurs différentes. Les opérations logiques sur les événements vont être des opérations (booléennes) sur les parties d’un ensemble. Par exemple, l’événement aléatoire Ac = « la main n’est pas un brelan » va être décrit par le complémentaire de A dans l’ensemble fondamental. Ceci indique pourquoi les notions de théorie des ensembles sont importantes. Pour attribuer une probabilité à l’événement A = « la main est un brelan » on fait l’hypothèse que chaque main à la même probabilité ! Ainsi pour chaque événement A, la probabilité de A doit être naturellement donnée par la somme de probabilités des mains qui constituent A, ce qui s’écrit : Probabilité (A) = card A/card E = nombre de cas favorable/ nombre de cas possibles Il y a 54912 mains qui sont un brelan. On peut ainsi calculer la probabilité d’avoir un brelan Probabilité (A = « la main est un brelan ») = 54 912/2 598 960 ≅ 0.0211. Dans cette approche axiomatique on a attribué a priori une probabilité pour chaque main de poker. Dans des expériences réelles avec des cartes ou des simulations numériques on observe que la fréquence d’apparition de A dans une longue série d’expérience converge vers cette probabilité. Plus précisément, on répète l’expérience aléatoire (indépendamment) N fois. La fréquence d’apparition d’un événement A est définie par : νN(A) = nombre de fois où A est réalisé/nombre total d’expériences Ici, on distribue, par exemple, 1 million de fois les cartes et on compte la fréquence des brelans. Dans la loi des grands nombres nous démontrerons que limN→∞νN(A) = Probabilité (A) pour la probabilité définie ci-dessus. Ceci pourrait constituer une définition de « type fréquentiste » de la probabilité de A. II.2. La définition du modèle probabiliste II.2.a. L’ensemble fondamental Dans une expérience aléatoire, on commence par recenser l’ensemble de tous les résultats possibles de l’expérience. Cet ensemble non vide noté E (ou quelquefois Ω ou S) est l’ensemble fondamental ou l’univers des possibles ; ses éléments ω sont appelés épreuves. L’ensemble fondamental E peut-être fini, dénombrable ou infini non-dénombrable. Exemples : 1. 2. 3. 4. 5. 6. 7. On jette un dé : E = {1,2,3,4,5,6}, card E = 6. On jette une pièce : E = {P, F}, card E = 2. On jette 3 dés : E = {(k1, k2, k3) : kj ∈ {1,2,3,4,5,6} pour j = 1,2,3} = {1,2,3,4,5,6}3, card E = 63 = 216. On jette 4 pièces : E = {P, F}4 = 24 = 16. On tire 5 cartes parmi 52 (Poker) : E = ensemble de toutes les parties à 5 éléments d’un ensemble à 52 éléments = ensemble de toutes les mains possibles, card E = C552 = 2 598 960. On tire k boules (sans remise) dans une urne qui en contient n ≥ k boules numérotées 1 à n. E = ensemble de toutes les parties à k éléments d’un ensemble à n éléments, card E = Ckn . On tire k boules (avec remise) dans une urne qui en contient n boules numérotées 1 à n. E = ensemble de toutes les tuples à k éléments d’un ensemble à n éléments, card E = nk. II.2.b. La notion d’événement Un événement aléatoire A est représenté par un sous-ensemble, également noté A, de l’ensemble fondamental. Un ω ∈ A est un résultat possible. Si ω est une épreuve et ω ∈ A on dit que l’ événement se réalise dans l’épreuve ω. L’ensemble vide ∅ est appelé événement impossible et l’ensemble fondamental E est un événement appelé événement certain. Exemples : 1. 2. On jette un dé. L’ événement «Le résultat est pair » est représenté par l’ensemble A = {2,4,6} Poker: L’ événement «La main est un full» est représenté par l’ensemble A ={{c1,c2,c3,c4,c5} ∈ E dont la main {c1,c2,c3,c4,c5} est un full} On utilise parfois simultanément le langage de la théorie des ensembles et celui des probabilités. Le dictionnaire suivant donne la correspondance entre les notions fréquemment utilisées. Théorie des ensembles A sous-ensemble A = ∅ ensemble vide A = E ensemble fondamental A⊂B A ∩ B intersection A ∪ B réunion Ac complémentaire de A A \ B différence A ∆ B différence symétrique A ∩ B = ∅ ensembles disjoints (Ai)i∈I partition de E Probabilités A événement A événement impossible E événement certain A entraîne B A et B, conjonction de A et B A ou B, au moins un de A et B Contraire de A A et contraire de B Exactement un événement de A ou B A et B sont des événements incompatibles (Ai)i∈I système complet d’événement Remarque (à éviter en première lecture) : Pour permettre l’analyse d’une expérience aléatoire on doit considérer a priori une classe A d’événements. Dans les cas élémentaires comme dans l’exemple du poker, cette classe A est la plupart du temps égale à l’ensemble de tous les sous-ensembles de E, notée ℘(E), i.e. tout sous-ensemble peut être considéré comme événement. En particulier, tout A à un élément, A = {ω}, est appelé événement élémentaire. Dans le cas général, cette classe A d’événements doit satisfaire les propriétés suivantes: Elle contient E et elle est stable par complémentation et par réunion dénombrable. Un tel A est appelé tribu sur l’ensemble fondamental E. Dans le cours présent nous ne discutons pas cette partie de la construction du modèle probabiliste. II.2.c. La notion de probabilité Cas discret (fini ou dénombrable) Si E est fini, de cardinal N , i.e. E = {ω1, ω2,.., ωN}, toute probabilité sur E est déterminée par la donnée de N nombres réels pi compris entre 0 et 1 et de somme 1 : p1 + p2 +…+pN = 1. En effet, si on pose pi = probabilité que ωi soit réalisé, il est clair que ces deux propriétés sont satisfaites et que l’on peut calculer la probabilité de tout événement A par la formule très simple P( A) = ∑ i:ωi ∈A pi On vérifie sur cette formule les propriétés fondamentales suivantes de P : 1. P(A) ∈ [0,1] 2. P(E) = 1 3. Si A et B sont des événements incompatibles, alors P(A ∪ B) = P(A) + P(B). Ces trois propriétés vont servir d’axiomes dans le cas général où E n’est pas fini. L’exemple fondateur de la théorie est le cas équiprobable (pour E fini) : tous les résultats possibles (i.e. tous les ωi ) ont la même probabilité pi = 1/N = 1/card E. C’est le cas d’une distribution uniforme discrète. Donc dans ce cas équiprobable la probabilité d’un événement A est donnée par : P(A) = card A/card E = nombre de cas favorable/ nombre de cas possible Exemple 1 : On jette un dé honnête. Donc l’ensemble fondamental est E = {1,2,3,4,5,6} et P({i}) = 1/6 pour i = 1,2,3,4,5,6. L’ événement «Le résultat est pair », donné par A = {2,4,6}, a pour probabilité P(A) = ½. Exemple 2: (Galilée, 1564-1642) On compte la somme des valeurs de trois dés jetés simultanément. Il y a six configurations différentes qui permettent d'obtenir 9 ou 10: • pour 9 : (6,2,1), (5,3,1), (5,2,2), (4,4,1), (4,3,2) et (3,3,3), • pour 10 : (6,3,1), (6,2,2), (5,4,1), (5,3,2), (4,4,2) et (4,3,3). Soit S la somme obtenue, peut-on en déduire que P(S=9) = P(S=10) ? On ne peut pas en déduire que P(S=9)=P(S=10) car les configurations ne sont pas équiprobables. Il faut tenir compte de l'ordre et donc des permutations possibles de chaque configuration. Ainsi (3,3,3) ne "compte qu'une fois" alors que (5,2,2) "compte triple" et (5,3,1) "compte six fois". On obtient ainsi: P(S=9) = 25/216 et P(S=10) = 27/216 Cas général L’ensemble fondamental E n’est plus supposé fini ou dénombrable. On ne définit pas la probabilité de chaque ω de E. On définit plutôt directement la probabilité de tous les événements. Ceci demande en général la construction d’une tribu A (voir Ch. II.2.b.). Définition : Une distribution de probabilité (une loi de probabilité, une mesure de probabilité) est une application P qui associe à tout événement A un nombre P(A), appelé probabilité de A. P doit satisfaire les axiomes suivants : A1 : P(A) ∈ [0,1] A2: P(E) = 1 A3: Si (Ai) sont des événements incompatibles deux à deux, i.e. Ai ∩ Aj = ∅ si i ≠ j, alors ∞ ∞ i =1 i =1 P(∪ Ai ) = ∑ P( Ai ) Nous appelons espace probabilisé tout couple (E, P) ou E est un ensemble fondamental et P est une distribution de probabilité sur E. Là aussi, si on veut être plus précis, il faut ajouter la tribu A, donc un espace probabilisé est le triplet (E, A, P). Un événement de probabilité 1 est dit presque sûr (en abrégé – p.s.). II.3. Propriétés d’une distribution de probabilité Dans la suite du cours nous allons adopter une approche axiomatique qui consiste à déduire des axiomes précédents les propriétés des distributions de probabilités. II.3.a. Propriétés élémentaires Donnons une liste de propriétés élémentaires d’une distribution de probabilité. Théorème : Soient (E, P) un espace probabilisé et A, B, (Ai) des événements quelconques. P satisfait les propriétés suivantes : 1. 0 ≤ P(A) ≤ 1 2. P(E) = 1 3. P(∅) = 0 4. Si A et B sont incompatibles, i.e. A ∩ B = ∅, alors P(A ∪ B) = P(A) + P(B) 5. P(Ac) = 1 - P(A) 6. Si A entraîne B, i.e. A ⊆ B, alors P(A) ≤ P(B) et P(B \ A) = P(B) - P(A) 7. P(A ∪ B) = P(A) + P(B) - P(A ∩ B), et par conséquent P(A ∪ B) ≤ P(A) + P(B) ∞ ∞ i =1 i =1 8. Soit (Ai)i∈ IN une suite d’événements, alors P(∪ Ai ) ≤ ∑ P( Ai ) (inégalité de Boole) ∞ 9. Soit (Ai)i∈ IN une suite croissante, i.e. Ai ⊆ Ai+1, alors limi→∞ P( Ai ) = P(∪ Ai ) . i =1 ∞ 10. Soit (Ai)i∈ IN , une suite décroissante i.e. Ai ⊇ Ai+1, alors limi→∞ P( Ai ) = P(∩ Ai ) . i =1 II.3.b. Probabilités de réunions d’ensembles : Règle d’inclusion-exclusion La règle d’inclusion-exclusion s’applique à une suite (Ai) 1 ≤ i ≤ N d’événements pour lesquels on connaît a priori les probabilités des conjonctions d’événements. On peut ainsi calculer la probabilité de A = A1 ∪ A2 ∪ ... ∪ AN ,i.e. la probabilité que « au moins l’un des Ai est réalisé » . Théorème (Formule d’inclusion-exclusion) : Soient (E, P) un espace probabilisé et (Ai) 1 ≤ i ≤ N une suite d’événements. Alors, la formule d’inclusion-exclusion s’écrit : 1. dans le cas de deux événements P(A1 ∪ A2) = P(A1) + P(A2) - P(A1 ∩ A2) 2. dans le cas de trois événements P(A1 ∪ A2 ∪ A3) = P(A1) + P(A2) + P(A3) - P(A1 ∩ A2) - P(A1 ∩ A3) - P(A2 ∩ A3) + P(A1 ∩ A2 ∩ A3) 3. dans le cas général N N P ∪ Ai = ∑ P ( Ai ) − ∑ P ( Ai1 ∩ Ai2 ) + ∑ P ( Ai1 ∩ Ai2 ∩ Ai3 ) + ... i1 <i2 i1 <i2 <i3 i =1 i =1 + ( −1) k +1 + ( −1) ∑ i1 <i2 <...<ik N +1 P ( Ai1 ∩ Ai2 ∩ ... ∩ Aik ) + ... P ( Ai1 ∩ Ai2 ∩ ... ∩ Ain ) Remarque : Dans la 1ere somme il y a N termes, dans la 2ème il y a N⋅(N-1)/2 = CN2 termes. En général il y a CNk termes dans la kème somme. Exemples : 1. On jette 3 dés honnêtes. Quelle est la probabilité d’avoir au moins un 6? La formule d’inclusion-exclusion permet de répondre à cette question mais n’est pas la méthode la plus rapide. Soit A1 l’événement que le premier dé est un six, A2 l’événement que le deuxième dé est un six et A3 l’événement que le troisième dé est un six. Alors A = A1 ∪ A2 ∪ A3 est l’événement qu’au moins l’un des dés est un six. Nous appliquons la formule d’inclusion-exclusion. D’abord on calcule les probabilités des conjonctions d’événements. On trouve P(Ai) = 1/6 pour i = 1,2,3 P(Ai ∩ Aj) = 1/36 = P(Ai) ⋅P(Aj) si i ≠ j P(A1 ∩ A2 ∩ A3) = 1/216 = P(A1) ⋅P(A2) ⋅P(A3). Alors P(A) = 91/216. En fait, la méthode la plus rapide pour répondre à la question posée est de passer au complémentaire : L’événement de n’avoir aucun six lorsqu’on jette trois dés est donné par Ac = A1c ∩ A2c ∩ A3c (par la formule de de Morgan) et P(Ac) = P(A1c) ⋅ P(A2c) ⋅ P(A3c). Avec P(Aic) = 5/6 on obtient P(Ac) = 125/216 donc P(A) = 91/216. 2. Quelle est la probabilité pour qu’une main de bridge ait au moins une coupe, i.e. une couleur absente ? Dans cet exemple la règle inclusion-exclusion est la bonne méthode pour répondre à la question posée. Soit Ai l'événement "la couleur i est absente" où i prend des valeurs dans {♣, ♠, ♥, ♦}. L'événement "au moins une couleur est absente" est donné par la réunion des toutes les Ai. On applique le principe d'inclusion-exclusion à la réunion A de quatre événements Ai. Pour chaque i il y a C1339 possibilités de choisir une main sans la couleur i. Quand il y a C1352 mains possibles la probabilité de chaque Ai est P(Ai) = C1339/C1352. Pour chaque (i,j), i≠j il y a C1326 possibilités de choisir une main sans les couleurs i et j. La probabilité de chaque intersection Ai ∩ Aj est alors P(Ai ∩ Aj) = C1326/C1352. Pour chaque (i,j,k), i≠j, i≠k et j≠k, il y a C1313 possibilités de choisir une main sans les couleurs i, j et k (i.e il y a seulement la quatrième couleur). La probabilité de chaque intersection Ai ∩ Aj ∩ Ak est alors P(Ai ∩ Aj ∩ Ak) = C1313/C1352. L'intersection de 4 événements Ai a probabilité 0 (chaque main a toujours au moins une couleur). En appliquant la formule d’inclusion-exclusion pour N = 4 on trouve P(A1 ∪ A2 ∪ A3 ∪ A4) = 4·P(A1) - 6·P(A1 ∩ A2) + 4·P(A1 ∩ A2 ∩ A3). La probabilité cherchée est donc 1 621 364 909/31 750 677 980= 0.05106552087. Finalement nous présentons deux raisonnements faux mais souvent utilisés dans ce type de problème : a. Quand on n’a plus la propriété que P(Ac) = P(A1c) ⋅ P(A2c) ⋅ P(A3c) ⋅ P(A4c), on ne peut pas passer au complémentaire comme au problème précédent (les événements Ai ne sont pas indépendants, voir Ch. II.5.). On passe par le complémentaire comme suit : Ac est l’événement qu’il y a toutes les couleurs. Donc on choisit une carte de chaque couleur, ce qui donne 134 choix. Il reste C948 choix possibles pour les neuf cartes restantes. Alors, P(Ac) = 134 ·C948 /C1352 = 75.43121248 !!! b. On passe au calcul direct de P(A). On choisit d’abord la couleur absente ( quatre choix) puis il reste C1339 des mains possibles. Alors, P(A) = 4 ·C1339 /C1352 = 17063919/333515525 = 0.05116379215. Ce résultat ne coïncide pas avec le résultat obtenu par la formule d’inclusion-exclusion. Pourquoi ? 3. Le problème des rencontres ou des « matchings » - nombre de dérangements N hommes sont invités à une réception. Chacun donne son chapeau au vestiaire. Les chapeaux sont mélangés et à la fin de la réception chaque invité en choisit un au hasard. Quelle est la probabilité qu’aucun des hommes ne choisisse son propre chapeau ? Quelle est la probabilité que k des hommes exactement sélectionnent leur propre chapeau ? Du point de vue mathématique ce problème est équivalent au tirage d’une permutation aléatoire σ de l’ensemble {1,2,…,N}. Un point fixe d’une permutation σ = {σ(1),σ(2),…,σ(N)}est défini par la condition σ(i) = i. Une permutation sans point fixe, i.e. σ(i) ≠ i pour tout i ∈ {1,2,…,N} est appelé dérangement. Exemple : Trois permutations de {1,2,3,4,5,6} 2 4 1 6 3 5 1 2 3 4 5 6 un dérangement 2 3 6 1 5 4 1 2 3 4 5 6 un point fixe 4 2 1 3 5 6 1 2 3 4 5 6 trois points fixes L’ensemble fondamental E est l’ensemble de toutes les permutations de {1,2,…,N}, donc card E = N! . En faisant l’hypothèse d’équiprobabilité, la probabilité d’un événement A est donné par P(A) = card A/card E. Pour la première partie on calcul la probabilité du complémentaire qu’au moins un homme prenne son propre chapeau. Appelons Ai l’événement que le i-ème homme choisit son propre chapeau (i.e. σ(i) = i) . Donc A1 ∪ A2 ∪ ... ∪ AN est l’événement qu’au moins un homme choisisse son propre chapeau. Evidemment P(Ai) = 1/N. La probabilité que deux hommes, par exemple 1 et 2, choisisse leur propre chapeau est P(A1 ∩ A2) = (N - 2)!/N! car il y a (N - 2)! permutations pour les autres (N - 2) chapeaux. En généralisant cet argument on trouve que la probabilité de l’intersection de k événements, par exemple A1 ∩ A2 ∩ ... ∩ Ak , est donnée par P(A1 ∩ A2 ∩ ... ∩ Ak) = (N - k)!/N! Il y a CNk termes dans la kème somme de la formule d’inclusion-exclusion correspondants aux CNk combinaisons possible de k indices. Donc P(A1 ∪ A2 ∪ ... ∪ AN) = CN1⋅P(Ai) - CN2⋅P(A1 ∩ A2) +… +(-1)k+1⋅CNk⋅P(A1 ∩ A2 ∩ ... ∩ Ak) + … + (-1)N+1⋅CNN⋅P(A1 ∩ A2 ∩ ... ∩ AN), i.e. P(A1 ∪ A2 ∪ ... ∪ AN) = 1 – 1/2! +…+(-1)k+1/k! +…+(-1)N+1/N! On désigne par PN(k) la probabilité que k des hommes exactement sélectionnent leur propre chapeau. On a démontré que N PN (0) = ∑ ( −1) j j =0 1 . j! Il y a CNk possibilités que k des hommes exactement sélectionnent leur propre chapeau. Alors pour les autres (N - k) hommes il y a (N - k)!⋅ PN-k(0) possibilités qu’aucun de ces hommes ne choisisse son propre chapeau. Par conséquent PN(k) = PN-k(0)/k!, i.e. PN (k ) = N −k ∑ (−1) j =0 j 1 . j !k ! Notons que PN(0) → exp(-1) = e-1 lorsque N → ∞ (c’est la série exponentielle pour x = -1). Plus général pour chaque k fixe PN(k) → exp(-1)/k! En conclusion, nous avons démontré un théorème limite (voir Ch. V) pour la distribution de matchings: La distribution donnée par les PN(k) converge vers la distribution de Poisson de paramètre 1. Le chapitre suivant va traiter une conséquence important du modèle probabiliste pour étudier les lois des grands nombres. Il demande une bonne compréhension mathématique du modèle probabiliste. On le discute au Ch. V. seulement. II.3.c. * Suites infinies d’événements et lemme de Borel-Cantelli Des suites infinies d’événements jouent un rôle essentiel dans l’étude des théorèmes limites comme la loi des grands nombres. Limites de suites d’événements Soient (E, P) un espace probabilisé et (Ai) i∈ IN , ou bref (Ai), une suite infinie d’événements. L’événement ∪ i Ai est l’événement « au moins un des Ai est réalisé ». De même, ∩ i Ai est l’événement « tous les Ai sont réalisés ». Pour une suite croissante, i.e. Ai ⊆ Ai+1 pour tout i, la réunion ∪ i Ai est appelée limite de la suite et on écrit ∪ i Ai = limi→∞ Ai . De même, si la suite est décroissante, i.e. Ai ⊇ Ai+1 pour tout i, la conjonction de tous les Ai , appelée limite de la suite et on écrit ∩ i ∩ i Ai est également Ai = limi→∞ Ai . Limites inférieures et supérieures Pour une suite (Ai) d’événements quelconques on peut toujours définir la limite inférieure et la limite supérieure. Définition : La limite inférieure de la suite (Ai), noté A* = lim inf i→∞Ai , est l’ensemble de tous les éléments de E, qui appartient à tous les Ai sauf à un nombre fini d’entre eux. La limite supérieure de la suite (Ai), noté A* = lim supi→∞Ai , est l’ensemble de tous les éléments de E, qui appartient un nombre infini des Ai. A* est donc l’événement que tous les Ai sauf un nombre fini d’entre eux sont réalisés et A* est l événement qu’une infinité des Ai est réalisés. Evidemment, A* ⊆ A*. Lemme de Borel-Cantelli Soit (An)n≥1 une suite d’événements et posons A* = lim supn→∞ An . Si ∑n=1..∞ P(An) < ∞, alors P(A*) = 0. Autrement dit avec une probabilité égale à 1, au plus un nombre fini d’événements An se réalisent. II.4. Evénements indépendants II.4.a. Indépendance de deux événements Nous allons introduire la notion d’indépendance. Commençons par deux exemples où l’intuition de la notion d’indépendance est évidente. Exemples : 1. On jette 2 pièces honnêtes. Soient A = « la première donne pile » et B = « la seconde donne pile ». A et B sont indépendants. 2. On tire 2 cartes. Soient A = « la première donne pique » et B = « la seconde donne pique ». Si on tire sans remise A et B ne sont pas indépendants, si on tire avec remise A et B sont indépendants. Passons à la définition formelle. Définition : Soient (E, P) un espace probabilisé et A, B des événements. A et B sont indépendants si et seulement si : P(A ∩ B) = P(A)P(B) Il est très facile de vérifier que cette définition est compatible avec l’intuition donnée dans les exemples précédents. Passons des exemples moins intuitifs. Exemple 3 : Une famille a n enfants où n ≥ 2. Nous étudions les événements A = « la famille a des enfants des deux sexes » et B = « la famille a au plus une fille ». A et B sont deux événements indépendants si et seulement si n = 3! En effet, en faisant l’hypothèse d’équiprobabilité, on trouve P(A ∩ B) = n/2n, P(A) = 1 - 2/2n et P(B) = (n + 1)/2n. Exemple 4 : On jette deux dés. Considérons les événements A = « la somme est 7 », B = « le premier dé donne 4 » et C = « la différence est paire ». Ici l’ensemble fondamental est bien entendu E = {(k1, k2) : kj ∈ {1,2,3,4,5,6} pour j = 1,2} = {1,2,3,4,5,6}2. Les événements A, B et C sont les sous-ensembles de E donnés par A = {(1,6) , (2,5) , (3,4) , (4,3) , (5,2) , (6,1)}, B = {(4,6) , (4,5) , (4,4) , (4,3) , (4,2) , (4,1)} et C = {(1,1) , (1,3) , (1,5) , (2,2) , (2,4) , (2,6) ,…, (6,2) , (6,4), (6,6) }. Ainsi card(A) = 6, card(B) = 6 et card(C) = 18. En faisant l’hypothèse d’équiprobabilité, on calcule aisément P(A) = 1/6, P(B) = 1/6, P(C) = 1/2, P(A ∩ B) = 1/36, P(A ∩ C) = 0 et P(B ∩ C) = 1/12. A et B sont indépendants, A et C sont dépendants et B et C sont indépendants. On voit que la relation d’indépendance n’est pas transitive (A et B sont indépendants, B et C sont indépendants, mais A et C ne sont pas indépendants). II.4.b. Indépendance de plusieurs événements On prolonge la notion d’indépendance de deux événements au cas des suites d’événements. Soit (Ai) 1 ≤ i ≤ N une suite d’événements. Définition 1: On dit que les événements (Ai) 1 ≤ i ≤ N sont indépendants deux à deux si et seulement si, pour tout (i, j) et i ≠ j, Ai et Aj sont indépendants. L’exemple suivant montre que cette définition est trop faible pour prolonger la notion d’indépendance aux suites d’événements. Exemple 1: Considérons les anniversaires des trois personnes et les événements A = « 1 et 2 ont le même anniversaire », B = « 1 et 3 ont le même anniversaire » et C = « 2 et 3 ont le même anniversaire ». Evidemment P(A) = P(B) = P(C) = 1/365 et P(A ∩ B) = P(A ∩ C) = P(B ∩ C) = 1/365 ⋅ 1/365. Donc A, B, et C sont indépendants deux à deux. Par contre, si deux événements sont réalisés, par exemple A et B, le troisième événement C est sûrement réalisé, car les trois personnes ont toutes le même anniversaire. Par conséquent C n’est pas indépendant de la conjonction de A et B, i.e. P((A ∩ B) ∩ C) = 1/365 ⋅ 1/365 ≠ P(A ∩ B) ⋅P(C) = P(A) ⋅ P(B) ⋅P(C) = 1/365 ⋅ 1/365 ⋅ 1/365. Pour prolonger notre notion d’indépendance aux cas de trois événements on devra imposer une condition supplémentaire non comprise dans la définition de l’indépendance deux à deux, à savoir : P(A1 ∩ A2 ∩ A3) = P(A1) ⋅ P(A2) ⋅ P(A3). Pour une suite de N événements on a la définition suivante. Définition 2 : On dit que les événements (Ai) 1 ≤ i ≤ N sont indépendants (ou mutuellement indépendants) si et seulement si pour toute sous-suite d’événements distincts, on a : P( Ai1 ∩ Ai2 ∩ ... ∩ Aik ) = P( Ai1 ) ⋅ P( Ai2 ) ⋅ ... ⋅ P( Aik ) On a déjà vu que N (N > 2) événements peuvent être indépendants deux à deux sans être indépendants mutuellement. Si N événements sont mutuellement indépendants ils sont indépendants deux à deux. Remarque : Le nombre de conditions imposées dans la définition 2 est égal à : CN2 + CN3 +…+ CNN = 2N – CN1 – CN0 = 2N – N – 1. Proposition : Soit (Ai) 1 ≤ i ≤ N une suite d’événements mutuellement indépendants. 1. 2. Pour chaque i , 1 ≤ i ≤ N , posons Bi = Ai ou Bi = Aic. Alors (Bi) 1 ≤ i ≤ N est une suite d’événements mutuellement indépendants. Toute sous-famille de (Ai) 1 ≤ i ≤ N est constituée des événements mutuellement indépendants. II.4.c. Probabilité de réunions d’événements indépendants Soit (Ai) 1 ≤ i ≤ N une suite d’événements mutuellement indépendants. Il y a une formule simple pour calculer la probabilité de A1 ∪ A2 ∪ ... ∪ AN . Proposition : Soit (Ai) 1 ≤ i ≤ N une suite d’événements mutuellement indépendants. Alors P(A1 ∪ A2 ∪ ... ∪ AN) = 1 – [1 - P(A1)]⋅ [1 - P(A2)]⋅…⋅ [1 - P(AN)] Preuve: On passe au complémentaire de A1 ∪ A2 ∪ ... ∪ AN et on applique la règle de de Morgan ( ∪ Ai)c = ∩ Aic. Par la proposition du Ch. II.4.b. les événements Aic sont mutuellement indépendants. Donc P(A1 ∪ A2 ∪ ... ∪ AN) = 1 – P((A1 ∪ A2 ∪ ... ∪ AN)c) = 1 – P(A1c ∩ A2c ∩ ... ∩ ANc) = P(A1c) ⋅P(A2c) ⋅…⋅P(ANc). Exemple 1: On suppose que une personne est soumise N fois à un risque p d’accident où 0 < p < 1. Quelle est la probabilité d’avoir au moins un accident ? Pour répondre à cette question on pose Ai = « la ième expérience provoque un accident » et on suppose que les Ai sont mutuellement indépendants. Avec p = P(Ai) on a P(« au moins un accident ») = P(A1 ∪ A2 ∪ ... ∪ AN) = 1 – (1 – p)N. Si N →∞ et p est fixe cette probabilité tend vers 1. Si N →∞ et p → 0 où p est de l’ordre 1/N , i.e. p = λ/N pour un λ fixe, alors P(« au moins un accident ») → 1 – exp(-λ). Donc la probabilité qu’il n’arrive aucun accident est environ P(« pas d’accident ») ∼ exp(-λ) si N est très grand. II.5. Probabilités conditionnelles Dans de nombreuses applications les probabilités conditionnelles ou le conditionnement constituent un outil précieux pour calculer des probabilités inconnues à partir de probabilités données. II.5.a. Définition Définition : Soient (E, P) un espace probabilisé et A, B des événements quelconques tel que P(B) > 0. On note P(A|B) = P(A ∩ B) / P(B) la probabilité de A conditionnellement à B ou la probabilité de A sachant B. Les formules suivantes sont souvent très utiles pour calculer des probabilités d’intersections : P(A ∩ B) = P(A|B) ⋅P(B) P(A ∩ B) = P(B|A) ⋅P(A) Cette technique est appelée conditionnement. La généralisation de ces formules au cas des plusieurs événements est considérée dans le Ch. II.5.b. (théorème de multiplication ou conditionnement multiple) Des probabilités conditionnelles ont des propriétés suivantes : 1. Pour tout événement B fixe tel que P(B) > 0 la fonction d’ensembles A → P(A|B) satisfait les axiomes A1 – A3, i.e. P(A|B) est une distribution de probabilité sur E. 2. Si A et B sont des événements indépendants et P(B) > 0, alors P(A|B) = P(A). Exemple 1: On jette deux dés. Considérons les événements A = « la somme est 5 », B = « le premier dé donne 3 » et C = « le premier dé donne au moins 3 ». Calculer P(A|B) et P(A|C). On a P(A) = 4/36 = 1/9, P(B) = 1/6, P(A ∩ B) = P({3,2}) = 1/36, donc P(A|B) = 1/6. La probabilité conditionnelle de A sachant que B est réalisé a augmenté : P(A|B) > P(A). Avec P(A) = 4/36 = 1/9, P(C) = 4/6 = 2/3, P(A ∩ C) = P({3,2},{4,1}) = 2/36 = 1/18 on trouve P(A|C) = 1/12. La probabilité conditionnelle de A sachant que C est réalisé a diminué : P(A|C) < P(A). II.5.b. Conditionnement multiple Nous avons déjà vu que la probabilité de la conjonction des deux événements peut être calculée par le conditionnement sur un des événements. L’itération de cette technique est appelée conditionnement multiple. Théorème (théorème ou conditionnement multiple) : Soient (E, P) un espace probabilisé et (Ai) 1 ≤ i ≤ N une suite d’événements. Alors, la formule du conditionnement multiple s’écrit: 1. dans le cas de deux événements P(A1 ∩ A2) = P(A1) ⋅P(A2|A1) 2. dans le cas de trois événements P(A1 ∩ A2 ∩ A3) = P(A1) ⋅P(A2|A1) ⋅P(A3| A1 ∩ A2) 3. dans le cas général P(A1 ∩ A2 ∩ ... ∩ AN) = P(A1) ⋅P(A2|A1) ⋅ … ⋅P(AN| A1 ∩ A2∩ ... ∩ AN-1) si tous les événements A1 ∩ ... ∩ Ak ,1 ≤ k ≤ N – 1, sont de probabilité non nulle. Exemple 1: Considérons une urne contenant six boules blanches et quatre boules rouges. Quelle est la probabilité de la suite « blanc, blanc, rouge » si on tire les boules sans remise ? Pour répondre à cette question nous désignons les événements B1 = « la première boule est blanche », B2 = « la deuxième boule est blanche » et B3 = « la troisième boule est rouge ». Alors P(B1 ∩ B2 ∩ B3) = P(B1) ⋅P(B2|B1) ⋅P(B3| B1 ∩ B2) = 4/10·3/9·6/8 = 1/10. Remarquons qu’il faut conditionner dans le bon ordre. Par exemple, la formule P(B1 ∩ B2 ∩ B3) = P(B3) ⋅P(B2|B3) ⋅P(B1| B2 ∩ B3) est juste mais inutilisable. II.5.c. Formule des probabilités totales Soient (E, P) un espace probabilisé et A, B des événements quelconques. Les événements B et Bc forment un système complet d’événements et P(A) = P(A ∩ B) + P(A ∩ Bc) Si B et Bc sont de probabilité non nulle on peut utiliser des probabilités conditionnelles pour calculer les probabilités d’intersections. Donc P(A) = P(A|B) ⋅P(B) + P(A|Bc) ⋅P(Bc). Cette formule se généralise au cas d’un système complet d’événement Théorème (formule des probabilités totales) : Soient (E, P) un espace probabilisé et (Bi) 1 ≤ i ≤ N un système complet d’événements, tous de probabilité non nulle. Alors, pour tout événement A, on a: P(A) = P(A|B1) ⋅P(B1) + P(A|B2) ⋅P(B2) + … + P(A|BN) ⋅P(BN). Exemple 1: On dispose de deux pièces. L’une est honnête, l’autre a deux piles. On choisit une pièce au hasard et on la lance trois fois. Quelle est la probabilité d’obtenir trois piles? Pour résoudre ce problème on conditionne par la pièce choisie, i.e. on applique la formule des probabilités totales pour les événements A = « on tire trois piles », B1 = « la pièce est honnête» et B2 = « la pièce a deux piles». On a P(A) = P(A|B1) ⋅P(B1) + P(A|B2) ⋅P(B2) = 1/8·1/2 + 1·1/2 = 9/16. II.5.d. Formule de Bayes On continue la discussion de l’exemple précédent. Maintenant on pose la question inverse. Exemple 1: On dispose de deux pièces. L’une est honnête, l’autre a deux piles. On choisit une pièce au hasard et on la lance trois fois. Quelle est la probabilité que la pièce choisie est la pièce honnête si on a tiré trois piles ? Nous cherchons la probabilité P(B1|A). En utilisant la définition des probabilités conditionnelles deux fois on obtient P(B1|A) = P(A ∩ B1) / P(A) = P(A|B1) ⋅P(B1) / P(A) = P(A|B1) ⋅P(B1) / [P(A|B1) ⋅P(B1) + P(A|B2) ⋅P(B2)]. Donc P(B1|A) = 1/8·1/2 : 9/16 = 1/9. Théorème (formule de Bayes) : Soient (E, P) un espace probabilisé et (Bi) 1 ≤ i ≤ N un système complet d’événements, tous de probabilité non nulle. Alors, pour tout événement A de probabilité non nulle, on a, pour tout k, 1≤k≤N: P(Bk|A) = P(A|Bk) ⋅P(Bk) / [P(A|B1) ⋅P(B1) + P(A|B2) ⋅P(B2) + … + P(A|BN) ⋅P(BN)]. II.5.e. Exemples 1. Exemple élémentaire Une famille a deux enfants. a. On sait que l’aîné est un garçon. Quelle est la probabilité que le second soit un garçon ? Soit A1 l’événement que l’aîné est un garçon, A2 l’événement que le second est un garçon. Sous des hypothèses convenables A1 et A2 sont indépendants. Alors P(A2) = ½. b. On sait qu’un des enfants est un garçon. Quelle est la probabilité que l’autre soit un garçon ? On sait que A1 ∪ A2 , i.e. A1 ou A2, est réalisé. On veut donc calculer la probabilité de A1 ∩ A2 sachant A1 ∪ A2 . Alors P(A1 ∩ A2 | A1 ∪ A2) = P(A1 ∩ A2) : P(A1 ∪ A2) = ¼ : ¾ = 1/3. 2. Problème de tests Pour dépister une maladie, on applique un test. Si le patient est effectivement atteint, le test donne un résultat positif dans 96% des cas. Mais il se peut aussi que le résultat du test soit positif alors que le patient est en bonne santé, et ceci se produit dans 2% des cas. Sachant qu'en moyenne 0.05% des patients sont atteints de la maladie à dépister, calculer la probabilité pour qu'un patient soit atteint sachant que son test a été positif. Soit A l'événement: "le test est positif", B l'événement: "le patient est en bonne santé" et M = BC l'événement: "le patient est atteint de la maladie". Remarquons que: P(A|M) = 0.96 P(A|B) = 0.02 . et P(M) = 0.0005. Par la formule de Bayes P(M|A) = P(A|M)P(M)/ [P(A|M)P(M) + P(A|B)P(B)] = 0.96×0.0005/[0.96×0.0005+0.02×0.9995] = 0.023. Il est intéressant de constater que seul 2.3% des patients testés positifs sont effectivement malades. Pourtant le test semble avoir des caractéristiques techniques raisonnables. Comment comprendre un chiffre si bas ? 3. Loi de succession de Laplace On dispose de N + 1 urnes numérotées de 0 à N. L’urne numérotée « k » contient k boules blanches et N – k boules rouges. On choisit une urne au hasard de façon équiprobable, puis on tire n boules avec remise dans cette urne. a. Quelle est la probabilité que les n boules tirées soient blanches ? b. Quelle est la probabilité que le (n+1)-ième tirage donne encore une boule blanche sachant que les n premières boules tirées sont blanches ? On désigne les événements Bi = « l’urne choisie a le numéro i » pour tout i = 0…N et An = « les premières n boules tirées sont blanches ». Evidemment (Bi) 0 ≤ i ≤ N est un système complet d’événements et P(Bi) = 1/N+1. On connaît également les probabilités conditionnelles P(An|Bi) = (i/N)n. Par la formule des probabilités totales on a P(An) = P(An|B0) ⋅P(B0) + P(An|B1) ⋅P(B1) + … + P(An|BN) ⋅P(BN) = Σi=0,...,N (i/N)n/(N+1). P(An) est donc une somme de Riemann. Ainsi P(An) converge vers l’intégrale ∫[0,1] xn dx. lorsque N →∞, i.e. P(An) → 1/n+1. Pour le deuxième problème il faut calculer les probabilités conditionnelles P(An+1|An). La suite d’événements (An) est décroissante, i.e. An ⊇ An+1 pour tout n, alors P(An+1|An) = P(An+1) / P(An) → n+1/n+2 lorsque N →∞. 4. Monty Hall Pendant un concours à la télévision, le présentateur cache un prix (une voiture) derrière une porte (il y a 3 portes : A, B et C). Il invite un concurrent à se présenter et à choisir l'une des trois portes, sans l'ouvrir. Il ouvre ensuite l'une des deux portes qui n'ont pas été choisies par le concurrent, en sachant que la voiture ne se trouve pas derrière ; il offre alors au concurrent la possibilité de remplacer la porte qu'il avait choisie par l'autre qui reste fermée. Quelle est le meilleur choix pour le concurrent: est-ce que la probabilité de gagner en changeant de porte est plus grande que la probabilité de gagner sans changer de porte ? L'espace fondamental de cette expérience est Ω = {(XV, XC, XP)}, où XV = A,B ou C, XC = A,B ou C et XP = A,B ou C. Ici, XV représente la porte où se trouve la voiture, XC la porte choisie par le concurrent et XP la porte ouverte par le présentateur. Pour répondre à la question "est-ce que la probabilité de gagner en changeant de porte est plus grande que la probabilité de gagner sans changer de porte ?" il faut calculer la probabilité pour que le concurrent ait choisi une porte ne cachant pas la voiture, conditionnellement à l'événement "la voiture ne se trouve pas dans la porte choisie par le présentateur" c'est à dire: P({XV ≠ XC}| {XV ≠ XP}) Mais P({XV ≠ XP}) = 1, donc: P({XV ≠ XC}| {XV ≠ XP}) = P({XV ≠ XC}) = 6/9 = 2/3. La probabilité pour que le concurrent gagne en changeant de porte vaut donc 2/3, tandis que sa probabilité de gagner sans changer de porte n'est que de 1/3. Son meilleur choix est de changer de porte!