Exercises : Random Experiments, Sample Spaces and Probability

Transcription

Exercises : Random Experiments, Sample Spaces and Probability
CHAPITRE II
NOTIONS DE PROBABILITES
II.1. Un exemple : le poker
Distribuer une main de poker (5 cartes sur 52) revient à tirer au hasard 5 cartes parmi 52. On
appelle expérience aléatoire une telle expérience dont l’issue est soumise au hasard. Une
main ainsi effectivement tirée au hasard est une réalisation de l’expérience, appelée une
épreuve ou expérience élémentaire.
Pour permettre l’analyse des mains distribuées on doit d’abord identifier l’ensemble des
mains possibles.
L’ensemble de tous les résultats possibles d’une expérience aléatoire est appelé ensemble
fondamental de l’expérience aléatoire ou univers des possibles, ou espace des épreuves,
(anglais : sample space), dénoté par Ω ou E ou S. Pour le poker c’est l’ensemble de toutes les
mains possibles. Il s’agit bien entendu ici de l’ensemble de tous les sous-ensembles à 5
éléments d’un ensemble à 52 éléments. Le nombre d’épreuves possibles est alors donné par le
coefficient binomial C552 (voir Ch. I), i.e.
card E = C552 = 2 598 960.
Un événement aléatoire A est représenté par un sous-ensemble, également noté A, de
l’ensemble fondamental. Par exemple, l’événement aléatoire A = « la main est un brelan » est
décrit par l’ensemble de toutes les mains contenant trois cartes de même hauteur et deux
autres cartes de hauteurs différentes. Les opérations logiques sur les événements vont être des
opérations (booléennes) sur les parties d’un ensemble. Par exemple, l’événement aléatoire
Ac = « la main n’est pas un brelan » va être décrit par le complémentaire de A dans
l’ensemble fondamental. Ceci indique pourquoi les notions de théorie des ensembles sont
importantes.
Pour attribuer une probabilité à l’événement A = « la main est un brelan » on fait l’hypothèse
que chaque main à la même probabilité ! Ainsi pour chaque événement A, la probabilité de A
doit être naturellement donnée par la somme de probabilités des mains qui constituent A, ce
qui s’écrit :
Probabilité (A) = card A/card E = nombre de cas favorable/ nombre de cas possibles
Il y a 54912 mains qui sont un brelan. On peut ainsi calculer la probabilité d’avoir un brelan
Probabilité (A = « la main est un brelan ») = 54 912/2 598 960 ≅ 0.0211.
Dans cette approche axiomatique on a attribué a priori une probabilité pour chaque main de
poker. Dans des expériences réelles avec des cartes ou des simulations numériques on observe
que la fréquence d’apparition de A dans une longue série d’expérience converge vers cette
probabilité.
Plus précisément, on répète l’expérience aléatoire (indépendamment) N fois. La fréquence
d’apparition d’un événement A est définie par :
νN(A) = nombre de fois où A est réalisé/nombre total d’expériences
Ici, on distribue, par exemple, 1 million de fois les cartes et on compte la fréquence des
brelans. Dans la loi des grands nombres nous démontrerons que
limN→∞νN(A) = Probabilité (A)
pour la probabilité définie ci-dessus. Ceci pourrait constituer une définition de « type
fréquentiste » de la probabilité de A.
II.2. La définition du modèle probabiliste
II.2.a. L’ensemble fondamental
Dans une expérience aléatoire, on commence par recenser l’ensemble de tous les résultats
possibles de l’expérience. Cet ensemble non vide noté E (ou quelquefois Ω ou S) est
l’ensemble fondamental ou l’univers des possibles ; ses éléments ω sont appelés épreuves.
L’ensemble fondamental E peut-être fini, dénombrable ou infini non-dénombrable.
Exemples :
1.
2.
3.
4.
5.
6.
7.
On jette un dé : E = {1,2,3,4,5,6}, card E = 6.
On jette une pièce : E = {P, F}, card E = 2.
On jette 3 dés : E = {(k1, k2, k3) : kj ∈ {1,2,3,4,5,6} pour j = 1,2,3} =
{1,2,3,4,5,6}3, card E = 63 = 216.
On jette 4 pièces : E = {P, F}4 = 24 = 16.
On tire 5 cartes parmi 52 (Poker) : E = ensemble de toutes les parties à 5
éléments d’un ensemble à 52 éléments = ensemble de toutes les mains
possibles, card E = C552 = 2 598 960.
On tire k boules (sans remise) dans une urne qui en contient n ≥ k boules
numérotées 1 à n. E = ensemble de toutes les parties à k éléments d’un
ensemble à n éléments, card E = Ckn .
On tire k boules (avec remise) dans une urne qui en contient n boules
numérotées 1 à n. E = ensemble de toutes les tuples à k éléments d’un ensemble
à n éléments, card E = nk.
II.2.b. La notion d’événement
Un événement aléatoire A est représenté par un sous-ensemble, également noté A, de
l’ensemble fondamental. Un ω ∈ A est un résultat possible. Si ω est une épreuve et ω ∈ A on
dit que l’ événement se réalise dans l’épreuve ω. L’ensemble vide ∅ est appelé événement
impossible et l’ensemble fondamental E est un événement appelé événement certain.
Exemples :
1.
2.
On jette un dé. L’ événement «Le résultat est pair » est représenté par
l’ensemble A = {2,4,6}
Poker: L’ événement «La main est un full» est représenté par l’ensemble A
={{c1,c2,c3,c4,c5} ∈ E dont la main {c1,c2,c3,c4,c5} est un full}
On utilise parfois simultanément le langage de la théorie des ensembles et celui des
probabilités. Le dictionnaire suivant donne la correspondance entre les notions fréquemment
utilisées.
Théorie des ensembles
A sous-ensemble
A = ∅ ensemble vide
A = E ensemble fondamental
A⊂B
A ∩ B intersection
A ∪ B réunion
Ac complémentaire de A
A \ B différence
A ∆ B différence symétrique
A ∩ B = ∅ ensembles disjoints
(Ai)i∈I partition de E
Probabilités
A événement
A événement impossible
E événement certain
A entraîne B
A et B, conjonction de A et B
A ou B, au moins un de A et B
Contraire de A
A et contraire de B
Exactement un événement de A ou B
A et B sont des événements incompatibles
(Ai)i∈I système complet d’événement
Remarque (à éviter en première lecture) :
Pour permettre l’analyse d’une expérience aléatoire on doit considérer a priori une classe A
d’événements. Dans les cas élémentaires comme dans l’exemple du poker, cette classe A est
la plupart du temps égale à l’ensemble de tous les sous-ensembles de E, notée ℘(E), i.e. tout
sous-ensemble peut être considéré comme événement. En particulier, tout A à un élément, A =
{ω}, est appelé événement élémentaire. Dans le cas général, cette classe A d’événements doit
satisfaire les propriétés suivantes: Elle contient E et elle est stable par complémentation et par
réunion dénombrable. Un tel A est appelé tribu sur l’ensemble fondamental E. Dans le cours
présent nous ne discutons pas cette partie de la construction du modèle probabiliste.
II.2.c. La notion de probabilité
Cas discret (fini ou dénombrable)
Si E est fini, de cardinal N , i.e. E = {ω1, ω2,.., ωN}, toute probabilité sur E est déterminée par
la donnée de N nombres réels pi compris entre 0 et 1 et de somme 1 : p1 + p2 +…+pN = 1.
En effet, si on pose pi = probabilité que ωi soit réalisé, il est clair que ces deux propriétés sont
satisfaites et que l’on peut calculer la probabilité de tout événement A par la formule très
simple
P( A) =
∑
i:ωi ∈A
pi
On vérifie sur cette formule les propriétés fondamentales suivantes de P :
1. P(A) ∈ [0,1]
2. P(E) = 1
3. Si A et B sont des événements incompatibles, alors P(A ∪ B) = P(A) + P(B).
Ces trois propriétés vont servir d’axiomes dans le cas général où E n’est pas fini.
L’exemple fondateur de la théorie est le cas équiprobable (pour E fini) : tous les résultats
possibles (i.e. tous les ωi ) ont la même probabilité pi = 1/N = 1/card E. C’est le cas d’une
distribution uniforme discrète. Donc dans ce cas équiprobable la probabilité d’un événement
A est donnée par :
P(A) = card A/card E = nombre de cas favorable/ nombre de cas possible
Exemple 1 : On jette un dé honnête. Donc l’ensemble fondamental est E = {1,2,3,4,5,6} et
P({i}) = 1/6 pour i = 1,2,3,4,5,6. L’ événement «Le résultat est pair », donné par A = {2,4,6},
a pour probabilité P(A) = ½.
Exemple 2: (Galilée, 1564-1642)
On compte la somme des valeurs de trois dés jetés simultanément. Il y a six configurations
différentes qui permettent d'obtenir 9 ou 10:
•
pour 9 : (6,2,1), (5,3,1), (5,2,2), (4,4,1), (4,3,2) et (3,3,3),
•
pour 10 : (6,3,1), (6,2,2), (5,4,1), (5,3,2), (4,4,2) et (4,3,3).
Soit S la somme obtenue, peut-on en déduire que P(S=9) = P(S=10) ?
On ne peut pas en déduire que P(S=9)=P(S=10) car les configurations ne sont pas
équiprobables. Il faut tenir compte de l'ordre et donc des permutations possibles de chaque
configuration. Ainsi (3,3,3) ne "compte qu'une fois" alors que (5,2,2) "compte triple" et
(5,3,1) "compte six fois". On obtient ainsi: P(S=9) = 25/216 et P(S=10) = 27/216
Cas général
L’ensemble fondamental E n’est plus supposé fini ou dénombrable. On ne définit pas la
probabilité de chaque ω de E. On définit plutôt directement la probabilité de tous les
événements. Ceci demande en général la construction d’une tribu A (voir Ch. II.2.b.).
Définition : Une distribution de probabilité (une loi de probabilité, une mesure de
probabilité) est une application P qui associe à tout événement A un nombre P(A), appelé
probabilité de A. P doit satisfaire les axiomes suivants :
A1 : P(A) ∈ [0,1]
A2: P(E) = 1
A3: Si (Ai) sont des événements incompatibles deux à deux, i.e. Ai ∩ Aj = ∅ si i ≠ j, alors
∞
∞
i =1
i =1
P(∪ Ai ) = ∑ P( Ai )
Nous appelons espace probabilisé tout couple (E, P) ou E est un ensemble fondamental et P
est une distribution de probabilité sur E. Là aussi, si on veut être plus précis, il faut ajouter la
tribu A, donc un espace probabilisé est le triplet (E, A, P). Un événement de probabilité 1 est
dit presque sûr (en abrégé – p.s.).
II.3. Propriétés d’une distribution de probabilité
Dans la suite du cours nous allons adopter une approche axiomatique qui consiste à déduire
des axiomes précédents les propriétés des distributions de probabilités.
II.3.a. Propriétés élémentaires
Donnons une liste de propriétés élémentaires d’une distribution de probabilité.
Théorème : Soient (E, P) un espace probabilisé et A, B, (Ai) des événements quelconques. P
satisfait les propriétés suivantes :
1. 0 ≤ P(A) ≤ 1
2. P(E) = 1
3. P(∅) = 0
4. Si A et B sont incompatibles, i.e. A ∩ B = ∅, alors P(A ∪ B) = P(A) + P(B)
5. P(Ac) = 1 - P(A)
6. Si A entraîne B, i.e. A ⊆ B, alors P(A) ≤ P(B) et P(B \ A) = P(B) - P(A)
7. P(A ∪ B) = P(A) + P(B) - P(A ∩ B), et par conséquent P(A ∪ B) ≤ P(A) + P(B)
∞
∞
i =1
i =1
8. Soit (Ai)i∈ IN une suite d’événements, alors P(∪ Ai ) ≤ ∑ P( Ai ) (inégalité de Boole)
∞
9. Soit (Ai)i∈ IN une suite croissante, i.e. Ai ⊆ Ai+1, alors limi→∞ P( Ai ) = P(∪ Ai ) .
i =1
∞
10. Soit (Ai)i∈ IN , une suite décroissante i.e. Ai ⊇ Ai+1, alors limi→∞ P( Ai ) = P(∩ Ai ) .
i =1
II.3.b. Probabilités de réunions d’ensembles : Règle d’inclusion-exclusion
La règle d’inclusion-exclusion s’applique à une suite (Ai) 1 ≤ i ≤ N d’événements pour lesquels
on connaît a priori les probabilités des conjonctions d’événements. On peut ainsi calculer la
probabilité de A = A1 ∪ A2 ∪ ... ∪ AN ,i.e. la probabilité que « au moins l’un des Ai est
réalisé » .
Théorème (Formule d’inclusion-exclusion) :
Soient (E, P) un espace probabilisé et (Ai) 1 ≤ i ≤ N une suite d’événements. Alors, la formule
d’inclusion-exclusion s’écrit :
1. dans le cas de deux événements
P(A1 ∪ A2) = P(A1) + P(A2) - P(A1 ∩ A2)
2. dans le cas de trois événements
P(A1 ∪ A2 ∪ A3) =
P(A1) + P(A2) + P(A3)
- P(A1 ∩ A2) - P(A1 ∩ A3) - P(A2 ∩ A3)
+ P(A1 ∩ A2 ∩ A3)
3. dans le cas général
N  N
P  ∪ Ai  = ∑ P ( Ai ) − ∑ P ( Ai1 ∩ Ai2 ) + ∑ P ( Ai1 ∩ Ai2 ∩ Ai3 ) + ...
i1 <i2
i1 <i2 <i3
 i =1  i =1
+ ( −1)
k +1
+ ( −1)
∑
i1 <i2 <...<ik
N +1
P ( Ai1 ∩ Ai2 ∩ ... ∩ Aik ) + ...
P ( Ai1 ∩ Ai2 ∩ ... ∩ Ain )
Remarque : Dans la 1ere somme il y a N termes, dans la 2ème il y a N⋅(N-1)/2 = CN2 termes. En
général il y a CNk termes dans la kème somme.
Exemples :
1.
On jette 3 dés honnêtes. Quelle est la probabilité d’avoir au moins un 6?
La formule d’inclusion-exclusion permet de répondre à cette question mais n’est pas la
méthode la plus rapide.
Soit A1 l’événement que le premier dé est un six, A2 l’événement que le deuxième dé
est un six et A3 l’événement que le troisième dé est un six. Alors A = A1 ∪ A2 ∪ A3 est
l’événement qu’au moins l’un des dés est un six. Nous appliquons la formule
d’inclusion-exclusion. D’abord on calcule les probabilités des conjonctions
d’événements. On trouve
P(Ai) = 1/6 pour i = 1,2,3
P(Ai ∩ Aj) = 1/36 = P(Ai) ⋅P(Aj) si i ≠ j
P(A1 ∩ A2 ∩ A3) = 1/216 = P(A1) ⋅P(A2) ⋅P(A3).
Alors P(A) = 91/216.
En fait, la méthode la plus rapide pour répondre à la question posée est de passer au
complémentaire : L’événement de n’avoir aucun six lorsqu’on jette trois dés est donné
par Ac = A1c ∩ A2c ∩ A3c (par la formule de de Morgan) et P(Ac) = P(A1c) ⋅ P(A2c) ⋅
P(A3c). Avec P(Aic) = 5/6 on obtient P(Ac) = 125/216 donc P(A) = 91/216.
2.
Quelle est la probabilité pour qu’une main de bridge ait au moins une coupe, i.e.
une couleur absente ?
Dans cet exemple la règle inclusion-exclusion est la bonne méthode pour répondre à la
question posée.
Soit Ai l'événement "la couleur i est absente"
où i prend des valeurs dans {♣, ♠, ♥, ♦}. L'événement "au moins une couleur est
absente" est donné par la réunion des toutes les Ai.
On applique le principe d'inclusion-exclusion à la réunion A de quatre événements Ai.
Pour chaque i il y a C1339 possibilités de choisir une main sans la couleur i. Quand il y
a C1352 mains possibles la probabilité de chaque Ai est
P(Ai) = C1339/C1352.
Pour chaque (i,j), i≠j il y a C1326 possibilités de choisir une main sans les couleurs i et
j. La probabilité de chaque intersection Ai ∩ Aj est alors
P(Ai ∩ Aj) = C1326/C1352.
Pour chaque (i,j,k), i≠j, i≠k et j≠k, il y a C1313 possibilités de choisir une main sans les
couleurs i, j et k (i.e il y a seulement la quatrième couleur). La probabilité de chaque
intersection Ai ∩ Aj ∩ Ak est alors
P(Ai ∩ Aj ∩ Ak) = C1313/C1352.
L'intersection de 4 événements Ai a probabilité 0 (chaque main a toujours au moins
une couleur). En appliquant la formule d’inclusion-exclusion pour N = 4 on trouve
P(A1 ∪ A2 ∪ A3 ∪ A4) = 4·P(A1) - 6·P(A1 ∩ A2) + 4·P(A1 ∩ A2 ∩ A3).
La probabilité cherchée est donc 1 621 364 909/31 750 677 980= 0.05106552087.
Finalement nous présentons deux raisonnements faux mais souvent utilisés dans ce
type de problème :
a. Quand on n’a plus la propriété que P(Ac) = P(A1c) ⋅ P(A2c) ⋅ P(A3c) ⋅ P(A4c), on ne
peut pas passer au complémentaire comme au problème précédent (les événements Ai
ne sont pas indépendants, voir Ch. II.5.). On passe par le complémentaire comme suit :
Ac est l’événement qu’il y a toutes les couleurs. Donc on choisit une carte de chaque
couleur, ce qui donne 134 choix. Il reste C948 choix possibles pour les neuf cartes
restantes. Alors, P(Ac) = 134 ·C948 /C1352 = 75.43121248 !!!
b. On passe au calcul direct de P(A). On choisit d’abord la couleur absente ( quatre
choix) puis il reste C1339 des mains possibles. Alors, P(A) = 4 ·C1339 /C1352 =
17063919/333515525 = 0.05116379215. Ce résultat ne coïncide pas avec le résultat
obtenu par la formule d’inclusion-exclusion. Pourquoi ?
3.
Le problème des rencontres ou des « matchings » - nombre de dérangements
N hommes sont invités à une réception. Chacun donne son chapeau au vestiaire. Les
chapeaux sont mélangés et à la fin de la réception chaque invité en choisit un au
hasard. Quelle est la probabilité qu’aucun des hommes ne choisisse son propre
chapeau ? Quelle est la probabilité que k des hommes exactement sélectionnent leur
propre chapeau ?
Du point de vue mathématique ce problème est équivalent au tirage d’une permutation
aléatoire σ de l’ensemble {1,2,…,N}.
Un point fixe d’une permutation σ = {σ(1),σ(2),…,σ(N)}est défini par la condition
σ(i) = i. Une permutation sans point fixe, i.e. σ(i) ≠ i pour tout i ∈ {1,2,…,N} est
appelé dérangement.
Exemple : Trois permutations de {1,2,3,4,5,6}
2 4 1 6 3 5
1 2 3 4 5 6


un dérangement
2 3 6 1 5 4
1 2 3 4 5 6


un point fixe
4 2 1 3 5 6
1 2 3 4 5 6


trois points fixes
L’ensemble fondamental E est l’ensemble de toutes les permutations de {1,2,…,N},
donc card E = N! . En faisant l’hypothèse d’équiprobabilité, la probabilité d’un
événement A est donné par P(A) = card A/card E.
Pour la première partie on calcul la probabilité du complémentaire qu’au moins un
homme prenne son propre chapeau. Appelons Ai l’événement que le i-ème homme
choisit son propre chapeau (i.e. σ(i) = i) . Donc A1 ∪ A2 ∪ ... ∪ AN est l’événement
qu’au moins un homme choisisse son propre chapeau.
Evidemment P(Ai) = 1/N. La probabilité que deux hommes, par exemple 1 et 2,
choisisse leur propre chapeau est P(A1 ∩ A2) = (N - 2)!/N! car il y a (N - 2)!
permutations pour les autres (N - 2) chapeaux. En généralisant cet argument on trouve
que la probabilité de l’intersection de k événements, par exemple A1 ∩ A2 ∩ ... ∩ Ak ,
est donnée par
P(A1 ∩ A2 ∩ ... ∩ Ak) = (N - k)!/N!
Il y a CNk termes dans la kème somme de la formule d’inclusion-exclusion
correspondants aux CNk combinaisons possible de k indices. Donc
P(A1 ∪ A2 ∪ ... ∪ AN) =
CN1⋅P(Ai) - CN2⋅P(A1 ∩ A2) +… +(-1)k+1⋅CNk⋅P(A1 ∩ A2 ∩ ... ∩ Ak) + …
+ (-1)N+1⋅CNN⋅P(A1 ∩ A2 ∩ ... ∩ AN),
i.e.
P(A1 ∪ A2 ∪ ... ∪ AN) = 1 – 1/2! +…+(-1)k+1/k! +…+(-1)N+1/N!
On désigne par PN(k) la probabilité que k des hommes exactement sélectionnent leur
propre chapeau. On a démontré que
N
PN (0) = ∑ ( −1) j
j =0
1
.
j!
Il y a CNk possibilités que k des hommes exactement sélectionnent leur propre chapeau.
Alors pour les autres (N - k) hommes il y a (N - k)!⋅ PN-k(0) possibilités qu’aucun de
ces hommes ne choisisse son propre chapeau. Par conséquent
PN(k) = PN-k(0)/k!, i.e.
PN (k ) =
N −k
∑ (−1)
j =0
j
1
.
j !k !
Notons que PN(0) → exp(-1) = e-1 lorsque N → ∞ (c’est la série exponentielle pour x =
-1). Plus général pour chaque k fixe
PN(k) → exp(-1)/k!
En conclusion, nous avons démontré un théorème limite (voir Ch. V) pour la
distribution de matchings: La distribution donnée par les PN(k) converge vers la
distribution de Poisson de paramètre 1.
Le chapitre suivant va traiter une conséquence important du modèle probabiliste pour étudier
les lois des grands nombres. Il demande une bonne compréhension mathématique du modèle
probabiliste. On le discute au Ch. V. seulement.
II.3.c. * Suites infinies d’événements et lemme de Borel-Cantelli
Des suites infinies d’événements jouent un rôle essentiel dans l’étude des théorèmes limites
comme la loi des grands nombres.
Limites de suites d’événements
Soient (E, P) un espace probabilisé et (Ai) i∈ IN , ou bref (Ai), une suite infinie d’événements.
L’événement ∪ i Ai est l’événement « au moins un des Ai est réalisé ». De même, ∩ i Ai est
l’événement « tous les Ai sont réalisés ». Pour une suite croissante, i.e. Ai ⊆ Ai+1 pour tout i, la
réunion ∪ i Ai est appelée limite de la suite et on écrit ∪ i Ai = limi→∞ Ai . De même, si la suite
est décroissante, i.e. Ai ⊇ Ai+1 pour tout i, la conjonction de tous les Ai ,
appelée limite de la suite et on écrit
∩
i
∩
i
Ai est également
Ai = limi→∞ Ai .
Limites inférieures et supérieures
Pour une suite (Ai) d’événements quelconques on peut toujours définir la limite inférieure et la
limite supérieure.
Définition : La limite inférieure de la suite (Ai), noté A* = lim inf i→∞Ai , est l’ensemble de
tous les éléments de E, qui appartient à tous les Ai sauf à un nombre fini d’entre eux. La limite
supérieure de la suite (Ai), noté A* = lim supi→∞Ai , est l’ensemble de tous les éléments de E,
qui appartient un nombre infini des Ai.
A* est donc l’événement que tous les Ai sauf un nombre fini d’entre eux sont réalisés et A* est
l événement qu’une infinité des Ai est réalisés. Evidemment, A* ⊆ A*.
Lemme de Borel-Cantelli
Soit (An)n≥1 une suite d’événements et posons A* = lim supn→∞ An .
Si ∑n=1..∞ P(An) < ∞, alors P(A*) = 0. Autrement dit avec une probabilité égale à 1, au plus un
nombre fini d’événements An se réalisent.
II.4. Evénements indépendants
II.4.a. Indépendance de deux événements
Nous allons introduire la notion d’indépendance. Commençons par deux exemples où
l’intuition de la notion d’indépendance est évidente.
Exemples :
1. On jette 2 pièces honnêtes. Soient A = « la première donne pile » et B = « la
seconde donne pile ». A et B sont indépendants.
2. On tire 2 cartes. Soient A = « la première donne pique » et B = « la seconde donne
pique ». Si on tire sans remise A et B ne sont pas indépendants, si on tire avec
remise A et B sont indépendants.
Passons à la définition formelle.
Définition : Soient (E, P) un espace probabilisé et A, B des événements.
A et B sont indépendants si et seulement si :
P(A ∩ B) = P(A)P(B)
Il est très facile de vérifier que cette définition est compatible avec l’intuition donnée dans les
exemples précédents. Passons des exemples moins intuitifs.
Exemple 3 : Une famille a n enfants où n ≥ 2. Nous étudions les événements A = « la famille a
des enfants des deux sexes » et B = « la famille a au plus une fille ». A et B sont deux
événements indépendants si et seulement si n = 3! En effet, en faisant l’hypothèse
d’équiprobabilité, on trouve P(A ∩ B) = n/2n, P(A) = 1 - 2/2n et P(B) = (n + 1)/2n.
Exemple 4 : On jette deux dés. Considérons les événements A = « la somme est 7 »,
B = « le premier dé donne 4 » et C = « la différence est paire ». Ici l’ensemble fondamental
est bien entendu E = {(k1, k2) : kj ∈ {1,2,3,4,5,6} pour j = 1,2} = {1,2,3,4,5,6}2. Les
événements A, B et C sont les sous-ensembles de E donnés par
A = {(1,6) , (2,5) , (3,4) , (4,3) , (5,2) , (6,1)}, B = {(4,6) , (4,5) , (4,4) , (4,3) , (4,2) , (4,1)} et
C = {(1,1) , (1,3) , (1,5) , (2,2) , (2,4) , (2,6) ,…, (6,2) , (6,4), (6,6) }. Ainsi card(A) = 6,
card(B) = 6 et card(C) = 18. En faisant l’hypothèse d’équiprobabilité, on calcule aisément
P(A) = 1/6, P(B) = 1/6, P(C) = 1/2, P(A ∩ B) = 1/36, P(A ∩ C) = 0 et P(B ∩ C) = 1/12. A et
B sont indépendants, A et C sont dépendants et B et C sont indépendants. On voit que la
relation d’indépendance n’est pas transitive (A et B sont indépendants, B et C sont
indépendants, mais A et C ne sont pas indépendants).
II.4.b. Indépendance de plusieurs événements
On prolonge la notion d’indépendance de deux événements au cas des suites d’événements.
Soit (Ai) 1 ≤ i ≤ N une suite d’événements.
Définition 1: On dit que les événements (Ai) 1 ≤ i ≤ N sont indépendants deux à deux si et
seulement si, pour tout (i, j) et i ≠ j, Ai et Aj sont indépendants.
L’exemple suivant montre que cette définition est trop faible pour prolonger la notion
d’indépendance aux suites d’événements.
Exemple 1: Considérons les anniversaires des trois personnes et les événements A = « 1 et 2
ont le même anniversaire », B = « 1 et 3 ont le même anniversaire » et C = « 2 et 3 ont le
même anniversaire ». Evidemment P(A) = P(B) = P(C) = 1/365 et P(A ∩ B) = P(A ∩ C) =
P(B ∩ C) = 1/365 ⋅ 1/365. Donc A, B, et C sont indépendants deux à deux. Par contre, si deux
événements sont réalisés, par exemple A et B, le troisième événement C est sûrement réalisé,
car les trois personnes ont toutes le même anniversaire. Par conséquent C n’est pas
indépendant de la conjonction de A et B, i.e.
P((A ∩ B) ∩ C) = 1/365 ⋅ 1/365 ≠ P(A ∩ B) ⋅P(C) = P(A) ⋅ P(B) ⋅P(C) = 1/365 ⋅ 1/365 ⋅ 1/365.
Pour prolonger notre notion d’indépendance aux cas de trois événements on devra imposer
une condition supplémentaire non comprise dans la définition de l’indépendance deux à
deux, à savoir :
P(A1 ∩ A2 ∩ A3) = P(A1) ⋅ P(A2) ⋅ P(A3).
Pour une suite de N événements on a la définition suivante.
Définition 2 : On dit que les événements (Ai) 1 ≤ i ≤ N sont indépendants (ou mutuellement
indépendants) si et seulement si pour toute sous-suite d’événements distincts, on a :
P( Ai1 ∩ Ai2 ∩ ... ∩ Aik ) = P( Ai1 ) ⋅ P( Ai2 ) ⋅ ... ⋅ P( Aik )
On a déjà vu que N (N > 2) événements peuvent être indépendants deux à deux sans être
indépendants mutuellement. Si N événements sont mutuellement indépendants ils sont
indépendants deux à deux.
Remarque : Le nombre de conditions imposées dans la définition 2 est égal à :
CN2 + CN3 +…+ CNN = 2N – CN1 – CN0 = 2N – N – 1.
Proposition : Soit (Ai) 1 ≤ i ≤ N une suite d’événements mutuellement indépendants.
1.
2.
Pour chaque i , 1 ≤ i ≤ N , posons Bi = Ai ou Bi = Aic. Alors (Bi) 1 ≤ i ≤ N est une suite
d’événements mutuellement indépendants.
Toute sous-famille de (Ai) 1 ≤ i ≤ N est constituée des événements mutuellement
indépendants.
II.4.c. Probabilité de réunions d’événements indépendants
Soit (Ai) 1 ≤ i ≤ N une suite d’événements mutuellement indépendants. Il y a une formule
simple pour calculer la probabilité de A1 ∪ A2 ∪ ... ∪ AN .
Proposition : Soit (Ai) 1 ≤ i ≤ N une suite d’événements mutuellement indépendants. Alors
P(A1 ∪ A2 ∪ ... ∪ AN) = 1 – [1 - P(A1)]⋅ [1 - P(A2)]⋅…⋅ [1 - P(AN)]
Preuve: On passe au complémentaire de A1 ∪ A2 ∪ ... ∪ AN et on applique la règle de de
Morgan ( ∪ Ai)c = ∩ Aic. Par la proposition du Ch. II.4.b. les événements Aic sont
mutuellement indépendants. Donc
P(A1 ∪ A2 ∪ ... ∪ AN) = 1 – P((A1 ∪ A2 ∪ ... ∪ AN)c)
= 1 – P(A1c ∩ A2c ∩ ... ∩ ANc)
= P(A1c) ⋅P(A2c) ⋅…⋅P(ANc).
Exemple 1: On suppose que une personne est soumise N fois à un risque p d’accident où
0 < p < 1. Quelle est la probabilité d’avoir au moins un accident ? Pour répondre à cette
question on pose Ai = « la ième expérience provoque un accident » et on suppose que les Ai
sont mutuellement indépendants. Avec p = P(Ai) on a
P(« au moins un accident ») = P(A1 ∪ A2 ∪ ... ∪ AN) = 1 – (1 – p)N.
Si N →∞ et p est fixe cette probabilité tend vers 1. Si N →∞ et p → 0 où p est de l’ordre 1/N ,
i.e. p = λ/N pour un λ fixe, alors P(« au moins un accident ») → 1 – exp(-λ). Donc la
probabilité qu’il n’arrive aucun accident est environ P(« pas d’accident ») ∼ exp(-λ) si N est
très grand.
II.5. Probabilités conditionnelles
Dans de nombreuses applications les probabilités conditionnelles ou le conditionnement
constituent un outil précieux pour calculer des probabilités inconnues à partir de probabilités
données.
II.5.a. Définition
Définition : Soient (E, P) un espace probabilisé et A, B des événements quelconques tel que
P(B) > 0. On note
P(A|B) = P(A ∩ B) / P(B)
la probabilité de A conditionnellement à B ou la probabilité de A sachant B.
Les formules suivantes sont souvent très utiles pour calculer des probabilités d’intersections :
P(A ∩ B) = P(A|B) ⋅P(B)
P(A ∩ B) = P(B|A) ⋅P(A)
Cette technique est appelée conditionnement.
La généralisation de ces formules au cas des plusieurs événements est considérée dans le Ch.
II.5.b. (théorème de multiplication ou conditionnement multiple)
Des probabilités conditionnelles ont des propriétés suivantes :
1. Pour tout événement B fixe tel que P(B) > 0 la fonction d’ensembles A → P(A|B) satisfait
les axiomes A1 – A3, i.e. P(A|B) est une distribution de probabilité sur E.
2. Si A et B sont des événements indépendants et P(B) > 0, alors P(A|B) = P(A).
Exemple 1: On jette deux dés. Considérons les événements A = « la somme est 5 »,
B = « le premier dé donne 3 » et C = « le premier dé donne au moins 3 ». Calculer P(A|B) et
P(A|C). On a P(A) = 4/36 = 1/9, P(B) = 1/6, P(A ∩ B) = P({3,2}) = 1/36, donc P(A|B) = 1/6.
La probabilité conditionnelle de A sachant que B est réalisé a augmenté : P(A|B) > P(A). Avec
P(A) = 4/36 = 1/9, P(C) = 4/6 = 2/3, P(A ∩ C) = P({3,2},{4,1}) = 2/36 = 1/18 on trouve
P(A|C) = 1/12. La probabilité conditionnelle de A sachant que C est réalisé a diminué :
P(A|C) < P(A).
II.5.b. Conditionnement multiple
Nous avons déjà vu que la probabilité de la conjonction des deux événements peut être
calculée par le conditionnement sur un des événements. L’itération de cette technique est
appelée conditionnement multiple.
Théorème (théorème ou conditionnement multiple) :
Soient (E, P) un espace probabilisé et (Ai) 1 ≤ i ≤ N une suite d’événements. Alors, la formule du
conditionnement multiple s’écrit:
1. dans le cas de deux événements
P(A1 ∩ A2) = P(A1) ⋅P(A2|A1)
2. dans le cas de trois événements
P(A1 ∩ A2 ∩ A3) = P(A1) ⋅P(A2|A1) ⋅P(A3| A1 ∩ A2)
3. dans le cas général
P(A1 ∩ A2 ∩ ... ∩ AN) = P(A1) ⋅P(A2|A1) ⋅ … ⋅P(AN| A1 ∩ A2∩ ... ∩ AN-1)
si tous les événements A1 ∩ ... ∩ Ak ,1 ≤ k ≤ N – 1, sont de probabilité non nulle.
Exemple 1: Considérons une urne contenant six boules blanches et quatre boules rouges.
Quelle est la probabilité de la suite « blanc, blanc, rouge » si on tire les boules sans remise ?
Pour répondre à cette question nous désignons les événements B1 = « la première boule est
blanche », B2 = « la deuxième boule est blanche » et B3 = « la troisième boule est rouge ».
Alors
P(B1 ∩ B2 ∩ B3) = P(B1) ⋅P(B2|B1) ⋅P(B3| B1 ∩ B2) = 4/10·3/9·6/8 = 1/10.
Remarquons qu’il faut conditionner dans le bon ordre. Par exemple, la formule
P(B1 ∩ B2 ∩ B3) = P(B3) ⋅P(B2|B3) ⋅P(B1| B2 ∩ B3) est juste mais inutilisable.
II.5.c. Formule des probabilités totales
Soient (E, P) un espace probabilisé et A, B des événements quelconques. Les événements B et
Bc forment un système complet d’événements et
P(A) = P(A ∩ B) + P(A ∩ Bc)
Si B et Bc sont de probabilité non nulle on peut utiliser des probabilités conditionnelles pour
calculer les probabilités d’intersections. Donc
P(A) = P(A|B) ⋅P(B) + P(A|Bc) ⋅P(Bc).
Cette formule se généralise au cas d’un système complet d’événement
Théorème (formule des probabilités totales) :
Soient (E, P) un espace probabilisé et (Bi) 1 ≤ i ≤ N un système complet d’événements, tous de
probabilité non nulle. Alors, pour tout événement A, on a:
P(A) = P(A|B1) ⋅P(B1) + P(A|B2) ⋅P(B2) + … + P(A|BN) ⋅P(BN).
Exemple 1: On dispose de deux pièces. L’une est honnête, l’autre a deux piles. On choisit une
pièce au hasard et on la lance trois fois. Quelle est la probabilité d’obtenir trois piles?
Pour résoudre ce problème on conditionne par la pièce choisie, i.e. on applique la formule des
probabilités totales pour les événements A = « on tire trois piles », B1 = « la pièce est
honnête» et B2 = « la pièce a deux piles». On a
P(A) = P(A|B1) ⋅P(B1) + P(A|B2) ⋅P(B2) = 1/8·1/2 + 1·1/2 = 9/16.
II.5.d. Formule de Bayes
On continue la discussion de l’exemple précédent. Maintenant on pose la question inverse.
Exemple 1: On dispose de deux pièces. L’une est honnête, l’autre a deux piles. On choisit une
pièce au hasard et on la lance trois fois. Quelle est la probabilité que la pièce choisie est la
pièce honnête si on a tiré trois piles ?
Nous cherchons la probabilité P(B1|A). En utilisant la définition des probabilités
conditionnelles deux fois on obtient
P(B1|A) = P(A ∩ B1) / P(A) = P(A|B1) ⋅P(B1) / P(A)
= P(A|B1) ⋅P(B1) / [P(A|B1) ⋅P(B1) + P(A|B2) ⋅P(B2)].
Donc P(B1|A) = 1/8·1/2 : 9/16 = 1/9.
Théorème (formule de Bayes) :
Soient (E, P) un espace probabilisé et (Bi) 1 ≤ i ≤ N un système complet d’événements, tous de
probabilité non nulle. Alors, pour tout événement A de probabilité non nulle, on a, pour tout k,
1≤k≤N:
P(Bk|A) = P(A|Bk) ⋅P(Bk) / [P(A|B1) ⋅P(B1) + P(A|B2) ⋅P(B2) + … + P(A|BN) ⋅P(BN)].
II.5.e. Exemples
1. Exemple élémentaire
Une famille a deux enfants.
a. On sait que l’aîné est un garçon. Quelle est la probabilité que le second soit un garçon ?
Soit A1 l’événement que l’aîné est un garçon, A2 l’événement que le second est un garçon.
Sous des hypothèses convenables A1 et A2 sont indépendants. Alors P(A2) = ½.
b. On sait qu’un des enfants est un garçon. Quelle est la probabilité que l’autre soit un
garçon ?
On sait que A1 ∪ A2 , i.e. A1 ou A2, est réalisé. On veut donc calculer la probabilité de A1 ∩ A2
sachant A1 ∪ A2 . Alors
P(A1 ∩ A2 | A1 ∪ A2) = P(A1 ∩ A2) : P(A1 ∪ A2) = ¼ : ¾ = 1/3.
2. Problème de tests
Pour dépister une maladie, on applique un test. Si le patient est effectivement atteint, le test
donne un résultat positif dans 96% des cas. Mais il se peut aussi que le résultat du test soit
positif alors que le patient est en bonne santé, et ceci se produit dans 2% des cas.
Sachant qu'en moyenne 0.05% des patients sont atteints de la maladie à dépister, calculer la
probabilité pour qu'un patient soit atteint sachant que son test a été positif.
Soit A l'événement: "le test est positif", B l'événement: "le patient est en bonne santé" et M =
BC l'événement: "le patient est atteint de la maladie". Remarquons que:
P(A|M) = 0.96 P(A|B) = 0.02 .
et
P(M) = 0.0005.
Par la formule de Bayes
P(M|A) = P(A|M)P(M)/ [P(A|M)P(M) + P(A|B)P(B)]
= 0.96×0.0005/[0.96×0.0005+0.02×0.9995] = 0.023.
Il est intéressant de constater que seul 2.3% des patients testés positifs sont effectivement
malades. Pourtant le test semble avoir des caractéristiques techniques raisonnables. Comment
comprendre un chiffre si bas ?
3. Loi de succession de Laplace
On dispose de N + 1 urnes numérotées de 0 à N. L’urne numérotée « k » contient k boules
blanches et N – k boules rouges. On choisit une urne au hasard de façon équiprobable, puis on
tire n boules avec remise dans cette urne.
a. Quelle est la probabilité que les n boules tirées soient blanches ?
b. Quelle est la probabilité que le (n+1)-ième tirage donne encore une boule blanche
sachant que les n premières boules tirées sont blanches ?
On désigne les événements Bi = « l’urne choisie a le numéro i » pour tout i = 0…N et An =
« les premières n boules tirées sont blanches ». Evidemment (Bi) 0 ≤ i ≤ N est un système
complet d’événements et P(Bi) = 1/N+1. On connaît également les probabilités conditionnelles
P(An|Bi) = (i/N)n. Par la formule des probabilités totales on a
P(An) = P(An|B0) ⋅P(B0) + P(An|B1) ⋅P(B1) + … + P(An|BN) ⋅P(BN) = Σi=0,...,N (i/N)n/(N+1).
P(An) est donc une somme de Riemann. Ainsi P(An) converge vers l’intégrale ∫[0,1] xn dx.
lorsque N →∞, i.e. P(An) → 1/n+1.
Pour le deuxième problème il faut calculer les probabilités conditionnelles P(An+1|An). La
suite d’événements (An) est décroissante, i.e. An ⊇ An+1 pour tout n, alors
P(An+1|An) = P(An+1) / P(An) → n+1/n+2 lorsque N →∞.
4. Monty Hall
Pendant un concours à la télévision, le présentateur cache un prix (une voiture) derrière une
porte (il y a 3 portes : A, B et C). Il invite un concurrent à se présenter et à choisir l'une des
trois portes, sans l'ouvrir. Il ouvre ensuite l'une des deux portes qui n'ont pas été choisies par
le concurrent, en sachant que la voiture ne se trouve pas derrière ; il offre alors au concurrent
la possibilité de remplacer la porte qu'il avait choisie par l'autre qui reste fermée. Quelle est le
meilleur choix pour le concurrent: est-ce que la probabilité de gagner en changeant de porte
est plus grande que la probabilité de gagner sans changer de porte ?
L'espace fondamental de cette expérience est Ω = {(XV, XC, XP)}, où XV = A,B ou C, XC = A,B
ou C et XP = A,B ou C. Ici, XV représente la porte où se trouve la voiture, XC la porte choisie
par le concurrent et XP la porte ouverte par le présentateur. Pour répondre à la question "est-ce
que la probabilité de gagner en changeant de porte est plus grande que la probabilité de
gagner sans changer de porte ?" il faut calculer la probabilité pour que le concurrent ait choisi
une porte ne cachant pas la voiture, conditionnellement à l'événement "la voiture ne se trouve
pas dans la porte choisie par le présentateur" c'est à dire:
P({XV ≠ XC}| {XV ≠ XP})
Mais P({XV ≠ XP}) = 1, donc:
P({XV ≠ XC}| {XV ≠ XP}) = P({XV ≠ XC}) = 6/9 = 2/3.
La probabilité pour que le concurrent gagne en changeant de porte vaut donc 2/3, tandis que sa
probabilité de gagner sans changer de porte n'est que de 1/3. Son meilleur choix est de changer
de porte!

Documents pareils