THEORIE ELEMENTAIRE DES PROBABILITES

Transcription

THEORIE ELEMENTAIRE DES PROBABILITES
Théorie élémentaire des Probabilités – Rappels d'analyse combinatoire
THEORIE ELEMENTAIRE DES PROBABILITES
Définitions
Une épreuve ou une expérience, c'est la réalisation de certaines conditions à l'issue
desquelles un événement E peut se produire ou ne pas se produire.
Exemple :
Epreuve :
Evénement :
Lancer d'un dé
Ö
sortie d'un 6
Crue d'une rivière
Ö
présence d'eau sur la route qui borde la rivière
L'épreuve est aléatoire dans la mesure où son résultat ne peut être prévu avec certitude.
Par convention, l'événement E auquel on s'intéresse est l'événement favorable.
La probabilité c'est le nombre de cas favorables sur le nombre de cas possibles
Si on a n épreuves et k événements favorables E, la fréquence relative de E a pour valeur
k/n =n'E qui est une estimation de la probabilité p qu'à un événement E de se produire à
l'issue d'une épreuve.
La probabilité est la limite vers laquelle tend la fréquence relative n'E
quand n tend vers l'infini
8 Exemple du jet de pièces de monnaie : la fréquence relative liée à l'apparition du coté "face" de
la pièce tend vers 0,5 mais sans garantir que cette valeur soit strictement exacte (même après
10 000 jets) : expérience de Kerrich (1946).
Propriétés fondamentales des probabilités
Si on considère un événement E 1 alors P(E 1 ) est la probabilité d'observer E1 à l'issue d'une
épreuve. Comme pour les fréquences relatives on a 0 ≤ P(E 1 ) ≤ 1
•
Si P(E 1 ) = 1
l'événement est dit certain
•
Si P(E 1 ) = 0
l'événement est dit impossible
Probabilité d'observer l'un ou l'autre de plusieurs événements (propriété additivité) : soit
une épreuve à laquelle on associe deux événements E 1 et E 2 :
•
Si les deux événements ne peuvent se produire simultanément on a affaire à des
événements exclusifs ou incompatibles et P(E1 ou E2) = P(E1) +P(E2)
1
Théorie élémentaire des Probabilités – Rappels d'analyse combinatoire
•
Si les deux événements peuvent se produire en même temps ou ne sont pas
nécessairement exclusifs on a
P(E1 ou E2) = P(E1) + P(E2) – P(E1 et E2)
•
D'où d'une manière générale
P(E1 ou E2) ≤ P(E1) + P(E2)
•
Si on a m événements (E1, E2, …, Em) mutuellement exclusifs, on trouve par
récurrence que
P(E1 ou E2 ou … ou Em) = P(E1) + P(E2) + … + P(Em)
• Si m événements sont mutuellement exclusifs et si l'un d'entre eux doit
nécessairement se réaliser, les événements sont dits complémentaires ou
complètement exclusifs et on a
P(E1 ou E2 ou … ou Em) = P(E1) + … + P(Em) = 1
On peut montrer qu'avec trois événements non nécessairement exclusifs on aboutit à :
P(E1 ou E2 ou E3) = P(E1) + P(E2) + P(E3) – P(E1 et E2) – P(E1 et E3) – P(E2 et E3)
+ P(E1 et E2 et E3)
Probabilité et théorie des ensembles
On peut également raisonner en terme d'ensembles. Supposons que pour une expérience (ou
épreuve) aléatoire donnée, Ω constitue l'ensemble des résultats possibles. Tout événement
aléatoire favorable E1 correspond alors à un sous-ensemble de Ω.
On associe à E1 un nombre P(E1) appelé probabilité, qui représente le rapport de l'aire de E1
sur l'aire de Ω. On a alors :
•
0 ≤ P(E 1 ) ≤ 1
•
P(Ω) = 1
•
P(∅) = 0
pour tout E1 ⊂ Ω
avec ∅ = ensemble vide
Ω
Ω
E1
E1
E2
E2
•
Événements exclusifs :
•
Evénements compatibles
P(E1 ou E2) = P(E1 ∪ E2) = P(E1) + P(E2)
P(E1 ∪ E2) = P(E1) + P(E2) - P(E1 ∩ E2)
P(E1 et E2) = P(E1 ∩ E2) = 0
D'où
P(E1 ∩ E2) = P(E1) + P(E2) - P(E1 ∪ E2)
2
Théorie élémentaire des Probabilités – Rappels d'analyse combinatoire
La probabilité conditionnelle
Soit une épreuve aléatoire pouvant conduire à la réalisation de deux événements E1 et E2
non nécessairement exclusifs.
Lorsque P(E2) est non nulle, on définit la probabilité conditionnelle ou liée de E1 sous la
condition E2 par :
P(E1|E2) = P(E1 et E2) / P(E2)
Et de même si P(E1) est non nulle : P(E2|E1) = P(E1 et E2) / P(E1)
Cette définition conduit à la propriété de multiplicativité ou de la probabilité composée
qui reste valable même si P(E1) et P(E2) sont nuls :
P(E1 et E2) = P(E1) P(E2|E1) = P(E2) P(E1|E2)
Pour m événements on démontre par récurrence que :
P(E1 et … et Em) = P(E1) P(E2|E1) … P(Em|E1 … Em-1)
L'indépendance stochastique
L'événement E1 est dit stochastiquement indépendant de E2 si la probabilité de voir se
réaliser E1 ne dépend pas de la réalisation ou de la non-réalisation de E2, c'est à dire :
P(E1|E2) = P(E1|E2) = P(E1)
où E est la non-réalisation de E
D'où
P(E1 et E2) = P(E1) P(E2)
La notion d'indépendance stochastique s'applique également à plus de deux événements
aléatoires. On dit que m événements sont stochastiquement indépendants si pour tout
ensemble formé de k de ces événements :
P(E1 et … et Ek) = P(E1) … P(Ek)
Il faut cependant noter que l'indépendance stochastique de m événements deux à deux
n'entraîne pas nécessairement l'indépendance stochastique de l'ensemble des m événements.
8 Exemple : jet simultané de deux dés : si E1 = chiffre impair sur un dé ; E2 = chiffre impair sur
l'autre dé et E3 = la somme des deux est impaire alors ces événements sont indépendants
deux à deux, mais : P(E1 et E2 et E3) = 0 et non pas P(E1) P(E2) P(E3) = (1/2) 3
3
Théorie élémentaire des Probabilités – Rappels d'analyse combinatoire
Les tirages successifs sans remise et les tirages simultanés de plusieurs individus dans une
population finie ne sont pas des expériences aléatoires indépendantes.
Quand on fait des tirages successifs dans une population finie, il faut remettre les individus
après chaque tirage pour que les tirages soient indépendants.
Réalisation d'au moins un événement parmi m événements indépendants et non
complémentaires :
Soit k événements indépendants, alors les événements contraires le sont aussi.
P(E1 et E2 et … et Em) = P(E1) P(E2) … P(Em) = [1- P(E1)] [1- P(E2)] … [1- P(Em)]
P(E1 ou E2 ou … ou Em) = 1 - [1- P(E1)] [1- P(E2)] … [1- P(Em)]
Si les m événements ont la même probabilité p, on a P(E1 ou E2 ou … ou Em) = 1 – (1-p)m
8 Application : calcul de la probabilité d'avoir au moins une fois un débit décennale au cours
des n prochaines années :
Le débit décennale est définit par une probabilité P(E) = 0,1 d'où P(E) = 0,9
Si on fait l'hypothèse de l'indépendance des années successives, alors :
P(Eannée 1 ou Eannée 2 ou … ou Eannée n) = 1 – (1-0,1)n
Si n = 10 ans, on a 65% de chance de voir un débit décennal sur cette période.
Formule de la probabilité complète – Théorème de Bayes
Soit E1 , E2 , … , Em , m événements constituant un système complet d'événements. A chaque
réalisation de Ej est associé un autre événement A avec une certaine probabilité P(A|Ej)
appelée probabilité à priori.
La probabilité de voir apparaître A, c'est à dire la probabilité complète s'écrit :
P(A) = Σ P(A et Ej) = Σ P(Ej) P(A| Ej)
Théorème de Bayes : on vient d'observer A et on cherche P(Ej |A) appelée probabilité à
postériori.
Comme on sait que P(A et Ej) = P(A) P(Ej |A) = P(Ej) P(A| Ej) et on en déduit
P(Ej |A) = P(Ej) P(A| Ej) / P(A) = P(Ej) P(A| Ej) / Σ P(Ej) P(A| Ej)
4
Théorie élémentaire des Probabilités – Rappels d'analyse combinatoire
8 Application : Une première urne contient une boule blanche et une boule noire. Une seconde
urne contient deux boules blanches et une boule noire. On tire au hasard une boule de la
première urne et on la met dans la seconde. On tire ensuite au hasard une boule de la
seconde urne. Cette boule est noire. Quelle est alors la probabilité que la première boule tirée
ait été blanche ?
Les probabilités connues à priori sont :
E1 : boule blanche
P(B1) = ½
E2 : boule noire
P(N1) = ½
A : boule noire
P(N|B1) = ¼
P(N|N1) = ½
La probabilité totale de N est P(N) = P(N et B1) + P(N et N1) puisque N dépend de B1 et N1.
P(N) = P(B1) P(N|B1) + P(N1) P(N|N1) = ½ × ¼ + ½ × ½ = 3/8
La probabilité à postériori est
P(B1|N) = P(B1) P(N|B1) / P(N) = ½ × ¼ /(3/8) = 1/3
Remarque : on commet de graves erreurs quand les probabilités à priori sont mal connues.
Entropie d'un système complet de k événements :
H=−
k
∑ P(E j ) log 2 P(E j )
j=1
Elle mesure l'incertitude associée à la réalisation d'un événement (le désordre d'une
situation). L'entropie est maximale si les événements sont équiprobables : tout peut arriver !
5
Théorie élémentaire des Probabilités – Rappels d'analyse combinatoire
RAPPELS D'ANALYSE COMBINATOIRE
•
Principe fondamental : Soit une épreuve 1 ayant n1 résultats possibles et une épreuve 2
ayant n2 résultats possibles. Alors la succession des deux épreuves donnera n1 × n2 résultats
possibles.
•
Factorielle : on définit la factorielle du nombre n par l'expression :
et 0! = 1
n! = n × ( n − 1) × ( n − 2 ) × ... × 2 × 1
n
quand n est grand, on peut utiliser l'approximation de STIRLING : n! ≅ 2 πn × n × e
−n
• Tirage de r objets dans un ensemble fini de n objets, avec remise : à chaque tirage il y a
la même probabilité de tirer un objet. Donc si on tire r objets dans n avec remise, la série des
r
r objets peut être constituée de n × n × ... × n = n façons différentes.
• Tirage de r objets dans un ensemble fini de n objets, sans remise : on distingue alors
deux types d'ensemble de séries :
Les séries dont les objets sont différents (sans remise) et où leur ordre est aussi
différent : Arrangements
Les séries dont seulement les objets sont différents (on ne les distingue plus aussi par
leur ordre) : Combinaisons
r
Ö Arrangement : A n = n( n − 1)( n − 2 )...( n − r + 1) =
r
An
r
=
Ö Combinaison : C n =
r!
•
n!
( n − r )!
n!
( n − r )! r!
Nombre de combinaisons de 0 à n éléments issues d'un ensemble de n éléments : 2n
On le démontre avec l'expression du binôme de Newton pour x=1
Binôme de Newton : (1 + x)
Avec x=1 on trouve
n
n
0 0 n
1 1 n −1
= Cn 1 x + Cn 1 x
0
1
n n 0
+ ... + C n 1 x
n
( 2 ) = C n + C n + ... + C n
Autre problème ayant la même solution : r tirages avec remise dans un ensemble de 2 éléments
= 2r
(exemple : effectif de l'ensemble des nombres binaires de r chiffres)
6

Documents pareils