1 Espérance et variance d`une variable aléatoire Variable aléatoire

Transcription

1 Espérance et variance d`une variable aléatoire Variable aléatoire
Espérance et variance d’une variable aléatoire
Variable aléatoire
Une variable aléatoire X est une correspondance entre un ensemble de valeurs xi (e.g., le
nombre de garçons dans des familles de 2 enfants) et la probabilité pi d’apparition de chaque
valeur. Par exemple, dans une famille de 2 enfants, 4 cas sont possibles : avoir 2 filles, 1
fille puis un garçon, un garçon puis une fille, ou 2 garçons. Par conséquent, 3 valeurs sont
possibles : x = 0, 1 ou 2 garçons. Dans cet exemple, la variable aléatoire se représente par la
distribution théorique suivante :
x
p(X=x)
0
1/4
1
2/4
2
1/4
Total
1
Définition de l’espérance mathématique
L’espérance E1 d’une variable aléatoire est une moyenne théorique des résultats attendus
pour cette variable aléatoire (c’est simplement une multiplication des valeurs possibles de la
variable par leur probabilité). Par exemple, si la variable aléatoire représente le nombre de
garçons à naître dans des familles comprenant 2 enfants, l’espérance est de 1 garçon car (0 ×
1/4) + (1 × 2/4) + (2 × 1/4) = 1.
L'espérance compte sur la loi des grands nombres pour se vérifier : Sur 400 familles, il
devrait y avoir approximativement un total de 400 garçons sur 800 enfants, car 200 familles
auront 1 garçons et 100 familles 2 garçons, donc 1 garçon en moyenne par famille.
L’espérance a été mathématisée à l’origine pour les situations de jeux, afin de comparer la
mise et l’espérance de gain.
Exemple : Imaginons un jeu qui rapporte 1 fois sur 200 la somme de 1000 €. L’espérance
des gains est de 5 € par partie, si la mise est nulle (i.e, 1000 € gagnés une fois pour 200
parties fait une moyenne de 5 € par partie). Par conséquent, si la mise est inférieure à 5 €, il
est fortement conseillé de jouer à l’infini, car le jeu rapportera plus au long terme au joueur
que ce qu’il ne mise. Si la mise est égale à 5 €, l’espérance E est intuitivement :
⎛ 199 ⎞
⎛ 1 ⎞
E = (−5) × ⎜
+ (1000 − 5) × ⎜
= 0.
⎟
⎝ 200 ⎠
⎝ 200 ⎟⎠
La variables aléatoire pour les gains du joueur peut se représenter comme suit :
x
p(X=x)
1
Joueur
-Mise
199/200
1000-Mise
1/200
E provient de Expected, signifiant attendu
1
Noter qu'il n'y a pas qu'une seule variable aléatoire possible à associer à des événements.
L'exemple précédent permettait de comptabiliser les gains du joueur, mais il est également
possible de comptabiliser les gains du casino comme suit :
x
p(X=x)
Casino
Mise Mise-1000
199/200
1/200
Pour que l’organisateur du jeu soit bénéficiaire, il faut au contraire qu’il fixe la mise à plus
de 5 €, vérifiant E > 0, soit :
(mise) × (199 / 200 ) + (−1000 + mise) × (1 / 200 ) > 0
⇔ mise > 5
Variables aléatoires simples ou composées
Il est possible de former une variable aléatoire X’ à partir d’une transformation linéaire de X
de la façon suivante : X’ = aX + b. Il est possible de s’intéresser également à Xs, une
variable aléatoire représentant la somme des résultats du tirage de n variables indépendantes
de type X (Xs = X1, X2,…, Xn). Dans ce dernier cas, par exemple, Xs pourrait représenter le
nombre de garçons pour une famille de n enfants, qu’on obtient en additionnant les Xi (le
nombre de garçons lors de la naissance de l’enfant numéro i). Enfin, on peut s’intéresser au
cas d’une variable aléatoire composée de deux variables aléatoires différentes (Z = X + Y).
Propriétés des espérances
Notation: E[X] ou µ X ou µ
n
n
i =1
i =1
(1) µ = ∑ pi (X = xi )xi = ∑ pi xi
(2) E(µ) = µ
(3) Si X’ = aX + b, E(X’) = E(aX + b) = E(aX) + E(b) = aE(X) + b
(4) E(Xs) = E(ΣXi) = ΣE(Xi) = nE(X) = nµ
Cela permet de calculer l’espérance d’une variable binomiale Xs en se basant sur
l’espérance de chacun des essais de Bernoulli X. sur laquelle la variable binomiale
repose. Puisque µ = p pour un essai de Bernoulli - démontré en cours-, E(Xs) = np).
En revanche, en prenant la moyenne de n variables X, on obtient :
1
⎛ Xs ⎞ 1
E ⎜ ⎟ = E(Xs) = × nµ = µ
⎝ n⎠ n
n
(5) Si Z = X + Y, E(Z) = E(X) + E(Y) car E(Z) = (Σzi)/n = Σ(xi + yi)/n = Σ(xi)/n +Σ(yi)/n
2
Propriétés des variances
Notation: VAR[X] ou σ X2 ou σ 2
(1) σ X2 = E[(X − E(X))2 ] = E[(X − µ )2 ] =
n
∑ p (x
i =1
i
i
− µ X )2 ou σ X2 = E(X 2 ) − [E(X)]2
(2) Si X’ = aX + b,
σ X2 ' = ∑ pi (xi' − µ X ' )2 = ∑ pi (axi + b − (ax X + b))2 = ∑ pi (a(xi − µ X ))2
= ∑ pi a 2 (xi − µ X )2 = a 2σ X2
donc, σ X ' = a σ X
(3) σ X2 +Y =
(X + Y − (E(X) + E(Y ))2
((X − E(X)) + (Y − E(Y ))2
=
∑
∑
n
n
((X − E(X))2 + (Y − E(Y ))2 + 2(X − E(X)) + (Y − E(Y )
n
2
(X − E(X))
(Y − E(Y ))2
(X − E(X)) + (Y − E(Y )
=∑
+∑
+ 2∑
n
n
n
2
2
= σ X + σ Y + 2COVXY
=∑
= σ X2 + σ Y2 , si les deux variables sont indépendantes (la covariance est nulle).
Cela permet de calculer la variance d’une variable binomiale Xs en se basant sur la
variance de chacun des essais de Bernoulli X, indépendants, sur laquelle la variable
binomiale repose. Puisque σ 2 = p(1-p) -démontré en cours- pour un essai de
Bernoulli, la variance de l’addition de n essais de Bernoulli indépendants donne
2
σ 2 =np(1-p). De manière plus générale : σ Xs
= nσ X2 en cas d’indépendance.
En revanche, en prenant la moyenne de n variables X, on obtient en utilisant la
propriété 2 ci-dessus :
2
⎛ 1 ⎞ 2 ⎛ 1 ⎞ 2 σX
2
σ Xs = ⎜ 2 ⎟ σ Xs = ⎜ 2 ⎟ nσ X =
⎝n ⎠
⎝n ⎠
n
n
Cela permet de calculer la variance d’une proportion. Si Xs représente le nombre de
garçons dans une famille de n enfants, la proportion de garçons est :
p(1 − p)
⎛ 1⎞ 2 ⎛ 1⎞
σ 2Xs = ⎜ 2 ⎟ σ Xs
= ⎜ 2 ⎟ np(1 − p) =
⎝n ⎠
⎝n ⎠
n
n
3
(4) σ X2 −Y = σ X2 + σ X2 − 2COVXY (calculs identiques au cas précédent)
= σ X2 + σ Y2 , si les deux variables sont indépendantes (la covariance est nulle).
Cela permet de montrer que les variances s’additionnent au dénominateur, lorsqu’on
étudie la différence de deux moyennes par un t de student ou un z.
Exercices
1) L'objectif de cet exercice est d'associer une variable aléatoire à des événements
probabilistes. On organise une compétition entre A et B. Le premier à gagner deux
parties remporte le prix. Sachant que A a deux fois plus de chances de remporter une
partie, quelle est l'espérance du nombre de parties qui vont être jouées (sous-entendu,
avant que l'un des deux joueurs gagne) ?
2) En utilisant les propriétés démontrées ci-dessus, démontrer que la moyenne d'un
score centré réduit z est égale à 0.
3) Démontrer que la variance d'un score centré réduit z est égale à 1.
4) Faites-vous la différence entre σ 2 (2X) = 4σ 2 (X) et σ 2 (X1 + X2 ) = 2σ 2 (X) ?
Les solutions sont données sur la page suivante.
4
Solutions
1) L'ensemble des événements possibles est {AA, ABA, ABB, BB, BAB, BAA} . L'énoncé
indique également que p(A) = 2 / 3 et p(B) = 1 / 3 (on peut trouver ces probabilités
par l’intuition ou en résolvant : p(A) = 2 × p(B) et p(A) + p(B) = 1). X étant la
variable aléatoire représentant le nombre de parties jouées, on a :
p(X = 0) = 0, p(X = 1) = 0
⎛ 2⎞ ⎛ 2⎞ ⎛ 1⎞ ⎛ 1⎞ 5
p(X = 2) = p(AA) + p(BB) = ⎜ ⎟ ⎜ ⎟ + ⎜ ⎟ ⎜ ⎟ =
⎝ 3 ⎠ ⎝ 3 ⎠ ⎝ 3⎠ ⎝ 3⎠ 9
p(X = 3) = p(ABA) + p(ABB) + p(BAB) + p(BAA)
⎛ 2⎞ ⎛ 1⎞ ⎛ 2⎞ ⎛ 2⎞ ⎛ 1⎞ ⎛ 1⎞ ⎛ 1⎞ ⎛ 2⎞ ⎛ 1⎞ ⎛ 1⎞ ⎛ 2⎞ ⎛ 2⎞ 4
=⎜ ⎟⎜ ⎟⎜ ⎟ +⎜ ⎟⎜ ⎟⎜ ⎟ +⎜ ⎟⎜ ⎟⎜ ⎟ +⎜ ⎟⎜ ⎟⎜ ⎟ =
⎝ 3 ⎠ ⎝ 3⎠ ⎝ 3 ⎠ ⎝ 3 ⎠ ⎝ 3⎠ ⎝ 3⎠ ⎝ 3⎠ ⎝ 3 ⎠ ⎝ 3⎠ ⎝ 3⎠ ⎝ 3 ⎠ ⎝ 3 ⎠ 9
Par conséquent :
x
p(X=x)
2
5/9
3
4/9
Calcul de l'espérance du nombre de parties qui vont être jouées :
E(X) = (2)(5 / 9) + (3)(4 / 9) = 22 / 9 = 2.44
µ µ µ
⎛ x − µ⎞
⎛ x µ⎞ 1
=E
−
= E ( x) − = − = 0
⎝ σ ⎠
⎝σ σ ⎠ σ
σ σ σ
(on utilise : E(aX + b) = aE(X) + b)
2) E(Z) = E
1
1
1
⎛ X − µ⎞
3) VAR(Z ) = VAR ⎜
= 2 VAR(X − µ ) = 2 VAR(X) = 2 × σ 2 = 1
⎟
⎝ σ ⎠ σ
σ
σ
(on utilise : VAR(aX + b) = a2VAR(X))
4) Oui, car lorsque les tirages sont indépendants, on a :
σ 2 (X1 + X2 ) = σ 2 (X1 ) + σ 2 (X2 ) = 2σ 2 (X) , alors que σ 2 (2X) est simplement la variance
d'un seul tirage dont on multiplie la valeur par 2.
5

Documents pareils