1 Espérance et variance d`une variable aléatoire Variable aléatoire
Transcription
1 Espérance et variance d`une variable aléatoire Variable aléatoire
Espérance et variance d’une variable aléatoire Variable aléatoire Une variable aléatoire X est une correspondance entre un ensemble de valeurs xi (e.g., le nombre de garçons dans des familles de 2 enfants) et la probabilité pi d’apparition de chaque valeur. Par exemple, dans une famille de 2 enfants, 4 cas sont possibles : avoir 2 filles, 1 fille puis un garçon, un garçon puis une fille, ou 2 garçons. Par conséquent, 3 valeurs sont possibles : x = 0, 1 ou 2 garçons. Dans cet exemple, la variable aléatoire se représente par la distribution théorique suivante : x p(X=x) 0 1/4 1 2/4 2 1/4 Total 1 Définition de l’espérance mathématique L’espérance E1 d’une variable aléatoire est une moyenne théorique des résultats attendus pour cette variable aléatoire (c’est simplement une multiplication des valeurs possibles de la variable par leur probabilité). Par exemple, si la variable aléatoire représente le nombre de garçons à naître dans des familles comprenant 2 enfants, l’espérance est de 1 garçon car (0 × 1/4) + (1 × 2/4) + (2 × 1/4) = 1. L'espérance compte sur la loi des grands nombres pour se vérifier : Sur 400 familles, il devrait y avoir approximativement un total de 400 garçons sur 800 enfants, car 200 familles auront 1 garçons et 100 familles 2 garçons, donc 1 garçon en moyenne par famille. L’espérance a été mathématisée à l’origine pour les situations de jeux, afin de comparer la mise et l’espérance de gain. Exemple : Imaginons un jeu qui rapporte 1 fois sur 200 la somme de 1000 €. L’espérance des gains est de 5 € par partie, si la mise est nulle (i.e, 1000 € gagnés une fois pour 200 parties fait une moyenne de 5 € par partie). Par conséquent, si la mise est inférieure à 5 €, il est fortement conseillé de jouer à l’infini, car le jeu rapportera plus au long terme au joueur que ce qu’il ne mise. Si la mise est égale à 5 €, l’espérance E est intuitivement : ⎛ 199 ⎞ ⎛ 1 ⎞ E = (−5) × ⎜ + (1000 − 5) × ⎜ = 0. ⎟ ⎝ 200 ⎠ ⎝ 200 ⎟⎠ La variables aléatoire pour les gains du joueur peut se représenter comme suit : x p(X=x) 1 Joueur -Mise 199/200 1000-Mise 1/200 E provient de Expected, signifiant attendu 1 Noter qu'il n'y a pas qu'une seule variable aléatoire possible à associer à des événements. L'exemple précédent permettait de comptabiliser les gains du joueur, mais il est également possible de comptabiliser les gains du casino comme suit : x p(X=x) Casino Mise Mise-1000 199/200 1/200 Pour que l’organisateur du jeu soit bénéficiaire, il faut au contraire qu’il fixe la mise à plus de 5 €, vérifiant E > 0, soit : (mise) × (199 / 200 ) + (−1000 + mise) × (1 / 200 ) > 0 ⇔ mise > 5 Variables aléatoires simples ou composées Il est possible de former une variable aléatoire X’ à partir d’une transformation linéaire de X de la façon suivante : X’ = aX + b. Il est possible de s’intéresser également à Xs, une variable aléatoire représentant la somme des résultats du tirage de n variables indépendantes de type X (Xs = X1, X2,…, Xn). Dans ce dernier cas, par exemple, Xs pourrait représenter le nombre de garçons pour une famille de n enfants, qu’on obtient en additionnant les Xi (le nombre de garçons lors de la naissance de l’enfant numéro i). Enfin, on peut s’intéresser au cas d’une variable aléatoire composée de deux variables aléatoires différentes (Z = X + Y). Propriétés des espérances Notation: E[X] ou µ X ou µ n n i =1 i =1 (1) µ = ∑ pi (X = xi )xi = ∑ pi xi (2) E(µ) = µ (3) Si X’ = aX + b, E(X’) = E(aX + b) = E(aX) + E(b) = aE(X) + b (4) E(Xs) = E(ΣXi) = ΣE(Xi) = nE(X) = nµ Cela permet de calculer l’espérance d’une variable binomiale Xs en se basant sur l’espérance de chacun des essais de Bernoulli X. sur laquelle la variable binomiale repose. Puisque µ = p pour un essai de Bernoulli - démontré en cours-, E(Xs) = np). En revanche, en prenant la moyenne de n variables X, on obtient : 1 ⎛ Xs ⎞ 1 E ⎜ ⎟ = E(Xs) = × nµ = µ ⎝ n⎠ n n (5) Si Z = X + Y, E(Z) = E(X) + E(Y) car E(Z) = (Σzi)/n = Σ(xi + yi)/n = Σ(xi)/n +Σ(yi)/n 2 Propriétés des variances Notation: VAR[X] ou σ X2 ou σ 2 (1) σ X2 = E[(X − E(X))2 ] = E[(X − µ )2 ] = n ∑ p (x i =1 i i − µ X )2 ou σ X2 = E(X 2 ) − [E(X)]2 (2) Si X’ = aX + b, σ X2 ' = ∑ pi (xi' − µ X ' )2 = ∑ pi (axi + b − (ax X + b))2 = ∑ pi (a(xi − µ X ))2 = ∑ pi a 2 (xi − µ X )2 = a 2σ X2 donc, σ X ' = a σ X (3) σ X2 +Y = (X + Y − (E(X) + E(Y ))2 ((X − E(X)) + (Y − E(Y ))2 = ∑ ∑ n n ((X − E(X))2 + (Y − E(Y ))2 + 2(X − E(X)) + (Y − E(Y ) n 2 (X − E(X)) (Y − E(Y ))2 (X − E(X)) + (Y − E(Y ) =∑ +∑ + 2∑ n n n 2 2 = σ X + σ Y + 2COVXY =∑ = σ X2 + σ Y2 , si les deux variables sont indépendantes (la covariance est nulle). Cela permet de calculer la variance d’une variable binomiale Xs en se basant sur la variance de chacun des essais de Bernoulli X, indépendants, sur laquelle la variable binomiale repose. Puisque σ 2 = p(1-p) -démontré en cours- pour un essai de Bernoulli, la variance de l’addition de n essais de Bernoulli indépendants donne 2 σ 2 =np(1-p). De manière plus générale : σ Xs = nσ X2 en cas d’indépendance. En revanche, en prenant la moyenne de n variables X, on obtient en utilisant la propriété 2 ci-dessus : 2 ⎛ 1 ⎞ 2 ⎛ 1 ⎞ 2 σX 2 σ Xs = ⎜ 2 ⎟ σ Xs = ⎜ 2 ⎟ nσ X = ⎝n ⎠ ⎝n ⎠ n n Cela permet de calculer la variance d’une proportion. Si Xs représente le nombre de garçons dans une famille de n enfants, la proportion de garçons est : p(1 − p) ⎛ 1⎞ 2 ⎛ 1⎞ σ 2Xs = ⎜ 2 ⎟ σ Xs = ⎜ 2 ⎟ np(1 − p) = ⎝n ⎠ ⎝n ⎠ n n 3 (4) σ X2 −Y = σ X2 + σ X2 − 2COVXY (calculs identiques au cas précédent) = σ X2 + σ Y2 , si les deux variables sont indépendantes (la covariance est nulle). Cela permet de montrer que les variances s’additionnent au dénominateur, lorsqu’on étudie la différence de deux moyennes par un t de student ou un z. Exercices 1) L'objectif de cet exercice est d'associer une variable aléatoire à des événements probabilistes. On organise une compétition entre A et B. Le premier à gagner deux parties remporte le prix. Sachant que A a deux fois plus de chances de remporter une partie, quelle est l'espérance du nombre de parties qui vont être jouées (sous-entendu, avant que l'un des deux joueurs gagne) ? 2) En utilisant les propriétés démontrées ci-dessus, démontrer que la moyenne d'un score centré réduit z est égale à 0. 3) Démontrer que la variance d'un score centré réduit z est égale à 1. 4) Faites-vous la différence entre σ 2 (2X) = 4σ 2 (X) et σ 2 (X1 + X2 ) = 2σ 2 (X) ? Les solutions sont données sur la page suivante. 4 Solutions 1) L'ensemble des événements possibles est {AA, ABA, ABB, BB, BAB, BAA} . L'énoncé indique également que p(A) = 2 / 3 et p(B) = 1 / 3 (on peut trouver ces probabilités par l’intuition ou en résolvant : p(A) = 2 × p(B) et p(A) + p(B) = 1). X étant la variable aléatoire représentant le nombre de parties jouées, on a : p(X = 0) = 0, p(X = 1) = 0 ⎛ 2⎞ ⎛ 2⎞ ⎛ 1⎞ ⎛ 1⎞ 5 p(X = 2) = p(AA) + p(BB) = ⎜ ⎟ ⎜ ⎟ + ⎜ ⎟ ⎜ ⎟ = ⎝ 3 ⎠ ⎝ 3 ⎠ ⎝ 3⎠ ⎝ 3⎠ 9 p(X = 3) = p(ABA) + p(ABB) + p(BAB) + p(BAA) ⎛ 2⎞ ⎛ 1⎞ ⎛ 2⎞ ⎛ 2⎞ ⎛ 1⎞ ⎛ 1⎞ ⎛ 1⎞ ⎛ 2⎞ ⎛ 1⎞ ⎛ 1⎞ ⎛ 2⎞ ⎛ 2⎞ 4 =⎜ ⎟⎜ ⎟⎜ ⎟ +⎜ ⎟⎜ ⎟⎜ ⎟ +⎜ ⎟⎜ ⎟⎜ ⎟ +⎜ ⎟⎜ ⎟⎜ ⎟ = ⎝ 3 ⎠ ⎝ 3⎠ ⎝ 3 ⎠ ⎝ 3 ⎠ ⎝ 3⎠ ⎝ 3⎠ ⎝ 3⎠ ⎝ 3 ⎠ ⎝ 3⎠ ⎝ 3⎠ ⎝ 3 ⎠ ⎝ 3 ⎠ 9 Par conséquent : x p(X=x) 2 5/9 3 4/9 Calcul de l'espérance du nombre de parties qui vont être jouées : E(X) = (2)(5 / 9) + (3)(4 / 9) = 22 / 9 = 2.44 µ µ µ ⎛ x − µ⎞ ⎛ x µ⎞ 1 =E − = E ( x) − = − = 0 ⎝ σ ⎠ ⎝σ σ ⎠ σ σ σ σ (on utilise : E(aX + b) = aE(X) + b) 2) E(Z) = E 1 1 1 ⎛ X − µ⎞ 3) VAR(Z ) = VAR ⎜ = 2 VAR(X − µ ) = 2 VAR(X) = 2 × σ 2 = 1 ⎟ ⎝ σ ⎠ σ σ σ (on utilise : VAR(aX + b) = a2VAR(X)) 4) Oui, car lorsque les tirages sont indépendants, on a : σ 2 (X1 + X2 ) = σ 2 (X1 ) + σ 2 (X2 ) = 2σ 2 (X) , alors que σ 2 (2X) est simplement la variance d'un seul tirage dont on multiplie la valeur par 2. 5