CHAPITRE 2 Couple de variables aléatoires
Transcription
CHAPITRE 2 Couple de variables aléatoires
CHAPITRE 2 Couple de variables aléatoires Introduction soit ( ; ; P ) un espace probabilisé, on appelle variable aléatoire ( v.a) toute application X telle que : X w : ! !R X (w) Si X ( ) = fx1 ; x2 ; :::; xk g X ( ) =]a; b[ on dit que X est une v.a discrète R on dit que X est une v.a continue Or, il est souvent nécessaire de considérer des événements relatifs à 2 v.a simultanées, ou même à plus de 2 v.a. 1 Couple de variables aléatoires ( v.a à 2 dimensions ). Soit ( ; Q; P ) un espace probabilisé, X et Y 2 variables aléatoires dé…nies sur l’espace fondamental : on distingue deux cas suivant la nature des variables aléatoires et dans chaque cas, on fait une étude détaillée. 1.1 Cas discret Soient X et Y 2 variables aléatoires discrètes X prend les valeurs fxi g1 i k et a pour loi PX = P (X = xi ) Y prend les valeurs fyj g1 j l et a pour loi PY = P (Y = yj ) 1.1.1 Loi du couple La loi du couple (X; Y ) est donnée par: fP (X = xi ; Y = yj ) = pij g1 avec Pij 0 et k X l X i=1 j=1 1 i k; 1 j l pij = 1 1.1.2 Fonction de répartition on appelle fonction de répartition du couple (X; Y ) la fonction réelle dé…nie par: F F (a; b) 1.1.3 : R2 ! [0; 1] = P (fw 2 =X (w) = P (X a; Y b) a et Y (w) pour (a; b) 2 R2 bg) Propriétés Si x1 ; x2 ; y1 ; y2 2 R telles que x1 < x2 et y1 < y2 on a: P ( x1 X x2 ; y1 Y y2 ) = F (x2 ; y2 ) F (x1 ; y2 ) F (x2 ; y1 ) + F (x1 ; y1 ) = P ((X; Y ) 2]x1 ; x2 ] ]y1 ; y2 ]) car fX donc P (x1 < X x2 g = fX x1 g [ fx1 < X x2 g qui sont 2 événements disjoints x2 ) = P (X x2 ) P (X x1 ) = F (x2 ) F (x1 ) et de même fY y2 g = fY y1 g [ fy1 < Y y2 g donc P (xy1 < Y 2 ) = P (Y y2 ) P (Y y1 ) = F (y2 ) F (y1 ) et P (x1 < X x2 ; y1 < Y y2 ) = P (X x2 ; Y y2 ) P (X x2 ; Y y1 ) P (X x1 ; Y y2 ) + P (X x1 ; Y y1 ) du fait que P (A \ B) = P (A) + P (B) P (A [ B) , A; B 2 événements on obtient alors: P (x1 < X 1.1.4 x2 ; y1 < Y y2 ) = F (x2 ; y2 ) F (x1 ; y2 ) F (x2 ; y1 ) + F (x1 ; y1 ) Conséquence: F (+1; +1) = P (X +1; Y F ( 1; y) = P (X 1; Y F (x; 1) = P (X x; Y 2 +1) = 1 y) = 0 1) = 0 1.1.5 Loi marginale Pour tout couple de v.a (X; Y ) il y a deux lois marginales la loi marginale de X : fX = xg = =) Elle est dé…nie de la façon suivante: [lj=1 fX = x; Y = yj g P (X = x) = l X P (X = x; Y = yj ) 8x 2 X ( ) j=1 ainsi la loi marginale de X s’écrit donc: PX (x) = P (X = x) = l X pij = X P (x; y) y j=1 la loi marginale de Y : fY = yg = [ki=1 fX = xi ; Y = yg =) P (Y = y) = k X P (X = xi ; Y = y) 8y 2 Y ( ) i=1 ainsi la loi marginale de Y s’écrit donc: PY (y) = P (Y = y) = k X pij = i=1 et le système fpij g1 XnY i k; 1 j l x1 X P (x; y) x est représenté par le tableau suivant: y1 ... yj ... p11 ... p1j ... yl p1l loi m arg inale de X l X p1j = P (X = x1 ) j=1 xi pi1 pij pil l X pij = P (X = xi ) l X pkj = P (X = xk ) j=1 xk pkl pkj pkl j=1 loi m arg inale de Y k X pi1 = P (Y = y1 ) i=1 3 P Y = yj P (Y = yl ) 1 Fonction de répartition marginale Soient X et Y 2 v.a discrètes dé…nies sur le même espace probabilisé ( ; Q; P ), on a: fX xg = fX x; Y +1g =) P (X x) = P (X x; Y =) FX (x) = FXY (x; +1) +1) où FX est la fonction marginale de X, FXY est la fonction marginale du couple (X; Y ) : de même: fY yg = fX +1; Y yg =) P (Y y) = P (X +1; Y =) FY (y) = FXY (+1; y) y) où FY est la fonction marginale de Y: 1.1.6 Espérance mathématique et Covariance L’espérance mathématique du couple (X; Y ) est donnée par la formule suivante ( sous réserve d’existance ) E (XY ) = l k X X xi yj P (X = xi ; Y = yj ) i=1 j=1 Théorème ( linéarité de l’opérateur esprérance mathématique ) Soient X et Y 2 v.a quelquonques ( discrètes ou continues ) dé…nies sur le même espace probabilisé ( ; Q; P ), si E (X) et E (Y ) existent alors E (X + Y ) existe et E (X + Y ) = E (X) + E (Y ) Démonstration: cas où X et Y sont 2 v.a discrètes on commence par véri…er que X + Y admet une espérance mathématique, i.e XX (x + y) P (X = x; Y = y) < 1 x y en e¤et: XX x y jx + yj P (X = x; Y = y) car jx + yj XX x y jxj P (X = x; Y = y) + jxj + jyj 4 XX x y jyj P (X = x; Y = y) et puisque on a ; XX XX jxj P (X = x; Y = y) < 1 et jyj P (X = x; Y = y) < 1 x y x y car X et Y ont des espérances mathématiques et dans ce cas: E (X + Y ) = XX x = XX x = x P (X = x; Y = y) + y XX x y P (X = x; Y = y) y X X X X x P (X = x; Y = y) + y P (X = x; Y = y) x = (x + y) P (X = x; Y = y) y X y x P (X = x) + x X y x y P (Y = y) y = E (X) + E (Y ) La démonstration peut se faire aussi dans le cas où les 2 v.a sont continues. 1.1.7 Covariance La covariance de deux variables aléatoires X; Y est notée Cov (X; Y ) et est dé…nie par l’expression: Cov (X; Y ) = = = = E [(X E (X)) (Y E (Y ))] E [XY XE (Y ) Y E (X) + E (X) E (Y )] E (XY ) E (X) E (Y ) E (Y ) E (X) + E (X) E (Y ) E (XY ) E (X) E (Y ) Propriétés i) Cov (X; Y ) = Cov (Y; X) ii) Cov (X; X) = V ar (X) iii) Cov (aX; Y ) = aCov (X; Y ) Démonstration i) Cov (X; Y ) = E (XY ) = E (Y X) 5 E (X) E (Y ) E (Y ) E (X) = Cov (Y; X) ii) Cov (X; X) = E (XX) E (X) E (X) = E X2 E 2 (X) = V ar (X) iii) Cov (aX; Y ) = = = = E (aXY ) E (aX) E (Y ) aE (XY ) aE (X) E (Y ) a [E (XY ) E (X) E (Y )] aCov (X; Y ) Remarque La linéarité n’est pas conservée pour la variance. En e¤et h i 2 = E (X + Y ) V (X + Y ) 2 [E (X + Y )] = E X 2 + Y 2 + 2XY E 2 (X) + E 2 (Y ) + 2E (X) E (Y ) = E X2 E 2 (X) + E Y 2 = V (X) + V (Y ) + 2Cov (X; Y ) E 2 (Y ) + 2 fE (XY ) E (X) E (Y )g Proposition ( Inégalité de Schwartz ) jE (XY )j p E (X 2 ) E (Y 2 ) Démonstration Soit a 2 R; on considère la v.a (aX + Y ) ; on a: 2 E (aX + Y ) 0 comme: 2 E (aX + Y ) = E a2 X 2 + 2aXY + Y 2 = a2 E X 2 +2aE (XY )+E Y 2 on considère le trinôme en a de signe constant E X 2 nant 0 0 0 = 2 E X2 E Y 2 [E (XY )] 2 =) [E (XY )] =) jE (XY )j 2 2 E X E Y p E (X 2 ) E (Y 2 ) 6 0 0 , son discrimi- 0 1.1.8 Corrélation La corrélation entre deux variables aléatoires X; Y est notée dé…nie par Cov (X; Y ) ( X 6= et Y 6= 0) (X; Y ) = X et on appelle (X; Y ) et est Y (X; Y ) le coe¢ cient de corrélation linéaire. Propriété 1 (X; Y ) 1 () j j Démonstration Il su¢ t de démontrer que jCov (X; Y )j soit t 2 R V (tX + Y ) donc 0 X 1 Y = V (tX) + 2tCov (X; Y ) + V (Y ) 0 = t2 V (X) + 2tCov (X; Y ) + V (Y ) 0 0 0 = =) =) 2 V (X) V (Y ) 2 V (X) V (Y ) [Cov (X; Y )] [Cov (X; Y )] jCov (X; Y )j et comme (X; Y ) = X j (X; Y )j = Y Cov (X; Y ) X alors 0 Y jCov (X; Y )j X 1 Y Conséquence 2 j j = 1 () [Cov (X; Y )] = V (X) V (Y ) donc le discriminant du trinome V (tX + Y ) = t2 V (X) + 2tCov (X; Y ) + V (Y ) est nul ce qui veut dire que V (tX + Y ) admet une racine double,i.e 9t 2 () () R; V (tX + Y ) = 0 9t 2 R; 9b 2 R; tX + Y = b Y = b tX = aX + b (a = t) donc si j j = 1 () Y = aX + b le coe¢ cient de corrélation mesure donc la quantité de l’ajustement a¢ ne. > l’ajustement est d’autant meilleur que j j 1 (j j 0:75) : > l’ajustement est d’autant mauvais que j j 0: > si = 0 on dit que X et Y sont non corrélées. 7 1.2 Variables aléatoires indépendantes Soit ( ; Q; P ) un espace probabilisé. X et Y 2 v.a dé…nies sur cet espace, on dit qu’elles sont indépendantes si: P (x; y) = PX (x) PY (y) P (X = xi ; Y = yj ) = P (X = xi ) P (Y = yj ) 81 i k; 1 j l en d’autres termes; X et Y sont indépendantes si le fait de connaitre la valeur de l’une n’in‡ue pas sur la distribution de l’autre. 1.2.1 Exemple on réalise (n + m) épreuves indépendantes ayant chacune p pour probabilité de succès; (P (succes) = p) : Soient les variables aléatoires X et Y dé…nies comme suit: X v.a: représente le nombre de succès lors des n premières épreuves. Y v.a: représente le nombre de succès lors des m dernières épreuves. Calculer la loi du couple (X; Y ) : Solution Il est clair que X et Y sont indépendantes puisque le fait de connaitre le nombre de succès lors des n premières épreuves n’in‡ue en rien sur celui des succès lors des m dernières. alors P (X = xi ; Y = yj ) = P (X = xi ) P (Y = yj ) ; = = 1.2.2 Cnxi Cnxi p xi yj Cm 0 n xi yj yj p Cm n+m (xi +yj ) (1 p) (1 p) xi (1 n; 0 yj m m yj p) Conséquence: Soient X et Y 2 v.a dé…nies sur le même espace probabilisé ( ; Q; P ) et si X et Y sont indépendantes, alors: ~ E (XY ) = E (X) E (Y ) En e¤et si X et Y sont discrètes, alors XX E (XY ) = xyP (X = x; Y = y) comme X et Y sont indépendantes x = y XX x = y X x xy P (X = x) P (Y = y) = ! x P (X = x) XX x X ! yP (Y = y) y 8 x P (X = x) yP (Y = y) y = E (X) E (Y ) Le cas où X et Y sont continues se fait d’une façon analogue avec les notations adéquates. ~ Cov (X; Y ) = 0 1.2.3 ( (X; Y ) = 0) Remarque la réciproque est fausse, en d’autres termes E (XY ) = E (X) E (Y ) ;toujours X et Y sont indépendantes pour cela, on considère le contre exemple suivant Soit X une v.a telle que sa loi de probabilité est donnée par: P (X = 1) = 1 1 1 ; P (X = 0) = ; P (X = 1) = 4 2 4 et posons Y = X 2 ; alors calculons Cov (X; Y ) Cov (X; Y ) = E (XY ) E (X) E (Y ) 1 1 1 +0 +1 =0 E (X) = 1 4 2 4 1 1 1 1 2 E (Y ) = ( 1) + 02 + 12 = 4 2 4 2 1 3 + 03 E (XY ) = E XX 2 = E X 3 = ( 1) 4 1 2 + 13 1 4 =0 donc Cov (X; Y ) = 0 =) (X; Y ) = 0 mais X et Y ne sont pas indépendantes. 1.2.4 Exemple La loi d’un couple de variables aléatoires (X; Y ) est dé…nie par le tableau suivant: XnY 1 2 1 0 2 1 4 0 1 2 3 0 1 4 a) Trouver les lois marginales de X et de Y: b) Montrer que X et Y ne sont pas indépendantes. c) Calculer Cov (X; Y ) ; conclure. d) Calculer (X; Y ) ; X ; Y : Solution On complète le tableau avec les 2 lois marginales 9 XnY 1 2 loi marginale de Y 1 0 1 4 P (Y = 1) = 2 3 0 1 2 1 4 0 P (Y = 2) = 1 4 1 2 P (Y = 3) = 1 4 loi marginale de X P (X = 1) = 12 P (X = 2) = 12 1 a) P (X = 1) = P (Y = 1) = 1 1 ; P (X = 2) = PX (2) = 2 2 1 1 1 PY (1) = ; PY (2) = ; PY (3) = 4 2 4 PX (1) = b) on a: p11 = P (X = 1; Y = 1) = 0 or PX (1) = 1 1 ; PY (1) = 2 4 donc P (X = 1; Y = 1) 6= P (X = 1) P (Y = 1) d’où X et Y ne sont pas indépendantes. c) Cov (X; Y ) =? E (X) = 2 X xi P (X = xi ) = 1 1 2 +2 1 2 = yj P (Y = yj ) = 1 1 4 +2 1 2 +3 i=1 E (Y ) = 3 X j=1 E (XY ) = 2 X 3 X 3 2 1 4 =2 xi yj P (X = xi ; Y = yj ) = 3 i=1 j=1 3 2 = 0 =) = 0 2 on remarque que Cov (X; Y ) = 0 or X et Y ne sont pas indépendantes. e) 1 1 V ar (X) = E X 2 E 2 (X) = =) X = 4 2 p 2 1 V ar (Y ) = E Y 2 E 2 (Y ) = =) X = 2 2 =) Cov (X; Y ) = 3 10