CHAPITRE 2 Couple de variables aléatoires

Transcription

CHAPITRE 2 Couple de variables aléatoires
CHAPITRE 2
Couple de variables aléatoires
Introduction
soit ( ; ; P ) un espace probabilisé, on appelle variable aléatoire ( v.a) toute
application X telle que :
X
w
:
!
!R
X (w)
Si
X ( ) = fx1 ; x2 ; :::; xk g
X ( ) =]a; b[
on dit que X est une v.a discrète
R on dit que X est une v.a continue
Or, il est souvent nécessaire de considérer des événements relatifs à 2 v.a
simultanées, ou même à plus de 2 v.a.
1
Couple de variables aléatoires ( v.a à 2 dimensions ).
Soit ( ; Q; P ) un espace probabilisé, X et Y 2 variables aléatoires dé…nies sur
l’espace fondamental :
on distingue deux cas suivant la nature des variables aléatoires et dans chaque
cas, on fait une étude détaillée.
1.1
Cas discret
Soient X et Y 2 variables aléatoires discrètes
X prend les valeurs fxi g1 i k et a pour loi PX = P (X = xi )
Y prend les valeurs fyj g1 j l et a pour loi PY = P (Y = yj )
1.1.1
Loi du couple
La loi du couple (X; Y ) est donnée par:
fP (X = xi ; Y = yj ) = pij g1
avec
Pij
0 et
k X
l
X
i=1 j=1
1
i k; 1 j l
pij = 1
1.1.2
Fonction de répartition
on appelle fonction de répartition du couple (X; Y ) la fonction réelle dé…nie par:
F
F (a; b)
1.1.3
: R2 ! [0; 1]
= P (fw 2 =X (w)
= P (X a; Y
b)
a et Y (w)
pour (a; b) 2 R2
bg)
Propriétés
Si x1 ; x2 ; y1 ; y2 2 R telles que x1 < x2 et y1 < y2 on a:
P ( x1
X
x2 ; y1
Y
y2 ) = F (x2 ; y2 ) F (x1 ; y2 ) F (x2 ; y1 ) + F (x1 ; y1 )
= P ((X; Y ) 2]x1 ; x2 ] ]y1 ; y2 ])
car
fX
donc P (x1 < X
x2 g = fX x1 g [ fx1 < X x2 g qui sont 2 événements disjoints
x2 ) = P (X x2 ) P (X x1 )
= F (x2 ) F (x1 )
et de même
fY
y2 g = fY
y1 g [ fy1 < Y
y2 g
donc P (xy1 < Y 2 ) = P (Y
y2 ) P (Y
y1 )
= F (y2 ) F (y1 )
et
P (x1 < X
x2 ; y1 < Y
y2 ) = P (X x2 ; Y
y2 ) P (X x2 ; Y
y1 )
P (X x1 ; Y
y2 ) + P (X x1 ; Y
y1 )
du fait que P (A \ B) = P (A) + P (B) P (A [ B) , A; B 2 événements
on obtient alors:
P (x1 < X
1.1.4
x2 ; y1 < Y
y2 ) = F (x2 ; y2 )
F (x1 ; y2 )
F (x2 ; y1 ) + F (x1 ; y1 )
Conséquence:
F (+1; +1) = P (X
+1; Y
F ( 1; y) = P (X
1; Y
F (x; 1) = P (X
x; Y
2
+1) = 1
y) = 0
1) = 0
1.1.5
Loi marginale
Pour tout couple de v.a (X; Y ) il y a deux lois marginales
la loi marginale de X :
fX = xg
=
=)
Elle est dé…nie de la façon suivante:
[lj=1 fX = x; Y = yj g
P (X = x) =
l
X
P (X = x; Y = yj )
8x 2 X ( )
j=1
ainsi la loi marginale de X s’écrit donc:
PX (x) = P (X = x) =
l
X
pij =
X
P (x; y)
y
j=1
la loi marginale de Y :
fY = yg
=
[ki=1 fX = xi ; Y = yg
=) P (Y = y) =
k
X
P (X = xi ; Y = y)
8y 2 Y ( )
i=1
ainsi la loi marginale de Y s’écrit donc:
PY (y) = P (Y = y) =
k
X
pij =
i=1
et le système fpij g1
XnY
i k; 1 j l
x1
X
P (x; y)
x
est représenté par le tableau suivant:
y1
...
yj
...
p11
...
p1j
...
yl
p1l
loi m arg inale de X
l
X
p1j = P (X = x1 )
j=1
xi
pi1
pij
pil
l
X
pij = P (X = xi )
l
X
pkj = P (X = xk )
j=1
xk
pkl
pkj
pkl
j=1
loi m arg inale de Y
k
X
pi1 = P (Y = y1 )
i=1
3
P Y = yj
P (Y = yl )
1
Fonction de répartition marginale Soient X et Y 2 v.a discrètes dé…nies
sur le même espace probabilisé ( ; Q; P ), on a:
fX
xg
= fX x; Y
+1g
=) P (X x) = P (X x; Y
=) FX (x) = FXY (x; +1)
+1)
où FX est la fonction marginale de X, FXY est la fonction marginale du
couple (X; Y ) :
de même:
fY
yg
= fX +1; Y
yg
=) P (Y
y) = P (X +1; Y
=) FY (y) = FXY (+1; y)
y)
où FY est la fonction marginale de Y:
1.1.6
Espérance mathématique et Covariance
L’espérance mathématique du couple (X; Y ) est donnée par la formule suivante
( sous réserve d’existance )
E (XY ) =
l
k X
X
xi yj P (X = xi ; Y = yj )
i=1 j=1
Théorème ( linéarité de l’opérateur esprérance mathématique ) Soient
X et Y 2 v.a quelquonques ( discrètes ou continues ) dé…nies sur le même espace
probabilisé ( ; Q; P ), si E (X) et E (Y ) existent alors E (X + Y ) existe et
E (X + Y ) = E (X) + E (Y )
Démonstration:
cas où X et Y sont 2 v.a discrètes
on commence par véri…er que X + Y admet une espérance mathématique,
i.e
XX
(x + y) P (X = x; Y = y) < 1
x
y
en e¤et:
XX
x
y
jx + yj P (X = x; Y = y)
car jx + yj
XX
x
y
jxj P (X = x; Y = y) +
jxj + jyj
4
XX
x
y
jyj P (X = x; Y = y)
et puisque on a ;
XX
XX
jxj P (X = x; Y = y) < 1 et
jyj P (X = x; Y = y) < 1
x
y
x
y
car X et Y ont des espérances mathématiques
et dans ce cas:
E (X + Y )
=
XX
x
=
XX
x
=
x P (X = x; Y = y) +
y
XX
x
y P (X = x; Y = y)
y
X X
X X
x
P (X = x; Y = y) +
y
P (X = x; Y = y)
x
=
(x + y) P (X = x; Y = y)
y
X
y
x P (X = x) +
x
X
y
x
y P (Y = y)
y
= E (X) + E (Y )
La démonstration peut se faire aussi dans le cas où les 2 v.a sont continues.
1.1.7
Covariance
La covariance de deux variables aléatoires X; Y est notée Cov (X; Y ) et est
dé…nie par l’expression:
Cov (X; Y )
=
=
=
=
E [(X E (X)) (Y E (Y ))]
E [XY XE (Y ) Y E (X) + E (X) E (Y )]
E (XY ) E (X) E (Y ) E (Y ) E (X) + E (X) E (Y )
E (XY ) E (X) E (Y )
Propriétés
i) Cov (X; Y ) = Cov (Y; X)
ii) Cov (X; X) = V ar (X)
iii) Cov (aX; Y ) = aCov (X; Y )
Démonstration
i) Cov (X; Y )
= E (XY )
= E (Y X)
5
E (X) E (Y )
E (Y ) E (X) = Cov (Y; X)
ii) Cov (X; X) = E (XX) E (X) E (X)
= E X2
E 2 (X) = V ar (X)
iii) Cov (aX; Y ) =
=
=
=
E (aXY ) E (aX) E (Y )
aE (XY ) aE (X) E (Y )
a [E (XY ) E (X) E (Y )]
aCov (X; Y )
Remarque La linéarité n’est pas conservée pour la variance.
En e¤et
h
i
2
= E (X + Y )
V (X + Y )
2
[E (X + Y )]
= E X 2 + Y 2 + 2XY
E 2 (X) + E 2 (Y ) + 2E (X) E (Y )
=
E X2
E 2 (X) + E Y 2
= V (X) + V (Y ) + 2Cov (X; Y )
E 2 (Y ) + 2 fE (XY )
E (X) E (Y )g
Proposition ( Inégalité de Schwartz )
jE (XY )j
p
E (X 2 ) E (Y 2 )
Démonstration
Soit a 2 R; on considère la v.a (aX + Y ) ; on a:
2
E (aX + Y )
0
comme:
2
E (aX + Y ) = E a2 X 2 + 2aXY + Y 2 = a2 E X 2 +2aE (XY )+E Y 2
on considère le trinôme en a de signe constant E X 2
nant 0 0
0
=
2
E X2 E Y 2
[E (XY )]
2
=)
[E (XY )]
=)
jE (XY )j
2
2
E X E Y
p
E (X 2 ) E (Y 2 )
6
0
0 , son discrimi-
0
1.1.8
Corrélation
La corrélation entre deux variables aléatoires X; Y est notée
dé…nie par
Cov (X; Y )
( X 6= et Y 6= 0)
(X; Y ) =
X
et on appelle
(X; Y ) et est
Y
(X; Y ) le coe¢ cient de corrélation linéaire.
Propriété
1
(X; Y )
1 () j j
Démonstration
Il su¢ t de démontrer que jCov (X; Y )j
soit t 2 R
V (tX + Y )
donc
0
X
1
Y
= V (tX) + 2tCov (X; Y ) + V (Y ) 0
= t2 V (X) + 2tCov (X; Y ) + V (Y ) 0
0
0
=
=)
=)
2
V (X) V (Y )
2
V (X) V (Y )
[Cov (X; Y )]
[Cov (X; Y )]
jCov (X; Y )j
et comme
(X; Y ) =
X
j (X; Y )j =
Y
Cov (X; Y )
X
alors
0
Y
jCov (X; Y )j
X
1
Y
Conséquence
2
j j = 1 () [Cov (X; Y )] = V (X) V (Y )
donc le discriminant du trinome V (tX + Y ) = t2 V (X) + 2tCov (X; Y ) +
V (Y ) est nul ce qui veut dire que V (tX + Y ) admet une racine double,i.e
9t
2
()
()
R; V (tX + Y ) = 0
9t 2 R; 9b 2 R; tX + Y = b
Y = b tX = aX + b (a =
t)
donc si j j = 1 () Y = aX + b
le coe¢ cient de corrélation mesure donc la quantité de l’ajustement a¢ ne.
> l’ajustement est d’autant meilleur que j j 1 (j j 0:75) :
> l’ajustement est d’autant mauvais que j j 0:
> si = 0 on dit que X et Y sont non corrélées.
7
1.2
Variables aléatoires indépendantes
Soit ( ; Q; P ) un espace probabilisé. X et Y 2 v.a dé…nies sur cet espace, on
dit qu’elles sont indépendantes si:
P (x; y) = PX (x) PY (y)
P (X = xi ; Y = yj ) = P (X = xi ) P (Y = yj )
81
i
k; 1
j
l
en d’autres termes; X et Y sont indépendantes si le fait de connaitre la
valeur de l’une n’in‡ue pas sur la distribution de l’autre.
1.2.1
Exemple
on réalise (n + m) épreuves indépendantes ayant chacune p pour probabilité de
succès; (P (succes) = p) : Soient les variables aléatoires X et Y dé…nies comme
suit:
X v.a: représente le nombre de succès lors des n premières épreuves.
Y v.a: représente le nombre de succès lors des m dernières épreuves.
Calculer la loi du couple (X; Y ) :
Solution
Il est clair que X et Y sont indépendantes puisque le fait de connaitre le
nombre de succès lors des n premières épreuves n’in‡ue en rien sur celui des
succès lors des m dernières.
alors
P (X = xi ; Y = yj )
= P (X = xi ) P (Y = yj ) ;
=
=
1.2.2
Cnxi
Cnxi
p
xi
yj
Cm
0
n xi
yj yj
p
Cm
n+m (xi +yj )
(1
p)
(1
p)
xi
(1
n; 0
yj
m
m yj
p)
Conséquence:
Soient X et Y 2 v.a dé…nies sur le même espace probabilisé ( ; Q; P ) et si X et
Y sont indépendantes, alors:
~ E (XY ) = E (X) E (Y )
En e¤et
si X et Y sont discrètes, alors
XX
E (XY ) =
xyP (X = x; Y = y) comme X et Y sont indépendantes
x
=
y
XX
x
=
y
X
x
xy P (X = x) P (Y = y) =
!
x P (X = x)
XX
x
X
!
yP (Y = y)
y
8
x P (X = x) yP (Y = y)
y
= E (X) E (Y )
Le cas où X et Y sont continues se fait d’une façon analogue avec les notations adéquates.
~ Cov (X; Y ) = 0
1.2.3
( (X; Y ) = 0)
Remarque
la réciproque est fausse, en d’autres termes
E (XY ) = E (X) E (Y ) ;toujours X et Y sont indépendantes
pour cela, on considère le contre exemple suivant
Soit X une v.a telle que sa loi de probabilité est donnée par:
P (X =
1) =
1
1
1
; P (X = 0) = ; P (X = 1) =
4
2
4
et posons Y = X 2 ; alors calculons Cov (X; Y )
Cov (X; Y )
= E (XY ) E (X) E (Y )
1
1
1
+0
+1
=0
E (X) =
1
4
2
4
1
1
1
1
2
E (Y ) = ( 1)
+ 02
+ 12
=
4
2
4
2
1
3
+ 03
E (XY ) = E XX 2 = E X 3 = ( 1)
4
1
2
+ 13
1
4
=0
donc
Cov (X; Y ) = 0 =) (X; Y ) = 0
mais X et Y ne sont pas indépendantes.
1.2.4
Exemple
La loi d’un couple de variables aléatoires (X; Y ) est dé…nie par le tableau suivant:
XnY
1
2
1
0
2
1
4
0
1
2
3
0
1
4
a) Trouver les lois marginales de X et de Y:
b) Montrer que X et Y ne sont pas indépendantes.
c) Calculer Cov (X; Y ) ; conclure.
d) Calculer (X; Y ) ; X ; Y :
Solution
On complète le tableau avec les 2 lois marginales
9
XnY
1
2
loi marginale de Y
1
0
1
4
P (Y = 1) =
2
3
0
1
2
1
4
0
P (Y = 2) =
1
4
1
2
P (Y = 3) =
1
4
loi marginale de X
P (X = 1) = 12
P (X = 2) = 12
1
a)
P (X = 1) =
P (Y = 1) =
1
1
; P (X = 2) = PX (2) =
2
2
1
1
1
PY (1) = ; PY (2) = ; PY (3) =
4
2
4
PX (1) =
b) on a:
p11 = P (X = 1; Y = 1) = 0
or PX (1) =
1
1
; PY (1) =
2
4
donc
P (X = 1; Y = 1) 6= P (X = 1) P (Y = 1)
d’où X et Y ne sont pas indépendantes.
c) Cov (X; Y ) =?
E (X)
=
2
X
xi P (X = xi ) = 1
1
2
+2
1
2
=
yj P (Y = yj ) = 1
1
4
+2
1
2
+3
i=1
E (Y )
=
3
X
j=1
E (XY )
=
2 X
3
X
3
2
1
4
=2
xi yj P (X = xi ; Y = yj ) = 3
i=1 j=1
3
2 = 0 =) = 0
2
on remarque que Cov (X; Y ) = 0 or X et Y ne sont pas indépendantes.
e)
1
1
V ar (X) = E X 2
E 2 (X) = =) X =
4
2
p
2
1
V ar (Y ) = E Y 2
E 2 (Y ) = =) X =
2
2
=) Cov (X; Y ) = 3
10

Documents pareils