Chapitre 3 - Laboratoire de Mathématiques et Physique Théorique

Transcription

Chapitre 3 - Laboratoire de Mathématiques et Physique Théorique
Chapitre 3: Méthodes d’estimation et tests classiques
sur un échantillon gaussien
Léonard Gallardo∗
1
Etude des échantillons gaussiens
On rappelle qu’un n-échantillon d’une loi F est un n-uplet (X1 , . . . , Xn ) de variables
aléatoires i.i.d. de même loi F et définies sur un certain espace probabilisé (Ω, F, P) qu’on
ne précisera pas forcément. Il est commode de considérer ce n-échantillon comme le vecteur
aléatoire X := (X1 , . . . , Xn ) de Rn dont les composantes sont les Xi ; c’est ce que nous ferons
toujours par la suite.
1.1
La loi du χ2 à n degrés de liberté
On rappelle qu’une variable aléatoire X suit la loi Gamma de paramètres α > 0 et b > 0
(notée Γ(α, b)) si elle a une densité de probabilité donnée par :
(1)
bα α−1 −bx
x e 1[0,∞[ (x).
fα,b (x) =
Γ(α)
Proposition 1.1 : La fonction caractéristique φX d’une variable aléatoire X de loi Γ(α, b)
est de la forme
−α
t
.
(2)
φX (t) = 1 − i
b
Z ∞
bα
eitx xα−1 e−bx dx. D’où en développant eitx en série endémonstration : φX (t) =
Γ(α) 0
tière :
Z
∞
bα X (it)n ∞ n+α−1 −bx
φX (t) =
x
e dx
Γ(α) n=0 n! 0
Z ∞
∞
X
(it)n bα 1
=
xn+α−1 e−x dx
n+α
n!
Γ(α)
b
0
n=0
∞
n
X Γ(n + α) it
=
n!Γ(α)
b
n=0
n −α
∞
X
(α + n − 1)(α + n − 2) · · · α it
t
+
= 1−i
.
n!
b
b
n=0
∗
cours de Statistiques, Master 1, Université de Tours, année 2007-2008, Laboratoire de Mathématiques
et Physique Théorique-UMR 6083, Parc de Grandmont, 37200 TOURS, FRANCE. email : [email protected]
1
Corollaire 1.2 : Une variable aléatoire X de loi Γ(α, b) a des moments de tous les ordres
et en particulier
E(X) =
(3)
α
,
b
E(X 2 ) =
α(α + 1)
,
b2
V ar(X) =
α
b2
démonstration : φX (t) est indéfiniment dérivable donc X a des moments de tous les ordres.
En dérivant φX deux fois, on obtient
−α−1
−α−2
iα
t
i2 α(α + 1)
t
0
00
φX (t) =
1−i
, φX (t) =
1−i
b
b
b2
b
D’où le résultat en faisant t = 0.
Corollaire 1.3 (additivité des lois Gamma) : Soient X1 , . . . , Xn des variables aléatoires
indépendantes de lois respectives Γ(α1 , b), . . . , Γ(αn , b). Alors la variable aléatoire X1 + · · · +
Xn suit la loi Γ(α1 + · · · + αn , b).
démonstration : D’après (2) est l’indépendance des Xi , la fonction caractéristique de la
variable aléatoire X1 + · · · + Xn vaut :
φX1 +···+Xn (t) =
n Y
k=1
t
1−i
b
−αk
=
t
1−i
b
−(α1 +···+αn )
C’est la fonction caractéristique d’une loi Γ(α1 + · · · + αn , b).
.
Corollaire 1.4 : Soit (X1 , . . . , Xn ) un n-échantillon de la loi normale N (0, 1). Alors la
variable aléatoire χ2n = X12 + · · · + Xn2 suit la loi Γ( n2 , 21 ). Elle a pour densité
(4)
fχ2n (x) =
2−n/2 n −1 − 1 x
x 2 e 2 1[0,∞[ (x).
Γ( n2 )
et elle est telle que
(5)
E(χ2n ) = n
et V ar(χ2n ) = 2n.
démonstration : Il suffit de prouver ce résultat pour n = 1 puis d’appliquer le corollaire
1.3. Soit X une variable aléatoire N (0, 1). La fonction caractéristique de X 2 est égale à
Z ∞
1
2
2
itX 2
eitx e−x /2 dx
φX 2 (t) = E(e
)= √
2π −∞
Z ∞
1
1
2
=√
e− 2 x (1−2it) dx = (1 − 2it)−1/2 .
2π −∞
On reconnait l’expression de la fonction caractéristique de la loi Γ( 12 , 12 ). d’où le résultat. Définition 1.5 : La loi de la variable aléatoire du corollaire précédent s’appelle loi du χ2
à n degrés de liberté.
2
Comme consèquence du corollaire 1.3, on a l’additivité des lois pour des variables du chi-deux
indépendantes :
Corollaire 1.6 : Si (Xi )1≤i≤k est une famille finie de variables aléatoires indépendantes
P
telle que pour tout i, Xi suit une loi χ2ni , alors la variable aléatoire ki=1 Xi suit la loi χ2n où
P
n = ki=1 ni .
Remarque : Pour le calcul du corollaire 1.4, on a utilisé le fait que pour tout m ∈ R et tout
z ∈ C tel que Re(z) > 0, on a
Z ∞
1 x−m 2
1
√
(6)
e− 2 ( z ) dx = z.
2π −∞
En effet la formule est vraie pour z > 0 et comme le premier membre de (6) est une fonction
holomorphe de la variable z dans le demi-plan Re(z) > 0, le résultat en découle par prolongement analytique.
Remarque et Notation : Soit X = (X1 , . . . , Xn ) un n-échantillon de la loi normale N (0, 1)
et soit σ > 0. Alors σX = (σX1 , . . . , σXn ) est un n-échantillon de la loi normale N (0, σ 2 ).
La variable aléatoire ||σX||2 = σ 2 (X12 + · · · + Xn2 ) et sa loi seront alors notés σ 2 χ2n . Attention,
quand on parlera de la loi σ 2 χ2n , il faudra se souvenir que c’est la variable aléatoire χ2n qui
est multipliée par σ 2 et non sa fonction de répartition !
1.2
Transformation orthogonale d’un n-échantillon gaussien. Théorème de Cochran
Le but de ce paragraphe est de mettre en évidence une propriété remarquable des néchantillons gaussiens : la conservation de leur nature par changement de base orthonormale
ou par transformation orthogonale de Rn . Cette propriété géomètrique est à la base des méthodes statistiques d’estimation et de tests liées aux lois gaussiennes. Tout d’abord il convient
de savoir reconnaître facilement un n-échantillons gaussien. L’outil théorique "infaillible"
qui permet de voir si un vecteur (resp. une loi) est gaussien (resp. gaussienne) et qui permet
aussi de dire si ses composantes (resp. ses marginales) sont indépendantes est la fonction
caractéristique :
Théorème 1.7 : X = (X1 , . . . , Xn ) un n-échantillon de la loi normale N (0, σ 2 ) si et seulement si la fonction caractéristique φX de X est de la forme
1
φX (t) = exp(− σ 2 ||t||2 ) t ∈ Rn ,
2
(7)
où ||t|| =
p
t21 + · · · + t2n est la norme euclidienne du vecteur t = (t1 , . . . , tn ).
démonstration : 1) (C.N.) Soit X = (X1 , . . . , Xn ) un n-échantillon de la loi normale
N (0, σ 2 ) et soit t ∈ Rn . Grâce à l’indépendance des Xk , on a :
!
n
n
Y
Y
i<t|X>
itk Xk
φX (t) = E(e
)=E
e
=
E(eitk Xk )
k=1
n
Y
k=1
1
1
=
exp − σ 2 t2k = exp − σ 2 ||t||2 .
2
2
k=1
3
2) (C.S.) Si X = (X1 , . . . , Xn ) est un vecteur aléatoire de fonction de caractéristique φX (t) =
exp(− 12 σ 2 ||t||2 ) (t = (t1 , . . . , tn ) ∈ Rn ), alors pout tout k = 1, . . . , n, on a
φXk (tk ) = φX (0, . . . , 0, tk , 0, . . . , 0) = e−
σ2 2
t
2 k
.
Ce qui montre que Xk est de loi N (0, σ 2 ). De plus comme pour tout t ∈ Rn , φX (t) =
Q
n
k=1 φXk (tk ), les variables aléatoires Xk sont indépendantes.
Remarque : Si X est un n-échantillon de la loi normale N (0, σ 2 ), alors pour tout t ∈ Rn ,
la variable aléatoire réelle < t|X > (produit scalaire de t et X) est de loi N (0, σ 2 ||t||2 ) car
pour u ∈ R,
(8)
φ<t|X> (u) = E(eiu<t|X> ) = E(ei<ut|X> ) = e−
σ2
||ut||2
2
est la fonction caractéristique de la loi N (0, σ 2 ||t||2 ).
= e−
σ 2 ||t||2 2
u
2
Théorème 1.8 (de Cochran) : Soit X = (X1 , . . . , Xn ) un n-échantillon de la loi normale
N (0, σ 2 ). Alors :
1) les composantes de X dans toute base orthonormale de Rn , forment aussi un n-échantillon
de la loi N (0, σ 2 ).
2) Le transformé du vecteur X par une transformation orthogonale de Rn , est toujours un
n-échantillon de la loi N (0, σ 2 ).
3) Soit E1 ⊕· · ·⊕Ep une décomposition de Rn en p sous espaces vectoriels deux à deux orthogonaux et de dimensions respectives r1 , . . . , rp . Alors les vecteurs aléatoires XE1 , . . . , XEp projections orthogonales respectives de X sur E1 , . . . , Ep , sont indépendants. De plus les variables
aléatoires ||XE1 ||2 , . . . , ||XEp ||2 sont indépendantes et de lois respectives σ 2 χ2r1 , . . . , σ 2 χ2rp .
démonstration
: Soit v1 , . . . , vn une base orthonormale de Rn . On a évidemment X =
Pn
0
k=1 < X|vk > vk . Le vecteur X = (< X|v1 >, . . . , < X|vn >) a pour fonction caractéristique
Pn
Pn
φX 0 (t) = E(ei k=1 tk <X|vk > ) = E ei<X| k=1 tk vk >
n
n
X
1
1 2 X
tk vk ||2 = exp − σ 2 ||t||2 ,
= φX (
tk vk ) = exp − σ ||
2
2
k=1
k=1
d’après le théorème
1.5 et P
en utilisant le fait que (vk ) est une base orthonormale pour affirP
mer que || nk=1 tk vk ||2 = nk=1 t2k = ||t||2 . Du théorème 1.5, on obtient alors que X 0 est un
n-échantillon de la loi N (0, σ 2 ).
2) Cette assertion n’est qu’une formulation équivalente de 1). En effet soit A une matrice
orthogonale n × n. Par définition ses vecteurs lignes v1 , . . . , vn , forment une base orthonormale de Rn . Le vecteur AX transformé de X par l’action de la matrice A est le vecteur de
Rn de coordonnées < X|v1 >, . . . , < X|vn > (dans la base canonique) donc c’est encore un
n-échantillon de la loi N (0, σ 2 ) d’après le 1).
3) Choisissons dans chaque sous espace Ej une base orthonormale {vj,1 , . . . , vj,rj } et munissons Rn de la base orthonormale B obtenue en réunissant toutes ces bases. La projection
orthogonale XEj du vecteur aléatoire X sur Ej , est alors égale à
XEj =
rj
X
< X|vj,k > vj,k
k=1
4
Les vecteurs aléatoires XEj sont clairement indépendants puisque leurs composantes <
X|vr,s > dans la base B sont des variables aléatoires indépendantes d’après le 1). Il en
résulte aussi que les variables ||XE1 ||2 , . . . , ||XEp ||2 sont indépendantes. D’autre part, d’après
le théorème de Pythagore, on a
2
||XEj || =
rj
X
| < X|vj,k > |2 .
k=1
Le corollaire 1.4 et la remarque qui suit, montrent alors que ||XEj ||2 suit la loi σ 2 χ2rj .
2
Statistiques fondamentales d’un échantillon gaussien
Dans le langage des statisticiens, le "terme statistique " lorsqu’il est associé à échantillon",
est un synonyme de variable aléatoire liée à l’échantillon . Ainsi par exemple la moyenne et
la variance empirique sont les statistiques importantes d’un échantillon.
Définition 2.1 : Soit X = (X1 , . . . , Xn ) un n-échantillon de la loi N (m, σ 2 ). Alors les
statistiques (variables aléatoires)
n
(9)
1X
Xi ,
X̄ =
n i=1
(10)
1 X
(Xi − X̄)2 ,
S =
n − 1 i=1
n
2
s’appellent respectivement la moyenne et la variance empirique du n-échantillon X.
¯ = X̄ − m et
Remarque 1 : Pour l’échantillon centré X̃ = (X1 − m, . . . , Xn − m) on a X̃
S̃ 2 = S 2 . On retiendra cette invariance du S 2 par centrage de l’échantillon.
Remarque 2 : X̄ et S 2 sont des "estimateurs" respectivement des paramètres m et σ 2
de la loi de l’échantillon, d’où la terminologie adoptée. Précisons qu’on appelle estimateur
d’un certain paramètre lié à une loi, une statistique (variable aléatoire) qui converge (en un
certain sens1 ) vers la valeur du paramètre lorsque la taille n de l’échantillon tend vers l’infini.
En effet, on a ici
n
1X
X̄ =
Xi → m p.s. (n → ∞),
n i=1
d’après la loi forte des
nombres (voirPle cours de Probabilités). De même, puisqu’on
Pgrands
n
n
1
n
1
2
2
peut écrire S 2 = n−1
(X
−
X̄)2 = n−1
i
i=1
i=1 Xi − n−1 (X̄) , on voit que
S 2 → E(X12 − (E(X1 ))2 = σ 2
p.s. (n → ∞).
toujours d’après la loi forte des grands nombres.
Théorème 2.2 : Si X = (X1 , . . . , Xn ) est un n-échantillon de la loi N (m, σ 2 ), les variables
aléatoires X̄ et S 2 définies en (9) et (10) sont indépendantes. De plus
1
par exemple pour la convergence p.s. ou la convergence L2 , etc...
5
√
1) La variable aléatoire
n(X̄ − m)
suit la loi N (0, 1).
σ
2) La variable aléatoire S 2 suit la loi
σ2
χ2
n−1 n−1
et en particulier E(S 2 ) = σ 2 .
n
1X
3) La variable aléatoire
(Xi − m)2 suit la loi
n i=1
σ2 2
χ .
n n
démonstration : Considérons la décomposition en somme directe Rn = E1 ⊕ E1⊥ , où E1
est la droite engendrée par le vecteur unitaire v1 = √1n (1, . . . , 1) et E1⊥ est le supplémentaire orthogonal de E1 . D’après la Remarque 1) ci-dessus, il suffit de considérer le cas où
l’échantillon X est centré. Sa projection XE1 est alors égale à XE1 =< X|v1 > v1 , où
n
√
1 X
< X|v1 >= √
Xi = nX̄,
n i=1
et sa projection XE1⊥ sur E1⊥ est telle que :
2
2
2
||XE1⊥ || = ||X|| − ||XE1 || =
n
X
Xi2
2
− n(X̄) =
i=1
n
X
(Xi − X̄)2 = (n − 1)S 2 .
i=1
L’indépendance
de X̄ et S 2 résulte alors du théorème de Cochran. De plus il est clair que
√
nX̄ est de loi N (0, σ 2 ) et d’après le théorème de Cochran la variable ||XE1⊥ ||2 = (n − 1)S 2
suit la loi σ 2 χ2n−1 . D’où les résultats 1) et 2). Le résultat 3) est immédiat car il résulte de la
définition de la loi du χ2 .
Une autre loi très importante liée à l’échantillon gaussien est la loi de Student que nous
introduisons maintenant :
Définition 2.3 : Soient X et Y deux variables aléatoires√indépendantes telles que X suit la
loi N (0, 1) et Y la loi χ2n . La loi de la variable aléatoire n √XY est appelée loi de Student
à n-degrés de liberté. Cette loi est notée tn .
Exemple : Si X = (X1 , . . . , Xn ) est un n-échantillon de la loi normale N (m, σ 2 ) et si X̄ et
S 2 sont respectivement la moyenne et la variance empirique de X, alors d’après le théorème
2.2, la variable aléatoire
√
n(X̄ − m)
(11)
, suit la loi tn−1 .
S
Cette variable aléatoire est utilisée pour estimer la moyenne d’une loi normale de variance
inconnue comme nous le verrons dans le prochain paragraphe. La loi de Student est tabulée.
Pour les grandes valeurs de n, on assimile tn à la loi normale N (0, 1). En effet :
Proposition 2.4 : tn converge en loi vers N (0, 1) quand n → ∞.
démonstration : Soient X, X1 , . . . , Xn , . . . des variables aléatoires indépendantes de loi
N (0, 1). Par définition, la variable aléatoire
√
nX
X
Tn = p 2
=q 2
,
X1 +···+Xn2
X1 + · · · + Xn2
n
6
q
suit la loi tn . Mais d’après la loi des grands nombres,
On en déduit aussitôt que Tn → X en loi quand n → ∞.
X12 +···+Xn2
n
→ 1 p.s. quand n → ∞.
Proposition 2.5 : La loi de Student tn a une densité de probabilité donnée par la formule
)
1 Γ( n+1
2
ftn (x) = √
n
πn Γ( 2 )
(12)
1
2
1 + xn
! n+1
2
(x ∈ R).
démonstration : Voir l’annexe du chapitre 2.
Exercice : Montrer que limn→∞ ftn (x) =
3
3.1
√1
2π
exp − 12 x2 (utiliser la formule de Stirling).
Estimation et tests classiques sur les paramètres d’une
loi normale
Notions élémentaires et naïves sur la problèmatique de l’estimation et des tests statistiques
Définition 3.1 : Etant donné un n-échantillon X = (X1 , . . . , Xn ) issu d’une loi F , estimer
un paramètre λ de la loi F avec un niveau de confiance 1 − α ( où 0 < α < 1, est fixé),
c’est trouver un intervalle aléatoire I, dépendant de l’échantillon X, et tel que :
P(λ ∈ I) ≥ 1 − α.
(13)
On déduit de (13) que P(λ ∈ I c ) ≤ α. Le nombre α appelé risque d’erreur de première
espèce, est donc un majorant de la probabilité de se tromper en affirmant que λ ∈ I.
Pour faire comprendre les idées de l’estimation et des tests, on va discuter un exemple très
simple :
On cherche à estimer la moyenne m0 d’une loi normale N (m0 , σ 2 ) dont la variance σ 2 est
connue. On considère donc un n-échantillon X = (X1 , . . . , Xn ) issu de la loi N (m0 , σ 2 ). On
sait d’après la remarque 2 du paragraphe 2, qu’il est naturel√
de choisir X̄ comme estimateur
n(X̄ − m0 )
de m0 et d’après le 1) du théorème 2.2, la variable aléatoire
suit la loi N (0, 1).
σ
Pour tout a ∈]0, 1[, soit φa , le nombre tel que
Z +∞
1
2
√
e−x /2 dx = a.
2π φa
Pour α ∈]0, 1[, on a donc
√
n(X̄ − m0 ) α
P ≤ φ2 = 1 − α
σ
ou encore
φα
φα
P X̄ − σ √2 ≤ m0 ≤ X̄ + σ √2
n
n
(14)
7
= 1 − α.
Ceci montre que l’intervalle
φ α2
φ α2
X̄ − σ √ , X̄ + σ √
n
n
(15)
est un intervalle de confiance de m0 au niveau de confiance 1 − α. C’est de cette manière
qu’on présente toujours le résultat d’un problème d’estimation : on peut seulement dire que
la valeur de m0 appartient à cet intervalle avec un niveau de confiance 1 − α.
Il n’y a pas unicité de l’intervalle de confiance. En effet
φb
φa
X̄ − σ √ , X̄ + σ √
n
n
est un intervalle de confiance de m0 au niveau de confiance 1 − α, pour tous a, b ∈ [0, 12 ] tels
que a + b = α (on convient de prendre φ0 = +∞). Il existe ainsi deux intervalles de confiance
non bornés de niveau de confiance 1 − α :
(16)
h
h
i
φα i
φα
− ∞, X̄ + σ √ ,
X̄ − σ √ , +∞ et
n
n
qu’on appelle intervalles de confiance unilatéraux alors que l’intervalle de confiance (15) s’appelle l’intervalle de confiance bilatéral.
Signification de l’intervalle de confiance : Il est utile d’insister au moins une fois sur
la signification précise des méthodes de la Statistique et sur la notion de rigueur (au sens
mathématique) sous jacente. La notion d’intervalle de confiance est l’occasion d’en donner
une idée. Lorsqu’on observe une valeur x̄ de X̄, on obtient l’intervalle de confiance observé
φ α2
φ α2
x̄ − σ √ , x̄ + σ √ .
n
n
Dans la pratique c’est toujours un intervalle de confiance observé que l’on obtient. Alors que
signifie le niveau de confiance 1 − α ? Une vision naïve et qu’on accepte en général, consiste
à considérer 1 − α comme un "degré de vraisemblance" du fait que l’intervalle de confiance
observé contient la vraie valeur de la moyenne m0 . Si on connait la loi des grands nombres,
on peut voir précisemment les choses de la manière suivante :
Si on fait un assez grand nombre (disons N ) de tirages indépendants de n-échantillons de la
loi N (m0 , σ 2 ), alors parmi les N intervalles de confiance observés, il y en aura (en moyenne)
une proportion de 100(1 − α)% qui contiendront la vraie valeur de m0 .
Test statistique associé à l’estimation de la moyenne :
Une manière équivalente d’écrire la formule (14) est la suivante :
φ α2
φ α2
= 1 − α.
(17)
P m0 − σ √ ≤ X̄ ≤ m0 + σ √
n
n
Ainsi si m0 est "la vrai valeur" de la moyenne, il y a une probabilité 1 − α pour que X̄
appartienne à l’intervalle
φa
φb
(18)
I0 = m0 − σ √ , m0 + σ √
n
n
8
Ainsi quand on regarde si X̄ ∈ I0 , on dit qu’on teste l’hypothèse H0 :"la moyenne est
égale à m0 "contre l’hypothèse H1 :"la moyenne n’est pas égale à m0 .
Le mécanisme du test est donc le suivant : On fait l’hypothèse H0 . L’intervalle I0 est alors
déterminé par le niveau de confiance qu’on décidé. On tire alors un n-échantillon et on calcule X̄. Si X̄ ∈ I0 , on accepte H0 , sinon on rejette H0 au profit de H1 .
Les erreurs liées au test :
Les erreurs principales commises dans un test sont de deux ordres :
i) L’erreur de 1-ère espèce : C’est la probabilité de rejetter H0 quand H0 est vraie. Cette
erreur est parfaitement controlée puisqu’elle est égale à α par définition. Cette erreur est
choisie par "l’expérimentateur".
ii) L’erreur de 2-ième espèce : C’est la probabilité d’accepter H0 lorsque H0 est fausse.
Cette erreur qu’on note β dépend de α, de n et de H1 (plus précisement de la vraie valeur de
m0 ). Il est très difficile de la déterminer dans les tests en général. Dans l’exemple que nous
étudions, supposons que la vraie valeur de la moyenne soit m0 + δ. Alors
√
n(X̄ − (m0 + δ))
suit la loi N (0, 1)
σ
√
√
n(X̄ − m0 )
i.e. la vraie loi de Z =
est la loi N ( δ σ n , 1) et non pas la loi N (0, 1). Sur les
σ
√
deux figures ci-dessous, on a posé an = δ σ n et la courbe de droite dans les deux cas est la
vraie densité de Z. Dans la figure 1, la valeur de n est petite, alors que dans la figure 2, on
a pris une valeur de n beaucoup plus grande. La partie hachurée dans les deux cas est
égale à l’erreur de deuxième espèce β. On voit donc que la seule manière de réduire
cette erreur est d’augmenter la taille de l’échantillon. Ce fait est général mais dans les tests
que nous présenterons dans la suite de ce cours, nous ne chercherons pas à déterminer l’erreur
de deuxième espèce.
6
6
−φ α2
0
−φ α2
an φ α2
0
φ α2
an
-
figure 2
figure 1
Exercice : Dans l’exemple ci-dessus, on voit que l’erreur de seconde espèce dépend en fait
de l’écart δ entre la moyenne supposée et la moyenne réelle. En supposant que la variance σ 2
vaut 1, et que l’erreur de première espèce α = 0, 05, si δ = 1, calculer la taille minimale que
doit avoir l’échantillon pour que l’erreur β soit inférieure à 0,05 (on utilisera évidemment
une table de la loi N (0, 1)).
Justification d’un test : Dans un test, il y a toujours une hypothèse H0 qu’on cherche
en général à "conforter" et une hypothèse alternative H1 qu’on acceptera de considérer si
"cela en vaut la peine". Soit PH0 la probabilité conditionnelle sachant H0 2 . Le mécanisme du
2
i.e. sachant que l’hypothèse H0 est vraie
9
test consiste en général à définir une zone de rejet pour une statistique convenable qui rend
bien compte du problème. On dira alors que le test est justifié si étant donné un risque (de
première espèce) α ∈]0, 1[, on a
PH0 (rejeter H0 ) ≤ α.
3.2
Estimation de la moyenne d’une loi normale et test de Student ;
cas où la variance n’est pas connue
A. Estimation de la moyenne
Soit X = (X1 , . . . , Xn ) est un n-échantillon de la loi normale N (m, σ 2 ). Comme dans le
paragraphe précédent, on cherche à estimer le paramètre m mais ici σ 2 n’est pas supposée
connue (ce qui correspond à une vision plus réaliste des situations pratique). On va donc
utiliser la variance empirique S 2 de l’échantillon comme estimateur de σ 2 et la variable
aléatoire
√
n(X̄ − m)
(19)
Tn−1 =
,
S
qui suit la loi de Student tn−1 à n − 1 degrés de liberté, comme statistique fondamentale
pour déterminer un intervalle de confiance. Ainsi étant donné le risque α ∈]0, 1[, on utilise
la table de la loi tn−1 , pour déterminer le "seuil" t(n−1, α2 ) tel que
P(tn−1 ≥ t(n−1, α2 ) ) =
(20)
α
.
2
On a alors
√
n(X̄ − m) ≤ t(n−1, α ) = 1 − α,
P 2
S
(21)
c’est à dire
(22)
S
S
P X̄ − t(n−1, α2 ) √ ≤ m ≤ X̄ + t(n−1, α2 ) √
n
n
= 1 − α,
ce qui nous donne pour m un intervalle de confiance bilatéral au niveau de confiance 1 − α
égal à
S
S
(23)
X̄ − t(n−1, α2 ) √ , X̄ + t(n−1, α2 ) √ .
n
n
Exercice : Déterminer des intervalles de confiance unilatéraux pour m en Utilisant les
nombres t(n−1,a) tels que
(24)
P(tn−1 ≥ t(n−1,a) ) = a (a ∈]0, 1[).
B. Le test de Student
La méthode d’estimation précédente est équivalente au test suivant :
10
Théorème 3.2 (Student3 , 1908) : Etant donné X = (X1 , . . . , Xn ) un n-échantillon de la
loi normale N (m, σ 2 ), et la statistique
√
n(X̄ − m)
Tn−1 =
,
S
pour tester l’hypothèse H0 : ”m = m0 ” contre l’hypothèse H1 : m 6= m0 ” (resp. H1 : m > m0 ”,
resp. H1 : m < m0 ”), on rejette H0 au profit de H1 si |Tn−1 | > t(n−1, α2 ) (resp. Tn−1 > t(n−1, α2 ) ,
resp. Tn−1 < −t(n−1, α2 ) ), où t(n−1,α) désigne la queue d’ordre α de la distribution tn−1 donnée
par (24).
démonstration : ce test est justifié mathématiquement par la méthode d’estimation donnée
dans le paragraphe précédent et heuristiquement par le fait que si l’hypothèse alternative
H1 est vraie alors Tn−1 va probablement prendre une valeur extérieure à ] − t(n−1, α2 ) , t(n−1, α2 ) [
(resp. une grande valeur i.e. supérieure à t(n−1,α) , resp. une petite valeur i.e inférieure à
−t(n−1,α) ).
Remarque 1 : Lorsque n est grand, on utilise la table de la loi normale N (0, 1) pour
déterminer les seuils t(n−1,α) , ce qui est justifié par la proposition 2.4.
Remarque 2 : On peut aussi utiliser le test de Student pour des grands échantillons non
gaussiens, ce qui est justifié par le théorème limite suivant :
Proposition 3.3 : Si X̄n et Sn2 sont la moyenne et la variance empiriques d’un n-échantillon
X1 , . . . , Xn d’une loi de moyenne m et de variance σ 2 , alors
√
n(X̄n − m)
→ N (0, 1) en loi (n → ∞).
(25)
Sn
√
démonstration : D’après le théorème limite central, n(X̄σn −m) → N (0, 1) en loi quand
n → ∞) et Sσn → 1 p.s. (n → ∞) d’après la loi forte des grands nombres. Comme
√
√
n(X̄n −m)
n(X̄n −m)
=
/ Sσn , les deux convergences précédentes donnent le résultat. Sn
σ
3.3
Le test de Student d’égalité des moyennes de deux lois normales
Soit X = (X1 , . . . , Xn1 ) un n-échantillon issu d’une loi normale N (m1 , σ12 ) et Y =
(Y1 , . . . , Yn2 ) un n-échantillon, indépendant du précédent et issu d’une loi normale N (m2 , σ22 ).
On notera respectivement X̄ et Ȳ les moyennes empiriques de ces deux échantillons. Claireσ2
σ2
σ2
σ2
ment, X̄ suit la loi N (m1 , n11 ), Ȳ suit la loi N (m2 , n22 ) et X̄ − Ȳ suit la loi N (m1 −m2 , n11 + n22 ).
Problème : On veut tester l’hypothèse H0 : ”m1 = m2 ” contre l’hypothèse H1 : m1 6= m2 ”
(resp. H1 : m2 > m1 ”, resp. H1 : m2 < m1 ”). Tout dépend de la connaissance ou non des
variances σ12 et σ22 :
A. Cas où les variances sont connues : On forme le rapport
X̄ − Ȳ
N=q 2
.
σ1
σ22
+ n2
n1
3
de son vrai nom W. Gosset dont l’employeur (les brasseries Guinness) l’avait obligé a utiliser un pseudonyme pour publier ses recherches.
11
Sous l’hypothèse H0 , la variable aléatoire N est de loi N (0, 1). Comme d’habitude pour
a ∈]0, 1[, notons na de seuil de la queue d’ordre a de la distribution N (0, 1) (i.e. P(N (0, 1) >
na ) = a). Alors au niveau de confiance 1 − α,
on rejette H0 au profit de H1 si |N | > n α2 (resp. N < −nα , resp. N > nα ).
La justification de ce test est évidente.
B. Cas où les variances sont inconnues mais égales : Généralement la valeur exacte des
variances est inconnue est le test trivial présenté en A, ne peut pas s’appliquer. Le problème
est alors difficile. On peut néanmoins le résoudre facilement si on sait que σ12 = σ22 = σ 2 mais
σ 2 étant évidemment inconnue. Cette hypothèse est loin d’être farfelue et elle est souvent
vérifiée dans certaines questions pratiques. La statistique liée au problème que nous étudions
serait
X̄ − Ȳ
N= q
σ n11 + n12
(26)
si σ était connue. Il nous faut donc remplacer σ par un estimateur convenable :
Proposition 3.4 : Sous les hypothèses précédentes, la statistique
√
(X̄ − Ȳ ) n1 + n2 − 2
qP
,
(27)
T =q
Pn2
n1
1
1
2
2
+ n2
j=1 (Yj − Ȳ )
i=1 (Xi − X̄) +
n1
suit la loi de Student tn1 +n2 −2 à n1 + n2 − 2 degrés de liberté.
P 1 (Xi −X̄)2
démonstration : D’après le théorème 2.2 on sait que la variable aléatoire ni=1
σ2
Pn2 (Yj −Ȳ )2
2
2
(resp. j=1 σ2 ) suit la loi χn1 −1 (resp. la loi χn2 −1 ). Par la propriété d’additivité des lois
du chi2 indépendantes, la variable aléatoire
(28)
2
χ =
n1
X
(Xi − X̄)2
i=1
σ2
n2
X
(Yj − Ȳ )2
+
σ2
j=1
suit la loi χ2n1 +n2 −2 à n = n1 + n2 − 2 degrés de liberté. Mais avec les notations (26) et (27),
la variable aléatoire T s’écrit
√
N n
(29)
T = p ,
χ2
où les variables aléatoires
N et χ2 sont indépendantes. En effet d’après le théorème 2.2,
Pn1
on sait que X̄ et i=1 (Xi − X̄)2 sont des variables aléatoires indépendantes et comme les
échantillons
X et Y sont indépendants, il y a aussi indépendance entre X̄ (resp. Ȳ ) et
qP
Pn2
n1
2
2
2
i=1 (Xi − X̄) +
j=1 (Yj − Ȳ ) , ce qui implique l’indépendance de N et χ . Par définition la variable T de (29) suit la loi de Student tn1 +n2 −2 .
Le test de Student d’égalité des moyennes (voir le problème posé au début de ce
paragraphe) consiste alors à utiliser la statistique T donnée par la formule (27) et à procéder
comme suit :
on rejette H0 au profit de H1 au risque4 α ∈]0, 1[ si |T | > t(n, α2 ) (resp. T < −t(n,α ),
4
ou au niveau de confiance 1 − α.
12
resp. T > t(n,α) ),
où t(n,α) désigne la borne de la queue d’ordre α de la loi de Student tn (avec n = n1 + n2 − 2).
Exemple numérique5 : On considère les données suivantes qui concernent le gain en poids
de 20 rats de laboratoire dont les dix premiers (resp. les dix autres) ont reçu leur ration de
proteines sous forme de cacahuètes crues (resp. de cacahuètes grillées) :
X : 62, 56, 61, 58, 60, 44, 56, 60, 56, 63
Y : 53, 51, 62, 55, 59, 56, 61, 54, 47, 57
Le problème est alors de tester si la torréfaction des cacahuètes a une influence sur la prise
de poids.
Alors le calcul explicite
aux échantillons observés
Plié
P10 donne 2les valeurs suivantes :
10
2
X̄ = 57, 6, Ȳ = 55, 5, i=1 (Xi − X̄) = 264, j=1 (Yj − Ȳ ) = 189 et la variable T de (27)
prend la valeur
√
2, 1 18
T =√ q
= 0, 94.
1
1
453 10
+ 10
La table de la loi tn (avec n = 18) montre qu’au risque α = 0, 05, correspondant le seuil
tn, α2 = 2, 101. Comme on a donc |T | = 0, 94 ≤ tn, α2 = 2, 101, on accepte l’hypothèse H0
d’égalité des moyennes des lois d’où sont issus les deux échantillons X et Y .
Remarque : Les hypothèses implicites dans l’exemple précédent sont d’une part que les
lois d’où sont extraites les échantillons X et Y sont des lois normales et d’autre part qu’elles
sont de même variance car il n’y a aucune raison sérieuse de penser que la différence d’alimentation va impliquer des variances différentes dans les deux populations de rats.
3.4
Le test de Fisher-Snedecor d’égalité des variances de deux lois
normales
Dans l’utilisation du test de Student concernant l’égalité des moyennes de deux populations normales, on a fait l’hypothèse d’égalité des variances. Ceci suppose qu’on puisse
vérifier raisonnablement cette hypothèse. C’est le but de ce paragraphe.
Définition 3.5 : On appelle loi de Fisher-Snedecor, la loi d’une variable aléatoire de la
/n1
où Y1 et Y2 sont des variables aléatoires indépendantes de lois respectives χ2n1 et
forme YY21 /n
2
χ2n2 . Cette loi qui dépend des deux paramètres n1 et n2 est noté F (n1 , n2 ).
Proposition 3.6 : La loi de Fisher-Snedecor F (n1 , n2 ) a une densité de probabilité de la
forme
(30)
f(n1 ,n2 ) (x) =
( nn21 )n1 /2
.
B( n21 , n22 ) Γ( n21 )Γ( n22 )
n1 n2
où B( , ) =
.
2
2 2
Γ( n1 +n
)
2
5
tiré du livre de Hoel, Port et Stone p.91
13
x
1+
n1
−1
2
n1
x
n2
1R+ (x),
n1 +n
2
2
démonstration : Voir l’annexe du chapitre 2.
Les tables de la loi F (n1 , n2 ) : La loi de Fisher-Snedecor est tabulée. Plus précisemment
c’est en général la queue d’ordre α = 0, 05 et α = 0, 01 qui est donnée. Ainsi la table que
nous joignons à la fin de ce chapitre donne pour différentes valeurs de n2 variant de 1 à 100
et de n1 allant de 1 à 25, la valeur de la borne fn1 ,n2 ,α telle que P(F (n1 , n2 ) ≥ fn1 ,n2 ,α ) = α.
6
densité de F (n1 , n2 )
L’aire hachurée vaut α
0
1
-
fn1 ,n2 ,α
Exercice (asymptotique de la loi F (n1 , n2 )) : Soient Y1 et Y2 comme dans la définition cidessus.
Y1 /n1
.
1)calculer E
Y2 /n2
2)Montrer que
Y1 /n1
→ 1 P − p.s. (n1 → +∞, n2 → +∞).
Y2 /n2
3) Expliquer comment on trouve les bornes fn1 ,n2 ,α lorsque les valeurs de n1 et n2 ne figurent
plus dans la table (on distinguera les trois cas i) n1 petit et n2 grand, ii) n1 grand et n2 petit,
iii) n1 et n2 grands).
A. Test d’hypothèse simple sur la variance d’une loi normale :
Etant donné un n-échantillon X = (X1 , . . . , Xn ) issu d’une loi normale N (m, σ 2 ) de variance σ 2 inconnue, et σ02 un nombre qu’on soupçonne être égal à σ 2 . On veut :
tester l’hypothèse H0 : ”σ 2 = σ02 ” contre l’hypothèse alternative H1 : ”σ 2 6= σ02 ”
(resp. H1 : ”σ 2 < σ02 ”, resp. H1 : ”σ 2 > σ02 ”)
Pn
1
2
Solution : On prend S 2 = n−1
i=1 (Xi − X̄) comme statistique du problème puisque
2
c’est l’estimateur empirique de σ . Si l’hypothèse H0 est vraie, la variable aléatoire
(n − 1)S 2
χ =
,
σ02
2
suit la loi χ2n−1 du χ2 à n − 1 degrés de liberté. Désignons par χ2n−1,α la borne de la queue
d’ordre α de la loi χ2n−1 . Alors :
i)(test bilatéral) on rejette H0 au profit de H1 : ”σ 2 6= σ02 ” si χ2 > χ2n−1, α ou si χ2 < χ2n−1,1− α
2
2
ii) (test latéral droit) on rejette H0 au profit de H1 : ”σ 2 > σ02 ” si χ2 > χ2n−1,α .
iii) (test latéral gauche) on rejette H0 au profit de H1 : ”σ 2 < σ02 ” si χ2 < χ2n−1,1−α .
Remarque : Pour le test bilatéral ,comme on l’a déjà vu, on répartit le risque sur les
14
grandes et les petites valeurs de χ2 car si l’hypothèse H0 est vraie la valeur de la statistique
χ2 aura tendance à prendre une valeur raisonnable ni trop grande, ni trop petite. Pour les
tests unilatéraux il n’en est pas de même par exemple l’hypothèse H1 : ”σ 2 > σ02 ” est plus
vraisemblable si χ2 prend une valeur grande.
B. Le test de Fisher-Snedecor :
P 1
P 2
Soient S12 = n11−1 ni=1
(Xi − X̄)2 et S22 = n21−1 ni=1
(Yi − Ȳ )2 , les variances empiriques
de deux échantillons indépendants X = (X1 , . . . , Xn1 ) et Y = (Y1 , . . . , Yn2 ) issus respectivement de deux lois normales N (m1 , σ12 ) et N (m2 , σ22 ). On veut, au risque α, tester l’égalité
des variances de ces deux lois normales ;
Théorème 3.7 (de Fisher-Snedecor) :
1) Pour tester au risque α, l’hypothèse H0 : ”σ12 = σ22 ” contre l’alternative unilatérale
H1 : ”σ12 > σ22 (resp. H1 : ”σ12 < σ22 ), on forme le rapport
F =
S12
S22
(resp. F =
S22
)
S12
et on rejette H0 au profit de H1 si F > fn1 −1,n2 −1,α (resp. F > fn2 −1,n1 −1,α ), où fn1 −1,n2 −1,α
désigne la borne de la queue d’ordre α de la distribution de Fisher-Snedecor F (n1 −1, n2 −1).
2) Si on veut tester au risque α, l’hypothèse H0 : ”σ12 = σ22 ” contre l’alternative bilatérale H1 : ”σ12 6= σ22 , on rejette H0 au profit de H1 si
S12 ≥ S22
et
S12
≥ fn1 −1,n2 −1, α2 ,
S22
S22 ≥ S12
et
S22
≥ fn2 −1,n1 −1, α2 .
S12
ou si
2
χ2n1 −1
2 χn2 −1
suit la loi
(resp.
(resp. σ2
), sous l’hydémonstration : 1) Comme
n1 − 1
n2 − 1
2
S
pothèse H0 , le quotient S12 , suit la loi de Fisher-Snedecor F (n1 − 1, n2 − 1). Alors si on note
2
PH0 la probabilité conditionnelle sachant H0 , on a par définition :
S12
σ12
S22 )
PH0 (F > fn1 −1,n2 −1,α ) ≤ α,
i.e. la probabilité de rejeter H0 si H0 est vraie, est inférieure ou égale à α, ce qui justifie le
test unilatéral.
2) Pour le test bilatéral, on a :
2
S22
2
2
2
2 S1
PH0 (rejeter H0 ) = PH0 S1 ≥ S2 , 2 ≥ fn1 −1,n2 −1, α2 + PH0 S2 ≥ S1 , 2 ≥ fn2 −1,n1 −1, α2
S2
S
2
2
1
S1
S2
≤ PH0
≥ fn1 −1,n2 −1, α2 + PH0
≥ fn2 −1,n1 −1, α2
2
S2
S12
α α
≤ + = α.
2
2
Ce qui justifie le test.
15
4
Annexe
4.1
Théorème limite central dans Rk , loi multinomiale et convergence vers la loi du Chi-deux
A. Le théorème limite central dans Rk :
Soit X1 , . . . , Xn un n-échantillon issu d’une loi F sur Rk de moyenne m et de matrice de
covariance Γ. On rappelle (cf. le cours de Probabilités) que :
(31)
1
√ (X1 + · · · + Xn − nm) → Nk (0, Γ)
n
en loi (n → ∞),
où Nk (0, Γ) est une loi gaussienne sur Rk , centrée et de matrice de covariance Γ. Si Y est un
vecteur aléatoire de loi Nk (0, Γ), il a une fonction caractéristique φ(t) = E(ei<t|Y > ) (t ∈ Rk )
donnée par
1
(32)
φ(t) = exp − < t|Γt > ,
2
et lorsque Γ est inversible, une densité donnée par
1
1
−1
p exp − < x|Γ x > ,
(33)
f (x) =
2
(2π)k/2 |Γ|
où |Γ| désigne le déterminant de la matrice Γ.
B. La loi multinomiale (Rappel) :
Notation : Toute mesure de probabilité concentrée sur l’ensemble {1, 2, . . . , k} des entiers
entre 1 et k, est représentée par un vecteur ligne
p = (p1 , . . . , pk ).
(34)
Soit n ≥ 1 un entier fixé et (X1 , . . . , Xn ) un n-échantillon d’une loi p = (p1 , . . . , pk ) portée
par {1, 2, . . . , k}. Pour chaque 1 ≤ i ≤ k, on considère la variable aléatoire
Ni =
(35)
n
X
1[Xj =i] .
j=1
La loi du vecteur aléatoire N = (N1 , . . . , Nk ) est la loi multinomiale de paramètres (n; p1 , . . . , pk )
(voir le chapitre 2).
Théorème 4.1 :
(36)
lim
n→∞
Nk − npk
N1 − np1
,..., √
√
np1
npk
L
= Nk (0, Γ),
√
où Γ = Ik − pi pj 1≤i,j≤k . De plus Nk (0, Γ) est une loi gaussienne dégénérée qui est la projec√
√
√
tion d’un vecteur Nk (0, Ik ) sur l’hyperplan de Rk orthogonal au vecteur p = ( p1 , . . . , pk ).
16
démonstration : Pour j ∈ N, posons
1
1
Zj = √ (1[Xj =1] − p1 ), . . . , √ (1[Xj =k] − pk ) .
p1
pk
Les vecteurs aléatoires Zj sont indépendants et de même loi et on a
1
Nk − npk
N1 − np1
√ (Z1 + · · · + Zn ) =
,..., √
.
√
np1
npk
n
Le théorème limite central donne alors le résultat (36) où Γ = (Γ)ij est la matrice des
covariances du vecteur aléatoire Z1 donnée par
1
1
Γij = E √ (1[X1 =i] − pi ) √ (1[X1 =j] − pj ) .
pi
pj
√
Un calcul très simple, laissé en exercice, montre alors que Γ = Ik −
pi pj 1≤i,j≤k où Ik est
la matrice identité de Rk . Pour tout x ∈ Rk , on voit alors facilement que
√
√
Γx = x− < x| p > p
√
i.e. Γx est la projection orthogonale de x sur l’hyperplan ( p)⊥ . En particulier la matrice Γ
est de rang k − 1. De plus si Y = (Y1 , . . . , Yk ) est un vecteur gaussien Nk (0, Ik ), le vecteur
aléatoire ΓY a pour fonction caractéristique
t
ϕΓY (t) = E ei<t|ΓY > = E ei< Γt|Y >
1
= ϕY (t Γt) = exp − ||t Γt||2
2
1
= exp − ||Γt||2 .
2
√ √
√
Or ||Γt||2 =< Γt|Γt >=< Γt|t − (t| p) p >=< Γt|t > car Γt est orthogonal à p. Ceci
montre que ϕΓY (t) = exp − 21 < t|Γt > est la fonction caractéristique de la loi Nk (0, Γ),
L
d’où ΓY = Nk (0, Γ).
C. Convergence vers la loi du chi-deux
On a vu au chapitre 2 le résultat suivant :
(37)
k
X
(npi − Ni )2
i=1
npi
L
→ χ2 (k − 1) (n → ∞).
1
k
, . . . , N√k −np
, la quantité (37) est précisément
démonstration : Si on note Xn = N√1 −np
np1
npk
2
2
égale à ||Xn || . Mais la fonction f : (x1 , . . . , xk ) 7→ x1 + · · · + x2k = ||x||2 étant continue sur
Rk , on sait d’après le cours de probabilités que la convergence en loi Xn → ΓY implique que
L
f (Xn ) → f (ΓY ). Autrement dit
L
||Xn || → ||ΓY ||2 .
Mais d’après le théorème de Cochran ||ΓY ||2 suit la loi χ2 (k − 1). D’où le résultat.
17
4.2
4.2.1
La loi de Student
Densité de la loi de Student
Soient X et Y des variables aléatoires indépendantes telles que X est de loi N (0, 1) est
de Y de loi χ2n . Le couple (X, Y ) a pour densité de probabilité la fonction f donnée par
1
(1/2)n/2 n −1 −y/2
2
f (x, y) = √ e−x /2
y2 e
1[0,+∞[ (y)
Γ( n2 )
2π
2−n/2 −x2 /2 n −1 −y/2
=√
1[0,+∞[ (y).
e
y2 e
2πΓ( n2 )
Dans la suite nous noterons C =
bornée. On a
−n/2
√2
2πΓ( n
)
2
et T =
√
nX
√ .
Y
Soit g : R → R une fonction borélienne
√
nx 2 n
g √ e−x /2 y 2 −1 e−y/2 dxdy
y
R×R+
Z Z
(38)
E (g(T )) = C
√
√
nx
√
et v = y, ce qui équivaut à x = n−1/2 u v
y
D(x,y)
= n−1/2 v 3/2 . Comme le domaine d’intégration
D(u,v)
Faisons le changement de variable u =
et
y = v. Le déterminant jacobien vaut
change pas, il vient
Z Z
D(x, y) n
2
dudv
g(u)e−u v/2n v 2 −1 e−v/2 E (g(T )) = C
D(u, v)
R×R+
Z +∞
Z +∞
n+1
v
u2
−1/2
−1
−
(1+
)
n dv
v 2 e 2
g(u)
=n
C
du.
ne
−∞
0
Mais en utilisant la densité de la loi Γ(α, b) avec α =
n+1
2
et b =
1
2
1+
u2
n
, on voit que
− n+1
n+1
2
u2
= 2 2 Γ( n+1
)
1
+
. Il
2
n
l’intégrale en dv dans la formule précédente est égale à Γ(α)
bα
en résulte que l’on a
− n+1
Z +∞
2
)
1 Γ( n+1
u2
2
E (g(T )) =
g(u) √
1+
du,
n
n
πn Γ( 2 )
−∞
− n+1
n+1
2
1 Γ( 2 )
u2
√
ce qui montre que la fonction u 7→ πn Γ( n ) 1 + n
est la densité de T .
2
4.2.2
Espérance et Variance de la loi de Student
On sait déjà que la loi de Student est centrée car sa densité est une fonction paire. En
fait pour n = 1, E(T ) n’existe pas et si n ≥ 2, E(T ) = 0.
Pour le calcul de la variance supposons n ≥ 3 et utilisons la formule (38) avec la fonction
g(u) = u2 . On a
Z Z
n
n 2−n/2
2
2
Var(T ) = E T = √
x2 e−x /2 y 2 −2 e−y/2 dxdy
n
2πΓ( 2 )
R×R+
Z +∞
−n/2 Z +∞
n−2
1 2 −x2 /2
n2
√ xe
=
dx
y 2 −1 e−y/2 dy
n
Γ( 2 ) −∞
2π
0
−n/2
n−2
n2
n
=
2 2 Γ
−1 ,
n
Γ( 2 )
2
18
la dernière égalité résultant de l’utilisation de la densité de la loi du chi-deux
à n − 2 degrés
n
n
de liberté pour évaluer l’intégrale par rapport à y. Mais ( 2 − 1)Γ 2 − 1 = Γ( n2 ). D’où
Var(T ) =
n
n−2
(sin ≥ 3).
Si n ≤ 2, E(T 2 ) = +∞ et donc Var(T ) n’existe pas.
4.3
4.3.1
La loi de Fisher-Snedecor
Densité de la loi de Fisher-Snedecor
Soient X et Y des variables aléatoires suivant la loi du chi-deux à respectivement n1 et
n2 degrés de liberté. D’après la formule (4) le couple (X, Y ) a une densité de probabilité de
la forme
2−(n1 +n2 ) n1 −1 n2 −1 −(x+y)/2
x2 y2 e
f (x, y) = n1
1R+ ×R+ (x, y).
Γ( 2 )Γ( n22 )
Posons F =
n2 X
,
n1 Y
C=
2−(n1 +n2 )
n
n
Γ( 21 )Γ( 22 )
et soit g : R → R une fonction borélienne bornée. On a
Z Z
(39)
g
E (g(F )) = C
R+ ×R+
n2 x n1 −1 n2 −1 −(x+y)/2
x2 y2 e
dxdy.
n1 y
D(x,y)
Faisons le changement de variable u = nn21xy et v = y de déterminant jacobien D(u,v)
=
Comme le domaine d’intégration reste égal à R+ × R+ , on a
Z Z
n1 n21 −1 n2 −1 −v(1+ nn1 u) n1
2
v2 e
g(u)
uv
vdudv
E (g(F )) = C
n2
n2
R+ ×R+
Z +∞
Z
n
n1
n1 +n2
n1 n1 +∞
−1
−1 −v(1+ n21 u)
2
2
2
g(u)u
v
e
= C( )
dv du.
n2
0
0
n1
v.
n2
Par le changement de variable t = 2v(1 + nn12 u), l’intégrale précédente en dv
n1 +n2
n1 +n2 R +∞ n1 +n2
n1 +n2
n1 +n2
t
2
vaut 2− 2 (1 + nn12 u)− 2
t 2 −1 e− 2 dt = 2− 2 (1 + nn12 u)− 2 2n1 +n2 Γ( n1 +n
).
2
0
D’où
n1 n1 n1 +n2 n1 + n2
)
E (g(F )) = C( ) 2 2 2 Γ(
n2
2
Z
+∞
g(u)u
0
n1
−1
2
n1
1+ u
n2
− n1 +n
2
2
du.
Compte tenu de la valeur de C, ceci montre que la densité de F est de la forme
fF (u) =
n1
n2
n21
− n1 +n
2
2
2
n1
Γ( n1 +n
)
n
1
−1
2
2
u
1+ u
1R+ (u),
Γ( n21 )Γ( n22 )
n2
ce qui démontre le résultat de la proposition 3.6.
19
4.3.2
Espérance et variance de la loi de Fisher-Snedecor
Supposons n2 ≥ 3. La formule (39) avec g(u) = u, nous donne
2−(n1 +n2 ) n2
E(F ) = n1
Γ( 2 )Γ( n22 ) n1
−(n1 +n2 )
2
n2
= n1
n2
Γ( 2 )Γ( 2 ) n1
−(n1 +n2 )
2
n2
= n1
n2
Γ( 2 )Γ( 2 ) n1
=
Z Z
n2
−2
2
n1
x2y
Z
R+ ×R+
+∞ n
1
2
x e
y
dx
n2
−2
2
e−y/2 dy
0
0
Z
+∞
Z
−x/2
e−(x+y)/2 dxdy
+∞
x
n1 +2
−1
2
−x/2
e
+∞
Z
dx
y
0
n2 −2
−1
2
e−y/2 dy
0
2−(n1 +n2 ) n2 n1 +2 n1 + 2 n2 −2 n2 − 2
2
Γ(
)2
Γ(
)
Γ( n21 )Γ( n22 ) n1
2
2
d’après l’expression de la densité du chi-deux à n1 + 2 (resp. n2 − 2) degrés de liberté pour
la valeur de l’intégrale
ci-dessus
en dx (resp. en dy). Mais puisque Γ( n12+2 ) = n21 Γ( n21 ) et
Γ( n22 = n22 − 1 Γ n22 − 1 , l’expression précédente se simplifie et on obtient
n2
n2 − 2
E(F ) =
(si n2 ≥ 3).
Remarque : 1) Pour n2 ≤ 2, E(F ) n’existe pas.
2) E(F ) ne dépend pas de n1 (nombre de degrés de liberté du numérateur de F ).
Calculons maintenant le moment d’ordre 2 de F . Supposons n2 ≥ 5. En prenant la fonction
g(u) = u2 dans la formule (39), on obtient
2−(n1 +n2 )
E(F ) = n1
Γ( 2 )Γ( n22 )
2
−(n1 +n2 )
2
= n1
Γ( 2 )Γ( n22 )
−(n1 +n2 )
2
= n1
Γ( 2 )Γ( n22 )
−(n1 +n2 )
=
2
Γ( n21 )Γ( n22 )
n2
n1
2 Z Z
n2
n1
2 Z
n2
n1
2 Z
n2
n1
2
x
n1
+1
2
y
n2
−3
2
e−(x+y)/2 dxdy
R+ ×R+
+∞
x
n1
+1
2
−x/2
e
+∞
Z
dx
0
y
n2
−3
2
e−y/2 dy
0
+∞
x
n1 +4
−1
2
−x/2
e
0
Z
dx
+∞
y
n2 −4
−1
2
e−y/2 dy
0
2n1 +4 Γ(
n1 + 4 n2 −4 n2 − 4
)2
Γ(
)
2
2
Après simplification des fonctions Γ comme dans le point 1), on obtient
E(F 2 ) =
n22 (n1 + 2)
n1 (n2 − 2)(n2 − 4)
(si n2 ≥ 5).
D’où on déduit
2
2
Var(F ) = E(F ) − (E(F )) = 2
n2
n2 − 2
On notera que si n2 ≤ 4, E(F 2 ) = +∞.
20
2
(2n1 + n2 − 2)
n1 (n2 − 4)
(si n2 ≥ 5).

Documents pareils