Tests Statistiques

Transcription

Tests Statistiques
Tests Statistiques
Tony Bourdier – ESSTIN 2009-2010
1
Formulation
1.1
Notion de test
Soit X une variable aléatoire réelle de densité fθ (x) dépendant d’un paramètre θ de valeur inconnue.
On formule deux hypothèses sur la valeur de θ :
H0 : l’hypothèse nulle
H1 : l’hypothèse alternative
Chacune de ces hypothèses peut être simple : θ = θ0 (θ a la valeur θ0 ) ou multiple : θ ∈ Θ
L’une de ces hypothèses est vraie. Un test est une règle de choix entre les deux hypothèses qui est
obtenue à partir de l’observation d’un échantillon i.i.d. de X.
1.2
1.2.1
Règles de décisions
Décisions possibles
La règle conduit à l’une des deux décisions suivantes :
1. rejeter l’hypothèse H0 (= accepter H1 )
2. ne pas rejeter l’hypothèse H0 (= accepter H0 )
1.2.2
Erreurs de décision et risque d’erreurs
Décision
Hypothèse vraie
H0
H1
Soit le test
+
Ne pas rejeter H0
Rejeter H0
Pas d’erreur 1 − α
Erreur de 2e espèce β
Erreur de 1ere espèce α
Pas d’erreur Π = 1 − β
H0 : θ ∈ Θ0
H1 : θ ∈ Θ1
Définition 1.1 : On définit :
1. La fonction risque de 1ère espèce :
Pour x ∈ Θ0 : α(x) = P(rejeter H0 lorsque θ = x).
supx∈Θ0 α(x) = α : seuil ou risque du test
2. La fonction risque de 2nde espèce :
Pour x ∈ Θ1 : β(x) = P(ne pas rejeter H0 lorsque θ = x)
3. La fonction puissance :
Pour x ∈ Θ1 : Π(x) = 1 − β(x) = P(rejeter H0 lorsque θ = x)
1.2.3
Méthode de test de Neyman et Pearson
On cherche à déterminer la règle de décision de telle manière que les risques d’erreur soient minimaux.
Or, en général, les risques de première et deuxième espèce sont antagonistes : si on diminue l’un,
on augmente l’autre.
.
La méthode de Neyman et Pearson consiste à :
– fixer le seuil (risque) α = supx∈Θ0 α(x)
– minimiser β(x) (= maximiser Π(x) : c’est le critère de la puissance maximale)
La valeur de α étant fixée (petite), l’hypothèse H0 est privilégiée : c’est celle que l’on ne
veut pas rejeter à tort.
2
Théorème de Neyman
+
Définition 2.2 : Le test
H0 : θ ∈ Θ0
H1 : θ ∈ Θ1
∀x ∈ Θ0 , α(x) ≤ α
est dit sans biais lorsque
⇒
∀x ∈ Θ1 , Π(x) ≥ α
H0 : θ ∈ θ0
.
H1 : θ ∈ θ1
Si X admet une densité de probabilité fθ (x) > 0 pour tout x, alors, pour tout α ∈ [0, 1], il
existe un test de puissance maximale de H0 contre H1 défini par la région d’acceptation de
l’hypothèse H0 :
Théorème 2.1 : (de Neyman) On considère le test
Aα = {x ∈ Rn ; Lθ1 (x) ≤ c(α).Lθ0 (x)}
-
avec c(α) > 0 et tel que Pθ0 (Aα ) = 1 − α.
En outre, ce test est sans biais.
3
Test sur la moyenne d’une loi normale d’écart-type connu
X ∼ N (m, σ), σ connu.
3.1
Tests entre hypothèses simples
H0 : m = m0
H1 : m = m1
(X1 , ..., Xn ) un n-échantillon i.i.d.de X. On applique le théorème de Neyman :
Soit le test
Région d’acceptation de H0 :
Aα = {x ∈ Rn ; Lm1 (x) ≤ c(α).Lm0 (x)}
Règle de décision : Si (x1 , ..., xn ) ∈
/ Aα , on rejette H0 , sinon, on accepte H0 .
Lm (x) =
n
Y
i=1
1
σ n (2π)n/2
1
e− 2
2 1
exp − 2 i=1 xi −m
σ
=
Pn
xi −m0 2
1
exp − 2 i=1
σ
1 Pn
= exp − 2 i=1 (xi − m1 )2 − (xi − m0 )2
2σ
1 Pn
= exp − 2 i=1 (m0 − m1 )(2xi − m0 − m1 )
2σ
1
= exp − 2 (m0 − m1 )2n(x − 21 (m0 + m1 ))
2σ
≤ c(α) pour définir la région d’acceptation
Lm1 (x)
Lm0 (x)
fm (xi ) =
Pn
1
Pn
i=1
2
( xi −m
)
σ
⇔−
1
1
(m0 − m1 )n(x − (m0 + m1 )) ≤ ln (c(α))
σ2
2
1er cas : m1 > m0
1
σ2
(1) ⇔ x − (m0 + m1 ) ≤
ln (c(α))
2
n(m1 − m0 )
σ2
1
⇔x≤
ln (c(α)) + (m0 + m1 ) = d(α)
n(m1 − m0 )
2
La région d’acceptation de H0 est de la forme :
Aα = {x ∈ Rn ; x ≤ d(α)}
Déterminons d(α).
Le seuil α est fixé :
α = P(rejeter H0 lorsque H0 est vraie) = P(rejeter H0 lorsque m = m0 ) = Pm0 (Aα )
P X > d(α) lorsque
m
=
m
0
= α σ
Or, (m = m0 ) ⇒ X ∼ N m0 , √
n
On se ramène donc à la loi normale centrée réduite :
!
X − m0
d(α) − m0
>
α=P
σ
σ
√
⇒
d(α) − m0
√σ
n
n
√
n
= u(α)
d’où d(α) = m0 + u(α) √σn
Conclusion
:
H0 : m = m0
H1 : m = m1
.
m1 > m0
Règle de décision :
Si x > m0 + u(α) √σn , on rejette H0 ,
sinon, on ne rejette pas H0 .
Remarque : Cette règle de décision ne fait pas intervenir1 la valeur de m1 .
2nd cas : m1 < m0
On a donc
⇒
−
1
(m0 − m1 )n ≤ 0
σ2
(1) ⇔ x − 12 (m0 + m1 ) ≥
⇔x≥
1 Sauf
dans l’inégalité m1 > m0
σ2
ln (c(α))
n(m1 − m0 )
σ2
ln (c(α)) + 21 (m0 + m1 ) = e(α)
n(m1 − m0 )
(1)
⇒ Aα = {x ∈ Rn ; x ≥ e(α)} région d’acceptation de H0 .
On détermine alors e(α) : α = P(rejeter
H0 lorsque H0 vraie) = Pm0 (Aα )
α = P X < e(α) lorsque m = m0
σ
X ∼ N m0 , √
n
On se ramène donc à la loi normale centrée réduite :
Or (m = m0 ) ⇒
α=P
⇒
e(α) − m0
√σ
n
√σ
n
<
e(α) − m0
!
√σ
n
= −u(α) ⇔ e(α) = m0 − u(α) √σn
Conclusion
:
H0 : m = m0
H1 : m = m1
.
X − m0
m1 < m0
Règle de décision :
Si x < m0 − u(α) √σn , on rejette H0 ,
sinon, on ne rejette pas H0 .
3.2
Test unilatéral à droite
H0 : m = m0
H1 : m > m0
au seuil α
H0 : m = m0
ne dépend pas de m1 . On va donc
H1 : m = m1
la prendre pour règle de décision du test unilatéral à droite. (C’est le test le plus puissant de seuil
α par Neyman)
Soit m1 > m0 . La règle de décision du test
.
Règle de décision :
Si x > m0 + u(α) √σn , on rejette H0 ,
sinon, on ne rejette pas H0 .
+
Définition 3.3 : On dit que le test unilatéral à droite est uniformément le plus puissant
de seuil α (UMP).
Fonction puissance :
Pour m1 > m0 :
Π(m1 ) = P(rejeter H0 lorsque m = m1 ) = Pm1 (Aα )
Π(m1 ) = P X > m0 + u(α) √σn lorsque m = m1
Or (m = m1 ) ⇒ X ∼ N m1 , √σn
On se ramène donc à la loi normale centrée réduite :
Π(m1 ) = P
On pose
m0 − m1
√σ
n
=λ<0
X − m1
√σ
n
>
m0 − m1
√σ
n
!
+ u(α)
(m1 > m0 )
Π(m1 ) = Π1 (λ) = 1 − Φ (λ + u(α)) = Φ (−λ − u(α))
Donc
où Φ est la fonction de répartition de N (0, 1).
H0 : m ≤ m0
au seuil α
H1 : m > m0
ère
Soit m2 ≤ m0 , on a la fonction risque de 1 espèce :
α(m2 ) = P(rejeter H0 lorsque m = m2 ) = P X > m0 + u(α) √σn lorsque m = m2
Remarque : Soit le test
Or (m = m2 ) ⇒ X ∼ N m2 , √σn
On se ramène donc à la loi normale centrée réduite :
α(m2 ) = P
X − m2
√σ
n
>
m0 − m2
√σ
n
|
{z
!
+ u(α)
≤α
}
≥u(α) car m2 ≤m0
⇒ Ce test est UMP de seuil α.
3.3
Test unilatéral à gauche
H0 : m = m0
au seuil α
H1 : m < m0
On utilise la règle de décision lorsque m1 < m0 , donc la règle de décision du test UMP est :
Soit le test
.
Règle de décision :
Si x < m0 − u(α) √σn , on rejette H0 ,
sinon, on ne rejette pas H0 .
Fonction puissance :
Pour m1 < m0 :
Π(m1 ) = P(rejeter H0 lorsque m = m1 ) = Pm1 (Aα )
Π(m1 ) = P X < m0 − u(α) √σn lorsque m = m1
On se ramène donc à la loi normale centrée réduite :
!
X − m1
m0 − m1
Π(m1 ) = P
<
− u(α)
σ
σ
√
On pose
m0 − m1
√σ
n
=λ>0
n
√
n
(m1 < m0 )
Donc
Π(m1 ) = Π2 (λ) = Φ (λ − u(α))
3.4
Test bilatéral
H0 : m = m0
au seuil α
H1 : m 6= m0
Il paraît naturel de prendre la règle de décision suivante :
Soit le test
.
Règle de décision :
Si x < m0 − u α2 √σn ou x > m0 + u α2 √σn on rejette H0 ,
sinon m0 − u α2 √σn < x < m0 + u α2 √σn on ne rejette pas H0 .
-
Théorème 3.2 : Ce test est UMP dans la classe des tests sans biais.
Fonction puissance :
Pour m1 6= m0 :
Π(m1 ) = P(rejeter H0 lorsque m = m1 )
= P X < m0 − u α2 √σn ou X > m0 + u α2 √σn lorsque m = m1
⇒ Π(m1 ) = P
X − m1
m0 − m1
<
√σ
√σ
n
n
m0 − m1
On pose λ =
, on a alors :
√σ
n Π(m1 ) = Φ λ − u α2 + 1 − Φ
λ +
Π(m1 ) = Π3 (λ) = Φ λ − u α2 + Φ
3.5
!
−u
α
2
u α2
−λ − u
+P
α
2
,
X − m1
√σ
n
>
m0 − m1
√σ
n
!
+u
α
2
λ 6= 0
Cas d’une loi non normale
σ
Pour n grand, X ∼ N m, √ . On peut donc dans ce cas reconstruire les mêmes tests que dans
n
le cas d’une loi normale (ne nécessite pas la connaissance de la loi de X). Si on connaît la loi de
X, alors on utilise le théorème de Neyman.
4
4.1
Autres tests usuels
Test sur la moyenne d’une loi normale d’écart-type inconnu
X ∼ N (m, σ) avec σ inconnu
4.1.1
Test unilatéral à droite
H0 : m = m0
Soit le test
au seuil α
H1 : m > m0
La région d’acceptation de H0 est : Aα = {x ∈ Rn ; x ≤ d(α)}
α = P(rejeter H0 lorsque m = m0 ) = P X > d(α) lorsque m = m0
!
X − m0
Or, (m = m0 ) ⇒
∼ Tn−1
(ne fait pas intervenir σ mais seulement l’écart-type sur l’échanS
√
tillon)
n−1
α=P
X − m0
√S
n−1
>
| {z }
Tn−1
Donc d(α) = m0 + tn−1 (α) √
.
d(α) − m0
!
√S
n−1
|
{z
tn−1 (α)
}
S
n−1
Règle de décision :
s
, on rejette H0 ,
n−1
sinon, on ne rejette pas H0 .
Si x > m0 + tn−1 (α) √
Fonction puissance :
Pour m1 > m0 :
S
Π(m1 ) = P(rejeter H0 lorsque m = m1 ) = P X > m0 + tn−1 (α) √
lorsque m = m1
n−1
On a construit, pour α et n fixés, le graphe de la fonction β = 1 − Π exprimée en fonction de
m1 − m0
λ=
(courbe d’efficacité).
σ
4.1.2
Test unilatéral à gauche
H0 : m = m0
Soit le test
au seuil α
H1 : m < m0
.
Règle de décision :
s
, on rejette H0 ,
n−1
sinon, on ne rejette pas H0 .
Si x < m0 − tn−1 (α) √
4.1.3
Test bilatéral
H0 : m = m0
Soit le test
H1 : m 6= m0
.
au seuil α
Règle de décision :
Si x ∈
/ m0 − tn−1
α
2
s
s
α
√
; m0 + tn−1 2 √
, on rejette H0 ,
n−1
n−1
sinon, on ne rejette pas H0 .
Fonction puissance :
S
Π(m1 ) = P X < m0 − tn−1 α2 √
lorsque m = m1
n−1
S
α
+P X > m0 + tn−1 2 √
lorsque m = m1
n−1
On a construit, pour α et n fixés, le graphe de la fonction β = 1 − Π exprimée en fonction de
| m1 − m0 |
λ=
.
σ
4.1.4
Cas d’une loi non normale
On a, pour n grand,
X −m
√S
n−1
∼ N (0, 1).
Donc, pour n grand, on a les mêmes règles de décisions que dans le cas d’une loi normale à condition
de remplacer tn−1 par u.
4.2
Tests sur la variance d’une loi normale de moyenne inconnue
X ∼ N (m, σ), m inconnue
4.2.1
Test unilatéral à droite
H0 : σ 2 = σ02
au seuil α
Soit le test
H1 : σ 2 > σ02
n
Estimateur de σ 2 :
S2.
n−1
Remarque : Si m était connue, on utiliserait
1
n
Pn
i=1 (Xi
− m)2
Région d’acceptation de H0 :
Aα = x ∈ Rn ; s2 ≤ d(α)
α = P s2 > d(α) lorsque σ 2 = σ02
2
nS
2
2
2
Or, (σ = σ0 ) ⇒
∼ χn−1
σ02
nS 2
nd(α)
α=P
>
σ02
σ2
|{z} | {z0 }
χ2n−1
Donc d(α) = an−1 (α)
.
!
an−1 (α)
σ02
n
Règle de décision :
an−1 (α)
Si s2 > σ02
, on rejette H0 ,
n
sinon, on ne rejette pas H0 .
Fonction puissance :
2
2 an−1 (α)
2
2
= P S > σ0
lorsque σ = σ1
n
2
2
nS
nS
σ02
2
2
2
2
Or, (σ = σ1 ) ⇒
∼ χn−1 , donc Π(σ1 ) = P
> 2 an−1 (α)
σ12
σ12
σ1
σ1
On pose λ =
:
σ0
2
an−1 (α)
nS
2
Π(σ1 ) = Π1 (λ) = P
>
σ12
λ2
On a construit, pour α et n fixés, le graphe de β1 (λ) = 1 − Π1 (λ) (courbe d’efficacité).
Π(σ12 )
4.3
Tests sur une proportion
4.3.1
Test unilatéral à droite
H0 : p = p0
Soit le test
au seuil α
H1 : p > p0
k
Estimateur de p :
n
Région d’acceptation de H0 :
Aα = x ∈ Rn ; nk ≤ d(α)
α=P
k
n
> d(α) lorsque p = p0
k
∼N
n
Pour n grand : (p = p0 ) ⇒
r
p0 ,
p0 (1 − p0 )
n
!!
On centre et on réduit :
k
n
α=P q
|
r
d(α) = p0 + u(α)
.
− p0
p0 (1−p0 )
n
{z
N (0,1)
}
d(α) − p0
>q
!
p0 (1−p0 )
n
|
{z
u(α)
}
p0 (1 − p0 )
n
Règle de décision :
r
k
p0 (1 − p0 )
Si > p0 + u(α)
, on rejette H0 ,
n
n
sinon, on ne rejette pas H0 .
Fonction puissance :
!
r
k
p0 (1 − p0 )
> p0 + u(α)
lorsque p = p1
n
n
Π(p1 ) = P
Or (p = p1 ) ⇒

r
k
∼N
n
k
n
Π(p1 ) = P  q
− p1
p1 (1−p1 )
n
p1 ,
p1 (1 − p1 )
n
p0 − p1
Π(p1 ) = 1 − Φ  q
p1 (1−p1 )
n
!!

p0 (1 − p0 ) 
+ u(α)
p1 (1 − p1 )
p1 (1−p1 )
n



s
s
p0 (1 − p0 ) 
p1 − p0
p0 (1 − p0 ) 
+ u(α)
= Φ q
− u(α)
p1 (1 − p1 )
p1 (1 − p1 )
p1 (1−p1 )
p0 − p1
>q

p1 > p0
s
n

Documents pareils