Tests statistiques paramétriques usuels

Transcription

Tests statistiques paramétriques usuels
Chapitre 6
Tests statistiques
paramétriques usuels
Chap 6.
1.  Introduction
2.  Tests paramétriques usuels à partir
d’un échantillon
3.  Notion de puissance de test
4.  Tests de comparaison
1.  Introduction
On est souvent amenés à prendre des décisions sur la base d’un ensemble d’observations. On fera
un choix entre deux propositions contradictoires: les hypothèses H0 et H1 (nulle et alternative
respectivement), qui dépendent des paramètres théorique de la population.
Pour trancher, nous devons nous baser sur les obs. disponibles, i.e. les échantillons, avec 2 types
d’erreurs possibles:
•  Risque de 1ere espèce α=P(H0 rejetée/H0 vraie)
Fixé à une faible valeur (5% ou 1% généralement)
•  Risque de 2e espèce β=P(H0 non rejetée/H1 vraie)
•  1-β = puissance du test = P(H1 acceptée/ H1 vraie)
Si H0 rejetée, on dit que le test est significatif, le risque de cette décision, α, étant connu. Risque β
souvent inconnu: on ne peut alors pas dire qu’on accepte H0 (test non significatif).
Vérité
Décision prise
H0
H1
H0
1-α
β
H1
α
1-β
Variable de décision: variable aléatoire
dont on connait la loi de probabilité; au
moins si H0 est vraie.
Région critique: ensemble des valeurs de
la variable aléatoire de décision qui
permettent d’écarter H0 au profit de H1.
Déroulement d’un test:
1.  Choix de H0 et H1
2.  Choix de la variable de décision (statistique du test)
(choisie de façon à apporter le max d’info sur le pb posé et sa loi de probabilité sera
différente selon que l’hypothèse nulle ou alternative est vraie.)
3.  Choix de α petit (typiquement 1% ou 5%)
4.  Calcul de la région critique en fonction de α et de la statistique du test
5.  Calcul de la valeur observée de la variable de décision
6.  Comparaison et conclusion: Rejet de l’hypothèse si valeur calculée ∈ région critique
Test paramétrique: son objet est de tester une hypothèse relative à un ou plusieurs paramètres
d’une variable aléatoire (e.g. moyenne, variance) suivant une loi spécifiée ou pas.
Test simple:
H: θ = θ0, où θ0 est une valeur isolée de θ.
Test composite: H: θ ≠ θ0, θ > θ0 ou θ < θ0
Test bilatérale: région critique est séparée en 2 régions distinctes (on ne se soucie pas du signe);
Test unilatéral: région critique ne correspond qu’à une seule région connexe de l’espace des
valeurs de la variable (on se soucie du signe).
Chap 6.
1.  Introduction
2.  Tests paramétriques usuels à partir
d’un échantillon
3.  Notion de puissance de test
4.  Tests de comparaison
2. Tests paramétriques usuels à
partir d’un échantillon
2.1) Comparaison d’une moyenne à une moyenne théorique donnée
On considère une variable aléatoire X ~ N(µ,σ) avec µ inconnue.
Note: si X n’est pas Gaussienne mais que
X − µ n→∞
l’échantillon est suff. grand (n> 30);
⎯⎯⎯→ N (0,1)
σ/ n
le théorème central limite (TCL) s’applique
=> méthodes indiquées pour une variable Gaussienne sont applicables.
(
Test unilatéral:
)
ou
σ2
X ⎯⎯⎯→ N (µ , )
n
n →∞
H0: µ = µ0
H1: µ > µ0
σ2
σ connu, µ estimé par la moyenne empirique et: X ~ N ( µ ,
)
n
X − µ et Z ~ N (0,1) si H0 vraie (cad si µ=µ ).
La statistique du test est donc: Z =
0
σ/ n
Région critique:
⎛ X − µ
⎞
x
−µ
α = P X ≥ xlim / H 0 vraie = P X ≥ xlim / µ = µ0 = P⎜⎜
≥ lim
/ µ = µ0 ⎟
⎟
σ/ n
⎝ σ / n
⎠
(
⎛
x
− µ0
= P⎜ Z ≥ lim
⎜
σ/ n
⎝
) (
⎞
⎟
⎟
⎠
)
Quantile e1-α t.q.
On peut ici utiliser la table de la loi normale N(0,1)
Et H0 est rejetée si
X ≥ xlim
P(Z>=Zlim)=α (H0 rejetée)
P(Z<=e1-α)=1- α (H0 non rejetée)
soit
X ≥ µ0 + e1−α
σ
n
Test unilatéral:
H0: µ = µ0
H1: µ > µ0
σ inconnu, µ estimé par la moyenne empirique et:
La statistique du test est alors:
(démo: cf chap. 4)
T=
X −µ
avec
S/ n
S2 =
1
n −1
n
2
(
)
X
−
X
i
∑
i =1
H0 vraie, variable T suit une loi de Student à n-1 degrés de liberté.
On suit le même raisonnement que précédemment et H0 est rejetée si
X ≥ xlim
soit
X ≥ µ0 + tn −1,1−α
Remarque: même raisonnement pour tester le test unilatéral:
S
n
H0: µ = µ0
H1: µ < µ0
H0 est rejetée si
σ
X ≤ xlim
soit
X ≤ µ0 − e1−α
X ≤ xlim
soit
X ≤ µ0 − tn −1,1−α
n
Dans le cas d’une variance connue
S
n
Dans le cas d’une variance inconnue
Note: si n>30, grand échantillon => variable de décision = Z avec σ≈S (estimation)
Test bilatéral:
H0: µ = µ0
H1: µ ≠ µ0
σ2
σ connu, µ estimé par la moyenne empirique et: X ~ N ( µ ,
)
n
X
−
µ
La statistique du test est donc: Z =
et Z ~ N (0,1) si H0 vraie.
σ/ n
Région critique:
(
) (
α = P X ≥ xsup ou X ≤ xinf / H 0 vraie = P X ≥ xsup ou X ≤ xinf / µ = µ0
xsup − µ0
⎛
x − µ0
= P⎜ Z ≥
ou Z ≤ inf
⎜
σ/ n
σ/ n
⎝
)
⎞
⎟
⎟
⎠
ou
⎛
x − µ0
α = P⎜⎜ Z ≥ lim
σ/ n
⎝
⎞
⎟
⎟
⎠
Quantile e1-α/2 t.q. P(|Z|<=e1-α/2)=1- α
P(−u ≤ Z ≤ u ) = 1 − α
P( Z ≤ u ) − (1 − P( Z ≤ u )) = 1 − α
P( Z ≤ u ) = 1 −
Si on connait σ, H0 est donc rejetée si:
Z ≥e α
1−
ou si
X ≥ µ0 + e α
1−
2
σ
n
ou
2
X ≤ µ0 − e α
1−
2
σ
n
α
2
Test bilatéral:
H0: µ = µ0
H1: µ ≠ µ0
σ inconnu, µ estimé par la moyenne empirique et:
La statistique du test est donc:
T=
X − µ0
avec
S/ n
S2 =
1
n −1
n
2
(
)
X
−
X
i
∑
i =1
T suit une loi de Student à n-1 degrés de liberté.
Région critique:
⎛
⎜
α = P⎜ Z ≥ t
α
n −1,1−
⎜
2
⎝
⎞
⎟
⎟⎟
⎠
xlim = µ0 ± t
S
n −1,1−
Si on ne connait pas σ, H0 est donc rejetée avec un risque α si:
Z ≥t
n −1;1−
α
2
ou si
X ≥ µ0 + t
S
n −1;1−
α
2
n
ou
X ≤ µ0 − t
S
n −1;1−
α
2
n
α
2
n
2.2) Comparaison d’une proportion observée à une proportion théorique donnée
Nous considérons ici une variable aléatoire X prenant des valeurs binaires (0
ou 1 par exemple) et suit une loi de Bernouilli de paramètre π (fréquence
empirique).
On observe un échantillon de n variables aléatoires indépendantes.
Si nπ > 5, alors X ~ N(π, π(1- π )).
Test bilatéral:
H0: π = π0
H1: π ≠ π0
La statistique du test est alors:
Z=
X −π0
π 0 (1 − π 0 )
n
avec
H0 vraie si Z suit une loi normale N(0,1) et on rejette H0 si:
Z ≥e α
1−
Test unilatéral:
On rejette H0 si:
2
H0: π = π0
H1: π > π0 (resp. π<π0)
Z ≥ e1−α
( resp. Z ≤ e1−α )
X = p0
fréquence
observée
2.3) Comparaison d’une variance à une variance théorique
Nous considérons ici des variables aléatoires X suivant une loi normale N(µ,σ2).
H0: σ = σ0
H1: σ > σ0
Moyenne connue (peu fréquent):
La statistique du test est alors:
H0 vraie si
Note:
χ n2 =
nS 2
σ2
n
1
S2 =
n
n
Note: 1/n et non 1/(n-1) car on
veut tester si notre valeur obs est
égale à la variance théorique.
2
(
)
X
−
µ
i
∑
i =1
→ χ n2
n
2
∑ Z =∑
i
i =1
i =1
(X i − µ )2 =
σ2
n
σ2
n
∑
i =1
(X i − µ )2 = nS 2
n
σ2
Risque de 1ere espèce – région critique:
⎛ nS 2
⎞
2
⎜
α = P S ≥ klim / σ = σ 0 = P
≥ χ n,1−α ⎟
⎜ σ 2
⎟
0
⎝
⎠
(
On rejette H0 si:
)
2
2
S ≥
σ 02
n
χ n2,1−α
H0: σ = σ0
H1: σ > σ0
Moyenne inconnue (plus fréquent):
La statistique du test est alors:
H0 vraie si
S2 =
(n − 1)S 2 → χ 2
Risque de 1ere espèce
– région critique:
On rejette H0 si:
2
S ≥
2
(
)
X
−
µ
i
∑
i =1
Note: d° de liberté en moins car on
utilise les obs pour calculer S2.
n −1
σ2
1
n −1
n
⎛ (n − 1)S 2
⎞
2
⎜
α = P S ≥ klim / σ = σ 0 = P
≥ χ n −1,1−α ⎟
⎜ σ 2
⎟
0
⎝
⎠
(
σ 02
n −1
)
2
χ n2−1,1−α
Cas bilatéral:
Même méthode mais on
considère la région critique sur les
2 bords de la courbe de Chi2.
2
S ≤
σ 02
χ
2
n − 1 n −1, α
2
et
2
S ≥
σ 02
χ2
n − 1 n −1,1− α
2
Chap 6.
1.  Introduction
2.  Tests paramétriques usuels à partir
d’un échantillon
3.  Notion de puissance de test
4.  Tests de comparaison
3. Notion de puissance de test
Puissance du test = P(H1 acceptée/ H1 vraie)= 1-β
Si nous procédons à un test du type: H0: µ = µ0 et H1: µ > µ0, c’est-à-dire avec H1 composite, le
risque β ne pourra pas être calculé explicitement et donc on ne pourra pas calculer la puissance du
test.
Seul cas pour lequel nous pouvons calculer β et donc la puissance de test: cas où H1 est fixé.
On testera par exemple la moyenne d’une variable Gaussienne avec:
H0: µ = µ0 et H1: µ = µ1.
⎛
x − µ1 ⎞⎟
β = P(H 0 refusée / H1 vraie) = P X ≥ xlim / µ = µ1 = P⎜⎜ T ' ≥ lim
S / n ⎟⎠
⎝
(
)
Loi de Student à n-1 d° de liberté
β
α
risque β
(-) de risque de se tromper
en ne rejetant pas H0.
différence entre les moyennes de test
µ0 et µ1, même risque α
puissance du test
β
α
risque α de se tromper en rejetant H0
pour la même différence entre les
moyennes de test
risque β
(-) de risque de se
tromper en ne rejetant pas H0.
puissance du test
Uniquement si
taille de l’échantillon n
Propriété utile pour déterminer la taille minimale
d’un échantillon pour détecter des différences
entre des moyennes théoriques avec un faible
risque d’erreur.
4. Tests de comparaison
d’échantillons
Chap 6.
1.  Introduction
2.  Tests paramétriques usuels à partir
d’un échantillon
3.  Notion de puissance de test
4.  Tests de comparaison
Jusqu’à présent, nous avons considéré la différence entre les propriétés d’un échantillon pour
décider de la validité d’hypothèses portant sur des paramètres théoriques.
Les tests statistiques permettent aussi de répondre à des questions concernant les différences et
similitudes entre différents échantillons.
Plus particulièrement, on cherchera ici à répondre à la question suivante:
si nous considérons deux échantillons différents de taille respectivement nX et nY, prélevés
indépendamment l’un de l’autre, peut-on affirmer qu’ils sont issus de la même population
(hypothèse nulle) ou qu’ils proviennent chacun de deux populations distinctes ?
4.1) Comparaison de 2 moyennes observées pour des grands échantillons
Considérons 2 variables aléatoires X et Y suivant des lois qcq, avec
E(X)=µX, var(X)=σX2 et E(Y)=µY et var(Y)=σY2
• 1er échantillon: nX observations de X, avec nX>30.
• 2e échantillon: nY observations de Y, avec nY>30.
Variable de décision: D = X − Y
Hypothèses
H 0 : µ X = µY
H1 : µ X ≠ µY
La statistique du test est donc:
ou
Z=
H 0 : µ X − µY = 0
H1 : µ X − µY ≠ 0
X −Y
S X2 SY2
+
n X nY
et si H0 est vrai alors:
⎛
⎞
⎜
⎟
α = P⎜ Z ≥ e α ⎟
1− ⎟
⎜
2 ⎠
⎝
Le risque de 1ere espèce étant fixé (α=5% ou 1%),
on peut déduire la région critique:
On rejette H0 si:
Z ≥e α
1−
2
ou
S X2 SY2
X −Y ≥ e α
+
1−
n X nY
2
Remarque: si on veut tester: H 0 : µ X − µY = 0 ; H1 : µ X − µY > 0
On rejette H0 si:
X − Y ≥ e1−α S X2 / n X + SY2 / nY
Z ~ N (0,1)
Note: c’est un test bilatéral
si on ne s’intéresse pas au
sens de la différence entre
les moyennes.
4.2) Comparaison de 2 moyennes observées pour des échantillons Gaussiens
de taille qcq et de même variance
Considérons 2 variables aléatoires X et Y suivant des lois qcq, avec
E(X)=µX, var(X)=σ2 et E(Y)=µY et var(Y)=σ2
• 1er échantillon: nX observations de X, avec nX qcq.
• 2e échantillon: nY observations de Y, avec nY qcq.
Variable de décision: D = X − Y
Hypothèses
H 0 : µ X = µY
H1 : µ X ≠ µY
La statistique du test est donc:
H 0 : µ X − µY = 0
H1 : µ X − µY ≠ 0
ou
X −Y
T=
S
1
1
+
n X nY
avec
(n X − 1) S X 2 + (nY − 1) SY 2
S =
n X + nY − 2
2
et si H0 est vrai alors T suit une loi de Student à nx+ny-2 d° de liberté.
Le risque de 1ere espèce étant fixé (α=5%
ou 1%), on peut déduire la région critique:
On rejette H0 si:
T ≥t
nx+ ny −2;1−
α
2
⎛
⎞
⎜
⎟
α = P⎜ T ≥ t
α
nx + ny − 2;1− ⎟⎟
⎜
2 ⎠
⎝
ou
X −Y ≥ t
nx+ ny − 2;1−
αS
2
Note: c’est un test bilatéral
si on ne s’intéresse pas au
sens de la différence entre
les moyennes.
1 1
+
n X nY
Remarque: ce test n’est valable que si les variances théoriques sont égales, il est donc nécessaire
de tester en 1er lieu cette hypothèse!
4.3) Comparaison de 2 proportions observées
Considérons 2 variables aléatoires X et Y suivant des lois de Bernouilli de paramètres théoriques πX et πY.
• 1er échantillon: nX observations de X, avec une prop. obs. pX;
• 2e échantillon: nY observations de Y, avec une prop. obs. pY.
Bernouilli: E(X)= πX ; var(X)= πX(1- πX), même chose pour Y.
Variable de décision: D = X − Y
Hypothèses
H0 : π X = πY
H1 : π X ≠ π Y
La statistique du test est donc:
ou
H0 : π X − πY = 0
H1 : π X − π Y ≠ 0
p X − pY
Z=
⎛ 1
1 ⎞
p0 (1 − p0 )⎜⎜
+ ⎟⎟
⎝ n X nY ⎠
n p +n p
où p0 = X X Y Y
n X + nY
et si H0 est vrai alors Z suit une loi normale N(0,1).
Le risque de 1ere espèce étant fixé (α=5%
ou 1%), on peut déduire la région critique:
On rejette H0 si:
p X − pY ≥ e α
1−
2
⎛
⎞
⎜
⎟
α = P⎜ Z ≥ e α ⎟
1− ⎟
⎜
2 ⎠
⎝
Note: c’est un test bilatéral si
on ne s’intéresse pas au sens
de la différence entre les
moyennes.
⎛ 1
1 ⎞
⎜
⎟
p0 (1 − p0 )⎜
+
⎟
⎝ n X nY ⎠
Remarque: ce test n’est valable que si les proportions observées vérifient:
n X p0 ≥ 5 ; nY p0 ≥ 5 ; n X (1 − p0 ) ≥ 5 ; nY (1 − p0 ) ≥ 5
4.4) Comparaison de moyennes observées pour deux échantillons appariés.
On considère alors les mêmes individus dans deux expériences différentes.
e.g.: test médicaments sur les mêmes patients.
Hypothèses
H 0 : µ X = µY
H1 : µ X ≠ µY
ou
H 0 : µ X − µY = 0
H1 : µ X − µY ≠ 0
Variable de décision: les observations sont faites sur les mêmes individus et ne sont donc pas
indépendantes. Dans ce cas on considère des paires d’observations et leur différence:
di = X1,i − X 2,i
La statistique du test est alors:
d
T=
Sd / n
où
1 n
d = ∑ ( x1,i − x2,i ) et
n i=1
2
1 n
S =
di − d )
∑
(
n −1 i=1
2
d
et si H0 est vrai alors T suit une loi de Student à n-1 d° de liberté.
Le risque de 1ere espèce étant fixé (α=5%
ou 1%), on peut déduire la région critique:
On rejette H0 si:
T ≥t
n −1;1−
α
2
⎛
⎞
⎜
⎟
α = P⎜ T ≥ t
α ⎟
n −1;1− ⎟
⎜
2 ⎠
⎝
Note: c’est un test bilatéral si
on ne s’intéresse pas au sens
de la différence entre les
moyennes.
4.5) Comparaison des variances de deux échantillons
Considérons 2 variables aléatoires X et Y Gaussiennes:
• 1er échantillon: nX observations de X ~ N(µX,σX2)
• 2e échantillon: nY observations de Y ~ N(µY,σY2).
H0 :σ X = σY
H1 : σ X ≠ σ Y
Hypothèses
Variable de décision = rapport des deux variances
Or
S X2
nX −1
~ χ n2 −1
X
σ X2
(
)
et
(nY − 1)
K=
SY2
S X2
SY2
~ χ n2 −1
Y
σ Y2
La statistique du test est donc une loi de Fisher-Snedecor.
Si H0 est vrai alors K suit une loi de Fisher-Snedecor à nx-1 et ny-1 d° liberté.
On rejette H0 si:
S X2
SY2
≥F
n X −1, nY −1;1−
α
2
ou
S X2
SY2
≤F
n X −1, nY −1;
α
2
test bilatéral
Remarque
Une méthode approchée utilisée parfois pour éviter de faire un test bilatéral est d’imposer que le
numérateur de la statistique soit la variance numériquement la plus grande, le test peut se réduire
alors à un test unilatéral. Il faut alors faire attention à choisir la loi de Fisher correspondante, c’est à
dire que le 1er degré de liberté sera celui du numérateur ( variance empirique la plus forte) et le
2ème celui du dénominateur.

Documents pareils