chap4

Transcription

chap4
4.0.
:
4.1. Introduction :
Sommaire
4.
Problématique : Parvenir à décider, sur la base des résultats d’une expérience sensorielle,
si une différence sensorielle est ou non détectable entre 2 (ou plus généralement K )
stimuli.
Question : la différence existe-t-elle ?
Épreuves Discriminatives
4.1. Introduction
4.2. Test triangulaire
Généralités
Estimation
Test exact de discriminabilité
Test approché de dicriminabilité
Extensions
4.3.
Exemples : I S’assurer qu’une substitution d’ingrédient(s) dans une recette est
indiscernable (e.g sucre ou aspartame dans un chocolat).
I S’assurer qu’une substitution d’ingrédient(s) dans une recette est bien discernable (e.g le remplacement du karité par le beurre laitier dans un biscuit
sera-t-il détecté ?)
I S’assurer qu’un testeur est capable de discerner une nuance.
⇒ Épreuves triangulaires (alternative à choix libre ou forcé)
Épreuve à choix forcés (k-AFC)
Généralités
Heuristique
4.4.
4.5.
Méthode Séquentielle de Wald
Épreuve d’appariement
Généralités
Test d’indiscernabilité globale
Test de confusion de deux des produits
I
Savoir s’il existe globalement des différences sensorielles entre K variantes d’un
produit (e.g 4 compositions de galettes bretonnes sont-elles discernables ?).
⇒ Épreuves d’appariement.
;
1/26
0/26
4.2. Test triangulaire : Généralités
4.2. Test triangulaire : Généralités
Introduction
Déroulement de l’épreuve
Objectifs : Tester au choix la :
I Discriminabilité de 2 produits A et B : une épreuve par juge pour plusieurs
juges.
I Capacité d’un juge à discerner une nuance entre deux produits : plusieurs
épreuves pour un même juge.
Une épreuve : On présente 3 échantillons anonymes X , Y , Z , constitués des produits
A et B, l’un des deux étant présenté en double, et l’autre, en singulier. La question
est alors posée : “lequel des échantillons est le produit singulier ?”
Ordre de présentation des échantillons X , Y et Z : il peut engendrer des biais d’appréciation. Pour éviter cela, on peut
1. présenter le même nombre de fois chaque produit dans la même position.
2. doubler le même nombre de fois A et B dans les présentations.
Contexte : la différence sensorielle entre les produits testés est souvent très faible (seuil
de l’infra-liminaire et du liminaire). Elle n’est pas connue des dégustateurs (test à
choix libre).
Le nombre de présentation est alors un multiple de 2
n = 24 ou n = 30.
3
2
= 6. Un bon effectif est
Remarque : Épreuve généralisable directement à la présentation de J échantillons dont
un seul est singulier (plus J est grand, plus le test est puissant, mais plus l’épreuve
est fastidieuse pour les testeurs).
Intérêt : facile à mettre en œuvre, à interpréter. Test universellement connu.
Inconvénients : Test peu puissant (faible probabilité de rejeter H0 alors que H1 est
vrai).
2/26
3/26
4.2. Test triangulaire : Généralités
4.2. Test triangulaire : Estimation
Un exemple
Estimer π (ponctuellement)
Schéma probabiliste : La population dont sont tirés les testeurs comprend une proportion π (inconnue) de personnes sentant une différence entre A et B (on veut savoir
si π = 0 ou si π > 0).
On note p la proportion théorique (inconnue) de bonnes réponses lors d’un test
triangulaire quand on choisit les juges au hasard au sein de la population. On
introduit les évènements
Exemple : test d’indiscernabilité de deux chocolats
PD = {le juge perçoit la différence} et BR = {le juge donne une bonne réponse}
On a
I p = P(BR) et π = P(PD) (par définition)
I P(BR|PD) = 1 et P(BR|PD c ) = 1 (hypothèses raisonnables. . . ).
3
On a alors
On note N le nombre de bonnes réponses (ici N = 12) et n le nombre d’épreuves (ici n = 24).
Problème : Mais certaines bonnes réponses pourrait être dues au hasard. . .
Question : le nombre de bonnes réponses est-il significativement supérieur au nombre de bonnes
réponses générées en choisissant un des trois produit au hasard ?
p = P(BR) = P(BR ∩ PD) + P(BR ∩ PD c )
principe de partition
= P(BR|PD)P(PD) + P(BR|PD c )P(PD c )
Objectifs : Intuitivement, il y a une relation entre la proportion de bonnes réponses p (inconnue)
dans ce type de tests et la proportion π (inconnue) de juges percevant la différence entre A et
B. On va donc chercher à estimer π à l’aide de l’estimateur P̂ = Nn de p qui prend la valeur
p̂ = 12
24 = 0.5 dans notre exemple.
probabilités conditionnelles
= 1.π + 13 (1 − π)
Relation entre p et π : On a donc π =
3p−1
.
2
Exemple : on a une estimation de p qui est donnée par p̂ = 0.5. On en déduit une estimation π̂ =
de π.
1
4
4/26
4.2. Test triangulaire : Estimation
4.2. Test triangulaire : Test exact de discriminabilité
Estimer π (par IC)
Les hypothèses
On fait une estimation de p par IC avec l’estimateur P̂ = Nn . . . et on en déduit un IC
pour π à l’aide de la relation entre p et π.
Estimation
Pn de p : On pose BRi = {le ième juge donne une bonne réponse} et N =
1 . Ainsi (par indépendance) :
i=1 BRi
Hypothèses :
Avec n connu et p que l’on estime avec P̂ =
P̂ − E(P̂)
=
√
Var (P̂)
P̂ − p
≈
np
p(1 − p)
√
N
.
n
D’après le TCL on a :
P̂ − p
≈ N (0, 1).
np
P̂(1 − P̂)
q
Et on a approximativement IC1−α (p) = P̂ ± u1− α
2
P̂(1−P̂)
n
Test exact : Sous H0 , on a π = 0 ⇔ p =
.
IC1−α (π) = π̂ ±
1
3
: N ∼ Bin(n, 13 )
Exemple : on a observé N = 12. De plus, sous H0 , P(N ≥ 12) = P Bin(24, 13 ) ≥ 12 = .07 (c’est
Exemple : avec n = 24, p̂ = 0.5 et α = 0.05 : l’intervalle de confiance est ic0.95 (p) = [0.3; 0.7]
q
⇔ H0 : π = 0
⇔ H1 : π > 0
où c(α) est un réel qui dépends de α.Remarque : si α1 < α2 alors Rα1 ⊂ Rα2 .
la p-valeur). H0 n’est pas rejeter pour tout test de niveau α ≤ 7%. . .
Estimation de π : on estime π avec l’estimateur π̂ = 3P̂−1
. On a P(z1 < ax + b <
2
z −b
z −b
< x < 2 a ) = 1 − α car a > 0. On en déduit que
z2 ) = 1 − α ⇔ P( 1 a
3
u α
2 1− 2
H0 : A et B sont indicernables
H1 : A et B sont dicernables
Statistique de test : Si personne ne perçoit de différences (π = 0), la proportion de
bonnes réponses observées p̂ ' 13 . Au contraire, si π > 0, la proportion sera plus
élevée (et d’autant plus que π est grand).
Le nombre de bonnes réponses N est la statistique de test et la région de rejet aura
la forme
Rα = [c(α), +∞[
N ∼ Bin(n, p)
p
5/26
0.15
P̂(1−P̂)
n
Bin(24, 13 )
0.1
Exemple : avec n = 24, p̂ = 0.5 (et donc π̂ = 0.25) et α = 0.05 : ic0.95 (π) = [−0.05; 0.55]
0.05
Remarque : Pour une précision double (largeur IC/2), il faut n = 24 × 4 = 96 juges.
Précision d’autant meilleure que p(1 − p) proche de 0. On peut rapprocher p de 1
en augmentant π, (i.e en entraînant les juges)
12
6/26
N
7/26
4.2. Test triangulaire : Test exact de discriminabilité
4.2. Test triangulaire : Test approché de dicriminabilité
Niveau et puissance
Principe
Test approché : Pour calculer la taille minimum de l’échantillon qui garantit une
puissance suffisante on utilise (pour faciliter les calculs) l’approximation de la loi
binomiale par une loi Normale :
Niveau : Si on veut s’assurer que les données indiquent bien une discernabilité significative : il faut réduire la région de rejet en prenant α petit.
Puissance : Mais si on veut s’assurer que les données indique une indiscernabilité
significative : il faut contrôler la probabilité du risque de deuxième espèce β. Cela
peut être délicat en pratique : on peut changer d’approche en s’assurant que H0
continue a ne pas être rejeter pour des valeurs de α assez grande (e.g 75%).
N ∼ Bin(n, p) ⇒ Ñ =
1
2
:β=P
1 (N
2
≤ 11) = P(Bin(24, 12 ) ≤ 11) = 0.42
π = .5 ⇔ p =
2
3
:β=P
2 (N
3
≤ 11) = P(Bin(24, 23 ) ≤ 11) = 0.03
p=
p=
P̂ − p
np
≈ N (0, 1)
p(1 − p)
Le test peut alors porter sur la statistique Ñ sans (trop) changer la décision (vérifier
les conditions sur n, np et n(1 − p) pour garantir une bonne approximation).
Risque de deuxième espèce du test exact : probabilité de ne pas détecter H1 . En
l’état on ne peut pas calculer explicitement le risque du test : il faut fixer un
niveau, disons α = 0.07 correspondant à R0.07 = [12, +∞[ et on peut alors calculer
β pour des valeurs de π > 0 données :
π = .25 ⇔ p =
√
0.4
N (0; 1)
0.2
95%
5%
N
1.65
0
Rejet : Sous H0 , on rejette si,
Il est donc bien plus facile de détecter une différence lorsque les juges sont bien
entraînés (si différence il y a, le nombre de bonnes réponses est important avec
grande probabilité).
On peut aussi jouer sur la taille de l’échantillon n (voir ci-dessous).
(
)
√
{N > c(α)} = {P̂ > d(α)} =
n
P̂− 1
3
1 (1− 1 )
3
3
p
> e(α)
)
(
≈
√
n
P̂− 1
3
1 (1− 1 )
3
3
p
> u1−α
√
√
Exemple : on a n = 24, et 24 3p̂−1
= 1.73 > 1.65 = u0.95 et. . . H0 est rejeté de justesse au
2
niveau 5% (c’est une approximation du test)
9/26
8/26
4.2. Test triangulaire : Test approché de dicriminabilité
4.2. Test triangulaire : Test approché de dicriminabilité
Calcul de la taille de l’échantillon pour limiter le risque de deuxième espèce
Calcul de la taille de l’échantillon pour limiter le risque de deuxième espèce
Principe : on fixe un risque de deuxième espèce β0 = 0.05 et on calcule le plus petit
nombre de répétitions n nécessaire pour avoir un test de puissance plus grande que
1 − β0 = 0.95.
Condition sur n : On note uβ0 le quantile d’ordre β0 de la loi Normale. Cela nous
donne la condition sur n suivante :
En pratique : si π = π1 =
1
4
√ 1
n
−p1 +u1−α
3
(
(i.e p = p1 = 12 ) on cherche n tel que
√
)
p1 (1−p1 )
√
2
3 <u
β0
√
β(p1 ) = Pp=p1 Ñ < u1−α < β0
Exemple : on a β0 = 0.05 et n > 6u0.95
pratique !
(i.e proba d’accepter H0 à tort soit petite). Autrement dit :
Pp=p1
⇔ Pp=p1
√ 3P̂ − 1
n √
< u1−α
2
P̂ <
⇔ Pp=p1
√
1
3
1+u1−α
0.2
2
n
< β0
√ 3 (1+u1−α
√
< n
P̂−p1
p1 (1−p1 )
√
N (0, 1) <
√
(
√
p
)
p1 (1−p1 )
2
+
1
2
2
√
u1−α
√
2
−uβ0 p1 (1−p1 )
3
2
= 9.622 = 92.48 beaucoup trop grand en
0.2
Bin(24, 13 )
2
3
Bin(24, 12 )
0.1
2 )−p
1
n
p1 (1−p1 )
n 1 −p1 +u1−α
3
3
1
p1 − 1
3
< β0
p 1
n√
⇔P
⇔ n>
0.1
Bin(93, 13 )
Bin(93, 12 )
< β0
< β0
12
Figure : n = 24 et β = 0.42
Remarque : Pour toute v.a. réelle Z : on a si t1 < t2 , {Z < t1 } ⊂ {Z < t2 } et donc
P (Z < t1 ) ≤ P (Z < t2 ).
N
39
N
Figure : n = 93 et β < 0.05
En gris : risque α. En vert : risque β. Lorsque n augmente, les lois se séparent
10/26
11/26
4.3. Épreuve à choix forcés (k-AFC) : Généralités
4.2. Test triangulaire : Extensions
Capacité d’un juge à discerner une nuance
Principe
Procédure : Pour tester la capacité d’un juge à discerner une nuance entre deux stimuli
proches A et B, on peut procéder à K épreuves successives pour un seul juge j. Le
modèle de jugement change : on note πj la probabilité de discerner la différence
entre A et B pour ce juge.
Procédure : On ne change pas la structure probabiliste du test triangulaire à choix libre
(même hypothèse, même statistique). On pose une question différente aux juges
en vue de changer le schéma cognitif du testeur : on espère alors augmenter le
nombre de bonnes réponses sous H1 (i.e diminuer le risque β : test plus puissant).
Extension : Plus généralement, on peut procéder à K épreuves pour chacun des J juges,
ce qui produit n = KJ observations : on teste alors l’existence d’une discernabilité
des produits pour l’un au moins des juges :
H0 : personne ne discerne
H1 : certains juges discernent
⇔
⇔
Déroulement de l’épreuve : par exemple, pour évaluer la discernabilité de deux produits
A et B du point de vue de l’acidité, et sachant qu’objectivement A < B, on posera
les questions suivantes si on présente
I {X , Y , Z } = {A, A, B} : “quel est l’échantillon le plus acide ?”
I {X , Y , Z } = {A, B, B} : “quel est l’échantillon le moins acide ?”
. . . au lieu de demander “quel est l’échantillon singulier ?”
∀j, πj = 0 ⇔ ∀j, pj = 13
∃j, πj > 0 ⇔ ∃j, pj > 31
Que se passe t il alors ?
I Sous H0 : toutes les réponses sont des résultats d’expériences aléatoires
indépendantes et de même loi. Ceci permet le calcul correct de la région de
rejet de niveau α (et donc. . . de contrôler l’erreur faite si on rejette H0 )
I Sous H1 : on n’impose pas que tous les juges aient la même probabilité de
discerner (i.e les πj peuvent être différents). Les réponses ne pourront plus
être vues comme des expériences i.i.d. et on ne peut plus exprimer simplement
la loi de la statistique de test. En résumé : le calcul du risque de deuxième
espèce n’est plus valide !
Que se passe-t-il alors ? Sous H0 , rien : les juges ne discernent rien et répondent “au
hasard”. Sous H1 , on suppose que les personnes qui discernent une différence le
font plus ou moins surement et non pas totalement surement (le modèle est plus
fin que le précédent).
13/26
12/26
4.3. Épreuve à choix forcés (k-AFC) : Heuristique
4.3. Épreuve à choix forcés (k-AFC) : Heuristique
Le modèle cognitif de Thurstone
Le modèle cognitif de Thurstone
À la présentation d’un échantillon du type “deux fois A, une fois B”, 4 cas sont à
envisager :
Cas 1 : Les réponses concordent :
Aléas perceptifs d’un juge sur des produits A et B :
A
a)
B
singulier : Z (Vrai)
le plus acide : Z (Vrai)
X Y
a)
singulier : X (Faux)
le plus acide : Z (Vrai)
b)
B
A
La courbe bleu représente la distribution des perceptions du juge pour B.
acidité
X
Z
Z
Y
Cas 2 : Les réponses ne concordent pas :
croît (en nb de σ) avec la capacité
discriminatoire d’un juge
I
B
A
acidité
acidité
La courbe rouge représente la distribution des perceptions du juge pour A.
singulier : X (Faux)
le plus acide : Y (Faux)
B
A
I
b)
singulier : Z (Vrai)
le plus acide : Y (Faux)
A
B
acidité
X
Y
Z
acidité
Z
XY
. . . mais le cas 2a est beaucoup plus fréquent que le cas 2b.
En pratique, on augmente la capacité d’un juge à percevoir une différence losrqu’il y en
a une (le test est alors plus puissant).
14/26
15/26
4.4. Méthode Séquentielle de Wald :
4.4. Méthode Séquentielle de Wald :
Principe
En pratique
On fixe un nombre maximum d’épreuves n∗ . Si on atteint n∗ sans avoir atteint une des
deux zones de décision (acceptation ou rejet), on juge par rapport au milieu de la bande
verticale délimitée par n∗, Dsup et Dinf :
Objectif : définir une procédure de test pour contrôler simultanément les risques α et
β tout en minimisant le nombre d’essais à faire.
Validité : bon pour les tests triangulaires et 3-AFC.
Principe : On ne prend pas la décision à la fin de toutes les épreuves, mais au cours
des essais successifs (l’information s’ajoute au cours du temps, on arrête dès que la
proportion de réponses penche suffisamment dans un sens ou dans l’autre).
En pratique : On fixe α (e.g 5%) et β (e.g 10%) et p1 (e.g
droites parallèles :
1
).On
2
I
si le N obtenu est supérieur au milieu, on obtient un rejet de H0 au niveau α.
I
s’il est inférieur, une acceptation de H0 au niveau α ... sans garantie sur β.
N (nb de bonnes réponses)
trace ensuite deux
10
Dsup
12
10
ln
Dinf : N =
ln
rejette H0
8
Dinf
on continue
6
4
accepte H0
2
6
12
18
n (nb d’épreuves)
24
p1
p0
ln
Dsup : N =
ln
p1
p0
β
1−α
− ln
1−β
α
− ln
ln
+n
1−p1
1−p0
ln
1−p1
1−p0
p1
p0
ln
+n
Dsup
12
N (nb de bonnes réponses)
ln
p1
p0
1−p0
1−p1
1−p1
1−p0
− ln
1−p0
1−p1
Dinf
6
4
− ln
rejette H0
8
accepte H0
2
1−p1
1−p0
6
12
18
24
n (nb d’épreuves)
n∗
Cela définit trois zones : tant que le chemin reste
dans la bande centrale on continue les observations,
dès qu’on rentre dans une des deux zones décisionnelle (rejet ou acceptation de H0 ), on arrête le test.
Remarque : Nombre effectif d’épreuves non précisément maîtrisé... On ne peut pas
respecter a priori parfaitement l’équilibre entre les ordres de présentation (biais possible).
on avance par groupe de six épreuves, ou présentations aléatoires.
17/26
16/26
4.5. Épreuve d’appariement : Généralités
4.5. Épreuve d’appariement : Généralités
Contexte et objectifs
Déroulement
L’épreuvre : On présente K témoins identifiés puis J échantillons (certains en double,
triple, etc. . . ) extraits des témoins. On demande alors, pour chaque échantillon, de
l’associer à un témoin.
Objectifs : On dispose de K > 2 produits. On souhaite tester l’indiscernabilité globale
entre eux, sans passer par des comparaisons 2 à 2 (via les méthodes précédentes)
Situations : Ce test s’applique généralement pour :
I la reconnaissance de stimuli qualitativement différents (e.g saveurs) à la
frontière de l’infraliminaire. Contrôle de la non-équivalence ou de l’équivalence
de produits.
Présentation des produits : Si possible, présenter les produits le même nombre de fois
et dans la même position. Ceci peut impliquer des ordonnancements au hasard, si
on n’a pas assez d’épreuves pour parcourir toutes les possibilités.
Exemple : plusieurs sirops d’orange utilisant différents édulcorants
I
I
Exemple : K = 3 pastis A, B, C distincts par les proportions de badiane, d’anis vert et de réglisse.
On présente J = 4 échantillons à chacun de n = 18 juges, l’un des échantillons étant un produit
doublé. Il y a 36 séquences d’échantillons présentées :
Problème d’effectif : seulement 18 juges. Pour éviter les biais : on tire au sort les produits non
doublés dans la moitié des échantillons ( n2 = 9) et on inverse leur ordre dans l’autre moitié.
le test de K produits par un jury de n juges (1 épreuve par juge)
le test d’un juge sur K produits (n épreuves pour le même juge)
18/26
19/26
4.5. Épreuve d’appariement : Généralités
4.5. Épreuve d’appariement : Test d’indiscernabilité globale
Exemple : les 3 pastis
Hypothèses
Hypothèse nulle : Les appariements se font totalement “au hasard”
⇔ Chaque produit est distribué dans sa ligne selon la distribution uniforme
( K1 , · · · , K1 )
Hypothèse alternative : Les appariements non totalement “au hasard”
⇔ L’une au moins des distribution théorique (probabilité) en ligne n’est pas uniforme
Attention : si deux produits sont systématiquenent confondus (e.g A est pris pour B)
alors on peut rejeter H0 même si les produits ne sont pas correctement identifiés. Ce
test doit donc davantage être utilisé pour s’assurer de la non-discriminabilité (prendre α
plutôt grand).
20/26
4.5. Épreuve d’appariement : Test d’indiscernabilité globale
21/26
4.5. Épreuve d’appariement : Test d’indiscernabilité globale
La statistique de test
Exemple : Résultats du test sur les 3 pastis
Test : test d’adéquation des K lignes à la distribution uniforme.
Statistique du χ2 : Pour chaque ligne k = 1, · · · , K , on a sous H0
Dk = nk
K
X
`=1
nk`
nk
−
1
K
1
K
2
K
X
nk` −
=
2
≈ χ2 (K − 1)
nk
K
`=1
|
nk
K
{z
}
(effectif observé − effectif attendu)
effectif attendu
Tableaux des
2
PK
`=1
n
nk` − Kk
nk
K
2
:
Les affectations des K produits étant indépendantes, les degrés de libertés des Dk
“s’additionnent”. On a sous H0 toujours :
D=
K
X
La probabilité critique de la loi du χ2 (6) associée à cette observation est ≤ 10−4 . On
rejette donc l’appariement au hasard avec une probabilité très faible de se tromper.
Dk ≈ χ2 (K (K − 1))
k=1
Attention : Chaque Dk permet un test d’appariement concernant le seul produit k.
Mais ce test est soumis à la même réserve que le global : son alternative n’est pas que
le produit est reconnu. . .
Région de rejet : Sous H1 l’écart entre les effectifs observés et attendus doit être grand.
La région de rejet de niveau α est de la forme : Rα = {D > χ21−α (K (K − 1))}
χ2
α
χ2
1−α
22/26
23/26
4.5. Épreuve d’appariement : Test de confusion de deux des produits
4.5. Épreuve d’appariement : Test de confusion de deux des produits
Loi multinomiale
Analyse statistique
Pour tester si deux produits A et B sont confondus, on note les évènements :
Principe : généralisation de la loi binomiale avec une épreuve aléatoire avec J issus.
Épreuve aléatoire : Soit X une v.a. nominale à J modalités {E1 , · · · , EJ } et on note
PJ
pi = P(Ei ) = E(1Ei ). On a alors
p = 1 et la variable aléatoire
i=1 i


1,
Ai → C = (Ai → A ∪ Ai → B)c
 
1E 1
 ..  ∼ Mult(1, p),
.
1EJ
Lorsque J = 2 et p ∈ [0, 1] : X ∼ Mult
Ai → A = {le ième juge classe A pour A}
Ai → B = {le ieme juge classe A pour B}
p1
.
p =  .. 
pJ
p
1−p
On note nA le nombre d’épreuves qui mettent en jeu le produit A.
!
1Ai →A
1Ai →B
Modélisation : On pose Xi =
∼ Mult(1; p) où p =
1Ai →C
respectivement la proportion de juges qui classent A vers A, A vers
autre produit.
= Bern(p) = Bin(1, p).
Définition On note Yi le nombre de fois que se réalise l’évènement Ei en n répétitions
indépendantes de X . On a
 
Y1

n
1E 1
!
P̂A
1A→A
nA
P
1A→B
Estimation : on estime p par la moyenne empirique P̂ = P̂B = n1
A
i=1
1A→C
P̂C
Approximation : on a pour nA suffisamment grand (TCL multidimensionnelle)

X
.
 ..  ∼ Mult(n, p)
Y =  ..  =
.
i=1
YJ
On a P(Y1 = n1 , · · · , YJ = nk ) =
sinon.De plus
1E J
n!
p n1
n1 !···nJ ! 1
n
· · · pJ J si n1 + · · · + nJ = n et 0
Var(Y ) = n Diag(p) − p t p
E(Y ) = np
P̂ ≈ N
4.5. Épreuve d’appariement : Test de confusion de deux des produits
Test
Question : lors de sa présentation, A est il classé autant vers A que vers B, ou plus ?
(test de comparaison de deux proportions).
H0 : A est autant classé vers A que vers B
H1 : A est plus classé vers A
⇔ H0 : pA − pB = 0
⇔ H1 : pA − pB > 0
Loi de la statistique de test : Sous H0 on a pA = pB = p :
P̂A − P̂B ≈ N
0,
2p
nA
⇔
On peut estimer p (inconnu) par P̂ =
statistique de test suivante
T =
√
√
nA
1
(P̂A
2
P̂A − P̂B
≈ N (0, 1)
√
2p
+ P̂B ) dans la variance et on a la
P̂A − P̂B
nA p
≈ N (0, 1)
P̂A + P̂B
Le test : Région de rejet est du type Rα = [c(α), +∞[ (i.e on rejette lorsque {T > u1−α }).
Exemple : On a p̂A − p̂B =
3
24
= 0.125 ;
p
nA
p̂A +p̂B
=
p
242
13+10
=
p
242
23
pA
pB
pC
!
1
,
nA
pA (1 − pA )
−pB pA
−pC pA
Ce qui implique P̂A −P̂B ≈ N pA − pB ,
24/26
Hypothèse :
!
pA
pB
contient
pC
B et A vers un
' 5.004 et et t ' 0.6255.
Ainsi H0 n’est pas rejeté au niveau α = 5%...
26/26
1
nA
−pA pB
pB (1 − pB )
−pC pB
!
.
!!
−pA pC
−pB pC
pC (1 − pC )
(pA (1 − pA ) + pB (1 − pB ) − 2(−pA pB ))
25/26