chap4
Transcription
chap4
4.0. : 4.1. Introduction : Sommaire 4. Problématique : Parvenir à décider, sur la base des résultats d’une expérience sensorielle, si une différence sensorielle est ou non détectable entre 2 (ou plus généralement K ) stimuli. Question : la différence existe-t-elle ? Épreuves Discriminatives 4.1. Introduction 4.2. Test triangulaire Généralités Estimation Test exact de discriminabilité Test approché de dicriminabilité Extensions 4.3. Exemples : I S’assurer qu’une substitution d’ingrédient(s) dans une recette est indiscernable (e.g sucre ou aspartame dans un chocolat). I S’assurer qu’une substitution d’ingrédient(s) dans une recette est bien discernable (e.g le remplacement du karité par le beurre laitier dans un biscuit sera-t-il détecté ?) I S’assurer qu’un testeur est capable de discerner une nuance. ⇒ Épreuves triangulaires (alternative à choix libre ou forcé) Épreuve à choix forcés (k-AFC) Généralités Heuristique 4.4. 4.5. Méthode Séquentielle de Wald Épreuve d’appariement Généralités Test d’indiscernabilité globale Test de confusion de deux des produits I Savoir s’il existe globalement des différences sensorielles entre K variantes d’un produit (e.g 4 compositions de galettes bretonnes sont-elles discernables ?). ⇒ Épreuves d’appariement. ; 1/26 0/26 4.2. Test triangulaire : Généralités 4.2. Test triangulaire : Généralités Introduction Déroulement de l’épreuve Objectifs : Tester au choix la : I Discriminabilité de 2 produits A et B : une épreuve par juge pour plusieurs juges. I Capacité d’un juge à discerner une nuance entre deux produits : plusieurs épreuves pour un même juge. Une épreuve : On présente 3 échantillons anonymes X , Y , Z , constitués des produits A et B, l’un des deux étant présenté en double, et l’autre, en singulier. La question est alors posée : “lequel des échantillons est le produit singulier ?” Ordre de présentation des échantillons X , Y et Z : il peut engendrer des biais d’appréciation. Pour éviter cela, on peut 1. présenter le même nombre de fois chaque produit dans la même position. 2. doubler le même nombre de fois A et B dans les présentations. Contexte : la différence sensorielle entre les produits testés est souvent très faible (seuil de l’infra-liminaire et du liminaire). Elle n’est pas connue des dégustateurs (test à choix libre). Le nombre de présentation est alors un multiple de 2 n = 24 ou n = 30. 3 2 = 6. Un bon effectif est Remarque : Épreuve généralisable directement à la présentation de J échantillons dont un seul est singulier (plus J est grand, plus le test est puissant, mais plus l’épreuve est fastidieuse pour les testeurs). Intérêt : facile à mettre en œuvre, à interpréter. Test universellement connu. Inconvénients : Test peu puissant (faible probabilité de rejeter H0 alors que H1 est vrai). 2/26 3/26 4.2. Test triangulaire : Généralités 4.2. Test triangulaire : Estimation Un exemple Estimer π (ponctuellement) Schéma probabiliste : La population dont sont tirés les testeurs comprend une proportion π (inconnue) de personnes sentant une différence entre A et B (on veut savoir si π = 0 ou si π > 0). On note p la proportion théorique (inconnue) de bonnes réponses lors d’un test triangulaire quand on choisit les juges au hasard au sein de la population. On introduit les évènements Exemple : test d’indiscernabilité de deux chocolats PD = {le juge perçoit la différence} et BR = {le juge donne une bonne réponse} On a I p = P(BR) et π = P(PD) (par définition) I P(BR|PD) = 1 et P(BR|PD c ) = 1 (hypothèses raisonnables. . . ). 3 On a alors On note N le nombre de bonnes réponses (ici N = 12) et n le nombre d’épreuves (ici n = 24). Problème : Mais certaines bonnes réponses pourrait être dues au hasard. . . Question : le nombre de bonnes réponses est-il significativement supérieur au nombre de bonnes réponses générées en choisissant un des trois produit au hasard ? p = P(BR) = P(BR ∩ PD) + P(BR ∩ PD c ) principe de partition = P(BR|PD)P(PD) + P(BR|PD c )P(PD c ) Objectifs : Intuitivement, il y a une relation entre la proportion de bonnes réponses p (inconnue) dans ce type de tests et la proportion π (inconnue) de juges percevant la différence entre A et B. On va donc chercher à estimer π à l’aide de l’estimateur P̂ = Nn de p qui prend la valeur p̂ = 12 24 = 0.5 dans notre exemple. probabilités conditionnelles = 1.π + 13 (1 − π) Relation entre p et π : On a donc π = 3p−1 . 2 Exemple : on a une estimation de p qui est donnée par p̂ = 0.5. On en déduit une estimation π̂ = de π. 1 4 4/26 4.2. Test triangulaire : Estimation 4.2. Test triangulaire : Test exact de discriminabilité Estimer π (par IC) Les hypothèses On fait une estimation de p par IC avec l’estimateur P̂ = Nn . . . et on en déduit un IC pour π à l’aide de la relation entre p et π. Estimation Pn de p : On pose BRi = {le ième juge donne une bonne réponse} et N = 1 . Ainsi (par indépendance) : i=1 BRi Hypothèses : Avec n connu et p que l’on estime avec P̂ = P̂ − E(P̂) = √ Var (P̂) P̂ − p ≈ np p(1 − p) √ N . n D’après le TCL on a : P̂ − p ≈ N (0, 1). np P̂(1 − P̂) q Et on a approximativement IC1−α (p) = P̂ ± u1− α 2 P̂(1−P̂) n Test exact : Sous H0 , on a π = 0 ⇔ p = . IC1−α (π) = π̂ ± 1 3 : N ∼ Bin(n, 13 ) Exemple : on a observé N = 12. De plus, sous H0 , P(N ≥ 12) = P Bin(24, 13 ) ≥ 12 = .07 (c’est Exemple : avec n = 24, p̂ = 0.5 et α = 0.05 : l’intervalle de confiance est ic0.95 (p) = [0.3; 0.7] q ⇔ H0 : π = 0 ⇔ H1 : π > 0 où c(α) est un réel qui dépends de α.Remarque : si α1 < α2 alors Rα1 ⊂ Rα2 . la p-valeur). H0 n’est pas rejeter pour tout test de niveau α ≤ 7%. . . Estimation de π : on estime π avec l’estimateur π̂ = 3P̂−1 . On a P(z1 < ax + b < 2 z −b z −b < x < 2 a ) = 1 − α car a > 0. On en déduit que z2 ) = 1 − α ⇔ P( 1 a 3 u α 2 1− 2 H0 : A et B sont indicernables H1 : A et B sont dicernables Statistique de test : Si personne ne perçoit de différences (π = 0), la proportion de bonnes réponses observées p̂ ' 13 . Au contraire, si π > 0, la proportion sera plus élevée (et d’autant plus que π est grand). Le nombre de bonnes réponses N est la statistique de test et la région de rejet aura la forme Rα = [c(α), +∞[ N ∼ Bin(n, p) p 5/26 0.15 P̂(1−P̂) n Bin(24, 13 ) 0.1 Exemple : avec n = 24, p̂ = 0.5 (et donc π̂ = 0.25) et α = 0.05 : ic0.95 (π) = [−0.05; 0.55] 0.05 Remarque : Pour une précision double (largeur IC/2), il faut n = 24 × 4 = 96 juges. Précision d’autant meilleure que p(1 − p) proche de 0. On peut rapprocher p de 1 en augmentant π, (i.e en entraînant les juges) 12 6/26 N 7/26 4.2. Test triangulaire : Test exact de discriminabilité 4.2. Test triangulaire : Test approché de dicriminabilité Niveau et puissance Principe Test approché : Pour calculer la taille minimum de l’échantillon qui garantit une puissance suffisante on utilise (pour faciliter les calculs) l’approximation de la loi binomiale par une loi Normale : Niveau : Si on veut s’assurer que les données indiquent bien une discernabilité significative : il faut réduire la région de rejet en prenant α petit. Puissance : Mais si on veut s’assurer que les données indique une indiscernabilité significative : il faut contrôler la probabilité du risque de deuxième espèce β. Cela peut être délicat en pratique : on peut changer d’approche en s’assurant que H0 continue a ne pas être rejeter pour des valeurs de α assez grande (e.g 75%). N ∼ Bin(n, p) ⇒ Ñ = 1 2 :β=P 1 (N 2 ≤ 11) = P(Bin(24, 12 ) ≤ 11) = 0.42 π = .5 ⇔ p = 2 3 :β=P 2 (N 3 ≤ 11) = P(Bin(24, 23 ) ≤ 11) = 0.03 p= p= P̂ − p np ≈ N (0, 1) p(1 − p) Le test peut alors porter sur la statistique Ñ sans (trop) changer la décision (vérifier les conditions sur n, np et n(1 − p) pour garantir une bonne approximation). Risque de deuxième espèce du test exact : probabilité de ne pas détecter H1 . En l’état on ne peut pas calculer explicitement le risque du test : il faut fixer un niveau, disons α = 0.07 correspondant à R0.07 = [12, +∞[ et on peut alors calculer β pour des valeurs de π > 0 données : π = .25 ⇔ p = √ 0.4 N (0; 1) 0.2 95% 5% N 1.65 0 Rejet : Sous H0 , on rejette si, Il est donc bien plus facile de détecter une différence lorsque les juges sont bien entraînés (si différence il y a, le nombre de bonnes réponses est important avec grande probabilité). On peut aussi jouer sur la taille de l’échantillon n (voir ci-dessous). ( ) √ {N > c(α)} = {P̂ > d(α)} = n P̂− 1 3 1 (1− 1 ) 3 3 p > e(α) ) ( ≈ √ n P̂− 1 3 1 (1− 1 ) 3 3 p > u1−α √ √ Exemple : on a n = 24, et 24 3p̂−1 = 1.73 > 1.65 = u0.95 et. . . H0 est rejeté de justesse au 2 niveau 5% (c’est une approximation du test) 9/26 8/26 4.2. Test triangulaire : Test approché de dicriminabilité 4.2. Test triangulaire : Test approché de dicriminabilité Calcul de la taille de l’échantillon pour limiter le risque de deuxième espèce Calcul de la taille de l’échantillon pour limiter le risque de deuxième espèce Principe : on fixe un risque de deuxième espèce β0 = 0.05 et on calcule le plus petit nombre de répétitions n nécessaire pour avoir un test de puissance plus grande que 1 − β0 = 0.95. Condition sur n : On note uβ0 le quantile d’ordre β0 de la loi Normale. Cela nous donne la condition sur n suivante : En pratique : si π = π1 = 1 4 √ 1 n −p1 +u1−α 3 ( (i.e p = p1 = 12 ) on cherche n tel que √ ) p1 (1−p1 ) √ 2 3 <u β0 √ β(p1 ) = Pp=p1 Ñ < u1−α < β0 Exemple : on a β0 = 0.05 et n > 6u0.95 pratique ! (i.e proba d’accepter H0 à tort soit petite). Autrement dit : Pp=p1 ⇔ Pp=p1 √ 3P̂ − 1 n √ < u1−α 2 P̂ < ⇔ Pp=p1 √ 1 3 1+u1−α 0.2 2 n < β0 √ 3 (1+u1−α √ < n P̂−p1 p1 (1−p1 ) √ N (0, 1) < √ ( √ p ) p1 (1−p1 ) 2 + 1 2 2 √ u1−α √ 2 −uβ0 p1 (1−p1 ) 3 2 = 9.622 = 92.48 beaucoup trop grand en 0.2 Bin(24, 13 ) 2 3 Bin(24, 12 ) 0.1 2 )−p 1 n p1 (1−p1 ) n 1 −p1 +u1−α 3 3 1 p1 − 1 3 < β0 p 1 n√ ⇔P ⇔ n> 0.1 Bin(93, 13 ) Bin(93, 12 ) < β0 < β0 12 Figure : n = 24 et β = 0.42 Remarque : Pour toute v.a. réelle Z : on a si t1 < t2 , {Z < t1 } ⊂ {Z < t2 } et donc P (Z < t1 ) ≤ P (Z < t2 ). N 39 N Figure : n = 93 et β < 0.05 En gris : risque α. En vert : risque β. Lorsque n augmente, les lois se séparent 10/26 11/26 4.3. Épreuve à choix forcés (k-AFC) : Généralités 4.2. Test triangulaire : Extensions Capacité d’un juge à discerner une nuance Principe Procédure : Pour tester la capacité d’un juge à discerner une nuance entre deux stimuli proches A et B, on peut procéder à K épreuves successives pour un seul juge j. Le modèle de jugement change : on note πj la probabilité de discerner la différence entre A et B pour ce juge. Procédure : On ne change pas la structure probabiliste du test triangulaire à choix libre (même hypothèse, même statistique). On pose une question différente aux juges en vue de changer le schéma cognitif du testeur : on espère alors augmenter le nombre de bonnes réponses sous H1 (i.e diminuer le risque β : test plus puissant). Extension : Plus généralement, on peut procéder à K épreuves pour chacun des J juges, ce qui produit n = KJ observations : on teste alors l’existence d’une discernabilité des produits pour l’un au moins des juges : H0 : personne ne discerne H1 : certains juges discernent ⇔ ⇔ Déroulement de l’épreuve : par exemple, pour évaluer la discernabilité de deux produits A et B du point de vue de l’acidité, et sachant qu’objectivement A < B, on posera les questions suivantes si on présente I {X , Y , Z } = {A, A, B} : “quel est l’échantillon le plus acide ?” I {X , Y , Z } = {A, B, B} : “quel est l’échantillon le moins acide ?” . . . au lieu de demander “quel est l’échantillon singulier ?” ∀j, πj = 0 ⇔ ∀j, pj = 13 ∃j, πj > 0 ⇔ ∃j, pj > 31 Que se passe t il alors ? I Sous H0 : toutes les réponses sont des résultats d’expériences aléatoires indépendantes et de même loi. Ceci permet le calcul correct de la région de rejet de niveau α (et donc. . . de contrôler l’erreur faite si on rejette H0 ) I Sous H1 : on n’impose pas que tous les juges aient la même probabilité de discerner (i.e les πj peuvent être différents). Les réponses ne pourront plus être vues comme des expériences i.i.d. et on ne peut plus exprimer simplement la loi de la statistique de test. En résumé : le calcul du risque de deuxième espèce n’est plus valide ! Que se passe-t-il alors ? Sous H0 , rien : les juges ne discernent rien et répondent “au hasard”. Sous H1 , on suppose que les personnes qui discernent une différence le font plus ou moins surement et non pas totalement surement (le modèle est plus fin que le précédent). 13/26 12/26 4.3. Épreuve à choix forcés (k-AFC) : Heuristique 4.3. Épreuve à choix forcés (k-AFC) : Heuristique Le modèle cognitif de Thurstone Le modèle cognitif de Thurstone À la présentation d’un échantillon du type “deux fois A, une fois B”, 4 cas sont à envisager : Cas 1 : Les réponses concordent : Aléas perceptifs d’un juge sur des produits A et B : A a) B singulier : Z (Vrai) le plus acide : Z (Vrai) X Y a) singulier : X (Faux) le plus acide : Z (Vrai) b) B A La courbe bleu représente la distribution des perceptions du juge pour B. acidité X Z Z Y Cas 2 : Les réponses ne concordent pas : croît (en nb de σ) avec la capacité discriminatoire d’un juge I B A acidité acidité La courbe rouge représente la distribution des perceptions du juge pour A. singulier : X (Faux) le plus acide : Y (Faux) B A I b) singulier : Z (Vrai) le plus acide : Y (Faux) A B acidité X Y Z acidité Z XY . . . mais le cas 2a est beaucoup plus fréquent que le cas 2b. En pratique, on augmente la capacité d’un juge à percevoir une différence losrqu’il y en a une (le test est alors plus puissant). 14/26 15/26 4.4. Méthode Séquentielle de Wald : 4.4. Méthode Séquentielle de Wald : Principe En pratique On fixe un nombre maximum d’épreuves n∗ . Si on atteint n∗ sans avoir atteint une des deux zones de décision (acceptation ou rejet), on juge par rapport au milieu de la bande verticale délimitée par n∗, Dsup et Dinf : Objectif : définir une procédure de test pour contrôler simultanément les risques α et β tout en minimisant le nombre d’essais à faire. Validité : bon pour les tests triangulaires et 3-AFC. Principe : On ne prend pas la décision à la fin de toutes les épreuves, mais au cours des essais successifs (l’information s’ajoute au cours du temps, on arrête dès que la proportion de réponses penche suffisamment dans un sens ou dans l’autre). En pratique : On fixe α (e.g 5%) et β (e.g 10%) et p1 (e.g droites parallèles : 1 ).On 2 I si le N obtenu est supérieur au milieu, on obtient un rejet de H0 au niveau α. I s’il est inférieur, une acceptation de H0 au niveau α ... sans garantie sur β. N (nb de bonnes réponses) trace ensuite deux 10 Dsup 12 10 ln Dinf : N = ln rejette H0 8 Dinf on continue 6 4 accepte H0 2 6 12 18 n (nb d’épreuves) 24 p1 p0 ln Dsup : N = ln p1 p0 β 1−α − ln 1−β α − ln ln +n 1−p1 1−p0 ln 1−p1 1−p0 p1 p0 ln +n Dsup 12 N (nb de bonnes réponses) ln p1 p0 1−p0 1−p1 1−p1 1−p0 − ln 1−p0 1−p1 Dinf 6 4 − ln rejette H0 8 accepte H0 2 1−p1 1−p0 6 12 18 24 n (nb d’épreuves) n∗ Cela définit trois zones : tant que le chemin reste dans la bande centrale on continue les observations, dès qu’on rentre dans une des deux zones décisionnelle (rejet ou acceptation de H0 ), on arrête le test. Remarque : Nombre effectif d’épreuves non précisément maîtrisé... On ne peut pas respecter a priori parfaitement l’équilibre entre les ordres de présentation (biais possible). on avance par groupe de six épreuves, ou présentations aléatoires. 17/26 16/26 4.5. Épreuve d’appariement : Généralités 4.5. Épreuve d’appariement : Généralités Contexte et objectifs Déroulement L’épreuvre : On présente K témoins identifiés puis J échantillons (certains en double, triple, etc. . . ) extraits des témoins. On demande alors, pour chaque échantillon, de l’associer à un témoin. Objectifs : On dispose de K > 2 produits. On souhaite tester l’indiscernabilité globale entre eux, sans passer par des comparaisons 2 à 2 (via les méthodes précédentes) Situations : Ce test s’applique généralement pour : I la reconnaissance de stimuli qualitativement différents (e.g saveurs) à la frontière de l’infraliminaire. Contrôle de la non-équivalence ou de l’équivalence de produits. Présentation des produits : Si possible, présenter les produits le même nombre de fois et dans la même position. Ceci peut impliquer des ordonnancements au hasard, si on n’a pas assez d’épreuves pour parcourir toutes les possibilités. Exemple : plusieurs sirops d’orange utilisant différents édulcorants I I Exemple : K = 3 pastis A, B, C distincts par les proportions de badiane, d’anis vert et de réglisse. On présente J = 4 échantillons à chacun de n = 18 juges, l’un des échantillons étant un produit doublé. Il y a 36 séquences d’échantillons présentées : Problème d’effectif : seulement 18 juges. Pour éviter les biais : on tire au sort les produits non doublés dans la moitié des échantillons ( n2 = 9) et on inverse leur ordre dans l’autre moitié. le test de K produits par un jury de n juges (1 épreuve par juge) le test d’un juge sur K produits (n épreuves pour le même juge) 18/26 19/26 4.5. Épreuve d’appariement : Généralités 4.5. Épreuve d’appariement : Test d’indiscernabilité globale Exemple : les 3 pastis Hypothèses Hypothèse nulle : Les appariements se font totalement “au hasard” ⇔ Chaque produit est distribué dans sa ligne selon la distribution uniforme ( K1 , · · · , K1 ) Hypothèse alternative : Les appariements non totalement “au hasard” ⇔ L’une au moins des distribution théorique (probabilité) en ligne n’est pas uniforme Attention : si deux produits sont systématiquenent confondus (e.g A est pris pour B) alors on peut rejeter H0 même si les produits ne sont pas correctement identifiés. Ce test doit donc davantage être utilisé pour s’assurer de la non-discriminabilité (prendre α plutôt grand). 20/26 4.5. Épreuve d’appariement : Test d’indiscernabilité globale 21/26 4.5. Épreuve d’appariement : Test d’indiscernabilité globale La statistique de test Exemple : Résultats du test sur les 3 pastis Test : test d’adéquation des K lignes à la distribution uniforme. Statistique du χ2 : Pour chaque ligne k = 1, · · · , K , on a sous H0 Dk = nk K X `=1 nk` nk − 1 K 1 K 2 K X nk` − = 2 ≈ χ2 (K − 1) nk K `=1 | nk K {z } (effectif observé − effectif attendu) effectif attendu Tableaux des 2 PK `=1 n nk` − Kk nk K 2 : Les affectations des K produits étant indépendantes, les degrés de libertés des Dk “s’additionnent”. On a sous H0 toujours : D= K X La probabilité critique de la loi du χ2 (6) associée à cette observation est ≤ 10−4 . On rejette donc l’appariement au hasard avec une probabilité très faible de se tromper. Dk ≈ χ2 (K (K − 1)) k=1 Attention : Chaque Dk permet un test d’appariement concernant le seul produit k. Mais ce test est soumis à la même réserve que le global : son alternative n’est pas que le produit est reconnu. . . Région de rejet : Sous H1 l’écart entre les effectifs observés et attendus doit être grand. La région de rejet de niveau α est de la forme : Rα = {D > χ21−α (K (K − 1))} χ2 α χ2 1−α 22/26 23/26 4.5. Épreuve d’appariement : Test de confusion de deux des produits 4.5. Épreuve d’appariement : Test de confusion de deux des produits Loi multinomiale Analyse statistique Pour tester si deux produits A et B sont confondus, on note les évènements : Principe : généralisation de la loi binomiale avec une épreuve aléatoire avec J issus. Épreuve aléatoire : Soit X une v.a. nominale à J modalités {E1 , · · · , EJ } et on note PJ pi = P(Ei ) = E(1Ei ). On a alors p = 1 et la variable aléatoire i=1 i 1, Ai → C = (Ai → A ∪ Ai → B)c 1E 1 .. ∼ Mult(1, p), . 1EJ Lorsque J = 2 et p ∈ [0, 1] : X ∼ Mult Ai → A = {le ième juge classe A pour A} Ai → B = {le ieme juge classe A pour B} p1 . p = .. pJ p 1−p On note nA le nombre d’épreuves qui mettent en jeu le produit A. ! 1Ai →A 1Ai →B Modélisation : On pose Xi = ∼ Mult(1; p) où p = 1Ai →C respectivement la proportion de juges qui classent A vers A, A vers autre produit. = Bern(p) = Bin(1, p). Définition On note Yi le nombre de fois que se réalise l’évènement Ei en n répétitions indépendantes de X . On a Y1 n 1E 1 ! P̂A 1A→A nA P 1A→B Estimation : on estime p par la moyenne empirique P̂ = P̂B = n1 A i=1 1A→C P̂C Approximation : on a pour nA suffisamment grand (TCL multidimensionnelle) X . .. ∼ Mult(n, p) Y = .. = . i=1 YJ On a P(Y1 = n1 , · · · , YJ = nk ) = sinon.De plus 1E J n! p n1 n1 !···nJ ! 1 n · · · pJ J si n1 + · · · + nJ = n et 0 Var(Y ) = n Diag(p) − p t p E(Y ) = np P̂ ≈ N 4.5. Épreuve d’appariement : Test de confusion de deux des produits Test Question : lors de sa présentation, A est il classé autant vers A que vers B, ou plus ? (test de comparaison de deux proportions). H0 : A est autant classé vers A que vers B H1 : A est plus classé vers A ⇔ H0 : pA − pB = 0 ⇔ H1 : pA − pB > 0 Loi de la statistique de test : Sous H0 on a pA = pB = p : P̂A − P̂B ≈ N 0, 2p nA ⇔ On peut estimer p (inconnu) par P̂ = statistique de test suivante T = √ √ nA 1 (P̂A 2 P̂A − P̂B ≈ N (0, 1) √ 2p + P̂B ) dans la variance et on a la P̂A − P̂B nA p ≈ N (0, 1) P̂A + P̂B Le test : Région de rejet est du type Rα = [c(α), +∞[ (i.e on rejette lorsque {T > u1−α }). Exemple : On a p̂A − p̂B = 3 24 = 0.125 ; p nA p̂A +p̂B = p 242 13+10 = p 242 23 pA pB pC ! 1 , nA pA (1 − pA ) −pB pA −pC pA Ce qui implique P̂A −P̂B ≈ N pA − pB , 24/26 Hypothèse : ! pA pB contient pC B et A vers un ' 5.004 et et t ' 0.6255. Ainsi H0 n’est pas rejeté au niveau α = 5%... 26/26 1 nA −pA pB pB (1 − pB ) −pC pB ! . !! −pA pC −pB pC pC (1 − pC ) (pA (1 − pA ) + pB (1 − pB ) − 2(−pA pB )) 25/26