Comparaisons multiples
Transcription
Comparaisons multiples
Biostatistiques et statistiques appliquées aux sciences expérimentales Comparaisons multiples Christophe Lalanne [email protected] Cogmaster 2006–2007 Cogmaster A4 – p. 1/26 Objet de la séance • • Rappels sur le test d’ANOVA • hypothèses et validité • diagnostic Comparaison(s) spécifique(s) des moyennes de k échantillons (indépendants) • planifiées • non-planifiées (a posteriori) Cogmaster A4 – p. 2/26 Le modèle d’ANOVA à 1 facteur • Hypothèse nulle : • H0 : µ1 = µ2 = µ3 = . . . = µk (égalité des k moyennes de population) • H1 : ∃ i, j | µi 6= µj (H1 ≡ ¬ H0 ) • Statistique de test : F de Fisher-Snedecor, rejet de H0 ssi Fobs > Fν1 ,ν2 ;α=0.05 (ou pobs < 0.05) • Conditions de validité • indépendance des résidus (i.e. écarts à la moyenne) • homogénéité des variances (après transformation, si nécessaire) • normalité des résidus Cogmaster A4 – p. 3/26 F(2,10) 0.6 F(6,32) F(6,18) F(4,12) 0.4 P(F>3.26)=0.05 0.2 P(F>2.40)=0.05 0.0 Densité 0.8 1.0 Loi de Fisher-Snedecor 0 1 2 3 4 5 quantiles théoriques Cogmaster A4 – p. 4/26 Après l’ANOVA... • le test F permet de détecter qu’au moins une paire de moyennes est significativement différente • on est souvent (mais pas nécessairement) intéressé par des comparaisons spécifiques de paires de moyennes • différentes stratégies selon la question posée et le plan d’expériences considéré (présence ou non d’un groupe témoin, groupes équilibrés ou non, classement des groupes) • ces comparaisons peuvent avoir été • • pensées avant l’expérience : comparaisons planifiées (pss besoin du test F global) • suggérées après observation des résultats : comparaisons a posteriori, ou dans un but explicatif (post-hoc) ces comparaisons peuvent être à visée indicative ou confirmatoire Cogmaster A4 – p. 5/26 Problème posés par les comparaisons multiples • comparaison de toutes les paires de moyennes (k groupes) : k(k−1) tests à α = 0.05 ! C2 • risque global ∝ nombre de tests : k(k−1) 1 − (1 − α)m où m = C2 • ex : 5 groupes à comparer, risque d’erreur réel = 40 % ! Si les 5 moyennes sont égales (H0 ), on détectera au moins une paire de moyennes significativement différentes dans 40 % des cas. Cogmaster A4 – p. 6/26 Procédures de comparaisons multiples • 2 stratégies 1. utiliser des tests indépendants : contrastes orthogonaux 2. utiliser des tests spécifiques : test t avec correction de Bonferroni, Newman-Keuls, Tukey HSD, Dunnett... • tests spécifiques, 2 approches : • modifier le risque de première espèce α pour que le risque total (risque expérimental) demeure ≤ 0.05 : méthode de Bonferroni • adapter la statistique de test (plus conservateur) : méthode HSD de Tukey comparaisons non-planifiées : seulement si le test F est significatif, surtout si la visée est confirmatoire. Cogmaster A4 – p. 7/26 0.8 0.6 0.4 0.2 0.0 p−valeur (tests t multiples) ANOVA et test t 0.0 0.2 0.4 0.6 0.8 1.0 p−valeur (anova) V Zoonekynd, http://zoonek2.free.fr/UNIX/48_R/14.html Cogmaster A4 – p. 8/26 Méthode des contrastes (1) • idée : partitionner la variance en SC indépendantes (cas des comparaisons non-planifiées) • contraste ci = permet la comparaison d’une moyenne, ou d’un ensemble de moyennes, à une autre (à l’aide d’une différence de moyennes, comme pour le test t, µ1 − µ2 ) • définition : deux contrastes sont orthogonaux si le produit de leur coefficients de contraste est nul. • Pour un plan à k échantillons, il y a k − 1 contrastes orthogonaux • formulation : φ= k X ci x̄i i=1 avec • P i ci = 0 statistique de test : ddl de la résiduelle) φ sφ (s2φ 2 =s P c2 i ), i ni à comparer à un t à ν ddl (ν = Cogmaster A4 – p. 9/26 Méthode des contrastes (1) • limites : les contraintes imposent un choix particulier de contraste, surtout lorsque le nombre de groupes k > 3 ex : 3 groupes a, b et c ; contrastes = a vs. b et b vs. c • Exemple : 4 échantillons : x̄1 , x̄2 , x̄3 , x̄4 • H 0 : µ1 = µ4 c = [−1 0 0 1] • H0 : (µ1 + µ2 )/2 = (µ3 + µ4 )/2 c = [−1 − 1 1 1] Cogmaster A4 – p. 10/26 Utilisation de contrastes sous R (1) n <- 20 g <- gl (5 ,n ,5 *n , labels = paste ( rep ( ’g ’ ,5) ,1:5 , sep = "" )) y <- NULL for ( i in 1:5) y <- append (y , rnorm (n , mean = runif (1) *i , sd =1 .5)) plot ( y ~ g , horizontal =T , xlab = ’y ’ , ylab = ’x ’) model1 <- aov (y ~ g) summary ( model1 ) summary . lm ( model1 ) levels ( g ) contrasts ( g ) <- cbind ( c (4 , -1 , -1 , -1 , -1) ,c (0 ,1 ,1 , -1 , -1) , c (0 ,0 ,0 ,1 , -1) , c (0 ,1 , -1 ,0 ,0)) model2 <- aov (y ~ g) summary . lm ( model2 ) Matrice de contraste : g1 g2 g3 g4 g5 [,1] [,2] [,3] [,4] 4 0 0 0 -1 1 0 1 -1 1 0 -1 -1 -1 1 0 -1 -1 -1 0 Cogmaster A4 – p. 11/26 g3 g2 g1 y g4 g5 Utilisation de contrastes sous R (2) −1 0 1 2 3 4 5 x Cogmaster A4 – p. 12/26 Utilisation de contrastes sous R (3) 0.5 1.0 1.5 2.0 2 −2 −1 0 1 2 Theoretical Quantiles Scale−Location Constant Leverage: Residuals vs Factor Levels 0.5 1.0 1.5 Fitted values 2.0 2.5 56 36 0 1 2 54 −2 Standardized residuals 1.5 0.5 1.0 3654 3 Fitted values 56 0.0 1 2.5 0.0 Standardized residuals 0.0 3654 0 2 0 −2 Residuals 3654 56 −2 −1 56 3 Normal Q−Q Standardized residuals 4 Residuals vs Fitted g: g1 g5 g3 g2 g4 Factor Level Combinations Cogmaster A4 – p. 13/26 Utilisation de contrastes sous R (4) Modèle global (summary(model1)) g Residuals Df Sum Sq Mean Sq F value Pr(>F) 4 62.219 15.555 7.6566 2.164e-05 *** 95 192.998 2.032 Tests sur les coefficients du modèle complet (summary.lm(model1)) Residuals: Min 1Q Median -2.58494 -1.05627 -0.04863 3Q 0.93955 Max 3.75477 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 0.08574 0.31871 0.269 0.788489 gg2 1.62985 0.45073 3.616 0.000481 *** gg3 1.46144 0.45073 3.242 0.001636 ** gg4 2.44558 0.45073 5.426 4.39e-07 *** gg5 1.33268 0.45073 2.957 0.003922 ** Residual standard error: 1.425 on 95 degrees of freedom Multiple R-Squared: 0.2438,Adjusted R-squared: 0.2119 F-statistic: 7.657 on 4 and 95 DF, p-value: 2.164e-05 Cogmaster A4 – p. 14/26 Utilisation de contrastes sous R (5) Tests sur les contrastes (summary.lm(model2)) Residuals: Min 1Q Median -2.58494 -1.05627 -0.04863 3Q 0.93955 Max 3.75477 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 1.45965 0.14253 10.241 < 2e-16 *** g1 -0.34348 0.07127 -4.820 5.45e-06 *** g2 -0.17174 0.15936 -1.078 0.2839 g3 0.55645 0.22536 2.469 0.0153 * g4 0.08421 0.22536 0.374 0.7095 Residual standard error: 1.425 on 95 degrees of freedom Multiple R-Squared: 0.2438,Adjusted R-squared: 0.2119 F-statistic: 7.657 on 4 and 95 DF, p-value: 2.164e-05 Cogmaster A4 – p. 15/26 Utilisation de contrastes sous R (6) • Remarque : Un contraste n’est rien d’autre qu’un test t (au carré) ; on parle de comparaisons à 1 ddl. • Rappel statistique de test pour le t : x¯1 − x¯2 tobs = p s2p /n où s2p est une estimation de la variance commune (dans le cas où l’on suppose l’homogénéité des variances) Il existe d’autres types de contrastes sous R : ‘treatment contrasts’, ‘Helmert contrasts’ (par défaut sous R), ‘sum contrast’. Ils sont spécifiés grâce à la commande options(contrasts=c("contr.treatment","contr.poly")). Cogmaster A4 – p. 16/26 Méthode du t multiple protégé (LSD) (1) • idée : utiliser le test t classique, en calculant la variance commune (erreur-type au dénominateur) à partir de l’ensemble des échantillons • méthode : (1) si les effectifs sont inégaux, on calcule un t pour chaque paire de moyenne ; (2) si les effectifs sont égaux, on calcule directement la plus petite différence significative (LSD), ∆ = tn−1;α=0.05 q 2 2 sn , à laquelle on compare chacune des différences de moyenne • intérêt : rapide et simple à mettre en œuvre ; donne un aperçu global de l’ensemble des différences de moyennes considérées comme significatives • limites : la protection n’existe que sous H0 ; visée indicative seulement Cogmaster A4 – p. 17/26 Méthode du t multiple protégé (LSD) (2) Idée naı̈ve : calcul de tous les t avec comme erreur-type la résiduelle des 2 séries d’observations considérées res <- matrix (NA , nrow =5 , ncol =5) for ( j in 1:5) { for ( i in 1:5) res [i , j] <round ( t. test ( y [ as . numeric ( g )== j ] , y [ as . numeric ( g )== i ] , var . equal = T ) $ p. value ,4) } res [ upper . tri ( res , diag = T )] <- NA dimnames ( res ) <- list ( levels (g ) , levels (g )) Calcul de LSD : même chose en prenant comme erreur-type la résiduelle de toutes les séries d’observations nk <- 20 # nb d ’ obs par groupe tmp <- summary . aov ( model1 ) residuals <- tmp [[1]] $ ‘ Mean Sq ‘[2] # var . résiduelle lsd <- qt (0.975 , 2 *nk -2) * sqrt (2 * residuals / nk ) plot . design ( aggregate (y , list (g ) , mean )) segments (0.25 , mean (y ) - lsd / 2 ,0.25 , mean ( y )+ lsd / 2) Cogmaster A4 – p. 18/26 g3 2.0 1.5 g4 g2 1.0 mean of x 2.5 3.0 Méthode du t multiple protégé (LSD) (3) g5 g1 Group.1 Factors Cogmaster A4 – p. 19/26 Méthode du t multiple protégé (LSD) (4) res <- matrix ( NA , nrow =5 , ncol =5) for ( j in 1:5) { for ( i in 1:5) { diff . mean <- mean ( y [ as . numeric ( g )== j ]) - mean ( y [ as . numeric (g )== i ]) res [i , j] <- ifelse ( abs ( diff . mean ) > lsd , round ( diff . mean ,2) , NA ) } } res [ upper . tri ( res , diag = T )] <- NA dimnames ( res ) <- list ( levels ( g ) , levels ( g )) Cogmaster A4 – p. 20/26 Méthode du t multiple protégé (LSD) (5) t avec s2p calculée sur les 2 échantillons comparés (valeurs de pobs ): g1 g2 g3 g4 g5 g1 g2 g3 g4 NA NA NA NA 0.3696 NA NA NA 0.0000 0.0022 NA NA 0.0374 0.3144 0.0064 NA 0.5968 0.6306 0.0000 0.0757 g5 NA NA NA NA NA t avec s2p calculée sur tous les échantillons comparés (valeurs des différences de moyennes significatives): g1 g2 g3 g4 g5 g1 g2 g3 g4 NA NA NA NA NA NA NA NA -2.21 -1.65 NA NA -1.11 NA 1.09 NA NA NA 1.92 NA g5 NA NA NA NA NA Note: ces valeurs ne correspondent pas à l’exemple initial de l’ANOVA... Cogmaster A4 – p. 21/26 Méthode du t corrigé (Bonferroni) • • • idée : même principe (test t), en corrigeant le risque α en fonction du nombre de comparaisons k(k−1) α , α = 0.05, comme risque pour m comparaisons (m < C2 ), on fixe m de première espèce pour chacun des tests : méthode de Bonferroni intérêt : rapide et simple à mettre en œuvre ; donne un aperçu global de l’ensemble des différences de moyennes considérées comme significatives pairwise .t . test (y ,g , p . adjust . method = " bonf " ) Il existe d’autres types de méthodes de correction (?p.adjust). Cogmaster A4 – p. 22/26 Méthode de Tukey (HSD) (1) • très utilisé en complément de l’ANOVA lorsque l’on cherche à expliquer des différences non prévues lors de la conception du protocole (démarche post-hoc) • idée : modifier la statistique de test pour que la détection d’une différence significative soit plus difficile • statistique de test : T = x¯1 − x¯2 sp à comparer aux valeurs q des ‘range studentisés’ (?qtukey). • R donne les IC associés à chaque comparaison • limites : effectifs égaux dans chaque groupe model1 . hsd <- TukeyHSD ( model1 ) plot ( model1 . hsd , las =1) Le package multcomp comprend un ensemble de procédures de comparaisons multiples (?simint). Cogmaster A4 – p. 23/26 Méthode de Tukey (HSD) (2) 95% family−wise confidence level g2−g1 g3−g1 g4−g1 g5−g1 g3−g2 g4−g2 g5−g2 g4−g3 g5−g3 g5−g4 −3 −2 −1 0 1 2 3 Differences in mean levels of g Cogmaster A4 – p. 24/26 En résumé (1) • Méthode des contrastes traitements à rôle symétrique ou non ; toujours valable si les contrastes sont indépendants ; problème du choix de ceux-ci ; visée confirmatoire • Méthode du t multiple protégé traitements à rôle symétrique ; peu puissant ; risque de conclusions erronées lorsqu’il y a un grand nombre de comparaisons ; visée indicative • Méthode du t corrigé (Bonferroni) traitements à rôle symétrique ; visée indicative/confirmatoire • Méthode de Scheffé traitements à rôle symétrique ; manque de puissance (trop de protection); permet de tester la nullité de n’importe quel contraste; visée confirmatoire Cogmaster A4 – p. 25/26 En résumé (2) • Méthode de Newman-Keuls traitements à rôle symétrique ; puissance accrue si les effectifs sont égaux et les contrastes simples ; permet de « grouper » les moyennes ; visée confirmatoire • Méthode de Tukey traitements à rôle symétrique ; même protection que Newman-Keuls, mais moins puissante ; nécessite des effectifs égaux, et des contrastes simples ; visée confirmatoire • Méthode de Dunnett traitements à rôle non symétrique ; utilisable dans le cas d’une comparaison à un groupe témoin (ou de référence) ; nécessite le recours à une table spécifique ; visée confirmatoire Cogmaster A4 – p. 26/26