Tests Statistiques
Transcription
Tests Statistiques
Tests Statistiques Tony Bourdier – ESSTIN 2009-2010 1 Formulation 1.1 Notion de test Soit X une variable aléatoire réelle de densité fθ (x) dépendant d’un paramètre θ de valeur inconnue. On formule deux hypothèses sur la valeur de θ : H0 : l’hypothèse nulle H1 : l’hypothèse alternative Chacune de ces hypothèses peut être simple : θ = θ0 (θ a la valeur θ0 ) ou multiple : θ ∈ Θ L’une de ces hypothèses est vraie. Un test est une règle de choix entre les deux hypothèses qui est obtenue à partir de l’observation d’un échantillon i.i.d. de X. 1.2 1.2.1 Règles de décisions Décisions possibles La règle conduit à l’une des deux décisions suivantes : 1. rejeter l’hypothèse H0 (= accepter H1 ) 2. ne pas rejeter l’hypothèse H0 (= accepter H0 ) 1.2.2 Erreurs de décision et risque d’erreurs Décision Hypothèse vraie H0 H1 Soit le test + Ne pas rejeter H0 Rejeter H0 Pas d’erreur 1 − α Erreur de 2e espèce β Erreur de 1ere espèce α Pas d’erreur Π = 1 − β H0 : θ ∈ Θ0 H1 : θ ∈ Θ1 Définition 1.1 : On définit : 1. La fonction risque de 1ère espèce : Pour x ∈ Θ0 : α(x) = P(rejeter H0 lorsque θ = x). supx∈Θ0 α(x) = α : seuil ou risque du test 2. La fonction risque de 2nde espèce : Pour x ∈ Θ1 : β(x) = P(ne pas rejeter H0 lorsque θ = x) 3. La fonction puissance : Pour x ∈ Θ1 : Π(x) = 1 − β(x) = P(rejeter H0 lorsque θ = x) 1.2.3 Méthode de test de Neyman et Pearson On cherche à déterminer la règle de décision de telle manière que les risques d’erreur soient minimaux. Or, en général, les risques de première et deuxième espèce sont antagonistes : si on diminue l’un, on augmente l’autre. . La méthode de Neyman et Pearson consiste à : – fixer le seuil (risque) α = supx∈Θ0 α(x) – minimiser β(x) (= maximiser Π(x) : c’est le critère de la puissance maximale) La valeur de α étant fixée (petite), l’hypothèse H0 est privilégiée : c’est celle que l’on ne veut pas rejeter à tort. 2 Théorème de Neyman + Définition 2.2 : Le test H0 : θ ∈ Θ0 H1 : θ ∈ Θ1 ∀x ∈ Θ0 , α(x) ≤ α est dit sans biais lorsque ⇒ ∀x ∈ Θ1 , Π(x) ≥ α H0 : θ ∈ θ0 . H1 : θ ∈ θ1 Si X admet une densité de probabilité fθ (x) > 0 pour tout x, alors, pour tout α ∈ [0, 1], il existe un test de puissance maximale de H0 contre H1 défini par la région d’acceptation de l’hypothèse H0 : Théorème 2.1 : (de Neyman) On considère le test Aα = {x ∈ Rn ; Lθ1 (x) ≤ c(α).Lθ0 (x)} - avec c(α) > 0 et tel que Pθ0 (Aα ) = 1 − α. En outre, ce test est sans biais. 3 Test sur la moyenne d’une loi normale d’écart-type connu X ∼ N (m, σ), σ connu. 3.1 Tests entre hypothèses simples H0 : m = m0 H1 : m = m1 (X1 , ..., Xn ) un n-échantillon i.i.d.de X. On applique le théorème de Neyman : Soit le test Région d’acceptation de H0 : Aα = {x ∈ Rn ; Lm1 (x) ≤ c(α).Lm0 (x)} Règle de décision : Si (x1 , ..., xn ) ∈ / Aα , on rejette H0 , sinon, on accepte H0 . Lm (x) = n Y i=1 1 σ n (2π)n/2 1 e− 2 2 1 exp − 2 i=1 xi −m σ = Pn xi −m0 2 1 exp − 2 i=1 σ 1 Pn = exp − 2 i=1 (xi − m1 )2 − (xi − m0 )2 2σ 1 Pn = exp − 2 i=1 (m0 − m1 )(2xi − m0 − m1 ) 2σ 1 = exp − 2 (m0 − m1 )2n(x − 21 (m0 + m1 )) 2σ ≤ c(α) pour définir la région d’acceptation Lm1 (x) Lm0 (x) fm (xi ) = Pn 1 Pn i=1 2 ( xi −m ) σ ⇔− 1 1 (m0 − m1 )n(x − (m0 + m1 )) ≤ ln (c(α)) σ2 2 1er cas : m1 > m0 1 σ2 (1) ⇔ x − (m0 + m1 ) ≤ ln (c(α)) 2 n(m1 − m0 ) σ2 1 ⇔x≤ ln (c(α)) + (m0 + m1 ) = d(α) n(m1 − m0 ) 2 La région d’acceptation de H0 est de la forme : Aα = {x ∈ Rn ; x ≤ d(α)} Déterminons d(α). Le seuil α est fixé : α = P(rejeter H0 lorsque H0 est vraie) = P(rejeter H0 lorsque m = m0 ) = Pm0 (Aα ) P X > d(α) lorsque m = m 0 = α σ Or, (m = m0 ) ⇒ X ∼ N m0 , √ n On se ramène donc à la loi normale centrée réduite : ! X − m0 d(α) − m0 > α=P σ σ √ ⇒ d(α) − m0 √σ n n √ n = u(α) d’où d(α) = m0 + u(α) √σn Conclusion : H0 : m = m0 H1 : m = m1 . m1 > m0 Règle de décision : Si x > m0 + u(α) √σn , on rejette H0 , sinon, on ne rejette pas H0 . Remarque : Cette règle de décision ne fait pas intervenir1 la valeur de m1 . 2nd cas : m1 < m0 On a donc ⇒ − 1 (m0 − m1 )n ≤ 0 σ2 (1) ⇔ x − 12 (m0 + m1 ) ≥ ⇔x≥ 1 Sauf dans l’inégalité m1 > m0 σ2 ln (c(α)) n(m1 − m0 ) σ2 ln (c(α)) + 21 (m0 + m1 ) = e(α) n(m1 − m0 ) (1) ⇒ Aα = {x ∈ Rn ; x ≥ e(α)} région d’acceptation de H0 . On détermine alors e(α) : α = P(rejeter H0 lorsque H0 vraie) = Pm0 (Aα ) α = P X < e(α) lorsque m = m0 σ X ∼ N m0 , √ n On se ramène donc à la loi normale centrée réduite : Or (m = m0 ) ⇒ α=P ⇒ e(α) − m0 √σ n √σ n < e(α) − m0 ! √σ n = −u(α) ⇔ e(α) = m0 − u(α) √σn Conclusion : H0 : m = m0 H1 : m = m1 . X − m0 m1 < m0 Règle de décision : Si x < m0 − u(α) √σn , on rejette H0 , sinon, on ne rejette pas H0 . 3.2 Test unilatéral à droite H0 : m = m0 H1 : m > m0 au seuil α H0 : m = m0 ne dépend pas de m1 . On va donc H1 : m = m1 la prendre pour règle de décision du test unilatéral à droite. (C’est le test le plus puissant de seuil α par Neyman) Soit m1 > m0 . La règle de décision du test . Règle de décision : Si x > m0 + u(α) √σn , on rejette H0 , sinon, on ne rejette pas H0 . + Définition 3.3 : On dit que le test unilatéral à droite est uniformément le plus puissant de seuil α (UMP). Fonction puissance : Pour m1 > m0 : Π(m1 ) = P(rejeter H0 lorsque m = m1 ) = Pm1 (Aα ) Π(m1 ) = P X > m0 + u(α) √σn lorsque m = m1 Or (m = m1 ) ⇒ X ∼ N m1 , √σn On se ramène donc à la loi normale centrée réduite : Π(m1 ) = P On pose m0 − m1 √σ n =λ<0 X − m1 √σ n > m0 − m1 √σ n ! + u(α) (m1 > m0 ) Π(m1 ) = Π1 (λ) = 1 − Φ (λ + u(α)) = Φ (−λ − u(α)) Donc où Φ est la fonction de répartition de N (0, 1). H0 : m ≤ m0 au seuil α H1 : m > m0 ère Soit m2 ≤ m0 , on a la fonction risque de 1 espèce : α(m2 ) = P(rejeter H0 lorsque m = m2 ) = P X > m0 + u(α) √σn lorsque m = m2 Remarque : Soit le test Or (m = m2 ) ⇒ X ∼ N m2 , √σn On se ramène donc à la loi normale centrée réduite : α(m2 ) = P X − m2 √σ n > m0 − m2 √σ n | {z ! + u(α) ≤α } ≥u(α) car m2 ≤m0 ⇒ Ce test est UMP de seuil α. 3.3 Test unilatéral à gauche H0 : m = m0 au seuil α H1 : m < m0 On utilise la règle de décision lorsque m1 < m0 , donc la règle de décision du test UMP est : Soit le test . Règle de décision : Si x < m0 − u(α) √σn , on rejette H0 , sinon, on ne rejette pas H0 . Fonction puissance : Pour m1 < m0 : Π(m1 ) = P(rejeter H0 lorsque m = m1 ) = Pm1 (Aα ) Π(m1 ) = P X < m0 − u(α) √σn lorsque m = m1 On se ramène donc à la loi normale centrée réduite : ! X − m1 m0 − m1 Π(m1 ) = P < − u(α) σ σ √ On pose m0 − m1 √σ n =λ>0 n √ n (m1 < m0 ) Donc Π(m1 ) = Π2 (λ) = Φ (λ − u(α)) 3.4 Test bilatéral H0 : m = m0 au seuil α H1 : m 6= m0 Il paraît naturel de prendre la règle de décision suivante : Soit le test . Règle de décision : Si x < m0 − u α2 √σn ou x > m0 + u α2 √σn on rejette H0 , sinon m0 − u α2 √σn < x < m0 + u α2 √σn on ne rejette pas H0 . - Théorème 3.2 : Ce test est UMP dans la classe des tests sans biais. Fonction puissance : Pour m1 6= m0 : Π(m1 ) = P(rejeter H0 lorsque m = m1 ) = P X < m0 − u α2 √σn ou X > m0 + u α2 √σn lorsque m = m1 ⇒ Π(m1 ) = P X − m1 m0 − m1 < √σ √σ n n m0 − m1 On pose λ = , on a alors : √σ n Π(m1 ) = Φ λ − u α2 + 1 − Φ λ + Π(m1 ) = Π3 (λ) = Φ λ − u α2 + Φ 3.5 ! −u α 2 u α2 −λ − u +P α 2 , X − m1 √σ n > m0 − m1 √σ n ! +u α 2 λ 6= 0 Cas d’une loi non normale σ Pour n grand, X ∼ N m, √ . On peut donc dans ce cas reconstruire les mêmes tests que dans n le cas d’une loi normale (ne nécessite pas la connaissance de la loi de X). Si on connaît la loi de X, alors on utilise le théorème de Neyman. 4 4.1 Autres tests usuels Test sur la moyenne d’une loi normale d’écart-type inconnu X ∼ N (m, σ) avec σ inconnu 4.1.1 Test unilatéral à droite H0 : m = m0 Soit le test au seuil α H1 : m > m0 La région d’acceptation de H0 est : Aα = {x ∈ Rn ; x ≤ d(α)} α = P(rejeter H0 lorsque m = m0 ) = P X > d(α) lorsque m = m0 ! X − m0 Or, (m = m0 ) ⇒ ∼ Tn−1 (ne fait pas intervenir σ mais seulement l’écart-type sur l’échanS √ tillon) n−1 α=P X − m0 √S n−1 > | {z } Tn−1 Donc d(α) = m0 + tn−1 (α) √ . d(α) − m0 ! √S n−1 | {z tn−1 (α) } S n−1 Règle de décision : s , on rejette H0 , n−1 sinon, on ne rejette pas H0 . Si x > m0 + tn−1 (α) √ Fonction puissance : Pour m1 > m0 : S Π(m1 ) = P(rejeter H0 lorsque m = m1 ) = P X > m0 + tn−1 (α) √ lorsque m = m1 n−1 On a construit, pour α et n fixés, le graphe de la fonction β = 1 − Π exprimée en fonction de m1 − m0 λ= (courbe d’efficacité). σ 4.1.2 Test unilatéral à gauche H0 : m = m0 Soit le test au seuil α H1 : m < m0 . Règle de décision : s , on rejette H0 , n−1 sinon, on ne rejette pas H0 . Si x < m0 − tn−1 (α) √ 4.1.3 Test bilatéral H0 : m = m0 Soit le test H1 : m 6= m0 . au seuil α Règle de décision : Si x ∈ / m0 − tn−1 α 2 s s α √ ; m0 + tn−1 2 √ , on rejette H0 , n−1 n−1 sinon, on ne rejette pas H0 . Fonction puissance : S Π(m1 ) = P X < m0 − tn−1 α2 √ lorsque m = m1 n−1 S α +P X > m0 + tn−1 2 √ lorsque m = m1 n−1 On a construit, pour α et n fixés, le graphe de la fonction β = 1 − Π exprimée en fonction de | m1 − m0 | λ= . σ 4.1.4 Cas d’une loi non normale On a, pour n grand, X −m √S n−1 ∼ N (0, 1). Donc, pour n grand, on a les mêmes règles de décisions que dans le cas d’une loi normale à condition de remplacer tn−1 par u. 4.2 Tests sur la variance d’une loi normale de moyenne inconnue X ∼ N (m, σ), m inconnue 4.2.1 Test unilatéral à droite H0 : σ 2 = σ02 au seuil α Soit le test H1 : σ 2 > σ02 n Estimateur de σ 2 : S2. n−1 Remarque : Si m était connue, on utiliserait 1 n Pn i=1 (Xi − m)2 Région d’acceptation de H0 : Aα = x ∈ Rn ; s2 ≤ d(α) α = P s2 > d(α) lorsque σ 2 = σ02 2 nS 2 2 2 Or, (σ = σ0 ) ⇒ ∼ χn−1 σ02 nS 2 nd(α) α=P > σ02 σ2 |{z} | {z0 } χ2n−1 Donc d(α) = an−1 (α) . ! an−1 (α) σ02 n Règle de décision : an−1 (α) Si s2 > σ02 , on rejette H0 , n sinon, on ne rejette pas H0 . Fonction puissance : 2 2 an−1 (α) 2 2 = P S > σ0 lorsque σ = σ1 n 2 2 nS nS σ02 2 2 2 2 Or, (σ = σ1 ) ⇒ ∼ χn−1 , donc Π(σ1 ) = P > 2 an−1 (α) σ12 σ12 σ1 σ1 On pose λ = : σ0 2 an−1 (α) nS 2 Π(σ1 ) = Π1 (λ) = P > σ12 λ2 On a construit, pour α et n fixés, le graphe de β1 (λ) = 1 − Π1 (λ) (courbe d’efficacité). Π(σ12 ) 4.3 Tests sur une proportion 4.3.1 Test unilatéral à droite H0 : p = p0 Soit le test au seuil α H1 : p > p0 k Estimateur de p : n Région d’acceptation de H0 : Aα = x ∈ Rn ; nk ≤ d(α) α=P k n > d(α) lorsque p = p0 k ∼N n Pour n grand : (p = p0 ) ⇒ r p0 , p0 (1 − p0 ) n !! On centre et on réduit : k n α=P q | r d(α) = p0 + u(α) . − p0 p0 (1−p0 ) n {z N (0,1) } d(α) − p0 >q ! p0 (1−p0 ) n | {z u(α) } p0 (1 − p0 ) n Règle de décision : r k p0 (1 − p0 ) Si > p0 + u(α) , on rejette H0 , n n sinon, on ne rejette pas H0 . Fonction puissance : ! r k p0 (1 − p0 ) > p0 + u(α) lorsque p = p1 n n Π(p1 ) = P Or (p = p1 ) ⇒ r k ∼N n k n Π(p1 ) = P q − p1 p1 (1−p1 ) n p1 , p1 (1 − p1 ) n p0 − p1 Π(p1 ) = 1 − Φ q p1 (1−p1 ) n !! p0 (1 − p0 ) + u(α) p1 (1 − p1 ) p1 (1−p1 ) n s s p0 (1 − p0 ) p1 − p0 p0 (1 − p0 ) + u(α) = Φ q − u(α) p1 (1 − p1 ) p1 (1 − p1 ) p1 (1−p1 ) p0 − p1 >q p1 > p0 s n