Formulaire de Probabilités et Statistiques
Transcription
Formulaire de Probabilités et Statistiques
Formulaire de Probabilités et Statistiques AD+JS 1 Rappels de combinatoire Arrangements avec répétitions Nombre d’applications d’un ensemble à k éléments dans un ensemble à n éléments : nk Arrangements (sans répétitions) Akn = Permutations Nombre d’arrangements de k objets choisis parmi n: n! = n(n − 1) · · · (n − k + 1) (n − k)! Nombre de permutations de n objets : Ann = n! Combinaisons (sans répétitions) Nombre de combinaisons de k objets choisis parmi n (ou nombre de sous-ensembles à k éléments dans un ensemble à n éléments): n(n − 1) · · · (n − k + 1) n n! k = (coefficient binomial) Cn = = (n − k)!k! k(k − 1) · · · 1 k Combinaisons avec répétitions Nombre de répartitions de n boules indiscernables dans k urnes discernables: (n + k − 1)! k−1 n Cn+k−1 = Cn+k−1 = n!(k − 1)! Coefficients multinomiaux Nombre de répartitions de n boules discernables dans k urnes discernables avec n1 boules dans la 1ère urne, n2 boules dans la 2ème urne, . . ., nk boules dans la kème urne: n! n nk n1 n2 (coefficient multinomial) Cn Cn−n1 · · · Cn−n1 −···−nk−1 = = n1 , . . . , nk n1 !n2 ! · · · nk ! Propriétés élémentaires des coefficients binomiaux k Cnk−1 + Cnk = Cn+1 k Cn+m = (x + y)n = (1 − x)−n = k X j=0 n X k=0 ∞ X (triangle de Pascal) j Cm Cnk−j (formule de Vandermonde ) Cnk xk y n−k (formule du binôme) k xk Cn+k−1 (série géométrique généralisée ) k=0 1 2 Probabilités élémentaires Modelè probabiliste L’ensemble fondamental Ω est l’ensemble des résultats possibles d’une expérience. Un événement A est un sous-ensemble de Ω. Une distribution de probabilités P sur Ω associe à tout événement A un nombre P (A), tel que 0 ≤ P (A) ≤ 1, appelé probabilité de A. Ci-dessous, soient A, B, A1 , A2 , . . ., An des événements. On note Ac le complémentaire de A dans Ω. Une partition de Ω (un système complet d’événements) {Bi }ni=1 a les propriétés que l’union des événements est Ω et qu’ils sont disjoints deux á deux: n [ Bi = Ω, i=1 Bj ∩ Bj = ∅, i 6= j. Propriétés élémentaires de P P (Ω) = 1 P (Ac ) = 1 − P (A) P (A ∪ B) = P (A) + P (B) − P (A ∩ B) Formule d’inclusion-exclusion à n termes ! n n X X [ Ai = (−1)k+1 P i=1 k=1 1≤i1 <···<ik ≤n P (Ai1 ∩ · · · ∩ Aik ) Événements indépendants A et B sont indépendants ssi P (A ∩ B) = P (A)P (B) Événements indépendants deux à deux P (Ai ∩ Aj ) = P (Ai )P (Aj ) i 6= j Événements totalement indépendants P (Ai1 ∩ · · · ∩ Aik ) = P (Ai1 ) · · · P (Aik ) 1 ≤ i1 < · · · < ik ≤ n, k = 1, . . . , n Probabilités conditionnelles Si A est un événement quelconque et si l’événement B vérifie P (B) > 0 alors la probabilité conditionnelle de A sachant B est P (A | B) = P (A ∩ B) . P (B) Conditionnement multiple P (A1 ∩ A2 ∩ · · · ∩ An ) = P (A1 )P (A2 | A1 ) · · · P (An | A1 ∩ A2 ∩ · · · ∩ An−1 ) Formule des probabilités totales Soit (Bi )1≤i≤n une partition de Ω, avec P (Bi ) > 0, ∀i. Alors pour tout événement A, P (A) = P (A | B1 )P (B1 ) + P (A | B2 )P (B2 ) + · · · + P (A | Bn )P (Bn ). 2 Formule de Bayes Soit {Bi }ni=1 une partition de Ω, avec P (Bi ) > 0, ∀i. Alors pour tout événement A de probabilité non nulle P (A | Bi )P (Bi ) . P (A | B1 )P (B1 ) + P (A | B2 )P (B2 ) + · · · + P (A | Bn )P (Bn ) P (Bi | A) = 3 Variables aléatoires réelles Variables discrètes Une variable aléatoire réelle X est une fonction X : Ω → E ou E est un sous-ensemble de nombres réels. Si E est discrèt, alors X est appelé variable aléatoire discrète. Dans ce cas la distribution de probabilités de X est la donnée des nombres : P (X = xk ). La fonction fX (x) = P (X = x) est appelée fonction de masse. Fonction de répartition FX (t) = P (X ≤ t) Quantile Pour une probabilité 0 < p < 1, la p quantile de FX est xp = inf{x : FX (x) ≥ p}. Très souvent on a FX (xp ) = p. Variables continues s’écrit sous la forme X est une variable aléatoire continue si sa fonction de répartition Zx FX (x) = fX (t)dt, donc fX (x) = −∞ dFX (x) , dx où fX (x) est une fonction non négative, appelée densité de X. Couples de variables aléatoires On considère des événements relatifs à deux variables aléatoires X et Y . Fonction de répartition conjointe (X, Y ) conjointement continu FX,Y (x, y) = Zx −∞ et fX,Y (x, y) = ∂2 ∂x∂y FX,Y ds Zy FX,Y (x, y) = P (X ≤ x, Y ≤ y). Pour un couple dy fX,Y (s, t) = Zy Zx fX,Y (s, t) dsdt −∞ −∞ −∞ (x, y). Fonction de répartition marginale un couple (X, Y ) conjointement continu FX (x) = FX (x) = P (X ≤ x) = limy→∞ FX,Y (x, y). Pour Zx fX (s) ds −∞ où fX (x) est la densité marginale de X donnée par fX (x) = R∞ −∞ 3 fX,Y (x, y)dy. Variables aléatoires indépendantes Deux variables aléatoires X et Y sont indépendantes si pour tous ensembles A et B, P (X ∈ A et Y ∈ B) = P (X ∈ A) P (Y ∈ B). En particulier: FX,Y (x, y) = FX (x) FY (y). Dans le cas de deux variables discrètes P (X = xk et Y = yl ) = P (X = xk ) P (Y = yl ), ∀xk , yl ∈ R, et dans le cas de deux variables continues fX,Y (x, y) = fX (x) fY (y), ∀x, y ∈ R. Loi de probabilité d’une fonction de variables aléatoires Changement de variables à une dimension Si X est une variable aléatoire continue de densité fX (x) et si Y = g(X) pour une fonction g réelle et inversible, on a Z FY (y) = fX (x)dx. g −1 (−∞,y) Si g(x) est strictement monotone et continûment dérivable, alors la variable aléatoire Y = g(X) est une variable aléatoire continue, avec densité −1 ( fX (g−1 (y)) d g dy (y) , si y = g(x) pour un x quelconque, fY (y) = 0, si y 6= g(x) pour tout x. Changement de variables à deux dimension Si (X1 , X2 ) sont deux variables aléatoires conjointement continues de densité fX1 ,X2 (x1 , x2 ) et si (Y1 , Y2 ) = (g1 (X1 , X2 ), g2 (X1 , X2 )) pour une fonction g = (g1 , g2 ) inversible, on a ZZ fX1 ,X2 (x1 , x2 ) dx1 dx2 FY1 ,Y2 (y1 , y2 ) = g1 (x1 , x2 ) ≤ y1 g2 (x1 , x2 ) ≤ y2 En particulier, si g(x) est une bijection continûment dérivable avec son inverse noté par h = (h1 , h2 ), alors le couple aléatoire (Y1 , Y2 ) est conjointement continu, avec densité fY1 ,Y2 (y1 , y2 ) = fX1 ,X2 (h1 (y1 , y2 ), h2 (y1 , y2 )) |J(y1 , y2 )| où |J(y1 , y2 )| est le jacobien de h, et J(y1 , y2 ) = 4 ∂h1 ∂h2 ∂y1 ∂y2 − ∂h1 ∂h2 ∂y2 ∂y1 . Espérance mathématique Définition Soit X une variable aléatoire. On désigne par Z E[X] = xdFX (x) l’espérance mathématique de X, definie quand E(|X|) < ∞. 4 Espérance d’une fonction de variables aléatoires Soit g une fonction réelle. L’espérance R de g(X) se calcul par E[g(X)] = g(x)dFX (x). En particulier, pour une variable discrète pour une variable continue E[g(X)] = P k∈K E[g(X)] = R∞ g(xk )P (X = xk ) g(x)fX (x) dx −∞ pour un couple (X, Y ) E[g(X, Y )] = R∞ R∞ g(x, y)fX,Y (x, y) dxdy −∞ −∞ Propriétés de l’espérance Espérance d’une constante E[c] = c pour toute constante c réelle Linéarité E[a + bX + cY ] = a + bE[X] + cE[Y ] pour tous réels a, b, c Positivité E[X] ≥ 0 si X ≥ 0 Variance et covariance Soient X et Y variables aléatoires telles que E(X 2 ), E(Y 2 ) < +∞. On définit les quantités suivantes: Variance de X var[X] = E[(X − E[X])2 ] = E[X 2 ] − E[X]2 = E[X 2 ] − E[X]2 Covariance de X et Y cov[X, Y ] = E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X]E[Y ] Coefficient de corrélation de X et Y corr[X, Y ] = √ Variance et covariance — propriétés: (Bi-)Linéarité de la covariance cov[X,Y ] √ var[X] var[Y ] var[X] = cov[X, X], et var[X] ≥ 0. Pour a, b, c réels, cov[a + bX1 + cX2 , Y ] = b cov[X1 , Y ] + c cov[X2 , Y ]. Variance et covariance var[X + Y ] = var[X] + var[Y ] + 2cov[X, Y ] Homogénéité de la variance Pour tout a réel, var[aX] = a2 var[X]. 5 Transformée de Laplace et moments Soit X une variable aléatoire et t ∈ R. On appelle fonction génératrice des moments (FGM) (aussi transformée de Laplace) la fonction définie par MX (t)(≡ (LX (t)) = E[etX ], si elle est finie. Moment d’ordre k Pour tout entier positif k, le moment d’ordre k est E[X k ]. Moment centré d’ordre k Pour tout entier positif k, le moment centré d’ordre k est E[(X − E[X])k ]. En particulier, si k = 2, on a var[X]. Fonction génératrice des cumulants Soit X une variable aléatoire et t ∈ R. On appelle fonction génératrice des cumulants la fonction définie par KX (t) = log MX (t) = log E[etX ], si elle est finie. Cumulant d’ordre k Pour tout entier positif k, le cumulant d’ordre k est κk donné par KX (t) = ∞ X κk k=1 tk ; k! on a également κk = dk KX (t)/dtk |t=0 . En particulier, E[X] = κ1 , var[X] = κ2 . Quelques inégalités classiques Inégalité de Cauchy–Schwarz |E[XY ]| ≤ p E[X 2 ] · p E[Y 2 ] Inégalité de Jensen Si g est une fonction convexe, i.e. pour t ∈ [0, 1]: g(t x+(1−t) y) ≤ t g(x) + (1 − t) g(y), alors g(E[X]) ≤ E[g(X)] Inégalité de Markov Si X ≥ 0 et si a > 0, alors P (X ≥ a) ≤ E[X]/a. Inégalité de Bienaymé–Chebychev Pour tout a > 0, on a P (|X − E[X]| ≥ a) ≤ var[X]/a2 . 6 5 Variables aléatoires — Lois usuelles 5.1 Lois discrètes Nom Paramètres P (X = k) E[X] var[X] MX (t) Bernoulli 0≤p≤1 pk (1 − p)1−k k = 0, 1 p p(1 − p) pet + 1 − p ∀t Binomiale n 0≤p≤1 Cnk pk (1 − p)n−k k ∈ {0, 1, . . . , n} np np(1 − p) ` t ´n pe + 1 − p ∀t Géométrique 0<p≤1 p(1 − p)k−1 pour k ∈ {1, 2, . . .} 1 p 1−p p2 pet 1−(1−p)et t n−1 n Ck−1 p (1 − p)k−n k ∈ {n, n + 1, . . .} n p Binomiale négative n ∈ {2, 3, . . .} 0≤p≤1 Hyper- n, N1 , N2 géométrique n ≤ N1 + N2 max(0, n − N2 ) ≤ k ≤ min(n, N1 ) Poisson λ>0 e−λ λk! k ∈ {0, 1, . . .} 5.2 n−k k CN ·CN 1 2 n CN 1 +N2 si (1 − p)e < 1 n· “ 1−p p2 N1 ·n N1 +N2 nN1 N2 (N1 +N2 ) (N1 +N2 )2 (N1 +N2 −1) λ λ k t eλ(e −1) ∀t Nom Paramètres Densité f (x) E[X] var[X] MX (t) Uniforme a<b 1/(b − a) si x ∈ [a, b] (0 sinon) a+b 2 (b−a)2 12 etb −eta t(b−a) λe−λx pour x > 0 (0 sinon) 1 λ λn xn−1 e−λx Γ(n) n λ n λ2 µ σ2 0 1 ν−2 si ν ≥ 2 si ν ≥ 3 ν 2ν Gamma λ>0 λ > 0, n ≥ 1 pour x > 0 Gaussienne µ ∈ R, σ 2 > 0 √ 1 e 2πσ 2 − ∀t 6= 0 1 λ2 pour tout x Student ν≥1 (tν ) Chi deux (χ2ν ) √ ν+1 Γ( ) 2 ν πΓ( )(1+x2 )(ν+1)/2 2 pour tout x ν≥1 xν/2−1 e−x/2 2ν/2 Γ(ν/2) pour x > 0 (0 sinon) 7 λ λ−t si t < λ (0 sinon) (x−µ)2 2σ 2 ”n si (1 − p)e < 1 Lois continues Exponentielle pet 1−(1−p)et t λ ( λ−t )n si t < λ exp(µt + ∀t σ2 2 t ) 2 ν (1 − 2t)− 2 si t < 12 5.3 Théorèmes limites Loi hypergéométrique vers une loi binomiale Soit (Xm ) une suite de variables hypergéométriques de paramètres N1 (m), N2 (m) et n, avec N1 (m) N1 (m)+N2 (m) −→ p. Alors pour chaque valeur 0 ≤ k ≤ n: m→∞ P (Xm = k) −→ Cnk pk (1 − p)n−k . m→∞ Loi binomiale vers une loi de Poisson Soit Xn une variable aléatoire binomiale de paramètres (n, p). Si n → ∞ et p → 0 tel que np → λ, alors k P (Xn = k) −→ e−λ λk! , n→∞ k = 0, 1, 2, . . . Loi géométrique vers une loi exponentielle Soit T une variable aléatoire géometrique de paramètre p. Si n → ∞ et p → 0 tel que n · p → λ > 0, alors P (T /n > t) −→ e−λt , t > 0. n→∞ Loi binomiale vers une loi gaussienne paramètres (n, p). Théorème de Moivre-Laplace Si n → ∞ et k ∼ np, alors P (Xn = k) ∼ √ Théorème central limite Soit Xn une variable aléatoire binomiale de 1 2πnp(1−p) (k−np)2 − 2np(1−p) e Si n → ∞,alors pour tout t réel p P (Xn ≤ np + np(1 − p) · t) −→ √1 n→∞ 2π 6 Zt e− x2 2 dx −∞ Variables indépendantes et théorèmes limites Indépendance de plusieurs variables aléatoires Les variables aléatoires X1 , . . . , Xn sont indépendantes si et seulement si elles vérifient l’une des conditions équivalentes suivantes: (i) Les fonctions de répartition respectives FX , FX1 , . . . , FXn de X = (X1 , . . . , Xn ), X1 , . . . , Xn vérifient pour tous xi réels , i = 1, . . . , n: FX (x1 , . . . , xn ) = FX1 (x1 )FX2 (x2 ) · · · FXn (xn ). (ii) Pour toutes fonctions g1 , . . . , gn , on a E[g1 (X1 ) · · · gn (Xn )] = E[g1 (X1 )] · · · E[gn (Xn )] Une ensemble de variables X1 , . . . , Xn indepéndantes et identiquement distribuées (iid) est iid iid appelé un échantillon aléatoire. On note, par exemple X1 , . . . , Xn ∼ F , ou X1 , . . . , Xn ∼ f . 8 Cas particuliers de (ii) Si X1 , . . . , Xn sont des variables aléatoires indépendantes: E[X1 · · · Xn ] = E[X1 ] · · · E[Xn ], Indépendance et covariance MX1 +···+Xn (t) = MX1 (t) · · · MXn (t) Si X1 , . . . , Xn sont indépendantes, alors Cov[Xi , Xj ] = 0, ∀i 6= j. Maximum et minimum de variables aléatoires indépendantes Soient X(n) = max(X1 , . . . , Xn ) et X(1) = min(X1 , . . . , Xn ). X(n) et X(1) ont pour fonctions de répartition respectives FX(n) (x) = FX1 (x) · · · FXn (x), FX(1) (x) = 1 − (1 − FX1 (x)) · · · (1 − FXn (x)) Théorèmes limites pour les valeurs extrêmes de variables iid et soient τ > 0, et (xn )n≥1 , une suite de nombres réels vérifiant iid Soit X1 , . . . , Xn , . . . ∼ F , lim n[1 − F (xn )] = τ. n→∞ Alors P (X(n) ≤ xn ) −→ e−τ . n→∞ Si une telle suite existe, alors il existent des suites (bn )n≥1 , (an > 0)n≥1 , telles que i h ( −1/ξ X(n) − bn , ξ 6= 0, exp − {1 + ξ(y − η)/τ }+ P ≤ y −→ H(y) = n→∞ an exp [− exp {−(y − η)/τ }] , ξ = 0, où u+ = u pour u > 0 et u+ = 0 pour u ≤ 0, et η, ξ ∈ R, τ > 0. iid Statistique d’ordre et vecteur des rangs Soient X1 , . . . , Xn ∼ f , ceci étant une fonction de densité. Les variables ordonnées X(1) ≤ X(2) ≤ · · · ≤ X(n) sont appelées statistique d’ordre associé à X1 , . . . , Xn . On appelle Rj le rang de la valeur Xj et (R1 , . . . , Rn ) le vecteur des rangs associé à X1 , . . . , Xn . Alors le vecteur des rangs et la statistique d’ordre sont indépendantes et (R1 , . . . , Rn ) a une distribution uniforme dans l’ensemble des permutations de {1, . . . n}. La statistique d’ordre a pour densité ( n!f (x1 ) . . . f (xn ), x1 ≤ · · · ≤ xn , fX(1) ,...,X(n) (x1 , . . . , xn ) = 0, sinon. iid Loi limite des statistiques d’ordre centrales Soient 0 < p < 1, X1 , . . . , Xn ∼ F , F une loi continue avec densité f , et xp = F −1 (p). Alors si f (xp ) > 0, X(⌈np⌉) − xp [p(1 − p)/{nf (xp )2 }]1/2 D −→ N (0, 1) lorsque n → ∞. En particulier la mediane, avec p = 0.5, a une loi limite normale, de même que les quartiles, avec p = 0.25, 0.75: pour n grand, p(1 − p) . . X(⌈np⌉) ∼ N xp , nf (xp )2 9 Sommes de variables indépendantes Soient X1 , . . . , Xn des variables aléatoires indépendantes et Sn = X1 + · · · + Xn . Somme de deux variables indépendantes discrètes X (1) (2) P (S2 = y) = P (X1 = xj )P (X2 = xk ) (1) (2) (j,k):y=xj +xk Somme de deux variables indépendantes continues est donnée par la convolution de fX1 et fX2 , i.e. fS2 (y) = fX1 La densité fS2 de S2 = X1 +X2 +∞ Z fX1 (y − x)fX2 (x)dx ∗ fX2 (y) = −∞ Somme de n variables indépendantes continues La densité fSn de Sn = X1 + · · · + Xn est donnée par la convolution des densités fXj : fSn = fX1 ∗ · · · ∗ fXn . Théorèmes de stabilité Loi binomiale Soient Sm et Sn deux variables aléatoires binomiales indépendantes de paramètres (m, p) et (n, p). Alors Sm + Sn suit une loi binomiale de paramètres (m + n, p). Loi de Poisson Soient X1 et X2 deux variables aléatoires de Poisson indépendantes de paramètres λ1 et λ2 . Alors X1 + X2 suit une loi Poisson de paramètres λ1 + λ2 . Loi normale Soient X1 , . . . , Xn des variables aléatoires indépendantes avec Xj ∼ N (µj , σj2 ), et soient a, b1 , . . . , bn des constantes. Alors la combinaison linéaire a + b1 X1 + · · · + bn Xn ∼ N (a + b1 µ1 + · · · + bn µn , b21 σ12 + · · · + b2n σn2 ). Lois des grands nombres Soit X1 , . . . , Xn , . . . une suite de variables aléatoires réelles iid d’espérance µ et variance σ 2 . Alors, la moyenne Sn /n = (X1 + · · · + Xn )/n converge en probabilité vers µ (loi faible). La moyenne converge aussi presque sûrement vers E[X], i.e. la probabilité de l’événement “ Sn /n converge vers E[X] ” est égale 1 (loi forte). Théorème central limite Soit X1 , . . . , Xn , . . .une suite de variables aléatoires réelles iid d’espérance µ et variance σ 2 . La suite des sommes partielles centrées et réduites Zn = X1 +···+X √ n −nµ σ n converge en distribution vers une variable N (0, 1) (normale standard): Z z 2 P (Zn ≤ z) −→ √12π e−y /2 dy = Φ(z), ∀z ∈ R. n→∞ −∞ 10 7 Eléments de Statistique Biais et Risque d’un estimateur b θ, on appelle biais de θ: b 1 , . . . , Xn ) est un estimateur du paramètre Si θb = θ(X b = Eθ [θ] b −θ Bθ (θ) et risque (quadratique) ou erreur moyenne quadratique de θb l’espérance du carré de θb − θ: b = Eθ [(θb − θ)2 ] Rθ (θ) θb sera dit consistant si θb converge en probabilité vers θ lorsque n −→ +∞, i.e. si P (|θb − θ| > ǫ) −→ 0, ∀ǫ > 0 n→∞ Intervalles de confiance (IC) et tests (i) Cas d’un échantillon gaussien Dans ce qui suit on considère n observations x1 , . . . , xn iid correspondant aux réalisations de n variables gaussiennes indépendantes X1 , . . . , Xn ∼ N (µ, σ 2 ). 1. IC au niveau 1 − α fixé (e.g. 1 − α = 0, 95 ≡ 95%, α = 0, 99 ≡ 99%), pour l’espérance µ lorsque σ 2 est connu: soit x = n−1 (x1 + · · · + xn ), alors l’IC est Iα = [x − z1−α/2 √σ ; x n − zα/2 √σ ], n où zp est le p-quantile d’une variable gaussienne Z ∼ N (0, 1), donc P (Z ≤ zp ) = p. 2. IC au niveau 1 − α pour l’espérance µ lorsque σ 2 est inconnu: Jα = x − tn−1 (1 − α/2) √sn ; x − tn−1 (α/2) où (n − 1)s2 = de liberté. √s n , P (xi − x)2 et tν (p) est le p-quantile d’une variable de Student à ν degrés 3. L’IC au niveau 1 − α pour la variance σ 2 s’obtient à partir de la variance empirique s2 comme: [ (n − 1)s2 /χ2n−1 (1 − α/2); (n − 1)s2 /χ2n−1 (α/2) ] où χ2ν (p) est le p-quantile de la loi de khi-deux à ν degrés de liberté. (ii) Estimateur de maximum de vraisemblance Soit y la réalisation d’une variable aléatoire Y dont la loi est f (y; θ), avec scalaire paramètre θ inconnu, alors la log vraisemblance est ℓ(θ) = log f (y; θ) et l’information observée est J(θ) = − d2 ℓ(θ) . dθ 2 b 1−α/2 J(θ) b −1/2 , Sous des conditions de régularité, un IC approximé au niveau 1−α pour θ est θ±z b ≥ ℓ(θ), ∀θ. où θb est l’estimation de maximum de vraisemblance de θ, qui satisfait ℓ(θ) Souvent y = (y1 , . . . , yn ) est supposé la réalisation d’un échantillon aléatoire Y1 , . . . , Yn , et dans ce cas n n X X d2 log f (yj ; θ) log f (yj ; θ), J(θ) = − , ℓ(θ) = dθ 2 j=1 j=1 f (yj ; θ) étant la densité de Yj . 11 (iii) Tests d’hypothèses Soit x1 , . . . , xn un échantillon correspondant aux réalisations iid X1 , . . . , Xn ∼ Pθ (inconnue). On fait une hypothèse H0 sur la distribution Pθ (par exemple: θ = θ0 ) et l’on veut tester si les observations x1 , . . . , xn permettent de rejeter l’hypothèse H0 . On choisi une statistique de test T , construit de telle manière que des grandes valeurs de T suggerent que H0 soit fausse, et on calcul le niveau de signification pobs = Pr0 (T ≥ tobs ), où tobs est la valeur observée de T , c’est à dire sa valeur calculée avec les données x1 , . . . , xn , et Pr0 représent une probabilité calculée sous H0 . Plus pobs est petite, plus on doubte H0 . Une autre possibilité est de fixer un niveau α à l’avance (e.g. α = 0, 05 ≡ 5%, α = 0, 01 ≡ 1% ou α = 0, 001 ≡ 0, 1%), de trouver le (1 − α) quantile de la loi de T sous H0 , et de rejeter H0 si tobs excede ce quantile. iid Dans le cas d’un échantillon x1 , . . . , xn correspondant à des variables X1 , . . . , Xn ∼ N (µ, σ 2 ), avec σ 2 connue et µ inconnue, on pourra rejeter l’hypothèse H0 : µ = µ0 au niveau α si µ0 ∈ / Iα , où Iα est l’intervalle de confiance de niveau 1−α pour la moyenne µ, autrement dit: on rejettera l’hypothèse H0 : µ = µ0 au niveau α si x − µ0 √ > z1−α/2 σ/ n Si σ 2 est inconnue on rejettera l’hypothèse H0 : µ = µ0 au niveau α si µ0 6∈ Jα , donc si x − µ0 √ > tn−1 (1 − α/2). s/ n 12 Distribution normale standard Φ(z) Φ ( z) z Pour z < 0 on utilise symmetrie: P (Z ≤ z) = Φ(z) = 1 − Φ(−z), z ∈ R. z 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2.0 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9 3.0 3.1 3.2 3.3 3.4 3.5 3.6 3.7 3.8 3.9 0 .50000 .53983 .57926 .61791 .65542 .69146 .72575 .75804 .78814 .81594 .84134 .86433 .88493 .90320 .91924 .93319 .94520 .95543 .96407 .97128 .97725 .98214 .98610 .98928 .99180 .99379 .99534 .99653 .99744 .99813 .99865 .99903 .99931 .99952 .99966 .99977 .99984 .99989 .99993 .99995 1 .50399 .54380 .58317 .62172 .65910 .69497 .72907 .76115 .79103 .81859 .84375 .86650 .88686 .90490 .92073 .93448 .94630 .95637 .96485 .97193 .97778 .98257 .98645 .98956 .99202 .99396 .99547 .99664 .99752 .99819 .99869 .99906 .99934 .99953 .99968 .99978 .99985 .99990 .99993 .99995 2 .50798 .54776 .58706 .62552 .66276 .69847 .73237 .76424 .79389 .82121 .84614 .86864 .88877 .90658 .92220 .93574 .94738 .95728 .96562 .97257 .97831 .98300 .98679 .98983 .99224 .99413 .99560 .99674 .99760 .99825 .99874 .99910 .99936 .99955 .99969 .99978 .99985 .99990 .99993 .99996 3 .51197 .55172 .59095 .62930 .66640 .70194 .73565 .76730 .79673 .82381 .84850 .87076 .89065 .90824 .92364 .93699 .94845 .95818 .96638 .97320 .97882 .98341 .98713 .99010 .99245 .99430 .99573 .99683 .99767 .99831 .99878 .99913 .99938 .99957 .99970 .99979 .99986 .99990 .99994 .99996 4 .51595 .55567 .59483 .63307 .67003 .70540 .73891 .77035 .79955 .82639 .85083 .87286 .89251 .90988 .92507 .93822 .94950 .95907 .96712 .97381 .97932 .98382 .98745 .99036 .99266 .99446 .99585 .99693 .99774 .99836 .99882 .99916 .99940 .99958 .99971 .99980 .99986 .99991 .99994 .99996 13 5 .51994 .55962 .59871 .63683 .67364 .70884 .74215 .77337 .80234 .82894 .85314 .87493 .89435 .91149 .92647 .93943 .95053 .95994 .96784 .97441 .97982 .98422 .98778 .99061 .99286 .99461 .99598 .99702 .99781 .99841 .99886 .99918 .99942 .99960 .99972 .99981 .99987 .99991 .99994 .99996 6 .52392 .56356 .60257 .64058 .67724 .71226 .74537 .77637 .80511 .83147 .85543 .87698 .89617 .91309 .92786 .94062 .95154 .96080 .96856 .97500 .98030 .98461 .98809 .99086 .99305 .99477 .99609 .99711 .99788 .99846 .99889 .99921 .99944 .99961 .99973 .99981 .99987 .99992 .99994 .99996 7 .52790 .56750 .60642 .64431 .68082 .71566 .74857 .77935 .80785 .83398 .85769 .87900 .89796 .91466 .92922 .94179 .95254 .96164 .96926 .97558 .98077 .98500 .98840 .99111 .99324 .99492 .99621 .99720 .99795 .99851 .99893 .99924 .99946 .99962 .99974 .99982 .99988 .99992 .99995 .99996 8 .53188 .57142 .61026 .64803 .68439 .71904 .75175 .78230 .81057 .83646 .85993 .88100 .89973 .91621 .93056 .94295 .95352 .96246 .96995 .97615 .98124 .98537 .98870 .99134 .99343 .99506 .99632 .99728 .99801 .99856 .99896 .99926 .99948 .99964 .99975 .99983 .99988 .99992 .99995 .99997 9 .53586 .57535 .61409 .65173 .68793 .72240 .75490 .78524 .81327 .83891 .86214 .88298 .90147 .91774 .93189 .94408 .95449 .96327 .97062 .97670 .98169 .98574 .98899 .99158 .99361 .99520 .99643 .99736 .99807 .99861 .99900 .99929 .99950 .99965 .99976 .99983 .99989 .99992 .99995 .99997 Distribution χ2ν p χ2ν(p) Des quantiles χ2ν (p) pour la distribution en khi-carré à ν degrés de liberté. ν 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 50 60 70 .005 0 .0100 .0717 .207 .412 .676 .989 1.34 1.73 2.16 2.60 3.07 3.57 4.07 4.60 5.14 5.70 6.26 6.84 7.43 8.03 8.64 9.26 9.89 10.5 11.2 11.8 12.5 13.1 13.8 20.7 28.0 35.5 43.3 .01 .0002 .0201 .115 .297 .554 .872 1.24 1.65 2.09 2.56 3.05 3.57 4.11 4.66 5.23 5.81 6.41 7.01 7.63 8.26 8.90 9.54 10.2 10.9 11.5 12.2 12.9 13.6 14.3 15.0 22.2 29.7 37.5 45.4 .025 .010 .0506 .216 .484 .831 1.24 1.69 2.18 2.70 3.25 3.82 4.40 5.01 5.63 6.26 6.91 7.56 8.23 8.91 9.59 10.3 11.0 11.7 12.4 13.1 13.8 14.6 15.3 16.0 16.8 24.4 32.4 40.5 48.8 .05 .0039 .103 .352 .711 1.15 1.64 2.17 2.73 3.33 3.94 4.57 5.23 5.89 6.57 7.26 7.96 8.67 9.39 10.1 10.9 11.6 12.3 13.1 13.8 14.6 15.4 16.2 16.9 17.7 18.5 26.5 34.8 43.2 51.7 .10 .0158 .211 .584 1.06 1.61 2.20 2.83 3.49 4.17 4.87 5.58 6.30 7.04 7.79 8.55 9.31 10.1 10.9 11.7 12.4 13.2 14.0 14.8 15.7 16.5 17.3 18.1 18.9 19.8 20.6 29.1 37.7 46.5 55.3 .25 .102 .575 1.21 1.92 2.67 3.45 4.25 5.07 5.90 6.74 7.58 8.44 9.30 10.2 11.0 11.9 12.8 13.7 14.6 15.5 16.3 17.2 18.1 19.0 19.9 20.8 21.7 22.7 23.6 24.5 33.7 42.9 52.3 61.7 .50 .455 1.39 2.37 3.36 4.35 5.35 6.35 7.34 8.34 9.34 10.3 11.3 12.3 13.3 14.3 15.3 16.3 17.3 18.3 19.3 20.3 21.3 22.3 23.3 24.3 25.3 26.3 27.3 28.3 29.3 39.3 49.3 59.3 69.3 14 .75 1.32 2.77 4.11 5.39 6.63 7.84 9.04 10.2 11.4 12.5 13.7 14.8 16.0 17.1 18.2 19.4 20.5 21.6 22.7 23.8 24.9 26.0 27.1 28.2 29.3 30.4 31.5 32.6 33.7 34.8 45.6 56.3 67.0 77.6 .90 2.71 4.61 6.25 7.78 9.24 10.6 12.0 13.4 14.7 16.0 17.3 18.5 19.8 21.1 22.3 23.5 24.8 26.0 27.2 28.4 29.6 30.8 32.0 33.2 34.4 35.6 36.7 37.9 39.1 40.3 51.8 63.2 74.4 85.5 .95 3.84 5.99 7.81 9.49 11.1 12.6 14.1 15.5 16.9 18.3 19.7 21.0 22.4 23.7 25.0 26.3 27.6 28.9 30.1 31.4 32.7 33.9 35.2 36.4 37.7 38.9 40.1 41.3 42.6 43.8 55.8 67.5 79.1 90.5 .975 5.02 7.38 9.35 11.1 12.8 14.4 16.0 17.5 19.0 20.5 21.9 23.3 24.7 26.1 27.5 28.8 30.2 31.5 32.9 34.2 35.5 36.8 38.1 39.4 40.6 41.9 43.2 44.5 45.7 47.0 59.3 71.4 83.3 95.0 .99 6.63 9.21 11.3 13.3 15.1 16.8 18.5 20.1 21.7 23.2 24.7 26.2 27.7 29.1 30.6 32.0 33.4 34.8 36.2 37.6 38.9 40.3 41.6 43.0 44.3 45.6 47.0 48.3 49.6 50.9 63.7 76.2 88.4 100. .995 7.88 10.6 12.8 14.9 16.7 18.5 20.3 22.0 23.6 25.2 26.8 28.3 29.8 31.3 32.8 34.3 35.7 37.2 38.6 40.0 41.4 42.8 44.2 45.6 46.9 48.3 49.6 51.0 52.3 53.7 66.8 79.5 92.0 104. .999 10.8 13.8 16.3 18.5 20.5 22.5 24.3 26.1 27.9 29.6 31.3 32.9 34.5 36.1 37.7 39.3 40.8 42.3 43.8 45.3 46.8 48.3 49.7 51.2 52.6 54.1 55.5 56.9 58.3 59.7 73.4 86.7 99.6 112. Distribution tν de Student p tν(p) Des quantiles tν (p) pour la distribution t de Student à ν degrés de liberté. Pour p < 0 on utilise la symmétrie: tν (p) = −tν (1 − p). ν 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 50 100 ∞ .75 1.000 .8165 .7649 .7407 .7267 .7176 .7111 .7064 .7027 .6998 .6974 .6955 .6938 .6924 .6912 .6901 .6892 .6884 .6876 .6870 .6864 .6858 .6853 .6848 .6844 .6840 .6837 .6834 .6830 .6828 .6807 .6794 .6770 .6745 .9 3.078 1.886 1.638 1.533 1.476 1.440 1.415 1.397 1.383 1.372 1.363 1.356 1.350 1.345 1.341 1.337 1.333 1.330 1.328 1.325 1.323 1.321 1.319 1.318 1.316 1.315 1.314 1.313 1.311 1.310 1.303 1.299 1.290 1.282 .95 6.314 2.920 2.353 2.132 2.015 1.943 1.895 1.860 1.833 1.812 1.796 1.782 1.771 1.761 1.753 1.746 1.740 1.734 1.729 1.725 1.721 1.717 1.714 1.711 1.708 1.706 1.703 1.701 1.699 1.697 1.684 1.676 1.660 1.645 15 .975 12.71 4.303 3.182 2.776 2.571 2.447 2.365 2.306 2.262 2.228 2.201 2.179 2.160 2.145 2.131 2.120 2.110 2.101 2.093 2.086 2.080 2.074 2.069 2.064 2.060 2.056 2.052 2.048 2.045 2.042 2.021 2.009 1.984 1.960 .99 31.82 6.965 4.541 3.747 3.365 3.143 2.998 2.896 2.821 2.764 2.718 2.681 2.650 2.624 2.602 2.583 2.567 2.552 2.539 2.528 2.518 2.508 2.500 2.492 2.485 2.479 2.473 2.467 2.462 2.457 2.423 2.403 2.364 2.326 .995 63.66 9.925 5.841 4.604 4.032 3.707 3.499 3.355 3.250 3.169 3.106 3.055 3.012 2.977 2.947 2.921 2.898 2.878 2.861 2.845 2.831 2.819 2.807 2.797 2.787 2.779 2.771 2.763 2.756 2.750 2.704 2.678 2.626 2.576