Rappels lois usuelles

Transcription

Rappels lois usuelles
Université Paris 1
Magistère d’Economie - 1ère année
COURS DE STATISTIQUE
DEFINITIONS ET PROPRIETES DES PRINCIPALES LOIS
UNIDIMENSIONNELLES
Convention : Si la variable aléatoire (v.a.) X suit la loi L, on notera X ∼ L.
Lois discrètes
1. Loi UNIFORME : U
Elle est définie sur des entiers {1, ..., n} ou des valeurs {a1 , ..., an } avec la même probabilité pour toutes les valeurs
P (X = i) =
1
, i = 1, ..., n
n
P (X = ai ) =
1
, i = 1, ..., n.
n
ou
Espérance et variance :
Si X(Ω) = {1, ..., n},
E(X) =
n2 − 1
n+1
, V(X) =
2
12
Si X(Ω) = {a1 , ..., an },
n
n
1X
1X 2
E(X) =
an , V(X) =
ai − E(X)2
n i=1
n i=1
2. Loi de BERNOULLI : B(1, p)
On utilise cette loi lorsque les résultats possibles d’une épreuve aléatoire sont réduits
à deux :
Oui-Non ; Vrai-Faux ; Succès-Echec
On parle dans ce cas d’expérience de Bernoulli. Une v.a. X suit une loi B(1, p) si elle
prend deux valeurs 0 et 1 avec les probabilités suivantes :
P(X = 1) = p , P(X = 0) = 1 − p = q
La loi de Bernoulli peut aussi s’écrire sous la forme suivante :
P(X = k) = pk (1 − p)1−k , k ∈ {0, 1}
Espérance et variance :
E(X) = p , V(X) = p(1 − p)
Fonction génératrice :
G(s) = E sX = q + ps
1
3. Loi BINOMIALE : B(n, p)
Une v.a. suivant cette loi peut se définir comme le nombre de “succès” à l’issue de n
expériences de Bernoulli indépendantes et de même loi. Le support d’une telle variable
est X(Ω) = {0, 1, ..., n} avec la loi de probabilité :
P (X = k) = Cnk pk (1 − p)n−k , k ∈ {0, 1, ..., n}
Construction
Si n P
v.a. indépendantes X1 , X2 , ..., Xn suivent la même loi B(1, p), alors la variable
X = ni=1 Xi suit une loi Binomiale B(n, p).
Espérance et variance :
E(X) = np , V(X) = np(1 − p)
Fonction génératrice :
G(s) = E sX = (q + ps)n
Addition
Si deux v.a. indépendantes X1 et X2 suivent respectivement les lois B(n1 , p) et B(n2 , p),
alors la variable aléatoire X = X1 + X2 suit une loi B(n1 + n2 , p).
Approximation (Convergence en loi)
Lorsque n est grand :
(a) Si n > 30, si np et np(1 − p) sont voisins et si np ≤ 15, on peut alors approximer
la loi B(n, p) par une loi de Poisson P(λ), où λ = np.
(b) Si np > 15 et n(1 − p) > 15 (ou si np(1 − p) > 5), on peut alors approximer la loi
B(n, p) par une loi normale N (m, σ 2 ), où m = np et σ 2 = np(1 − p).
4. Loi GEOMETRIQUE : G(p)
Une v.a. suivant cette loi peut se définir comme le nombre d’essais jusqu’au premier
succès pour des épreuves de Bernoulli indépendantes de paramètre p. Le support d’une
telle variable est X(Ω) = N? avec la loi de probabilité :
P (X = k) = p(1 − p)k−1 , k ∈ N?
Espérance et variance :
E(X) =
1
1−p
, V(X) =
p
p2
Fonction génératrice :
G(s) = E sX =
sp
, q =1−p
1 − qs
NB : On définit parfois la loi Géométrique comme le nombre d’échecs avant le premier
succès. Dans ce cas, elle prend ses valeurs dans N,
P (X = k) = p(1 − p)k , k ∈ N, E(X) = p1 − 1 et V(X) = 1−p
. Quand on ne précise
p2
rien, on considère la 1ère définition.
5. Loi de POISSON : P(λ)
Une v.a. X suit une loi de Poisson si elle prend ses valeurs dans N avec les probabilités :
P (X = k) =
2
e−λ λk
, k∈N
x!
Le paramètre λ est toujours considéré positif, λ > 0.
Espérance et variance :
E(X) = V(X) = λ
Fonction génératrice :
G(s) = E sX = eλ(s−1)
Addition
Si deux v.a. indépendantes X1 et X2 suivent respectivement les lois P(λ1 ) et P(λ2 ),
alors la variable aléatoire X = X1 + X2 suit une loi P(λ1 + λ2 ).
Lois continues
6. Loi UNIFORME : U(a, b)
Une v.a. X suit une loi uniforme sur l’intervalle [a, b] si X est une v.a. continue de
densité f constante :
1
, x ∈ [a, b]
b−a
f (x) =
0 , x∈
/ [a, b]
Espérance et variance :
a+b
(b − a)2
, V(X) =
2
12
E(X) =
7. Loi EXPONENTIELLE : E(λ)
Une v.a. X suit une loi exponentielle E(λ) si elle est continue et de densité :
−λx
λe
, x>0
f (x) =
0 , x≤0
Espérance et variance :
E(X) =
1
1
, V(X) = 2
λ
λ
8. Loi de LAPLACE-GAUSS ou loi NORMALE : N (m, σ 2 )
Une v.a. X suit une loi exponentielle N (m, σ 2 ) si elle est continue et de densité :
2
f (x) =
1 x−m
√1 e− 2 ( σ )
σ 2π
, x∈R
Espérance et variance :
E(X) = m , V(X) = σ 2
Lecture de table :
Une v.a. X de loi N (m, σ 2 ) peut se mettre sous la forme suivante :
X ∼ N m, σ 2
⇔ U=
X −m
∼ N (0, 1) ,
σ
loi centrée réduite (ou standard) qui est tabulée ; on a donc
X −m
P(X ≤ x) = P U ≤
σ
3
Addition :
Si deux v.a. indépendantes X1 et X2 suivent respectivement des lois normales N (m1 , σ12 )
et N (m2 , σ22 ), alors la v.a. X1 + X2 suit une loi normale N (m1 + m2 , σ12 + σ22 ).
Combinaison linéaire :
On démontre que si X1 , X2 , ..., Xn suivent des lois normales indépendantes d’espérances
P
m1 , m2 , ..., mn et de variances σ12 ,P
σ22 , ..., σn2 , alors pour tousPλi ∈ R, la v.a. ni=1 λi Xi
suit une loi normale d’espérance ni=1 λi mi et de variance ni=1 λ2i σi2 .
Lois de v.a. liées à la loi Normale
Certaines lois peuvent être construites à partir de la loi Normale. Il n’est pas utile de
donner ici une définition complète de ces lois par leur densité.
9. Loi du CHI-DEUX : χ2n (Chi-deux à n degrés de liberté)
Soit U1 , U2 , ..., Un n v.a. indépendantes et de même loi N (0, 1). Alors,
n
X
Z=
Ui2 ∼ χ2n
i=1
Espérance et variance :
E(χ2n ) = n , V(χ2n ) = 2n
Addition :
Si deux v.a. indépendantes Y1 et Y2 suivent respectivement des lois χ2n1 et χ2n2 , alors
la v.a. Y1 + Y2 suit une loi χ2n1 +n2 .
Approximation :
p
√
Lorsque n est grand (n > 30), la loi de la v.a. 2χ2n − 2n − 1 peut être approximée
par une loi Normale centrée et réduite N (0, 1).
10. Loi de STUDENT : Tn (Student à n degrés de liberté)
Soit X et Y deux v.a. indépendantes telles que X suit une loi N (0, 1) et Y suit une
loi χ2n . Alors,
X
Z = q ∼ Tn
Y
n
avec E(Z) = 0.
Approximation :
Lorsque n est grand (n > 60), la loi Tn peut être approximée par une loi Normale
centrée et réduite N (0, 1).
11. Loi de FISHER-SNEDECOR : F (n1 , n2 ) à n1 et n2 degrés de liberté.
Soit X1 et X2 deux v.a. indépendantes de lois respectives χ2n1 et χ2n2 . Alors, la v.a.
Z=
X1 /n1
X2 /n2
suit une loi F (n1 , n2 ) à n1 et n2 degrés de liberté.
4
Lois de v.a. liées à la loi Exponentielle
12. Loi GAMMA : γ (α, λ)
Une v.a. X suit une loi Gamma de paramètres α et λ, pour α > 0 et λ > 0, si X est
une v.a. continue de densité f :
λα α−1 −λx
x e
, x>0
Γ(α)
,
f (x) =
0 , x ≤ 0]
où Γ(α) est une constante de normalisation, définie par :
Z +∞
Γ(α) =
xα−1 e−x dx .
0
(Cette intégrale est convergente pour α > 0 et si α ∈ N? , alors Γ(α) = (α − 1)!).
Espérance et variance :
E(X) =
α
α
, V(X) = 2
λ
λ
Addition :
Si deux v.a. indépendantes X1 et X2 suivent respectivement des lois γ (α1 , λ) et
γ (α2 , λ), alors la v.a. X1 + X2 suit une loi γ (α1 + α2 , λ).
Relations entre les différentes lois :
La loi E(λ) n’est autre que la loi γ (1, λ).
La somme de n v.a. Exponentielles indépendantesde paramètre λ suit une loi γ (n, λ).
1 1
2
De même, la loi χ2 (1) n’est
autre que la loi γ 2 , 2 et, par conséquent, la loi χ (n) se
n 1
confond avec la loi γ 2 , 2 .
Propriétés de multiplication par une constante :
Si une v.a.
X suit
une loi γ (α, λ) et si µ est un scalaire positif, alors la v.a. µX suit
λ
une loi γ α, µ .
Conséquence :
Si une v.a. X suit une loi γ (n, λ), alors la v.a. 2λX suit une loi γ n, 12 , c’est-à-dire
une loi χ2 (2n). On peut donc se servir des tables de la loi du χ2 pour les sommes de
v.a. exponentielles indépendantes.
5
PROPRIETES DES N-ECHANTILLONS
Définition d’un n-échantillon :
(X1 , X2 , ..., Xn ) forment un n-échantillon de X si les v.a. X1 , X2 , ..., Xn sont indépendantes
et suivent toutes la loi de X.
Définition d’une statistique :
Une statistique est une fonction “mesurable” des v.a. de l’échantillon ; c’est une variable
aléatoire.
Une fonction mesurable est telle que f −1 (I) ∈ A, pour tout intervalle I, c’est-à-dire telle
qu’on sache calculer P (f −1 (I)) pour tout intervalle I.
Cas gaussien
Un échantillon
Soit (X1 , X2 , ..., Xn ) un n-échantillon de X, où la v.a. X ∼ N (m, σ 2 ). Alors, on a les
résultats suivants :
1.
n
1X
Xi ∼ N
X=
n i=1
2.
σ2
m,
n
n
1 X
(Xi − m)2 ∼ χ2n
2
σ i=1
3.
n
2
1 X
Xi − X ∼ χ2n−1
2
σ i=1
4.
X −m
S0
√
n
où S 0 2 =
1
n
Pn
i=1
∼ Tn ,
(Xi − m)2 .
5.
X −m
√S
n
où S 2 =
1
n−1
Pn
i=1
2
Xi − X .
2
6. X et S sont des v.a. indépendantes.
6
∼ Tn−1 ,
Deux échantillons
Soit (X1 , X2 , ..., Xn1 ) et (Y1 , Y2 , ..., Yn2 ) deux échantillons indépendants de lois respectives N (m1 , σ12 ) et N (m2 , σ22 ). Alors, on a les résultats suivants :
7.
P n1
2
i=1 (Xi −m1 )
2
n1 σ1
Pn2
2
j=1 (Yj −m2 )
2
n2 σ2
8.
Pn1
i=1
∼ F (n1 , n2 )
2
(Xi −X )
(n1 −1)σ12
Pn2
2
j=1 (Yj −Y )
∼ F (n1 − 1, n2 − 1)
(n2 −1)σ22
9.
X − Y − (m1 − m2 )
q 2
∼ N (0, 1)
σ22
σ1
+ n2
n1
10. Si σ1 = σ2 , alors
r
1
n1
+
X − Y − (m1 − m2 )
Pn1 X −X 2 +Pn2 Y −Y 2 ∼ Tn1 +n2 −2
)
)
i=1 ( i
j=1 ( j
1
n2
n1 +n2 −2
7

Documents pareils