Semaine 2: Estimation - Eléments de corrigé 1 Loi de Pareto 2

Transcription

Semaine 2: Estimation - Eléments de corrigé 1 Loi de Pareto 2
M1- Mathématiques Appliquées - ENSTA / Paris-Sud
Modélisation statistique (MAP-STA1), 2015-2016
[email protected]
Semaine 2: Estimation - Eléments de corrigé
1
Loi de Pareto
Les intervalles de temps entre deux paquets de signaux dans un canal internet peuvent être modélisés par une loi de Pareto de paramètre θ > 2, dont la densité est donnée par
fθ (y) = θy −(θ+1) 1I[1,∞] (y).
La borne inférieure 1 du support de la densité représente l'unité de temps minimale entre deux
paquets. Le paramètre θ donne l'intensité d'utilisation du canal: plus θ est grand, plus le temps
entre deux paquets est petit.
1. Montrer que fθ est une densité.
Calculer l'espérance du temps entre deux paquets de signaux.
Réponse: On vérie que R1+∞ θy−(θ+1) dy = 1 donc fθ est une densité. IE(Y ) = θ/(θ − 1)
2. Soit (Y1 , . . . , Yn ) un échantillon i.i.d. généré selon la loi de densité fθ . Donner, en la justiant,
une statistique exhaustive pour estimer
θ.
Réponse: On a log fθ (Y ) = (−θ + 1) Pi log(Yi) + n log(θ) donc S = Pi log Yi est exhaustive
par le théorème de factorisation.
3. Calculer l'estimateur du maximum de vraisemblance θb de θ.
Réponse: L'EMV est solution des équations de vraisemblance d'où θb = n/ Pi log Yi
4. Calculer l'espérance de 1/θb; en déduire que l'estimateur est consistant.
Réponse:
b = IE(log(Yi )) = 1/θ en intégrant par parties. Par LGN P log(Yi )/n tend ps
On a IE(1/θ)
i
vers 1/θ, donc θb tend ps vers θ.
5. Calculer l'information de Fisher des observations et déterminer la loi de θb.√
Réponse: L'information de Fisher vaut In(θ) = n/θ2. On en déduit que n(θb − θ)/θ tend
en loi vers une gaussienne centrée réduite.
2
Modèle multiplicatif
Soit ε1 , . . . , εn un n-échantillon de loi normale N (0, σ 2 ). On observe Yi = a(1 + εi ), i = 1, . . . , n.
1. Déterminer l'estimateur du maximum de vraisemblance ba de a. Quelles sont ses propriétés?
Réponse
: On considère σ connu. L'échantillon Y = (Y1 , . . . , Yn ) est iid et Yi ∼ N (a, var =
a2 σ 2 ). La vraisemblance s'écrit
log L(Y ; a) = −
n
n
1 X
log(2πa2 σ 2 ) − 2 2
(Yi − a)2
2
2a σ i=1
Le modèle est identiable, mais n'est pas dérivable en a. La dérivée de la log-vraisemblance
s'écrit sur IR∗
∂
n
1 X
1 X
log L(Y ; a) = − + 3 2
(Yi − a)2 + 2 2
(Yi − a)
∂a
a a σ i
a σ i
Avec Ȳ la moyenne empirique et Sn2 =
P
i
Yi2 /n , on a
n
∂
log L(Y ; a) = − 3 2 (a2 σ 2 + aȲ − Sn2 )
∂a
a σ
1
M1- Mathématiques Appliquées - ENSTA / Paris-Sud
Modélisation statistique (MAP-STA1), 2015-2016
[email protected]
Il y a deux racines (de signe opposé) du polynôme en a soit
b
a1 =
−Ȳ −
p
p
Ȳ 2 + 4σ 2 Sn2
−Ȳ + Ȳ 2 + 4σ 2 Sn2
; b
a2 =
2σ 2
2σ 2
Vérication du signe de la dérivée seconde de la log-vraisemblance en ba:
∂2
log L(Y ; a)
∂a2
3n
n
(a2 σ 2 + aȲ − Sn2 ) − 3 2 (2aσ 2 + Ȳ )
a4 σ 2
a σ
n
(a2 σ 2 + 2aȲ − 3Sn2 )
4
a σ2
=
=
Le hessien est négatif localement dans un voisinage de ba1 et dans un voisinage de ba2 : c'est
un cas où la vraisemblance comporte plusieurs maxima, mais il n'y a qu'un seul global: c'est
b
a1 si Ȳ < 0 et b
a2 si Ȳ > 0. Le hessien au maximum vaut −n(2b
a2 σ 2 + Ȳ )/(b
a3 σ 2 ) < 0.
L'estimateur est asymptotiquement sans biais puisque
p
lim(IE(b
a)) = ( a2 (2σ 2 + 1)2 − a)/(2σ 2 ) = a,
consistant, asymptotiquement UVMB. En particulier, comme IE(Yi ) = a et IE(Yi2 ) = a2 (1 +
σ 2 ), on a
In (a) = −IE
et
√
∂2
log L(Y ; a)
∂a2
L
n(b
a − a) −→ N (0,
= n(2σ 2 + 1)/(σ 2 a2 )
σ 2 a2
).
2σ 2 + 1
Si σ 2 est inconnu, il faut dériver la vraisemblance par rapport à σ 2 , d'où la deuxième équation
à satisfaire
X
σ2 =
1
2a2
(Yi − a)2
i
Il n'y a pas de solution explicite, nécessité d'utiliser un schéma numérique, et il faut faire
attention à l'initialisation pour ne pas tomber sur le maximum local.
2. Déterminer un estimateur de a par la méthode des moments. Est-il sans biais? consistant?
ecace?
Réponse: a = E(Yt), donc Ȳ est l'estimateur empirique de l'espérance,
sans biais IE(Ȳ ) = a
et consistant. L'estimateur n'est pas ecace: par exemple, cas où σ 2 est connu.: var(X̄) =
a2 σ 2 /n > 1/In (a).
3. Comment estimer la variance de ce modèle? P
Réponse: Par la méthode des moments:
Vn = i (Yi − Ȳ )2 /(n − 1) est un estimateur sans
2 2
biais et consistant de var(Y ) = σ a .
Par la méthode du maximum de vraisemblance, var(Y ) = a2 σ 2 = h(a, σ 2 ) et on utilise la
delta-méthode avec ∆h(a, σ 2 ) = (2aσ 2 , a) soit
h(b
a, σ
b2 ) − h(a, σ 2 )
p
3
∆h(a, σ 2 )2 In (a, σ 2 )−1 ∆h(a, σ 2 )0
L
−→ N (0, 1).
Données de survie
La gure présente des données données de durées de vies y de 32 composants de moteurs en fonction
de leur niveau de corrosion x.
2
M1- Mathématiques Appliquées - ENSTA / Paris-Sud
Modélisation statistique (MAP-STA1), 2015-2016
[email protected]
1. On choisit de décrire la loi des temps de survie par une loi exponentielle dont l'espérance est
fonction de l'indice de corrosion xi :
E(Yi ) = exp(β1 + β2 xi ), i = 1, . . . , 32.
Motiver le choix de cette représentation.
Réponse: la décroissance de l'espérance de la durée en fonction de la corrosion semble pas
linéaire; de plus, la variance n'est pas constante et dépend de l'espérance. C'est une loi
classique pour l'étude des durées de vie.
2. Écrire la vraisemblance des observations.
Réponse: la densité de la loi exponentielle s'écrit, pour tout yi ≥ 0, f (yi) = µ1i exp(− µyii ),
avec µi = E(Yi ) = exp(β1 + β2 xi ). On en déduit la log-vraisemblance des observations
log L(Y, β1 , β2 ) = −
X
log µi −
X
Yi /µi = −nβ1 − β2
i
X
i
xi −
X
Yi exp(−β1 − β2 xi )
i
3. Calculer les équations normales dénissant l'estimateur du maximum de vraisemblance de
β = (β1 , β2 ) . Comment les résoudre?
Réponse:
X
∂
log L(Y, β1 , β2 ) = −n +
Yi exp(−β1 − β2 xi )
∂β1
i
X
X
∂
log L(Y, β1 , β2 ) = −
xi +
xi Yi exp(−β1 − β2 xi )
∂β2
i
i
système non linéaire à résoudre par schéma numérique
4. Calculer l'information de Fisher de l'échantillon.
Réponse:
∂2
log L(Y, β1 , β2 ) = −
Hn =
∂β 2
P
P
P i Yi exp(−β1 − β2 xi ) P i x2i Yi exp(−β1 − β2 xi )
i xi Yi exp(−β1 − β2 xi )
i xi Yi exp(−β1 − β2 xi )
3
M1- Mathématiques Appliquées - ENSTA / Paris-Sud
Modélisation statistique (MAP-STA1), 2015-2016
[email protected]
et
In (β) = IE(−Hn ) =
Pn
i
xi
P
P i x2i
i xi
5. Est-on dans le cas standard d'estimateur du maximum de vraisemblance?
Réponse: les observations sont indépendantes, mais pas identiquement distribuées. On n'est
plus dans le cadre exposé en cours. Mais on montre que dans le cadre de ce modèle (appelé
modèle √
linéaire généralisé), et sous de bonnes conditions d'expérience xi , l'EMV converge à
vitesse n et a un comportement asymptotiquement normal.
4
Modèle de translation
Soient (Y1 , . . . , Yn ) des variables indépendantes de densité f (. − Rθ) où f est une fonction connue
x
de classe C1 strictement positive. On note F la fonction F (x) = ∞ f (u)du. En fait, on n'observe
pas (Y1 , . . . , Yn ), mais (X1 , . . . , Xn ) avec Xi = (δi , γi , 1 − δi − γi ) où δi = 1IXi <a et γi = 1Ia≤<Xi ≤b .
Soit n0 =
P
i δi
et n1 =
P
i
γi .
1. Décrire la loi de la variable Xi
Réponse: Xi est une variable discrète Rquia prend ses valeursRdans
X = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}
a−θ
avec probabilité IP(Xi = (1, 0, 0)) = −∞ f (u − θ)du = −∞ f (t)dt = F (a − θ), IP(Xi =
(0, 1, 0)) = F (b − θ) − F (a − θ) et IP(Xi = (0, 0, 1)) = (1 − F (b − θ))
2. Calculer la vraisemblance du modèle
Réponse: Les observations sont iid, on en déduit
L(X, θ) =
n
Y
F (a − θ)Xi (1) (F (b − θ) − F (a − θ))Xi (2) (1 − F (b − θ))Xi (3)
i=1
soit, en notant Nj =
Pn
i=1
Xj (i)
∀x ∈ X n , L(x, θ) = F (a − θ)N1 (F (b − θ) − F (a − θ))N2 (1 − F (b − θ))N3
3. Calculer l'information de Fisher.
Réponse: L'échantillon est iid, donc In(θ) = nI(θ), où In(θ) est l'information de Fisher de
l'échantillon X = (X1 , . . . , Xn ) et I1 (θ) l'information de Fisher d'une composante Xj ; On a:
f (a − θ)
f (b − θ) − f (a − θ)
f (b − θ)
∂
log L(X1 , θ) = −X1 (1)
− X1 (2)
− X1 (3)
∂θ
F (a − θ)
F (b − θ) − F (a − θ)
1 − F (b − θ)
et
I1 (θ) = IE((
4. Soit Sa =
P
f (a − θ)2
(f (b − θ) − f (a − θ))2
f (b − θ)2
∂
log L(X1 , θ))2 ) =
+
+
∂θ
F (a − θ)
F (b − θ) − F (a − θ)
1 − F (b − θ)
i δi .
Montrer que Sn suit une loi binomiale de paramètres à préciser.
5. On propose d'estimer θ par l'estimateur θbn = a − F −1 (Sa /n). Montrer que θbn est un
√
estimateur consistant de θ et déterminer la loi asymptotique de n(θbn − θ). Cet estimateur
est-il asymptotiquement ecace?
Réponse: Sa est la somme de n variables indépendantes de loi de Bernoulli B(1, F (a − θ))
donc Sa ∼ B(1, F (a − θ))
4
M1- Mathématiques Appliquées - ENSTA / Paris-Sud
Modélisation statistique (MAP-STA1), 2015-2016
[email protected]
D'après le TLC,
√
n
Sa
L
− F (a − θ) −→ N (0, σ 2 = F (a − θ)(1 − F (a − θ)))
n
La delta-méthode entraîne
√
L
−1 Sa
n F ( ) − (a − θ) −→ N (0, σ 2 [∂(F −1 )(F (a − θ)]2 )
n
soit
√
L
n(θbn − θ) −→ N
0,
F (a − θ)(1 − F (a − θ))
f (a − θ)2
On compare la variance limite avec I1 (θ). Soit A = F (a − θ), B = F (b − θ), α = f (a − θ),
β = f (b − θ).
=
=
=
I1 (θ) − f (a − θ)2 /[F (a − θ)(1 − F (a − θ))]
α2
α2
(β − α)2
β2
−
+
+
A
A(1 − A)
B−A
1−B
2
2
(β − α) (1 − A)(1 − B) + β (B − A)(1 − A) − α2 (B − A)(1 − B)
(1 − A)(B − A)(1 − B)
[β(1 − A) − α(1 − B)]2
(1 − A)(B − A)(1 − B)
Donc θbn = a − F −1 (Sa /n) est asymptotiquement ecace si et seulement si
∀θ ∈ IR,
f (b − θ)
f (a − θ)
=
1 − F (b − θ)
1 − F (a − θ)
d'où par intégration, cela implique qu'il existe une constante C telle que
∀θ ∈ IR, log(1 − F (b − θ)) = log(1 − F (a − θ)) + C
d'où
∀θ ∈ IR, 1 − F (b − θ) = eC (1 − F (a − θ))
Faire tendre θ vers −∞ amène à eC = 1, soit
∀θ ∈ IR, F (b − θ) = F (a − θ)
ce qui est impossible si a 6= b. Donc θbn est ecace si et seulement a = b.
6. Construire un estimateur asymptotiquement ecace de θ
Réponse: L'estimateur du maximum de vraisemblance est asymtptiquement ecace. Il
faut vérier les hypothèses de régularité. On a un espace d'observations discret, toutes
les hypothèses nécessaires pour intervertir intégrale et dérivation sont satisfaites. De plus
l'information de Fisher est inversible (puisque f>0), et la Fθ vue comme fonction de θ est de
classe C 2 ; On utilise un schéma numérique de Newton pour le calculer.
5
Loi uniforme
Soit X1 , . . . , Xn un n-échantillon de loi uniforme U[0; θ],θ > 0.
1. Montrer que le modèle n'est pas régulier.
Réponse: l'ensemble des résultats possibles dépend du paramètre à estimer θ.
5
M1- Mathématiques Appliquées - ENSTA / Paris-Sud
Modélisation statistique (MAP-STA1), 2015-2016
[email protected]
2. Proposer un estimateur de θ par la méthode des moments, et étudier ses propriétés
Réponse: On a IE(Xi) = θ/2, l'estimateur de moments est donc Tn = 2X̄ . C'est un
estimateur sans biais et consistant, de variance var(Tn ) = 4 var(Xi )/n = θ2 /(3n)
3. Calculer l'estimateur du maximum de vraisemblance, et montrer que sa densité est
hθ (t) =
n n−1
t
1I[0;θ] (t).
θn
En déduire son espérance, sa variance.
Réponse: La vraisemblance des observations s'écrit L(X; θ) = θ−n1I0≤mini xi≤maxi xi Elle
est nulle pour θ < maxi xi , puis décroissante quand θ augmente. Elle est donc maximum
pour θb = maxi xi .
En utilisant l'indépendance des observations Xi de loi F :
IP(θb ≤ x) = IP(∩ni=1 (Xi ≤ x) =
n
Y
IP(Xi ≤ x) = F n (x).
i=1
La densité de θb est donc, par dérivation en x
hθ (x) = nF n−1 (x)f (x) =
D'où
b = nθ−n
IE(θ)
Z
θ
xn dx =
0
n n−1
x
1I[0;θ] (t)
θn
n+1
nθ2
b =
θ; var(θ)
n
(n + 1)2 (n + 2)
b var(Tn ) → 0, donc θb est inniment plus ecace que Tn
Rem: var(θ)/
4. Montrer que n(θb − θ) converge en loi vers une loi exponentielle de paramètre à préciser.
L
Réponse: n(θb − θ) −→
E(1/θ), √
cf Delmas Exemple VIII.43. La convergence est en n, beaucoup plus rapide que la vitesse n de l'EM dans les cas réguliers.
6

Documents pareils