Choix du bandwidth (design fix) : Le bandwidth qui minimise l`AM(I

Transcription

Choix du bandwidth (design fix) : Le bandwidth qui minimise l`AM(I
Choix du bandwidth (design fix) :
Le bandwidth qui minimise l’AM(I)SE est de nouveau de
l’ordre n−1/5 :
¶1/5
µ 2
σ (x)R(K)
−1/5
n
,
hAM SE (x) =
′′
2
(m (x))2 µ2
et
hAM ISE =
µR
σ 2 (x) dx R(K)
R(m′′ )µ22
¶1/5
n−1/5 ,
ce qui propose, de nouveau, un estimateur de type
"plug-in" :
Celui nécessite un estimateur de σ 2 (x) et un estimateur de
′′
m (x) (voir ci-dessous).
De nouveau, l’AMSE et l’AMISE se comporte comme
∼ n−4/5 si n → ∞.
Comme dans le cas de l’estimation de densité, on peut
"accélerer" ce taux de convergence :
Si m possède r dérivées continues, et si le noyau et de
l’ordre r (au moins), le taux de convergence de l’AM(I)SE
2r
est de l’ordre n− 2r+1 et le bandwidth optimal sera de
1
l’ordre n− rs+1 .
53
Estimation des dérivées
(1) Estimation des dérivées des densités :
Un estimateur naturel de f (k) = la dérivée d’ordre k de f
est :
¶
µ
n
X
x
−
X
1
i
(k)
(k) (x) =
,
K
fd
nhk+1 i=1
h
pour un noyau qui a k dérivées.
(k) est
Si K (k) est un noyau de l’ordre 2, l’AMSE de fd
(k) (x)] =
AMSE[fd
(k)
R
1
nh2k+1
f (x) R(K
avec R(K ) = (K (k) (u))2 du et
R
(k)
µK := uk+s K (k) (u) du .
(k)
h4 k+2
(k)
(f (x))2 (µK )2
)+
4
Le bandwidth optimal qui minimise cet AMSE est de
1
l’ordre n− 2k+5 ,
et donc, le taux de convergence de l’AMSE optimal est
4
plus lent (de l’ordre n− 2k+5 ).
54
(2) Régression (désign fix, σ 2 (x) = σ 2 = constante)
Estimation de m(k) = la dérivée d’ordre k de m
Pn R si+1 (k)
−k
d
(k)
Kh (x − u) du Yi :
par m
(x,
h)
=
h
GM
i=1 si
Soit m(k) ∈ C s ([0, 1]), let K ∈ C k ([0, 1]) noyau d’ordre
k + s (c.à.d. K (k) est de l’ordre s), soit K de support
[−1, 1] (s.p.d.g.) et soient
K (j) (−1) = 0 = K (j) (1), j = 0, . . . , k − 1.
R (k)
(k)
Soit R(K ) = (K (u))2 du et
R
(k)
µK := uk+s K (k) (u) du .
Supposons que hn → 0, nhk+1
→ ∞ si n → ∞, alors
n
d
(k) (x)] =
AMSE[m
h2s
σ2
(k) 2
(k+s)
2
(x)) + 2k+1 R(K (k) ) ,
(µK ) (m
(k + s)!
nh
ce qui est la généralisation exacte du cas k = 0.
Le taux de convergence de l’AMSE est plus lent (de
2s
l’ordre n− 2k+2s+1 ).
Le bandwidth optimal qui minimise cet AMSE est de
1
l’ordre n− 2k+2s+1 .
Si l’on veut choisir le bandwidth en pratique (avec une
méthode de "plug-in") il faudrait estimer des dérivées
encore plus hautes.
De nouveau, des procedures itératives se proposent.
55
Estimateur itératif de type "plug-in"
Brockmann et al (1992): Procédure itérative pour
bandwidth et global et local (estimateur de Gasser et
Müller, design fix, σ 2 (x) = σ 2 = constante) :
• (i) Soit b
h0 = n−1 .
• (ii) Itérer
2
σ
b
R(K)
1/5
b
hi = (
)
R
c′′ (x, b
n µ22 (m
hi−1 n1/10 ))2 dx
pour i = 1, . . . , 11.
• (iii) Soit b
h=b
h11 l’estimateur de hopt
.
MISE
Pour bandwidth local : au lieu de prendre dans (ii) la
formule locale (trop peu stable), répéter (ii) pour
i = 1, . . . , 8 (étapes globales), puis ajouter deux étapes
locales (i = 9, 10) avec une version lissée par noyau pour
:
obtenir b
hopt
MSE
b
hi (x) = (
σ
b2 R(K)
1/5
)
R
c′′ (u, b
n µ22 Kbhi−1 (u − x) (m
hi−1 n1/10 ))2 du
56
Estimation de la fonction de variance
Yi = m(Xi ) + σ(Xi ) εi
i = 1, . . . , n .
Parfois (en particulier en finance) la fonction de variance
(la “volatilité") σ 2 est de l’intérêt particulier. Comment
peut-on l’estimer?
Une possibilité (Härdle et Vieu, 1992) est la suivante.
Ecrire
σ 2 (x) = IE [Y 2 |X = x] − m(x)2 ,
et remplacer IE [Y 2 |X = x] et m(x) par des estimateurs
non paramétrique (e.g. NW).
Par exemple, pour IE [Y 2 |X = x] on peut prendre
´
³
Pn
Xi −x
Yi2
i=1 K
h2
³
´
Pn
Xi −x
i=1 K
h2
et ainsi un estimateur de σ 2 (x) pourrait être
³
´
Pn
Xi −x
2
Y
i
i=1 K
h
2
³
´ −m
σ
b2 (x) = P
b 2h1 (x)
n
Xi −x
i=1 K
h2
Problème : cet estimateur n’est pas nécessairement non
négatif.
57
Autre idée (Fan et Yao, 1998) : Estimer d’abord
l’espérance conditionelle, m
b h1 (x), calculer après les
résidues, εbi = Yi − m
b h1 (Xi ), et après
´
³
Pn
Xi −x
2
ε
b
i
i=1 K
h
2
³
´
σ
b2 (x) = P
n
Xi −x
i=1 K
h2
Fan et Yao (1998) montrent que cet estimateur a une
meilleure performance.
Ceci comme alternatives aux estimateur "naifs" (Müller et
Stadtmüller, 1987) : Soit x = j0 /n.
P
σ
e2 (j0 /n) =
P
Ã
X
wj Yj0 +j
j
!2
avec j wj = 0 et j wj2 = 1 et le choix des wj tel qu’il
s’agit des différences des Yj d’ordre m = 1, 2, ....
√
√
Par exemple (m=2) : w0 = −2/ 6, w1 = w−1 = 1/ 6.
Applicable généralement, en particulier aux résidus εbi .
Evidemment, si σ 2 (x) = σ 2 = constante, utiliser
2
σ
b =
n
X
i=1
58
εb2i
La validation croisée - revisitée pour régression np
Rappel : Estimation directe du critère M(I)SE. Ici :
CV (h) = 1/n
n
X
i=1
(Yi − m
e h,−i (Xi ))2
où m
e h,−i est l’estimateur "leave-one-out"
³
´
Pn
Xj −Xi
Yi
j=1;j6=i K
h
´
³
m
e h,−i = P
Xj −Xi
n
j=1;j6=i K
h
et hCV = arg minh CV (h).
Comme dans le cas de l’estimation des densités, CV donne
un hCV trop petit et fort variable.
Version généralisée permettant aussi un calcul plus rapide:
Ã
!−1
n
n
X
X
2
(1 − Wi (Xi ))]
GCV (h) = 1/n
(Yi − m
e h (Xi ))2 ,
1/n
i=1
où Wi (x) =
i=1
Xi −x
“hX −x ”
Pn
j
j=1 K
h
K(
)
.
59