MAP-STA1

Transcription

MAP-STA1
Modélisation
Statistique
(MAP-STA1)
Modélisation Statistique (MAP-STA1)
M1-Mathématiques Appliquées
1ère partie: Modélisation statistique
Cours 2: Estimation optimale
Christine Keribin
Estim. optimale
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
Christine Keribin
1 Laboratoire
de Mathématiques
Université Paris-Sud
2016-2017
1/33
Outline
Modélisation
Statistique
(MAP-STA1)
Christine Keribin
Estim. optimale
Estim. optimale
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et efficacité
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
2/33
Outline
Modélisation
Statistique
(MAP-STA1)
Christine Keribin
Estim. optimale
Estim. optimale
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et efficacité
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
3/33
Estimation ponctuelle
Modélisation
Statistique
(MAP-STA1)
Christine Keribin
Estim. optimale
Soit θ ∈ Θ ∈ IR le paramètre d’une loi IPθ ∈ P et ν(θ) une
fonction (déterministe) de θ à inférer à partir d’un
n-échantillon X = (X1 , . . . , Xn ) issu de cette loi
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
Definition
Un estimateur de ν(θ) est une variable aléatoire Tn , fonction
de l’échantillon, à valeurs dans ν(Θ), indépendante de
IPθ ∈ P
Tn = t(X1 , . . . , Xn ).
On prend souvent la notation Tn = νbn ou Tn = νb .
4/33
Comparer des estimateurs
Modélisation
Statistique
(MAP-STA1)
Christine Keribin
Estim. optimale
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
I
Performance en moyenne
I
Performance asymptotique
I
Utilisation de l’information disponible
5/33
Performance en moyenne
Soit νbn un estimateur de ν(θ), fonction du paramètre d’une
loi IPθ :
I
On appelle biais de νbn pour ν(θ) la valeur
bθ (b
νn ) = IEθ (b
νn ) − ν(θ)
Modélisation
Statistique
(MAP-STA1)
Christine Keribin
Estim. optimale
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
Si bθ (b
νn ) = 0 pour tout θ ∈ Θ, Tn est sans biais pour
ν(θ)
I
On appelle variance de νbn la valeur
Varθ (b
νn ) = IEθ (b
νn − IEθ (b
νn ))2
I
On appelle risque quadratique de νbn la valeur
Rθ (b
νn ) = IEθ (b
νn − ν(θ))2
6/33
Outline
Modélisation
Statistique
(MAP-STA1)
Christine Keribin
Estim. optimale
Estim. optimale
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et efficacité
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
7/33
Décomposition du risque quadratique
Modélisation
Statistique
(MAP-STA1)
Christine Keribin
Rθ (b
νn ) = Varθ (b
νn ) + (bθ (b
νn ))2
Définition
Un estimateur δ1 de ν(θ) domine l’estimateur δ2 si, pour
tout θ ∈ Θ,
Rθ (δ1 ) ≤ Rθ (δ2 ),
Estim. optimale
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
cette inégalité étant stricte pour au moins une valeur de θ.
Un estimateur est admissible s’il n’existe aucun estimateur le
dominant.
I
L’estimateur non biaisé de la variance est-il admissible ?
I
Soit θ0 ∈ Θ. L’estimateur constant νbn = θ0 est-il
admissible ?
Il n’existe en général pas d’estimateur dominant tous les
autres ,→ Recherche d’estimateurs UVMB
8/33
Performance asymptotique
Soit νbn un estimateur de ν(θ), défini à partir d’une
observation de loi IPθ :
I
νbn est asymptotiquement sans biais pour ν(θ) si, pour
tout θ ∈ Θ
lim bθ (b
νn ) = 0
Modélisation
Statistique
(MAP-STA1)
Christine Keribin
Estim. optimale
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
n→∞
I
νbn est consistant ssi νbn tend en probabilité vers ν(θ)
quand n → ∞ :
∀θ ∈ Θ, ∀, lim IPθ (|b
νn − ν(θ)| > ) = 0
n→∞
I
νb est fortement consistant ssi ∀θ ∈ Θ,
IPθ ( lim νbn = ν(θ) ) = 1
n→∞
9/33
Modélisation
Statistique
(MAP-STA1)
Loi de l’estimateur
Christine Keribin
Soit νbn un estimateur consistant de ν(θ) ∈ IRp et Vn sa
variance. L’estimateur est asymptotiquement normal si la loi
limite de l’estimateur renormalisé est une loi gaussienne
−1/2
Vn
Estim. optimale
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
L
(b
νn − ν(θ)) −→ N (0, Idp )
I
Un estimateur est d’autant meilleur que sa vitesse de
convergence est rapide et sa loi limite concentrée autour
de 0.
I
Quand Vn = O(1/n), on dit que la vitesse de
√
l’estimateur est en n
10/33
Outline
Modélisation
Statistique
(MAP-STA1)
Christine Keribin
Estim. optimale
Estim. optimale
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et efficacité
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
11/33
Exhaustivité
Comment construire un bon résumé de l’échantillon pour
estimer un paramètre ?
Modélisation
Statistique
(MAP-STA1)
Christine Keribin
Estim. optimale
Definition
On dit que T est une statistique exhaustive pour
θ ∈ Θ ⊂ IRp si la loi de X = (X1 , . . . , Xn ) conditionnellement
à T ne dépend pas de θ
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
Théorème (de factorisation (Neyman-Fisher))
La statistique T = t(X1 , . . . , Xn ) est exhaustive pour θ s’il
existe deux applications mesurables positives g et h telles
que la densité de l’échantillon puisse se factoriser sous la
forme
f (x1 , . . . , xn ; θ) = h(x1 , . . . , xn )g (t(x); θ)
P
Exemple : i Xi est exhaustive pour l’estimation du
paramètre de proportion d’une loi de Bernoulli
12/33
Exhaustivité (suite)
Modélisation
Statistique
(MAP-STA1)
Christine Keribin
Estim. optimale
Propriété
Soit Tn est une statistique exhaustive et soit Sn = s(X ) une
statistique telle que Tn = u(Sn ), alors Sn est exhaustive :
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
f (x; θ) = h(x)g (t(x); θ) = h(x)g (u(s(x)); θ) = h(x)g̃ (s(x); θ)
Propriété
Si Tn est une statistique exhaustive et Sn = r (Tn ) où r est
une fonction bijective alors Sn est exhaustive
13/33
Exhaustivité (suite)
Modélisation
Statistique
(MAP-STA1)
Christine Keribin
Estim. optimale
I
La notion d’exhaustivité n’implique pas forcément une
réduction de dimension : l’échantillon X est exhaustif...
I
Mais c’est une réduction suffisante pour ne pas perdre
d’information : statistique suffisante
I
Jusqu’à quel point peut-on réduire l’échantillon pour ne
pas perdre d’information sur l’estimation du paramètre ?
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
14/33
Exhaustivité (suite)
Modélisation
Statistique
(MAP-STA1)
Christine Keribin
Estim. optimale
Définition
On dit que la statistique Tn∗ est exhaustive minimale si elle
est exhaustive, et si pour toute statistique exhaustive Tn , on
peut trouver une fonction u telle que Tn∗ = u(Tn )
I
Tout estimateur pertinent est fonction d’une statistique
exhaustive minimale
I
si Θ ⊂ IRK , une statistique exhaustive est en règle
générale minimale (mais il n’existe pas forcément de
stat exhaustive à valeur dans IRk pour estimer θ ∈ IRk .)
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
15/33
Cas des familles exponentielles
Modélisation
Statistique
(MAP-STA1)
Christine Keribin
Cas θ unidimensionnel
Définition
Soit une famille paramétrique de lois {IPθ } d’un modèle
dominé admettant une densité f (x; θ), θ ∈ IR. On dit que
{IPθ } appartient à une famille (ou classe) exponentielle de
lois si sa densité peut s’écrire sous la forme
f (x; θ) = exp a(x)α(θ) + β(θ) + c(x)
Estim. optimale
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
pour tout x ∈ IR
Exemples : E(λ), B(n, π), P(λ)
Contre-ex : U[0, θ]
16/33
Cas des familles exponentielles
Modélisation
Statistique
(MAP-STA1)
Christine Keribin
Cas θ multidimensionnel
Estim. optimale
Définition
Soit une famille paramétrique de lois {IPθ } d’un modèle
dominé admettant une densité f (x; θ), θ ∈ IRp . On dit que
{IPθ } appartient à une famille (ou classe) exponentielle de
lois si sa densité peut s’écrire sous la forme
f (x; θ) = exp
p
X
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
ak (x)αk (θ) + β(θ) + c(x)
k=1
pour tout x ∈ IR
Exemple : N (µ, σ 2 )
Contre-ex : W(α, λ)
17/33
Stat. exhaustive minimale dans les familles exp.
Modélisation
Statistique
(MAP-STA1)
Christine Keribin
Théorème (Darmois)
Soit un échantillon de loi IPθ , Θ ∈ IRp appartenant à une
famille exponentielle. Alors,
I
si les fonctions (αk (θ)) sont lin. indep., la statistique
!
n
n
X
X
a1 (Xi ), . . . ,
ap (Xi )
i=1
Estim. optimale
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
i=1
est exhaustive minimale pour le paramètre inconnu.
I
De plus, une famille de densités régulières ne peut avoir
de statistique exhaustive minimale pour son paramètre
inconnu que si elle appartient à la famille exponentielle
Mais il existe des statistiques exhaustives dans des familles
de lois moins régulières, par ex U[0, θ]
18/33
Modélisation
Statistique
(MAP-STA1)
Amélioration d’un estimateur
Christine Keribin
Théorème (Rao-Blackwell)
Soit U une statistique exhaustive pour θ et T un estimateur
quelconque de θ. Alors, T ∗ = IEθ (T |U) est un estimateur de
même biais que T et qui domine T , ie, pour tout θ ∈ Θ
Estim. optimale
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
R(T ∗ ; θ) ≤ R(T ; θ)
I
T ∗ ne dépend pas de θ (exhaustivité de U) ,→ T ∗ est
un estimateur de θ
I
même biais : IEθ (T ∗ ) = IEθ [IEθ (T |U)] = IEθ (T )
I
T ∗ a une variance inférieure
Var(T ) = IE(Var(T |U)) + Var(IE(T |U))
| {z }
| {z }
≥0
T∗
19/33
Amélioration d’un estimateur
Modélisation
Statistique
(MAP-STA1)
Christine Keribin
Estim. optimale
I
On peut améliorer un estimateur par la méthode de
Rao-Blackwell
I
Exemple : Echantillon iid Xi ∼ B(π), on améliore
T = X1 en T ∗ = IE(X1 |X̄ ) = X̄
I
Résultat valide pour l’estimation d’une fonction ν(θ)
I
Si T est sans biais, IE(T |U) est également sans biais
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
20/33
Outline
Modélisation
Statistique
(MAP-STA1)
Christine Keribin
Estim. optimale
Estim. optimale
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et efficacité
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
21/33
Estimateur UVMB
Modélisation
Statistique
(MAP-STA1)
Christine Keribin
Estim. optimale
Uniformément de Variance Minimum parmi les estimateurs
sans Biais
Définition
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
L’estimateur T ∗ est UVMB pour θ s’il est sans biais pour θ
et si pour tout autre estimateur T sans biais de θ, on a
Varθ (T ∗ ) ≤ Varθ (T ), pour tout θ ∈ Θ
Note : En anglais, on dit UMVUE (Uniformly Minimum
Variance Unbaised Estimator)
22/33
Recherche d’estimateur UVMB
Modélisation
Statistique
(MAP-STA1)
Christine Keribin
Estim. optimale
Théorème
S’il existe un estimateur de θ sans biais et de variance
minimale, il est unique presque sûrement
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
Théorème
S’il existe une statistique exhaustive U, alors l’estimateur
UMVB ne dépend que de U (et il est unique) T ∗ = h(U)
Si on améliore deux estimateurs sans biais par la méthode de
Rao-Blackwell, y en a-t-il un meilleur ?
23/33
Modélisation
Statistique
(MAP-STA1)
Complétude
Définition
Christine Keribin
La statistique U est complète (ou totale) pour les lois de
probabilités f (x; θ), si pour toute fonction h tq h(U) soit
intégrable,
Estim. optimale
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
IEθ [h(U)] = 0; ∀θ ⇒ h = 0 p.s.
Exemple : la statistique exhaustive des familles
exponentielles est complète
Theorem (Lehmann-Scheffé)
Si T ∗ est un estimateur sans biais de θ et dépendant d’une
statistique exhaustive et complète, alors T ∗ est l’unique
estimateur UVMB de θ.
En particulier, si on dispose déjà d’un estimateur T sans
biais fonction d’une statistique exhaustive et complète, il est
UVMB.
24/33
Modélisation
Statistique
(MAP-STA1)
Conclusion
I
Critère risque quadratique :
I
I
I
I
on peut trouver un estimateur optimal UVMB si le
modèle possède une stat exhaustive complète et qu’on
dispose d’un estimateur sans biais.
Mais il existe des estimateurs de risque inférieur à un
celui de l’estimateur UVMB
Y a-t-il un moyen de déterminer une borne inférieure
non triviale à l’ensemble des variances des estimateurs
sans biais ?
Christine Keribin
Estim. optimale
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
Autres recherches :
I
I
théorie de la décision : minimiser le risque bayésien
Z
R(T , θ)π(θ)dθ
théorie minimax : chercher T ∗ qui minimise en T
max R(T , θ)
θ
25/33
Outline
Modélisation
Statistique
(MAP-STA1)
Christine Keribin
Estim. optimale
Estim. optimale
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et efficacité
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
26/33
Modélisation
Statistique
(MAP-STA1)
Modèle régulier
Définition
Christine Keribin
Un modèle paramétrique (X , A, IPθ ), θ ∈ Θ ⊂ R p , et tel que
IPθ admette une densité f (.; θ) par rapport à une mesure
dominante ν est régulier si
I
Le support des lois f (.; θ) est indépendant de θ ∈ Θ
I
θ → log f (x; θ) est deux fois continûment différentiable
sur Θ, pour tout x du support
R
Pour tout A ∈ A, l’intégrale A f (x; θ)dν(x) est au
moins deux fois dérivable sous le signe d’intégration et
on peut permuter intégration et dérivation
I
∂
∂θj
Z
∂2
∂θj ∂θk
Z
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
∂
f (x; θ)dν(x), j = 1, . . . , p
∂θj
f (x; θ)dν(x) =
A
A
Z
Z
f (x; θ)dν(x) =
A
Estim. optimale
A
∂2
f (x; θ)dν(x), j, k = 1, . . . , p
∂θj ∂θk
Exemple : modèle de Bernoulli, Gaussien ; Contre-ex : U[0, θ]
27/33
Score Information de Fisher
Modélisation
Statistique
(MAP-STA1)
Christine Keribin
Estim. optimale
Définition
Dans un modèle paramétrique régulier, on appelle
I
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
Score (de Fisher) le vecteur aléatoire défini par
Un (X ; θ) = ∇θ log f (X ; θ)
I
Information de Fisher au point θ la matrice déterministe
I (θ) = IEθ [∇θ log f (X ; θ)∇θ log f (θ, X )0 ]
28/33
Propriétés dans un modèle régulier
Modélisation
Statistique
(MAP-STA1)
Christine Keribin
Estim. optimale
I
Le score est un vecteur aléatoire centré et additif
I
La matrice d’information de Fisher est additive,
symétrique, définie positive et vérifie
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
In (θ) = IEθ [∇θ log f (X ; θ)∇θ log f (θ, X )0 ]
= −IEθ [∇2θ log f (θ, X )]
Exemple : modèle de Bernoulli, Gaussien
29/33
Interprétation de l’information de Fisher
Calibre l’information apportée par chaque observation sur
l’estimation du paramètre du modèle
I Si X = (X1 , . . . , Xn ) est un n-échantillon iid
d’information In (θ), alors
In (θ) = nI1 (θ)
I
I
Modélisation
Statistique
(MAP-STA1)
Christine Keribin
Estim. optimale
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
L’information de Fisher est liée à la précision avec
laquelle le paramètre est estimé.
L’information IT (θ) portée par une statistique
quelconque T est inférieure ou égale à celle apportée
par l’échantillon X = (X1 , . . . , Xn )
IT (θ) ≤ In (θ)
I
On ne perd pas d’information en prenant une statistique
exhaustive. La réciproque est vraie si le domaine de X
ne dépend pas de θ
30/33
Borne Fréchet-Darmois-Cramér-Rao
Modélisation
Statistique
(MAP-STA1)
Christine Keribin
Théorème (FDCR)
Si le modèle est régulier, on a, pour tout estimateur sans
biais Tn de θ,
Var(Tn ) ≥ In (θ)−1
Estim. optimale
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
et pour tout estimateur Tn sans biais de h(θ) avec h
fonction dérivable sur Θ
Var(Tn ) ≥ ∂θ h(θ)In (θ)−1 [∂θ h(θ)]0
où ∂θ h(θ) = (∂h(θ)/∂θ1 , . . . , ∂h(θ)/∂θp )
La limite inférieure de la variance des estimateurs sans biais
s’appelle borne de Cramér-Rao
31/33
Modélisation
Statistique
(MAP-STA1)
Efficacité
Définition
Christine Keribin
Un estimateur Tn est efficace pour h(θ) s’il atteint la borne
de Cramér-Rao, ie
Var(Tn ) = ∂θ h(θ)In (θ)−1 [∂θ h(θ)]0
Estim. optimale
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
et il est UVMB, donc optimal parmi les estimateurs sans
biais.
Théorème
La borne de Cramér-Rao n’est atteinte que si
(a) la loi des observations est d’une famille exponentielle
(b) et pour l’estimation d’une fonction de reparamétrisation
particulière de θ
P
i a(Xi )
h(θ) = IEθ
.
n
32/33
Take home messages
Modélisation
Statistique
(MAP-STA1)
Christine Keribin
Estim. optimale
I
Il n’y a pas en général d’estimateur uniformément
meilleur que les autres
I
Optimalité au sens UVMB : construction à partir d’une
statistique exhaustive et complète U et d’une
statistique sans biais T : IE(T |U)
Efficacité : la borne de CR est atteinte, donc optimal
I
I
Estimateur
Admissibilité
Exhaustivité
UVMB
Information et
efficacité
mais cela n’arrive que pour une certaine fonction du
paramètre et que dans la famille exponentielle
I
Il existe des estimateurs optimaux non efficaces
I
Il existe des estimateurs de risque quadratique inférieur
à celui d’un estimateur optimal
33/33