UNIVERSITÉ DE BRETAGNE-SUD
Transcription
UNIVERSITÉ DE BRETAGNE-SUD
U NIVERSITÉ DE B RETAGNE -S UD Master 1 MSAD : Statistique Bayésienne Examen Terminal du 8 janvier 2014 – Durée : 2 h Sans document Exercice 1 – On considère un estimateur de Bayes δ0 ( X ), d’un paramètre θ , associé à un coût quadratique et à une loi a priori π. Montrer que si le risque de Bayes r (π, δ0 ( X )) est strictement positif, δ0 ( X ) ne peut être sans biais. On rappelle la définition Z du risque de Bayes : r (π, δ0 ( X )) = E π [R (θ , δ0 ( X ))] où R (θ , δ0 ( X )) est le risque fréquentiste i.e. R (θ , δ0 ( X ) = L(θ , δ0 ( X )) f ( x | θ ) dx. X Exercice 2 – Soit ( X 1 , ..., X n ) un n-échantillon i.i.d. de loi binomiale de paramètres ( N, p). dont on rappelle ci-dessous la définition : x x P ( X = x) = C N p (1 − p) N − x , x ∈ {0, 1, . . . , N }, 0 < p < 1. On veut faire une estimation bayésienne du paramètre p. 1. En utilisant la règle de Jeffreys, construire une loi a priori non informative pour p. 2. Calculer la loi a posteriori de p pour la loi a priori non informative obtenue en 1. 3. Donner l’estimateur de Bayes de p sous l’hypothèse d’un coût quadratique, toujours pour cette loi. Commenter. 4. On considère maintenant une loi a priori bêta de paramètres (α, β) sur p. Calculer la loi a posteriori. Que peut-on dire de la loi a priori ? 5. Exprimer l’estimateur de Bayes de p, sous l’hypothèse d’un coût quadratique. 6. A quelles conditions cet estimateur est-il sans biais ? Exercice 3 – Il arrive que l’observation se résume à des effectifs enregistrés dans des intervalles donnés. On parle alors de données groupées. Supposons que le domaine d’observation se divise en 4 intervalles : [ t i−1 , t i [, i = 1, 2, 3, 4, t 0 = 0 et t 4 = +∞. On dispose alors d’un échantillon ( k 1 , k 2 , k 3 , k 4 ) où k i est le nombre de valeurs de la v.a. d’intérêt X appartenant à l’intervalle [ t i−1 , t i ). 4 X On note N = k i , le nombre total d’observations. i =1 On considère f = ( f 1 , f 2 , f 3 , f 4 ) une discrétisation de la densité de la loi de probabilité de X c’est-àdire qu’on exprime la densité de X par f ( x) = f i si x ∈ [ t i−1 , t i [. f = ( f 1 , f 2 , f 3 , f 4 ) est le paramètre que l’on souhaite étudier. n.b. : 4 X i =1 f i = 1. 1. Ecrire la vraisemblance en fonction de f 1 , f 2 , f 3 et de k 1 , k 2 , k 3 , k 4 . 2. Ecrire le système d’équations de vraisemblance (3 équations). En remarquant que d’après le système, k 1 / f 1 = k 2 / f 2 = k 3 / f 3 , résoudre le système pour donner les estimateurs du maximum de vraisemblance de f 1 , f 2 , f 3 , f 4 . 3. On veut faire une estimation bayésienne de f . Proposer une loi a priori en justifiant. 4. Calculer la loi a posteriori. 5. Donner l’estimateur de Bayes f = ( f 1 , f 2 , f 3 , f 4 ) sous l’hypothèse d’un coût quadratique. 6. Comparer avec l’estimateur du maximum de vraisemblance. Rappels – Densité d’une loi bêta de paramètre (α, β) : f ( x | α, β) = Γ(α + β) α−1 p (1 − p)β−1 , x ∈]0, 1[, α, β > 0. Γ(α)Γ(β) Espérance mathématique : α/(α + β). – Règle de Jeffreys : π(θ ) ∝ p i h ∂2 I (θ ) avec I (θ ) = E − 2 log L(θ ) . ∂θ – Loi de Dirichlet de paramètre (α1 , · · · , αm ; αm+1 ) f ( x1 , · · · , xm |α1 , · · · , αm+1 ) = Γ(α) α −1 α −1 x 1 x2 2 · · · (1 − x1 − · · · − xm )αm+1 −1 , Γ(α1 ) · · · Γ(αm+1 ) 1 définie pour ( x1 , x2 , · · · , xm ) ∈ S m , avec α = m +1 X α i et i =1 S m = {( x1 , x2 , · · · , xm )| x i ≥ 0, Espérance mathématique de x i : α i /α. m X i =1 x i ≤ 1}.