I Restauration d`image binaire

Transcription

I Restauration d`image binaire
Université de Rennes 1, Master SISEA
Examen - Modélisation Statistique des Images (MSI)
Patrick Héas, le 19 janvier 2015
Durée : 2 heures
Documents autorisés
I
Restauration d’image binaire
Les parties I.1 et I.2 sont indépendantes et peuvent donc être traitées dans n’importe quel
ordre.
x
y
x
y
Figure 1 – Chaque image y est une version dégradée de l’image x correspondante.
Soit l’ensemble de sites de pixels dans une image
S = {(i, j) ∈ Z2 ; i ∈ [1, nx ]; j ∈ [1, ny ]},
où nx et ny désigne le nombre de lignes et de colonnes de l’image. Soit X = {Xs }s∈S un champ
aléatoire binaire à valeur dans Λ = {−1, 1}nx ny . On modélise l’image x = {xs }s∈S comme la
réalisation de la variable aléatoire X où un pixel de couleur noir correspond à l’état −1 et un
pixel de couleur blanche à l’état +1. L’image observée y = {ys }s∈S est une version dégradée
de x. On la modélise comme la réalisation d’une variable aléatoire Y = {Ys }s∈S qui prend
également des valeurs binaires. La figure 1 montre deux exemples de telles paires d’images.
Étant donné une image y, on souhaite la restaurer. On veut donc obtenir une image qui soit
proche de l’image x (inconnue) correspondante.
Pour ce faire, on sait que :
i) la dégradation subie par X (pour obtenir Y ) correspond au processus suivant : la couleur
de chaque pixel de X a été indépendamment inversée avec une certaine probabilité
p ∈ [0, 1]. Par exemple si p = 41 , chaque pixel noir (resp. blanc) a une chance sur quatre
de devenir blanc (resp. noir). Cette dégradation correspond à des variables Ys |X = x
distribuées selon la loi binomiale suivante :
π(ys |x) = p
1−ys xs
2
1
(1 − p)
1+ys xs
2
ii) les images x considérées sont composées de “grandes” parties blanches et de “grandes”
parties noires (elles sont donc relativement régulières).
I.1
Estimation au sens du maximum de vraisemblance
1. Etant donnée l’indépendance évoquée dans i), donnez la distribution jointe π(y|x) de la
variable Y |X = x, appelée aussi loi de vraisemblance.
2. Quelle image restaurée obtient-on en fonction de p par maximisation de la vraisemblance : arg maxx π(y|x) ?
I.2
Modèle a priori d’Ising à interaction diagonale.
Figure 2 – Image no 1 (à gauche) et image no 2 (à droite).
Pour palier l’insuffisance de l’estimation au sens du maximum de vraisemblance, on associe
à X la distribution a priori de Gibbs
π(x) =
1
exp{−U (x)}
Z
définit sur l’espace des configurations Λ où la fonction d’énergie est
X
X
U (x) = γ
xs + ζ
xs xt ,
s∈S
hs,ti
et où Z est une constante de normalisation et ζ et γ deux constantes. On définit un système
de voisinage diagonale N par
∂(s = (i, j)) = {(k, l) ∈ S; (k − i)2 + (l − j)2 = 2}.
1. Quels sont les voisins du site s = (1, 1) et ceux du site s = (2, 2) ?
2. Pour une valeur de ζ > 0 et γ = 0, laquelle des deux images ci-dessus est la plus probable
selon π(x) ? Le paramètre γ doit-il être positif ou négatif pour accroitre la probabilité
de l’image 2 ? (justifiez rapidement)
3. Etant donnée l’information ii), quels paramètres doit-on choisir pour ζ ? (justifiez rapidement).
4. Qu’obtient-on lorsque l’on échantillonne X ?
5. Donner la dimension de Λ et expliquer rapidement le fait que la méthode de la transformation inverse ne soit pas applicable en général pour échantillonner X.
2
6. En vous appuyant sur le cours justifiez que X est un champs de Markov et donner ses
caractéristiques locales π(xs |xt , t ∈ ∂(s)) à une constante de normalization Zs près que
l’on explicitera.
7. La méthode de la transformation inverse est-elle applicable pour échantillonner π(xs |xt , t ∈
∂(s)) ? (justifiez)
8. Proposez un algorithme pour échantillonner X.
I.3
Modélisation a posteriori et estimation MMSE
On choisit d’obtenir une image restaurée selon une estimation MMSE :
X
EX|Y [X] =
x π(x|y).
x∈Λ
1. En utilisant la loi de Bayes π(x|y) = π(y|x)π(x)/π(y), dérivez la loi a posteriori π(x|y)
à une constante de normalization Z près.
2. Pourquoi une intégration de Monte-Carlo classique n’est-elle pas envisageable (pour nx
et ny grand) ?
3. Déduisez les caractéristiques locales a posteriori π(xs |xt∈∂(s) , ys )
4. Détaillez les principales étapes de l’approximation de cette espérance par un échantillonneur
de Gibbs.
II
Le coup du parapluie
Un employé lambda, appelons le Franz Kafka, se rend chaque matin de son appartement à
son bureau et fait le contraire le soir. Il dispose en tout de 2 parapluies, en partie chez lui et en
partie à son bureau. Kafka prend un parapluie (s’il y en a de disponible) seulement lorsqu’il
pleut. A Prague, ville peu ensoleillée au delà du raisonnable, il pleut 2 fois sur 3 lorsqu’il fait
le trajet, et ce indépendamment du passé. Soit la séquence {Xn }n>0 où Xn prend ses valeurs
dans {0, 1, 2} de loi marginale πn . Ces 3 valeurs représentent le nombre de parapluies à son
domicile lorsqu’il le quitte le matin. Par exemple, le vecteur ligne πn = (0.5, 0.5, 0) signifie
que la probabilité d’avoir au n-ième matin 0 ou 1 parapluie à son domicile est de 0.5 et la
probabilité d’en avoir 2 est nulle. La chaı̂ne de Markov associée a pour matrice de transition :


1/3 2/3 0
K = 2/9 5/9 2/9
0 2/9 7/9
1. Expliquez ce que représentent les valeurs 2/3 et 5/9 dans cette matrice et comment
elles-ont été calculées.
2. On suppose qu’initialement Kafka possède les 2 parapluies à son domicile, c’est à dire
que la loi de X1 est π1 = (0, 0, 1). Quelle est la loi de X3 ?
3. Soit π la loi stationnaire de cette chaı̂ne. En se référant au cours, dites pourquoi cette
loi est unique et donnez des conditions suffisantes pour la convergence en loi de cette
chaı̂ne vers π indépendamment de π1 .
3
4. Quel système doit-on résoudre pour obtenir la loi stationnaire π = (1/7, 3/7, 3/7) ?
5. Quelle est la proportion du temps où Kafka est mouillé ? Autrement dit calculez les
probabilités que sur un trajet du matin ou du soir Kafka soit mouillé. Indice : Notez
que sur un trajet du matin cela arrive s’il n’a aucun parapluie chez lui et qu’il pleut et,
sur un trajet du soir, il est mouillé s’il n’a aucun parapluie au bureau (i.e. ils étaient
tous au domicile le matin et il faisait beau le matin) et qu’il pleut.
4