Minimisation de crit`eres par approximation quadratique majorante

Transcription

Minimisation de crit`eres par approximation quadratique majorante
UMR CNRS 6597
Minimisation de critères par approximation
quadratique majorante pour la restauration d’image
Jérôme IDIER
[email protected]
http://www.irccyn.ec-nantes.fr/~idier
Institut de Recherche en Communications et Cybernétique de Nantes
Équipe Analyse et décision en traitement du signal et de l’image
GDR ISIS, Paris, 17 mars 2008
J. Idier — GDR ISIS, 17/03/08
2/18
Mots-clés
• Algorithmes semi-quadratiques, formes tronquées par gradient conjugué,
• Algorithmes du gradient conjugué non linéaire sans recherche de pas,
• Algorithme de moindres carrés repondérés,
• Algorithme de Newton et de quasi-Newton,
• Algorithmes MM
Marc Allain, décembre 2002 : Approche pénalisée en tomographie hélicoı̈dale. Application à la conception d’une prothèse personnalisée du genou, thèse de doctorat en
cotutelle, Université de Paris-Sud / École Polytechnique de Montréal, décembre 2002
Christian Labat, décembre 2006 : Algorithmes d’optimisation de critères pénalisés pour
la restauration d’images. Application à la déconvolution de trains d’impulsions en imagerie ultrasonore, thèse de doctorat, École Centrale de Nantes, décembre 2006
J. Idier — GDR ISIS, 17/03/08
3/18
Plan
I.
« Rappels »
II.
Contributions
J. Idier — GDR ISIS, 17/03/08
4/18
I. « Rappels »
5/18
I. « Rappels »
Restauration d’image
• Imagerie biomédicale,
• Géophysique,
• Contrôle non destructif par ultrasons,
• Imagerie satellite, ...
Estimer x à partir de y = H x + n
Exemple (bateau de p^
eche)
N = 512 × 512
PSF gaussienne
(σ = 2.24 pixels)
RSB 40dB
x
y
6/18
I. « Rappels »
Formulation pénalisée
b = arg min J (x) = ky − Hxk2 + λ
x
x
φ(vct x)
Σ
c∈C
e.g., vct x = xr − xs , c = {r, s} : paires de pixels voisins horizontaux ou verticaux
Préservation des discontinuités ; φ non quadratique
√
φ(t) = δ 2 + t2
φ(t) = ln(δ 2 + t2 )
[Charbonnier et coll. 1997]
[Hebert et Leahy 1989]
7/18
I. « Rappels »
Approximations quadratiques majorantes
[Ortega et Rheinboldt 1970, Voss et Eckhardt 1980]
Soit JbB (x′ , x) = J (x) + (x′ − x)t ∇J (x) + (x′ − x)t B(x) (x′ − x)/2
Supposons qu’il existe B(·) > 0 tel que JbB (x′ , x) > J (x′ ),
⇓
• JbB approximation quadratique majorante,
bB (x′ , x) 6 J (x),
J
• min
′
∀x, x′ ∈ RN
JbB (·, xk )
x
• arg min JbB (x′ , x) = x − B−1 (x)∇J (x)
x′
⇓
AQM : xk+1 = xk − B−1 (xk )∇J (xk )
Version relaxée : xk+1 = xk − θB
−1
(xk )∇J (xk )
J
xk
xk+1
8/18
I. « Rappels »
Historique
Problème de Fermat-Weber
N
min
x
kx − xn k2
Σ
n=1
AQM : algorithme de Weiszfeld
[Weiszfeld 1937, Kuhn 1973]
Régression robuste
N
min
x
φ(yn − vnt x)
Σ
n=1
AQM : moindres carrés repondérés : IRLS, RSD
[Beaton et Tukey 1974, Byrd et Payne 1979, Huber 1981]
9/18
I. « Rappels »
Approche markovienne en restauration d’image
b = arg min ky − Hxk2 + λ Σ φ(vct x)
x
c∈C
x
AQM : Algorithmes semi-quadratiques (SQ) : ARTUR / GR, LEGEND / GY
[Geman et Reynolds 1992, Geman et Yang 1995, Charbonnier et coll. 1997]
Dictionnaires et parcimonie
b = arg min ky − HWxk2 + λ kxkpp ,
x
p61
x
AQM : FOCal Underdetermined System Solver (FOCUSS)
[Gorodnitsky et Rao 1997, Rao et coll. 2003] ; voir aussi [Fuchs 2007]
Weiszfeld
=
IRLS
RSD
=
=
ARTUR / GR
LEGEND /GY
=
FOCUSS
J. Idier — GDR ISIS, 17/03/08
10/18
II. Contributions
11/18
II. Contributions
Deux variantes SQ
LEGEND/GY
1 2
2u
− φ convexe
⇓
∃ζ tel que φ(u) = inf
b∈R
1
2 (u
⇓
BGY = 2Ht H + Vt V,
2
− b) + ζ(b)
V = [v1 |...|vC ]
t
ARTUR/GR
√
φ C 1 , paire, φ( .) concave sur R+
⇓
2
∃ψ tel que φ(u) = inf bu + ψ(b)
b∈R
⇓
BGR (x) = 2Ht H + Vt L(x)V,
L(x) = Diag
φ
′
(vct x)
vct x
12/18
II. Contributions
Convergence [Charbonnier et coll. 1997, Allain et coll. 2006]
B(x) = BGY = 2Ht H + Vt V
J coercif, φ C 1 , θ ∈ ]0, 2[,
B(x) = BGR = 2Ht H + Vt L(x)V
ou
xk+1 = xk − θB−1 (xk )∇J (xk )
⇓
lim ∇J (xk ) = 0
k→∞
Inconvénient en restauration d’image : efficacité ց
ց quand N ր
Variante 1 [Charbonnier et coll. 1997, Nikolova et Ng 2005]
Calcul approché de B−1 (xk )∇J (xk ) par GC (préconditionné) : SQ+GC
Variante 2 [Fessler et Booth 1999]
Algorithme GC non linéaire (préconditionné) + SQ scalaire : GCNL+SQ1D
13/18
II. Contributions
Variante 1 : SQ+GC
Principe
xk+1 = xk + θdk
dk = uIk (xk )
où uI (x) est la solution après I itérations de GC(P) appliquées à
B(x) u = −∇J (x)
Questions ouvertes
krésiduIk k
6 ε, e.g., ε = 10−6 ?
• Comment choisir Ik ? Tel que
krésidu0 k
• Convergence ?
∀Ik > 1,
lim ∇J (xk ) = 0 [Labat et Idier 2007]
k→∞
14/18
II. Contributions
Problème simulé (bateau de p^
eche)
GR+GC
GR+GCP (transformée en cosinus)
1400
600
1200
500
temps (s)
temps (s)
1000
800
600
400
300
200
400
100
200
0
0
1
10
20
30
40
50
60
70
80
90
1
5
10
15
20
25
sous-itérations Ik
sous-itérations Ik
ε = 10−6 =⇒ Ik ∈ [60, 100]
ε = 10−6 =⇒ Ik ∈ [20, 30]
30
15/18
II. Contributions
Variante 2 : GCNL+HQ1D
Principe
dk = −M−1 ∇J (xk ) + βk dk−1
xk+1 = xk + αk dk
M > 0 : matrice de préconditionnement
Statégies de pas
1. Pas constant αk = θ : pas de garantie de convergence
2. Recherche de pas classique : dichotomie, interpolation, ... + conditions de Wolfe
3. Minimisation de f (α) = J (xk + αdk ) (Ik sous-itérations) [Fessler et Booth 1999]
• Comment choisir Ik ? Ik = 5 ?
• Convergence ?
∀Ik > 1, lim inf ∇J (xk ) = 0 (Polak-Ribière, ...) [Labat et Idier 2008]
k→∞
16/18
II. Contributions
Problème simulé (bateau de p^
eche)
180
Meilleur CG+Wolfe
160
140
CG+GR1D
temps (s)
120
100
PCG+GR1D
(transformée en cosinus)
80
60
Meilleur PCG+Wolfe
40
20
0
1
2
3
4
5
6
sous-itérations Ik
7
8
9
10
17/18
II. Contributions
Bilan comparatif
préconditionnement
non
oui
GR+GC
194,3 s
87,9 s
CG+GR1D
110,7 s
46,9 s
CG+Wolfe
175,5 s
53,3 s
SQ exact
>2000 s
18/18
II. Contributions
Conclusions/Perspectives
Algorithmes semi-quadratiques
;
Algorithmes de quasi-Newton tronqués et de gradient conjugué
sans recherche de pas
Pas d’algorithme emboité : simplicité + rapidité + convergence
Perspectives
• Extension à φ non différentiable ?
• Extension aux algorithmes à mémoire de gradient ?
• Les algorithmes SQ sont des algorithmes MM [Lange et coll. 2000]
; Généralisations possibles ?
Bibliographie
[Allain et coll. 2006] M. Allain, J. Idier et Y. Goussard. On global and local convergence of half-quadratic algorithms.
IEEE Trans. Image Processing, 15 (5) : 1130–1142, mai 2006.
[Beaton et Tukey 1974] A. E. Beaton et J. W. Tukey. The fitting of power series, meaning polynomials, illustrated on
band-spectroscopic data. Technometrics, 16 : 147–185, 1974.
[Byrd et Payne 1979] R. H. Byrd et D. A. Payne. Convergence of the iteratively reweighted least squares algorithm
for robust regression. Rapport Interne 313, The Johns Hopkins Univ., Baltimore, MD, USA, juin 1979.
[Champagnat et Idier 2004] F. Champagnat et J. Idier. A connection between half-quadratic criteria and EM algorithms.
IEEE Signal Processing Letters, 11 (9) : 709–712, sep. 2004.
[Charbonnier et coll. 1997] P. Charbonnier, L. Blanc-Féraud, G. Aubert et M. Barlaud. Deterministic edge-preserving
regularization in computed imaging. IEEE Trans. Image Processing, 6 (2) : 298–311, fév. 1997.
[Fessler et Booth 1999] J. A. Fessler et S. D. Booth. Conjugate-gradient preconditionning methods for shift-variant
PET image reconstruction. IEEE Trans. Image Processing, 8 (5) : 668–699, mai 1999.
[Fuchs 2007] J.-J. Fuchs. Convergence of a sparse representations algorithm applicable to real or complex data.
IEEE J. Selected Topics Sig. Proc., 1 (4) : 598–605, déc. 2007. Issue : Convex Optimization Methods for Signal
Processing.
[Geman et Reynolds 1992] D. Geman et G. Reynolds. Constrained restoration and the recovery of discontinuities.
IEEE Trans. Pattern Anal. Mach. Intell., 14 (3) : 367–383, mars 1992.
[Geman et Yang 1995] D. Geman et C. Yang. Nonlinear image recovery with half-quadratic regularization. IEEE
Trans. Image Processing, 4 (7) : 932–946, juil. 1995.
[Gorodnitsky et Rao 1997] I. F. Gorodnitsky et B. D. Rao. Sparse signal reconstruction from limited data using focuss :
a re-weighted minimum norm algorithm. IEEE Trans. Signal Processing, 45 (3) : 600–616, mars 1997.
[Hebert et Leahy 1989] T. Hebert et R. Leahy. A generalized EM algorithm for 3-D Bayesian reconstruction from
Poisson data using Gibbs priors. IEEE Trans. Medical Imaging, 8 (2) : 194–202, juin 1989.
[Huber 1981] P. J. Huber. Robust Statistics. John Wiley, New York, NY, USA, 1981.
Bibliographie
[Kuhn 1973] H. W. Kuhn. A note on Fermat’s problem. Mathematical Programming, 4 : 98–107, 1973.
[Labat et Idier 2007] C. Labat et J. Idier. Convergence of truncated half-quadratic and Newton algorithms, with
application to image restoration. Rapp. tech., IRCCyN, juin 2007.
[Labat et Idier 2008] C. Labat et J. Idier. Convergence of conjugate gradient methods with a closed-form stepsize
formula. J. Optim. Theory Appl., 136 (1), jan. 2008.
[Lange et coll. 2000] K. Lange, D. R. Hunter et I. Yang. Optimization transfer using surrogate objective functions
(with discussion). J. Comput. Graph. Statist., 9 (1) : 1–20, mars 2000.
[Nikolova et Ng 2005] M. Nikolova et M. Ng. Analysis of half-quadratic minimization methods for signal and image
recovery. SIAM J. Sci. Comput., 27 : 937–966, 2005.
[Ortega et Rheinboldt 1970] J. Ortega et W. Rheinboldt. Iterative Solution of Nonlinear Equations in Several Variables.
Academic Press, New York, NY, USA, 1970.
[Rao et coll. 2003] B. D. Rao, K. Engan, S. F. Cotter, J. Palmer et K. Kreutz-Delgado. Subset selection in noise
based on diversity measure minimization. IEEE Trans. Signal Processing, 51 (3) : 760–770, mars 2003.
[Voss et Eckhardt 1980] H. Voss et U. Eckhardt. Linear Convergence of Generalized Weiszfeld’s Method. Computing,
25 : 243–251, 1980.
[Weiszfeld 1937] E. Weiszfeld. Sur le point pour lequel la somme des distances de n points donnés est minimum.
Tôhoku Mathematical Journal, 43 : 355–386, 1937.