Etude comparative de méthodes de fusion d`images satellitaires

Transcription

Etude comparative de méthodes de fusion d`images satellitaires
Journées d’Animation Scientifique (JAS09) de l’AUF Alger Novembre 2009
Etude comparative de méthodes de fusion d’images satellitaires
S. Massout 1, N. Habili, W. Kettab, N. Ouarab, Y. Smara2
Laboratoire de Traitement d’Images et Rayonnement, Faculté d’Électronique et d’Informatique
Université des Sciences et de la Technologie Houari Boumediene
BP 32 El-Alia Bab Ezzouar, 16111 Alger Algérie
1
[email protected].
2
[email protected].
Résumé— la fusion d’images consiste à combiner des images
de différentes sources afin de synthétiser de nouvelles images
plus riche en information. Plusieurs méthodes de fusion ont été
développées pour l’amélioration de la résolution spatiale des
images multispectrales. Dans cette article, nous présentons des
méthodes de fusion d’images en exploitant la pyramide morphologique, la transformée en IHS, l’analyse multirésolution
associée aux ondelettes et la combinaison de la transformée en
IHS et les ondelettes. Les méthodes étudiées et mis en œuvre
sont appliquées sur les images de satellites SPOT représentant
la région d’Alger. Les résultats de la fusion sont évalués de
point de vue information spatiale et spectrale.
Mots clefs — fusion d’images, analyse multirésolution, transformée en IHS.
I. INTRODUCTION
La plupart des satellites d’observation de la terre fournissent des images de différentes résolutions spatiales, spectrales et temporelles. Afin de mieux exploiter ces données, il
est apparu nécessaire de les fusionner. La fusion de données
est un ensemble de techniques, d’outils et de moyens utilisées afin d’avoir de nouvelles images plus riche en information. La fusion de données peut être exécutée à trois niveaux différents à savoir le niveau pixel, le niveau caractéristiques et le niveau décision.
Dans le but d’améliorer la résolution spatiale des images
multispectrales, plusieurs méthodes de fusion aux niveaux
pixels et caractéristiques ont été développées dans la littérature [1]. Dans cet article, nous présentons les techniques de
fusion d’images en exploitant les outils suivants ; la transformée en IHS (Intensity, Hue and Saturation), l’analyse
multirésolution associée aux ondelettes, la combinaison de
la transformée en IHS et les ondelettes et la pyramide morphologique.
Pour tester et évaluer les résultats de la fusion, nous avons
utilisé les images de satellite SPOT (une image de haute résolution spatiale et trois images multispectrales de faible
résolution). Puis nous avons comparé les images synthétisées avec les images originales en utilisant des paramètres
statistiques (évaluation spatiale et spectrale) et un deuxième
type d’évaluation visuelle en utilisant la composition colorée.
II. OUTILS MATHEMATIQUES
Plusieurs méthodes de fusion ont été testées pour
l’amélioration de la résolution spatiale des images multis-
pectrales. Dans cette section, nous présentons le principe
d’outils mathématiques que nous allons exploiter par la
suite pour la fusion.
Ces outils sont la pyramide morphologique la transformée
en IHS et l’analyse multirésolution associée aux ondelettes.
Dans un premier temps nous présentons le principe de la
pyramide morphologique.
A. Pyramide morphologique
La pyramide morphologique est l’association des algorithmes pyramidaux et la morphologie mathématique. Cette
méthode nécessite deux étapes [1] :
La première est la décomposition pyramidale. Elle consiste
à construire une pyramide morphologique telle que la base
de la pyramide soit représentée par l’image haute résolution. Les images des différents niveaux sont les approximations de l’image originale obtenues en utilisant des opérateurs morphologiques et des algorithmes d’échantillonnage.
Une deuxième pyramide est générée, elle est appelée pyramide des détails qui représentent les hautes fréquences calculées à partir des images de deux niveaux successifs.
La deuxième étape est la recomposition pyramidale. Elle
permet d’avoir l’image originale.
¾ Principe de décomposition
Le principe de décomposition consiste en une itération
d’une transformation qui permet le passage d’un niveau de
pyramide à un autre (de la base de la pyramide vers le sommet). Cette transformation est composée d’un filtre morphologique et d’un algorithme de sous échantillonnage afin de
réduire la taille de l’image.
Le passage à un niveau supérieur se fait en réalisant les quatre étapes suivantes :
- application d’un filtrage morphologique ;
- calcul de la différence entre l’image initiale et l’image filtrée ;
- application d’un algorithme de sous échantillonnage ;
- calcul de la différence entre l’image avant et après échnatillonnage.
• Filtrage
Cette étape consiste à appliquer un filtre morphologique sur
l’image originale Ι (x k , y l ) où :
i
i est l’indice de l’image originale,
(x k , yl) est l’indice du pixel sur la grille de l’image,
k et l sont respectivement le nombre de lignes et de colonnes.
Cette opération est donnée par :
(1)
IF i (x ki , y li ) = FM B , i (I i (x ki , y li ))
Journées d’Animation Scientifique (JAS09) de l’AUF Alger Novembre 2009
Où :
IF i est l’image filtrée de Ii au niveau i ;
FM est le filtre morphologique ;
B est l’élément structurant associé au filtre morphologique.
• Calcul des détails dus au filtrage
Après l’opération de filtrage, quelques structures de l’image
originale n’apparaissent pas dans l’image filtrée. Cette partie, séparée de l’image initiale, est la composante haute fréquence éliminée par le filtrage et qui représente les détails.
Les deux équations suivantes permettent le calcul des détails répartis en Dsup, filtre, i et Dinf, filtre, i au niveau i :
D sup, filtre,i (X ki , Y li ) = sup{ Ii (X ki , Y li ), IFi (X ki , Y li ) } − IFi (X ki , Y li )
(2)
D inf,filtre,i (X ki , Y li ) = sup{ Ii (X ki , Y li ), IFi (X ki , Y li ) }− Ii (X ki , Y li )
(3)
∀ X ki ∈ [1,..., ki], ∀ Y li ∈ [1,..., li]
Où :
Dsup,filtre,i correspond aux zones plus claires sur l’image
initiale que sur l’image filtrée,
Dinf, filtre,i correspond aux zones plus sombres sur l’image
initiale que sur l’image filtrée.
• Sous échantillonnage
Le sous échantillonnage est appliqué sur l’image filtrée. Il
permet de réduire la taille de l’image en allant d’un niveau
de la pyramide à un niveau supérieur.
Le sous échantillonnage dépend de deux paramètres qui
sont :
- Le pas de sous échantillonnage ;
- L’algorithme de sous échantillonnage.
Après l’opération de sous échantillonnage, nous calculons
les détails dus à cette opération.
•
Détail dus au sous échantillonnage
Pour ne pas perdre d’informations lors de la décomposition,
il est nécessaire de calculer les détails dus au sous échantillonnage. Ces détails sont calculés par la différence entre
l’image avant et après sous échantillonnage, c'est-à-dire entre l’image filtrée et l’image sous échantillonnée.
Après avoir interpolé l’image sous échantillonnée à la
même taille que celle de l’image filtrée, on calcule deux
images de détails avec les équations suivantes :
B. Transformée en IHS
La transformée en IHS permet le passage de l’espace de
couleur RVB (Rouge, vert et bleu) vers l’espace IHS (Intensité, Teinte et Saturation). Elle donne la possibilité de
séparer l’information spatiale dans l’image intensité et
l’information spectrale dans les images teinte et saturation.
Nous avons effectué plusieurs tests avec les différents modèles de la transformée en IHS et nous avons constaté que
le modèle triangulaire donne des meilleurs résultats par rapport aux autres modèles. Ce modèle est donné par les formules suivantes [2]:
1
I = I′
(6)
3
I′ = R + G + B
H=
G − 3B
I′ − 3B
, S=
,
I′ − 3B
I′
si B est minimum
B−R
I′ − 3R
+ 1, S =
, si R est minimum
I′ − 3R
I′
R −G
I ′ − 3G
H=
+ 2, S =
, si G est minimum
I ′ − 3G
I′
La transformée inverse est donnée par :
H=
1
⎧
⎪R = 3 I′(1 + 2S − 3SH )
⎪
1
⎪
⎨G = I′(1 − S + 3SH )
3
⎪
1
⎪
⎪B = 3 I′(1 − S)
⎩
1
⎧
⎪R = 3 I′(1 − S)
⎪
1
⎪
⎨G = I′(1 + 5S − 3SH )
3
⎪
1
⎪
⎪B = 3 I′(1 − 4S + 3SH )
⎩
(7)
Lorsque B est minimum
(8)
Lorsque R est minimum
(9)
1
⎧
⎪R = 3 I′(1 − 7S + 3SH )
⎪
1
⎪
Lorsque G est minimum
⎨G = I′(1 − S)
3
⎪
1
⎪
⎪B = 3 I′(1 + 8S − 3SH )
⎩
(10)
Après avoir donné le principe de la transformée en IHS,
nous allons présenter les étapes de l’analyse multirésolution
Dsup, deci, i (x ki , yli) = sup[IFi (x ki , yli), Ii +1, int (x ki , yli)] − Ii +1, int(x ki , yli) associés aux ondelettes.
(4)
C. Analyse multirésolution associé aux ondelettes
Dinf, deci, i (X ki , y li) = sup[IFi (x ki , y li), Ii + 1, int (x ki , yli)] − IFi (x ki , yli)
∀ x ki ∈[1,..., ki], ∀ y li ∈[1,..., li]
(5)
¾ Principe de la recomposition
La recomposition de la pyramide morphologique est basée
sur l’itération de deux opérations de base :
- Sur échantillonnage ;
- Ajout des détails.
Après avoir présenté le principe de la pyramide morphologique. Nous allons donner le principe de la transformée en
IHS.
La transformée en ondelettes est un outil mathématique qui
détecte les caractéristiques locales dans le traitement du signal. Elle également utilisée dans la décomposition des signaux bidimensionnels (image numérique) à différents niveaux de résolutions [3], [4], [5] et [6]. Les coefficients (détails) de la transformée en ondelettes discrète sont calculés par l’utilisation d’une série de filtre passe bas h, filtre
passe haut g, et un sous échantillonnage des lignes et colonnes.
Le processus de décomposition par les ondelettes est appliqué sur une image de niveau j pour donner une image de
basse fréquence (approximation) et trois images des hautes
fréquences (les détails dans les directions verticales, hori-
Journées d’Animation Scientifique (JAS09) de l’AUF Alger Novembre 2009
zontales et diagonales).
En passant d’un niveau j à j+1 la taille de l’image approximation et des images de détails (coefficients) est réduite de
4.
La recomposition permet de retrouver l’image originale à
partir de l’image approximation et des images de détails.
III. TECHNIQUES DE FUSION D’IMAGES
Dans le processus de fusion d’images, les données à combiner doivent représenter la même zone géographique. Avant
d’appliquer le processus de fusion, il est nécessaire de faire
un prétraitement des données. Ce prétraitement consiste en
correction radiométrique et géométrique. Une fois la correction est faite, nous applique la technique de fusion. Dans
cette partie, nous présentons le principe des quelques méthodes de fusion en utilisant les outils presentes précédemment.
- Spécification de l’histogramme de l’image haute résolution spatial au celui des images multispectrales ;
- Décomposer de l’image panchromatique en une image
d’approximation et trois coefficients d’ondelettes ;
- Remplacer chacune approximation de l’image panchromatique par l’image multispectrale ;
- La transformée en ondelettes inverse permet de synthétiser
les images multispectrale à haute résolution spatiale.
Pan ‘histogramme spécifié
R
B
V
I
H
H
S
S
Transformée en IHS
R*
B*
V*
Transformée
en IHS inverse
Fig.1 Schéma de fusion d’images par la transformée en IHS
Cette méthode présent l’avantage d’introduire l’information
spatiale, mais l’inconvénient de cette méthode de fusion réside dans la limitation du nombre d’images à fusion. Pour
cela, nous présentons une autre méthode de fusion d’images
basée sur les ondelettes.
B. Fusion d’images par les ondelettes
Le schéma de la figure (2) montre le concept de processus
de fusion par les ondelettes. La fusion d’images par cette
méthode s’effectue en respectant les étapes suivantes [7] :
Hp
Vp
Dp
P
A. Fusion d’image par la transformée en IHS
Sur la figure (1), nous présentons le schéma de fusion
d’images par la transformée en IHS [2]. Le processus de
fusion par cette méthode est résumé dans les étapes suivantes :
- Reéchantillonnage des images multispectrales à la taille de
l’image haute résolution ;
- Application de la transformée IHS sur les images multispectrales ;
- Spécification de l’histogramme de l’image haute résolution par rapport à celui de l’image d’intensité et remplace
l’image intensité par l’image de haute résolution ;
- Application de la transformée en IHS inverse.
AP
Ab
Vp
Ab
Hb
Vb
Db
H
Dp
Band
Fig.2 Schéma de fusion d’images par les ondelettes
L’exploitation de la transformée en IHS et l’analyse multirésolution associé aux ondelettes permet de donner une
nouvelle méthode de fusion d’images. Cette méthode
consiste à combiner les deux outils. Le principe de fusion
d’images par cette combinaison est évoqué dans la partie
suivante.
C. Fusion d’images par la combinaison de la transformée en
ondelettes et IHS
Le processus de fusion par cette méthode est résumé dans
les points suivants :
- Reéchantillonnage des images multispectrales à la taille de
l’image de haute résolution spatiale ;
- Application de la transformée en IHS sur les images multispectrales ;
- Application de l’analyse multirésolution associée aux ondelettes sur les images de haute résolution (panchromatique
et intensité) ;
- Application de la transformée en ondelettes inverse sur
l’approximation de l’image intensité et les coefficients
d’ondelettes de l’image panchromatique.
L’application des méthodes de fusion d’images citées cidessus permet de synthétiser des images multispectrales à
haute résolution comme est illustré dans la figure (3).
Journées d’Animation Scientifique (JAS09) de l’AUF Alger Novembre 2009
MS1
PAN
S
MS2
IHS
T
I
MS 3
Histogramme spécifié
PAN2
Décomposition en Ondelettes
LH’
LL’
HH’
HL’
Substitution
LHp
LLp
HHp HLp
LHp
LL’
IHS Inverse
HHp HLp
Bande N
Ondelettes inverse
Bande 2
Bande 1
I’
Fig.3 Schéma de fusion d’images par la combinaison de la transformée en IHS et les ondelettes
D. Fusion d’images par la pyramide morphologique
Nous nous sommes inspirés des travaux de F. Lapoterie [8],
pour étudier et mettre en œuvre les algorithmes de fusion
d’images par la pyramide morphologique. Le principe de
cette méthode est schématisé par la figure (4).
Le principe de cette méthode consiste à appliquer le processus de décomposition sur l’image haute résolution spatiale
pour séparer les hautes fréquences qui représentent les images de détails des différents niveaux de la pyramide des
basses fréquences représentées par les approximations de
l’image d’entrée.
Image Haute
Résolution
Spatiale
Décomposition
par la Pyramide
Morphologique
Image Basse
Résolution Calculée
par la Pyramide
Image Fusionnée
Calcul des Détails
+
Image Basse
Résolution
Spatiale
Fig.4 Synoptique de fusion d’images par la pyramide morphologique
Le processus de décomposition de l’image haute résolution
spatiale est défini par une itération de filtrage (filtre morphologique) et d’un algorithme de sous échantillonnage. Le
nombre de niveaux de la pyramide morphologique est donné par le rapport des résolutions entre l’image haute résolution spatiale et l’image de basse résolution ainsi que le pas
de sous échantillonnage.
Le processus de recomposition permet de synthétiser
l’image multispectrale à haute résolution spatiale, nous appliquons une interpolation de l’image basse résolution (multispectrale) et un ajout de détails calculés lors de la décomposition de l’image haute résolution.
Une fois les images multispectrales sont synthétisées à la
haute résolution spatiale disponible. La prochaine étape
consiste à tester et à évaluer les différentes méthodes de fusion d’images citées antérieurement.
IV. EVALUATION DES RESULTATS DE FUSION
A. Images utilisées
Pour la mise en œuvre pratique, nous avons exploité les
images prises sur la région d’Alger : une image panchromatique à haute résolution spatiale et une image multispectrale
à trois bandes (XS1, XS2, XS3) à basse résolution spatiale
(5). Ces images sont issues du capteur HRV du satellite
SPOT et représentent la zone Est de la baie d’Alger (sur une
zone qui couvre la région de Bab-Ezzouar).
L’image sur la région d’Alger est constituée d’un milieu
urbain et périurbain et elle est acquise le 01 Avril 1997. La
scène est très structurée et hétérogène.
Les caractéristiques (résolutions spectrales, spatiales et di-
Journées d’Animation Scientifique (JAS09) de l’AUF Alger Novembre 2009
mensions en pixels) de ces images sont données dans le tableau ( 1).
100 1 N
2
(12)
∑ RMSE (Bi )
M N i =1
Dans la formule de RASE, M est la moyenne radiance des
N bandes spectrales ( Bi ) des bandes MS originales. Une
faible valeur de RASE indique une conservation de
l’information spectrale.
- Paramètre ERGAS
Erreur relative globale dimensionnelle dans la synthèse (Relative Dimensionless Global Error in Synthesis) permet de
calculer la distorsion (déformation) spectrale dans l’image.
Il est donné par la formule suivante :
RASE =
ERGAS = 100
5. a. Image panchromatique originale
5. b. Composition colorée des images XS originales
Fig.5 Images d’Alger (SPOT)
Bandes specRésolutions
trales
spatiales
Panchromatique
0.51-0.73 μm
10 m
XS1
0.51-0.59 μm
20 m
XS2
0.61-0.68 μm
20 m
XS3
0.79-0.89 μm
20 m
Tab. 1. Caractéristiques des images d’Alger
Dimensions
(pixels)
660×660
330×330
330×330
330×330
- Paramètres d’évaluation
Pour l’évaluation de la qualité spectrale des images synthétisées, nous utilisons les paramètres suivants : coefficient de
corrélation, RASE (Relative Average Spectral Error),
ERGAS (Relative Dimensionless Global Error in Synthesis)
[9].
- Coefficient de corrélation
Le coefficient de corrélation entre l’image fusionnée et
l’image originale est donné par la formule suivante :
∑ mn (A mn − A )(Bmn − B)
(11)
CC(A, B) =
(∑ mn (A mn − A ) 2 )(∑ mn (Bmn − B) 2 )
Où A et B indiquent les valeurs moyennes de jeu de donnée correspondant, et CC est un calcul global de l’image
entier. Le résultat de cette équation indique la similarité entre les petites structures de l’image originale et l’image fusionnée lorsque le coefficient de corrélation est proche de 1
et une faible similarité pour un coefficient de corrélation
proche de 0 (zéro).
- Paramètre RASE
Ce paramètre estime la qualité spectrale globale des images
fusionnées. L’expression de paramètres RASE est donnée
comme suit :
h
l
1 N ⎡ (RMSE (B k ))2 ⎤
⎥
∑⎢
N k =1 ⎢⎣
(M k )2 ⎥⎦
(13)
Où :
h est le rapport entre la taille de pixel de l’image panl
chromatique et de l’image multispectrale,
N est le nombre de bandes.
Plus la valeur de l’ERGAS est proche de zéro plus il y a
conservation de l’information spectrale.
Pour évaluer la qualité spatiale des images fusionnées, nous
comparons les hautes fréquences de l’image panchromatique et les hautes fréquences de chacune des images fusionnées. Pour cela, nous utilisant la méthode proposée par
Zhou en 1999 [10]. Pour l’extraction des données hautes
fréquences, nous appliquons le mask de convolution pour
l’image :
⎡− 1 − 1 − 1⎤
(14)
mask = ⎢⎢− 1 8 − 1⎥⎥
⎣⎢− 1 − 1 − 1⎦⎥
Nous comparons les résultats des images filtrées, en utilisant un coefficient de corrélation entre les hautes fréquences de l’image panchromatique et celle de l’image fusionnée. Un coefficient de corrélation proche de 1 indique une
similarité entre les structures de l’image panchromatique et
l’image fusionnée et proche de 0 (zéro) une faible similarité.
B. Evaluation quantitative
Les résultats de fusion d’images en utilisant la transformée
en IHS, l’analyse multirésolution associée aux ondelettes, la
combinaison des deux méthodes et la pyramide morphologique sont présentés dans la figure (6).
L’aspect visuel de la composition colorée des images synthétisées nous permet de constater que l’information spatiale est mieux introduite avec la transformée en IHS tout en
réduisant la conservation de l’information spectrale puisque
cette méthode a l’avantage de séparer l’information spatiale
dans l’image intensité et qui a été remplacée par l’image
panchromatique. Cependant, la fusion d’images en exploitant la transformée en ondelettes et la combinaison de la
transformée en IHS et les ondelettes conserve mieux
l’information spectrale puisque ces méthodes utilisent des
filtres
linéaires
et
l’analyse
multirésolution.
Journées d’Animation Scientifique (JAS09) de l’AUF Alger Novembre 2009
6. a. Composition colorée des
images synthétisées avec la transformée en IHS
6. b. Composition colorée des
images synthétisées avec les ondelettes
6. c. Composition colorée des
images synthétisées avec la transformée en IHS et les ondelettes
6. d. Composition colorée des
images synthétisées avec la pyramide morphologique
6. e. Zoom d’une région de la
composition colorée des images
synthétisées avec la transformée
en IHS
6. f. Zoom d’une région de la
composition colorée des images
synthétisées avec les ondelettes
6. g. Zoom d’une région de la
composition colorée des images
synthétisées avec la combinaison
de la transformée en IHS et les
ondelettes
6. h. Zoom d’une région de la
composition colorée des images
synthétisées avec la pyramide
morphologique
Fig.6 Résultats de fusion avec les différentes méthodes
L’utilisation de la pyramide morphologique permet à la fois
d’introduire l’information spatiale et de conserver
l’information spectrale.
C. Evaluation quantitative
Dans le tableau suivant, nous présentons les valeurs des paramètres statistiques de l’évaluation spectrale.
XS1
96,124 %
XS2
XS3
CC
95,968 %
36,388 %
HIS
RASE
24,818
ERGAS
10,999
CC
86,559 %
82.434 %
79,835 %
Ondelettes
RASE
3,777
ERGAS
1,771
CC
87,838 %
89,905 %
83,472 %
Combinaison
RASE
22,981
ERGAS
10,202
CC
92,043 %
86,073 %
84,729 %
Pyramide morRASE
3,488
phologique
ERGAS
1.652
Tab. 2 Evaluation de l’information spectrale des images synthétisées
Dans le tableau (Tab. 2), nous avons présenté deux types de
paramètre statistique. Le premier est le coefficient de corrélation qui est calculé pour chaque bande. L’utilisation de ce
paramètre pour comparer chaque image synthétisée par rapport à l’image originale, nous permet de constater que
l’utilisation de la transformée en IHS donne des résultats
encourageants pour les bandes 1 et 2 (XS1 et XS2), cependant la combinaison de la transformée en IHS et les ondelettes donne de meilleur résultat pour la bande 3 (XS3).
Le deuxième type de paramètre statistique contient le RASE
et l’ERGAS. Ces deux paramètres permettent d’évaluer
l’ensemble des bandes. Nous remarquons que les valeurs du
RASE et de l’ERGAS obtenues sont meilleurs lors de
l’utilisant les ondelettes. Donc la fusion d’images par
l’analyse multirésolution associée aux ondelettes permet de
conserver l’information spatiale.
Les valeurs données dans le tableau suivant représentent les
résultats des coefficients de corrélation entre les hautes fréquences de l’image panchromatique et les hautes fréquences
des images fusionnées.
XS1
IHS
98,055 %
Ondelettes
8,753 %
Combinaison
14,224 %
Pyramide morpho92,866 %
logique
Tab. 3 Evaluation de l’information spatiale
XS2
96,960 %
10,423 %
12,198 %
XS3
96,118 %
6,117 %
6,821 %
94,328 %
88,607 %
Nous remarquons que les meilleurs valeurs de coefficient de
corrélation (proches de 100 % ou de 1) sont obtenues lors
de l’utilisation de transformée en IHS. Donc cette méthode
converse mieux l’information spatiale lors de processus de
fusion d’images.
V. CONCLUSION
Dans cet article nous avons présenté et comparé des méthodes de fusion d’images satellitaires en exploitant la transformée en IHS, l’analyse multirésolution associée aux ondelettes, la combinaison de la transformée en IHS et les ondelettes et la pyramide morphologique. Nous avons remarqué
que l’utilisation de la méthode basée sur la transformée en
IHS introduit mieux l’information spatiale cependant
l’information spectrale n’est pas bien préservée.
L’utilisation de cette méthode IHS est limitée à trois (03)
images en entrée. Les méthodes de fusion par les ondelettes
et la combinaison ondelettes et IHS conservent
l’information spectrale, mais introduisent moins
l’information spatiale. La méthode basée sur l’analyse mul-
Journées d’Animation Scientifique (JAS09) de l’AUF Alger Novembre 2009
tirésolution associée aux ondelettes est limitée au rapport
dyadique entre les images d’entrées. Cependant la méthode
de combinaison est limitée au rapport dyadique et trois images en entrée. Puis nous avons appliqué ces méthodes sur
les images du satellite SPOT représentant la région d’Alger.
Pour l’évaluation des résultats de la fusion, nous nous sommes basés sur un aspect visuel et statistique.
VI. REFERENCES
[1]
F. Laporterie, G. Flouzat & O. Amram, “Mathematical morphology
multi-level analysis of trees patterns in savannas”, IEEE In : IGARSS,
Sydney, Australia, 2001.
[2] Y. Zhang & G. Hong, “An IHS and wavelet integrated approach to
improve pan-sharpening visual quality of natural colour IKONOS and
QuickBird images,” Information Fusion 6, 2005, 225-234.
[3] S. G. Mallat, “A theory for multirésolution signal decomposition the
wavelet representation”, Comm. Pure Appl. Math, vol 41, 1988, 674693.
[4] L. Wald & T. Ranchin “The ARSIS concept in image fusion : an answer to users needs”, IEEE Information fusion ISIF, 2003, 168-173.
[5] J. Nunez, X. Otazu, O. Fors, A. Prades, V. Pala & R. Arbiol, “Multiresolution-based image fusion with additive wavelet decomposition’’, IEEE Transactions on Geoscience and Remote Sensing, vol.
37, no. 3, May 1999, 1204- 1211.
[6] S. Mallat, “Wavelets for a vision”, Proceedings of the IEEE, vol. 84,
no. 4, April, 1996, 604- 614.
[7] H. Ma, C. Jia & S. Liu, ‘’ Multisource image fusion based on wavelet
transform’’, International journal of information technology, vol. 11,
no. 7, 2005, 18- 91.
[8] F. Laporterie & G. Flouzat, “Fusion de données multirésolution et
multitemporelle par la pyramide morphologique. Application a la fusion SPOT 4 HRVIR/ Végétation” Bulletin SFPT, no 168, 2003, 6472.
[9] L. Wald, “ Data fusion definitions and architectures, fusion of images of different spatial resolution”, Ecole des Mines de Paris, ISBN:
2-911762-38-x, 2002, 198 p.
[10] Y. Zhang, “A new merging method and its spectral and spatial effects”, Int. J. Remote Sens., vol 20, May 1999, 2003-2014.

Documents pareils