Etude comparative de méthodes de fusion d`images satellitaires
Transcription
Etude comparative de méthodes de fusion d`images satellitaires
Journées d’Animation Scientifique (JAS09) de l’AUF Alger Novembre 2009 Etude comparative de méthodes de fusion d’images satellitaires S. Massout 1, N. Habili, W. Kettab, N. Ouarab, Y. Smara2 Laboratoire de Traitement d’Images et Rayonnement, Faculté d’Électronique et d’Informatique Université des Sciences et de la Technologie Houari Boumediene BP 32 El-Alia Bab Ezzouar, 16111 Alger Algérie 1 [email protected]. 2 [email protected]. Résumé— la fusion d’images consiste à combiner des images de différentes sources afin de synthétiser de nouvelles images plus riche en information. Plusieurs méthodes de fusion ont été développées pour l’amélioration de la résolution spatiale des images multispectrales. Dans cette article, nous présentons des méthodes de fusion d’images en exploitant la pyramide morphologique, la transformée en IHS, l’analyse multirésolution associée aux ondelettes et la combinaison de la transformée en IHS et les ondelettes. Les méthodes étudiées et mis en œuvre sont appliquées sur les images de satellites SPOT représentant la région d’Alger. Les résultats de la fusion sont évalués de point de vue information spatiale et spectrale. Mots clefs — fusion d’images, analyse multirésolution, transformée en IHS. I. INTRODUCTION La plupart des satellites d’observation de la terre fournissent des images de différentes résolutions spatiales, spectrales et temporelles. Afin de mieux exploiter ces données, il est apparu nécessaire de les fusionner. La fusion de données est un ensemble de techniques, d’outils et de moyens utilisées afin d’avoir de nouvelles images plus riche en information. La fusion de données peut être exécutée à trois niveaux différents à savoir le niveau pixel, le niveau caractéristiques et le niveau décision. Dans le but d’améliorer la résolution spatiale des images multispectrales, plusieurs méthodes de fusion aux niveaux pixels et caractéristiques ont été développées dans la littérature [1]. Dans cet article, nous présentons les techniques de fusion d’images en exploitant les outils suivants ; la transformée en IHS (Intensity, Hue and Saturation), l’analyse multirésolution associée aux ondelettes, la combinaison de la transformée en IHS et les ondelettes et la pyramide morphologique. Pour tester et évaluer les résultats de la fusion, nous avons utilisé les images de satellite SPOT (une image de haute résolution spatiale et trois images multispectrales de faible résolution). Puis nous avons comparé les images synthétisées avec les images originales en utilisant des paramètres statistiques (évaluation spatiale et spectrale) et un deuxième type d’évaluation visuelle en utilisant la composition colorée. II. OUTILS MATHEMATIQUES Plusieurs méthodes de fusion ont été testées pour l’amélioration de la résolution spatiale des images multis- pectrales. Dans cette section, nous présentons le principe d’outils mathématiques que nous allons exploiter par la suite pour la fusion. Ces outils sont la pyramide morphologique la transformée en IHS et l’analyse multirésolution associée aux ondelettes. Dans un premier temps nous présentons le principe de la pyramide morphologique. A. Pyramide morphologique La pyramide morphologique est l’association des algorithmes pyramidaux et la morphologie mathématique. Cette méthode nécessite deux étapes [1] : La première est la décomposition pyramidale. Elle consiste à construire une pyramide morphologique telle que la base de la pyramide soit représentée par l’image haute résolution. Les images des différents niveaux sont les approximations de l’image originale obtenues en utilisant des opérateurs morphologiques et des algorithmes d’échantillonnage. Une deuxième pyramide est générée, elle est appelée pyramide des détails qui représentent les hautes fréquences calculées à partir des images de deux niveaux successifs. La deuxième étape est la recomposition pyramidale. Elle permet d’avoir l’image originale. ¾ Principe de décomposition Le principe de décomposition consiste en une itération d’une transformation qui permet le passage d’un niveau de pyramide à un autre (de la base de la pyramide vers le sommet). Cette transformation est composée d’un filtre morphologique et d’un algorithme de sous échantillonnage afin de réduire la taille de l’image. Le passage à un niveau supérieur se fait en réalisant les quatre étapes suivantes : - application d’un filtrage morphologique ; - calcul de la différence entre l’image initiale et l’image filtrée ; - application d’un algorithme de sous échantillonnage ; - calcul de la différence entre l’image avant et après échnatillonnage. • Filtrage Cette étape consiste à appliquer un filtre morphologique sur l’image originale Ι (x k , y l ) où : i i est l’indice de l’image originale, (x k , yl) est l’indice du pixel sur la grille de l’image, k et l sont respectivement le nombre de lignes et de colonnes. Cette opération est donnée par : (1) IF i (x ki , y li ) = FM B , i (I i (x ki , y li )) Journées d’Animation Scientifique (JAS09) de l’AUF Alger Novembre 2009 Où : IF i est l’image filtrée de Ii au niveau i ; FM est le filtre morphologique ; B est l’élément structurant associé au filtre morphologique. • Calcul des détails dus au filtrage Après l’opération de filtrage, quelques structures de l’image originale n’apparaissent pas dans l’image filtrée. Cette partie, séparée de l’image initiale, est la composante haute fréquence éliminée par le filtrage et qui représente les détails. Les deux équations suivantes permettent le calcul des détails répartis en Dsup, filtre, i et Dinf, filtre, i au niveau i : D sup, filtre,i (X ki , Y li ) = sup{ Ii (X ki , Y li ), IFi (X ki , Y li ) } − IFi (X ki , Y li ) (2) D inf,filtre,i (X ki , Y li ) = sup{ Ii (X ki , Y li ), IFi (X ki , Y li ) }− Ii (X ki , Y li ) (3) ∀ X ki ∈ [1,..., ki], ∀ Y li ∈ [1,..., li] Où : Dsup,filtre,i correspond aux zones plus claires sur l’image initiale que sur l’image filtrée, Dinf, filtre,i correspond aux zones plus sombres sur l’image initiale que sur l’image filtrée. • Sous échantillonnage Le sous échantillonnage est appliqué sur l’image filtrée. Il permet de réduire la taille de l’image en allant d’un niveau de la pyramide à un niveau supérieur. Le sous échantillonnage dépend de deux paramètres qui sont : - Le pas de sous échantillonnage ; - L’algorithme de sous échantillonnage. Après l’opération de sous échantillonnage, nous calculons les détails dus à cette opération. • Détail dus au sous échantillonnage Pour ne pas perdre d’informations lors de la décomposition, il est nécessaire de calculer les détails dus au sous échantillonnage. Ces détails sont calculés par la différence entre l’image avant et après sous échantillonnage, c'est-à-dire entre l’image filtrée et l’image sous échantillonnée. Après avoir interpolé l’image sous échantillonnée à la même taille que celle de l’image filtrée, on calcule deux images de détails avec les équations suivantes : B. Transformée en IHS La transformée en IHS permet le passage de l’espace de couleur RVB (Rouge, vert et bleu) vers l’espace IHS (Intensité, Teinte et Saturation). Elle donne la possibilité de séparer l’information spatiale dans l’image intensité et l’information spectrale dans les images teinte et saturation. Nous avons effectué plusieurs tests avec les différents modèles de la transformée en IHS et nous avons constaté que le modèle triangulaire donne des meilleurs résultats par rapport aux autres modèles. Ce modèle est donné par les formules suivantes [2]: 1 I = I′ (6) 3 I′ = R + G + B H= G − 3B I′ − 3B , S= , I′ − 3B I′ si B est minimum B−R I′ − 3R + 1, S = , si R est minimum I′ − 3R I′ R −G I ′ − 3G H= + 2, S = , si G est minimum I ′ − 3G I′ La transformée inverse est donnée par : H= 1 ⎧ ⎪R = 3 I′(1 + 2S − 3SH ) ⎪ 1 ⎪ ⎨G = I′(1 − S + 3SH ) 3 ⎪ 1 ⎪ ⎪B = 3 I′(1 − S) ⎩ 1 ⎧ ⎪R = 3 I′(1 − S) ⎪ 1 ⎪ ⎨G = I′(1 + 5S − 3SH ) 3 ⎪ 1 ⎪ ⎪B = 3 I′(1 − 4S + 3SH ) ⎩ (7) Lorsque B est minimum (8) Lorsque R est minimum (9) 1 ⎧ ⎪R = 3 I′(1 − 7S + 3SH ) ⎪ 1 ⎪ Lorsque G est minimum ⎨G = I′(1 − S) 3 ⎪ 1 ⎪ ⎪B = 3 I′(1 + 8S − 3SH ) ⎩ (10) Après avoir donné le principe de la transformée en IHS, nous allons présenter les étapes de l’analyse multirésolution Dsup, deci, i (x ki , yli) = sup[IFi (x ki , yli), Ii +1, int (x ki , yli)] − Ii +1, int(x ki , yli) associés aux ondelettes. (4) C. Analyse multirésolution associé aux ondelettes Dinf, deci, i (X ki , y li) = sup[IFi (x ki , y li), Ii + 1, int (x ki , yli)] − IFi (x ki , yli) ∀ x ki ∈[1,..., ki], ∀ y li ∈[1,..., li] (5) ¾ Principe de la recomposition La recomposition de la pyramide morphologique est basée sur l’itération de deux opérations de base : - Sur échantillonnage ; - Ajout des détails. Après avoir présenté le principe de la pyramide morphologique. Nous allons donner le principe de la transformée en IHS. La transformée en ondelettes est un outil mathématique qui détecte les caractéristiques locales dans le traitement du signal. Elle également utilisée dans la décomposition des signaux bidimensionnels (image numérique) à différents niveaux de résolutions [3], [4], [5] et [6]. Les coefficients (détails) de la transformée en ondelettes discrète sont calculés par l’utilisation d’une série de filtre passe bas h, filtre passe haut g, et un sous échantillonnage des lignes et colonnes. Le processus de décomposition par les ondelettes est appliqué sur une image de niveau j pour donner une image de basse fréquence (approximation) et trois images des hautes fréquences (les détails dans les directions verticales, hori- Journées d’Animation Scientifique (JAS09) de l’AUF Alger Novembre 2009 zontales et diagonales). En passant d’un niveau j à j+1 la taille de l’image approximation et des images de détails (coefficients) est réduite de 4. La recomposition permet de retrouver l’image originale à partir de l’image approximation et des images de détails. III. TECHNIQUES DE FUSION D’IMAGES Dans le processus de fusion d’images, les données à combiner doivent représenter la même zone géographique. Avant d’appliquer le processus de fusion, il est nécessaire de faire un prétraitement des données. Ce prétraitement consiste en correction radiométrique et géométrique. Une fois la correction est faite, nous applique la technique de fusion. Dans cette partie, nous présentons le principe des quelques méthodes de fusion en utilisant les outils presentes précédemment. - Spécification de l’histogramme de l’image haute résolution spatial au celui des images multispectrales ; - Décomposer de l’image panchromatique en une image d’approximation et trois coefficients d’ondelettes ; - Remplacer chacune approximation de l’image panchromatique par l’image multispectrale ; - La transformée en ondelettes inverse permet de synthétiser les images multispectrale à haute résolution spatiale. Pan ‘histogramme spécifié R B V I H H S S Transformée en IHS R* B* V* Transformée en IHS inverse Fig.1 Schéma de fusion d’images par la transformée en IHS Cette méthode présent l’avantage d’introduire l’information spatiale, mais l’inconvénient de cette méthode de fusion réside dans la limitation du nombre d’images à fusion. Pour cela, nous présentons une autre méthode de fusion d’images basée sur les ondelettes. B. Fusion d’images par les ondelettes Le schéma de la figure (2) montre le concept de processus de fusion par les ondelettes. La fusion d’images par cette méthode s’effectue en respectant les étapes suivantes [7] : Hp Vp Dp P A. Fusion d’image par la transformée en IHS Sur la figure (1), nous présentons le schéma de fusion d’images par la transformée en IHS [2]. Le processus de fusion par cette méthode est résumé dans les étapes suivantes : - Reéchantillonnage des images multispectrales à la taille de l’image haute résolution ; - Application de la transformée IHS sur les images multispectrales ; - Spécification de l’histogramme de l’image haute résolution par rapport à celui de l’image d’intensité et remplace l’image intensité par l’image de haute résolution ; - Application de la transformée en IHS inverse. AP Ab Vp Ab Hb Vb Db H Dp Band Fig.2 Schéma de fusion d’images par les ondelettes L’exploitation de la transformée en IHS et l’analyse multirésolution associé aux ondelettes permet de donner une nouvelle méthode de fusion d’images. Cette méthode consiste à combiner les deux outils. Le principe de fusion d’images par cette combinaison est évoqué dans la partie suivante. C. Fusion d’images par la combinaison de la transformée en ondelettes et IHS Le processus de fusion par cette méthode est résumé dans les points suivants : - Reéchantillonnage des images multispectrales à la taille de l’image de haute résolution spatiale ; - Application de la transformée en IHS sur les images multispectrales ; - Application de l’analyse multirésolution associée aux ondelettes sur les images de haute résolution (panchromatique et intensité) ; - Application de la transformée en ondelettes inverse sur l’approximation de l’image intensité et les coefficients d’ondelettes de l’image panchromatique. L’application des méthodes de fusion d’images citées cidessus permet de synthétiser des images multispectrales à haute résolution comme est illustré dans la figure (3). Journées d’Animation Scientifique (JAS09) de l’AUF Alger Novembre 2009 MS1 PAN S MS2 IHS T I MS 3 Histogramme spécifié PAN2 Décomposition en Ondelettes LH’ LL’ HH’ HL’ Substitution LHp LLp HHp HLp LHp LL’ IHS Inverse HHp HLp Bande N Ondelettes inverse Bande 2 Bande 1 I’ Fig.3 Schéma de fusion d’images par la combinaison de la transformée en IHS et les ondelettes D. Fusion d’images par la pyramide morphologique Nous nous sommes inspirés des travaux de F. Lapoterie [8], pour étudier et mettre en œuvre les algorithmes de fusion d’images par la pyramide morphologique. Le principe de cette méthode est schématisé par la figure (4). Le principe de cette méthode consiste à appliquer le processus de décomposition sur l’image haute résolution spatiale pour séparer les hautes fréquences qui représentent les images de détails des différents niveaux de la pyramide des basses fréquences représentées par les approximations de l’image d’entrée. Image Haute Résolution Spatiale Décomposition par la Pyramide Morphologique Image Basse Résolution Calculée par la Pyramide Image Fusionnée Calcul des Détails + Image Basse Résolution Spatiale Fig.4 Synoptique de fusion d’images par la pyramide morphologique Le processus de décomposition de l’image haute résolution spatiale est défini par une itération de filtrage (filtre morphologique) et d’un algorithme de sous échantillonnage. Le nombre de niveaux de la pyramide morphologique est donné par le rapport des résolutions entre l’image haute résolution spatiale et l’image de basse résolution ainsi que le pas de sous échantillonnage. Le processus de recomposition permet de synthétiser l’image multispectrale à haute résolution spatiale, nous appliquons une interpolation de l’image basse résolution (multispectrale) et un ajout de détails calculés lors de la décomposition de l’image haute résolution. Une fois les images multispectrales sont synthétisées à la haute résolution spatiale disponible. La prochaine étape consiste à tester et à évaluer les différentes méthodes de fusion d’images citées antérieurement. IV. EVALUATION DES RESULTATS DE FUSION A. Images utilisées Pour la mise en œuvre pratique, nous avons exploité les images prises sur la région d’Alger : une image panchromatique à haute résolution spatiale et une image multispectrale à trois bandes (XS1, XS2, XS3) à basse résolution spatiale (5). Ces images sont issues du capteur HRV du satellite SPOT et représentent la zone Est de la baie d’Alger (sur une zone qui couvre la région de Bab-Ezzouar). L’image sur la région d’Alger est constituée d’un milieu urbain et périurbain et elle est acquise le 01 Avril 1997. La scène est très structurée et hétérogène. Les caractéristiques (résolutions spectrales, spatiales et di- Journées d’Animation Scientifique (JAS09) de l’AUF Alger Novembre 2009 mensions en pixels) de ces images sont données dans le tableau ( 1). 100 1 N 2 (12) ∑ RMSE (Bi ) M N i =1 Dans la formule de RASE, M est la moyenne radiance des N bandes spectrales ( Bi ) des bandes MS originales. Une faible valeur de RASE indique une conservation de l’information spectrale. - Paramètre ERGAS Erreur relative globale dimensionnelle dans la synthèse (Relative Dimensionless Global Error in Synthesis) permet de calculer la distorsion (déformation) spectrale dans l’image. Il est donné par la formule suivante : RASE = ERGAS = 100 5. a. Image panchromatique originale 5. b. Composition colorée des images XS originales Fig.5 Images d’Alger (SPOT) Bandes specRésolutions trales spatiales Panchromatique 0.51-0.73 μm 10 m XS1 0.51-0.59 μm 20 m XS2 0.61-0.68 μm 20 m XS3 0.79-0.89 μm 20 m Tab. 1. Caractéristiques des images d’Alger Dimensions (pixels) 660×660 330×330 330×330 330×330 - Paramètres d’évaluation Pour l’évaluation de la qualité spectrale des images synthétisées, nous utilisons les paramètres suivants : coefficient de corrélation, RASE (Relative Average Spectral Error), ERGAS (Relative Dimensionless Global Error in Synthesis) [9]. - Coefficient de corrélation Le coefficient de corrélation entre l’image fusionnée et l’image originale est donné par la formule suivante : ∑ mn (A mn − A )(Bmn − B) (11) CC(A, B) = (∑ mn (A mn − A ) 2 )(∑ mn (Bmn − B) 2 ) Où A et B indiquent les valeurs moyennes de jeu de donnée correspondant, et CC est un calcul global de l’image entier. Le résultat de cette équation indique la similarité entre les petites structures de l’image originale et l’image fusionnée lorsque le coefficient de corrélation est proche de 1 et une faible similarité pour un coefficient de corrélation proche de 0 (zéro). - Paramètre RASE Ce paramètre estime la qualité spectrale globale des images fusionnées. L’expression de paramètres RASE est donnée comme suit : h l 1 N ⎡ (RMSE (B k ))2 ⎤ ⎥ ∑⎢ N k =1 ⎢⎣ (M k )2 ⎥⎦ (13) Où : h est le rapport entre la taille de pixel de l’image panl chromatique et de l’image multispectrale, N est le nombre de bandes. Plus la valeur de l’ERGAS est proche de zéro plus il y a conservation de l’information spectrale. Pour évaluer la qualité spatiale des images fusionnées, nous comparons les hautes fréquences de l’image panchromatique et les hautes fréquences de chacune des images fusionnées. Pour cela, nous utilisant la méthode proposée par Zhou en 1999 [10]. Pour l’extraction des données hautes fréquences, nous appliquons le mask de convolution pour l’image : ⎡− 1 − 1 − 1⎤ (14) mask = ⎢⎢− 1 8 − 1⎥⎥ ⎣⎢− 1 − 1 − 1⎦⎥ Nous comparons les résultats des images filtrées, en utilisant un coefficient de corrélation entre les hautes fréquences de l’image panchromatique et celle de l’image fusionnée. Un coefficient de corrélation proche de 1 indique une similarité entre les structures de l’image panchromatique et l’image fusionnée et proche de 0 (zéro) une faible similarité. B. Evaluation quantitative Les résultats de fusion d’images en utilisant la transformée en IHS, l’analyse multirésolution associée aux ondelettes, la combinaison des deux méthodes et la pyramide morphologique sont présentés dans la figure (6). L’aspect visuel de la composition colorée des images synthétisées nous permet de constater que l’information spatiale est mieux introduite avec la transformée en IHS tout en réduisant la conservation de l’information spectrale puisque cette méthode a l’avantage de séparer l’information spatiale dans l’image intensité et qui a été remplacée par l’image panchromatique. Cependant, la fusion d’images en exploitant la transformée en ondelettes et la combinaison de la transformée en IHS et les ondelettes conserve mieux l’information spectrale puisque ces méthodes utilisent des filtres linéaires et l’analyse multirésolution. Journées d’Animation Scientifique (JAS09) de l’AUF Alger Novembre 2009 6. a. Composition colorée des images synthétisées avec la transformée en IHS 6. b. Composition colorée des images synthétisées avec les ondelettes 6. c. Composition colorée des images synthétisées avec la transformée en IHS et les ondelettes 6. d. Composition colorée des images synthétisées avec la pyramide morphologique 6. e. Zoom d’une région de la composition colorée des images synthétisées avec la transformée en IHS 6. f. Zoom d’une région de la composition colorée des images synthétisées avec les ondelettes 6. g. Zoom d’une région de la composition colorée des images synthétisées avec la combinaison de la transformée en IHS et les ondelettes 6. h. Zoom d’une région de la composition colorée des images synthétisées avec la pyramide morphologique Fig.6 Résultats de fusion avec les différentes méthodes L’utilisation de la pyramide morphologique permet à la fois d’introduire l’information spatiale et de conserver l’information spectrale. C. Evaluation quantitative Dans le tableau suivant, nous présentons les valeurs des paramètres statistiques de l’évaluation spectrale. XS1 96,124 % XS2 XS3 CC 95,968 % 36,388 % HIS RASE 24,818 ERGAS 10,999 CC 86,559 % 82.434 % 79,835 % Ondelettes RASE 3,777 ERGAS 1,771 CC 87,838 % 89,905 % 83,472 % Combinaison RASE 22,981 ERGAS 10,202 CC 92,043 % 86,073 % 84,729 % Pyramide morRASE 3,488 phologique ERGAS 1.652 Tab. 2 Evaluation de l’information spectrale des images synthétisées Dans le tableau (Tab. 2), nous avons présenté deux types de paramètre statistique. Le premier est le coefficient de corrélation qui est calculé pour chaque bande. L’utilisation de ce paramètre pour comparer chaque image synthétisée par rapport à l’image originale, nous permet de constater que l’utilisation de la transformée en IHS donne des résultats encourageants pour les bandes 1 et 2 (XS1 et XS2), cependant la combinaison de la transformée en IHS et les ondelettes donne de meilleur résultat pour la bande 3 (XS3). Le deuxième type de paramètre statistique contient le RASE et l’ERGAS. Ces deux paramètres permettent d’évaluer l’ensemble des bandes. Nous remarquons que les valeurs du RASE et de l’ERGAS obtenues sont meilleurs lors de l’utilisant les ondelettes. Donc la fusion d’images par l’analyse multirésolution associée aux ondelettes permet de conserver l’information spatiale. Les valeurs données dans le tableau suivant représentent les résultats des coefficients de corrélation entre les hautes fréquences de l’image panchromatique et les hautes fréquences des images fusionnées. XS1 IHS 98,055 % Ondelettes 8,753 % Combinaison 14,224 % Pyramide morpho92,866 % logique Tab. 3 Evaluation de l’information spatiale XS2 96,960 % 10,423 % 12,198 % XS3 96,118 % 6,117 % 6,821 % 94,328 % 88,607 % Nous remarquons que les meilleurs valeurs de coefficient de corrélation (proches de 100 % ou de 1) sont obtenues lors de l’utilisation de transformée en IHS. Donc cette méthode converse mieux l’information spatiale lors de processus de fusion d’images. V. CONCLUSION Dans cet article nous avons présenté et comparé des méthodes de fusion d’images satellitaires en exploitant la transformée en IHS, l’analyse multirésolution associée aux ondelettes, la combinaison de la transformée en IHS et les ondelettes et la pyramide morphologique. Nous avons remarqué que l’utilisation de la méthode basée sur la transformée en IHS introduit mieux l’information spatiale cependant l’information spectrale n’est pas bien préservée. L’utilisation de cette méthode IHS est limitée à trois (03) images en entrée. Les méthodes de fusion par les ondelettes et la combinaison ondelettes et IHS conservent l’information spectrale, mais introduisent moins l’information spatiale. La méthode basée sur l’analyse mul- Journées d’Animation Scientifique (JAS09) de l’AUF Alger Novembre 2009 tirésolution associée aux ondelettes est limitée au rapport dyadique entre les images d’entrées. Cependant la méthode de combinaison est limitée au rapport dyadique et trois images en entrée. Puis nous avons appliqué ces méthodes sur les images du satellite SPOT représentant la région d’Alger. Pour l’évaluation des résultats de la fusion, nous nous sommes basés sur un aspect visuel et statistique. VI. REFERENCES [1] F. Laporterie, G. Flouzat & O. Amram, “Mathematical morphology multi-level analysis of trees patterns in savannas”, IEEE In : IGARSS, Sydney, Australia, 2001. [2] Y. Zhang & G. Hong, “An IHS and wavelet integrated approach to improve pan-sharpening visual quality of natural colour IKONOS and QuickBird images,” Information Fusion 6, 2005, 225-234. [3] S. G. Mallat, “A theory for multirésolution signal decomposition the wavelet representation”, Comm. Pure Appl. Math, vol 41, 1988, 674693. [4] L. Wald & T. Ranchin “The ARSIS concept in image fusion : an answer to users needs”, IEEE Information fusion ISIF, 2003, 168-173. [5] J. Nunez, X. Otazu, O. Fors, A. Prades, V. Pala & R. Arbiol, “Multiresolution-based image fusion with additive wavelet decomposition’’, IEEE Transactions on Geoscience and Remote Sensing, vol. 37, no. 3, May 1999, 1204- 1211. [6] S. Mallat, “Wavelets for a vision”, Proceedings of the IEEE, vol. 84, no. 4, April, 1996, 604- 614. [7] H. Ma, C. Jia & S. Liu, ‘’ Multisource image fusion based on wavelet transform’’, International journal of information technology, vol. 11, no. 7, 2005, 18- 91. [8] F. Laporterie & G. Flouzat, “Fusion de données multirésolution et multitemporelle par la pyramide morphologique. Application a la fusion SPOT 4 HRVIR/ Végétation” Bulletin SFPT, no 168, 2003, 6472. [9] L. Wald, “ Data fusion definitions and architectures, fusion of images of different spatial resolution”, Ecole des Mines de Paris, ISBN: 2-911762-38-x, 2002, 198 p. [10] Y. Zhang, “A new merging method and its spectral and spatial effects”, Int. J. Remote Sens., vol 20, May 1999, 2003-2014.