Méthodes d`analyse d`image
Transcription
Méthodes d`analyse d`image
Pour le controle continu EF, publication sur: http://www-lgge.obs.ujf-grenoble.fr/~picard/enseignement Méthodes d'analyse d'image Plan (6h): 1) Notion de produit et de niveau. 2) géocodage, orthorectification, calibration. 3) filtrage et réduction de dimensionnalité 4) classification automatique. 5) analyse temporelle. Notion de produit et de niveau. Chaîne d'acquisition des images. Exemple de SPOT4. Le Centre de Programmation Les Centres de Contrôles Les stations de suivi des satellites Les Stations de Réception Directe Centre de traitement et archivage Notion de produit et de niveau. Chaîne d'acquisition des images. Exemple de SPOT4. Le Centre de Programmation Les Centres de Contrôles Les stations de suivi des satellites Les Stations de Réception Directe Centre de traitement et archivage Notion de produit et de niveau. Les images brutes sont 1) archivées et 2) traitées pour constituer des produits de plus haut niveau. Niveau 0: information brute transmise par le satellite. Niveau 1: image calibrée (donnée « swath »). Niveau 2: image géoréferencée. Fournie uniquement la mesure « physique » acquise par le satellite. Niveau 3: produit géophysique. Fournie des mesures physiques dérivées. En tant qu'utilisateur on s'intéresse uniquement aux niveaux 2 et 3. !! Il n'y a pas de définition précise pour les niveaux. Exemple MODIS: MOD01 MOD021KM MOD05_L2 MOD08_D3 MODIS/Terra MODIS/Terra MODIS/Terra MODIS/Terra Raw Radiances in Counts 5-Min L1A Swath Calibrated Radiances 5-Min L1B Swath 1km Total Precipitable Water Vapor 5-Min L2 Swath 1km ... Aerosol Cloud Water Vapor Ozone Daily L3 Global 1Deg... Opérations à executer : calibration, géocodage/orthorectification, mosaicage, algorithme scientifique. Méthodes d'analyse d'image Plan (6h): 1) Notion de produit et de niveau. 2) géocodage, orthorectification, calibration. 3) filtrage et réduction de dimensionnalité 4) classification automatique. 5) analyse temporelle. Calibration Le satellite mesures et renvoie pour chaque pixel un Compte Numérique (ex: de 0 à 255) Le physicien a besoin d'une grandeur physique (avec des unités physiques). Exemples: * radiométrie optique: Luminance (W.m-2.sr-1.m-1) * radiométrie micro-ondes: température de brillance (K) De plus, les instruments sur les satellites « dérivent », il faut donc calibrer /étalonner les mesures. Exemple: calibration « on-board », calibration externe. Calibration Exemple: calibration « on-board » de Météosat. Calibration Exemple: calibration externe en radar micro-ondes Exemple: calibration externe en micro-ondes passive pour SMOS. Projet d'utiliser le plateau Antarctique. Orthorectification et géocodage Orthorectification: Corriger les distortions géométriques liées à l'acquisition: * soit venant du système optique (surtout sur les avions) * soit venant de la plateforme: gite, tangage, etc (surtout sur les avions ou les satellites très hautes résolutions) * soit venant du relief Géocodage: produire une image dans une projection géographique connue et pratique. 1 solution: on repère sur l'image des objets dont on connaît les coordonnées géographiques. Orthorectification et géocodage Exemple: mise en correspondance de points entre une image géocodée et une image brute. Mosaicage Mettre des images acquises à différentes dates ensemble. Exemple: Image haute-resolution en Hymalaya Différence de conditions atmosphériques Mosaicage Exemple: Image globale AMSR Acquise le 9/10/06 En cours d'acquisition le jour même, le 13/10/06 http://sharaku.eorc.jaxa.jp/cgi-bin/adeos2/amsr/l3brws/l3brws_top.cgi?lang=e Méthodes d'analyse d'image Plan (6h): 1) Notion de produit et de niveau. 2) géocodage, orthorectification, calibration. 3) filtrage et réduction de dimensionnalité 4) classification automatique. 5) analyse temporelle. Filtrage Filtrage But du filtrage: éliminer des effets parasites ou augmenter les effets intéressants. * opérations purement géométriques (traitement d'image). * correction physique (combinaison de bande, ...). Filtrage Filtre basse fréquence: 1) suppose que le bruit est à haute fréquence et que le signal est à basse fréquence. Technique moyenne glissante. Fenètre glissante CN Signal (+bruit) original 1D Signal filtré x 2D Pour chaque position, on calcule la moyenne sur la fenêtre et on attribue cette valeur au pixel du milieu. Fenêtre 3x3, 5x5, ... ... en pratique chaque pixel de la fenêtre à un poids. Filtre gaussien: Filtrage Exemple de filtrage basse fréquence (fort) Filtrage Formulation mathématique pour les filtres linéaires: convolution de l'image avec un noyau. Image filtrée Avant Image originale Noyau de convolution ou filtre ou reponse impulsionnelle Après Le bruit est réduit mais les petites transitions sont effacées. Filtrage Il existe d'autres types de filtre: ex filtre médian, filtre adaptatif, etc. Exemple filtrage d'une image SAR par filtre adaptatif (permet de supprimer le bruit, mais conserve assez bien les transitions). Réduction de dimensionalité Objectif: réduire le nombre de bandes avant analyse automatique ou visuel. Les satellites mesurent dans un nombre de plus en plus important de bandes spectrales pour satisfaire un plus large nombre d'applications. Soit on utilise les quelques bandes dont on a besoin, soit on utilise le maximum de bande, mais on les combine avant analyse, ... Exemples traités: 1) Indices 2) Analyse en Composantes Principales Réduction de dimensionalité Indice de végétation: Normalized Difference Vegetation Index NDVI = NIR − R NIR + R NIR: luminance proche infrarouge. Maximum de réflectance de la végétation R: luminance rouge. Minimum de réflectance de la végétation Réduction de dimensionalité Avantage de travailler avec l'Indice de végétation: 1. Une seule valeur pour mesurer la quantité de végétation. 2. Utilise un rapport sans unité (qui varie en pratique de -0.3 à 1) relativement peu sensible aux problèmes de calibration, d'angle solaire, ... Image de NDVI en pseudo-couleur rouge: fort NDVI bleu: faible NDVI Réduction de dimensionalité Analyse en composantes Principales. ACP ou PCA en Anglais. Idée de base: si deux bandes sont bien corrélées entre elles (= elles fournissent une information similaire) alors autant n'en utiliser qu'une des deux. Généralisation: On cherche les combinaisons linéaires de bande qui maximise l'information (=la variance). Exemple avec 2 bandes: Bande 2 Scatterogramme. Var[bande2] Var[bande1] Bande 1 Réduction de dimensionalité Analyse en composantes Principales. ACP ou PCA en Anglais. Bande 2 ] 1 [C r Va Var[bande2] Var[bande1] Bande 1 La combinaison linéaire C1 entre B1 et B2 représentée par la droite verte explique le plus de variance. Il est avantageux de remplacer B1 et B2 par C1 ! On perd de l'information, mais un minimum. C1 s'appelle la première composante principale. Réduction de dimensionalité Analyse en composantes Principales. ACP ou PCA en Anglais. Bande 2 Var[C2] ] 1 [C r Va Bande 1 La combinaison linéaire C2 entre B1 et B2 représentée par la droite verte explique le plus de variance après C1. C2 est la deuxième composante principale. Faire une ACP c'est calculer les combinaisons linéaires C1 et C2 telles que: C1 explique l'essentiel de la variance. C2 explique l'essentiel de la variance après C1 C1 et C2 soit perpendiculaire. Réduction de dimensionalité: on ne garde que C1 Réduction de dimensionalité Analyse en composantes Principales. ACP ou PCA en Anglais. Généralisation à N variables: Calcule des N composantes principales. Réduction de dimensionalité: On ne conserve que les p premières composantes. On peut determiner p afin que les p premières composantes explique au moins X% de la variance (par exemple 80%) PCs 1 et2 Réduction de dimensionalité PCs 3 et 4 Réduction de dimensionalité PCs 5 et 6 Réduction de dimensionalité L'intérêt ne se limite pas à la réduction de dimensionalité: détection de signature particulière. Réduction de dimensionalité L'intérêt ne se limite pas à la réduction de dimensionalité: détection de signature particulière. Image MODIS contenant 6 bandes (seule 3 bandes sont représentées ici) 2 composantes principales sont représentées ici, une en rouge l'autre en cyan (bleu+vert) Méthodes d'analyse d'image Plan (6h): 1) Notion de produit et de niveau. 2) géocodage, orthorectification, calibration. 3) filtrage et réduction de dimensionnalité 4) classification automatique. 5) analyse temporelle. Classification L'objectif général des classifications est de traduire des informations spectrales (bandes) en classes thématiques (d'occupation du sol, par ex.) 3 bandes => thèmes: occupation du sol approches par pixel (analyse multi-spectrale, segmentation d'indice) approche par zone (détection de contour, texture) approche par objet (analyse morphologique, détection de formes) Méthodes d'analyse d'image Plan (6h): 1) Notion de produit et de niveau. 2) géocodage, orthorectification, calibration. 3) filtrage et réduction de dimensionnalité 4) classification automatique. 4.1) Notions de ressemblance. 4.2) Algorithmes de classification automatique. Supervisés et non-supervisés 4.3) Test des classifications. 4.4) Exemples. 5) analyse temporelle. Classification Classes thématiques: Pixel appartenant à un groupe thématique. Ex: classes d'occupation du sol : forêt, eau, sol nu, etc. Classification: Information spectrale/temporelle continue => information thématique discrète. (ex: 7 bandes=> 7 variables de 0-255) (ex: 4 classes différentes... codée avec 1 variables de 1-4) Pour classifier on a besoin: Ressemblance: pour déterminer la ressemblance d un pixel avec une classe, donc sa possible appartenance, on utilise les critères de distance (euclidienne, pondérée, ...) ou de probabilité. SIGNATURE SPECTRALE + L'appartenance: les critères d'attribution d'un pixel à une classe donnée sont établis par une fonction discriminante qui décidera de l'appartenance d un pixel à une classe. Notion de ressemblance et classification manuelle Idée: regrouper les pixels de signature spectrale voisine. Exemple: Image 1 bande. Notion de ressemblance et classification manuelle Idée: regrouper les pixels de signature spectrale voisine. Exemple: Image 1 bande. Histogramme Classe 1 Classe 2 Histogramme Notion de ressemblance et classification manuelle Idée: regrouper les pixels de signature spectrale voisine. Exemple: Image 2 bandes. Méthodes d'analyse d'image Plan (6h): 1) Notion de produit et de niveau. 2) géocodage, orthorectification, calibration. 3) filtrage et réduction de dimensionnalité 4) classification automatique. 4.1) Notions de ressemblance. 4.2) Algorithmes de classification automatique. Supervisés et non-supervisés 4.3) Test des classifications. 5) analyse temporelle. Classifications automatiques: supervisées et non-supervisées. Les deux grandes approches de classification: Classification non-supervisée: pas de connaissance a priori, les classes sont créées automatiquement par l'algorithme. Les classes sont “étiquetées” par thème a posteriori. 1/ classification 2/ étiquettage manuelle 3/ tests Classification supervisée: les connaissances a priori sont utilisées pour la création des classes par saisie d'échantillons et zones d'entraînement. 1/ apprentissage 2/ classification 3/ tests Méthodes de classifications non-supervisées. 3 Méthodes les plus populaires: K-mean et sa variante ISODATA Ascendante hiérarchique Méthodes K-mean (nuées dynamiques ou centres mobiles) et ISODATA. Exemple dans le cas de 2 bandes. L'utilisateur demande K classes (ici 2) 1) Choix de K points arbitrairement (centre) 2) Attribution des pixels au centre le plus proche. 3) Calcul des nouveaux centres de classe (barycentre des pixels appartenant à la classe). 4) Continuer tant que les centres changent de positions. Amélioration: Méthode ISODATA. Fusionne les nuages trop petits et segmente les nuages trop gros: l'algo choisit automatiquement K !! Méthodes K-mean (nuées dynamiques ou centres mobiles) et ISODATA. Classification hiérarchique ascendante. Ascendante: agrégation de classe. Initialisation: chaque pixel est une classe. 1) Calcule les distances entre toutes les classes. 2) Agrège les 2 classes les plus proches 3) itère 1) et 2) tant que le nombre de classe souhaité n'est pas atteint. Choix de la distance: Lien minimum / maximum: distance minimale /maximale entre deux membres de chacune des classes. Distance moyenne: moyenne des distances entre les membres de chaque classe. Critère de Ward: distance entre les moyennes + correction par le nombre d'éléments. Classification supervisée. Atout par rapport à la classification non-supervisée: on choisit les classes avant classification La définition des classes se fait généralement sur des bases thématiques. on peut tester facilement le résultat. comparaison du résultat avec des zones de test ou de validation indépendantes des zones d'entraînement (cf matrice de confusion). Rappel des étapes: 1/ apprentissage 2/ classification 3/ tests Classification supervisée. 1) Choisir la légende. 2) Définir des zones d'entrainement. 3) Juger visuellement de la séparabilité des classes sur des histogrammes ou scatterogrammes 7 Bandes Classification supervisée. 3) Juger visuellement de la séparabilité des classes 7 Bandes de Landsat Thematic Mapper (NASA) Classification supervisée. 3bis) On peut ensuite affiner les classes sur les histogrammes (2 bandes max cependant). Forest Water Smooth Surfaces Méthodes de classification supervisée. Principe: On connait les classes, on cherche à quelle classe doit être attachée un pixel. Deux grandes familles d'algorithmes: Méthodes non paramétriques : pas d'hypothèse sur les distributions des classes (hyperboîte, distance minimum) Méthodes paramétriques: distribution supposée connue, le plus souvent une distribution considérée comme Gaussienne/normale (distance de Mahalanobis, maximum de vraisemblance) ? Méthodes de classification supervisée. Méthodes non-paramétriques. Méthode distance minimum. Choix du type de distance (min, max, moyenne, ...) Méthodes de classification supervisée. Méthodes non-paramétriques. Méthode hyperboite ou paralléloïde. Possibilité d'avoir des pixels “non classifiés” Méthodes de classification supervisée. Méthodes paramétriques. Méthode Maximum de Vraissemblance (Maximum Likelihood). Basé sur la théorie probabiliste Baysienne. Suppose que les classes sont distribuées de façon gaussienne (voir figure). Méthode la plus populaire car la plus efficace en principe si les zones d'entrainement sont grandes. Méthodes de classification supervisée. Méthodes paramétriques. Méthode Maximum de Vraissemblance (Maximum Likelihood). Méthodes d'analyse d'image Plan (6h): 1) Notion de produit et de niveau. 2) géocodage, orthorectification, calibration. 3) filtrage et réduction de dimensionnalité 4) classification automatique. 4.1) Notions de ressemblance. 4.2) Algorithmes de classification automatique. Supervisés et non-supervisés 4.3) Test des classifications. 5) analyse temporelle. Evaluation d'une classification. Difficile mais nécessaire... Zones de test: facile, mais pas totalement indépendant. Autres images:indépendant, mais problème inhérent à la fusion de donnée: co-registration, contenu informatif différent, ... Echantillon terrain:completement indépendant, mais pose souvent des problèmes d'échelle et d'échantillonnage. Echantillonnage aléatoire Echantillonnage uniforme Evaluation d'une classification. Matrice de confusion: compare la classification avec la réalité. Diagonale: bien classés Hors-diagonale: mal classés Evaluation d'une classification. Les erreurs: Erreurs de commission: les pixels sont attribués par erreur = 24 /839 = 3 /39 Erreurs d'ommission: les pixels sont attribués à une autre classe. Erreur globale Evaluation d'une classification. Calculer l'erreur globale de cette classification. Calculer l'erreur d'ommission de la classe “neige”. Calculer l'erreur de commission de la classe “neige”. Evaluation d'une classification. Coefficient Kappa. Kappa exprime la réduction proportionnelle de l'erreur obtenue par une classification, comparée à l'erreur obtenue par une classification complètement au hasard (???!!). Kappa = -1 => la concordance est nulle Kappa ± 0 => la concordance est peu significative Kappa = +1 => la concordance est très forte. En clair: Un Kappa de 0,75 signifie que 75% des bonnes classification ne sont pas dus au hasard. Le coefficient Kappa est un estimateur de qualité qui tient compte des erreurs en lignes et en colonnes: P o− P c κ= 1− P c Proportion de bonne classif: Proportion de bonne classif due hasard: P o= P 1 N c= n(. ,Sont i) les sommes sur la i-ème colonne et ième ligne respectivement. n(i ,Nombre .) de classes C C C Nombre de pixels N =∑ ∑ n(i , j) C ∑ n (i , i) i=1 1 N2 C ∑ i= 1 n(. , i Evaluation d'une classification. Coefficient Kappa. Exemple: Calculer le Kappa pour cette matrice de confusion P o− P c κ= 1− P c Végétation Ville Végétation 45 5 Ville 13 30 Proportion de bonne classif: Proportion de bonne classif due hasard: n(. , i) n(i , .) P o= P 1 N c= Sont les sommes sur la i-ème colonne et i-ème ligne respectivement. C ∑ n (i , i) i=1 1 N2 C ∑ i=1 n(. , i