Méthodes d`analyse d`image

Transcription

Méthodes d`analyse d`image
Pour le controle continu EF, publication sur:
http://www-lgge.obs.ujf-grenoble.fr/~picard/enseignement
Méthodes d'analyse d'image
Plan (6h):
1) Notion de produit et de niveau.
2) géocodage, orthorectification, calibration.
3) filtrage et réduction de dimensionnalité
4) classification automatique.
5) analyse temporelle.
Notion de produit et de niveau.
Chaîne d'acquisition des images. Exemple de SPOT4.
Le Centre de Programmation
Les Centres de Contrôles
Les stations de suivi des satellites
Les Stations de Réception Directe
Centre de traitement et archivage
Notion de produit et de niveau.
Chaîne d'acquisition des images. Exemple de SPOT4.
Le Centre de Programmation
Les Centres de Contrôles
Les stations de suivi des satellites
Les Stations de Réception Directe
Centre de traitement et archivage
Notion de produit et de niveau.
Les images brutes sont 1) archivées et 2) traitées pour constituer des
produits de plus haut niveau.
Niveau 0: information brute transmise par le satellite.
Niveau 1: image calibrée (donnée « swath »).
Niveau 2: image géoréferencée. Fournie uniquement la mesure
« physique » acquise par le satellite.
Niveau 3: produit géophysique. Fournie des mesures physiques dérivées.
En tant qu'utilisateur on s'intéresse uniquement aux niveaux 2 et 3.
!! Il n'y a pas de définition précise pour les niveaux. Exemple MODIS:
MOD01
MOD021KM
MOD05_L2
MOD08_D3
MODIS/Terra
MODIS/Terra
MODIS/Terra
MODIS/Terra
Raw Radiances in Counts 5-Min L1A Swath
Calibrated Radiances 5-Min L1B Swath 1km
Total Precipitable Water Vapor 5-Min L2 Swath 1km ...
Aerosol Cloud Water Vapor Ozone Daily L3 Global 1Deg...
Opérations à executer : calibration, géocodage/orthorectification,
mosaicage, algorithme scientifique.
Méthodes d'analyse d'image
Plan (6h):
1) Notion de produit et de niveau.
2) géocodage, orthorectification, calibration.
3) filtrage et réduction de dimensionnalité
4) classification automatique.
5) analyse temporelle.
Calibration
Le satellite mesures et renvoie pour chaque pixel un Compte Numérique (ex:
de 0 à 255)
Le physicien a besoin d'une grandeur physique (avec des unités physiques).
Exemples:
* radiométrie optique: Luminance (W.m-2.sr-1.m-1)
* radiométrie micro-ondes: température de brillance (K)
De plus, les instruments sur les satellites « dérivent », il faut donc calibrer
/étalonner les mesures.
Exemple: calibration « on-board », calibration externe.
Calibration
Exemple: calibration « on-board » de Météosat.
Calibration
Exemple: calibration externe en radar micro-ondes
Exemple: calibration externe en micro-ondes passive pour SMOS.
Projet d'utiliser le plateau Antarctique.
Orthorectification et géocodage
Orthorectification: Corriger les distortions géométriques liées à
l'acquisition:
* soit venant du système optique (surtout sur les avions)
* soit venant de la plateforme: gite, tangage, etc (surtout sur les avions
ou les satellites très hautes résolutions)
* soit venant du relief
Géocodage: produire une image dans une projection géographique
connue et pratique.
1 solution: on repère sur l'image des objets dont on connaît les
coordonnées géographiques.
Orthorectification et géocodage
Exemple: mise en correspondance de points entre une image géocodée et
une image brute.
Mosaicage
Mettre des images acquises à différentes dates ensemble.
Exemple: Image haute-resolution en Hymalaya
Différence de conditions
atmosphériques
Mosaicage
Exemple: Image globale AMSR
Acquise le 9/10/06
En cours d'acquisition le jour
même, le 13/10/06
http://sharaku.eorc.jaxa.jp/cgi-bin/adeos2/amsr/l3brws/l3brws_top.cgi?lang=e
Méthodes d'analyse d'image
Plan (6h):
1) Notion de produit et de niveau.
2) géocodage, orthorectification, calibration.
3) filtrage et réduction de dimensionnalité
4) classification automatique.
5) analyse temporelle.
Filtrage
Filtrage
But du filtrage: éliminer des effets parasites ou augmenter les effets
intéressants.
* opérations purement géométriques (traitement d'image).
* correction physique (combinaison de bande, ...).
Filtrage
Filtre basse fréquence: 1) suppose que le bruit est à haute fréquence et
que le signal est à basse fréquence. Technique moyenne glissante.
Fenètre glissante
CN
Signal (+bruit) original
1D
Signal filtré
x
2D
Pour chaque position, on calcule la moyenne
sur la fenêtre et on attribue cette valeur au
pixel du milieu. Fenêtre 3x3, 5x5, ...
... en pratique chaque pixel de la fenêtre à un
poids.
Filtre gaussien:
Filtrage
Exemple de filtrage basse fréquence (fort)
Filtrage
Formulation mathématique pour les filtres linéaires: convolution de l'image
avec un noyau.
Image filtrée
Avant
Image originale
Noyau de convolution
ou filtre
ou reponse impulsionnelle
Après
Le bruit est réduit mais les
petites transitions sont
effacées.
Filtrage
Il existe d'autres types de filtre: ex filtre médian, filtre adaptatif, etc.
Exemple filtrage d'une image SAR par filtre adaptatif (permet de supprimer
le bruit, mais conserve assez bien les transitions).
Réduction de dimensionalité
Objectif: réduire le nombre de bandes avant analyse automatique ou
visuel.
Les satellites mesurent dans un nombre de plus en plus important de
bandes spectrales pour satisfaire un plus large nombre d'applications. Soit
on utilise les quelques bandes dont on a besoin, soit on utilise le maximum
de bande, mais on les combine avant analyse, ...
Exemples traités:
1) Indices
2) Analyse en Composantes Principales
Réduction de dimensionalité
Indice de végétation: Normalized Difference Vegetation Index
NDVI =
NIR − R
NIR + R
NIR: luminance proche infrarouge. Maximum de réflectance de la végétation
R:
luminance rouge. Minimum de réflectance de la végétation
Réduction de dimensionalité
Avantage de travailler avec l'Indice de végétation:
1. Une seule valeur pour mesurer la quantité de végétation.
2. Utilise un rapport sans unité (qui varie en pratique de -0.3 à 1)
relativement peu sensible aux problèmes de calibration, d'angle solaire, ...
Image de NDVI en pseudo-couleur
rouge: fort NDVI
bleu: faible NDVI
Réduction de dimensionalité
Analyse en composantes Principales. ACP ou PCA en Anglais.
Idée de base: si deux bandes sont bien corrélées entre elles (= elles
fournissent une information similaire) alors autant n'en utiliser qu'une des
deux.
Généralisation: On cherche les combinaisons linéaires de bande qui
maximise l'information (=la variance).
Exemple avec 2 bandes:
Bande 2
Scatterogramme.
Var[bande2]
Var[bande1]
Bande 1
Réduction de dimensionalité
Analyse en composantes Principales. ACP ou PCA en Anglais.
Bande 2
]
1
[C
r
Va
Var[bande2]
Var[bande1]
Bande 1
La combinaison linéaire C1 entre B1 et B2 représentée par la droite verte
explique le plus de variance.
Il est avantageux de remplacer B1 et B2 par C1 ! On perd de l'information,
mais un minimum.
C1 s'appelle la première composante principale.
Réduction de dimensionalité
Analyse en composantes Principales. ACP ou PCA en Anglais.
Bande 2
Var[C2]
]
1
[C
r
Va
Bande 1
La combinaison linéaire C2 entre B1 et B2 représentée par la droite verte
explique le plus de variance après C1. C2 est la deuxième composante
principale.
Faire une ACP c'est calculer les combinaisons linéaires C1 et C2 telles que:
C1 explique l'essentiel de la variance.
C2 explique l'essentiel de la variance après C1
C1 et C2 soit perpendiculaire.
Réduction de dimensionalité: on ne garde que C1
Réduction de dimensionalité
Analyse en composantes Principales. ACP ou PCA en Anglais.
Généralisation à N variables:
Calcule des N composantes principales.
Réduction de dimensionalité: On ne conserve que les p premières
composantes. On peut determiner p afin que les p premières
composantes explique au moins X% de la variance (par exemple 80%)
PCs 1 et2
Réduction de dimensionalité
PCs 3 et 4
Réduction de dimensionalité
PCs 5 et 6
Réduction de dimensionalité
L'intérêt ne se limite pas à la réduction de dimensionalité: détection de
signature particulière.
Réduction de dimensionalité
L'intérêt ne se limite pas à la réduction de dimensionalité: détection de
signature particulière.
Image MODIS contenant 6
bandes
(seule 3 bandes sont
représentées ici)
2 composantes principales
sont représentées ici, une en
rouge l'autre en cyan
(bleu+vert)
Méthodes d'analyse d'image
Plan (6h):
1) Notion de produit et de niveau.
2) géocodage, orthorectification, calibration.
3) filtrage et réduction de dimensionnalité
4) classification automatique.
5) analyse temporelle.
Classification
L'objectif général des classifications est de traduire des informations
spectrales (bandes) en classes thématiques (d'occupation du sol, par ex.)
3 bandes
=>
thèmes: occupation du sol
approches par pixel (analyse multi-spectrale, segmentation d'indice)
approche par zone (détection de contour, texture)
approche par objet (analyse morphologique, détection de formes)
Méthodes d'analyse d'image
Plan (6h):
1) Notion de produit et de niveau.
2) géocodage, orthorectification, calibration.
3) filtrage et réduction de dimensionnalité
4) classification automatique.
4.1) Notions de ressemblance.
4.2) Algorithmes de classification automatique.
Supervisés et non-supervisés
4.3) Test des classifications.
4.4) Exemples.
5) analyse temporelle.
Classification
Classes thématiques: Pixel appartenant à un groupe thématique. Ex: classes
d'occupation du sol : forêt, eau, sol nu, etc.
Classification:
Information spectrale/temporelle continue => information thématique discrète.
(ex: 7 bandes=> 7 variables de 0-255)
(ex: 4 classes différentes...
codée avec 1 variables de 1-4)
Pour classifier on a besoin:
Ressemblance: pour déterminer la ressemblance d un pixel avec une classe, donc
sa possible appartenance, on utilise les critères de distance (euclidienne,
pondérée, ...) ou de probabilité.
SIGNATURE SPECTRALE
+
L'appartenance: les critères d'attribution d'un pixel à une classe donnée sont
établis par une fonction discriminante qui décidera de l'appartenance d un pixel à
une classe.
Notion de ressemblance et classification manuelle
Idée: regrouper les pixels de signature spectrale voisine.
Exemple: Image 1 bande.
Notion de ressemblance et classification manuelle
Idée: regrouper les pixels de signature spectrale voisine.
Exemple: Image 1 bande.
Histogramme
Classe 1 Classe 2
Histogramme
Notion de ressemblance et classification manuelle
Idée: regrouper les pixels de signature spectrale voisine.
Exemple: Image 2 bandes.
Méthodes d'analyse d'image
Plan (6h):
1) Notion de produit et de niveau.
2) géocodage, orthorectification, calibration.
3) filtrage et réduction de dimensionnalité
4) classification automatique.
4.1) Notions de ressemblance.
4.2) Algorithmes de classification automatique.
Supervisés et non-supervisés
4.3) Test des classifications.
5) analyse temporelle.
Classifications automatiques:
supervisées et non-supervisées.
Les deux grandes approches de classification:
Classification non-supervisée: pas de connaissance a priori, les classes
sont créées automatiquement par l'algorithme. Les classes sont
“étiquetées” par thème a posteriori.
1/ classification
2/ étiquettage manuelle
3/ tests
Classification supervisée: les connaissances a priori sont utilisées pour la
création des classes par saisie d'échantillons et zones d'entraînement.
1/ apprentissage
2/ classification
3/ tests
Méthodes de classifications non-supervisées.
3 Méthodes les plus populaires:
K-mean et sa variante ISODATA
Ascendante hiérarchique
Méthodes K-mean (nuées dynamiques
ou centres mobiles) et ISODATA.
Exemple dans le cas de 2 bandes.
L'utilisateur demande K classes (ici 2)
1) Choix de K points arbitrairement
(centre)
2) Attribution des pixels au centre le
plus proche.
3) Calcul des nouveaux centres de
classe (barycentre des pixels
appartenant à la classe).
4) Continuer tant que les centres
changent de positions.
Amélioration: Méthode ISODATA.
Fusionne les nuages trop petits et
segmente les nuages trop gros: l'algo
choisit automatiquement K !!
Méthodes K-mean (nuées dynamiques
ou centres mobiles) et ISODATA.
Classification hiérarchique ascendante.
Ascendante: agrégation de
classe.
Initialisation: chaque pixel est une
classe.
1) Calcule les distances entre toutes les
classes.
2) Agrège les 2 classes les plus proches
3) itère 1) et 2) tant que le nombre de
classe souhaité n'est pas atteint.
Choix de la distance:
Lien minimum / maximum: distance
minimale /maximale entre deux
membres de chacune des classes.
Distance moyenne: moyenne des
distances entre les membres de chaque
classe.
Critère de Ward: distance entre les
moyennes + correction par le nombre
d'éléments.
Classification supervisée.
Atout par rapport à la classification non-supervisée:
on choisit les classes avant classification
La définition des classes se fait généralement sur des bases thématiques.
on peut tester facilement le résultat.
comparaison du résultat avec des zones de test ou de validation
indépendantes des zones d'entraînement (cf matrice de confusion).
Rappel des étapes:
1/ apprentissage
2/ classification
3/ tests
Classification supervisée.
1) Choisir la légende.
2) Définir des zones
d'entrainement.
3) Juger visuellement de la
séparabilité des classes sur
des histogrammes ou
scatterogrammes
7 Bandes
Classification supervisée.
3) Juger visuellement de la séparabilité des classes
7 Bandes de Landsat Thematic Mapper (NASA)
Classification supervisée.
3bis) On peut ensuite affiner les classes sur les
histogrammes (2 bandes max cependant).
Forest
Water
Smooth
Surfaces
Méthodes de classification supervisée.
Principe: On connait les classes, on cherche à quelle classe doit être
attachée un pixel.
Deux grandes familles d'algorithmes:
Méthodes non paramétriques : pas
d'hypothèse sur les distributions des
classes (hyperboîte, distance minimum)
Méthodes paramétriques: distribution
supposée connue, le plus souvent une
distribution considérée comme
Gaussienne/normale (distance de
Mahalanobis, maximum de
vraisemblance)
?
Méthodes de classification supervisée.
Méthodes non-paramétriques.
Méthode distance minimum.
Choix du type de distance (min, max, moyenne, ...)
Méthodes de classification supervisée.
Méthodes non-paramétriques.
Méthode hyperboite ou paralléloïde.
Possibilité d'avoir des pixels “non classifiés”
Méthodes de classification supervisée.
Méthodes paramétriques.
Méthode Maximum de Vraissemblance (Maximum Likelihood).
Basé sur la théorie probabiliste Baysienne.
Suppose que les classes sont
distribuées de façon gaussienne (voir
figure).
Méthode la plus populaire car la plus
efficace en principe si les zones
d'entrainement sont grandes.
Méthodes de classification supervisée.
Méthodes paramétriques.
Méthode Maximum de Vraissemblance (Maximum
Likelihood).
Méthodes d'analyse d'image
Plan (6h):
1) Notion de produit et de niveau.
2) géocodage, orthorectification, calibration.
3) filtrage et réduction de dimensionnalité
4) classification automatique.
4.1) Notions de ressemblance.
4.2) Algorithmes de classification automatique.
Supervisés et non-supervisés
4.3) Test des classifications.
5) analyse temporelle.
Evaluation d'une classification.
Difficile mais nécessaire...
Zones de test: facile, mais pas totalement indépendant.
Autres images:indépendant, mais problème inhérent à la
fusion de donnée: co-registration, contenu informatif
différent, ...
Echantillon terrain:completement indépendant, mais pose
souvent des problèmes d'échelle et d'échantillonnage.
Echantillonnage aléatoire
Echantillonnage uniforme
Evaluation d'une classification.
Matrice de confusion: compare la classification avec la réalité.
Diagonale: bien classés
Hors-diagonale: mal classés
Evaluation d'une classification.
Les erreurs:
Erreurs de commission: les
pixels sont attribués par erreur
= 24 /839
= 3 /39
Erreurs d'ommission: les pixels sont
attribués à une autre classe.
Erreur globale
Evaluation d'une classification.
Calculer l'erreur globale de cette classification.
Calculer l'erreur d'ommission de la classe “neige”.
Calculer l'erreur de commission de la classe “neige”.
Evaluation d'une classification. Coefficient Kappa.
Kappa exprime la réduction proportionnelle de l'erreur obtenue par une
classification, comparée à l'erreur obtenue par une classification
complètement au hasard (???!!).
Kappa = -1 => la concordance est nulle Kappa ± 0 => la concordance
est peu significative Kappa = +1 => la concordance est très forte.
En clair: Un Kappa de 0,75 signifie que 75% des bonnes classification ne
sont pas dus au hasard.
Le coefficient Kappa est un estimateur de qualité qui tient compte des
erreurs en lignes et en colonnes:
P o− P c
κ=
1− P c
Proportion de bonne classif:
Proportion de bonne
classif due hasard:
P o=
P
1
N
c=
n(. ,Sont
i) les sommes sur la i-ème colonne et ième ligne respectivement.
n(i ,Nombre
.)
de classes
C
C
C
Nombre de pixels
N =∑ ∑ n(i , j)
C
∑
n (i , i)
i=1
1
N2
C
∑
i= 1
n(. , i
Evaluation d'une classification.
Coefficient Kappa.
Exemple: Calculer le Kappa pour cette matrice de confusion
P o− P c
κ=
1− P c
Végétation
Ville
Végétation
45
5
Ville
13
30
Proportion de bonne
classif:
Proportion de bonne
classif due hasard:
n(. , i)
n(i , .)
P o=
P
1
N
c=
Sont les sommes sur la i-ème colonne et i-ème
ligne respectivement.
C
∑
n (i , i)
i=1
1
N2
C
∑
i=1
n(. , i