Laboratoire 4. Classification de données géographiques I. Préambule

Transcription

Laboratoire 4. Classification de données géographiques I. Préambule
SYS866
Système d’information géographique et télédétection
Laboratoire 4. Classification de données géographiques
I. Préambule
1. Généralités
Lorsque les données géographiques ont été acquises et corrigées adéquatement
(corrections atmosphérique, radiométrique et géométrique pour les données de
télédétection), si elles possèdent une référence géographique, elles peuvent alors être
implantées dans un logiciel de SIG pour être analysées.
Par « analyse », on entend généralement « extraction d’information » des données
d’entrée.
Données géographiques (input)
Figure 1
Analyse
dans un SIG
Information (output)
Analyse dans un SIG
L’information recueillie en sortie de l’analyse effectuée peut, si elle est pertinente, être
utilisée pour mener à une prise de décision.
Il existe une grande quantité d’analyses possibles avec les SIG. Une application classique
d’analyse de données de télédétection est la classification pour l’identification de
l’occupation du sol. À ce stade, il est nécessaire de discuter de la notion d’échelle à
1
laquelle la scène est étudiée. La résolution de l’image à classifier a en effet une grande
influence sur les classes qui vont être considérées. Plus la résolution spatiale est haute
(niveau de détail élevé), plus il est possible de considérer des classes spécifiques (sousclasses). Une autre caractéristique influençant le résultat de la classification est la
résolution spectrale; pour les techniques de classification utilisées, le nombre de bandes
spectrales définit la taille du vecteur de caractéristiques dont nous disposons (cf. (A-3))
2. Réflectance
Un objet éclairé par le soleil reçoit une énergie incidente directe EI. L’objet qui reçoit
cette énergie en absorbe une quantité EA, en transmet une quantité ET et en réfléchit la
quantité ER. Ce bilan est dépendant de la longueur λ et il est défini par l’équation (A-1)
suivante :
E I (λ ) = E R (λ ) + E A (λ ) + E T (λ )
(A-1)
La réflectance d’un objet, d’un matériau est une caractéristique qui lui est propre et qui
est indépendante des conditions externes. On la définit sous la forme d’un coefficient
ρ(λ), dépendant de la longueur d’onde, comme étant le rapport de l’énergie réfléchie à la
longueur d’onde λ sur l’énergie incidente reçue comme montré par l’équation (A-2)
suivante :
ρ(λ ) =
E R (λ )
E I (λ )
(A-2)
La Figure 2 ci-dessous montre l’allure d’une courbe de réflectance caractéristique des
végétaux chlorophylliens. Dans ce qui suit, on va s’intéresser aux capteurs et techniques
permettant de récupérer cette information par télédétection, en discrétisant ce spectre.
2
Figure 2
Spectre de réflectance des végétaux chlorophylliens
3. Bandes spectrales
Il est intéressant de posséder des mesures de réflectance pour des longueurs d’onde
pertinentes, dépendant de ce que l’on observe. Dans le cas de la végétation, les domaines
du spectre électromagnétique contenant l’information essentielle se situent dans le rouge
et le bleu qui sont les zones d’absorption principale des pigments chlorophylliens, dans le
vert pour la zone d’absorption des caroténoïdes et dans l’infrarouge pour évaluer la
teneur en eau. Il est donc important de détecter la réponse de la scène sur l’ensemble du
spectre électromagnétique allant du visible à l’infrarouge.
Les capteurs multibandes permettent de discrétiser la réflectance de la scène observée en
bandes plus ou moins larges, en découpant ce spectre en portions Bi appelées bandes
spectrales, comme schématisé à la Figure 3 ci-après.
3
Réflectance (%)
50
B1 B2 B3
Bk
Longueur
d’onde (nm)
Figure 3
Découpage de la courbe de réflectance en bandes spectrales
Chaque bande Bi représente la somme de l’énergie réfléchie par la scène, sur une portion
du spectre de largeur L. Pour activer un détecteur (CCD) d’un capteur hyperspectral, il
faut une énergie minimum. Plus L est élevée, plus l’énergie incidente (couvrant une
grande zone du spectre électromagnétique) va être grande dans la bande considérée,
offrant ainsi l’opportunité d’obtenir une taille de pixel plus petite (résolution plus fine). Il
y a donc un lien de proportionnalité inverse entre la résolution spatiale et la résolution
spectrale.
Ainsi, l’utilisation d’un capteur multibande mène à l’obtention de plusieurs images,
chacune représentant la moyenne sur un intervalle [λ1 ; λ2] de la réflectance de notre
scène. Cet ensemble de données peut être représenté par la Figure 4 ci-après.
4
Pijk
Bk
i
B2
B1
j
Figure 4
Schéma d’une image multibande à k bandes
La différence entre les capteurs hyperspectraux et les capteurs multispectraux réside
principalement dans la portion du spectre explorée et la largeur spectrale ∆λ
principalement. Les capteurs hyperspectraux décomposent en continu le spectre entre
deux longueurs d’onde λ1 et λ2, résultant en une discrétisation de la réflectance en une
grande quantité (jusqu’à plusieurs centaines) de bandes contiguës très fines (résolution
spectrale ∆λ constante de quelques nanomètres). De leur côté, les capteurs multispectraux
acquièrent les valeurs de réflectance sur des portions du spectre plus larges variables
(couramment plusieurs dizaines de nanomètres) et pas nécessairement contiguës. Comme
il a déjà été mentionné, pour activer une cellule d’un capteur numérique, il faut une
énergie incidente minimum; plus la bande spectrale est fine, moins elle comporte
d’énergie et donc, plus il sera difficile d’obtenir une valeur suffisante d’activation. Ainsi,
les capteurs embarqués à bord de satellites étant à des distances élevées, pour obtenir des
niveaux de détails spatiaux performants (i.e. résolution spatiale élevée) doivent être
multispectraux. Les capteurs hyperspectraux sont généralement des capteurs aéroportés,
volant à plus basse altitude et donc capables avec des résolutions spatiales fines, de
discrétiser le spectre de réflectance en bandes plus étroites.
5
4. Quelques notions de classification issues de la Reconnaissance de Formes
Il existe 2 grandes catégories distinctes de classification :
1.
classification supervisée;
2.
classification non supervisée.
D’une façon générale, la classification supervisée consiste à créer un classifieur
(programme) capable d’attribuer une classe à des entités inconnues (images, pixels…), et
ce après avoir appris à reconnaître des entités déjà étiquetées (apprentissage par
l’exemple). Les étapes pour ce type de classification sont donc les suivantes :
1.
création de la base d’entraînement (BE) par la collecte et l’étiquetage
de données;
2.
entraînement d’un classifieur sur les données étiquetées de BE;
3.
évaluation du classifieur réalisé sur une base de validation (BV);
4.
classification d’entités inconnues si l’erreur obtenue sur BV est
acceptable, sinon il faut recommencer le processus en procédant à
certains ajustements (augmenter BE, changer de classifieur, combiner
plusieurs classifieurs...)
La classification non supervisée (« clustering » ou agrégation en français) consiste en un
regroupement des entités à traiter en paquets, selon un critère d’appariement propre à
l’algorithme utilisé (minimisation de la distance par exemple). Il est possible à
l’opérateur de fournir l’information (à priori) du nombre de ces « clusters » pour limiter
le nombre de ces regroupements. Les paquets ainsi créés ne sont pas étiquetés et, lors de
la phase de post-classification, c’est à l’opérateur de juger d’éventuelles agglomérations,
et de l’attribution de labels.
6
5. Classification de données multibandes de télédétection
Dans le cas de la classification de données de télédétection, nous cherchons ultimement, à
attribuer une classe à tous les pixels de la scène; il peut s’agir de végétation,
d’habitations, d’eau, de terre, de roches… Le choix des classes à considérer pour une
analyse dépend de l’application qui en découle et également des caractéristiques des
données étudiées. Il n’est peut-être pas nécessaire de différencier la classe « végétation »
en sous-classes « végétation cultivée » et « végétation naturelle » si l’objectif de l’étude
n’as pas besoin de cette précision (comme pour la recension des zones urbaines).
5.1. Formalisme
Pour faire de la classification de données multibandes, il faut se donner un mode de
représentation de l’information en vecteur de caractéristiques. En se rapportant à la
représentation d’une image multibande donnée à la Figure 4, chaque pixel Pij de la scène
est caractérisé par k informations qu’il est possible de représenter par le vecteur illustré
en (A-3).
⎛ Pij1 ⎞
⎜
⎟
⎜ Pij2 ⎟
Pij = ⎜ Pij3 ⎟
⎜
⎟
⎜ ... ⎟
⎜P ⎟
⎝ ijk ⎠ ( B
(A-3)
1 ,B2 ,...,Bk )
Chaque pixel est alors représenté par son vecteur de caractéristiques dans la base
{Bi}1 ≤ i ≤ k des bandes spectrales. C’est dans cet espace de représentation X que les
classifieurs vont opérer.
En résumé, un classifieur peut être décrit comme une application non linéaire g tel que,
g: X → Y,
où
X
est
l’espace
de
caractéristiques
de
dimension
k
et
7
Y = {1, 2, 3, ..., L} avec L, le nombre de classes du problème. Nous verrons plus tard les
différents classifieurs classiques couramment utilisés.
Lorsque l’espace de caractéristiques est de dimension trop importante (couramment
k >100, mais dépendant du problème), il peut apparaître un phénomène appelé
« malédiction de la dimensionnalité » qui fait chuter le taux de bonnes classifications. Il
est alors utile de réduire la dimension de cet espace par des techniques de sélection de
caractéristiques ou d’extraction de caractéristiques comme la PCA (Principal Component
Analysis), la GLDB (Generalized Local Discriminant Bases), la SPCT (Segmented
Principal Component Transformation) et bien d’autres encore. Cela revient à définir une
application (extracteur) φ tel que, ϕ : X → F , où F est un nouvel espace de
caractéristiques de dimension inférieure à k. L’objectif d’un opérateur d’extraction de
caractéristiques est de réduire la dimension d’un espace de caractéristique, en conservant
le maximum d’information pertinente pour la classification; l’information contenue dans
l’espace réduit F doit être suffisamment discriminante pour permettre de séparer les
classes de Y.
5.2. Classification supervisée
Comme il a été mentionné dans la section 4, la classification supervisée requiert une
phase de collecte et d’étiquetage des données. Pour la classification de données
multibande, cela revient à choisir certains pixels comme représentatifs de la classe à
laquelle ils appartiennent. Ces points doivent autant que possible représenter la diversité
« intraclasse » pour permettre un apprentissage optimal du classifieur; par exemple, si
une classe « eau » est définie, il faut aussi bien considérer un lac, une rivière, un étang et
l’océan si tous ces éléments apparaissent sur les données de la scène à classifier. Il est
intéressant de trouver un maximum d’exemples pour chacune des L classes du problème
considéré.
Lorsque la collecte et l’étiquetage des pixels d’entraînement sont réalisés, il faut alors
entraîner le classifieur choisi sur cet ensemble. Au sein des logiciels de SIG, plusieurs
8
classifieurs classiques sont implémentés et il n’est donc nécessaire d’en implémenter de
nouveaux qu’en cas de besoin spécifique. Un logiciel comme Matlab possède des toolbox
où sont déjà implémentés les classifieurs usuels.
5.3. Classification non-supervisée
Cette approche ne demande comme seule information préalable que le nombre de
« clusters » désirés en sortie de classification. Le plus gros du travail est d’identifier le
contenu des groupes, lors de la phase de post-classification et d’agréger certains s’il y a
lieu.
5.4. Les classifieurs utilisés
•
KNN, ANN, MAXIMUM LIKELIHOOD, PARALLELEPIPED, MINIMUM
DISTANCE.
•
KMEAN, ISOCLUST,
Remarques :
Les sorties des classifieurs doivent toujours être considérées avec précaution. Aucun
classifieur n’est parfait et il y a toujours des erreurs.
Dans le cas de la classification non-supervisée, il n’est pas rare que les clusters
trouvés ne correspondent pas aux attentes de l’opérateur. Il faut alors reconsidérer
l’approche.
9

Documents pareils