Laboratoire 4. Classification de données géographiques I. Préambule
Transcription
Laboratoire 4. Classification de données géographiques I. Préambule
SYS866 Système d’information géographique et télédétection Laboratoire 4. Classification de données géographiques I. Préambule 1. Généralités Lorsque les données géographiques ont été acquises et corrigées adéquatement (corrections atmosphérique, radiométrique et géométrique pour les données de télédétection), si elles possèdent une référence géographique, elles peuvent alors être implantées dans un logiciel de SIG pour être analysées. Par « analyse », on entend généralement « extraction d’information » des données d’entrée. Données géographiques (input) Figure 1 Analyse dans un SIG Information (output) Analyse dans un SIG L’information recueillie en sortie de l’analyse effectuée peut, si elle est pertinente, être utilisée pour mener à une prise de décision. Il existe une grande quantité d’analyses possibles avec les SIG. Une application classique d’analyse de données de télédétection est la classification pour l’identification de l’occupation du sol. À ce stade, il est nécessaire de discuter de la notion d’échelle à 1 laquelle la scène est étudiée. La résolution de l’image à classifier a en effet une grande influence sur les classes qui vont être considérées. Plus la résolution spatiale est haute (niveau de détail élevé), plus il est possible de considérer des classes spécifiques (sousclasses). Une autre caractéristique influençant le résultat de la classification est la résolution spectrale; pour les techniques de classification utilisées, le nombre de bandes spectrales définit la taille du vecteur de caractéristiques dont nous disposons (cf. (A-3)) 2. Réflectance Un objet éclairé par le soleil reçoit une énergie incidente directe EI. L’objet qui reçoit cette énergie en absorbe une quantité EA, en transmet une quantité ET et en réfléchit la quantité ER. Ce bilan est dépendant de la longueur λ et il est défini par l’équation (A-1) suivante : E I (λ ) = E R (λ ) + E A (λ ) + E T (λ ) (A-1) La réflectance d’un objet, d’un matériau est une caractéristique qui lui est propre et qui est indépendante des conditions externes. On la définit sous la forme d’un coefficient ρ(λ), dépendant de la longueur d’onde, comme étant le rapport de l’énergie réfléchie à la longueur d’onde λ sur l’énergie incidente reçue comme montré par l’équation (A-2) suivante : ρ(λ ) = E R (λ ) E I (λ ) (A-2) La Figure 2 ci-dessous montre l’allure d’une courbe de réflectance caractéristique des végétaux chlorophylliens. Dans ce qui suit, on va s’intéresser aux capteurs et techniques permettant de récupérer cette information par télédétection, en discrétisant ce spectre. 2 Figure 2 Spectre de réflectance des végétaux chlorophylliens 3. Bandes spectrales Il est intéressant de posséder des mesures de réflectance pour des longueurs d’onde pertinentes, dépendant de ce que l’on observe. Dans le cas de la végétation, les domaines du spectre électromagnétique contenant l’information essentielle se situent dans le rouge et le bleu qui sont les zones d’absorption principale des pigments chlorophylliens, dans le vert pour la zone d’absorption des caroténoïdes et dans l’infrarouge pour évaluer la teneur en eau. Il est donc important de détecter la réponse de la scène sur l’ensemble du spectre électromagnétique allant du visible à l’infrarouge. Les capteurs multibandes permettent de discrétiser la réflectance de la scène observée en bandes plus ou moins larges, en découpant ce spectre en portions Bi appelées bandes spectrales, comme schématisé à la Figure 3 ci-après. 3 Réflectance (%) 50 B1 B2 B3 Bk Longueur d’onde (nm) Figure 3 Découpage de la courbe de réflectance en bandes spectrales Chaque bande Bi représente la somme de l’énergie réfléchie par la scène, sur une portion du spectre de largeur L. Pour activer un détecteur (CCD) d’un capteur hyperspectral, il faut une énergie minimum. Plus L est élevée, plus l’énergie incidente (couvrant une grande zone du spectre électromagnétique) va être grande dans la bande considérée, offrant ainsi l’opportunité d’obtenir une taille de pixel plus petite (résolution plus fine). Il y a donc un lien de proportionnalité inverse entre la résolution spatiale et la résolution spectrale. Ainsi, l’utilisation d’un capteur multibande mène à l’obtention de plusieurs images, chacune représentant la moyenne sur un intervalle [λ1 ; λ2] de la réflectance de notre scène. Cet ensemble de données peut être représenté par la Figure 4 ci-après. 4 Pijk Bk i B2 B1 j Figure 4 Schéma d’une image multibande à k bandes La différence entre les capteurs hyperspectraux et les capteurs multispectraux réside principalement dans la portion du spectre explorée et la largeur spectrale ∆λ principalement. Les capteurs hyperspectraux décomposent en continu le spectre entre deux longueurs d’onde λ1 et λ2, résultant en une discrétisation de la réflectance en une grande quantité (jusqu’à plusieurs centaines) de bandes contiguës très fines (résolution spectrale ∆λ constante de quelques nanomètres). De leur côté, les capteurs multispectraux acquièrent les valeurs de réflectance sur des portions du spectre plus larges variables (couramment plusieurs dizaines de nanomètres) et pas nécessairement contiguës. Comme il a déjà été mentionné, pour activer une cellule d’un capteur numérique, il faut une énergie incidente minimum; plus la bande spectrale est fine, moins elle comporte d’énergie et donc, plus il sera difficile d’obtenir une valeur suffisante d’activation. Ainsi, les capteurs embarqués à bord de satellites étant à des distances élevées, pour obtenir des niveaux de détails spatiaux performants (i.e. résolution spatiale élevée) doivent être multispectraux. Les capteurs hyperspectraux sont généralement des capteurs aéroportés, volant à plus basse altitude et donc capables avec des résolutions spatiales fines, de discrétiser le spectre de réflectance en bandes plus étroites. 5 4. Quelques notions de classification issues de la Reconnaissance de Formes Il existe 2 grandes catégories distinctes de classification : 1. classification supervisée; 2. classification non supervisée. D’une façon générale, la classification supervisée consiste à créer un classifieur (programme) capable d’attribuer une classe à des entités inconnues (images, pixels…), et ce après avoir appris à reconnaître des entités déjà étiquetées (apprentissage par l’exemple). Les étapes pour ce type de classification sont donc les suivantes : 1. création de la base d’entraînement (BE) par la collecte et l’étiquetage de données; 2. entraînement d’un classifieur sur les données étiquetées de BE; 3. évaluation du classifieur réalisé sur une base de validation (BV); 4. classification d’entités inconnues si l’erreur obtenue sur BV est acceptable, sinon il faut recommencer le processus en procédant à certains ajustements (augmenter BE, changer de classifieur, combiner plusieurs classifieurs...) La classification non supervisée (« clustering » ou agrégation en français) consiste en un regroupement des entités à traiter en paquets, selon un critère d’appariement propre à l’algorithme utilisé (minimisation de la distance par exemple). Il est possible à l’opérateur de fournir l’information (à priori) du nombre de ces « clusters » pour limiter le nombre de ces regroupements. Les paquets ainsi créés ne sont pas étiquetés et, lors de la phase de post-classification, c’est à l’opérateur de juger d’éventuelles agglomérations, et de l’attribution de labels. 6 5. Classification de données multibandes de télédétection Dans le cas de la classification de données de télédétection, nous cherchons ultimement, à attribuer une classe à tous les pixels de la scène; il peut s’agir de végétation, d’habitations, d’eau, de terre, de roches… Le choix des classes à considérer pour une analyse dépend de l’application qui en découle et également des caractéristiques des données étudiées. Il n’est peut-être pas nécessaire de différencier la classe « végétation » en sous-classes « végétation cultivée » et « végétation naturelle » si l’objectif de l’étude n’as pas besoin de cette précision (comme pour la recension des zones urbaines). 5.1. Formalisme Pour faire de la classification de données multibandes, il faut se donner un mode de représentation de l’information en vecteur de caractéristiques. En se rapportant à la représentation d’une image multibande donnée à la Figure 4, chaque pixel Pij de la scène est caractérisé par k informations qu’il est possible de représenter par le vecteur illustré en (A-3). ⎛ Pij1 ⎞ ⎜ ⎟ ⎜ Pij2 ⎟ Pij = ⎜ Pij3 ⎟ ⎜ ⎟ ⎜ ... ⎟ ⎜P ⎟ ⎝ ijk ⎠ ( B (A-3) 1 ,B2 ,...,Bk ) Chaque pixel est alors représenté par son vecteur de caractéristiques dans la base {Bi}1 ≤ i ≤ k des bandes spectrales. C’est dans cet espace de représentation X que les classifieurs vont opérer. En résumé, un classifieur peut être décrit comme une application non linéaire g tel que, g: X → Y, où X est l’espace de caractéristiques de dimension k et 7 Y = {1, 2, 3, ..., L} avec L, le nombre de classes du problème. Nous verrons plus tard les différents classifieurs classiques couramment utilisés. Lorsque l’espace de caractéristiques est de dimension trop importante (couramment k >100, mais dépendant du problème), il peut apparaître un phénomène appelé « malédiction de la dimensionnalité » qui fait chuter le taux de bonnes classifications. Il est alors utile de réduire la dimension de cet espace par des techniques de sélection de caractéristiques ou d’extraction de caractéristiques comme la PCA (Principal Component Analysis), la GLDB (Generalized Local Discriminant Bases), la SPCT (Segmented Principal Component Transformation) et bien d’autres encore. Cela revient à définir une application (extracteur) φ tel que, ϕ : X → F , où F est un nouvel espace de caractéristiques de dimension inférieure à k. L’objectif d’un opérateur d’extraction de caractéristiques est de réduire la dimension d’un espace de caractéristique, en conservant le maximum d’information pertinente pour la classification; l’information contenue dans l’espace réduit F doit être suffisamment discriminante pour permettre de séparer les classes de Y. 5.2. Classification supervisée Comme il a été mentionné dans la section 4, la classification supervisée requiert une phase de collecte et d’étiquetage des données. Pour la classification de données multibande, cela revient à choisir certains pixels comme représentatifs de la classe à laquelle ils appartiennent. Ces points doivent autant que possible représenter la diversité « intraclasse » pour permettre un apprentissage optimal du classifieur; par exemple, si une classe « eau » est définie, il faut aussi bien considérer un lac, une rivière, un étang et l’océan si tous ces éléments apparaissent sur les données de la scène à classifier. Il est intéressant de trouver un maximum d’exemples pour chacune des L classes du problème considéré. Lorsque la collecte et l’étiquetage des pixels d’entraînement sont réalisés, il faut alors entraîner le classifieur choisi sur cet ensemble. Au sein des logiciels de SIG, plusieurs 8 classifieurs classiques sont implémentés et il n’est donc nécessaire d’en implémenter de nouveaux qu’en cas de besoin spécifique. Un logiciel comme Matlab possède des toolbox où sont déjà implémentés les classifieurs usuels. 5.3. Classification non-supervisée Cette approche ne demande comme seule information préalable que le nombre de « clusters » désirés en sortie de classification. Le plus gros du travail est d’identifier le contenu des groupes, lors de la phase de post-classification et d’agréger certains s’il y a lieu. 5.4. Les classifieurs utilisés • KNN, ANN, MAXIMUM LIKELIHOOD, PARALLELEPIPED, MINIMUM DISTANCE. • KMEAN, ISOCLUST, Remarques : Les sorties des classifieurs doivent toujours être considérées avec précaution. Aucun classifieur n’est parfait et il y a toujours des erreurs. Dans le cas de la classification non-supervisée, il n’est pas rare que les clusters trouvés ne correspondent pas aux attentes de l’opérateur. Il faut alors reconsidérer l’approche. 9