Classification des données de grande dimension: application à la

Transcription

Classification des données de grande dimension: application à la
Classification des données de grande dimension:
application à la vision par ordinateur
Charles Bouveyron∗,∗∗ , Stéphane Girard∗
Cordelia Schmid∗∗
∗ LMC-IMAG,
Université Grenoble 1, ∗∗ Projet Lear, INRIA Rhône-alpes.
Résumé. Nous présentons une paramétrisation des modèles de mélange gaussien adaptée aux données de grande dimension. Cette modélisation donne naissance à des méthodes de classification supervisée et non supervisée. Nous appliquons ces méthodes pour reconnaître des objets dans des images.
1
Introduction
L’apprentissage statistique est devenu ces dernières années une discipline spécifique. En
effet, de nombreux domaines scientifiques ont besoin d’analyser des données de plus en plus
complexes. On peut citer par exemple la vision par ordinateur qui fournit des données de très
grande dimension. Cependant, la classification de telles données est un problème difficile. En
effet, dans des espaces de grande dimension, les performances des méthodes d’apprentissage
souffrent du phénomène dit du fléau de la dimension. Ce phénomène est dû au fait que la taille
de l’échantillon est souvent petite devant le nombre de paramètres àă estimer, qui est fonction
de la dimension de l’espace.
2
Modèle de mélange gaussien pour la haute dimension
Nous proposons donc une modélisation gaussienne adaptée aux données de grande dimension pour la classification. Nous faisons l’hypothèse que les données de grande dimension
vivent dans des sous-espaces qui peuvent être différents et dont la dimension intrinsèque est
inférieure àă la dimension de l’espace. Nous supposons que les densités des classes sont normales multivariées. Nous proposons en outre de travailler, pour chaque classe indépendamment, dans son espace propre et nous supposons que la matrice de covariance de la classe Ci
est bloc-diagonale et ne possède que di + 1 valeurs propres différentes. Cela implique que les
données de la classe Ci vivent dans un sous-espace propre à la classe de dimension di < p et
que la variance en dehors de ce sous-espace est constante et correspond au bruit d’acquisition
des données. Cette modélisation donne naissance àă une nouvelle méthode de discrimination,
nommée Analyse Discriminante de Haute Dimension (HDDA), et une nouvelle méthode de
classification automatique basée sur l’algorithme d’estimation EM, nommée Clustering des
Données de Haute Dimension (HDDC).
Classification des données de grande dimension
F IG . 1 – Localisation de l’objet «vélo» gràce à l’HDDC et notre approche probabiliste : à
gauche, l’image originale, au milieu, les points d’intérêts détectés et, à droite, l’objet localisé
grâce aux points ayant la plus grande probabilité d’appartenir à l’objet.
3
Application à la reconnaissance d’objets
En vision par ordinateur, un des problème les plus difficiles est la reconnaissance d’objets
dans des images naturelles. La difficulté de cette tâche est due au fait que, d’une part, les
données sont de grande dimension (en général supérieure àă 100) et, d’autre part, l’annotation
manuelle des données d’apprentissage n’est pas possible vue le nombre d’images et d’objets
existants. Dans notre approche, chaque objet est modélisé comme étant composé de parties.
Nous combinons ensuite les méthodes de classification en grande dimension et une approche
faiblement supervisée pour apprendre un modèle discriminant de chaque objet. Nous pouvons
ainsi reconnaître dans une nouvelle image chacun des objets appris. Nous avons testé notre
approche sur une base récente d’images et les résultats obtenus montrent que notre méthode
surpasse les méthodes existantes. La Figure 1 présente le résultat de la localisation d’un objet
dans une image réelle.
Summary
We present a parameterization of the Gaussian mixture model designed for high-dimensional
data. This parameterization gives rise to supervised and unsupervised classification methods.
We apply these methods to recognize objects in images.