Classification des données de grande dimension: application à la
Transcription
Classification des données de grande dimension: application à la
Classification des données de grande dimension: application à la vision par ordinateur Charles Bouveyron∗,∗∗ , Stéphane Girard∗ Cordelia Schmid∗∗ ∗ LMC-IMAG, Université Grenoble 1, ∗∗ Projet Lear, INRIA Rhône-alpes. Résumé. Nous présentons une paramétrisation des modèles de mélange gaussien adaptée aux données de grande dimension. Cette modélisation donne naissance à des méthodes de classification supervisée et non supervisée. Nous appliquons ces méthodes pour reconnaître des objets dans des images. 1 Introduction L’apprentissage statistique est devenu ces dernières années une discipline spécifique. En effet, de nombreux domaines scientifiques ont besoin d’analyser des données de plus en plus complexes. On peut citer par exemple la vision par ordinateur qui fournit des données de très grande dimension. Cependant, la classification de telles données est un problème difficile. En effet, dans des espaces de grande dimension, les performances des méthodes d’apprentissage souffrent du phénomène dit du fléau de la dimension. Ce phénomène est dû au fait que la taille de l’échantillon est souvent petite devant le nombre de paramètres àă estimer, qui est fonction de la dimension de l’espace. 2 Modèle de mélange gaussien pour la haute dimension Nous proposons donc une modélisation gaussienne adaptée aux données de grande dimension pour la classification. Nous faisons l’hypothèse que les données de grande dimension vivent dans des sous-espaces qui peuvent être différents et dont la dimension intrinsèque est inférieure àă la dimension de l’espace. Nous supposons que les densités des classes sont normales multivariées. Nous proposons en outre de travailler, pour chaque classe indépendamment, dans son espace propre et nous supposons que la matrice de covariance de la classe Ci est bloc-diagonale et ne possède que di + 1 valeurs propres différentes. Cela implique que les données de la classe Ci vivent dans un sous-espace propre à la classe de dimension di < p et que la variance en dehors de ce sous-espace est constante et correspond au bruit d’acquisition des données. Cette modélisation donne naissance àă une nouvelle méthode de discrimination, nommée Analyse Discriminante de Haute Dimension (HDDA), et une nouvelle méthode de classification automatique basée sur l’algorithme d’estimation EM, nommée Clustering des Données de Haute Dimension (HDDC). Classification des données de grande dimension F IG . 1 – Localisation de l’objet «vélo» gràce à l’HDDC et notre approche probabiliste : à gauche, l’image originale, au milieu, les points d’intérêts détectés et, à droite, l’objet localisé grâce aux points ayant la plus grande probabilité d’appartenir à l’objet. 3 Application à la reconnaissance d’objets En vision par ordinateur, un des problème les plus difficiles est la reconnaissance d’objets dans des images naturelles. La difficulté de cette tâche est due au fait que, d’une part, les données sont de grande dimension (en général supérieure àă 100) et, d’autre part, l’annotation manuelle des données d’apprentissage n’est pas possible vue le nombre d’images et d’objets existants. Dans notre approche, chaque objet est modélisé comme étant composé de parties. Nous combinons ensuite les méthodes de classification en grande dimension et une approche faiblement supervisée pour apprendre un modèle discriminant de chaque objet. Nous pouvons ainsi reconnaître dans une nouvelle image chacun des objets appris. Nous avons testé notre approche sur une base récente d’images et les résultats obtenus montrent que notre méthode surpasse les méthodes existantes. La Figure 1 présente le résultat de la localisation d’un objet dans une image réelle. Summary We present a parameterization of the Gaussian mixture model designed for high-dimensional data. This parameterization gives rise to supervised and unsupervised classification methods. We apply these methods to recognize objects in images.