Thèse de J. Bossu
Transcription
Thèse de J. Bossu
UNIVERSITÉ DE BOURGOGNE U.F.R. SCIENCES ET TECHNIQUES ÉCOLE DOCTORALE ENVIRONNEMENT, SANTE/STIC (E2S) LE2I - UMR CNRS 5158 Thèse présentée en vue de l’obtention du grade de Docteur en Instrumentation et Informatique de l’Image par Jérémie BOSSU Segmentation d’images pour la localisation d’adventices. Application à la réalisation d’un système de vision pour une pulvérisation spécifique en temps réel. Soutenue le 4 décembre 2007 devant la commission d’examen Rapporteurs : Examinateurs : M. F. Destain Professeur G. Grenier M. Chapron C. Gée B. Lamalle M. Morel F. Truchetet Professeur Maı̂tre de Conférences Maı̂tre de Conférences Professeur Responsable Marketing Professeur Faculté Universitaire des Sciences Agronomiques de Gembloux (Belgique) UMR CNRS 5218, ENITA de Bordeaux UMR CNRS 8051, ENSEA, Cergy-Pontoise ENESAD-DSI/UP-GAP, Dijon UMR 5158 uB-CNRS, Le2I, Le Creusot Société Tecnoma du groupe Exel Industries UMR 5158 uB-CNRS, Le2I, Le Creusot A la mémoire de ma grand mère paternelle décédée le 6/10/2007, A la mémoire de mon grand père maternel décédé le 30/10/1991, A mes parents, A ma famille, ii Remerciements Au cours de ces années de thèse, j’ai côtoyé plusieurs personnes qui m’ont aidé et encouragé et j’aimerais les remercier ici. Cette thèse s’est déroulée au sein de l’UP GAP (Unité Propre en Génie des Agroéquipements et Procédés) de l’ENESAD. Je salue l’ensemble des membres de ce laboratoire, en particulier Richard Martin pour son aide sur la conception et la réalisation du pulvérisateur de précision. Merci à tous les membres de l’équipe et à son responsable (Bernard Chopinet) pour leurs aides au cours de ces années passées quotidiennement avec eux et tout particulièrement Frédéric, Gawain, Jean-Noel, Nicole, Richard et Sylvain. Christelle Gée m’a encadré pendant toute cette période. Merci pour tes conseils et surtout pour ta patience et ton calme. Frédéric Truchetet, qui a assuré la direction scientifique de cette thèse, a toujours su répondre à mes problèmes et mes requêtes. Marie France Destain et Gilbert Grenier qui ont accepté d’être les rapporteurs de cette thèse ainsi que tous les membres de la commision d’examen. Cette thèse a été réalisée en partenariat avec la société Tecnoma et je tiens à remercier particulièrement Michel Morel, responsable marketing. Cédricq Garrido pour son aide sur la programmation multi-threading. Je tiens aussi à remercier l’ensemble des membre du LE2I de Dijon et Le Creusot en particulier Savério, Julien, Johel, Elbey et Pierre, ainsi que Jean-Marie Bilbault qui m’a permis de m’inscrire en DEA. A mes amis qui m’ont soutenu pendant ces années et plus particulièrement Christelle, Romu, Sabir, Fred, Vaness, Fab, Bijoux, Aurélie, Pin’s, Caro et j’en oublie sûrement ! Remerciements iv Résumé Dans le souci d’une agriculture respectueuse de l’environnement, nous nous sommes intéressés au développement d’un système de vision pour une pulvérisation de précision en temps réel. Ce système destiné aux grandes cultures (cultures céréalières) a pour but de moduler les doses d’herbicides déposées sur une parcelle cultivée. Une caméra monochrome est embarquée à l’avant d’un tracteur. L’image est en temps réel analysée par un ordinateur afin d’identifier la végétation du reste de la scène puis de séparer les adventices de la culture. Pour le choix de l’algorithme de traitement d’image, nous avons comparé différents algorithmes de discrimination culture/adventices basés sur l’utilisation de la transformée de Fourier couplée à un filtre de Gabor, la transformée en ondelette ou bien sur la transformée de Hough. C’est au moyen d’images modélisées que nous avons pu sélectionner celui qui nous est apparu le plus éfficace pour fonctionner en temps réel à savoir le filtre de Gabor. Une fois la carte d’infestation réalisée, chaque tache d’adventices est clairement détectée puis étiquetée par une méhode de blob-coloring. Enfin l’utilisation d’un modèle du sténopé permet de localiser ces taches en coordonnées du monde réel afin d’activer la bonne électrovanne pneumatique du pulvérisateur au bon moment. Mots-clefs : traitement d’image, classification, analyse multirésolution, filtre de Gabor, détection d’adventices, temps réel. v Résumé vi Abstract The subject of this thesis is devoted to the development of a vision system for a precision sprayer in real time. The system, dedicated to field crops (cereal crops), aims to adjust the doses of herbicides managing each nozzle of the sprayer boom by actuator. It is a feasbility study with the aim to be adaptable to usual sprayer or tractor and to work at standard spraying speed (10 km/h). A tilted monochrome camera is embedded in the front of a tractor. The image is processed in real time by a computer to identify vegetation of the rest of the scene and then to discriminate between weed and crop. To choice the best crop/weed discrimination algorithm (accuracy and time computing) for image processing, we compared different algorithms based on Fourier transform coupled with Gabor filter, wavelet transform or Hough transform. The comparison has been done on a big data base of modelled images where the number of crop and weed pixels are initial parameters of the modelling. The Gabor filtering has been selected as being the most efficient algorithm to operate in real time and to implement it. Once the infestaion map is realized, each weed patches is clearly labelled and then detected by a blob-coloring method. Finally, the use of a pinhole camera model makes it possible to locate these patches in real-world coordinates to enable the right actuator at the right time. Keywords : Image processing, classification, multiresolution analysis, Gabor filter, wavelet transform, Hough transform, weeds detection, sustainable agriculture, real time. vii Abstract viii Sommaire Remerciements iii Résumé v Abstract vii Introduction générale 1 2 v Généralités sur le désherbage et l’imagerie 1.1 Contexte agricole . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Lutte contre les mauvaises herbes - Les différentes pratiques de désherbage 1.2.1 Le désherbage chimique . . . . . . . . . . . . . . . . . . . . . . . 1.2.2 Le désherbage biologique et mécanique . . . . . . . . . . . . . . . 1.2.3 Autres types de désherbage . . . . . . . . . . . . . . . . . . . . . . 1.2.4 Les Techniques Culturales Simplifiées (TCS) . . . . . . . . . . . . 1.2.5 L’efficacité des stratégies de désherbage . . . . . . . . . . . . . . . 1.3 Vers une meilleure gestion de la pulvérisation . . . . . . . . . . . . . . . . 1.4 Modulation de la pulvérisation : état des lieux . . . . . . . . . . . . . . . . 1.5 L’apport de l’imagerie pour le désherbage . . . . . . . . . . . . . . . . . . 1.5.1 Imagerie spectrale pour identification des plantes . . . . . . . . . . 1.5.2 Autres méthodes d’imagerie pour l’identification des plantes . . . . 1.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dispositif expérimental 2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Prototype de pulvérisation localisée en temps réel par imagerie . . . . . . . . . . . 2.2.1 Le pulvérisateur et ses modifications . . . . . . . . . . . . . . . . . . . . . 2.2.2 Choix de la caméra et de la carte d’acquisition . . . . . . . . . . . . . . . 2.2.3 Capteur de vitesse et unité de traitement . . . . . . . . . . . . . . . . . . . 2.3 Électronique et commande du pulvérisateur . . . . . . . . . . . . . . . . . . . . . 2.3.1 Présentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.2 Unité de contrôle - Protocole de communication . . . . . . . . . . . . . . 2.3.3 Logiciel de pilotage des EVP . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.3.1 Gestion des temps . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.3.2 Réalisation d’une carte d’infestation . . . . . . . . . . . . . . . 2.3.3.3 Gestion des EVP . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.3.4 Réalisation des chronogrammes des électrovannes pneumatiques 2.4 Dispositif optique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.1 Présentation du système optique . . . . . . . . . . . . . . . . . . . . . . . 2.4.2 Modélisation géométrique de la caméra : modèle du sténopé . . . . . . . . 2.4.2.1 Matrice de passage (Pe ) . . . . . . . . . . . . . . . . . . . . . . 2.4.2.2 Projection perspective . . . . . . . . . . . . . . . . . . . . . . . i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 3 3 4 5 5 5 5 8 10 11 11 12 . . . . . . . . . . . . . . . . . . 15 15 16 16 18 19 20 20 21 22 22 23 24 25 25 26 27 27 29 SOMMAIRE . . . . . . . . . . . 29 29 31 31 33 35 37 39 41 41 42 Algorithmes spectraux 3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Les différents types de réflexion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1 La réflexion spéculaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.2 La réflexion diffuse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.3 La réflexion chez les végétaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Réflectance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.1 Propriétés spectrales des végétaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.2 Propriétés directionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4 État de l’art : réflectance et désherbage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5 Réalisation de deux bases de données de réflectance . . . . . . . . . . . . . . . . . . . . . . . 3.5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.2 Espèces végétales étudiées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.3 Dispositif expérimental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.4 Base de données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6 Méthode de réduction des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6.1 Analyse en Composantes Principales (ACP) . . . . . . . . . . . . . . . . . . . . . . . 3.6.1.1 Principe de l’ACP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6.1.2 Étude des variables - Cercle des corrélations . . . . . . . . . . . . . . . . . 3.6.1.3 Étude des individus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6.1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7 Les réseaux de neurones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.1 Les réseaux multicouches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.1.1 Structure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.1.2 Règle d’apprentissage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.2 Exemple d’architecture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.3 Les réseaux de type fonction à base radiale (Radial Basis Fonction, RBF) probabiliste 3.8 Résultats et discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.8.1 Prétraitement et matrice de données . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.8.2 Résultat de l’Analyse en Composante Principale . . . . . . . . . . . . . . . . . . . . 3.8.3 Résultats des classifications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.8.3.1 Utilisation d’un réseau de neurone de type perceptron . . . . . . . . . . . . 3.8.3.1.1 Campagne 1 avec la campagne 2 . . . . . . . . . . . . . . . . . . 3.8.3.2 Utilisation d’un réseau de neurones de type probabiliste . . . . . . . . . . . 3.8.3.2.1 Résultats campagne 1 . . . . . . . . . . . . . . . . . . . . . . . . 3.8.3.2.2 Résultats campagne 2 . . . . . . . . . . . . . . . . . . . . . . . . 3.8.3.2.3 Résultats sur l’ensemble campagne 1 et campagne 2 . . . . . . . . 3.8.3.2.4 Laboratoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.8.3.3 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.9 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 45 46 46 47 47 48 49 49 49 50 50 50 51 52 53 53 53 54 54 55 55 56 56 56 56 56 57 57 58 59 59 62 63 63 63 65 65 66 67 2.5 3 2.4.2.3 Transformation caméra/image . . . . . . . . . . . . . . . . 2.4.2.4 Transformation globale . . . . . . . . . . . . . . . . . . . 2.4.3 Autocalibration pour le temps réel . . . . . . . . . . . . . . . . . . . 2.4.3.1 Méthode de calibration des paramètres intrinsèques . . . . 2.4.3.1.1 Résultats de la calibration . . . . . . . . . . . . . 2.4.3.2 Méthode de calibration des paramètres extrinsèques . . . . 2.4.3.2.1 Détermination des coordonnées du point de fuite . 2.4.3.2.2 Détermination de l’angle de tangage ϕ . . . . . . 2.4.3.2.3 Détermination de l’angle de lacet α . . . . . . . . 2.4.3.2.4 Résultats de la calibration . . . . . . . . . . . . . Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . SOMMAIRE 4 Algorithmes spatiaux 69 4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 4.2 La transformée de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 4.2.1 Rappel sur la transformée de Fourier (TF) . . . . . . . . . . . . . . . . . . . . . . . . 71 4.2.2 Rappel sur le filtre de Gabor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 4.2.2.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 4.2.3 Utilisation du filtre de Gabor pour discriminer la culture des adventices . . . . . . . . 73 4.2.3.1 Transformée de Fourier rapide et détection des paramètres du filtre . . . . . 73 4.2.3.2 Filtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 4.2.4 Illustration de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 4.3 La transformée de Fourier à fenêtre glissante . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 4.3.1 Rappel sur la transformée de Fourier à fenêtre glissante . . . . . . . . . . . . . . . . . 76 4.3.2 Utilisation de la transformée de Fourier à fenêtre glissante pour détecter les lignes de semis 77 4.4 La transformée en ondelette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 4.4.1 Définition d’une ondelette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 4.4.2 Transformée discrète et analyse multi-résolution . . . . . . . . . . . . . . . . . . . . 78 4.4.3 Utilisation de la transformée en ondelette pour la détection de lignes de semis . . . . . 79 4.4.4 Illustration de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 4.5 La transformée de Hough . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 4.5.1 Rappel sur la transformée de Hough . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 4.5.1.1 Les accumulateurs dans Hough . . . . . . . . . . . . . . . . . . . . . . . . 85 4.5.2 Description de l’algorithme mis en place . . . . . . . . . . . . . . . . . . . . . . . . 85 4.5.2.1 Première transformée de Hough . . . . . . . . . . . . . . . . . . . . . . . . 85 4.5.2.2 Détection des maxima locaux . . . . . . . . . . . . . . . . . . . . . . . . . 86 4.5.2.3 Seconde transformée de Hough . . . . . . . . . . . . . . . . . . . . . . . . 86 4.5.2.4 Extraction des maxima associés à des lignes de semis . . . . . . . . . . . . 86 4.5.3 Illustration de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 4.6 Redressement des images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 4.7 Étude de la robustesse des algorithmes spatiaux . . . . . . . . . . . . . . . . . . . . . . . . . 88 4.7.1 Modélisation d’images agronomiques . . . . . . . . . . . . . . . . . . . . . . . . . . 88 4.7.2 Matrice de confusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 4.8 Création de trois bases de données d’images . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 4.8.1 Images simulées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 4.8.2 Images réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 4.9 Résultats et Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 4.9.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 4.9.2 Algorithme basé sur la transformée de Fourier et du filtre de Gabor (TF) . . . . . . . . 94 4.9.2.1 Utilisation sur des images présentant une vue en perspective . . . . . . . . . 94 4.9.2.1.1 Images simulées . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 4.9.2.1.2 Images réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 4.9.2.2 Utilisation sur des images redressées . . . . . . . . . . . . . . . . . . . . . 101 4.9.2.2.1 Images simulées . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 4.9.2.2.2 Images réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 4.9.3 Algorithme basé sur la transformée de Fourier à fenêtre glissante (TFG) . . . . . . . . 106 4.9.3.1 Images simulées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 4.9.3.2 Images réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 4.9.4 Algorithme basé sur la transformée en ondelette . . . . . . . . . . . . . . . . . . . . . 110 4.9.4.1 Utilisation sur des images présentant une vue en perspective . . . . . . . . . 110 4.9.4.1.1 Images simulées . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 4.9.4.1.2 Images Réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 4.9.4.2 Utilisation sur des images redressées . . . . . . . . . . . . . . . . . . . . . 115 iii SOMMAIRE 4.9.4.2.1 Images simulées . . . . . . . . . . . . . . . . . 4.9.4.2.2 Images Réelles . . . . . . . . . . . . . . . . . 4.9.5 Algorithme basé sur la transformée de Hough . . . . . . . . . . . . 4.9.5.1 Images simulées . . . . . . . . . . . . . . . . . . . . . . 4.9.5.2 Images réelles . . . . . . . . . . . . . . . . . . . . . . . 4.9.6 Bilan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.9.7 Réflexion générale sur l’imagerie pour la lutte contre les adventices 4.10 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Mise en œuvre du prototype réalisé 5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Premiers tests de gestion des électrovannes pneumatiques . . . . . . . . . . . . . . . . 5.3 Premiers tests sur l’algorithme basé sur la transformée de Fourier et du filtre de Gabor . 5.4 Poursuite de l’étude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 118 120 120 123 125 128 128 . . . . . 129 129 129 130 133 133 Conclusion générale 135 Perspectives 137 Bibliographie 139 iv Introduction générale Dans la seconde moitié du vingtième siècle, l’agriculture française s’est intensivement développée au point d’atteindre dans les années 80, une productivité qui lui confère la première place sur le marché européen (Bayer CropScience, 2007). A titre d’exemple, depuis les années 50, la production de blé a été multipliée par quatre pour atteindre les 70 quintaux à l’hectare en moyenne en France (Alternatives Economiques, 2007 ; Groupe Tv Agri, 2007). Cette révolution agricole a pu se faire grâce à la mise en place de la Politique Agricole Commune (PAC) dans les années 60 mais aussi avec les nombreux progrès techniques (mécanisation, utilisation d’intrants1 , recours à la sélection variétale), qui semblent marquer le pas aujourd’hui et qui ont permis une explosion des rendements. Cependant, dans le même temps, la consommation de pesticides2 est devenue 25 fois plus importante et celle d’engrais chimiques a été multipliée par 10. Cette course aveugle à la productivité et donc aux profits a conduit inéluctablement à une forte dégradation des ressources naturelles (eau, sol, ...). En 1984, à l’initiative de Pierre Robert (Robert, 2000) à l’université de Minneapolis (MN-USA), une réflexion scientifique a été menée par les principaux acteurs du domaine sur l’agriculture du X X I ème siècle. Le terme ”agriculture de précision” fait alors son apparition, sa définition est axée sur une meilleure gestion spatiale des intrants selon la variabilité intra parcellaire tout en conservant les objectifs économiques : – la réduction des coûts en produits chimiques (engrais et pesticides), – l’augmentation des rendements. Cependant les attentes sociales en terme d’environnement ont fait que ce concept a dû évoluer en se focalisant sur une meilleure gestion de l’environnement. Cette notion de modulation des apports sur la parcelle cultivée devient réalisable grâce à la possibilité d’utiliser des nouvelles technologies telles que l’imagerie, l’électronique embarquée et l’informatique ouvrant ainsi de nouveaux axes de recherche. Objectifs de la thèse Dans le cadre de la protection de l’environnement, le laboratoire GAP ”Génie des Agroéquipements et des Procédés” a réfléchi sur la possibilité de regrouper ses compétences en imagerie au service du milieu agricole. Notre travail avec les professionnels de la pulvérisation (Société Tecnoma), nous a naturellement conduit à porter notre intérêt sur la pulvérisation dans le contexte de l’agriculture de précision définit par ”la bonne dose, au bon endroit et au bon moment”. L’approche de cette thèse est innovante car, aucune équipe de recherche n’a actuellement envisagé de coupler l’imagerie à un outil agricole dans le but de faire de la modulation automatique de doses en temps réel. Au cours de ce travail, le principal verrou scientifique à lever sera la détermination du meilleur algorithme de traitement d’images se caractérisant par le meilleur compromis entre le temps de calcul et l’efficacité à séparer la culture des adventices sur des images en perspective en temps réel. Le couplage du traitement d’images et de la gestion d’électrovannes en temps réel représente quant à lui, le verrou technologique. 1 Intrants : ce terme englobe tous les produits chimiques apportés sur la parcelle : engrais chimiques (azote (N), potassium (K) et phosphore (P)) et produits phytosanitaires. 2 Pesticides : terme générique regroupant les insecticides, les fongicides et les herbicides. v Introduction générale Plan de la thèse Le manuscrit est structuré en deux parties, la première partie comporte les acquis concernant les méthodes de désherbage (chimique, manuel, électrique et mécanique) et l’imagerie dans le contexte de la pulvérisation. Ce sujet étant trop vaste, nous ne pourrons le détailler de façon complète, nous nous limiterons donc aux travaux concernant cette thèse. Le premier chapitre présentera les pratiques agricoles de lutte contre les mauvaises herbes. Un état des lieux du matériel de pulvérisation suivra où nous présenterons les efforts réalisés par les constructeurs pour être en adéquation avec les normes environnementales. Pour finir, un état de l’art sur les différents systèmes de modulation de doses développés par les laboratoires de recherche seront présentés. Dans le chapitre 2 on trouvera la description de la conception et de la réalisation du prototype que j’ai développé dans le cadre de cette thèse dont les principales étapes sont : – l’adaptation d’un pulvérisateur standard au concept de précision : de la caméra aux électrovannes, – la réalisation d’une carte d’interfaçage entre l’ordinateur (permettant d’exécuter les algorithmes de discrimination de la culture des adventices) et les actionneurs (électrovannes pneumatiques). Nous parlerons aussi du protocole de communication pour le pilotage de la carte par l’ordinateur, – le logiciel réalisé pour le temps réel avec la gestion de plusieurs tâches (multi-threading). La seconde partie présente les méthodes de traitement du signal développées pour la discrimination entre la culture et les adventices. Deux approches ont été étudiées, spectrale et spatiale, afin de déterminer dans chacune de ces approches, quelles seraient les informations importantes à exploiter en vue d’utiliser l’imagerie pour une pulvérisation sélective automatique en temps réel. L’utilisation des signatures spectrales, pour la discrimination des plantes est présentée dans le chapitre 3. En utilisant un spectromètre, les expériences de réflectance sur différentes espèces végétales ont été conduites aussi bien en laboratoire que dans des parcelles. La constitution de ces deux bases de données nous a permis de tester différentes méthodes de classification supervisées (Analyse en Composantes Principales ou Réseau de Neurones) afin de mettre en évidence la possibilité de différencier un groupe végétal d’un autre (monocotylédone et dicotylédone) ou une espèce végétale d’une autre. Comme nous le verrons dans la section résultats et discussion (3.8), les excellents résultats obtenus sur les mesures faites en laboratoire ne semblent pas se confirmer lorsque celles-ci sont obtenues dans des conditions semi-réelles (éclairement contrôlé dans un environnement naturel : la parcelle). La deuxième orientation choisie pour la discrimination de la culture et des adventices est basée sur une approche spatiale ce qui permet de carctériser la végétation dans une parcelle cultivée selon leurs distributions spatiales : – une distribution périodique pour la culture, – une distribution aléatoire ponctuelle ou agrégative pour les adventices. Dans ces conditions, le chapitre 4 présente quatre algorithmes qui ont été développés pour discriminer la culture des mauvaises herbes dans une image. Ces algorithmes sont basés sur : – l’utilisation d’un filtre de Gabor et de la transformée de Fourier sur des images présentant une perspective ou sur des images redressées, – l’utilisation d’un filtre de Gabor et de la transformée de Fourier à fenêtre glissante, – une analyse multi-résolution utilisant la transformée en ondelettes sur des images présentant une perspective ou sur des images redressées, – la transformée de Hough. Afin de tester la robustesse de ces algorithmes face à différents taux d’infestation d’adventices dans une parcelle cultivée, des images modélisant une scène agronomique dont les paramètres initiaux sont parfaitement contrôlés ont été utilisées (nombre de pixels de culture, nombre de pixels d’adventices et le taux d’infestation exprimé en pourcentage). L’ensemble des résultats obtenus pour ces différents algorithmes sont présentés dans vi Introduction générale la section 4.9 qui se termine par une discussion générale comparant les avantages et inconvénients de chacune des méthodes pour une mise en œuvre dans le cadre d’une utilisation pour le temps réel. Les conclusions obtenues à l’issue des résultats sur la discrimination spatiale et spectrale nous ont permis de réaliser un prototype de pulvérisation spécifique en temps réel contrôlé par vision dont les caractéristiques techniques sont présentées au chapitre 5. Bilan-Publications et valorisation Les travaux présentés au cours de cette thèse ont fait l’objet de différentes publications à caractère scientifique : Revues(3) – C. Gée, J. Bossu, G. Jones et F. Truchetet, 2007. Crop/weed discrimination in perspective agronomic images. Computers and Electronics in Agriculture, 61, pp.49-59. (Trois autres publications sont soumises à des revues internationales). Publications antérieures à la thèse : – S. Morfu, J. Bossu et P. Marquié, 2007. Experiments on an electrical nonlinear oscillators network. International Journal of Bifurcation and Chaos, 17 (10). – S. Morfu, J. Bossu, P. Marquié et J-M. Bilbault, 2006. Contrast enhancement with a nonlinear oscillators network. Nonlinear Dynamics Journal, Springer, 44 (1), pp. 173-180. Conférences internationales(7) – C.Gée, L. Berret, J. Bossu, C. Chardon, G. Jones et F. Truchetet, 2008. Feasibility study for a catadioptric bi-band imaging system. IS&T/SPIE 20th Annual Symposium on Electronic Imaging Science and technology, San Jose,USA, 6816. – J. Bossu, C. Gée, J-P Guillemin et F. Truchetet, 2007. Wavelet transform to discriminate between crop and weed in agronomic images. Wavelet Applications in Industrial Processing V, Boston, Massachusetts USA, 6763-28. – J. Bossu, C. Gée et F. Truchetet, 2007. Development of a machine vision system for a real time precision sprayer. 8th International Conference on Quality Control by Artificial Vision (QCAV), Le Creusot, France,6356, pp. 63560K(1-11). – C. Gée, J. Bossu et F. Truchetet, 2006. A Double Hough Transform for a Crop-Weed discrimination. Agricultural Engineering for a Better World, Bonn, Allemagne, IS 330 A, CD-ROM. – J. Bossu, C. Gée, J-P Guillemin et F. Truchetet, 2006. Development of methods based on double Hough transform or Gabor filtering to discriminate between crop and weed in agronomic images. IS&T/SPIE 18th Annual Symposium Electronic Imaging Science and Technology, San José, Californie USA, 6070, pp. 1-11. – J. Bossu, C. Gée, J-P Guillemin et F. Truchetet, 2005. Feasibility of a real-time weed detection system using spectral reflectance. Fifth European Conference on Precision Agriculture, Upsalla, Suède, pp. 123130. Conférence antérieure à la thèse : – S. Morfu, J. Bossu et P. Marquié, 2005. Nonlinear Image Processing : theory and experiments. 12th International Workshop on Nonlinear Dynamics of Electronic Systems, NDES 2005, Potsdam, Allemagne. Conférences nationales(3) – J. Bossu, C. Gée, J-P Guillemin et F. Truchetet, 2007. Système de vision pour la réduction temp réel d’herbicides. Proceedings de la 20ème Conférence de COLUMA - Journées Internationales sur la lutte contre les Mauvaises Herbes, Dijon, France. – J. Bossu, C. Gée, J-P Guillemin et F. Truchetet, 2006. Développement d’un système de vision pour une pulvérisation spécifique en temps réel. MAnifestation des Jeunes Chercheurs STIC (Majecstic), Lorient, France. Conférence antérieure à la thèse : vii Introduction générale – S. Morfu, J. Bossu et P. Marquié, 2005. Un réseau cellulaire non linéaire pour le traitement d’images. Compte-rendus de la 8e Rencontre du Non-Linéaire de l’institut Henri Poincaré, Non Linéaire Publications, Paris, France, pp. 169-174. Articles de vulgarisation(3) – C. Gée, 2007. L’imagerie au service de l’agriculture. Graine d’info, Revue externe de l’Enesad, Vol N˚11. Juin. – C. Gée, 2006. Le désherbage de précision par imagerie. AgroMag, Vol. Nov. – C. Crivillé, 2006. La pulvérisation bientôt guidée par l’image. Agriculture et Nouvelles Technologies, Vol. N˚5 p-10, Juin. viii Chapitre 1 Généralités sur le désherbage et l’imagerie Sommaire 1.1 1.2 1.3 1.4 1.5 1.6 Contexte agricole . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Lutte contre les mauvaises herbes - Les différentes pratiques de désherbage 1.2.1 Le désherbage chimique . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.2 Le désherbage biologique et mécanique . . . . . . . . . . . . . . . . . 1.2.3 Autres types de désherbage . . . . . . . . . . . . . . . . . . . . . . . . 1.2.4 Les Techniques Culturales Simplifiées (TCS) . . . . . . . . . . . . . . 1.2.5 L’efficacité des stratégies de désherbage . . . . . . . . . . . . . . . . . Vers une meilleure gestion de la pulvérisation . . . . . . . . . . . . . . . . . Modulation de la pulvérisation : état des lieux . . . . . . . . . . . . . . . . L’apport de l’imagerie pour le désherbage . . . . . . . . . . . . . . . . . . 1.5.1 Imagerie spectrale pour identification des plantes . . . . . . . . . . . . 1.5.2 Autres méthodes d’imagerie pour l’identification des plantes . . . . . . Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 3 3 4 5 5 5 5 8 10 11 11 12 1.1 Contexte agricole Comme il a été précisé dans l’introduction, l’évolution des Sciences et Technologies de l’Information et de la Communication (STIC) a permis, dans les pays industrialisés, de développer une agriculture beaucoup plus intensive grâce à la mécanisation ou encore à l’essor de l’automatisation des travaux agricoles. Parallèlement à ces évolutions technologiques, l’essor après guerre de l’industrie pétro-chimique est venu renforcer la productivité de l’agriculture française qui est de nos jours la plus productive d’Europe (communiqué du ministère de l’agriculture et de la pêche, 2006). Jusqu’au milieu du X X ème siècle, l’apport massif de produits chimiques (i.e. intrants) sur une parcelle cultivée, pour augmenter le rendement des cultures mais aussi les profits de l’agriculteur ne posaient pas de problème sociétal. On passait ainsi naturellement d’un apport d’engrais chimiques (azote, potassium, phosphore) afin de s’assurer du bon développement des cultures à un apport de pesticides soit pour un désherbage radical (herbicides), soit pour protéger la culture de toute attaque parasitaire (insecticides, fongicides). Initialement, les capteurs embarqués sur des engins agricoles avaient pour but d’optimiser les travaux agricoles, mais les progrès scientifiques ont permis d’embarquer ces capteurs également dans des vecteurs aériens (avions, drones, satellites) mettant en évidence non seulement des variabilités intra-parcellaires mais aussi des problèmes de pollution engendrés par ces apports. C’est ainsi que certains capteurs (photodétecteurs) permettent de mesurer la lumière réfléchie par les végétaux. Il est alors possible à partir de ce signal d’extraire une information agronomique (par exemple : indice foliaire, stress) souvent à partir d’indices tels que le LAI (Leaf Area Index = surface foliaire par rapport à la surface au sol) (Chen et Black, 1992 ; Chen et al., 1997 ; PIR − R avec PIR, la Breuer et al., 2003) ou encore le Normalized Difference Vegetation Index NDV I = PIR + R 1 Chapitre 1. Généralités sur le désherbage et l’imagerie composante proche infrarouge et R, la composante rouge du signal réfléchi (Richardson et Wiegrand, 1977 ; Tucker, 1979 ; Myneni et al., 1995). La récente prise de conscience du surdosage de ces produits phytosanitaires et des effets néfastes qu’ils engendrent a permis de faire évoluer les mentalités agricoles vers une agriculture plus environnementale (ou respectueuse de l’environnement) et pas uniquement tournée vers les profits. Une autre solution existe pour résoudre ces problèmes, elle consiste à passer à une agriculture dite ”biologique” où les agriculteurs utilisent non pas des produits chimiques mais plutôt des produits organiques sur les parcelles cultivées. Cependant les contraintes associées à cette agriculture sont : – d’un point de vue agricole : – la nécessité d’une main d’œuvre importante, – beaucoup plus de travail répétitif sur la parcelle avec un rendement identique à une agriculture classique (Goudy et al., 1999). – d’un point de vue industriel : – l’arrêt net de toute la filière phyto-chimique de l’industrie chimique. Pour aider la communauté agricole à atteindre ces objectifs c’est-à-dire maintenir les rendements tout en polluant moins, il est nécessaire de fournir aux agriculteurs des outils leur permettant d’optimiser les apports d’intrants. La communauté scientifique s’est donc efforcée de mettre en place des outils d’aide à la décision (OAD) en fournissant aux agriculteurs entre autres des cartes de préconisation. Celles-ci peuvent être de différentes formes : – carte de préconisation des doses d’azote sur une parcelle. Par exemple sur la figure 1.11 on peut voir une carte de préconisation Farmstar développée par EADS/Astrium (EADS/Astrium, 2007), – carte de rendement. La figure 1.21 présente une carte obtenue par un capteur de rendement et d’un GPS embarqués dans une moissonneuse batteuse. F IG . 1.1 – Carte de préconisation Farmstar. 1 source : http ://www.spotimage.fr/web/621-agriculture-de-precision.php 2 1.2 Lutte contre les mauvaises herbes - Les différentes pratiques de désherbage F IG . 1.2 – Exemple de carte de rendement obtenu chez un agriculteur en Champagne Ardenne pour une parcelle de blé. 1.2 Lutte contre les mauvaises herbes - Les différentes pratiques de désherbage Bien que les pratiques agricoles aient considérablement évolué, parmi les plus ancestrales, il en est une qui est de nos jours encore mondialement utilisée, c’est la rotation des cultures. L’intérêt de cette méthode est de permettre non seulement de ne pas appauvrir constamment les mêmes composants du sol et donc de réduire le rendement de la culture mais aussi d’empêcher certaines espèces végétales néfastes à la culture de s’implanter définitivement sur la parcelle. Le principe consiste à changer de type de culture d’une année sur l’autre, il est ainsi possible de régénérer le sol et de modifier l’implantation de certaines espèces. Une particularité de l’agriculture française est d’utiliser une autre pratique liée au désherbage : le labour. Un des buts de cette méthode, réalisée avant le semis de la culture, est d’éradiquer les plantes vivaces présentes sur la parcelle. L’intérêt de cette méthode est de permettre à la culture de se développer sainement, pleinement et suffisamment vite avant que les mauvaises herbes ne se développent. Dans le cas où certaines mauvaises herbes subsisteraient, une concurrence entre la culture et les adventices apparaı̂trait. Cette concurrence est un champ de recherche largement étudié en agronomie et notamment au sein de l’UMR INRA/ENESAD BGA (Biologie et Gestion des Adventices). JP Guillemin et al. (Granger et Guillemin, 2004 ; Guillemin et al., 2004 ; Thomas et al., 2004) ont montré que la culture prendra l’ascendant sur une autre plante au cours des quinze premiers jours après le semis. Des études sur la compétitivité ont également été conduites au Mexique sur des cultures de haricots afin de sélectionner les graines de haricots qui ont une très bonne aptitude à la concurrence vis-à-vis des mauvaises herbes (Mondragón Pedrero et Serrano Covarrubias, 2004). Ainsi l’existence d’une concurrence entre plante cultivée et mauvaises herbes nécessite de mettre en œuvre des techniques pour lutter contre les mauvaises herbes. 1.2.1 Le désherbage chimique C’est ainsi que l’agriculteur peut avoir recours aux herbicides afin de finaliser l’éradication des adventices sur la parcelle, le temps que la culture soit suffisamment développée. Actuellement, les firmes de produits phytosanitaires proposent une gamme extrêmement large dont l’efficacité est telle que l’agriculteur en est devenu totalement tributaire. Ces produits peuvent être soit de pré-émergence, soit de post-émergence et peuvent avoir soit une action foliaire soit une action racinaire ou soit les deux. Il existe plusieurs firmes proposant ces produits comme Syngenta (Syngenta, 2007), Tradi-Agri, MONSANTO (Mosanto, 2007).... 3 Chapitre 1. Généralités sur le désherbage et l’imagerie Ces firmes ont développé, entre autre, des herbicides dits sélectifs qui n’endommagent pas la culture même si celle-ci est pulvérisée, des herbicides adaptés à différentes classes de plantes (monocotylédones/dicotylédones), voire à différentes familles (brassicacées, astéracées) ou bien même à différentes espèces (chardon, vulpin,...). Par la suite, ce sont ces produits et plus particulièrement leurs molécules chimiques qui vont polluer le sol, suite à une mauvaise pulvérisation ou un surdosage, sans possibilité par la suite de les éliminer provoquant ainsi une pollution des eaux notamment par les nitrates qui les composent. De nombreux travaux scientifiques ont étudié les raisons pour lesquelles ces molécules actives n’atteignent pas leur cible (les feuilles par exemple). La principale cause est liée à la fabrication du jet de pulvérisation en sortie de buse. En effet, la difficulté est de pouvoir créer des gouttes d’eau, vecteurs de ces molécules actives, de dimensions correctes pour qu’elles ne s’évaporent pas durant leurs parcours avant d’atteindre la cible ou qu’elles ne ruissellent pas sur les feuilles finissant alors sur le sol. Des équipes, comme celle du laboratoire de Gembloux, ont étudié des jets de pulvérisation afin de tester de nouveaux types de buse (Ooms et al., 2002 ; Lebeau et al., 2004). Face à ce problème environnemental, des décisions européennes ont été prises interdisant la vente de certaines matières actives (inscription à l’annexe I de la directive 91/414/CEE1 ). Ainsi chaque année, ce sont plus de 550 molécules actives qui sont retirées du marché par les pouvoirs publics (informations obtenues chez Trame2 qui représente un réseau de 6 000 salariés agricoles, 50 000 agriculteurs, 120 associations régionales ou départementales de développement agricole, 1 500 associations locales, 250 conseillers ou techniciens). Parmi les molécules actives, la plus connue est l’Atrazine (sa forme structurelle est présentée figure 1.3), dont la vente est interdite depuis le premier octobre 2003. F IG . 1.3 – Formule structurelle de l’atrazine. Bien sûr, réduire ces produits chimiques n’est pas, en soi, une solution satisfaisante. En effet l’environnement continuera à être pollué, certes en plus faible quantité, mais aussi du fait que l’on produit un biotope de mauvaises herbes de plus en plus résistant à ces produits contraignant le monde de la phyto-chimie à développer des produits de plus en plus agressifs, pouvant nuire également au bon développement de la faune (par exemple les abeilles), de la flore (disparition de certaines espèces) et de l’homme (le taux de cancer chez les agriculteurs est de plus en plus élevé). 1.2.2 Le désherbage biologique et mécanique Le désherbage biologique fait intervenir l’action de parasites, de prédateurs ou d’organismes pathogènes sur les plantes. Cette méthode consiste à favoriser l’attaque des mauvaises herbes par les insectes ou les maladies. Étonnamment, cette méthode est peu développée en France alors qu’elle est extrêmement utilisée dans certains de nos pays limitrophes, notamment en Suisse avec le projet européen COST 816 qui a réuni, de 1994 à 1999, des chercheurs de 14 pays (Blum, 2004). Le désherbage mécanique (binage, hersage...) est utilisé le plus souvent dans le but de limiter l’emploi de produits phytosanitaires ; c’est une technique qui est plus particulièrement utilisée pour détruire les mauvaises herbes dans l’inter-rang de la culture. 1 http 2 http ://fr.wikipedia.org/wiki/Directive 91/414/CEE ://trame.asso.fr/index.php ?page=g1&texte=trame adherents 4 1.3 Vers une meilleure gestion de la pulvérisation 1.2.3 Autres types de désherbage De façon marginale, il existe des méthodes plus originales de désherbage, telles que le désherbage thermique ou brûlage. Ces méthodes ont été testées essentiellement sur des cultures maraı̂chères (?). On peut noter également, un désherbage marginal testé en ville et non pas en milieu agricole. L’utilisation d’une mousse spéciale à base de produits naturels. Le Waı̈puna, développé en Nouvelle Zélande a été testé en 2004/2005 par la DDE (Direction Départementale des Équipements) dans des villes de Bretagne pour désherber les trottoirs en ville. Ce système de pulvérisation consiste à projeter une mousse sur le sol goudronné comportant des mauvaises herbes, mousse composée de substances naturelles qui vont détruire les mauvaises herbes en moins de 24 heures (Hatey et Bras, 2004). Des travaux scientifiques récents démontrent de façon de plus en plus irréfutable la réalité des propriétés allélopathiques3 de certaines plantes. Pour exemple, l’espèce armoise annuelle (artemesia annua) dont certains génotypes produisent des niveaux élevés d’artémisinine4 , une molécule dont les effets inhibiteurs sur la croissance des plantes cibles sont démontrés (Delabays et Munier-Jolain, 2004). 1.2.4 Les Techniques Culturales Simplifiées (TCS) Les Techniques Culturales Simplifiées sont actuellement en plein essor car elles sont respectueuses de l’environnement et économes en produits phytosanitaires et en énergie. Ces pratiques ont pour but de restituer la richesse organique des sols et d’assurer un développement durable à l’agriculture. Initialement ces techniques reposent sur la simplification du travail du sol : il n’y a plus de travail profond du sol, on évite le labour. Le labour est alors remplacé par un travail du sol superficiel, développant un sol plus homogène avec une matière organique concentrée en surface. La forme la plus extrême des TCS est de réduire totalement les travaux du sol en réalisant le semis direct, le semis se fait alors sur un sol non travaillé où les adventices auront été au préalable contrôlées par une pulvérisation d’herbicides. 1.2.5 L’efficacité des stratégies de désherbage Actuellement, les solutions envisagées et testées sur certains types de cultures (par exemple : lentille, betterave) montrent que la combinaison de ces différentes méthodes de désherbage semble donner d’aussi bons résultats concernant le rendement que le désherbage utilisant une seule pratique. Notamment combiner un désherbage chimique avec un désherbage manuel est également étudié (Bamouh et Naciri, 1998). Ces types de travaux sont en cours d’étude à l’UMR BGA5 dans un essai dit ”longue durée” (Munier-Jolain et al., 2004) où l’efficacité de différentes combinaisons de méthodes de désherbage est étudiée. On citera également les études menées par le CETIOM6 sur l’intérêt des techniques combinées pour le désherbage du tournesol (Pilorge et al., 2004). 1.3 Vers une meilleure gestion de la pulvérisation Dans le cadre de cette thèse, nous nous sommes intéressés plus particulièrement aux pratiques de désherbage chimique. Les principales entreprises impliquées dans la pulvérisation (fabricants de pulvérisateurs et/ou de buses) ont commencé dès les années 80 à prendre conscience du problème environnemental en proposant très tôt des machines dont la pulvérisation peut-être automatiquement régulée de différentes façons mais aussi en développant des systèmes pour une meilleure stabilité de la rampe de pulvérisation lors de l’avancement (par exemple, le système Axair de Tecnoma (Tecnoma, 2007)). La régulation a pour rôle de pré-régler, de contrôler et de maintenir constant le volume/ha désiré, quels que soient le tracteur utilisé, le 3 le phénomène d’allélopathie décrit les interactions biochimiques directes ou indirectes, positives ou négatives, d’une plante sur une autre (micro-organismes inclus) au moyen de métabolites secondaires. Un métabolite secondaire est une molécule que produisent les organismes en dehors des voies métaboliques strictement nécessaires à assurer la survie. 4 L’artémisinine est le principe actif isolé de la plante armoise annuelle. 5 Biologie et Gestion des Adventices. 6 Centre Technique Interprofessionnel des Oléagineux Métropolitains. 5 Chapitre 1. Généralités sur le désherbage et l’imagerie régime moteur, la vitesse d’avancement et le débit de la pompe. Elle permet aussi de protéger les composants du pulvérisateur contre les élévations trop importantes de pression. Les lois de la régulation sont soumises à trois paramètres qui sont : – la pression, fournie par la pompe et mesurée dans les circuits ou aux buses, – le débit des buses, ou de la rampe, – la vitesse d’avancement du pulvérisateur. Il existe deux grands principes de régulation : – la régulation à pression constante : dans ce cas, un régulateur de pression maintient constante la pression dans les canalisations. Le débit des buses est alors constant, ce qui nécessite une vitesse d’avancement constante si l’on veut maintenir constant le volume épandu, – la régulation à débit proportionnel : avec ce principe, un dispositif assure automatiquement un volume constant pendant toute la durée de pulvérisation. Dans ce cas une variation de la vitesse d’avancement ou du débit de la pompe est corrigée automatiquement par le système de régulation. A partir de ces deux principes de régulation, différents systèmes de régulation, toujours placés entre la pompe et la rampe, sont proposés : – régulation à pression constante (P.C.) : avec ce système, la pression de pulvérisation est maintenue constante par un régulateur de pression (Barthelemy et al., 1990), – régulation à débit proportionnel au régime moteur (D.P.M.) : cette régulation est basée sur le principe de la proportionnalité entre le débit des buses et le débit de retour en cuve quel que soit le débit de la pompe, donc quel que soit le régime moteur. La pompe doit être de type volumétrique. Le volume/ha est donc constant quelles que soient les variations de vitesse de rotation du moteur pour un rapport de boite donnée. Ceci se réalise au détriment de la pression qui peut varier en cours de pulvérisation, modifiant ainsi la qualité des gouttes. De même, en cas de patinage du tracteur aucune correction n’est effectuée (Barthelemy et al., 1990), – régulation à débit proportionnel à l’avancement (D.P.A.) : la régulation est basée sur le principe de proportionnalité entre le débit aux buses et la vitesse d’avancement. Le volume/ha est constant quelles que soient les variations de vitesse d’avancement ou du régime moteur, et même en cas de patinage. La correction se réalise au détriment de la pression qui varie au cours de pulvérisation, entraı̂nant ainsi une modification de la taille des gouttes (Barthelemy et al., 1990), – régulation à débit proportionnel électronique (D.P.E.) : l’utilisation de l’électronique sur les pulvérisateurs permet de mettre au point différents systèmes de régulation qui sont basés sur le même principe. Des capteurs collectent des informations (débit, pression, vitesse) qu’ils transmettent à des unités de traitement qui, après analyse des données, commandent des actionneurs (régulateurs de débit, de pression). Ces systèmes permettent de vérifier le débit obtenu, de corriger et d’ajuster en permanence le volume/ha, quels que soient la vitesse d’avancement, le régime d’entraı̂nement de la pompe ou la largeur de la rampe (Barthelemy et al., 1990). Cependant, même si ces systèmes de régulation sont fonction de la vitesse d’avancement du tracteur et/ou du devers de la parcelle, il faut avoir en mémoire qu’actuellement la plupart de ces systèmes pulvérise de façon homogène sur toute la parcelle sans tenir compte de la répartition spatiale des mauvaises herbes dans une parcelle cultivée. Enfin, une autre avancée technique est l’arrivée sur le marché de nouveaux types de buses dites ”buses anti-dérive” permettant, entre autre, de contrôler la dimension et la quantité des gouttelettes susceptibles d’être déplacées par le vent afin qu’elles puissent atteindre leur cible. Nous pouvons voir sur la figure 1.4 différentes buses existantes7 . 7 source : http ://www.rhone-alpes.chambagri.fr/phytov3/pages/derive.htm 6 1.3 Vers une meilleure gestion de la pulvérisation Parmi les plus connues, on notera les buses Teejet développées par la Société Pulvexpert (Pulvexper, 2007), mais aussi les buses Nozal de chez Tecnoma (Tecnoma, 2007) basées sur le principe d’injection d’air pour modifier la taille des gouttes. Enfin, il est à noter que la charte Phytomieux8 signé entre le constructeur et le distributeur a pour objectif la fourniture d’un matériel neuf et d’un service de qualité respectant les règles de sécurité pour l’utilisateur et minimisant l’impact sur l’environnement. Elle est complémentaire des normes européennes sur la sécurité (EN907)9 et sur l’environnement (EN 12761). F IG . 1.4 – Différentes buses existentent sur le marché. Parmi les équipes de recherche (autre que le laboratoire de Gembloux en Belgique) travaillant sur la pulvérisation, le Département of Agricultural Engineering de l’université de Bonn en Allemagne a développé de nouveaux types de buses utilisant la régulation basée sur la Modulation de Largeurs d’Impulsions (MLI ou PWM : Pulse Width Modulation en anglais) (Hloben et al., 2006 ; Vondricka et al., 2006). Également le Cemagref de Montpellier avec l’équipe ”Technologies et Équipements”, de l’Unité Mixte de Recherche ITAP10 , dirigé par Bernadette Ruelle (Cemagref, 2007) a mis en place une plateforme de recherche technologique pour les matériels et techniques d’applications des produits phytosanitaires. Afin de caractériser les produits, comme la mesure de la taille et de la vitesse des gouttelettes, des méthodes de granulométrie, vélocimétrie laser (basé sur les propriétés de diffusion de la lumière sur des gouttelette) sont utilisées. Enfin, des expériences sont menées sur la répartition de la pulvérisation sous une rampe en utilisant un banc de répartition sous rampe. Quant à l’étude de l’influence du vent sur les jets de pulvérisation, un tunnel de dérive a été réalisé tout comme à l’unité de Gembloux dirigée par M. F. Destain. Actuellement deux doctorants travaillent sur ce sujet, JeanMarc Brun11 travaille sur l’étude des phénomènes de dérives ; il vise plus particulièrement à caractériser les flux issus de la parcelle au cours de l’application des pesticides et à prédire leur devenir et par conséquent leur répartition dans l’environnement à courte distance. Magali de Luca12 propose d’étudier et de modéliser les mécanismes mis en jeu lors de l’atomisation d’un liquide afin de calculer les tailles et les vitesses de gouttes optimales nécessaires à une pulvérisation contrôlée de produit phytosanitaire. 8 http ://www.trame.org/Phytomieux/Charte acc%E9s doc pdf.htm ://www.epagri.com/news00010b15.html 10 Information et Technologies pour les Agro-Procédés. 11 thèse intitulée ”Utilisation de techniques de contrôle optimal pour la modélisation de rangs de végétation, appliquées à la modélisation de la dispersion de produits phytosanitaires”. 12 thèse intitulée : ”Contribution à la modélisation de la pulvérisation d’un liquide phytosanitaire en vue de réduire les pollutions”. 9 http 7 Chapitre 1. Généralités sur le désherbage et l’imagerie 1.4 Modulation de la pulvérisation : état des lieux Les travaux récents conduits sur des cultures céréalières ont permis de montrer que le désherbage localisé est envisageable au niveau de la parcelle agricole (Vioix, 2004) en acceptant des modifications techniques importantes sur le matériel agricole. Actuellement ceci se traduit pour les pulvérisateurs agricoles par un degré de sophistication très élevé engendrant un surcoût lors de l’achat d’un tel matériel. Cependant la réduction du coût des produits phytosanitaires et la conservation des rendements compensent largement le surcoût du matériel13 . Certaines sociétés de pulvérisation comme SPRAY Concept ont abordé différemment l’approche sur la préservation de l’environnement en s’interrogeant sur le devenir des ”fonds de cuve”. En effet, une fois la pulvérisation (bouillie composé d’eau et de produits phytosanitaires) terminée, que faire de cet excès de bouillie pour ne pas la rejeter dans la nature. Cette réflexion a conduit à développer un nouveau type de pulvérisateur dit ”pulvérisateur à injection directe”. Le système est composé de plusieurs cuves, une pour chaque constituant de la bouillie à pulvériser, par exemple on peut voir sur la figure 1.514 le SP-ID15 développé par SPRAY Concept (Proharam, 2007). F IG . 1.5 – Pulvérisation par injection directe (SP-ID) de la société SPRAY Concept. Les avantages de ce système sont les suivants : – – – – – – – la cuve principale qui contient seulement de l’eau propre, les produits phytosanitaires liquides ou solides sont placés dans des cuves séparées, les produits peuvent être appliqués en séquence ou simultanément, selon la législation en vigueur, les fonds de cuve sont supprimés, le nettoyage du pulvérisateur s’effectue au champ en fin de travail, le dosage est commandé à partir de la cabine grâce à une console électronique, les produits non utilisés sont récupérés dans leur emballage d’origine en fin de traitement, Depuis peu arrivent sur le marché d’autres types de pulvérisateurs équipés de systèmes de navigation par satellites (GPS) permettant la gestion automatisée des coupures de tronçons de rampe. Deux catégories de matériels sont proposées : 13 revue Profi 2002. : http ://spray-concept.com/cerealiers.htm 15 Spraying par Injection Directe. 14 source 8 1.4 Modulation de la pulvérisation : état des lieux – une carte de préconisation de pulvérisation a été réalisée au préalable et celle-ci est ensuite insérée dans l’ordinateur du tracteur pour gérer des tronçons de rampe, – à l’aide d’un GPS16 , il est possible selon la position du tracteur de contrôler l’ouverture ou non des tronçons d’une rampe de pulvérisation. Par exemple, la société HARDI-EVRARD avec l’Auto Section Control 100 (ASC100)17 (HARDI-EVRARD, 2007) ou encore la société DELVANO, avec le modèle EUROTRAC (DELVANO, 2007) permet d’éviter des surdoses lors de passages successifs à un même endroit de la parcelle (figure 1.6.a)18 . Ce type de système permet de commander automatiquement et individuellement (à l’aide d’un joystick comme présenté figure 1.6.b) l’ouverture et la fermeture des sections de rampe en bordure de champ ou lors de contournement d’obstacles. Le système saisit les limites du champ et détermine sur cette base, compte tenu des paramètres de fonctionnement du pulvérisateur, les zones dans lesquelles les segments de rampe doivent être ouverts ou fermés. (a) (b) F IG . 1.6 – (a)Auto Section Control 100 (ASC1000). (b)Joystick de commande de tronçons de rampe. Ces systèmes sont et resteront coûteux puisqu’ils sont équipés de ce système de navigation par satellite de haute précision. Ainsi un GPS classique ne suffit pas (l’erreur de position est de l’ordre de quelques mètres) et il faut le plus souvent avoir recours à un système DGPS19 pour réduire au maximum l’erreur sur la position spatiale de l’engin agricole. Avec ce type de systèmes, l’agriculteur est obligé d’avoir un abonnement pour avoir accès à ce service en passant par un prestataire qui est peut être un constructeur agricole (i.e. John Deere). En effet, dans le milieu agricole, la précision minimale requise pour utiliser ce type de systèmes de navigation varie entre 5 centimètres et 20 centimètres selon les travaux (semis, pulvérisation, moisson...). A titre indicatif, la figure 1.7 renseigne sur le prix d’un système DGPS selon les constructeurs20 . 16 Global Positionning System. (ASC 100) est une gestion automatisée des coupures de tronçon, basée sur le positionnement GPS, qui gère l’ouverture et la fermeture des tronçons pour éviter tout manque ou surdosage. 18 source : http ://www.hardi-fr.com/News/2007/FR%20ASC%20100.aspx 19 Differential Global Positionning System. 20 Revue Réussir 2005, l’autoguidage, article de Michel Portier, volume N˚179. 17 L’Auto Section Control 100 9 Chapitre 1. Généralités sur le désherbage et l’imagerie F IG . 1.7 – Système de correction GPS, précision et prix (2005). Ces prix ne tiennent pas compte de l’achat du boı̂tier et de la console GPS. Il est à noter que l’utilisation du DGPS ouvre de nouvelles perspectives en agriculture pour une assistance au guidage en proposant un guidage automatique de précision. Les systèmes proposés actuellement sur le marché demandent à l’agriculteur beaucoup trop d’attention en mode manuel (conduire, regarder et agir sur le joystick). Quant au mode automatique, l’utilisation du DGPS est un investissement pas encore suffisamment rentable pour les parcelles françaises de petites tailles. D’autre part, la réception de ce signal GPS n’est pas ou peu accessible pour les parcelles situées dans des régions montagneuses où pour des parcelles situées en lisière de bois. D’autres solutions basées sur l’utilisation de caméra ont été étudiées dans les laboratoires de recherche. L’idée étant, non pas de géo-référencer les travaux agricoles par rapport à une référence absolue dépendante d’un prestataire, mais plutôt par rapport à l’engin agricole lui-même. Les premiers travaux, conduits à l’institut Silsoe (Hague et Tillett, 1996 ; Marchant et al., 1997 ; Sanchiz et al., 1998a ; Sanchiz et al., 1998b ; Tillett et al., 1998 ; Tillett et Hague, 1999 ; Hague et Tillett, 2001) ont commencé avec l’utilisation d’une caméra pour l’autoguidage. En fait le tracteur utilise un système de vision qui effectue du ”tracking” (suivi) des lignes de semis soit en utilisant la transformée de Hough ou les filtres étendus de Kalman puis en regardant la déviation verticale qui existe entre ces lignes et le tracteur afin de corriger l’erreur de position du tracteur par rapport aux lignes. Åstrand et son équipe utilisent aussi la transformée de Hough pour effectuer du guidage automatique (Åstrand et Baerveldt, 1999 ; Åstrand et Baerveldt, 2005). Billingsley utilise un fenêtrage sur les lignes de cultures pour détecter des points appartenant à la culture et effectue une régression linéaire sur ces points afin de détecter les lignes de semis (Billingsley et Schoenfisch, 1997). Quant à Kise et son équipe (Kise et al., 2005), ils utilisent un système de stéréovision afin de construire une carte de niveau des cultures et recherchent des points de repère dans cette carte afin de guider le tracteur. Il faut être conscient que le fait d’embarquer ce type de capteur a également ses inconvénients car il est impossible de travailler de nuit avec une caméra sans lumière artificielle. 1.5 L’apport de l’imagerie pour le désherbage Dans le cadre du désherbage, l’imagerie permettrait à travers des applications en temps réel de venir en complément d’une utilisation GPS qui servirait pour la traçabilité. L’imagerie en temps réel devra permettre de réaliser les trois étapes suivantes : 1. détecter un signal à l’aide d’un capteur, 2. extraire l’information agronomique et établir un protocole de décision, 10 1.5 L’apport de l’imagerie pour le désherbage 3. déclencher une action sur l’outil de désherbage comme par exemple, le déclenchement ou non des buses d’un pulvérisateur. 1.5.1 Imagerie spectrale pour identification des plantes Les premiers travaux ont été menés par Felton (Felton et McCloy, 1992 ; Felton, 1995) dans les années 90 sur la signature spectrale des végétaux pour une pulvérisation localisée. Comme la signature spectrale de la végétation est très différente de celle du sol dans les longueurs d’onde infra rouge, il est aisé de séparer le sol et la végétation dans une scène agronomique. Il existe plusieurs systèmes basés sur les propriétés spectrales des plantes comme le pulvérisateur ”à main” développé par Haggar et al. (Haggar et al., 1983) utilisant deux filtres à bandes étroites, centrées sur les longueurs d’onde 750 nm (proche infrarouge, PIR) et 650 nm (rouge, R + PIR R) et mesurant le rapport . Ce rapport étant plus grand en présence de plantes, on peut déterminer un R seuil d’intervention pour la pulvérisation. Les tests en champ montrent qu’il est possible de traiter 90% des mauvaises herbes présentes. Depuis, beaucoup de systèmes sont commercialisés, le plus connu étant le système Detectspray (Felton et McCloy, 1992), un des précurseurs basé sur la réflectance des plantes. Ce système est composé de deux capteurs équipés de photodiodes, l’un dirigé vers le sol, l’autre vers le ciel afin de sélectionner la lumière ambiante seule et d’adapter ainsi le système aux variations de luminosité. Un indice de végétation PIR VI = est utilisé pour détecter une plante. Biller et al. (Biller et al., 1997 ; Biller, 1998) proposent une étude R de ce système dans une culture de maı̈s. L’économie de désherbant a été mesurée sur 4 bandes de 130 mètres de long placées dans l’entre-rangs. Une réduction d’herbicide de 30 à 70 % a été constatée. L’auteur remarque que le système reste toutefois délicat à calibrer. D’autres systèmes ont été développés comme le système américain Weedseeker qui a sa propre source de lumière et qui est donc capable de procéder de jour comme de nuit. Le système Sprayvision capte la lumière réfléchie selon quatre longueurs d’onde, le bleu, le vert, le rouge et le proche infra rouge, afin de déterminer le signal correspondant aux plantes. Cependant, la principale limite de ces systèmes est qu’ils sont incapables à partir d’une seule bande spectrale (PIR) de discriminer la culture des adventices, ils ne détectent que la végétation. 1.5.2 Autres méthodes d’imagerie pour l’identification des plantes D’autres systèmes utilisent non pas une information spectrale mais une information spatiale ou des critères morphologiques sur les plantes pour les discriminer. L’ensemble des résultats suivants sont regroupés dans le tableau 1.1. Ainsi Lee et Slaughter (Lee et al., 1999) décrivent un système de détection d’adventices dans une culture de tomates fonctionnant en temps réel (environ 1 km/h) et comportant deux caméras. La première permet le guidage automatique du robot et la deuxième, positionnée verticalement, permet de filmer une scène de 11, 43cm × 10, 16cm. La classification entre la culture et les adventices est effectuée en utilisant des paramètres de forme simples (élongation, rondeur...) sur les feuilles individuelles. Pour cela les auteurs utilisent une classification Bayésienne basée sur un réseau de neurones de type RBF (Radial Basis Function) (Lee et al., 1997 ; Lee et Slaughter, 1998). Une dose d’herbicide est appliquée pour chaque adventice détectée. Suite aux essais en extérieur, ils montrent que 24,2% des tomates sont mal identifiées et donc traitées, et 52,4% des adventices ne sont pas traitées. Ce système n’est efficace que si les adventices sont bien différentes de la culture par leur forme, et s’il n’existe pas trop de chevauchements de feuilles. Dans ce cas, en effet, le calcul des paramètres de forme est biaisé. Blasco et al. (Blasco et al., 2002) décrivent un système fonctionnant en temps réel (0,8 km/h) et utilisant un désherbage électrique. Une électrode alimentée par un ensemble de batteries permet de produire une décharge électrique de 15 KV pouvant détruire les adventices. Le système est composé de deux caméras. La première caméra est placée verticalement à l’avant du robot afin de détecter les adventices et de transmettre leurs coordonnées au bras de contrôle portant l’électrode. La surface de la scène filmée est de 11, 52cm × 8, 64cm. La deuxième caméra est utilisée pour reconnaı̂tre l’adventice à détruire, elle est placée au niveau de l’électrode. La classification est effectuée par analyse discriminante Bayésienne non linéaire. Pour cela ils utilisent des critères de formes (périmètre, surface...) pour chaque feuille individuelle. Pour chaque adventice détectée, une signature numérique lui est appliquée. C’est cette signature numérique qui est utilisée par la deuxième caméra 11 Chapitre 1. Généralités sur le désherbage et l’imagerie pour identifier l’adventice à détruire. Ce système a été utilisé dans un champ de laitues et permet de détecter 84% de mauvaises herbes et 99% de laitue et d’éliminer 100% des petites adventices c’est-à-dire comportant moins de cinq feuilles et ayant moins de 20 cm de hauteur. Tian et al. (Tian et al., 1999) ont développé un pulvérisateur de précision expérimental utilisant un système d’image pour estimer la densité de mauvaises herbes et la taille des adventices. Le système utilise deux caméras positionnées verticalement, chacune d’elle ayant deux lignes de semis dans leur champ de vision. La rampe de pulvérisation a une largeur de 3,05 mètres et comporte 12 buses, séparées les unes des autres de 0,254 mètre, commandées par des électrovannes pneumatiques. Le pulvérisateur travaille sur la largeur d’un interrang (76 centimètres) comme le maı̈s ou le soja. Le pulvérisateur a une vitesse comprise entre 1,5 et 5 km/h. La transformation en ondelettes est utilisée pour détecter les surfaces ayant une zone d’infestation élevée. Pour cela, ils utilisent un seuil sur la luminosité des pixels résultant de la transformée. La surface utile pour la détection des adventices est de 3, 7m × 0, 43m. Le temps de décision pour la pulvérisation est de 0,37 seconde ce qui limite la vitesse du pulvérisateur à 4,2 km/h. La précision de ce système est de 100% sur sol nu, 75% dans la zone d’infestation et de 47,8% dans la zone de culture. Une réduction d’herbicide comprise entre 48% et 58,5% est obtenue suivant le seuil utilisé pour la densité de mauvaises herbes. Enfin, plus récemment, Åstrand et Baerveldt (Åstrand et Baerveldt, 1999 ; Åstrand et Baerveldt, 2002 ; Åstrand et Baerveldt, 2003) présentent un système de discrimination en temps réel (0,72 km/h) comportant deux caméras. La première permet de guider le robot dans le champ. La deuxième caméra (couleur) est positionnée verticalement et permet de filmer une scène de 45cm × 80cm. La détection des adventices se fait suivant 19 critères (couleur, élongation, surface...) et par l’utilisation d’une classification suivant l’algorithme des k plus proches voisins. Le désherbage est de type mécanique. Les essais dans un champ de betteraves sucrières montrent un taux de détection de 97% dans le cas où les 19 critères de détection sont utilisés. 1.6 Conclusion Nous avons vu à travers ce chapitre que les constructeurs de machines agricoles savent très peu faire de la pulvérisation localisée en temps réel et de façon automatisée. Seule l’utilisation des cartes d’infestation obtenues par le système DGPS (ayant un prix élevé) est possible. Les systèmes actuels utilisant les propriétés spectrales des plantes ne permettent pas de faire une discrimination culture/adventice, mais seulement de séparer la végétation du sol. Enfin, plusieurs laboratoires ont développé des robots basés sur l’imagerie pour un désherbage chimique, mécanique ou électrique utilisant le plus souvent deux caméras, la première permettant de guider le robot dans le champ. La deuxième, souvent en position verticale ce qui implique un faible champ de vision et permet de détecter les adventices. Seule l’équipe de Tian a développé un pulvérisateur de précision et non un robot mais peu d’informations sont disponibles sur leur prototype. Le tableau 1.1 présente un bilan des différents prototypes existants et de leurs caractéristiques. Ces systèmes sont essentiellement destinés à des cultures bien spécifiques (salade, betterave à sucre, etc...) où l’ensemencement est effectué selon une méthode de semis en place. Dans le cadre de cette thèse, nous avons entrepris non pas de développer un robot spécifique mais de placer une caméra (inclinée pour augmenter le champ de vision de celle-ci) sur une machine agricole ce qui constitue une simple adaptation et ne perturbe pas les habitudes de l’agriculteur. D’autre part, ce système pourra être utilisé aussi bien en cultures céréalières que maraı̂chères. Il est à noter que très récemment, D. C. Slaugther et al. (Slaughter et al., 2007) viennent de rédiger un article de revue résumant les différents systèmes de robots autonomes pour le contrôle des adventices. 12 1.6 Prototype Orientation de la caméra Taille de la scène filmée (cm × cm) 11, 43 × 10, 16 Lee(97-99) vertical Blasco(2002) vertical 11, 52 × 8, 64 Tian(99) vertical 370 × 43 Åstrand(992002-2003) vertical 45 × 80 Algorithme de traitement d’image classifieur Bayésien analyse discriminante Bayésienne non linéaire transformée en ondelette k plus proches voisins Conclusion Vitesse du tracteur Désherbage 1 km/h chimique 0,8 km/h électrique 4,2 km/h chimique 0,72 km/h mécanique TAB . 1.1 – Résumé des systèmes de traitement existant qui utilisent un système de vision en temps réel. 13 Chapitre 1. Généralités sur le désherbage et l’imagerie 14 Chapitre 2 Dispositif expérimental Sommaire 2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.2 Prototype de pulvérisation localisée en temps réel par imagerie . . . . . . . . . . . . . . . 16 2.3 2.4 2.5 2.2.1 Le pulvérisateur et ses modifications . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.2.2 Choix de la caméra et de la carte d’acquisition . . . . . . . . . . . . . . . . . . . . . 18 2.2.3 Capteur de vitesse et unité de traitement . . . . . . . . . . . . . . . . . . . . . . . . . 19 Électronique et commande du pulvérisateur . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.3.1 Présentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.3.2 Unité de contrôle - Protocole de communication . . . . . . . . . . . . . . . . . . . . 21 2.3.3 Logiciel de pilotage des EVP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 Dispositif optique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.4.1 Présentation du système optique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 2.4.2 Modélisation géométrique de la caméra : modèle du sténopé . . . . . . . . . . . . . . 27 2.4.3 Autocalibration pour le temps réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 2.1 Introduction Actuellement, sur le marché de la pulvérisation en grande culture, il existe des pulvérisateurs commerciaux qui permettent en temps réel la gestion automatisée des tronçons de rampe. En effet, ils ne permettent pas de déclencher les buses indépendamment les unes des autres. On peut voir ci-dessous un exemple de pulvérisateur Tecnoma (Tecnoma, 2007) de la gamme T X sur la figure 2.1 où toutes les buses pulvérisent en même temps. L’un des objectifs de cette thèse est de développer un prototype de pulvérisation permettant la gestion automatique en utilisant un système de vision en temps réel. Au cours de ce chapitre, nous allons détailler la réalisation de notre prototype en précisant et caractérisant les principaux éléments : – les modifications apportées au pulvérisateur, l’utilisation d’un capteur de vitesse et le choix de la caméra, – l’électronique de commande via la conception d’une carte d’interfaçage pour permettre de gérer la communication, via un protocole (spécialement développé pour ce projet) entre les différents capteurs et actionneurs, – le système optique utilisé. 15 Chapitre 2. Dispositif expérimental F IG . 2.1 – Présentation d’un pulvérisateur de la gamme TX de chez Tecnoma technologies. 2.2 Prototype de pulvérisation localisée en temps réel par imagerie 2.2.1 Le pulvérisateur et ses modifications Le pulvérisateur que nous utilisons est un pulvérisateur de parcs et jardins de la marque Tecnoma (Tecnoma, 2007) possédant un réservoir de 200 litres, il a pour référence ”TS200 PM 90” et est présenté sur la figure 2.2. Le choix de ce pulvérisateur s’explique par le fait que son gabarit (taille et poids) est particulièrement bien adapté à la faible puissance du tracteur que l’ENESAD possède. En effet, nous disposons d’un tracteur ”espace vert” de 17 chevaux (Ferrari T93). F IG . 2.2 – Le pulvérisateur TS200 PM 90 de Tecnoma. Dans le contexte d’agriculture de précision, des modifications techniques ont été nécessaires et ont été réalisés par F. Voiry et A. Malashko, étudiants en troisième année de formation initiale à l’ENESAD. La plupart des informations suivantes sont tirées de leur rapport technique ”Conception et réalisation d’un pulvérisateur pour l’agriculture de précision” (Voiry et Malashko, 2004). Du point de vue mécanique, il a fallu construire un nouveau châssis pour le pulvérisateur afin qu’il puisse supporter la cuve, la nouvelle rampe et le compresseur d’air. Initialement, le support de rampe fourni par Tecnoma était en aluminium, il a été délaissé car sa largeur ne convenait pas et parce que la rampe devait être plus robuste pour supporter les ”tuyauteries” hydraulique et pneumatique ainsi que les pentajets et électrovannes. Le support de rampe pourra ainsi accueillir une rampe de 6m avec 12 buses espacées de 50cm. On peut voir sur la figure 2.3, le châssis et la rampe avec un porte buse pentajet. 16 2.2 Prototype de pulvérisation localisée en temps réel par imagerie F IG . 2.3 – (a) Châssis réalisé. (b) Support de rampe avec un porte buse pentajet et une électrovanne pneumatique. Du point de vue pneumatique, il a fallu également prévoir l’installation d’une électrovanne pneumatique (EVP) en amont de chaque buse (figure 2.4.a), soit au total, 12 électrovannes. Nous nous sommes orientés vers des électrovannes pneumatiques pour leur faible temps de réponse à l’ouverture et à la fermeture en temps réel (environ 10 ms) permettant de maintenir un jet sous pression (quelques bars) en atteignant un régime permanent rapidement. Cela implique l’installation d’un compresseur d’air alimenté par un moteur électrique, ainsi que l’installation d’un circuit d’air comprimé (cuve et filtration). Ainsi, le circuit pneumatique (figure 2.4.b) est composé : – d’un moteur électrique couplé au compresseur permettant de créer l’air comprimé, – d’un réservoir qui emmagasine l’air comprimé. Il est doté d’un capteur (tout ou rien) qui déclenche le compresseur s’il y a moins de 8 bars et l’arrête s’il y a plus de 10 bars. La cuve comporte une soupape de sécurité en cas de défaillance du système, – d’un filtre placé avant la rampe commune qui protège les électrovannes. Au repos donc en l’absence de pression, les EVP laissent passer la bouillie1 vers les buses. Alimentées, donc sous pression, elles coupent l’arrivée de la bouillie vers les buses. Ces électrovannes pneumatiques sont commandées électriquement par une carte électronique que nous avons réalisé et qui a été spécialement développée pour cette application (voir §2.3.2). F IG . 2.4 – (a) Électrovanne pneumatique en amont de chaque pentajet. (b) Circuit pneumatique. 1 Mélange d’eau et de produits physanitaires 17 Chapitre 2. Dispositif expérimental Pour finir, du point de vue hydraulique, notre partenaire Tecnoma nous a fait profiter de sa régulation Régulair (figure 2.5.a). Cette régulation à pression constante est assurée par une membrane soumise à la pression hydraulique de la pompe et à la pression pneumatique d’un micro-système pneumatique, ce qui apporte une souplesse et une facilité de réglage : modulation en cours de travail par commande électrique. Un manomètre a été installé afin de vérifier la pression (environ 4 bars) dans le circuit. Pour résumer, nous avons un pulvérisateur composé d’une rampe de 6m de long avec 12 buses espacées de 0, 5 mètres. Le circuit hydraulique est similaire à un pulvérisateur standard dont la régulation est à pression constante. Un circuit pneumatique spécifique a été développé afin de toujours maintenir une pression suffisante (4 bars) pour le bon fonctionnement des électrovannes pneumatiques. La gestion des buses se fait indépendamment par une carte électronique (unité de contrôle) via les électrovannes pneumatiques contrôlées. Ainsi chaque buse va pouvoir fonctionner en ”tout ou rien”. F IG . 2.5 – (a) La régulation Régulair. (b) Capteur de vitesse. 2.2.2 Choix de la caméra et de la carte d’acquisition Comme les images acquises sont prises en mouvement, nous nous sommes tournés vers une technologie de caméras dites ”full frame” effectuant la prise d’image en une seule trame. En effet, les caméras classiques utilisent deux trames pour faire une image, la trame paire et impaire. Si nous avions opté pour une caméra de ce type, nous aurions eu un décalage entre la trame paire et impaire pour l’image finale à cause de l’avancement du tracteur pendant la prise de ces deux trames. En fait nous aurions obtenu une image entrelacée. Pour éviter ce problème, la solution consiste à ne garder qu’une des deux trames, ce qui divise la résolution horizontale de la caméra par deux, et nous aurions obtenu une image compressée verticalement de la scène réelle. Le deuxième élément critique pour le choix de la caméra est sa résolution. En effet, les images acquises doivent permettre de détecter des jeunes pousses d’adventices, c’est-à-dire au stade où l’adventice présente trois feuilles soit environ la taille d’une plantule (surface < 10cm2 , soit environ 3cm × 3cm). Pour une longueur correspondant à la taille de la rampe de pulvérisation (6 mètres) et pour une plante représentée par 5 pixels, il 6×5 = 1000 pixels par ligne. vient 0, 03 Le troisième point important est la possibilité d’accéder et de contrôler toutes les commandes internes de la caméra : le temps d’exposition et d’acquisition, les différents ”triggers’. En effet, pour certaines caméras il est nécessaire de développer une électronique particulière pour accéder à certains de ces paramètres (Vioix, 2004 ; Navar, 2001 ; Mansouri, 2005). Nous nous sommes donc tournés vers les caméras possédant la norme ”camera link”2 . 2 Camera Link est un protocole de communication série conçu pour des applications de vision par ordinateur et basé sur l’interface Channel Link de National Semiconductor. La normalisation des systèmes vidéo scientifiques et industriels, tels que caméras, câbles, cartes d’acquisition... ont motivé la création de ce protocole. 18 2.2 Prototype de pulvérisation localisée en temps réel par imagerie Enfin le dernier point est que cette caméra doit pouvoir fonctionner dans le domaine spectral du proche infrarouge (650 - 1100 nm) afin de rehausser les signaux des végétaux du reste de la scène (sol, ombres, résidus...). Finalement notre choix de caméra s’est porté sur une caméra Sony U1000. C’est une caméra monochrome dont la plage spectrale s’étend jusque dans le proche infrarouge. C’est une caméra ”full frame”, supportant la norme ”camera link” et dont la résolution des images est de 1598 × 1199 pixels. Étant donné le tracteur que nous possédons, nous avons choisi de placer la caméra à l’avant du tracteur comme le montre la figure 2.6 et non pas sur l’arceau afin d’avoir le plus grand champ de vision possible tout en ayant un angle de tangage correct. La prise d’image est effectuée par l’intermédiaire d’une carte d’acquisition Imaq PCI/PXI-1428 de chez National Instruments. Le fait que la carte soit de type PCI imposera par la suite l’utilisation d’un ordinateur traditionnel de bureau pour le traitement des différents tâches. 2.2.3 Capteur de vitesse et unité de traitement Pour finaliser notre prototype, nous avons besoin : – d’un capteur de vitesse (figure 2.5.b). Nous utilisons un capteur ILS3 relié à l’unité de contrôle. C’est un capteur de proximité composé d’une lame souple sensible à la présence d’un champ magnétique mobile (aimant sur la roue). Lorsque le champ se trouve sous la lame, il ferme le contact du circuit provoquant la commutation du capteur. – d’un ordinateur afin de traiter les images acquises, – d’une unité de contrôle permettant le lien entre les capteurs et actionneurs avec l’ordinateur, – d’une batterie 12 volts permettant d’alimenter l’unité de contrôle et les électrovannes pneumatiques, – d’un onduleur 12V/220V pour nous permettre d’alimenter l’ordinateur et la caméra à partir de la batterie. Ces deux éléments sont nécessaires car notre tracteur ne possède pas d’alternateur, il est donc impossible d’utiliser la batterie du tracteur. La figure 2.6 montre la vue générale du pulvérisateur de précision comprenant, le pulvérisateur, la caméra, l’unité de contrôle, l’ordinateur et le capteur de vitesse. Le schéma général du pulvérisateur de précision est présenté figure 2.7. F IG . 2.6 – Vue générale du pulvérisateur de précision. 3 Interrupteur à Lames Souple. 19 Chapitre 2. Dispositif expérimental F IG . 2.7 – Schéma général du pulvérisateur de précision. 2.3 Électronique et commande du pulvérisateur Après avoir présenté les différents constituants nécessaires à la réalisation du prototype de pulvérisation localisée, contrôlé en temps réel par un système de vision, nous nous attachons dans cette section à expliquer la partie du travail de thèse qui a consisté à mettre en place une communication entre ces constituants. Cette communication passe dans un premier temps par de l’électronique avec la conception et la réalisation d’une carte d’interfaçage. Puis dans un deuxième temps, nous abordons la partie informatique en décrivant le protocole de communication ainsi que le logiciel de pilotage des buses qui a été réalisé. 2.3.1 Présentation On peut voir sur la figure 2.8, le fonctionnement général du pulvérisateur. F IG . 2.8 – Synoptique complet du dispositif du prototype. Dans la partie ”ordinateur” nous voyons une carte compact flash. L’ordinateur étant situé sur le capot du tracteur, il est soumis à de nombreuses vibrations du moteur qui pourraient provoquer la détérioration des 20 2.3 Électronique et commande du pulvérisateur pistes d’un disque dur traditionnel voire sa destruction totale. Nous avons finalement opté pour l’utilisation d’une carte compact flash de 4 Go (via un adaptateur carte flash/ide réalisé en partie dans notre laboratoire) en remplacement d’un disque dur traditionnel. Sur le tracteur nous n’avons ni écran, ni clavier, ni souris ; pour les essais, nous commandons l’ordinateur à distance avec un ordinateur portable par liaison wifi. L’interaction entre les électrovannes pneumatiques, le capteur de vitesse, et l’ordinateur se fait par liaison série de type full duplex, c’est-à-dire que l’information circule dans les deux sens : des informations peuvent être transmises en même temps que des informations sont reçues. Les électrovannes pneumatiques sont commandées par l’unité de contrôle ainsi que la prise de vitesse du tracteur. La caméra est reliée à la carte d’acquisition par la liaison ”camera link”, qui permet d’envoyer et recevoir des informations. 2.3.2 Unité de contrôle - Protocole de communication Dans cette section, nous allons décrire le fonctionnement de l’unité de contrôle ainsi que le protocole de communication mis en place. Cette unité de contrôle est constituée d’une carte électronique (figure 2.9) et est basée sur l’utilisation d’un microcontrôleur PIC 16C765 de chez Microchip relié à l’ordinateur via une liaison série (RS232, 9600 bauds). La carte que nous avons réalisée permet de commander les électrovannes pneumatiques grâce à un circuit de puissance et de commande. La partie commande utilise le microcontrôleur programmé en langage assembleur avec l’outil MPLAB de chez Microchip, il est le ”cœur” de la communication entre l’ordinateur, le capteur de vitesse et les électrovannes. F IG . 2.9 – Carte électronique permettant la liaison entre tous les organes du prototype. Lors de l’application de l’herbicide, cette unité de contrôle reçoit de l’ordinateur les commandes d’ouverture et de fermeture des électrovannes pneumatiques. Elle permet aussi de récupérer l’information concernant le temps qui s’écoule entre deux passages consécutifs du capteur ILS devant l’aimant, soit un tour de roue avant du tracteur. Un protocole de communication a été réalisé afin de communiquer entre le microcontrôleur et l’ordinateur. Il est à noter que le microcontrôleur fonctionne en interruption pour les émissions et les réceptions de données. De même, le capteur ILS fonctionne lui aussi en interruption : lorsque le capteur ILS se déclenche, nous utilisons un compteur qui va compter le nombre de cycles d’horloge s’écoulant jusqu’à un nouveau déclenchement du capteur ILS. Cependant le microcontrôleur utilisé a une technologie de 8 bits, limitant le comptage de 0 à 255 (28 ). Au delà de 255, le microcontrôleur génére une interruption due au débordement du compteur. La programmation de ce microcontrôleur est basée sur une bonne gestion de toutes ces interruptions. Ainsi, le programme principal du microcontrôleur a pour but de recevoir (via la liaison RS232) en continu les informations (circulant sous forme de trame) provenant de l’ordinateur. La trame comporte une succession de deux (demande de réception de la vitesse par l’ordinateur) ou quatre (envoi par l’ordinateur des commandes des électrovannes) octets. Nous avons donc un octet de start permettant de savoir ce que doit faire le microcontrôleur, deux octets de données correspondant à la commande des douze électrovannes et un octet de fin pour que le microcontrôleur sache que la trame est finie et qu’il peut traiter l’information. On définit un octet par ses huit bits de la façon suivante : b7 b6 b5 b4 b3 b2 b1 b0 . Les octets de start et de fin sont des octets 21 Chapitre 2. Dispositif expérimental de commande et pour chacun d’entre eux, b0 est égal à 1 afin de différencier ces octets de commande de ceux des octets de données où les bits b0 sont égaux à 0. Si le bit b2 est égal à 0, cela signifie que l’octet de commande est l’octet de start, dans le cas contraire nous aurons un octet de fin. Le bit b1 permet de savoir de quel type est la trame, si b1 = 1, cela veut dire que l’ordinateur demande la réception de la vitesse au microcontrôleur. En résumé : type d’octet b7 b6 b5 b4 b3 b2 b1 b0 octet start, envoi des données des états de chaque électrovanne X X X X X 0 0 1 0x01 start, demande de la vitesse au microcontrôleur X X X X X 0 1 1 0x03 fin X X X X X 1 0 1 0x05 Si l’ordinateur a besoin de la vitesse du tracteur, il enverra la trame 0x03 0x05 à l’unité de contrôle qui transmettra alors la vitesse à l’ordinateur. Si le message reçu est 0x01 0x?? 0x?? 0x05, l’unité de contrôle sait que les deux octets 0x?? sont les états des électrovannes. Pour ne pas confondre les octets de données avec les octets de commande, leur bit b0 est mis à 0 afin de ne jamais prendre les valeurs 0x01, 0x03 et 0x05. Finalement, les octets 0x01 et 0x03 sont des octets de commande permettant au microcontrôleur de savoir quelle tâche il doit effectuer. Enfin, l’octet 0x05 est l’octet de fin de trame. Lorsque le microcontrôleur reçoit une trame, il attend de recevoir l’octet de fin signifiant que la trame complète a été reçue. Le message est alors traité par rapport à l’octet de commande. Pour les octets de données, la valeur des bits à la signification suivante : – 0→électrovanne à l’arrêt. – 1→électrovanne en marche. Maintenant que le protocole de communication est défini, nous allons présenter le logiciel développé pour l’acquisition et le traitement d’image. 2.3.3 Logiciel de pilotage des EVP La gestion automatique des buses a nécessité la mise au point d’un logiciel, qui permet à partir de l’image acquise, de discriminer la culture des adventices afin d’ouvrir les buses indépendamment les unes des autres, suivant la vitesse du tracteur. 2.3.3.1 Gestion des temps Afin d’être en accord avec le temps réel, nous avons choisi de développer notre software en langage C et C++. La carte d’acquisition NI-IMaq PCI/PXI-1428 propose une librairie de fonctions pour le langage C et C++ pour commander les caméras. Cette carte d’acquisition ne fonctionnant pas sous le système d’exploitation linux, nous nous sommes tournés vers une programmation sous l’environnement Microsoft Windows XP. Nous avons donc utilisé le logiciel Microsoft Visual C 6.0 afin de profiter des fonctions de l’API Windows telles que les fonctions pour la programmation multi-tâches (multithreading) et pour la programmation des interfaces homme-machines (IHM). Programmer une application multi-tâches en temps réel sous l’environnement Windows XP n’est pas chose facile. En effet, il faut faire attention à la gestion de la mémoire de l’ordinateur et tenir compte de l’ordonnanceur de Windows qui permet de gérer tous les processus ouverts sous le système. Dans un premier temps, nous avons implémenté un chronomètre ultra-précis (de l’ordre de la nano seconde) ; ceci permet de référencer temporellement toutes les tâches effectuées. Afin d’alléger la programmation, nous avons utilisé les librairies OpenCV (Open Source Computer Vision) (Intel, 2001) et IPP (Integrated Performance Primitive) développées par Intel Software (Intel, 2005). Ces librairies comportent beaucoup de fonctions dédiées au traitement du signal et des images. L’ordinateur utilisé possède comme processeur un Intel Celeron cadencé à 2,4 GHz et possède 768 Mo de mémoire vive. 22 2.3 Électronique et commande du pulvérisateur Dans ce programme, nous avons deux tâches à gérer : – le traitement de l’image acquise pour obtenir les coordonnées des mauvaises herbes, – le pilotage de la carte de contrôle qui permet d’envoyer via la liaison RS232 l’état des électrovannes à n’importe quel moment. Afin de comprendre ce qui se passe réellement, un schéma de la scène est présenté en figure 2.10 en considérant une hauteur de caméra notée H et un angle de tangage noté ϕ et un angle de lacet nul (α = 0). La longueur l représente la somme des longueurs du tracteur du pulvérisateur. La distance ya représente la distance entre l’avant du tracteur et le début de la scène filmée yROI . On peut s’apercevoir sur cette figure, qu’entre le moment où l’image a été acquise et le moment où la rampe de pulvérisation arrive à l’endroit correspondant à l’image acquise, il faut parcourir la distance l + ya . F IG . 2.10 – Vue schématique de la scène Comme avec l’ordinateur, nous ne pouvons pas contrôler directement les distances, nous avons transformé ces distances en temps à partir de la vitesse du tracteur. yROI (2.1) tr = v ya + l ts = (2.2) v (2.3) avec v, la vitesse du tracteur, tr le temps permettant de parcourir yROI à la vitesse v et ts le temps permettant de parcourir la distance ya + l à cette même vitesse. Ainsi le temps d’échantillonnage de prise de vue est choisi égal à tr . Lors du démarrage du tracteur, il devra s’écouler un temps ts avant la commande de la rampe de pulvérisation. La précision de l’opération est donc dépendante de la bonne connaissance de la vitesse réelle du tracteur. 2.3.3.2 Réalisation d’une carte d’infestation Dans ce paragraphe, nous expliquons comment sont générées les commandes des électrovannes pneumatiques. Notre logiciel de discrimination de la culture par rapport aux adventices fournit une carte d’infestation. A partir de cette carte, une étape de segmentation permet de classer ces zones de mauvaises herbes en régions. Pour effectuer ce traitement, nous utilisons une méthode de blob-coloring (ou étiquetage en composantes connexes) (Ballard et Brown, 1982 ; Deriche et Cocquerez, 1987 ; Haralick et Shapiro, 1992). En appliquant le modèle inverse du sténopé, il est possible de déterminer les coordonnées de ces régions dans le monde réel. Les détails de changement de coordonnées seront expliqués à la section 2.4 de ce chapitre. Suivant la taille de ces régions, il est possible ou non de les conserver. En effet, sachant que la taille minimale d’une plantule est égale à environ 3cm × 3cm, si la zone de mauvaises herbes dans le monde réel est inférieure à la taille d’une plantule, nous décidons de ne pas conserver cette zone. 23 Chapitre 2. Dispositif expérimental 2.3.3.3 Gestion des EVP La carte d’infestation ainsi obtenue, il reste à gérer le déclenchement des électrovannes pneumatiques. La figure 2.11 représente une vue schématique du tracteur avec la rampe de pulvérisation. Sur cette figure, nous pouvons voir l’origine 0 du repère monde (0, xw , yw ) qui est située au milieu de la rampe de pulvérisation. Pour chaque zone de mauvaises herbes, nous ne gardons que 4 coordonnées : – – – – l’abscisse minimale notée xwmin l’abscisse maximale notée xwmax l’ordonnée minimale notée ywmin l’ordonnée maximale notée ywmax Le résultat donné par la moyenne des abscisses de chacune de ces zones nous permet d’affecter une buse à la zone d’adventices (cf. figure 2.12). En effet, nous savons que l’espacement entre chaque buse est de 50 cm, ce qui nous donne les coordonnées de chaque buse. Ensuite, une simple comparaison de ces coordonnées avec les valeurs moyennes des abscisses de chaque zone permet de définir la buse à actionner, soit celle dont la coordonnée est la plus proche de la valeur moyenne de ces abscisses. Enfin, l’ouverture et la fermeture des vannes sont définies par les valeurs minimale et maximale de l’ordonnée de la zone infestée. Connaissant la vitesse du tracteur et la distance à parcourir pour que la rampe soit au niveau d’une zone d’infestation, nous pouvons donc réaliser un chronogramme sur les temps d’ouverture et de fermeture de chaque électrovanne pneumatique. F IG . 2.11 – Vue schématique du tracteur avec la rampe de pulvérisation. 24 2.4 Dispositif optique F IG . 2.12 – Choix de l’EVP selon la position de la zone d’infestation. 2.3.3.4 Réalisation des chronogrammes des électrovannes pneumatiques Nous savons que pour chaque image acquise, le tracteur devra parcourir la distance yROI avec la rampe de pulvérisation pour atteindre l’endroit représentant l’image acquise soit le temps tr. Nous allons discrétiser ce temps avec un pas temporel de dt. A titre indicatif, pour nos essais en temps réel, nous avons choisi un tr temps dt de 10 ms. Nous avons créé un tableau ayant comme nombre de lignes, le rapport et 12 colonnes dt correspondant aux 12 électrovannes pneumatiques pour chaque pas dt. Nous regardons quelles électrovannes doivent être en fonctionnement : on met 1 dans le tableau pour oui et 0 pour non. Pour éviter l’écrasement des données d’une image sur l’autre enregistrée dans ce tableau, nous utilisons 5 tableaux fonctionnant sous la forme d’une FIFO4 . Effectivement la distance ya + l étant supérieure à yROI , nous aurons déjà acquis plus d’une image lorsque la distance ya + l aura été parcourue. Il suffit ensuite d’envoyer chaque ligne du tableau à l’unité de contrôle tous les temps dt. Chaque ligne correspond à un nombre binaire codé sur 12 bits soit deux octets. Ce sont ces 2 octets qui représentent les 2 octets de données dans la trame de données présentée dans la section précédente (2.3.2). Nous pouvons voir dans la table 2.1, le fonctionnement principal du logiciel développé permettant de gérer les deux tâches opérant en parallèle. A partir de la ligne 9 nous avons deux tâches qui fonctionnent en parallèle jusqu’à ce que la tâche traitement d’image se termine. Le plus souvent, le programme n’exécute qu’une seule tâche. 2.4 Dispositif optique Ce paragraphe est consacré à la caractérisation du système optique pour décrire la caméra par un modèle de projection perspective (modèle du sténopé) afin de pouvoir transformer les coordonnées du monde image (2 dimensions) vers le monde réel (3 dimensions) et inversement. Ce modèle nous permettra de déterminer les coordonnées dans le monde réel des zones d’infestation situées dans l’image afin d’activer la bonne électrovanne, au bon moment durant la bonne période. On verra que ce modèle nécessite la connaissance des paramètres intrinsèques, spécifiques à chaque caméra et des paramètres extrinsèques (degrés de liberté de la caméra), propres au changement de repère entre l’image et le monde réel. D’autre part, nous présenterons la méthode d’autocalibration de la caméra développée pour obtenir en temps réel les principaux paramètres extrinsèques. Cette méthode est basée sur la détermination du point de fuite dans l’image acquise par la caméra. Cette autocalibration de la caméra en temps réel s’avérera nécessaire lors des futurs essais en champ sur sol irrégulier. 4 L’acronyme FIFO est l’abréviation de l’expression anglaise First In, first Out, que l’on peut traduire par ” premier arrivé, premier servi ” (littéralement ” premier entré, premier sorti ”). Ce terme est souvent employé en informatique pour décrire une méthode de traitement des données. Cette méthode correspond à une méthode de traitement des éléments d’une file d’attente (calculs d’un ordinateurs, stocks). 25 Chapitre 2. Dispositif expérimental Algorithme de la gestion des tâches Variables : ta correspond au temps où l’on doit acquérir une image. tr correspond au temps nécessaire pour parcourir la distance yROI ts correspond au temps nécessaire pour parcourir la distance ya + l Temps() est le chronomètre ultra-précis créé 1 : test ← f alse 2 : ta ← 0 3 : tic ← Temps() 4 : répéter 5 : toc ← Temps() 6 : time ← toc − tic 7 : si time ≥ ta 8 : prise d’image 9 : lancement de la tâche traitement d’image et création tableau de déclenchement EVP 10 : ta ← ta + tr 11 : fin si 12 : si time ≥ ts 13 : state ← État des électrovannes au temps time 14 : envoi state à l’unité de contrôle 15 : fin si 16 : tant que l’utilisateur n’arrête pas le programme TAB . 2.1 – Algorithme principal de la gestion des tâches du logiciel développé 2.4.1 Présentation du système optique F IG . 2.13 – Présentation du système optique avec les différents repères utiles : image(Oc , uc , vc ), image métrique(Oi , ui , vi , wi ), caméra(Ok , xk , yk , zk ) et monde(Ow , xw , yw , zw ). La figure 2.13 présente le modèle géométrique utilisé pour caractériser notre système optique. L’axe z 26 2.4 Dispositif optique représente l’axe optique et les différents repères présentés sont définis comme suit : – (xw , yw , zw ) correspond au repère monde, les coordonnées en 3 dimensions sont exprimées en mètres. Ce sont donc ces coordonnées qui nous intéressent pour notre prototype, – (xk , yk , zk ) correspond au repère caméra, c’est-à-dire à la position de la caméra dans le monde réel. Ces coordonnées en 3 dimensions sont exprimées en mètres, – (ui , vi , wi ) correspond au repère image métrique, dans ce repère les coordonnées sont en trois dimensions, elles sont exprimées en mètres, ce repère fait intervenir les coordonnées du centre optique de l’image ainsi que la taille du CCD de la caméra et de sa focale. L’origine de ce repère Oi est située au centre de l’image, – (uc , vc ) correspond au repère image où les coordonnées à 2 dimensions de chaque point sont exprimées en pixel, l’origine Oc de ce repère est située en haut à gauche de l’image soit le coin supérieur gauche. 2.4.2 Modélisation géométrique de la caméra : modèle du sténopé Le modèle le plus courant et le plus simple pour décrire le processus de formation des images est le modèle du sténopé (ou pinhole dans la littérature anglo-saxone) (Carlbom et Paciorek, 1978 ; Hearn et Baker, 1986 ; Ayache, 1989 ; Faugeras, 1993 ; Horaud et Monga, 1995 ; Bouguet, 1999). Le modèle consiste à réduire l’ensemble des lentilles qui composent le système optique en un point où convergent tous les rayons lumineux pour aller se projeter sur le plan image (figure 2.13). Nous nous plaçons dans le cas d’images réelles prises avec un appareil numérique. Pour décrire ce modèle, trois transformations sont nécessaires : 1. une relation de passage du repère monde vers le repère caméra (Pe ), 2. une expression de la projection perspective qui transforme un point de l’espace en trois dimensions en un point de l’image en deux dimensions, 3. puis une transformation affine d’un repère métrique lié à la caméra à un repère pixel lié à l’image. Ces différentes transformations seront exprimées sous forme matricielle. 2.4.2.1 Matrice de passage (Pe ) La transformation d’une position exprimée dans le système de coordonnées caméra k vers une position exprimée dans le système de coordonnées du monde réel w est en général donnée par la formule suivante : k w x x y = [R ]wk y + [T ]wk z z avec tx [T ]wk = ty tz (2.4) (2.5) où [R ]wk et [T ]wk sont respectivement la matrice de rotation et de translation entre le système monde w et le système caméra k. Dans notre cas (figure 2.13), [R ]wk dépend des angles : ϕ, α et β avec ϕ l’angle de tangage, α l’angle de lacet et enfin β l’angle de roulis. −−−→ Les trois translations dépendent des angles de roulis et de tangage et de la distance l = kOk Ow k. Elles sont définies par : tx = l sin ϕ sin α (2.6) ty = −l sin ϕ cos α (2.7) tz = l cos ϕ = H 27 (2.8) Chapitre 2. Dispositif expérimental tz représente la hauteur H de la caméra. La matrice de translation peut s’écrire sous la forme d’une transformation homogène définie par : 1 0 0 tx 0 1 0 ty [T ]wk = 0 0 1 tz 0 0 0 1 Les trois rotations sont définies ci-après en coordonnées homogènes : 1 0 0 0 cos(ϕ + π) − sin(ϕ + π) Rx = 0 sin(ϕ + π) cos(ϕ + π) 0 0 0 soit : 1 0 0 0 − cos ϕ sin ϕ Rx = 0 − sin ϕ − cos ϕ 0 0 0 cos β 0 sin β 0 1 0 Ry = − sin β 0 cos β 0 0 0 cos α − sin α 0 sin α cos α 0 Rz = 0 0 1 0 0 0 0 0 0 1 0 0 0 1 (2.9) (2.10) (2.11) 0 0 0 1 0 0 0 1 (2.12) (2.13) La matrice de rotation est égale à [R ]wk = R z × R y × R z Ainsi, on pose : w k x x w [T ]w y y [ R ] k k = z z 0 1 1 1 (2.14) Soit la relation de passage du repère monde vers le repère caméra suivant : k x y = Pe z 1 w x y z 1 (2.15) Étant donné l’orthogonalité de la matrice de rotation, P e a pour expression : Pe = [R ]wk [T ]wk 0 1 −1 = [R ]wT k 0 w −[R ]wT k [T ]k 1 si det[R ]wk 6= 0 (2.16) w avec [R ]wT k , la matrice transposée de [R ]k . Cette matrice représente une transformation rigide (3 rotations et 3 translations) : ses coefficients sont les paramètres extrinsèques. 28 2.4 2.4.2.2 Dispositif optique Projection perspective La projection perspective a pour but de transformer un point de l’espace en trois dimensions en un point de l’image en deux dimensions et inversement. La projection se fait suivant un centre de projection (Ok ). L’origine du repère est placée au centre de projection et ce repère est orienté de façon que le plan de projection ait pour équation z = f où f est la distance focale. La projection perspective permet d’expliciter les coordonnées du repère image métrique i en fonction du repère caméra k : f xk zk f yk zk f ui = vi = wi = soit sous forme matricielle : (2.18) (2.19) i k su x sv = P p v s z avec, (2.20) f 0 0 Pp = 0 f 0 0 0 1 P p représente la matrice de projection. 2.4.2.3 (2.17) (2.21) Transformation caméra/image Afin de connaı̂tre les coordonnées dans le repère image pixel c, nous devons introduire les paramètres u0 , v0 qui sont respectivement les coordonnées (mesurées en pixels) du centre optique (appelé point principal) et du et dv qui sont les dimensions d’un élément du CCD respectivement horizontale et verticale (mm/pixels) : ui + u0 du vi + v0 dv uc = vc = Soit en notation matricielle : (2.22) (2.23) i c u u v = Pa v 1 1 avec, 1 du Pa = 0 0 0 1 dv 0 (2.24) u0 v0 1 (2.25) P a est une transformation affine représentant un changement d’échelle et une translation. 2.4.2.4 Transformation globale Dans un premier temps, nous allons définir la matrice concernant les paramètres intrinsèques noté P i . Pi f du 0 0 0 f dv 0 = Pa 1 du u0 v0 = 0 0 1 29 0 1 dv 0 Pp u0 f 0 0 v0 0 f 0 0 0 1 1 (2.26) Chapitre 2. Dispositif expérimental Soit, k c x su y sv = P i z s 1 (2.27) Soit la matrice P i : f du 0 Pi 0 0 0 f dv 0 0 u0 v0 1 0 0 0 0 1 (2.28) Finalement, en utilisant les matrices des paramètres extrinsèques P e et intrinsèques P i , nous obtenons la matrice de passage P wc = P i × P e des coordonnées monde (exprimées en m) en coordonnées images (exprimées en pixels) : w c x su y c sv = P w (2.29) z s 1 Lors de la prise d’image dans une parcelle cultivée, la culture étant encore à l’état de plantule, nous avons fait l’hypothèse de négliger leur hauteur, ce qui entraı̂ne zw = 0 comme équation du champ. Pour le passage des coordonnées images (pixels) en coordonnées monde (m), nous avons : c w su x y = [P wc ]−1 sv s 0 1 (2.30) Si on modélise la matrice P = pcT w comme suit : a11 a12 a13 a14 P = a21 a22 a23 a24 a31 a32 a33 a34 (2.31) on obtient : a34 a31 uc + a32 vc + a33 (a11 a34 − a14 a31 )uc + (a12 a34 − a14 a32 )vc + a13 a34 − a14 a33 = − a31 uc + a32 vc + a33 (a21 a34 − a24 a31 )uc + (a22 a34 − a24 a32 )vc + a23 a34 − a24 a33 = − a31 uc + a32 vc + a33 s = − xw yw Soit en calculant P : 30 (2.32) (2.33) (2.34) 2.4 Dispositif optique a11 = cos α cos βdu (2.35) a12 = (sin α cos ϕ − cos α sin β sin ϕ)dv (2.36) a13 = − cos α cos βu0 du − (sin α cos ϕ − cos α sin β sin ϕ)v0 dv + (− sin α sin ϕ − cos α sin β cos ϕ) f (2.37) a14 = l sin ϕ sin α (2.38) a21 = sin α cos βdu (2.39) a22 = (− cos α cos ϕ − sin α sin β sin ϕ)dv (2.40) a23 = − sin α cos βu0 du − (− cos α cos ϕ − sin α sin β sin ϕ)v0 dv + (cos α sin ϕ − sin α sin β cos ϕ) f (2.41) a24 = −l sin ϕ cos α (2.42) a32 = − cos β sin ϕdv (2.44) a31 = − sin βdu (2.43) a33 = sin βu0 du + cos β sin ϕv0 dv − cos β cos ϕ f a34 = l cos ϕ (2.45) (2.46) (2.47) Par la suite, dans notre système, nous avons négligé l’angle de roulis β car c’est l’angle qui variera le moins. Donc, il vient : xw = yw = l(cos α cos ϕ(uc − u0 )du + sin α(vc − v0 )dv) sin ϕ(vc − v0 )dv + f cos ϕ l(sin α cos ϕ(uc − u0 )du − cos α(vc − v0 )dv sin ϕ(vc − v0 )dv + f cos ϕ (2.48) (2.49) Ainsi la matrice P est une matrice projective 3 × 4 ayant onze degrés de liberté (R x , R y , R z , tx , ty , tz , f , u0 , v0 , du et dv) qui doivent être déterminés par la mise en place d’une méthode de calibration de la caméra. 2.4.3 Autocalibration pour le temps réel Après avoir caractérisé le système optique par le modèle du sténopé, il s’avère que certains de ces paramètres doivent être déterminés par une calibration. Il s’agit de caractériser non seulement les paramètres intrinsèques mais aussi les paramètres extrinsèques du système optique. Dans chacun de ces deux cas, deux méthodes de calibration ont été développées. 2.4.3.1 Méthode de calibration des paramètres intrinsèques Autant le constructeur peut nous fournir avec précaution la taille du CCD où les dimensions d’un pixel, autant la valeur de la focale et du point principal doivent être obtenues par une calibration. Il existe d’autres paramètres à prendre en compte comme : – l’angle entre l’axe uc et vc considéré égal à 90˚, noté ξ, – le facteur d’échelle représentant l’incertitude due aux imperfections dans la synchronisation du matériel pour l’acquisition et la numérisation de l’image noté Su , – les distorsions géométriques (Brown, 1966 ; Gennery, 1991 ; Freyer, 1994) qui déforment l’image tout en conservant sa netteté soit : * la distorsion radiale, notée δr , qui contracte ou dilate l’image suivant les demi-droites qui ont pour origine le point principal de l’image, 31 Chapitre 2. Dispositif expérimental * la distorsion tangentielle, notée δt qui déforme l’image suivant une direction perpendiculaire aux demidroites issues du point principal. Il en résulte une torsion de l’image. Généralement, cette distorsion est nettement plus faible que la distorsion radiale. Parmi les nombreuses méthodes développées, on notera : – la méthode des multiplans, qui utilise plusieurs vues d’un même plan (Batista et al., 1998 ; Bouguet, 1999) dans un volume donné. En général, une dizaine de vues différentes du plan comportant une vingtaine de points de repères sont nécessaires pour rendre la méthode robuste, les paramètres à identifier sont obtenus par interpolation, – la méthode de ”Tsaı̈” (Tsai, 1986 ; Tsai, 1987), cette méthode permet de modéliser la calibration d’une caméra par une approche géométrique simplifiée. Cette méthode permet, entre autre, d’estimer le coefficient de distorsion radiale du système optique, – la méthode de ”Faugeras et Toscani” (Toscani, 1987) est l’une des méthodes les plus couramment utilisées dans l’industrie. A l’aide d’une mire de calibration et à partir d’équations de la projection perspective, les paramètres intrinsèques et extrinsèques sont extraits par résolution du système d’équations par le nombre de points de repère sélectionnés, – méthode par autocalibration. Il s’agit d’extraire sans intervention manuelle et sans mire de calibration les paramètres intrinsèques d’une caméra. Thomas Skordas (Skordas, 1995) présente un comparatif détaillé des différentes méthodes d’autocalibration. Enfin, M. Bénallal (Bénallal, 2002) présente un état de l’art sur la calibration de caméra dans sa thèse. Pour calibrer notre caméra, nous avons utilisé la méthode proposée par J-Y. Bouguet (Bouguet, 1999 ; Bouguet, 2004) similaire à celle de J. Heikkila et O. Silven (Heikkila et Silven, 1997) de l’université de Oulu en Finlande. Cette méthode nous permet de caractériser les paramètres suivants : les coordonnées du point principal (u0 , v0 ), la focale ( f ), l’angle entre l’axe uc et vc (ξ), le facteur d’échelle d’incertitude (Su ) et les deux coefficients de distorsion radiale (δr ) et tangentielle (δt ). La distorsion radiale peut être approximée par l’expression suivante : δrui = ui (k1 + ri2 + k2 ri4 + . . .) (2.50) δrvi vi (k1 + ri2 + k2 ri4 + . . .) (2.51) = q où k1 , k2 , . . . sont les coefficients de distorsion radiale, et ri = u2i + v2i . Généralement, deux coefficients suffisent pour compenser cette distorsion. L’expression de la distorsion tangentielle est souvent écrite sous la forme suivante : δtui = 2p1 ui vi + p2 (ri2 + 2u2i ) (2.52) δtvi p1 (ri2 + 2v2i ) + 2p2 ui vi (2.53) = où p1 et p2 sont les coefficients de distorsion tangentielle. En combinant le modèle du sténopé, incluant le facteur d’incertitude et l’angle entre l’axe uc et vc (ξ), avec les corrections des composantes de distorsions radiale et tangentielle, il vient : uc = vc = Su (ui + δrui + δtui + ξ(vi + δrvi + δtvi )) + u0 du 1 (vi + δrvi + δtvi ) + v0 dv (2.54) (2.55) Soit les coordonnées ud et vd correspondant aux coordonnées ui et vi corrigées par les coefficients de distorsion radiale et tangentielle, ud = ui + δrui + δtui vd = vi + δrvi 32 + δtvi (2.56) (2.57) 2.4 il vient, sous forme matricielle : c d u u v = P acorr v 1 1 avec, Su du Su ξ du 0 0 P acorr = 0 1 dv u0 v0 1 Dispositif optique (2.58) (2.59) P acorr représente la nouvelle matrice de transformation caméra/image. 2.4.3.1.1 Résultats de la calibration Comme nous l’avons évoqué un peu plus haut, nous avons utilisé la méthode de Bouguet (Bouguet, 1999 ; Bouguet, 2004) afin de définir les paramètres intrinsèques de la caméra. Le constructeur de la caméra fournit les données suivantes : 1598 = 799 et – résolution de 1598 × 1199, ce qui implique pour le point principal u0 = 2 1199 v0 = = 599, 5, 2 – la taille d’un pixel : notre caméra a des pixels carrés soit dx = dy = 4, 4µm, c’est la seule donnée que nous pouvons admettre car elle ne tient en aucun compte du système optique, cette valeur a été obtenue lors de la fonte du CCD. La focale que nous utilisons pour nos essais est une focale de f = 8, 5mm. La méthode de Bouguet est mise en œuvre avec une mire de 56 × 56 centimètres ayant 14 carrés de taille 4 × 4 centimètres en alternance de couleur noir et blanc comme on peut voir en photo sur la figure 2.14. Nous avons utilisé vingt cinq images représentant la mire dans différentes positions. F IG . 2.14 – Une prise de vue de la mire parmi les 25 effectuées Nous obtenons les valeurs suivantes : f c = [1928 1930.9] (2.60) cc = [804, 53 585, 87] (2.61) al pha c = [0, 00000] (2.62) kc = [−0.22050 0.26755 − 0.00247 0.00162] 33 (2.63) Chapitre 2. Dispositif expérimental Ces résultats correspondent à des combinaisons des paramètres intrinsèques. En effet f c(1) = 1928 correspond au produit entre la focale f , le facteur d’échelle Su et la taille horizontale d’un élément du CCD du, soit : f c(1) = f Su du (2.64) La valeur f c(2) correspond au produit entre la focale f et la taille verticale d’un élément du CCD dv, f c(2) = f dv (2.65) Les valeurs de cc sont les coordonnées du point principal ; donc : cc(1) = u0 (2.66) cc(2) = v0 (2.67) La valeur de al pha c détermine la mesure de l’angle entre l’axe uc et vc , ce qui implique : al pha c = ξ (2.68) Pour finir les valeurs contenues dans kc correspondent aux valeurs des coefficients de distorsions radiale et tangentielle multipliées par une puissance n de la focale f : kc(1) = kc(2) = kc(3) = kc(4) = f 3 k1 (2.69) 5 (2.70) 2 (2.71) 2 (2.72) f k2 f p1 f p2 Ainsi d’après l’équation 2.65, la focale f est égale à 8,49 mm. A partir des équations 2.64 et 2.65, nous déterminons que le facteur d’échelle Su a pour valeur 0,00002. Puis les équations 2.63, 2.69, 2.70 et 2.65, donnent accès aux deux coefficients de distorsion radiale, k1 et k2 respectivement égaux à -0,00036 et 0,000006. Finalement, avec les équations 2.63, 2.71, 2.72 et 2.65, nous obtenons les deux coefficients de distorsion tangentielle p1 et p2 , soit -0,000034 et 0,000022. Le tableau 2.2 résume les valeurs des paramètres intrinsèques obtenus par calibration. u0 v0 f ξ Su k1 k2 p1 p2 804, 53 pixels 585, 57 pixels 8, 49 mm 0˚ 0, 00002 −0, 00036 0, 000006 −0, 000034 0, 000022 TAB . 2.2 – Résumé des paramètres intrinsèques obtenues par calibration. La figure 2.15 montre l’influence de la distorsion (radiale et tangentielle) de chaque pixel de l’image. Chaque flèche représente le déplacement effectif d’un pixel induit par la distorsion optique. Nous remarquons que les points situés en coin de l’image ont été déplacés d’environ 25 à 35 pixels, ce qui est non négligable surtout si on veut faire une transformation de l’espace image à l’espace monde. La figure 2.16.a montre l’impact de la composante tangentielle de distorsion, le maximum de déplacement induit est de 3,5 pixels dans le coin bas à gauche. Pour finir, la figure 2.16.b montre l’impact de la composante radiale de distorsion. Ce graphe est similaire à celui représentant le modèle de distorsion complet, ce qui implique que la composante de distorsion tangentielle peut être ignorée devant la composante radiale. Sur ces trois figures, la croix indique le centre de l’image alors que le cercle localise les coordonnées du point principal. 34 2.4 Dispositif optique F IG . 2.15 – Modèle de distorsion complet (radiale + tangentielle). (a) (b) F IG . 2.16 – Composante tangentielle (a) et radiale (b) du modèle de distorsion. Maintenant que nous connaissons les valeurs des paramètres intrinsèques, nous pouvons appliquer sans problème la transformation caméra/image en appliquant les corrections dues à la distorsion. La deuxième étape consiste à calibrer les paramètres extrinsèques du système optique afin d’obtenir les bonnes coordonnées dans le repère caméra. 2.4.3.2 Méthode de calibration des paramètres extrinsèques En pratique, lors de chaque prise d’image, nous ne connaissons pas exactement les paramètres extrinsèques (Rx , Ry , Rz , tx , ty et tz ) du système optique, en particulier l’angle de lacet et l’angle de tangage. Cette calibration sera particulièrement nécessaire lorsque le système est utilisé sur des parcelles de culture dont le sol présente de nombreuses irrégularités (dévers, pente...). Dans ce cas, les paramètres initiaux sont légèrement modifiés. Cependant, une petite erreur induite sur ces angles peut avoir d’énormes conséquences sur l’estimation de la position des plantes dans le monde réel. En effet, la précision recherchée sur la position des plantes est de l’ordre du centimètre ; puisque pour être efficace, notre système doit pulvériser sur la cible. Les figures 2.17 35 Chapitre 2. Dispositif expérimental et 2.18 présentent des courbes d’erreurs métriques au sol pour deux systèmes optiques différents. Nous nous apercevons que sur la figure 2.17, nous avons un système composé d’une focale de 16mm, une hauteur de 1,06m avec un angle de tangage de 70˚ une variation de plus ou moins 3˚ de cet angle implique une erreur comprise entre 20 et 50% sur le calcul de la position des plantes. La deuxième courbe d’erreur présentée (figure 2.18) a pour système optique la même hauteur, une focale de 8,5mm et un angle de tangage de 58˚. Dans ce cas une erreur de plus ou moins 3˚ induit une erreur de 20 à 35% sur la position des plantes. Cette erreur est inférieure à celle obtenue avec le système optique précédent puisque l’angle de tangage est plus faible. Pour la suite de l’étude, nous garderons une configuration avec une hauteur de 1,06m, une focale de 8,5mm et un angle de tangage de 58˚. % d’erreur sur yw suivant sa coordonnée ligne en fonction de φ 80 ∆φ=73.00 60 ∆φ=72.75 ∆φ=72.50 ∆φ=72.25 40 ∆φ=72.00 % d’erreur ∆φ=71.75 ∆φ=71.50 ∆φ=71.25 ∆φ=71.00 ∆φ=70.75 ∆φ=70.50 ∆φ=70.25 ∆φ=70.00 ∆φ=69.75 ∆φ=69.50 ∆φ=69.25 ∆φ=69.00 ∆φ=68.75 ∆φ=68.50 ∆φ=68.25 ∆φ=68.00 ∆φ=67.75 ∆φ=67.50 ∆φ=67.25 ∆φ=67.00 20 0 −20 −40 1200 1000 800 600 coordonnée ligne (pixel) 400 200 0 F IG . 2.17 – Pourcentage d’erreur commise sur la position des plantes avec un système optique de hauteur 1,06m, une focale de 16mm et un angle de tangage de 70˚. Nous avons donc cherché à développer une méthode permettant de déterminer en temps réel les angles de tangage et de lacet à partir de l’image acquise par la caméra. Pour cela, nous nous sommes intéressés aux travaux de Fung et al. et He et al. (Fung et al., 2003 ; He et Yung, 2007) qui présentent une méthode d’autocalibration basée sur des données connues de l’image acquise. Leurs caméras filment une route avec des marquages au sol (bandes blanches délimitant les routes) et comme la taille d’une bande est parfaitement connue dans le monde réel, ils utilisent cette information pour remonter aux paramètres extrinsèques du système optique. Dans notre cas, la difficulté est que la seule donnée accessible est la distance séparant deux lignes de semis, distance qui peut d’ailleurs varier au cours du temps car les lignes de semis ne sont pas parfaitement rectilignes. Cette donnée étant trop approximative, nous avons recherché dans l’image une donnée fiable : le point de fuite. En effet, les images acquises présentent des lignes de semis en perspective et ces lignes convergent toutes en ce même point. Nous avons donc développé une méthode de calibration du système optique basé sur la détection de ce point de fuite. 36 2.4 Dispositif optique % d’erreur sur yw suivant sa coordonnée ligne en fonction de φ 40 ∆φ=61.00 ∆φ=60.75 30 ∆φ=60.50 ∆φ=60.25 ∆φ=60.00 % d’erreur 20 ∆φ=59.75 ∆φ=59.50 ∆φ=59.25 ∆φ=59.00 ∆φ=58.75 ∆φ=58.50 ∆φ=58.25 ∆φ=58.00 ∆φ=57.75 ∆φ=57.50 ∆φ=57.25 ∆φ=57.00 ∆φ=56.75 ∆φ=56.50 ∆φ=56.25 ∆φ=56.00 ∆φ=55.75 ∆φ=55.50 ∆φ=55.25 ∆φ=55.00 10 0 −10 −20 −30 1200 1000 800 600 coordonnée ligne (pixel) 400 200 0 F IG . 2.18 – Pourcentage d’erreur commise sur la position des plantes avec un système optique de hauteur 1,06m, une focale de 8,5mm et un angle de tangage de 58˚. 2.4.3.2.1 Détermination des coordonnées du point de fuite Si la transformation de Hough est utilisée pour la discrimination culture/adventices (cf. section 4.5) la position du point de fuite est automatiquement obtenue. En revanche, si une autre méthode est utilisée pour la détection des mauvaises herbes (Fourier (4.2), ondelettes (4.4),...), nous devons développer une méthode spécifique pour obtenir ce point de fuite. Nous proposons d’utiliser la méthode des moments géométriques pour calculer les paramètres de l’ellipse possédant les même moments géométriques qu’une région considérée dans l’image (Safee-Rad et al., 1992). A partir de ces paramètres, nous allons obtenir le centre de l’ellipse et son orientation par rapport à l’horizontale ce qui nous permettra d’obtenir les équations des droites passant par la région considérée. Rappel sur le calcul des paramètres de l’ellipse en utilisant la méthode des moments On peut voir sur la figure 2.19 une ellipse située dans une image caractérisée par ses principaux paramètres : grand axe (a), petit axe (b), centre de gravité (c) et l’angle d’inclinaison (ω). La définition des moments d’ordre p, q dans le cas discret pour une image f (x, y) est exprimée de la façon suivante : NL−1 NC−1 m pq = ∑ ∑ y=0 x p yq f (x, y) x=0 Avec : – NL=nombre de lignes de l’image. – NC=nombre de colonnes de l’image. Nous allons maintenant déterminer les différents paramètres de l’ellipse. 37 (2.73) Chapitre 2. Dispositif expérimental F IG . 2.19 – Représentation d’une ellipse avec ces principaux paramètres : grand axe (a), petit axe (b), centre de gravité (c) et l’angle d’inclinaison (ω). 1. Surface : On utilise le moment d’ordre 0 : S = m00 (2.74) 2. Coordonnées du centre de gravité C(c0 , r0 ) : Elles sont données par les moments d’ordre 1 : r0 = c0 = m10 m00 m01 m00 (2.75) (2.76) 3. Axes de l’ellipse : Pour calculer les axes de l’ellipse équivalente, il faut exprimer les moments d’ordre 2 par rapport au centre de gravité : mg20 = m20 − m00 r02 (2.77) m02 − m00 c20 (2.79) g m11 g m02 = m11 − m00 r0 c0 = (2.78) Puis nous déterminons l’inclinaison de l’ellipse (angle ω) : 2mg11 π 1 −1 ω + k = tan 2 2 mg02 − mg20 (2.80) Nous calculons alors les moments d’inertie rapportés aux axes principaux de l’ellipse : mxx = myy = q 1 g g g g 2 g 2 m02 + m20 + (m02 − m20 ) + 4(m11 ) 2 q 1 g g 2 g 2 g g m02 + m20 − (m02 − m20 ) + 4(m11 ) 2 38 (2.81) (2.82) 2.4 Dispositif optique Connaissant les relations entre les moments et les paramètres a et b de l’ellipse : πa3 b 4 πab3 myy = 4 S = πab mxx = (2.83) (2.84) (2.85) Il vient : r mxx a = 2 S r myy b = 2 S (2.86) (2.87) Pour résumer, l’ellipse a pour centre C(r0 , c0 ), sa surface est S, ses demi-axes sont a et b et elle est inclinée d’un angle ω par rapport à l’horizontale. Algorithme de détection du point de fuite La méthode est appliquée sur l’image traitée par la transformée de Fourier avec un filtre de Gabor ou par la transformée en ondelette. Cette image représente les lignes de semis dont le contraste a été rehaussé. Nous appliquons sur cette image une méthode de blob-coloring (Ballard et Brown, 1982 ; Deriche et Cocquerez, 1987 ; Haralick et Shapiro, 1992) afin d’étiqueter notre image en plusieurs régions. Pour chaque région, il s’agit de calculer l’ellipse possédant les mêmes moments géométriques que la région considérée. Lorsque tous les paramètres de chaque région ont été calculés, nous ne gardons que les quatre régions ayant la surface d’ellipse la plus grande. Comme nous connaissons les paramètres de ces quatre ellipses, nous calculons les droites passant par ces régions de la façon suivante : y = mx + p (2.88) m = tan(ω) (2.89) p = r0 − mc0 (2.90) soit l’équation de droite obtenue avec le centre de l’ellipse et son inclinaison : y = x tan(ω) + r0 − c0 tan(ω) (2.91) Il est possible que ces quatre droites ne convergent pas vers un même point, nous avons donc élaboré un algorithme permettant de sélectionner les droites convergeant vers un même point. On effectue une régression linéaire pour chaque groupe de trois droites en utilisant les couples m et p de chaque droite. Pour chacun de ces groupes, nous calculons l’intersection, correspondant à un point de fuite, deux à deux des droites. Pour tous les points de fuite trouvés dans chacun des groupes, nous calculons les distances séparant ces points de fuite des paramètres trouvés à l’aide de la régression linéaire. Ces distances nous permettent pour chacun des groupes et suivant un seuil défini sur cette distance de ne garder que les groupes présentant le moins d’erreur. Ce processus est itératif jusqu’à ce que le bon couple de points soit trouvés. 2.4.3.2.2 Détermination de l’angle de tangage ϕ Soit le point de fuite Vp (uvp , vvp ) dont les coordonnées sont exprimées en pixels dans le repère (Oc , uc , vc ). Ce point est positionné sur la ligne d’horizon (ligne horizontale parallèle au sol), située à la hauteur de l’observateur (dans notre cas, la hauteur de la caméra). Donc, comme le montre la figure 2.20, ce point est situé sur une partie virtuelle du CCD, c’est-à-dire en dehors du capteur CCD. 39 Chapitre 2. Dispositif expérimental F IG . 2.20 – Vue générale expliquant la projection du point de fuite sur le capteur CCD. Nous pouvons nous apercevoir que sur la figure 2.20, l’angle de tangage ϕ se retrouve dans le triangle AVp D où Vp représente la position du point de fuite sur la partie virtuelle du CCD. Nous allons donc faire un zoom sur le triangle rectangle AVp D qui est rectangle en A afin d’exprimer l’angle de tangage ϕ en fonction des paramètres intrinsèques de la caméra (figure 2.21). F IG . 2.21 – Vue de coupe et vue de dessous. Dans le triangle AVp D, nous avons : ψ + ϕ = 90˚ =⇒ ψ = 90˚ − ϕ (2.92) En considérant maintenant le triangle Vp AOi , où le point Oi (u0 , v0 ) représente le point principal de la caméra, nous obtenons : 90˚ + β + ψ = 180˚ (2.93) Si nous remplaçons 2.92 dans 2.93, il vient : β = ϕ 40 (2.94) 2.4 Dispositif optique Donc on retrouve l’angle de tangage dans le triangle Vp AOi . A partir de ces données, il est possible d’ex−−−→ −−→ primer les distances kOiVp k notée d et kOi Ak égale à la focale f , par : q [(uvp − u0 )du]2 + [(vvp − v0 )dv]2 f −1 ϕ = β = tan d d = 2.4.3.2.3 (2.95) (2.96) Détermination de l’angle de lacet α Maintenant que nous connaissons l’angle de tangage ϕ, il nous reste à déterminer l’angle de lacet α. Nous allons de nouveau utiliser les coordonnées du point de fuite. Pour trouver l’angle de lacet, nous allons calculer les coordonnées du point de fuite dans le monde réel en utilisant la matrice de passage dans laquelle : – l’angle ϕ prendra la valeur trouvée dans l’équation 2.96, – l’angle α sera supposé nul. Soit Vpw (xvp , yvp ) les coordonnées du point de fuite dans le monde réel déduites de la matrice de passage. La figure 2.22 montre la position du point de fuite dans le monde réel Vpw par rapport à l’origine dans le repère monde. F IG . 2.22 – Localisation de l’angle de lacet α par rapport au point de fuite et l’origine du repère monde. Nous nous apercevons alors, que l’angle de lacet α correspond à l’angle entre les droites (Ow yw ) et (OwVpw ), soit : −1 xvp α = tan (2.97) yvp 2.4.3.2.4 Résultats de la calibration Nous présentons dans ce paragraphe, les résultats obtenus dans la phase d’autocalibration des paramètres extrinsèques. Dans un premier temps, nous donnons un exemple sur une image pour déterminer le point de fuite puis nous calculerons les angles de tangage ϕ et de lacet α afin de les comparer avec les valeurs théoriques. 41 Chapitre 2. Dispositif expérimental Pour finir, une comparaison sur le calcul d’angle obtenu à partir de plusieurs séries d’images avec différentes valeurs pour le système optique sera présentée. Pour illustrer la méthode, nous utiliserons le résultat obtenu avec l’analyse multirésolution utilisant une ondelette de Daubechies d’ordre 25 (cf 4.4). En effet, lorsque l’on implémente seulement un ET logique entre les différents niveaux de détails retenus, nous obtenons l’image présentée figure 2.23.a. Ce résultat est issu de l’image présentée figure 4.3.a. L’image résultante de l’analyse multirésolution est étiquetée afin d’avoir des régions bien distinctes. Puis pour chaque région, nous calculons l’ellipse possédant les mêmes moments géométriques que la région considérée. Nous gardons seulement les quatre surfaces d’ellipse les plus importantes puis à partir des valeurs du centre de l’ellipse et de son inclinaison, nous calculons les équations de droites passant par ces régions comme montré figure 2.23.b. La figure 2.23.c représente un zoom de l’image précédente afin de mettre en évidence la convergence des droites. Nous nous apercevons que les quatre droites ne convergent pas vers le même point. En utilisant l’algorithme mis en place dans le §2.4.3.2, nous allons seulement sélectionner les droites convergeant vers un même point. La figure 2.24.a présente ce résultat où seulement les trois droites convergeant vers le même point ont été retenues. La figure 2.24.b présente un zoom de ces droites afin de montrer le point de fuite graphiquement. L’étoile rouge correspond au point de fuite trouvé par régression linéaire et l’étoile noire celui obtenu en prenant la médiane de chaque point de fuite calculé deux à deux entre ces trois droites. On considère que le point de fuite correspond à l’étoile noire soit, dans notre exemple, xvp = 214, 36 et yvp = −329, 62. Ce qui implique pour la valeur de l’angle de tangage ϕ = 69, 14˚ pour un angle vrai de 69,60˚ soit une différence de 0,46˚ (erreur de 0,66%). Et un angle de lacet de α = −1, 76˚ pour un angle vrai de -1,70˚ soit une différence de 0,06˚ (erreur de 3,4%). (a) (b) (c) F IG . 2.23 – (a)Résultat obtenu par l’analyse multirésolution avec une ondelette de Daubechies d’ordre 25. (b)Droites retenues dans l’image par la méthode des moments. (c)Zoom de l’image (b). A titre d’exemple, nous pouvons voir dans le chapitre 4.9, une vue redressée (figure 4.24) de l’image originale présentée sur la figure 4.19. La figure 2.25.a représente l’angle de tangage ϕ détecté par rapport à la valeur initiale pour les 1530 valeurs d’angle de tangage obtenues lors de la création de la base de données d’images simulées No 2 (cf. 4.8), la courbe rouge étant la courbe idéale de détection. Nous nous apercevons que plus l’angle est élevé, plus il est difficile de le détecter précisément, du moins plus les coordonnées du point de fuite sont difficiles à déterminer précisément. L’erreur moyenne de l’angle de tangage est de −0, 51˚ avec un écart-type de 0,81. La figure 2.25.b est la représentation de l’angle de lacet détecté en fonction de l’angle de lacet initial, la courbe rouge étant la détection idéale. L’erreur moyenne de cet angle est de -0,06˚ avec un écart type de 0,42. 2.5 Conclusion Ce chapitre a permis de montrer la conception et la réalisation du dispositif expérimental avec notamment une caractérisation du système optique avec la détermination de la matrice de passage du monde image vers le monde réel permettant de piloter en temps réel les électrovannes. 42 2.5 (a) Conclusion (b) F IG . 2.24 – (a)Droites retenues en utilisant notre algorithme. (b)Visualisation du point de fuite. (a) (b) F IG . 2.25 – (a)Angle de tangage détecté en fonction de l’angle de tangage initial. (b)Angle de lacet détecté en fonction de l’angle de lacet initial. En ce qui concerne le système optique, nous avons utilisé le modèle du sténopé, modèle de projection perspective. Ce modèle fait appel non seulement aux paramètres intrinsèques (internes à la caméra) mais aussi aux paramètres extrinsèques de la caméra (position de la caméra dans le monde réel). Les paramètres intrinsèques ont été déterminés en laboratoire en utilisant une mire standard (grille composée de carrés noirs et blancs) à partir de la méthode de J-Y. Bouguet. Il a été ainsi possible de connaı̂tre avec précision, la valeur de la focale utilisée, les coordonnées du point principal de l’image ainsi que les différentes corrections dues aux phénomènes de distorsion de l’image obtenue pour cette caméra avec une focale donnée. Quant aux paramètres extrinsèques, même si ceux-ci ont été prédéfinis (par exemple ϕ = 58˚, H = 1, 06m), ils doivent être automatiquement re-déterminés en temps réel du fait que la caméra est perpétuellement soumise aux variations du terrain lors de la prise d’image. Une méthode basée sur la connaissance à priori du point de fuite a été développée, pour calibrer en temps réel, les deux angles qui sont les plus soumis aux grandes 43 Chapitre 2. Dispositif expérimental variations : l’angle de tangage (ϕ) et l’angle de lacet (α). En effet, une erreur sur le calcul de ces angles induit une erreur non négligeable sur la pulvérisation (erreur métrique de localisation) et sur le fonctionnement du prototype (erreur sur les temps tr et ts). 44 Chapitre 3 Algorithmes spectraux Sommaire 3.1 3.2 3.3 3.4 3.5 3.6 3.7 3.8 3.9 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Les différents types de réflexion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1 La réflexion spéculaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.2 La réflexion diffuse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.3 La réflexion chez les végétaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Réflectance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.1 Propriétés spectrales des végétaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.2 Propriétés directionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . État de l’art : réflectance et désherbage . . . . . . . . . . . . . . . . . . . . . . . . . . . . Réalisation de deux bases de données de réflectance . . . . . . . . . . . . . . . . . . . . . 3.5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.2 Espèces végétales étudiées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.3 Dispositif expérimental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.4 Base de données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Méthode de réduction des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6.1 Analyse en Composantes Principales (ACP) . . . . . . . . . . . . . . . . . . . . . . . Les réseaux de neurones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.1 Les réseaux multicouches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.2 Exemple d’architecture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.3 Les réseaux de type fonction à base radiale (Radial Basis Fonction, RBF) probabiliste Résultats et discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.8.1 Prétraitement et matrice de données . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.8.2 Résultat de l’Analyse en Composante Principale . . . . . . . . . . . . . . . . . . . . 3.8.3 Résultats des classifications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 46 46 47 47 48 49 49 49 50 50 50 51 52 53 53 55 56 56 56 57 57 58 59 67 3.1 Introduction Chaque objet d’une scène agronomique peut être identifié par sa signature spectrale. Les plantes présentent une couleur verte alors que le sol est marron. Comme nous le verrons, autant séparer les végétaux du reste de la scène (sol, ombre, résidus racinaires...) est une opération facile en traitement d’image par l’utilisation d’un indice de végétation (NDVI, LAI, ExcessGreen...), avant, distinguer une plante d’une autre est une opération plus délicate. Cette question fera l’objet de ce chapitre qui présente les différentes méthodes mises en œuvre pour identifier une plante du sol, une plante d’une autre en utilisant les signatures spectrales. Après quelques rappels sur les notions de réflexion et de réflectance, un état de l’art sur les différentes techniques mises en 45 Chapitre 3. Algorithmes spectraux œuvre par les chercheurs pour obtenir cette information spectrale est présentée. Enfin, nous présentons le dispositif expérimental de spectroscopie utilisé pour recueillir les spectres de réflectance. Des expériences ont été conduites en champs sur des feuilles. Puis nous détaillerons les différentes méthodes de classification supervisée (réseaux de neurones artificiels de type perceptron ou probabiliste) utilisées pour identifier les plantes en ayant auparavant réduit la taille de notre base de données via une Analyse en Composante Principale (ACP). 3.2 Les différents types de réflexion Éclairer en lumière directe un objet pour l’identifier est la méthode la plus couramment utilisée dans le cadre de la télédétection (Jago et al., 1999). La mise en œuvre de cette méthode non destructive nécessite quelques notions sur la théorie de l’interaction lumière/matière. Il faut en particulier étudier les phénomènes de réflexion. En effet, lorsque la lumière interagit avec la matière, celle-ci peut être absorbée, transmise ou réfléchie, ces phénomènes peuvent être modélisés suivant : A(λ) + R(λ) + T (λ) = 1 (3.1) avec A(λ) la fraction de l’énergie lumineuse absorbée par rapport à l’énergie incidente, T (λ) la fraction de l’énergie lumineuse transmise par rapport à l’énergie incidente et R(λ) la fraction de l’énergie lumineuse réfléchie par rapport à l’énergie incidente. 3.2.1 La réflexion spéculaire La réflexion spéculaire se produit à la surface de tout objet. Dans le cas d’un miroir parfaitement lisse (encore appelé surface de Fresnel), c’est-à-dire d’un matériau qui n’est sujet qu’à la réflexion spéculaire, les lois de Snell-Descartes (Pérez, 2000) permettent de définir le comportement de la lumière : elle est réfléchie dans une seule direction dont l’angle à la normale à la surface est égal à l’angle entre la direction incidente et la normale, ces deux angles étant coplanaires (figure 3.1). F IG . 3.1 – Réflexion spéculaire dans le cas d’un miroir parfaitement lisse. Le coefficient de réflexion est défini comme le rapport entre le flux lumineux réfléchi (φr ) et le flux lumineux incident (φi ) : φr (3.2) R= φi Dans le cas d’un matériau réel, l’essentiel de la lumière est réfléchi dans la direction théorique définie par les lois de Snell - Descartes, mais une partie de celle-ci peut-être également réfléchie à l’intérieur d’un cône centré sur cette direction (figure 3.2). Dans le cas d’une surface lisse, il sera observé un pic spéculaire ; dans le cas d’une surface rugueuse, ce sera un lobe (Guyot, 1989 ; Callet, 1998) (décroissance plus lente de l’intensité lumineuse en fonction de l’angle à l’axe du cône). C’est cette réflexion qui est détectée par imagerie satellitale (BRDF method1 ) (Bousquet et al., 2005). 1 Bidirectional Reflectance Distribution Function (réflectance bidirectionnelle spectrale). 46 3.2 Les différents types de réflexion F IG . 3.2 – Réflexion spéculaire dans le cas d’un matériau réel. 3.2.2 La réflexion diffuse La réflexion diffuse s’applique à la majorité des objets de la vie courante. Dans ce cas de réflexion, l’interaction de l’onde avec la matière a lieu avec des couches plus profondes de l’objet, ainsi la lumière réfléchie sera différente à cause de l’absorption d’une partie de la lumière par les pigments. Dans ce cas, le rayonnement réfléchi obéit à la loi de Lambert (Pérez, 2000) avec I = I0 cos θ avec I0 , l’intensité énergétique pour θ = 0 et θ est l’angle formé par la direction à la normale à la surface (figure 3.3). Et, contrairement à la diffusion spéculaire, on peut en déduire une information sur la structure interne de l’objet étudié. En particulier, pour une plante, nous pourrons en déduire les informations sur la structure interne des feuilles (Jacquemoud et al., 1996 ; Bacour, 2001 ; Bousquet, 2007). F IG . 3.3 – Réflexion diffuse. 3.2.3 La réflexion chez les végétaux Dans le cas des végétaux, la réflexion de la lumière incidente sera une combinaison de la réflexion spéculaire et de la réflexion diffuse. L’ensemble de ses réflexions constituent le modèle de Lambert non parfait. L’utilisation de la polarisation pourrait-être un bon moyen pour identifier la contribution de chacun de ces signaux dans la réflexion globale des végétaux (Vanderbilt et al., 1985 ; Vanderbilt et Grant, 1986 ; Terrier et al., 2004). Concernant les espèces végétales, il existe deux grandes familles (monocotylédone/dicotylédone) qui se caractérisent entre autre par des structures de feuilles différentes. Les ”monocotylédones” ont des feuilles allongées avec une nervure principale et la structure de ces feuilles est symétrique par rapport au centre de la feuille. Le mésophylle2 ne contient pas de parenchyme3 palissadique. En revanche les ”dicotylédones” 2 La plus grande partie de l’intérieur d’une feuille, c’est-à-dire entre l’épiderme inférieur et supérieur, peut être composé d’un parenchyme appelé mésophylle. 3 Les parenchymes sont des tissus végétaux constitués de cellules vivantes, à paroi pecto-cellulosique mince, perforées de ponctuations ou plasmodesmes, qui permettent des communications intercellulaires et une circulation des substances à l’intérieur des cellules 47 Chapitre 3. Algorithmes spectraux présentent un parenchyme palissadique et un parenchyme spongieux. Ainsi le signal de réflexion diffuse sera différent d’une famille à l’autre ce qui permet une classification par leur signature spectrale. Différents paramètres structuraux d’une feuille influencent (dans le proche infra rouge) le signal de réflexion diffuse. Knapp et Carter (Knapp et Carter, 1998) montrent que généralement les feuilles épaisses ont un signal plus intense que celui des feuilles fines. D’autre part, Gausman et Allen (Gausman et Allen, 1973) montrent aussi que le passage d’un milieu hydraté (tel que le cytoplasme4 d’une cellule) d’indice de réfraction 1,47 à un espace intracellulaire d’indice de réfraction 1 augmente sa dispersion. Il en résulte une augmentation du signal de réflexion diffuse avec le nombre d’interface eau/air. La forme des cellules influe également sur l’intensité du signal de réflexion diffuse. Ainsi les tissus palissadiques (à cellules rectangulaires et hautes) dispersent moins la lumière que les cellules rondes, ce qui donne une corrélation négative entre la présence de ce type de tissu dans une feuille et son signal de réflexion diffuse (Vogelmann et Martin, 1993). La couche individuelle de cellules de l’épiderme, quant à elle joue un rôle de lentille qui concentre la lumière dans le mésophylle, cette concentration dépend de la convexité des cellules composant l’épiderme (Vogelmann et Martin, 1993). L’épaisseur et la composition de la cuticule5 semblent avoir un effet sur ce signal de réflexion dans le proche infrarouge (Barnes et Cardoso-Vilhena, 1996). En 2001, Slaton et al. (Slaton et al., 2001) ont réalisé un modèle de prédiction dans le proche infra-rouge à partir de mesures effectuées sur 48 espèces dont l’un des principaux paramètres est le volume des lacunes du parenchyme spongieux. 3.3 Réflectance La réflexion n’étant pas une mesure absolue du fait qu’elle est dépendante de l’illuminant, la notion de réflectance a été introduite. Il s’agit du rapport entre la réflexion de l’échantillon étudié (feuille) et la réflexion par une surface standard de référence (Strub et al., 2004). Cette dernière est une surface blanche en PolyTétraFluoroEthylène6 (PTFE) qui réfléchit entièrement (99,999%)7 la totalité du rayon incident. %Réflectance = Réchantillon Rréférence (3.3) La figure ci-dessous (3.4) regroupe les spectres de réflectance de quelques surfaces en fonction de la longueur d’onde (du bleu (400 nm) au proche infra-rouge (900nm)) d’après (Pouchin, 2001). F IG . 3.4 – Spectres de réflectance de quelques surfaces (Pouchin, 2001). (circulation symplasmique). 4 Le cytoplasme désigne le contenu d’une cellule vivante. 5 La cuticule désigne la couche externe sécrétée par l’épiderme des plantes (cire de plante). 6 Teflon, sous sa marque commerciale. 7 Donnée constructeur. 48 3.4 État de l’art : réflectance et désherbage Nous remarquons que le sol (béton, sol sablonneux, asphalte) présente le plus souvent un spectre de réflectance linéaire en fonction de la longueur d’onde. 3.3.1 Propriétés spectrales des végétaux Classiquement, les spectres de réflectance des végétaux présentent dans le visible (400-700 nm) une forte absorption liée aux pigments foliaires, essentiellement la chlorophylle a et b avec deux bandes d’absorption dans le bleu (430-450 nm) et le rouge (640-660 nm) ainsi que les autres pigments photosynthétiques (caroténoı̈de8 910 ). En conséquence, le signal de réflectance des végétaux dans le visible est faible et présente un maximum dans les longueurs d’onde proches de 500 nm expliquant la couleur verte des végétaux. Baranoski et Rokne (Baranoski et Rokne, 2004) ont développé un modèle de réflectance dans le visible à partir de ces fonctions biologiques. En revanche, c’est dans le proche infra-rouge (700-1300 nm) où les pigments foliaires sont transparents pour ces longueurs d’onde que la réflectance devient très élevée et stable en présentant un plateau. Ce signal est corrélé à la structure anatomique des feuilles notamment aux nombres et discontinuité des couches cellulaires (Gausman, 1985 ; Baranoski et Rokne, 1997 ; Vrindts, 2000). La transition entre le visible et le proche infra-rouge se traduit par un point particulier appelé Red Edge qui serait le point d’inflexion de cette courbe et qui serait fortement corrélé à la fluorescence rouge des pigments chlorophylliens excités par la lumière visible. Au delà de ces longueurs d’onde, dans le moyen infra-rouge (1300-2500 nm), les propriétés optiques des feuilles sont affectées par la présence non seulement d’eau contenue dans celles-ci mais aussi des composés biochimiques des tissus foliaires. Enfin, les végétaux comme tous les êtres vivants, vont avoir des propriétés optiques qui évoluent non seulement avec le stress et l’environnement qu’ils subissent (stress hydrique, attaques parasitaires...) mais aussi avec l’âge. 3.3.2 Propriétés directionnelles Du fait que le rayonnement réfléchi (3.2.3) est constitué d’une composante spéculaire et d’une composante diffuse, celui-ci va également dépendre de l’angle d’incidence en conséquence de quoi, le signal de réflectance dépend très fortement de l’angle d’illumination, d’où l’utilisation d’un modèle BRDF11 . Par la suite, dans le cadre de nos expériences, la lumière incidente a toujours été positionnée perpendiculairement aux échantillons de feuille (θ = 0), avec l’impossibilité technique de modifier cet angle. Cela aurait été possible avec l’utilisation d’un goniophotomètre12 développé au laboratoire IPGP13 (Jussieu) dans l’équipe de S. Jacquemoud (Bousquet, 2007). Ainsi, l’étude qui suivra, portant sur la possibilité d’identifier une plante via sa signature spectrale, est restreinte aux spectres de réflectance mesurés pour un angle d’incidence nul. 3.4 État de l’art : réflectance et désherbage Dans le cadre du désherbage, les premiers travaux sur l’utilisation de la réflectance pour identifier une plante d’une autre sont apparus avec la thèse de Els Vrindts (Vrindts, 2000) en 2000. L’auteur utilise un spectromètre pour avoir des spectres de réflectance de 200 à 2000 nm. Bien sûr, en agriculture, le Weedseeker et autres prototypes (apparus dans les année 80) de ce genre utilisant les propriétés spectrales pour le désherbage localisé sont très vite limités (cf. 1.5) car la faible résolution spectrale ne permet pas cette discrimination plante/plante. 8 On regroupe sous le terme de caroténoı̈de les carotènes et les xanthophylles. carotène est un terpène, un pigment de couleur orange, important pour la photosynthèse. 10 Les xanthophylles sont des molécules de couleur jaune dérivées des carotènes, par ajout d’atomes d’oxygène (fonctions alcool, cétone, époxy,...). 11 Bidirectional Reflectance Distribution Function (réflectance bidirectionnelle spectrale). 12 Le goniophotomètre est un montage mécanique qui permet de modifier l’orientation de la source et/ou la position du détecteur, tout en maintenant constante la distance entre la source et le détecteur. 13 Institut de Physique du Globe de Paris. 9 Le 49 Chapitre 3. Algorithmes spectraux Les approches spectrales basées sur la réflectance peuvent se décliner en deux catégories : – celles qui utilisent un spectromètre, – celles qui s’appuient sur des images fournies par une caméra multispectrale. Une première étude a été menée en laboratoire pour l’acquisition des spectres de différents échantillons de cultures et d’adventices. Il est possible de classer ces échantillons en deux classes, culture et adventice, avec un taux d’erreur très faible (entre 0 et 6%) à l’aide d’une analyse discriminante multivariée. Gée et al. (Gée et al., 2004b) ont mené des mesures de réflectance sur 4 espèces végétales différentes en laboratoire. Une analyse en composante principale est réalisée dans le but de déterminer quelles longueurs d’onde permettent de discriminer au mieux les adventices. La classification est obtenue par l’utilisation d’un réseau de neurones de type perceptron. La classification entre monocotylédones et dicotylédones est de 100%. Quant à la classification entre 4 espèces différentes, elle donne un résultat correcte avec ≈86,66% de bonne détection. Vioix (Vioix, 2004), quant à lui, utilise une caméra multispectrale équipée de 4 bandes - bleu, vert, rouge et proche infra-rouge - embarquée dans un drone. L’auteur extrait une information spectrale après avoir séparé le sol de la végétation. Cette information n’est pas en fonction de la longueur d’onde, mais il s’agit plus d’une information fondée sur l’intensité des pixels dans chaque bande de couleur. Le nombre de filtres étant faible, il est difficile de vraiment parler de reconstruction d’un spectre de réflectance mais plus d’une reconstruction d’un profil spectral. A partir de cette information, l’auteur a testé plusieurs méthodes de classification afin de discriminer la culture des adventices (SVM, kppv,...). Parallèlement aux travaux de Vioix, Mansouri (Mansouri, 2005) a utilisé une caméra multi-spectrale ayant 9 filtres lui permettant de mieux reconstruire le spectre de réflectance de différents objets contenus dans une scène filmée. Ces caméras multispectrales ne permettent pas de faire du traitement en temps réel pour le moment. 3.5 Réalisation de deux bases de données de réflectance 3.5.1 Introduction L’objectif de cette étude, qui se démarque des travaux réalisés par les autres équipes de recherche, est d’être capable de reconnaı̂tre une mauvaise herbe à partir de sa réflectance. La finalité à plus long terme est de vouloir construire une classification de ces adventices en différents groupes de réflectance. En effet, actuellement la classification des plantes est basée essentiellement sur leur mode de reproduction et leur morphologie. Dans le but d’une automatisation du traitement phytosanitaire, la détection des adventices pourrait être réalisée en plaçant des capteurs optiques sur des engins agricoles pour des mesures de réflectance : il est nécessaire de connaı̂tre la relation entre le spectre mesuré et les mauvaises herbes à traiter. Une partie de ce travail a été présenté lors de la conférence ”Fifth European Conference on Precision Agriculture” (Bossu et al., 2005). 3.5.2 Espèces végétales étudiées Pour cette étude, nous avons choisi de travailler sur huit espèces d’adventices (table 3.1). Ces espèces appartenant à différentes familles végétales ont été choisies car elles sont fréquemment rencontrées en Bourgogne dans les parcelles agricoles. Espèces végétales La moutarde des champs Le chardon des champs La véronique de perse La folle avoine Classe Dicotylédone Dicotylédone Dicotylédone Monocotylédone Famille Brassicacée Astéracée Scrophulariacée Poacée TAB . 3.1 – Présentation des huit espèces étudiées. 50 3.5 Réalisation de deux bases de données de réflectance 3.5.3 Dispositif expérimental Les mesures des spectres de réflectance des plantes sont obtenues au moyen : – d’un spectromètre, qui reçoit la lumière réfléchie par la feuille. Seule la bande spectrale comprise entre 400 et 900 nm est utilisée. Il s’agit d’un spectromètre de chez Oceans Optics, – d’un ordinateur permettant de récupérer les données du spectromètre, – d’une source de lumière continue : il s’agit d’une lampe halogène tungstène qui émet un spectre dans le domaine 450-1000 nm, – d’une surface blanche PTFE (PolyTetraFluoroEthylene) servant d’échantillon de référence, – d’une sphère intégrante opaque et blanche qui possède un orifice de 8 mm de diamètre permettant de collecter toute la lumière réfléchie par la feuille. On peut voir sur la figure 3.5 le principe de la mesure de réflectance des plantes. Ø L a s o u r c e , le s p e c t r o m è t r e e t la d é t e c t io n s o u r c e d e lu m iè r e c o n t in u e S p e c t r o m è t r e H a lo g è n e - t u n g s t è n e P T F E A R e te n ir s u r fa c e b la n c h e D o m a in e s p e c t r a l d e la p p a r e il : [ 5 2 5 - 9 5 0 ] n m R é s o lu t io n ~ 1 0 n m M é t h o d e d e s t r u c t iv e E c h a n t illo n : fe u ille M ir o ir R é s e a u : 6 0 0 t r a it s / m m C a p t e u r : b a r e t t e d e C C D F IG . 3.5 – Principe de la mesure de réflectance des plantes. Ce dispositif fonctionne en espace clos puisque tous les signaux lumineux transitent via des fibres optiques. Les spectres sont enregistrés grâce au logiciel OOIBase32. Chaque spectre, est obtenu en utilisant une moyenne sur la mesure de dix enregistrements, et est constitué de 2048 points ce qui conduit à une résolution spectrale d’environ 0,25 nm. Les mesures en champ sont toujours réalisées en lumière contrôlée. On peut voir sur la figure 3.6 le prototype de mesure de réflectance adapté pour aller au champ, il est embarqué dans une charrette contenant une batterie pour assurer l’autonomie électrique du dispositif. Contrairement à ce qui a été fait dans les travaux de Gée et al. (Gée et al., 2004b), dans cette étude les feuilles ne sont plus prélevées sur la plante. Nous travaillons sur des plantes vivantes situées dans une parcelle proche de l’ENESAD. Ces mesures ont été réalisées en majeure partie sur les mêmes espèces que celles étudiées en laboratoire par Gée et al. (Gée et al., 2004b). Deux campagnes de mesures ont été réalisées en novembre 2004 afin de se mettre dans les mêmes conditions climatiques que pour la pulvérisation. Malheureusement, l’automne 2004 a été exécrable, très pluvieux et avec quelques gelées provoquant beaucoup de difficultés dans la prise de mesure. 51 Chapitre 3. Algorithmes spectraux F IG . 3.6 – Dispositif de mesure de réflectance en champ. 3.5.4 Base de données Nous avons ainsi construit deux bases de données : une en champ où deux campagnes de mesures ont été conduites et une autre en laboratoire réalisée par Gée et al. (Gée et al., 2004b). Pour la base de données en laboratoire, ce sont plus de 88 spectres qui ont été collectés sur quatre espèces différentes : folle avoine, moutarde, véronique et chardon. Pour la base de données en champ, 68 spectres ont été réalisés sur les 4 espèces étudiées en laboratoire pour la campagne 1. Pour la campagne 2, nous avons mesuré 64 spectres des espèces étudiées en laboratoire. Les tableaux 3.2 et 3.3 résument les nombres d’échantillons réalisés sur chaque espèce. Espèces Classe Echantillons chardon Dicotylédone 32 Véronique Dicotylédone 22 Moutarde Dicotylédone 16 Folle avoine Monocotylédone 18 TAB . 3.2 – Base de données de laboratoire. Nombre d’échantillons obtenus pour chaque espèce. Date Temps 12/11/2004 froid 19/11/2004 froid Campagne1 68 spectres Campagne 2 64 spectres Soleil Espèces Classe Chardon Dicotylédone Véronique Dicotylédone absent Moutarde Dicotylédone Folle avoine Monocotylédone Chardon Dicotylédone Véronique Dicotylédone présent Moutarde Dicotylédone Folle avoine Monocotylédone Echantillons 10 21 8 29 13 13 18 20 TAB . 3.3 – Nombre d’échantillons de chaque espèces pour les différentes campagnes conduites en champ. Toutes les mesures de réflectance effectuées permettent de créer une matrice de données (individus×variables) contenant des intensités lumineuses obtenues pour chaque longueur d’onde. A partir de cette matrice, nous appliquons une Analyse en Composante Principale afin d’étudier la carte des individus et le cercle de corrélation, informations qui peuvent nous permettre de savoir s’il est envisageable de faire une classification de ces spectres de réflectance dans un nouvel espace de variables réduites sans pertes d’information (carte des individus). 52 3.6 Méthode de réduction des données Le cercle permet, quant à lui, de mettre en évidence la redondance d’information contenue dans les variables (longueur d’ondes) et ainsi de réduire la taille de la matrice de données. Ensuite cette base de données servira pour mettre en place un algorithme d’identification d’une plante en fonction de son spectre de réflectance. Pour ce faire, nous utiliserons différents réseaux de neurones pour classer nos individus en testant différentes architectures de réseaux. 3.6 Méthode de réduction des données 3.6.1 Analyse en Composantes Principales (ACP) L’Analyse en Composantes Principales (ACP) est une méthode d’analyse statistique qui a pour but de réduire la taille des données tout en conservant le maximum d’information. Cette technique a été utilisée pour la première fois par Hotelling dans les années 30 (Hotelling, 1933) mais s’est réellement développée avec l’essor de l’informatique dans les années 80. 3.6.1.1 Principe de l’ACP On définit m le nombre de variables (longueurs d’onde) étudiées et N le nombre d’observations (spectres de réflectance) de chaque variable. On définit : λ1 (1) λ2 (1) · · · λm (1) λ1 (2) λ2 (2) · · · λm (2) s= (3.4) .. .. .. .. . . . . λ1 (N) λ2 (N) · · · λm (N) où λ1 (1) représente la mesure obtenue pour la première longueur d’onde du premier spectre. Afin de rendre le résultat indépendant des unités utilisées pour chaque variable, on utilise les valeurs centrées réduites des variables. Chaque colonne s j de la nouvelle matrice centrée est donnée par : Sj = sj − sj σj (3.5) avec s j représentant la jème colonne de la matrice s, s j est sa moyenne calculée de la façon suivante : sj = 1 N ∑ λ j (k) N k=1 (3.6) σ j est l’écart-type calculé comme suit : σj = s 1 N ∑ (λ j (k) − s j )2 N k=1 (3.7) La nouvelle matrice est notée : S = [S1 · · · Sm ] (3.8) On définit la matrice de corrélation par : 1 ST S (3.9) N −1 L’estimation des paramètres du modèle ACP se résume à une détermination des valeurs et vecteurs propres de la matrice de corrélation Mc , soit : Mc = m Mc = ∑ µi pi pTi (3.10) i=1 avec P, la matrice des vecteurs propres, pi , le ième vecteur propre de Mc et µi la valeur propre correspondante. 53 Chapitre 3. Algorithmes spectraux 3.6.1.2 Étude des variables - Cercle des corrélations La matrice de corrélation donne accès aux valeurs propres des vecteurs ainsi qu’aux coordonnées des variables (λi ) dans l’espace des composantes principales : il faut donc maintenant les représenter sur un graphique. En effet, notre but (et qui est celui de l’ACP) est de réduire le nombre de dimensions du système et donc de choisir les valeurs propres les plus représentatives, il faut alors déterminer les axes représentant plus d’information que les axes initiaux correspondant aux variables. S’il existe q relations linéaires entre les colonnes de S, on aura q valeurs propres nulles (ou quasiment nulles dans la pratique) et la matrice S peut être représentée par les premières (m − q) = l composantes principales correspondant aux valeurs propres non nulles, donc l correspondra au nombre de composantes retenues dans le modèle ACP. Dans la plupart des cas, deux ou trois axes suffisent pour la meilleure représentation des données (Korn et Korn, 1961). Remarque : la méthode ne convient que pour des mélanges linéaires. La représentation en 2 dimensions permet une bonne lecture des données. Si 3 axes doivent être utilisés, 3 représentations en deux dimensions sont nécessaires. La figure 3.7 représente la position de deux variables var1 et var2 parmi un nombre important de variables, dans un espace à 3 dimensions. Comme la variable var1 est déjà dans le plan Axe1/Axe2, l’extrémité de son vecteur (normé par définition) est positionnée sur le cercle de rayon 1. Au contraire, si le vecteur n’est pas dans le plan de projection (var2 par rapport à Axe1/Axe2), sa projection aura une norme inférieure à 1. Une même projection peut être effectuée dans des espaces à n dimensions (Korn et Korn, 1961). F IG . 3.7 – Projection dans le plan Axe1/Axe2 de deux variables. → − → − \ Deux variables i et i’ corrélées ont des vecteurs colinéaires Oi et Oi′ donc un angle (Oi, Oi′ ) faible tandis que deux variables inversement corrélées ont des vecteurs opposés (angle de 180˚). L’angle qui existe entre 2 variables représentées dans le plan des composantes principales est un estimateur de la corrélation entre deux variables. Si l’angle entre les vecteurs est de 90˚, aucune corrélation n’existe entre les deux variables (Korn et Korn, 1961). 3.6.1.3 Étude des individus Le traitement mathématique, appliqué aux variables (colonnes de la matrice S), peut s’appliquer aux individus (ligne de la matrice S). Ils peuvent être représentés dans le nouvel espace défini par les axes principaux. Cette représentation permet de regrouper les différents individus ou familles d’individus (ou expériences) 54 3.7 Les réseaux de neurones suivant leur ressemblance. Par analogie au traitement des variables, plus les individus sont proches dans l’espace des composantes principales plus ils se ressemblent. Cette représentation assure l’identification des individus exotiques et qui peuvent être issus soit d’une erreur de mesure, soit d’un comportement exceptionnel. 3.6.1.4 Conclusion L’Analyse en Composantes Principales permet donc de réduire un espace de plusieurs variables en un espace de variables moindres. De plus le cercle de corrélation peut nous permettre de récupérer les informations non redondantes pour différents individus. L’utilisation d’axes principaux ne conduit qu’à des corrélations du premier ordre (variation linéaire entre facteurs). Si des relations plus complexes (ordre deux ou loi exponentielle ou autre loi non linéaire) existent entre les facteurs, les corrélations linéaires obtenues par l’ACP peuvent être négligeables. Dans le cas d’absence de corrélation ou de corrélations linéaires, les coefficients de corrélation sont respectivement très proches de 0 et de 1, dans ce cas l’ACP sera utilisable. Au contraire, pour une relation du second ordre ou de forme exponentielle, les coefficients de corrélation linéaire sont faibles malgré l’existence d’une corrélation marquée entre deux séries, ici, l’ACP sera inutilisable. En conclusion, l’ACP donne accès à deux types d’analyse : – l’analyse des variables : détermination des corrélations entre variables (colonnes de la matrice s), – l’analyse des individus : détermination de la similitude des expériences (lignes de la matrice s). Cette ACP a été effectuée avant d’utiliser un réseau de neurones afin de ne garder que les données essentielles des individus pour diminuer la dimension de la matrice s (où les lignes représentent les spectres de réflectance et les colonnes, les longueurs d’onde) tout en conservant un maximum d’informations. 3.7 Les réseaux de neurones Parmi les méthodes de classification, il existe deux types de classification : les méthodes dites non supervisées et les méthodes supervisées. Les méthodes non supervisées permettent de classer des ensembles d’individus homogènes sans connaissance a priori des propriétés des individus. Parmi ces méthodes, il existe l’ACP que nous avons défini ci-dessus utilisé par exemple par Martin-Chefson pour séparer la végétation du sol dans des scènes de culture de maı̈s (Martin-Chefson, 2000). Beaucoup de techniques sont basées ou dérivées du clustering (MacQueen, 1967), comme la méthode des centres mobiles (Coquerez et Philipp, 1995 ; Cornujéols et Miclet, 2002), les nuées dynamiques ou les k-means. Ces différentes méthodes de clustering sont basées sur le calcul de distance et nécessite la connaissance des différentes classes présentes pour les études. Une variante de ces algorithmes existe faisant abstraction du nombre de classes présentes, l’algorithme des ISODATA (Iterative Self-Organizing Data Analysis Techniques A) (Takahashi et al., 1995) est basé sur les k-means. Le nombre de classes est modifié au cours du processus selon les règles définies dans (Fontaine, 2001). Une autre méthode appelée AFD (Analyse Factorielle Discriminante) a été utilisée, entre autre, par Gée et al (Gée et al., 2004a) pour séparer les plantes à partir de leurs signatures spectrales. Dans le cas des méthodes supervisées, nous avons besoin d’une base d’apprentissage afin de créer une règle d’apprentissage permettant, dans notre cas, de relier un spectre de réflectance à une espèce. Généralement la matrice de données est divisée en deux afin d’avoir une matrice d’apprentissage pour apprendre les propriétés des individus. L’autre moitié sert à tester la règle d’apprentissage. Parmi ces méthodes, développées pour séparer les plantes à partir de leurs propriétés spectrales, nous trouvons la méthode des k plus proches voisins (Singh et al., 1999) utilisée par exemple par Vioix (Vioix, 2004) et Åstrand et Baerveldt (Åstrand et Baerveldt, 1999 ; Åstrand et Baerveldt, 2002 ; Åstrand et Baerveldt, 2003). Mitra et al (Mitra et al., 2004) utilisent une méthode basée sur les SVM (Support Vector Machines) (Hearst, 1998 ; 55 Chapitre 3. Algorithmes spectraux Cornujéols et Miclet, 2002). Maı̈s les méthodes les plus courantes sont basées sur les réseaux de neurones artificiels (Hagan et al., 1996) utilisés en partie dans (Pinto et al., ; Moshou et al., 1999 ; Moshou et al., 2001 ; Vioix et al., 2002 ; Hahn et al., 2004 ; Kavdir, 2004). Je présenterai ici seulement les réseaux de neurones utilisés dans notre étude, c’est-à-dire de type perceptron (MLP) car ils sont simples à utiliser et probabiliste (RBF probabiliste). 3.7.1 Les réseaux multicouches Parmi les réseaux de neurones, les MLP (multi-layer perceptron), ou réseaux à plusieurs couches, sont les plus utilisés car simples d’emploi, ils donnent souvent d’excellents résultats. 3.7.1.1 Structure Les neurones sont organisés en couches : chaque neurone est connecté à toutes les sorties des neurones de la couche précédente, et nourrit de sa sortie tous les neurones de la couche suivante (ces réseaux sont d’ailleurs qualifiés de feedforward en anglais : (”nourrit devant”). Une couche est souvent ajoutée pour constituer les entrées. Les fonctions d’entrée et d’activation sont les mêmes pour les neurones d’une même couche, mais peuvent différer selon la couche. Les couches situées entre les entrées et la couche de sortie sont dénommées couches cachées. Les fonctions d’activation des couches cachées sont des fonctions dérivables et pour la couche de sortie on choisit généralement l’identité. 3.7.1.2 Règle d’apprentissage Les réseaux multicouches utilisent la règle de rétropropagation du gradient (Hagan et al., 1996 ; Rumelhart et al., 1986). Cette règle consiste simplement en une descente de gradient de l’erreur, qui est une méthode d’optimisation universelle. Cela consiste à minimiser une fonction erreur (qui représente l’erreur entre la sortie désirée et la sortie obtenue), en suivant les lignes de plus grande pente. Les fonctions d’activation doivent donc être différentiables, c’est pourquoi le plus souvent des fonctions de type ”sigmoı̈de”(tangentielle ou exponentielle) sont utilisées et elles sont des approximations infiniment dérivables de la fonction à seuil de Heaviside. 3.7.2 Exemple d’architecture Pour notre étude, le nombre de couches cachées et de neurones ont été déterminés de façon à trouver le meilleur compromis entre le temps de calcul et la rapidité de convergence du réseau. La figure 3.8 présente un réseau avec couche cachée, il comprend une couche de sortie et un vecteur d’entrée. 3.7.3 Les réseaux de type fonction à base radiale (Radial Basis Fonction, RBF) probabiliste Dans ce paragraphe, nous présenterons très brièvement les réseaux de type RBF (Chen et al., 1991 ; Wasseman, 1993). Ce réseau se différencie du MLP par les fonctions d’activation qu’il utilise. En effet les fonctions d’activation de la couche cachée sont des fonctions de type à base radiale (radbas). Ici, l’entrée correspond à un distance entre le vecteur d’entrée et le vecteur de poids W . Il y autant de neurones dans la couche cachée qu’il y a d’éléments constituant le vecteur d’entrée. La fonction radbas est à son maximum c’est à dire 1 lorsque son entrée est à 0. Si la distance entre w et λ diminue, la sortie augmente. Ainsi, un neurone de RBF agit comme un détecteur qui produit un 1 toutes les fois que l’entrée λ est identique au vecteur de poids w. 56 3.8 Résultats et discussion F IG . 3.8 – Un exemple d’architecture d’un réseau de neurones. La couche de sortie comprend comme fonction d’activation, une fonction compétitivité. Il y a autant de neurones que de classes. Un seul neurone peut prendre la valeur 1, tous les autres ont la valeur 0. Ce type de réseau classe le vecteur d’entrée dans une des K classes spécifiques car cette classe a eu la probabilité maximale. Cette probabilité est obtenue à partir de la couche cachée. 3.8 Résultats et discussion Afin d’illustrer les algorithmes spectraux développés ci-dessus, nous avons mené deux campagnes de mesures dans les parcelles appartenant à l’ENESAD. La campagne 1 a été réalisée le 12 novembre 2004, le temps était froid et le soleil était absent. La campagne 2 a été réalisée le 19 novembre 2004, le temps était froid, humide et le soleil était présent. Pour chaque campagne, nous avons relevé plusieurs spectres de réflectance pour différentes espèces de plantes. Dans un premier temps, afin de ne pas fausser les données des différents traitements à réaliser (ACP, réseaux de neurones, etc...), un prétraitement est effectué afin de ne conserver que le domaine spectral nécessaire pour notre étude (500-900nm). Nous présenterons ensuite la matrice de données utilisée pour effectuer une ACP, puis la classification par différents réseaux de neurones. 3.8.1 Prétraitement et matrice de données A l’origine, chaque mesure de réflectance comprend 2048 points correspondant à l’intensité suivant différentes longueurs d’ondes (400-900 nm). On peut voir figure 3.9.a que les points de mesures avant la longueur d’onde 600 nm ne sont pas corrects, nous les avons donc volontairement supprimés, le résultat est présenté sur la figure 3.9.b. Après corrections de toutes les courbes, nous avons tracé toutes les courbes de réflectance d’une espèce sur un même graphique (exemple : figure 3.10.a avec la véronique de la campagne 2). On peut s’apercevoir, à partir de cette figure, que certaines mesures ne correspondent pas aux autres, nous les avons donc supprimées, il est en effet très probable que des erreurs de mesure ou de manipulation ont été faites lors de l’acquisition de la réflectance avec le spectromètre. Le résultat est montré figure 3.10.b. 57 Chapitre 3. Algorithmes spectraux (a) (b) F IG . 3.9 – Prétraitement de la courbe de réflectance. (a)courbe originale. (b)courbe débarrassée des mauvaises mesures évidentes. (a) (b) F IG . 3.10 – Prétraitement du graphique véronique. (a)graphique original. (b)graphique ”épuré”. 3.8.2 Résultat de l’Analyse en Composante Principale Nous nous sommes intéressés à la carte des individus en utilisant une Analyse en Composante Principale afin de voir si les individus peuvent être classés. Cette analyse peut nous permettre aussi, par l’intermédiaire du cercle de corrélation, de voir les variables redondantes et donc de pouvoir les éliminer par la suite afin d’alléger le vecteur d’entrée. La figure 3.11.a présente le cercle de corrélation avec son agrandissement figure 3.11.b. La figure 3.11.c représente une carte des individus. Après étude du cercle de corrélation, nous nous apercevons que quelques longueurs d’onde suffisent pour reconstruire le spectre de réflectance de chaque plante. Nous avons retenu 14 longueurs d’onde. La figure 3.12.a représente le nouveau cercle de corrélation et la figure 3.12.b montre la nouvelle carte des individus pour un vecteur d’entrée à 14 variables. La figure 3.13.a représente les courbes originales. La figure 3.13.b représente les courbes de réflectance de la véronique lors de la campagne 2 composées seulement par ses 14 longueurs d’onde retenues. 58 3.8 (b ) (a ) c e r c le d e s c o r r e la tio n s 1 c e r c le d e s c o r r e la tio n s 1 0 0 .6 0 987654321 0 0 -0 .2 21 00 00 -0 .4 -0 .6 0 .2 a x e p r in c ip a l 2 : 0 3 .3 9 4 0 0 5 0 0 6 0 0 78 00 00 9 0 0 3 0 0 0 .2 a x e p r in c ip a l 2 : 0 3 .3 9 a x e p r in c ip a l 2 : 0 3 .3 9 0 .4 0 .1 5 0 .1 -1 -0 .5 0 a x e p r in c ip a l 1 : 9 5 .2 1 0 .5 5 0 0 5 6 0 0 0 7 0 0 -5 8 0 0 -1 0 0 .0 5 1 -1 5 -6 0 0 .9 6 0 .9 8 1 a x e p r in c ip a l 1 : 9 5 .2 1 c a p s e lle c h a rd o n c h ie n d e n t fo lle a v o in e lis e r o n m o u ta rd e s e n e ç o n v é r o n iq u e 4 0 0 -0 .8 -1 (c ) C a r te d e s in d iv id u s 1 5 0 .2 5 0 .8 Résultats et discussion -4 0 -2 0 0 2 0 a x e p r in c ip a l 1 : 9 5 .2 1 4 0 6 0 8 0 F IG . 3.11 – ACP effectuée pour la campagne 3. (a) le cercle de corrélation. (b) zoom du cercle de corrélation. (c) carte des individus. (a ) c e r c le d e s c o r r e la tio n s 1 C a r te d e s in d iv id u s 2 0 .8 c a p s e lle c h a rd o n c h ie n d e n t fo lle a v o in e lis e r o n m o u ta rd e s e n e ç o n v é r o n iq u e 1 .5 0 .6 1 a x e p r in c ip a l 2 : 0 3 .9 8 0 .4 a x e p r in c ip a l 2 : 0 3 .9 8 (b ) 0 .2 0 -0 .2 -0 .4 0 .5 0 -0 .5 -1 -0 .6 -1 .5 -0 .8 -2 -1 -1 -0 .5 0 a x e p r in c ip a l 1 : 9 4 .9 3 0 .5 1 -2 .5 -6 -4 -2 0 2 a x e p r in c ip a l 1 : 9 4 .9 3 4 6 8 F IG . 3.12 – ACP effectuée pour la campagne 2 avec seulement 14 longueurs d’onde. (a) le cercle de corrélation. (b)carte des individus. Après avoir interprété la carte des individus, nous constatons que la distance entre les individus de même espèces est minimisée, nous pouvons donc poursuivre notre étude en utilisant un réseau de neurones afin d’envisager une classification. 3.8.3 Résultats des classifications 3.8.3.1 Utilisation d’un réseau de neurone de type perceptron Résultats campagne 1 discrimination monocotylédone / dicotylédone : Pour discriminer nos espèces en deux familles c’est-à-dire ”monocotylédone” et ”dicotylédone”, nous avons utilisé un perceptron à une couche de sortie à un neurone avec une couche cachée composée de neuf neurones. Lorsque la sortie du perceptron est à 0 cela signifie qu’une dicotylédone a été détectée. Si la sortie est à 1 cela signifie que c’est une monocotylédone. 59 Chapitre 3. Algorithmes spectraux 1 0 0 v é r v é r v é r v é r v é r v é r v é r v é r v é r 9 0 8 0 7 0 o n iq o n iq o n iq o n iq o n iq o n iq o n iq o n iq o n iq u e n u e n u e n u e n u e n u e n u e n u e n u e n v é r o n iq u e ° 1 ° 2 (a ) 1 0 0 9 0 ° 3 ° 4 ° 5 8 0 ° 6 ° 7 ° 8 7 0 ° 9 6 0 6 0 5 0 5 0 4 0 4 0 3 0 3 0 2 0 5 5 0 6 0 0 v é r v é r v é r v é r v é r v é r v é r v é r v é r 6 5 0 7 0 0 7 5 0 8 0 0 8 5 0 2 0 9 0 0 5 5 0 o n iq o n iq o n iq o n iq o n iq o n iq o n iq o n iq o n iq u e n u e n u e n u e n u e n u e n u e n u e n u e n v é r o n iq u e ° 1 (b ) ° 2 ° 3 ° 4 ° 5 ° 6 ° 7 ° 8 ° 9 6 0 0 6 5 0 7 0 0 7 5 0 8 0 0 8 5 0 F IG . 3.13 – Courbes de réflectance de la véronique lors de la campagne 2. (a)courbe originale. (b)courbe après traitement de l’ACP. Le tableau 3.4 référence le nombre d’échantillons ayant servi à l’apprentissage et au test du réseau. Ici nous avons utilisé 14 plantes de la famille monocotylédone et 18 plantes de la famille dicotylédone pour l’apprentissage et 15 et 19 respectivement pour le test. Chardon Folle avoine Véronique Moutarde Monocotylédone Dicotylédone Apprentissage Test 4 4 14 15 10 11 4 4 14 15 18 19 TAB . 3.4 – Nombres d’échantillons (par espèces) utilisés pour l’apprentissage et le test du réseau de neurones. Le tableau 3.5 montre le résultat du perceptron : les plantes de la famille ”monocotylédone” ont toutes bien été classées alors qu’il n’y a qu’une erreur de classement pour celle de la famille dicotylédone soit 94,73% de plantes bien classées. Monocotylédone Dicotylédone % Monocotylédone 15 0 100 Dicotylédone 1 18 94, 73 Précision totale 97, 4 TAB . 3.5 – Discrimination monocotylédone / dicotylédone. discrimination entre 4 espèces : Dans ce paragraphe, nous allons nous intéresser à la discrimination entre 4 espèces différentes que sont le chardon, la folle avoine, la véronique et la moutarde. Les spectres de réflectance choisis pour le test sont les 60 3.8 Résultats et discussion mêmes que précédemment (tableau 3.4). Le réseau de neurones utilisé ici est un perceptron comportant une couche cachée de 9 neurones et une couche de sortie de 2 neurones dont nous pouvons voir la signification sur le tableau 3.6. sortie du 1er neurone sortie du 2ème neurone 0 0 1 1 0 1 0 1 espèce associée véronique moutarde chardon folle avoine TAB . 3.6 – Signification de la sortie des 2 neurones. Chardon Folle avoine Véronique Moutarde Chardon Folle avoine véronique moutarde % 4 0 0 0 100 0 10 0 5 66, 66 3 1 7 0 63, 63 0 0 3 1 25 Précision totale 63, 82 TAB . 3.7 – Discrimination entre 4 espèces. Nous pouvons voir d’après le tableau 3.7 que les spectres de chardon sont classés à 100%, et que nous avons environ 2/3 de bon classement pour les spectres de folle avoine et la véronique. Cependant, seulement 1 quart des spectres de moutarde ont été bien reconnu. Résultats campagne 2 discrimination monocotylédone / dicotylédone : Pour discriminer ces deux familles, nous avons utilisé le même réseau de neurone de type perceptron que celui du paragraphe 3.8.3.1 de même nom (une couche de sortie à 1 neurone). Le tableau 3.8 représente le nombre d’échantillons de test et d’apprentissage utilisés pour la mise en œuvre du réseau de neurones. Chardon Folle Avoine Véronique Moutarde Monocotylédone Dycotylédone Apprentissage Test 6 7 8 9 4 5 6 6 8 9 16 18 TAB . 3.8 – Échantillons utilisés pour le réseau de type perceptron. Les résultats de la classification sont présentés dans le tableau 3.9. On peut voir que contrairement à la campagne 1 (3.5) les résultats ne sont pas aussi bons. Nous n’avons que 88,89% de plantes de la famille 61 Chapitre 3. Algorithmes spectraux monocotylédone bien classées contre 100% pour la campagne 1 et respectivement 72,22% de dicotylédone contre 94,73%. Monoctylédone Dicotylédone % Monocotylédone 8 1 88, 89 Dicotylédone 5 13 72, 22 Précision totale 80, 55 TAB . 3.9 – Discrimination monocotylédone / dicotylédone. discrimination entre 4 espèces : Pour discriminer le chardon, la folle avoine, la véronique et la moutarde, nous avons utilisé le même réseau de neurones présenté au paragraphe 3.8.3.1. Les résultats de ce réseau sont présentés tableau 3.10. D’après ce tableau et par comparaison avec les résultats de la campagne 1 (3.7), on peut voir que globalement les résultats sont moins bons, en particulier la moutarde est très mal reconnue. Véronique Moutarde Chardon Folle avoine Véronique Moutarde Chardon Folle avoine 5 0 0 0 2 2 2 0 0 0 2 4 0 0 1 8 Précision totale % 100 33, 33 28, 57 88, 88 62, 69 TAB . 3.10 – Discrimination entre 4 espèces. 3.8.3.1.1 Campagne 1 avec la campagne 2 Dans cette section, nous allons, en utilisant toujours le même perceptron, classer les plantes de type monocotylédone et celles de type dicotylédone en utilisant comme échantillons ceux de la campagne 1 et campagne 2. Puis nous utiliserons ce perceptron pour la classification entre les 4 espèces suivantes : la folle avoine, la véronique, le chardon et la moutarde avec ces mêmes échantillons (campagne 1 et campagne 2). Discrimination monocotylédone / dicotylédone : Le tableau 3.11 présente le nombre d’échantillons utilisés après concaténation de la campagne 1 et la campagne 2. Chardon Folle avoine Véronique Moutarde Monocotylédone Dicotylédone Apprentissage Test 10 11 24 24 14 16 10 10 22 24 34 37 TAB . 3.11 – Échantillons utilisés 62 3.8 Résultats et discussion Nous n’avons pas pu obtenir de résultat pour la discrimination entre le classe de plante de la famille monocotylédone et celle des plantes de la famille dicotylédone car notre réseau de neurones ne converge pas. Ce réseau semble donc inadapté pour classifier ces deux familles de plantes. Discrimination entre 4 espèces : Dans cette partie, nous allons classer la folle avoine, la véronique, le chardon et la moutarde des deux campagnes. Le nombre d’échantillons est rappelé tableau 3.11. Les résultats de cette classification sont donnés tableau 3.12. On peut voir que la moutarde n’est pas du tout reconnue, ce qui confirme le problème rencontré auparavant concernant l’identification de la moutarde par ses spectres de réflectance. Pour les autres classes, la folle avoine obtient un résultat très correct avec 83,33 % de plantes bien classées, alors que la véronique et le chardon sont très mal classés avec un taux de classement inférieur à 50 %. D’après ces résultats, il semblerait que les mesures de réflectance n’aient pas été réalisées de la même manière car sur les deux campagnes prises indépendamment l’une de l’autre, nous avions obtenus des bons résultats de classement ce qui n’est plus le cas lorsque les résultats de ces deux campagnes sont concaténés puisque les résultats sont dégradés. Folle avoine Véronique Moutarde Chardon Folle avoine Véronique Moutarde Chardon % 20 3 1 0 88, 33 6 7 0 3 43, 75 7 3 0 0 0 7 0 0 4 36, 36 Précision totale 42, 11 TAB . 3.12 – Résultat de la classification du chardon, véronique, folle avoine et moutarde sur les deux campagnes 1 et 2. 3.8.3.2 Utilisation d’un réseau de neurones de type probabiliste Comme le réseau de neurones de type perceptron ne donne pas satisfaction sur certains résultats, nous allons, dans cette section, classer les espèces en utilisant un réseau de neurones de type probabiliste. Nous classerons seulement les plantes de la famille ”monocotylédone” et celles de la famille ”dicotylédone” puis les quatre espèces suivantes : folle avoine, véronique, moutarde et chardon. Nous utiliserons les échantillons d’apprentissage et de test obtenus à partir des tableaux suivants : le tableau 3.4 pour la campagne1, le tableau 3.8 pour la campagne 2, et pour l’ensemble des deux campagnes, le tableau 3.11. 3.8.3.2.1 Résultats campagne 1 discrimination monocotylédone / dicotylédone : Le tableau 3.13 représentent le classement par famille. On s’aperçoit qu’il n’y aucune erreur de classification. discrimination entre 4 espèces : Le tableau 3.14 représente le classement des espèces. Le chardon et la folle avoine ont été reconnus à 100%, alors que la véronique et la moutarde ont été reconnues respectivement à 45, 45% et 75%. 3.8.3.2.2 Résultats campagne 2 63 Chapitre 3. Algorithmes spectraux Monocotylédone Dicotylédone Monocotylédone Dicotylédone % 15 0 100 0 19 100 Précision totale 100 TAB . 3.13 – Discrimination monocotylédone / dicotylédone. Chardon Folle avoine Véronique Moutarde Chardon Folle avoine véronique moutarde % 4 0 0 0 100 0 15 0 0 100 4 0 5 2 45, 45 0 0 1 3 75 Précision totale 80, 11 TAB . 3.14 – Discrimination entre 4 espèces en utilisant un réseau de neurones de type probabiliste. discrimination monocotylédone / dicotylédone : Le tableau 3.15 représente le classement par famille suite à l’utilisation d’un réseau de neurones de type probabiliste. Nous nous apercevons qu’il n’y aucune erreur de classification pour les plantes de la classe ”monocotylédone” contrairement à celles de la classe ”dicotylédone” avec un taux de classification de 91,66%. Monocotylédone Dicotylédone % Monocotylédone 9 0 100 Dicotylédone 3 15 83, 33 Précision totale 91, 66 TAB . 3.15 – Discrimination monocotylédone / dicotylédone en utilisant un réseau de neurone de type probabiliste. discrimination entre 4 espèces : Le tableau 3.16 représente le classement des espèces obtenu suite à l’utilisation d’un réseau de neurones de type probabiliste. Les spectres de folle avoine ont été les mieux reconnus avec 88.88% de bien classés, alors que ceux de la véronique et du chardon ont été reconnus respectivement à 80% et 66, 67%. En revanche les spectres de réflectance de la moutarde ont été très mal reconnus avec un taux de16, 67%, ils ont été confondus avec ceux de la véronique. Véronique Moutarde Chardon Folle avoine Véronique Moutarde Chardon Folle avoine 4 4 0 0 0 1 0 0 Précision totale 1 1 4 1 0 0 2 8 % 80 16, 67 66, 67 88, 88 63, 05 TAB . 3.16 – Discrimination entre 4 espèces en utilisant un réseau de neurone de type probabiliste. 64 3.8 3.8.3.2.3 Résultats et discussion Résultats sur l’ensemble campagne 1 et campagne 2 Comme la classification entre les plantes de type monocotylédone et celles de type dicotylédone n’a pas pu être obtenue par le perceptron, nous nous intéresserons seulement à la discrimination entre les quatre espèces étudiées. Le tableau 3.17 présente le classement des espèces. On peut voir que la folle avoine et la moutarde sont très bien classées avec des taux respectifs de 100% et 90%, alors que la véronique et le chardon n’atteignent même pas un taux de 40%. Folle avoine Véronique Moutarde Chardon Folle avoine Véronique Moutarde Chardon % 24 0 0 0 100 0 5 7 4 31, 25 0 1 9 0 90 7 0 0 4 36, 36 Précision totale 64, 40 TAB . 3.17 – Résultats de la classification du chardon, véronique, folle avoine et moutarde obtenus sur les deux campagnes en utilisant un réseau de neurones de type probabiliste. 3.8.3.2.4 Laboratoire Dans ce paragraphe, nous présentons les résultats obtenus en laboratoire par Gée et al. (Gée et al., 2004b) pour l’utilisation d’un perceptron identique à celui utilisé pour nos tests ; le réseau probabiliste n’ayant pas été testé dans cette expérience. Ces résultats, rappelés pour mémoire, nous servirons à comparer la robustesse de la classification entre les études menées au champ et celles conduites en laboratoire sur des feuilles fraı̂chement prélevées. discrimination monocotylédone / dicotylédone : Le tableau 3.18 présente le résultat de la classification entre les plantes de type monocotylédone et celles de type dicotylédone où aucune erreur n’a été commise. Monocotylédone Dicotylédone % Monocotylédone 9 0 100 Dicotylédone 0 36 100 Précision totale 100 TAB . 3.18 – Discrimination monocotylédone / dicotylédone en utilisant un réseau de neurone de type perceptron. 65 Chapitre 3. Algorithmes spectraux discrimination entre 4 espèces : Le tableau 3.19 présente le résultat de la classification entre les différentes espèces étudiées. Il n’y aucune erreur de classification concernant les spectres de folle avoine et de véronique. Les spectres de moutarde ont été classés avec un taux de réussite de 80,5% et ceux du chardon avec un taux de 70,6%. Véronique Moutarde Chardon Folle avoine Véronique Moutarde Chardon Folle avoine 11 0 0 0 0 7 0 1 3 2 12 0 0 0 0 9 Précision totale % 100 87, 5 70, 6 100 89, 52 TAB . 3.19 – Discrimination entre 4 espèces en utilisant un réseau de neurone de type perceptron. 3.8.3.3 Discussion Les tableaux 3.20 et 3.21 présentent un résumé des résultats des différentes classifications obtenues pour chaque campagne mais aussi pour les deux campagnes prises ensemble. Nous présentons également les résultats sur les essais conduits en laboratoire, pour les deux architectures de réseaux de neurones vu précédemment, à savoir, le perceptron (couleur noir) et le probabiliste (en rouge). L’utilisation d’un réseau de neurones de type probabiliste donne de meilleurs résultats de classification que ce soit par espèce ou par famille et quelle que soit la campagne comme le montre les tableaux 3.20 et 3.21. Par contre, quel que soit le réseau utilisé, on a pu voir que les campagnes prisent une à une donnent de bons résultats de classification alors que l’ensemble des résultats des deux campagnes donne des résultats moins bons. Campagne 1 Campagne 2 Campagne 1 + 2 laboratoire Monocotylédone 100 100 88, 89 100 100 Dicotylédone 94, 73 100 72, 22 83, 33 100 Global 97, 4 100 80, 55 91, 66 100 TAB . 3.20 – Résumé des taux de classement par familles pour deux architectures de réseau de neurones (perceptron en noir et probabiliste en rouge). Campagne 1 Chardon 100 100 Folle avoine 66, 66 100 Véronique 63, 63 45, 45 Moutarde 25 75 Global 63, 82 80, 11 Campagne 2 Campagne 1 + 2 laboratoire 28, 57 66, 67 36, 36 36, 36 70, 6 88, 88 88, 88 88, 33 100 100 100 80 43, 75 31, 25 100 33, 33 16, 67 0 90 87, 5 62, 69 63, 05 42, 11 64, 40 89, 52 TAB . 3.21 – Résumé des taux de classement par espèces pour deux architectures de réseau de neurones (perceptron en noir et probabiliste en rouge). On peut s’apercevoir que les résultats obtenus en laboratoire sont toujours supérieurs à ceux obtenus en champ, surtout pour la discrimination entre les quatre espèces différentes avec une différence d’environ de 25% entre ces deux résultats. Une explication possible sur les résultats médiocres de classification obtenus en champ est qu’il existe une différence de variabilité d’une feuille de plante à une autre lors de la prise de mesure par 66 3.9 Conclusion rapport au laboratoire où toutes les feuilles ont été prises sur les même plante et dans des conditions saines. Il est vrai que pour les mesures en champ, les feuilles sélectionnées proviennent de différentes plantes situées à différents endroits de la parcelle où les conditions environnementales sont très différentes. Il peut exister un stress hydrique sur certains échantillons, il peut y avoir de l’eau, ou autre chose qui peut modifier le spectre de réflectance de l’échantillon. En conclusion, les essais en champ ne semblent pas confirmer de façon probante les résultats obtenus en laboratoire. 3.9 Conclusion L’ensemble des résultats obtenus en champ pour la discrimination des plantes par les propriétés spectrales ne permettent pas de conclure avec enthousiasme sur l’utilisation de cette méthode qui semblait à l’issue des travaux conduits en laboratoire être performante. Cependant, pour les campagnes de mesures conduites en novembre 2004 où les conditions météorologiques étaient particulièrement mauvaises (froid, pluie, gel...) il se peut que le choix de la méthode de classification des spectres fut mal adapté pour cette discrimination. Seulement deux type de réseaux de neurones ont été testés et peut-être que d’autres méthodes telles que les SVM, AFD... devraient être essayées. Si nous voulons utiliser l’analyse spectrale en temps réel, il nous faut concevoir un prototype permettant d’enregistrer la même scène à différentes longueurs d’onde. Cela implique donc de fixer des filtres optiques sur la caméra afin de pouvoir reconstruire un spectre de réflectance (Navar, 2001 ; Vioix, 2004 ; Mansouri, 2005). Les résultats de l’Analyse en Composante Principale ont permis de mettre en valeur les longueurs d’onde primordiales pour identifier les plantes de la famille monocotylédone de la famille dicotylédone, ou quelques espèces entre elles. Cependant, autant la mesure de la réflexion des plantes est une chose réalisable, autant la mesure de réflectance devient plus compliquée à mettre en œuvre puisqu’il est délicat de mesurer en temps réel la réflexion du soleil sans utiliser de surface blanche. En effet, si l’on filme une scène de dimension de 2m × 3m, il nous faudrait couvrir cette surface avec une surface blanche, ce qui devient impossible. Une solution serait peut être d’utiliser un luxmètre ou d’utiliser la méthode développée par A. Mansouri permettant de reconstruire un spectre de réflectance à partir de la réflexion des objets et connaissant les paramètres intrinsèques et extrinsèques de la caméra (Mansouri, 2005 ; Assémat et al., 2007). De plus, il faudrait confirmer les résultats obtenus en laboratoire sur la classification des plantes par leur signature spectrale. Une alternative à ces problèmes est, comme nous allons le voir dans le chapitre suivant, l’utilisation d’algorithmes spatiaux qui ne nécessitent qu’une seule caméra sans filtre. 67 Chapitre 3. Algorithmes spectraux 68 Chapitre 4 Algorithmes spatiaux Sommaire 4.1 4.2 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 La transformée de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 4.2.1 Rappel sur la transformée de Fourier (TF) . . . . . . . . . . . . . . . . . . . . . . . . 71 4.2.2 Rappel sur le filtre de Gabor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 4.2.3 Utilisation du filtre de Gabor pour discriminer la culture des adventices . . . . . . . . 73 4.2.4 Illustration de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 4.3 La transformée de Fourier à fenêtre glissante . . . . . . . . . . . . . . . . . . . . . . . . . 76 4.3.1 Rappel sur la transformée de Fourier à fenêtre glissante . . . . . . . . . . . . . . . . . 76 4.3.2 Utilisation de la transformée de Fourier à fenêtre glissante pour détecter les lignes de semis 77 4.4 La transformée en ondelette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 4.4.1 Définition d’une ondelette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 4.4.2 Transformée discrète et analyse multi-résolution . . . . . . . . . . . . . . . . . . . . 78 4.4.3 Utilisation de la transformée en ondelette pour la détection de lignes de semis . . . . . 79 4.4.4 Illustration de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 4.5 La transformée de Hough . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 4.5.1 Rappel sur la transformée de Hough . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 4.5.2 Description de l’algorithme mis en place . . . . . . . . . . . . . . . . . . . . . . . . 85 4.5.3 Illustration de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 4.6 Redressement des images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 4.7 Étude de la robustesse des algorithmes spatiaux . . . . . . . . . . . . . . . . . . . . . . . 88 4.7.1 Modélisation d’images agronomiques . . . . . . . . . . . . . . . . . . . . . . . . . . 88 4.7.2 Matrice de confusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 4.8 Création de trois bases de données d’images . . . . . . . . . . . . . . . . . . . . . . . . . 90 4.8.1 Images simulées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 4.8.2 Images réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 4.9 Résultats et Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 4.9.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 4.9.2 Algorithme basé sur la transformée de Fourier et du filtre de Gabor (TF) . . . . . . . . 94 4.9.3 Algorithme basé sur la transformée de Fourier à fenêtre glissante (TFG) . . . . . . . . 106 4.9.4 Algorithme basé sur la transformée en ondelette . . . . . . . . . . . . . . . . . . . . . 110 4.9.5 Algorithme basé sur la transformée de Hough . . . . . . . . . . . . . . . . . . . . . . 120 4.9.6 Bilan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 4.9.7 Réflexion générale sur l’imagerie pour la lutte contre les adventices . . . . . . . . . . 128 4.10 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 69 Chapitre 4. Algorithmes spatiaux 4.1 Introduction A partir d’une vision globale d’une parcelle cultivée, il va être possible d’identifier chacun des objets de la scène à partir de ses propriétés spatiales. La culture présente souvent une certaine périodicité alors que les mauvaises herbes ont une distribution spatiale ponctuelle ou agrégative. Quant au sol, il ne possède en générale aucune périodicité spatiale. Dans le chapitre précédent nous avons tenté de discriminer les plantes par leurs propriétés spectrales montrant que les résultats des différentes classifications utilisées ne sont pas suffisamment robustes pour être exploitables pour une discrimination culture/adventices en temps réel. Nous allons dans ce chapitre tenter discriminer une plante d’une autre en utilisant, comme de nombreux chercheurs l’ont fait, leurs propriétés spatiales. La culture semée en ligne présentera une périodicité dans le champ alors que les adventices dispersées aléatoirement de manière ponctuelle ou agrégative sont le plus souvent localisées dans l’inter-rang. Cependant comme nous le verrons, une des grandes limites de ces méthodes de discrimination spatiale est l’impossibilité de discerner une adventice dans un rang de culture. Suivant le type de culture, la fréquence du rang de semis peut varier de douze centimètres pour le blé à quarante cinq centimètres pour le tournesol et différentes méthodes de semis le long de la ligne de semis peuvent être rencontrées : en continue pour les cultures céréalières ou périodique par exemple pour le tournesol (15 centimètres). Ainsi l’utilisation de méthode basée sur la transformée de Fourier semble tout à fait adaptée pour ce type de discrimination au sein d’une image. J-B. Vioix a développé cette approche en utilisant un filtre de Gabor sur des images acquises par un drone survolant des parcelles de tournesol (Vioix et al., 2002 ; Vioix, 2004). Ce travail a été poursuivi pour non seulement détecter la fréquence des lignes de semis mais aussi la fréquence de chaque plante semée dans une ligne en utilisant une modélisation de la scène (Vioix et al., 2006). A titre d’exemple, T. Hague et N. D. Tillet (Hague et Tillett, 2001) utilisent un filtre passe bande pour localiser des lignes de semis afin de faire du guidage automatique. Autant la détection des lignes semble très satisfaisante (à condition que la périodicité soit constante dans l’image), autant la caractérisation des plantes dans le rang de culture semble plus délicate surtout en présence d’adventices. Dans ce chapitre, nous avons testé et adapté l’approche initiée par J-B. Vioix en l’appliquant au cas d’images présentant une perspective puisque tel est notre cas avec la caméra inclinée devant le tracteur. Nous présenterons une méthode simple utilisant la transformée de Fourier avec un filtre de Gabor puis une méthode utilisant la transformée de Fourier à fenêtre glissante. Également, une autre méthode basée sur la transformée en ondelette et l’analyse multirésolution sera étudiée dans le cas d’images en perspective. Cette dernière méthode, au temps de calcul extrêmement rapide (Vioix, 2004), pourrait s’avérer très intéressante dans le cadre de notre étude en temps réel. Également, deux méthodes basées sur la transformée en ondelette ou la transformée de Fourier ont été étudiées sur des images redressées, donc présentant des lignes de semis parallèles. Parmi les autres méthodes développées en traitement d’images exploitant une information spatiale, nous citerons la transformée de Hough. Nombreux sont les chercheurs en agriculture à avoir utilisé cette méthode de détection de lignes pour l’autoguidage d’un tracteur par vision (Marchant, 1996 ; Søgaard et Olsen, 1999 ; Åstrand et Baerveldt, 2005 ; Leemans et Destain, 2006a ; Leemans et Destain, 2006b). Nous avons donc voulu tester également cette méthode en l’adaptant à la reconnaissance d’adventices, c’est-à-dire que nous avons couplé la détection de ligne à une méthode de blob-coloring permettant de regrouper des pixels conjoints à une même classe. Au cours de ce chapitre, nous allons présenter l’ensemble de ces méthodes mises en œuvre pour l’identification culture/adventices. La fin du chapitre présente la méthode retenue pour le temps réel en comparant les résultats de discrimination. 4.2 La transformée de Fourier Dans un premier temps, nous proposons un rappel sur la Transformée de Fourier. Nous présentons ensuite le filtre de Gabor, pour finir sur la méthode de la détection des lignes. 70 4.2 La transformée de Fourier 4.2.1 Rappel sur la transformée de Fourier (TF) L’étude d’un signal nécessite souvent de combiner une analyse temporelle à une analyse fréquentielle. L’étude temporelle renseigne sur les discontinuités et la durée du signal. La deuxième permet de savoir quelles fréquences sont présentes dans ce signal. La transformée de Fourier fut le premier outil d’analyse fréquentielle utilisé en traitement d’images (Brigham, 1988 ; Bracewell, 1999). L’un des avantages de la transformée de Fourier est de permettre de réaliser des filtrages par simple multiplication dans le domaine fréquentiel en évitant de réaliser le produit de convolution dans le domaine temporel ce qui réduit le temps de calcul des filtrages surtout quand les masques de convolution sont de grandes tailles (théorème de Plancherel). La transformée de Fourier est une transformation linéaire permettant de décomposer un signal sur la base des exponentielles complexes. Elle est calculée comme suit : sb(ω) = Z +∞ −∞ s(t)e− jωt dt (4.1) Sa transformée inverse permet de reconstruire le signal à partir des exponentielles complexes qui le constituent : s(t) = 1 2π Z +∞ −∞ sb(ω)e jωt dω (4.2) Avec s(t) le signal temporel, sb(ω) le signal fréquentiel, ω = 2π f la pulsation du signal et f la fréquence. Pour que le transformée de Fourier existe, le signal doit être absolument sommable : s’il est à carré sommable, c’està-dire à énergie finie, la transformée inverse est exacte au sens de la norme L2 . Pour les signaux réels, cette condition est toujours remplie puisque la mesure est faite sur un temps fini. La transformée discrète, utilisée T T . dans la pratique étant périodique de période T , il est d’usage de limiter son intervalle de définition à − , 2 2 Le noyau gaussien étant séparable, la TF peut être appliquée, aisément aux signaux à deux dimensions comme les images, sa définition devient : b f (u, v) = Z +∞ Z +∞ −∞ −∞ f (x, y)e− j2π(ux+vy) dxdy (4.3) b f (u, v)e j2π(ux+vy) dudv (4.4) La transformée inverse s’écrit alors : f (x, y) = Z +∞ Z +∞ −∞ −∞ Avec f (x, y) le signal représentant l’image (x et y respectivement l’indice de ligne et de colonne), b f (u, v) sa représentation dans le domaine fréquentiel (u et v respectivement la fréquence horizontale et verticale). 4.2.2 Rappel sur le filtre de Gabor 4.2.2.1 Principe Gabor a proposé un modèle de filtre à une dimension basé sur une fonction gaussienne modulée par une oscillation complexe (Gabor, 1946) définie par sa réponse impulsionnelle : − g(x) = e x2 2σ2 e j2πu0 x (4.5) Dans cette équation, l’écart-type σ caractérise la largeur de la fenêtre spatiale du filtre, la fréquence centrale étant fixée par u0 . Ce qui nous intéresse ici, c’est d’étendre cette fonction au domaine à deux dimensions car pour les images, le signal est bidimensionnel. La généralisation du filtre de Gabor à un espace à deux dimensions à été étudiée par Daugman (Daugman, 1985 ; Jain et Lakshmanan, 1997 ; Hamamoto et al., 1998), la forme générale est dérivée de la forme à une dimension (eq.4.5) et est définie par : g(x, y) = 1 e πσx σy − 2 x2 + y2 2σ2x 2σy 71 e j2π(u0 x+v0 y) (4.6) Chapitre 4. Algorithmes spatiaux où u0 et v0 représentent les fréquences centrales du filtre. Les valeurs de σx et σy caractérisent la bande passante du filtre selon les directions x et y. Dans notre cas, comme les images acquisent sont des signaux réels, nous avons opté pour un filtre réel possédant une orientation définie par les écarts types du noyau gaussien (σx et σy ). La forme suivante est alors souvent utilisée (Daugman, 1985 ; Yang et al., 2003) : − 1 g(xθ , yθ ) = e πσx σy y2 x2θ + θ2 2σx2 2σy cos (2πu0 xθ ) (4.7) avec xθ yθ = cos θ sin θ − sin θ cos θ x y (4.8) Nous pouvons décomposer ce filtre en trois parties N, m(x) et h(y) comme le montre l’équation suivante (eq.4.9) : y2 x2 − θ2 1 − θ2 2σ 2σ × e x cos(2πu0 xθ ) × e y g(xθ , yθ ) = (4.9) πσx σy g(xθ , yθ ) = N × m(xθ ) × h(yθ ) La partie N représente le gain du filtre. Dans le cas de la définition du filtre où N = 1 , il permet d’avoir πσx σy un gain unitaire dans le domaine fréquentiel. La partie m(xθ ) est un filtre de Gabor unidimensionnel centré en u0 selon l’axe porté par la direction θ. Selon la valeur de l’écart-type σx le long de cet axe, ce filtre m(x) peut être un filtre passe-bas ou passe-bande. Si la valeur de l’écart-type σx est faible, la largeur de bande dans le domaine spectral est élevée, le filtre devient donc de type passe-bas. Sinon, si la valeur de l’écart-type σx est suffisamment grande, la largeur de bande dans le domaine spectral devient faible et le filtre a alors un comportement passe-bande, Nous constatons que l’écart-type σx doit croı̂tre pour les faibles valeurs de la fréquence centrale u0 . Son écart-type dans le domaine 1 . spectral est de 2πσx La partie h(yθ ) est une fonction gaussienne d’écart-type σy , orthogonale à la direction de l’orientation θ. 1 . Ce filtre est de type passe-bas. Dans le domaine spectral, son écart-type est égal à 2πσy Cette décomposition permet de comprendre le comportement fréquentiel du filtre. Les signaux de fréquences proches de la fréquence centrale du filtre u0 orientés selon l’angle θ ne seront pas ou peu atténués contrairement aux autres signaux. La transformée de Fourier (réponse fréquentielle) de ce filtre est donnée par l’équation suivante (eq.4.10) : i h 2 2 2 2 2 2 2 2 2 (4.10) G(u, v) = e−2π σy v e−2π σx (u−u0 ) + e−2π σx (u+u0 ) La figure 4.1 représente schématiquement la réponse fréquentielle d’un filtre de Gabor. La fréquence centrale du filtre est égale à : q u0 = (u2 + v2 ) (4.11) L’orientation du filtre est donnée par : θ = tan−1 hvi 72 u (4.12) 4.2 La transformée de Fourier F IG . 4.1 – Représentation d’un filtre de Gabor dans l’espace de Fourier. Les valeurs des écarts-types sont données par la largeur à mi-hauteur des signaux gaussiens (FWMH : Full Width Middle Height) : FW MHx = 2, 35σx = ( fC − fB ) FW MHy = 2, 35σy = ( fD − fE ) (4.13) (4.14) Soit : σx = σy = fC − fB 2, 35 fD − fE 2, 35 (4.15) (4.16) 4.2.3 Utilisation du filtre de Gabor pour discriminer la culture des adventices Nous nous intéressons à la détection de lignes de semis afin de faire une classification entre la culture et les adventices. En effet, on peut considérer que toute végétation comprise entre les lignes de semis, donc, dans l’inter-rang est constituée d’adventices. La connaissance de la position des lignes de semis permet donc la détection des adventices. La figure 4.2 présente les différentes étapes nécessaires pour parvenir à cette classification (Bossu et al., 2006a ; Bossu et al., 2006b ; Bossu et al., 2007a ; Bossu et al., 2007b). F IG . 4.2 – Organigramme de l’algorithme de classification des cultures et des adventices. 4.2.3.1 Transformée de Fourier rapide et détection des paramètres du filtre Dans un premier temps, nous calculons la transformée de Fourier de l’image acquise afin de déterminer les paramètres du filtre de Gabor. Ces différents paramètres sont : – l’orientation du filtre θ, – la fréquence centrale u0 , 73 Chapitre 4. Algorithmes spatiaux – l’écart-type σx suivant la direction horizontale, – l’écart-type σy suivant la direction verticale. Pour cela, nous allons chercher les paramètres u, v, fB , fC , fD et fE . Nous calculons le module de la TF pour finalement, normaliser celle-ci. Comme la transformée de Fourier est symétrique, nous ne travaillerons que sur la partie positive de celle-ci. Dans un premier temps, pour extraire les paramètres u0 et θ, soit la fréquence centrale et l’orientation du filtre, nous recherchons le gain maximum qui est normalement égal à un décibel puisque nous avons un gain normalisé, nous obtenons une valeur de fréquence horizontale u et verticale v. La valeur de la fréquence u0 correspond à la principale composante fréquentielle présente dans l’image originale. Pour trouver l’écart-type σx , nous faisons une coupe de la transformée de Fourier de l’image acquise suivant la droite (du ), nous ne considérons que la partie du signal située autour du fondamental (fréquence u0 ) qui s’apparente à un signal gaussien, nous allons donc chercher la largeur à mi-hauteur de cette gaussienne pour obtenir les valeurs fB et fC . Pour l’écart-type σy , nous appliquons la même méthode avec une coupe de la transformée de Fourier, cette fois-ci, suivant la droite (dv ) afin de trouver les valeurs fD et fE . Maintenant que nous avons extrait les paramètres u, v, fB , fC , fD et fE , il suffit de les remplacer dans les équations 4.11, 4.12, 4.15 et 4.16 afin de paramètrer le filtre. 4.2.3.2 Filtrage Une fois les paramètres de configuration du filtre noté g(x, y) déterminés, nous pouvons donc filtrer l’image agronomique notée h(x, y). Le résultat de ce filtrage sera défini par r(x, y). Le résultat sera égal au produit de convolution entre l’image acquise h(x, y) et la réponse impulsionnelle du filtre g(x, y) soit : r(x, y) = h(x, y) ∗ g(x, y) (4.17) Pour l’implémentation de cette fonction, nous devons avoir un filtre de taille finie, le filtre de Gabor ayant un support infini, nous devons donc tronquer sa taille. Comme le filtre de Gabor est basé sur une fonction gaussienne, les critères de troncature des fonctions gaussiennes peuvent lui être appliqués. Usuellement, les fonctions gaussiennes sont tronquées sur ±3σ (σ étant l’écart-type) car cela permet de conserver plus de 90% de l’information. Nous utilisons ce critère pour limiter le domaine du filtre de Gabor entre [−3σx , 3σx ][−3σy , 3σy ]. L’image filtrée représente une image où les lignes de semis sont rehaussées. La taille du masque de convolution croit en fonction de la sélectivité spatiale. Nous obtenons généralement un filtre de convolution de grande taille entraı̂nant des temps de calcul très longs. Afin de minimiser les temps de calcul, nous allons utiliser le théorème de Plancherel où cette convolution se transforme par une simple multiplication dans l’espace fréquentiel entre la transformée de Fourier de l’image acquise H(u, v) et la réponse fréquentielle du filtre G(u, v) soit : R(u, v) = H(u, v) × G(u, v) (4.18) avec R(u, v) le résultat du filtrage dans le domaine fréquentiel. Si nous appliquons une transformée de Fourier inverse à ce résultat, nous obtiendrons une image filtrée représentant les lignes de semis. L’utilisation du théorème de Plancherel et de l’algorithme FFT1 permet de gagner en temps de calcul mais ne permet pas de traiter aisément une image dont la taille n’est pas une puissance de deux. Nous serons donc obliger de couper notre image originale de taille 1600 × 1200 en une image de taille 1024 × 1024. A partir de l’image filtrée (r(x, y)) et de l’image originale et en utilisant une fonction logique de type ET ayant une entrée inverseuse, nous obtenons la carte d’infestation notée a. Nous posons Im, l’image acquise (h(x, y)) binarisée par une méthode de clustering (MacQueen, 1967) et c l’image binaire de l’image filtrée obtenue également par cette méthode de clustering, il vient : a = Im · c 1 Fast Fourier Transform, transformée de Fourier rapide 74 (4.19) 4.2 La transformée de Fourier 4.2.4 Illustration de la méthode La méthodologie que nous présentons est valable dans le cas d’images présentant ou non de la perspective. La figure 4.3.a représente l’image à traiter. Afin de pouvoir paramètrer le filtre de Gabor, nous devons calculer le module normalisé de l’image présentée figure 4.3.b. Sur cette figure, nous pouvons voir deux taches distinctes symétriques (représentées dans le cercle) par rapport à l’origine. La figure 4.3.c représente un zoom de ces taches, donc de ce qui est à l’intérieur du cercle et l’étoile de couleur cyan représente le maximum de l’amplitude du module (donc 1 car le module est normalisé), ayant pour coordonnées u et v ce qui nous permet de définir la fréquence centrale u0 et l’orientation θ du filtre. Dans ce cas, u0 = 0, 0088 et θ = 0. (a) (b) (c) F IG . 4.3 – (a) Image à traiter. (b)Module de la transformée de Fourier (TF) de l’image à traiter. (c) Zoom du cercle de cette TF. Afin de définir les écarts types σx (suivant la direction horizontale) et σy (suivant la direction verticale), nous faisons une coupe transversale de la TF suivant la droite passant par l’origine et par le maximum de l’amplitude du module de la TF. Cette coupe est présentée figure 4.4.a. La figure 4.4.b représente un zoom de la coupe, nous retrouvons bien l’étoile de couleur cyan ayant pour coordonnées (u0 ,1), nous pouvons apparenter la partie de la courbe délimitée par les deux étoiles noires et l’étoile cyan, à une gaussienne que nous obtenons en ajustant au mieux par approximation successive des paramètres. La figure 4.4.c présente en plus de la figure précédente, la gaussienne de couleur rouge obtenue par régression. Les étoiles vertes représentent les mesures effectuées pour trouver la largeur à mi-hauteur, mais comme cette coupe de la TF est discrète, nous avons dû interpoler certaines parties de la courbe avec une interpolation d’ordre zéro afin de pouvoir trouver les fréquences correspondant à la largeur à mi-hauteur (étoiles rouges). Nous avons donc trouvé les valeurs fC = 0, 0122 et fB = 0, 0046 soit σx = 0, 0033. Nous avons appliqué la même méthode avec une coupe de la TF suivant la droite passant par u0 et orthogonale à la droite passant par ce même point et par l’origine, nous avons trouvé fD = −0, 0106 et fE = 0, 0106 soit σy = 0, 009. (a) (b) (c) F IG . 4.4 – (a) Vue de coupe de la TF. (b) Zoom de la vue de coupe de la TF. (c) Zoom de la vue de coupe de la TF avec la gaussienne équivalente (rouge). Il nous reste maintenant à multiplier la TF de notre image par le filtre de Gabor implémenté avec les paramètres 75 Chapitre 4. Algorithmes spatiaux trouvés précédemment. La figure 4.5.a représente le filtre de Gabor implémenté dans le domaine fréquentiel. La figure 4.5.b représente le résultat du filtrage (couleur bleue) dans le domaine spatial superposé à l’image originale (vert), nous avons donc bien rehaussé les lignes de semis lors du filtrage, et pour finir, la figure 4.5.c représente la discrimination de la culture (vert) et des adventices (rouge). (a) (b) (c) F IG . 4.5 – (a) Filtre de Gabor dans le domaine spectral. (b) Résultat du filtrage dans le spatial (bleu) superposé à l’image originale (vert). (c) Résultat de la discrimination de la culture (vert) par rapport aux adventices (rouge). 4.3 La transformée de Fourier à fenêtre glissante Nous nous sommes intéressés à la transformée de Fourier à fenêtre glissante ou ”Short Time Fourier Transform” (STFT) car la Transformée de Fourier présente des limites pour notre application. En effet, nos images présentent un effet de perspective et les lignes de semis convergent vers un point de fuite ce qui élargit considérablement le spectre de l’image. Malgré son immense succès, la TF manque de localisation spatiale : elle permet de connaı̂tre les différentes fréquences présentes dans un signal, mais ne permet pas de savoir à quel endroits ces fréquences sont présentes. Cette analyse donne une information globale et non locale. Cette perte de localité n’est pas un inconvénient pour analyser des signaux stationnaires, mais le devient pour des signaux non stationnaires comme ceux de nos images. De tels signaux nécessitent donc la mise en place d’une analyse espace-fréquence ce qui permet une localisation des périodicités dans l’espace. C’est D. Gabor (Gabor, 1946) en 1946 qui propose la première forme de représentation temps-fréquence. Sa technique consiste à découper le signal en différentes plages ou fenêtres de longueurs fixées. Chaque plage est alors étudiée séparément des autres par l’analyse traditionnelle de Fourier. 4.3.1 Rappel sur la transformée de Fourier à fenêtre glissante La transformée de Fourier à fenêtre glissante (Gasquet et Witomski, 1990) revient à limiter le domaine d’intégration temporel à l’aide d’une fenêtre en multipliant le signal s(t) par une fonction de fenêtrage φ(t), soit : s(t)φ(b − t) = sb (t). Nous faisons glisser φ(t) pour explorer le signal s(t) (nous appliquons la transformée de Fourier sur sb (t)), nous obtenons la transformée de Fourier à fenêtre glissante (STFT) définie de la manière suivante : Gφ s(b, ξ) = Z +∞ −∞ s(t)φb,ξ dt (4.20) où φb,ξ = φ(t − b)e jξt et ξ = 2πλ (4.21) Le paramètre λ joue le rôle d’une fréquence localisée autour de l’abscisse b du signal temporel. Gφ s(b, ξ) donne ainsi une indication de ce qui se passe autour de l’abscisse t = b pour la fréquence λ. 76 4.4 La transformée en ondelette Cette transformée peut être interprétée comme une projection de s sur la base des fonctions fenêtres glissantes φ : Gφ s(b, ξ) = hs(t), φb,ξ i (4.22) La fonction φb,ξ se comporte comme une onde oscillant dans l’enveloppe de la fonction de φ(t), elle est appelée fenêtre d’analyse. Les fenêtres les plus connues sont les fenêtres de Hanning, de Hamming et de Gauss. Dans ce dernier cas, la transformation a été nommée transformation de Gabor et on appelle Gaborette la fonction analysante. Les informations temps-fréquence restent couplées par un compromis limité par la relation d’incertitude, sur la localisation à la fois en temps et en fréquence. Cette transformée peut être étendue au domaine à 2 dimensions et se présente sous la forme suivante : F(u, v, a, b) = Z +∞ Z +∞ −∞ −∞ f (x, y)φ(a − x, b − y)e− j2π(ux+vy) dxdy (4.23) La fonction d’analyse en deux dimensions est représentée par φ(a, b). 4.3.2 Utilisation de la transformée de Fourier à fenêtre glissante pour détecter les lignes de semis Ici, nous utilisons la même méthode vue dans la section précédente (4.2) sauf que nous utilisons un fenêtrage sur notre image originelle. Nous avons découpé l’image originale en plusieurs imagettes de différentes tailles. Nous utilisons des images ayant une taille de 1024 × 1024 et sachant que l’image présente des lignes de semis en perspective, nous avons une information fréquentielle plus détaillée dans le haut de l’image où nous avons plus de lignes de semis que dans le bas de l’image. Nous avons choisi après différents essais de diviser notre imagette en 4 imagettes de 1024 × 64 pour les lignes de l’image 1 à 256, 2 imagettes de taille 1024 × 128 pour les lignes allant de 256 à 512, pour finir pour les lignes 512 à 1024, nous avons choisi deux imagettes de 1024 × 256. Cette technique hybride se rapproche en fait de la transformation en ondelette. 4.4 La transformée en ondelette Cette méthode d’analyse ne privilégie aucune échelle particulière mais généralise à toutes les échelles ; l’analyse locale des fréquences étant obtenues par la STFT. Cette méthode a été introduite en 1982 par Morlet et se nomme la transformée en ondelette (Morlet et al., 1982 ; Grossmann et Morlet, 1984). Les ondelettes, famille de fonctions déduites d’une même fonction, appelée ondelette mère, par des opérations de translation et de dilatation (la rotation introduite pour les dimensions supérieure à 1, permet à l’aide d’ondelette complexe de Morlet, une sélectivité directionnelle (Antoine et al., 1996)), ont trouvé, de part la puissance de leur théorie, des applications dans de nombreux domaines (Burt et Adelson, 1983 ; Mallat, 1989 ; Murenzi, 1990 ; Bijaoui, 1991 ; Antoniadis et Carmona, 1991 ; Daubechies et Lagarias, 1991 ; Cohen et al., 1992 ; Daubechies, 1992 ; Meyer, 1990 ; Mallat et Zhong, 1992 ; Muzy et al., 1994 ; Bouchereau, 1997 ; Tian et al., 1999 ; Brisouhal, 2001 ; Bourgeat, 2004 ; Vioix, 2004). La décomposition en ondelettes est similaire à la décomposition de Gabor : un signal s’écrit sous la forme d’une superposition d’ondelettes décalées et dilatées. Les poids de ces ondelettes dans la décomposition, appelés les coefficients d’ondelette, forment la transformée en ondelette, qui est donc une fonction de deux variables : le temps et l’échelle. La différence majeure avec la STFT est que la largeur de la fenêtre varie de façon inversement proportionnelle à la fréquence ce qui conduit à une analyse à Q2 constant. 2 Facteur de qualité 77 Chapitre 4. Algorithmes spatiaux 4.4.1 Définition d’une ondelette Le terme ”ondelette” définit une onde de durée finie, le terme onde renvoyant à une localisation fréquentielle, le terme durée à une localisation temporelle ; la recherche de fonctions d’analyse localisées en temps et en fréquence est un problème. En effet, un compromis entre la résolution temporelle et fréquentielle liées par la relation d’incertitude de Heisenberg doit être envisagé (une démonstration de ce principe d’incertitude est donné dans (Hubbard, 1995). On appelle ondelette mère la fonction Ψ. A partir d’une ondelette mère, une famille d’ondelettes Ψa,b est créée par des opérations de translation et de dilatation suivant : t −b 1 √ Ψ (4.24) Ψa,b (t) = a a où a est le facteur d’échelle et b le paramètre de translation. Le facteur d’échelle est lié à la fréquence : pour a > 1, l’ondelette est plus étalée et correspond à une fréquence plus faible, alors que pour a < 1, l’ondelette est 1 plus étroite et correspond à une fréquence plus élevée. Le facteur √ assure que l’énergie reste la même pour a tout a, b : Z +∞ −∞ |Ψa,b (t)|2 dt = Z +∞ −∞ |Ψ(t)|2 dt (4.25) Dans le cas unidimensionnel, la transformée en ondelette (TO) de la fonction f (t) est alors définie comme le produit scalaire entre l’ondelette Ψa,b et la fonction f (t) tel que : Z +∞ 1 t −b W f (a, b) = h f , Ψa,b i = √ f (t)Ψ dt (4.26) a −∞ a La transformée en ondelette continue est obtenue en balayant le facteur d’échelle a de manière continue sur R+∗ et le pas de translation b sur R. 4.4.2 Transformée discrète et analyse multi-résolution Parmi les méthodes de discrétisation de la famille (Ψa,b )a,b,∈R en une sous famille (Ψa j ,bk )a j ,bk ∈R , deux algorithmes aux propriétés différentes existent, l’analyse multi-résolution (Mallat, 1989) présentée, ci-après, et l’algorithme à trous (Dutilleux, 1989 ; Bijaoui et al., 1994). Une étude approfondie de ces deux algorithmes est disponible dans (Rioul et Duhamel, 1992 ; Shensa, 1992 ; Bouchereau, 1997). Pour une analyse multi-résolution, la discrétisation dyadique est effectuée selon a j = 2 j , bk = 2 j k, avec j, k ∈ R, soit l’écriture de la TO suivante : Z +∞ 1 t W f (2 j , 2 j k) = √ j (4.27) Ψ j − k f (t)dt 2 2 −∞ C’est une écriture qui conduit à un algorithme rapide de calcul des coefficients d’ondelette introduit par Mallat (Mallat, 1989) pour l’analyse multi-résolution. La transformée en ondelette obtenue n’est pas redondante, ce qui cible ses applications à la compression du signal. Une analyse multi-résolution est basée sur l’approximation d’une fonction sur une famille (V j ) j∈Z d’espaces emboı̂tés où V j représente l’espace dans lequel la fonction est approximée à la résolution 2− j . Nous désignons par O j , l’espace dans lequel nous trouvons le détail perdu entre la résolution 2− j+1 et la résolution 2− j . V j ⊂ V j−1 et O j ⊕ V j = V j−1 (4.28) En dimension 1, chaque espace V j est représenté par une fonction d’échelle φ ; (Pφ j,k )k∈Z étant une base de V j , et chaque espace O j est représenté par l’ondelette Ψ, (Ψ j,k )k∈Z étant une base de O j . Ceci permet d’exprimer j j les coefficients d’approximation ak de la fonction f dans V j , ainsi que les coefficients de détail dk dans O j : ak = h f , Φ j,k i j dkj = h f , Ψ j,k i 78 (4.29) (4.30) 4.4 La transformée en ondelette Le point clef est fourni par la décomposition de ak en fonction de ak . Pour cela, nous exprimons Φ j,k dans la base de Φ j−1,k , ce qui permet de définir la suite numérique h[n] vérifiant : j j−1 Φ j,k = ∑ h̃[2n − k]Φ j−1,k (4.31) n h est la réponse impulsionnelle d’un filtre H passe-bas, et h̃ son filtre miroir associé, soit h̃[n] = h[−n]. Nous pouvons alors écrire : akj = ∑ h̃[2n − k]akj−1 (4.32) n De la même manière, si nous exprimons Ψ j,k dans la base de Φ j−1,k et en utilisant un filtre passe-haut G de réponse impulsionnelle g, nous obtenons : dk = ∑ g̃[2n − k]ak j−1 j (4.33) n Les équations (4.32) et (4.33) montrent que les coefficients d’ondelette peuvent être calculés en fonction des différentes approximation suivant le schéma figure 4.6. F IG . 4.6 – Exemple de décomposition pour l’analyse multi-résolution. La reconstruction du signal est donné par : anj−1 = ∑ akj h[n − 2k] + ∑ dkj g[n − 2k] k (4.34) k Si les bases d’ondelette et celles de la fonction d’échelle sont orthonormales, la transformée est non redondante ce qui permet de compresser le signal sans pertes en assurant une reconstruction parfaite. L’extension à la dimension 2 se fait de manière naturelle en appliquant l’algorithme unidimensionnel successivement sur les lignes et les colonnes pour chaque type de coefficients comme le montre la figure 4.7. Plus de détails sur ce type d’algorithmes sont disponibles dans (Truchetet, 1998). 4.4.3 Utilisation de la transformée en ondelette pour la détection de lignes de semis Nous allons présenter dans cette section l’algorithme de détection de lignes basé sur la transformée en ondelette (Bossu et al., 2007c). En effet, afin de détecter les lignes de semis, nous effectuons une analyse multirésolution sur l’image pour rehausser le contraste des lignes de semis. Le rehaussement sera présent sur les détails verticaux à différentes résolutions. L’algorithme est présenté pour des images ayant une taille de 800 × 600, mais il peut être adapté sans difficulté à des images différentes. 79 Chapitre 4. Algorithmes spatiaux j F IG . 4.7 – Décomposition et reconstruction d’une image, avec l’approximation a j , les détails horizontaux dh , j j verticaux dv et diagonaux dd . Nous allons décomposer l’image originale afin de faire ressortir une information sur les lignes de semis. Nous nous intéressons donc aux détails verticaux à différentes décompositions. Pour une image ayant une taille de 800 × 600, nous avons remarqué que les informations des lignes de semis ressortent mieux pour les niveaux de décomposition 5, 6 et 7. En effet, le détail vertical au niveau 5 (noté dv5 ) nous renseigne sur la largeur de la ligne de semis sur la moitié haute de l’image. Par contre, à ce niveau et pour les images perspectives fournies par notre dispositif expérimental (voir chapitre 2) nous avons le double de lignes de semis présentes dans l’image originale. Pour remédier à ce problème, nous utilisons le niveau 6 (noté dv6 ) de détail vertical. Effectivement, à ce niveau nous avons l’information sur le nombre de lignes de semis présentes sur la moitié haute de l’image, par contre la largeur de la ligne renseignée à ce niveau, ne correspond pas à la largeur du niveau initial. Si nous combinons ces deux niveaux de détails, il est possible de récupérer l’information sur les lignes de semis sur la partie haute de l’image. Pour effectuer cette combinaison, nous utiliserons une fonction ET logique(AND) entre ces deux détails verticaux de décomposition. Le problème pour effectuer cette opération logique vient du fait que lors de la décomposition de l’image, nous n’obtenons pas la même taille d’imagette (approximation et détails) suivant le niveau de décomposition (division de la taille par 2 à chaque niveau de décomposition), nous devons donc au préalable reconstruire nos imagettes de détails à différents niveaux de décomposition retenus pour avoir une imagette de taille égale à la taille de l’image originale. Nous reconstruisons donc l’image suivant la figure 4.7 jusqu’au niveau 0 en ne gardant que le détails dv5 , Nous noterons cette reconstruction a05 , et a06 pour la reconstruction utilisant le détail dv6 . Cet algorithme nous permet seulement de rehausser les lignes de semis sur la moitié haute de l’image. Afin d’avoir les informations sur la moitié basse de l’image, nous utiliserons le même principe avec les détails verticaux aux niveaux de décomposition 6 et 7 (noté dv7 ). La reconstruction de dv7 est notée a07 . Pour finir, si nous effectuons un ET logique entre ces résultats et l’image originale, nous obtenons la carte de culture de l’image originale. Nous posons : – ci : culture détectée pour la moitié haute de l’image (i = 1) et pour la moitié basse de l’image (i = 2). – im : l’image originale. – a0j : les imagettes des détails verticaux j reconstruits avec j ∈ [5, 7]. En appliquant l’algorithme énoncé ci-dessus, pour détecter les lignes de culture, il vient : c1 = im · a05 · a06 c2 = im · a06 · a07 (4.35) (4.36) Nous avons désormais 2 cartes de culture c1 (seulement la moitié haute de cette image comporte des informations intéressantes sur les lignes de semis) et c2 (ici, seulement la partie basse de l’image nous renseigne 80 4.4 La transformée en ondelette sur la localisation des lignes de semis). Il suffit pour avoir la carte de culture complète que nous noterons c de combiner ces deux cartes de culture. Si nous notons nbrL le nombre de lignes de l’image et nbrC, le nombre de colonnes, il vient : nbrL nbrL c [1 à nbrL, 1 à nbrC] = c1 1 à , 1 à nbrC + c2 à nbrL, 1 à nbrC (4.37) 2 2 Parmi les nombreuses familles d’ondelettes disponibles dans la littérature, nous avons recherché des bases d’ondelettes orthogonales en travaillant avec trois familles d’ondelettes : 1. les ondelettes de Daubechies (de taille finie, compacte mais non symétriques) dont les Symlet et Coiflet (Daubechies non optimisées), 2. mais aussi, l’ondelette de Meyer (base orthogonale de taille infinie) très localisée dans l’espace des fréquences. 3. Enfin, un dernier type d’ondelettes, les Bi-orthogonales, a été testé. Cette dernière famille, consituée de bases bi-orthogonales s’opposent aux deux précédentes familles dont le processus de reconstruction est plus stable et robuste. Cet algorithme a été testé pour trente trois types d’ondelettes afin de savoir quelles ondelettes étaient les plus appropriées pour la détection des lignes de culture. Parmi ces trente trois ondelettes, nous avons utilisé les ondelettes de type : – – – – – Daubechies, que nous noterons par la suite dbi, avec i l’ordre de l’ondelette, Symlet, que nous noterons par la suite symi, avec i l’ordre de l’ondelette, Coiflet, que nous noterons par la suite coifi, avec i l’ordre de l’ondelette, approximation discrète de l’ondelette Meyer, que nous noterons par la suite dmey, Biorthogonal, que nous noterons par la suite biori.j, avec i l’ordre de l’ondelette pour la décomposition et j l’ordre de l’ondelette pour la recomposition, – Biorthogonal reverse, que nous noterons par la suite rbioi.j, avec i l’ordre de l’ondelette pour la décomposition et j l’ordre de l’ondelette pour la recomposition. Le tableau 4.1 résume les ondelettes utilisées pour notre analyse : Daubechies Symlet Coiflet Biorthogonal Birothogonal reverse Meyer db5 sym4 coif2 bior2.6 rbio2.6 dmey db6 sym5 coif3 bior2.8 rbio3.7 db7 sym6 coif4 bior3.5 rbio3.9 db8 sym7 coif5 bior3.7 rbio5.5 db9 sym8 db10 sym10 bior3.9 rbio6.8 bior6.8 db15 sym13 db16 sym15 db25 TAB . 4.1 – Résumé des ondelettes utilisées pour l’analyse multirésolution. Et finalement, pour avoir la carte d’infestation d’adventices notée w, une simple soustraction suffit : w = im − c (4.38) 4.4.4 Illustration de la méthode Pour illustrer cet algorithme, nous utilisons la figure présentée 4.3.a. Nous utiliserons une ondelette de Daubechies d’ordre 25 (comme nous le verrons plus tard, c’est l’ondelette qui donne les meilleurs résultats de classification) pour la décomposition et la reconstruction. La figure 4.8 présente l’image originale (rouge) 81 Chapitre 4. Algorithmes spatiaux superposée aux niveaux 5 (vert) et 6 (bleu) des détails verticaux (a) et aux niveaux 6 (bleu) et 7 (vert) des détails verticaux (b). Nous voyons bien que la couleur blanche qui est une combinaison des niveaux et de l’image originale, fait ressortir des informations sur les lignes de semis. (a) (b) F IG . 4.8 – (a) Niveaux de détails verticaux 5 et 6 avec l’image originale. (b) Niveaux de détails verticaux 6 et 7 avec l’image originale. Les résultats de ces combinaisons sont montrés figure 4.9. Nous nous apercevons que la figure 4.9.a donne une information sur les lignes de semis de la moitié haute de l’image contrairement à la figure 4.9.b qui donne une information sur les lignes de semis sur le bas de l’image. La combinaison de ces deux images, nous permet de reconstruire la carte de culture, c’est-à-dire les lignes de semis (couleur verte) et d’en déduire la carte d’infestation (couleur rouge) visible sur la figure 4.9.c. (a) (b) (c) F IG . 4.9 – (a) Résultat de la carte de culture en utilisant les détails 5 et 6.(b) Résultat de la carte de culture en utilisant les détails 6 et 7. (c) Carte de culture globale (vert) et carte d’infestation (rouge). 82 4.5 La transformée de Hough 4.5 La transformée de Hough 4.5.1 Rappel sur la transformée de Hough La transformée de Hough (Hough, 1962) permet de détecter des lignes (ou alignement de points) dans une image. La détection de ces droites est réalisée dans l’espace des paramètres du modèle. Nous noterons l’espace hx, yi, l’espace d’origine et l’espace ha, bi, celui des paramètres c’est-à-dire l’espace de Hough. Dans l’espace hx, yi, une équation de droite est définie par y = ax + b, les paramètres a et b de cette équation vont définir l’espace des paramètres (a est la pente et b l’ordonnée à l’origine). espace d’origine hx, yi ⇐⇒espace des paramètres ha, bi. Soit la fonction F qui associe à chaque couple (x,y), un ensemble de couples (a,b) définit par : F(x, y){(a, b)|y = ax + b} Prenons l’exemple d’une droite dans l’espace hx, yi comme représentée figure 4.10, la droite d’équation y4 = a4 x + b4 (en rouge) est représentée par un point de coordonnées (a4 , b4 ) dans l’espace des paramètres. Réciproquement, les droites passant par un point de coordonnées (x1 , y1 ) dans l’espace de départ représentent dans l’espace des paramètres une droite d’équation b = −ax1 + y1 (figure 4.10). F IG . 4.10 – Exemple de plusieurs droites passant par le même point de coordonnées (x,y) dans l’espace hx, yi et sa représentation dans l’espace des paramètres. Si dans l’image initiale, nous avons plusieurs droites, nous obtiendrons dans l’espace des paramètres autant de points que de droites détectées dans cette image. Il existe une autre représentation de l’espace de Hough utilisant les coordonnées polaires (Duda et Hart, 1972). Dans ce cas l’espace des paramètres ne dépend plus de a et b mais de ρ et θ comme le montre la figure 4.11 (ρ est la distance perpendiculaire à l’origine d’une droite et θ, l’angle entre cette distance et l’axe des abscisses). Un point de coordonnées M(x,y) dans l’espace d’origine se représente par une courbe d’équation y = b sin θ dans l’espace des paramètres. En effet, nous avons : → − → u .− v = 0 x cos θ + y sin θ = ρ (4.39) (4.40) (4.41) or − → − → − → u = ρ cos θ i + ρ sin θ j 83 (4.42) Chapitre 4. Algorithmes spatiaux et − → − → − → v = i +a j (4.43) En utilisant les équations 4.39, 4.42 et 4.43, il vient : → − → u .− v = ρ cos θ + aρ sin θ = 0 (4.44) Connaissant l’équation de la droite dans l’espace d’origine qui est y = ax + b, nous en déduisons : y−b x Si nous associons les équations 4.44 et 4.45, nous obtenons : a = (4.45) x cos θ + y sin θ = b sin θ (4.46) Enfin, il vient d’après les équations 4.40 et 4.46 ρ = b sin θ π. Pour une image de m colonnes et n lignes, ρ sera compris entre 0 et E s p a c e d 'o r ig in e b E sp a c e d e s p a r a m è tr e s r y q u r √ m2 + n2 et θ entre 0 et 2π ou de −π à r = b s in q M ( x ,y ) v x q y = a x + b F IG . 4.11 – Exemple d’un point M(x,y) dans l’espace d’origine et sa représentation dans l’espace des paramètres. F IG . 4.12 – Exemple de plusieurs points situés sur la même droite dans l’espace hx, yi et leurs représentations dans l’espace des paramètres. En résumé, cette représentation a les propriétés remarquables suivantes (cf figure 4.12) : 84 4.5 La transformée de Hough – un point de l’espace d’origine correspond à une sinusoı̈de dans l’espace des paramètres, – un point de l’espace des paramètres correspond à une droite dans l’espace d’origine, – un ensemble de points alignés dans l’espace d’origine correspond à un ensemble de sinusoı̈des ayant un point d’intersection en commun dans l’espace des paramètres, – un ensemble de points situés sur une même sinusoı̈de dans l’espace des paramètres correspond à un ensemble de droites convergeant toutes en un même point dans l’espace d’origine. 4.5.1.1 Les accumulateurs dans Hough Lorsque nous implémentons cette transformée, il faut discrétiser l’espace de Hough. Cela revient à transformer l’espace des paramètres en un tableau à deux dimensions (ρ, θ). Si nous nous plaçons dans la représentation polaire, cela revient à échantillonner l’angle θ et à quantifier les longueurs ρ calculées pour chaque point pris en compte dans l’espace original. Pour chaque valeur de l’angle, nous accumulons les différentes valeurs de ρ obtenues suivant les coordonnées de chaque point de l’espace d’origine. Dès que tous les angles sont balayés, les valeurs maximales de ρ représentent les principales droites identifiées dans l’espace d’origine. Pour terminer cette section, notons que la transformée devra être normalisée pour ne pas favoriser certaines valeurs de ρ par rapport à d’autres (pour éviter de privilégier les diagonales de l’image par exemple). Nous allons donc utiliser cette méthode afin de trouver les lignes dans une image. 4.5.2 Description de l’algorithme mis en place Dans le cadre de notre étude, la transformée de Hough va nous permettre la détection des lignes de semis mais nous allons devoir faire une classification entre la culture et les adventices. Cette classification reposera sur l’hypothèse que toute végétation située dans l’inter-rang sera considérée comme adventices. D’autre part, l’ensemble des images acquises présenteront un effet de perspective dû à la position de la caméra. En conséquence de quoi, nous avons développé un algorithme utilisant les propriétés géométriques de la scène à savoir le point de fuite pour déterminer ces lignes. C’est ainsi que nous avons utilisé une double transformée de Hough pour détecter ce point de fuite où seules les lignes de culture convergent (Bossu et al., 2006a ; Gée et al., 2006 ; Gée et al., 2007). La figure 4.13 présente les différentes étapes afin de parvenir à la classification culture/adventice. F IG . 4.13 – Organigramme de l’algorithme permettant la classification culture et adventices au sein d’une image présentant un effet de perspective. 4.5.2.1 Première transformée de Hough Dans cette partie, nous implémentons la transformée de Hough de l’image binaire, obtenue par clustering (MacQueen, 1967) à partir de l’image acquise. Nous utilisons la représentation polaire (ρ, θ). Les valeurs de l’orientation θ seront limitées entre [θmin , θmax ] degrés et le pas de quantification de l’angle θ sera de un degré. Nous obtenons donc un accumulateur représentant l’espace des paramètres. Nous allons donc extraire les maxima locaux de cet accumulateur. 85 Chapitre 4. Algorithmes spatiaux 4.5.2.2 Détection des maxima locaux A partir de l’accumulateur trouvé précédemment, nous devons être capables de déterminer les maxima correspondant aux lignes de l’image initiale. Pour les identifier, nous recherchons pour chaque valeur de l’angle θ, la valeur ρ maximale qui lui est associée dans l’accumulateur. Après avoir effectué ceci, nous sommes en présence d’un grand nombre de valeurs se regroupant en différents nuages. En effet, chaque nuage est associé à une ligne de semis qui présente une certaine largeur selon le type de culture. Pour ne garder qu’un seul maximum par nuage, nous calculons le centre de gravité de chaque nuage en utilisant la méthode des kmeans (MacQueen, 1967) dont la distance entre les nuages est prédéfinie. Mais ce traitement n’est pas suffisant pour détecter les lignes de semis car tous les centres de gravité ne représentent pas une ligne de culture. En effet, il est possible suivant la distribution spatiale des adventices de détecter des droites ne correspondant pas à une ligne de culture. Pour remédier à ce problème, nous allons introduire une seconde transformée de Hough. 4.5.2.3 Seconde transformée de Hough Cette partie traitera de la détection des maxima ne correspondant qu’à des lignes de semis. En effet, sur les différents maxima locaux détectés précédemment, les seuls que nous souhaitons détecter, sont ceux associés aux lignes de semis. Afin de détecter ces maxima intéressants, une seconde transformée de Hough est introduite. En effet, si nous prenons en compte la symétrie des images acquises donc des lignes de semis présentant une vue de perspective, nous nous apercevons que nous avons une famille de lignes qui convergent vers un même point généralement appelé point de fuite. En fait, ce point n’existe pas sur l’image mais peut être détecté dans le premier espace des paramètres par une sinusoı̈de et les maxima locaux associés aux lignes de semis appartiendraient à celle-ci. Au vue de la symétrie de la scène, cette sinusoı̈de peut s’approximer par une droite. Ainsi, seuls les maxima proches de cet alignement peuvent correspondre à des lignes de culture. C’est pourquoi, pour les détecter nous faisons une seconde transformée de Hough dans l’espace des paramètres afin de trouver la droite correspondant à un alignement de maxima locaux. Cette transformée de Hough nous donne un second espace de paramètres (ρ2 , θ2 ) présentant un maximum local de coordonnées ρ2y et θ2x correspondant à la droite produite par l’alignement des maxima locaux dans le premier espace des paramètres dont l’équation est égale à : ρ=− ρ2y 1 θ+ tan θ2x sin θ2x (4.47) Maintenant que nous connaissons ”l’équation de la droite du point de fuite” (eq. 4.47), seuls les maxima proches de cette équation correspondent à des lignes de semis. 4.5.2.4 Extraction des maxima associés à des lignes de semis La détermination des maxima associés à des lignes de semis dépend de ”l’équation de la droite du point de fuite” représentant le point de fuite dans l’image originale. Afin de détecter ces maxima, l’algorithme suivant a été développé : Pour i de 0 à Nbr centroid ρ2y /*d’après 4.47*/ cos θ2x Si ((θ(i) > θ cl min(i)) And (θ(i) < θ cl max(i))) Alors i représente une ligne de semis Sinon i est rejeté Fin Si Fin Pour θ(i) = −tan2 θ2x × ρ(i) + Avec Nbr centroid le nombre de centres de gravité. θ cl min et θ cl max représentent les valeurs de θ minimum et maximum de chaque nuage de points. Finalement, tous les maxima retenus par cet algorithme 86 4.5 La transformée de Hough correspondent à des lignes de semis. Après avoir présenté la détection des lignes de semis présentent dans l’image, nous allons expliquer la méthode permettant la discrimination de la culture des adventices. Dans un premier temps, nous considérons que chaque pixel des lignes détectées est classé comme culture. Dans un deuxième temps nous réalisons une segmentation région de l’image binaire selon la méthode dite de blob-coloring (Ballard et Brown, 1982 ; Deriche et Cocquerez, 1987 ; Haralick et Shapiro, 1992). Puis si une région coupe une ligne de semis alors cette région sera étiquetée comme culture. Dans le cas contraire, la région sera étiquetée comme adventices. 4.5.3 Illustration de la méthode Pour illustrer cet algorithme, nous utilisons de nouveau l’image présentée sur la figure 4.3.a. Dans un premier temps nous implémentons la première transformée de Hough (figure 4.14.a), la figure 4.14.b représente le résultat du premier traitement, c’est-à-dire la recherche des maxima de ρ pour chaque valeur de θ, nous voyons donc apparaı̂tre des nuages. Par la méthode des k-means, nous pouvons extraire le centre de chaque nuage représenté figure 4.14.c. Il arrive parfois que certains centres ne correspondent pas à une ligne de semis, nous cherchons donc à trouver les coordonnées du point de fuite où convergent toutes nos droites. Pour cela nous appliquons une deuxième transformée de Hough sur le résultat précédent, le résultat est présenté figure 4.15.a. Le maximum de cette deuxième transformée de Hough nous permet de définir la sinusoı̈de dans le premier espace de Hough (figure 4.15.b), et cette sinusoı̈de représente le point de fuite dans l’image originale. La figure 4.15.c représente la discrimination entre la culture et les adventices, nous nous apercevons que la ligne dans le coin en haut à gauche de l’image n’a pas été détectée ce qui induit une erreur sur la détection de la culture. (a) (b) (c) F IG . 4.14 – (a) Première transformée de Hough. (b) Résultat du premier traitement, création de clusters. (c) Extraction des centres de gravité de chaque cluster. (a) (b) (c) F IG . 4.15 – (a) Seconde transformée de Hough, maxima représenté par le point blanc.(b) Résultat de la seconde transformée de Hough sur la première. (c) Carte de culture globale (vert) et carte d’infestation (rouge). 87 Chapitre 4. Algorithmes spatiaux 4.6 Redressement des images Un autre algorithme de discrimination consiste à ”détordre” les images afin d’obtenir des lignes de semis parallèles. En utilisant le point de fuite détecté dans l’image et l’autocalibration du système optique décrits dans la section 2.4, nous sommes capables en utilisant la matrice de passage P et pour chaque pixel de l’image acquise de calculer l’équivalent dans le monde réel. Dans un premier temps, nous calculons les dimensions réelles de l’image acquise afin de définir suivant la taille de l’image désirée, le pas d’échantillonnage horizontal et vertical. Nous créons donc une image de la taille voulue où chaque pixel de l’image a pour intensité −1. Pour chaque pixel de l’image originale, nous calculons ses nouvelles coordonnées. Lorsque tous les pixels ont été traités, les pixels de l’image résultante ayant une intensité égale à −1 représentent des valeurs non connues par la déformation de l’image et doivent donc être interpolés. Pour l’interpolation, nous utilisons une interpolation d’ordre 1, nous utilisons un masque en croix dont le centre est représenté par le pixel traité. Le pixel traité prendra la valeur moyenne de ses pixels voisins. Les pixels voisins ayant comme intensité −1 ne sont pas pris en compte. Sur ces images redressées, nous pouvons appliquer l’algorithme basé sur le filtre de Gabor (4.2). Un algorithme basé sur l’analyse multirésolution différent de celui présenté 4.4.3 à été élaboré pour obtenir une classification de la culture et des adventices. Il est différent car comme nous avons des lignes parallèles, nous avons seulement besoin des détails verticaux 5 et 6. Nous utiliserons donc seulement les équations 4.35 et 4.38 avec c1 = c. 4.7 Étude de la robustesse des algorithmes spatiaux Après avoir présenté les différents algorithmes de traitement d’images pour discriminer la culture des adventices, il nous reste à établir une méthode pour pouvoir comparer leurs performances. Les méthodes les plus couramment utilisées nécessitent un travail fastidieux. Parmi celles-ci, nous noterons celles qui consistent à comparer les résultats de discrimination d’un algorithme à une vérité de terrain c’est-à-dire vérifier que la densité de plantes (adventice ou culture) détectée par un algorithme corresponde à celle mesurée par une personne sur le terrain via un comptage manuel. Une autre approche toute aussi fastidieuse serait de comparer pixel à pixel les résultats de l’algorithme avec une analyse de segmentation manuelle des images. Ces méthodes ne peuvent être employées pour tester ces algorithmes face à la masse de données à traiter (2000 images). La solution envisagée et qui a été développée au laboratoire est de réaliser des images modélisant les scènes agronomiques photographiées avec notre système optique en ne considérant que les propriétés spatiales des végétaux. 4.7.1 Modélisation d’images agronomiques Ce travail de modélisation de scènes agronomiques constitue une partie de la thèse de Gawain Jones (Jones et al., 2007a ; Jones et al., 2007c). Dans un premier temps, la parcelle est modélisée en tenant compte des propriétés spatiales de la culture et des adventices. Puis une image de cette parcelle est prise en positionnant une caméra virtuelle dont les paramètres intrinsèques ( f , du et dv) et extrinsèques (Rx , Rz et tz ) sont prédéfinis. Les cultures modélisées sont issues de semis en ligne. La première caractéristique nous permettant de représenter une scène agronomique est la largeur de l’inter-rang des lignes de semis. De plus, il existe deux types de culture : – les cultures céréalières, semées en continue sur la ligne de semis. Une dose est pré-définie par hectare de blé (par exemple 1000Kg/ha), – les cultures en pré-semis (par exemple, le tournesol) qui possèdent une fréquence dans le rang. Différents motifs de plantes ont été créés pour correspondre à chacune des cultures (blé, tournesol, maı̈s) mais aussi pour identifier les adventices de type monocotylédone ou dicotylédone. D’autre part, les adventices ont tendance à se développer au sein d’une parcelle selon deux modes de propagation : de manière isolée ou en agrégats (Cardina et al., 1997). Jones et al. proposent donc de modéliser 88 4.7 Étude de la robustesse des algorithmes spatiaux deux types de distribution spatiale : ponctuelle (loi de Poisson) et agrégative (loi de Neyman-Scott). Ces deux distributions de type aléatoire ne présupposent aucune connaissance à priori de l’état de la parcelle (composition au sol, compétitivité des plantes). Ce modèle a été spécialement développé pour tester les algorithmes de traitements d’images dans le cadre de la pulvérisation et comme les traitements d’herbicides sont généralement appliqués à un jeune stade de croissance, la végétation a été modélisée par un modèle en deux dimensions. Pour transformer la scène agronomique en photographie, il faut positionner et orienter une caméra virtuelle dans le champ. Cette transformation de l’espace ”champ” à l’espace ”caméra” est réalisée au moyen du modèle du sténopé présenté dans le paragraphe 2.4. A partir de cette image modélisée, nous sommes à même de contrôler tous les paramètres initiaux tels que : 1. le nombre de pixels de culture, 2. le nombre de pixels de mauvaises herbes inter et intra rang ainsi que leur position dans l’image, 3. le taux d’infestation inter-rang égal à : TI = nombre de pixels inter-rang × 100 nombre de pixels inter-rang+nombre de pixels intra-rang+nombre de pixels de culture (4.48) Ainsi avec cette modélisation d’images agronomiques, il va être aisé non seulement de tester les performances de discrimination d’un algorithme par rapport à la connaissance des paramètres initiaux mais aussi de pouvoir comparer différents algorithmes entre eux. 4.7.2 Matrice de confusion Initial La comparaison entre le nombre de pixels de culture / adventices initial et détecté par les algorithmes n’est pas suffisante pour tester la robustesse des algorithmes. En effet, parmi les pixels détectés, les algorithmes peuvent commettre des erreurs de classification où des pixels initialement identifiés comme culture / adventices seront détectés comme adventices / culture. Pour analyser plus finement les erreurs commises par ces algorithmes (sur ou sous détection), nous allons utiliser la matrice de confusion (Kohavi et Provost, 1998 ; Provost et al., 1998). Le tableau 4.2 représente la matrice de confusion pour une classification à deux classes. Détecté Culture Adventice Culture VC FA Adventice FC VA TAB . 4.2 – Matrice de confusion. avec : – VC (Vraie Culture) qui est le nombre de prédictions correctes de la classe culture initiale, – VA (Vraie Adventice) qui est le nombre de prédictions correctes de la classe adventice initiale, – FC (Fausse Culture) qui est le nombre de prédictions incorrectes de la classe culture initiale, – FA (Fausse Adventice) qui est le nombre de prédictions incorrectes de la classe adventice initiale. A partir de ce tableau, il va être possible d’évaluer en détail les performances de chacun des algorithmes étudiés. Plusieurs termes standards sont définis pour cette matrice : – The ACcuracy (AC) représente la proportion du nombre de prévisions correctes : AC = VC +VA VC + FA + FC +VA 89 (4.49) Chapitre 4. Algorithmes spatiaux – le Taux de Vraie Adventice (TVA) est la proportion des cas d’adventices qui ont été correctement identifiés : VA TVA = (4.50) FC +VA – le Taux de Fausse Adventice (T FA) est la proportion des cas de culture qui ont été incorrectement classifiés en adventice : FA T FA = (4.51) VC + FA – le Taux de Vraie Culture (TVC) est la proportion des cas de culture qui ont été correctement identifiés : TVC = VC VC + FA (4.52) – le Taux de Fausse Culture (T FC) est la proportion des cas d’adventices qui ont été incorrectement classifiés en culture : FC (4.53) T FC = FC +VA Il vient avec cette matrice de confusion que le taux d’infestation définit par l’équation 4.48 est aussi égal à : T Iinit = FC +VA VC + FA + FC +VA (4.54) A partir de cette matrice, nous pouvons définir aussi le taux d’infestation détecté T Idetect , le taux de culture initial TCinit et détecté TCdetect : T Idetect TCinit TCdetect FA +VA VC + FA + FC +VA VC + FA = VC + FA + FC +VA VC + FC = VC + FA + FC +VA = (4.55) (4.56) (4.57) Un autre manière de tester la robustesse d’un algorithme de classification à partir de la matrice de confusion est d’utiliser un graphique ROC (Receiver Operating Caracteristics) (Swets, 1988) déduit pour chaque image testée. Ce graphique représente un point, taux de vraie adventice en fonction du taux de fausse adventice (TVA = f (T FC))(cf. figure 4.16). Pour chaque image testées, ce point peut avoir plusieurs significations : – – – – si le point est en (0,1), cela signifie que nous avons un algorithme de classification qui est parfait, si le point est en (0,0), cela signifie que l’algorithme a détecté toute la culture, si le point est en (1,1) représente la détection de toutes les adventices, si le point est en (1,0), cela démontre que l’algorithme n’est capable de détecter aucune classe. Nous utiliserons cette matrice de confusion et le graphe de ROC pour tester et comparer la robustesse de nos algorithmes de discrimination de la culture par rapport aux adventices. 4.8 Création de trois bases de données d’images Pour mener à bien notre étude sur la robustesse des algorithmes testés, différentes bases d’images ont été créées. Trois bases ont été élaborées : deux constituées d’images simulées avec différents paramètres du système optique et la dernière représente des images réelles. 90 4.8 Création de trois bases de données d’images 0.95 0.9 0.85 TVA 0.8 0.75 0.7 0.65 0.6 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 TFA F IG . 4.16 – Exemple de courbes de ROC. 4.8.1 Images simulées Toutes les images modélisées représentent des céréales comme culture. Comme le modèle de G. Jones permet de modéliser trois modes de propagation des adventices (ponctuel, en agrégat et la combinaison des deux notée mixte), nous avons créé 30 banques d’images pour chacun d’entre eux. Chaque banque est constituée de dix sept images dont le taux d’infestation varie de 0% à 80% avec un pas de 5%. Ce qui implique un total de 1530 images. 91 Chapitre 4. Algorithmes spatiaux Nous avons modélisé ces images pour deux configurations différentes du système optique : 1ère base de données : taille de l’image 512 × 512. La hauteur de la caméra est H = 0, 65m et la focale utilisée est de f = 16mm. L’angle de tangage est ϕ = 68˚ qui pourra varier de 66˚ à 70˚ afin de modéliser des images prises sur un sol accidenté. L’angle de lacet α est normalement nul mais il variera pour les mêmes raisons que précédemment entre -1˚ et -3˚. 2ème base de données : dans ce système, seulement la focale et les angles changent. La focale est égale à f = 8, 5mm tandis que l’angle de tangage est ϕ = 56˚ qui variera entre 54˚ et 58˚ et l’angle de lacet variera entre -4˚ et 4˚. Le tableau 4.3 résume les différents paramètres des deux configurations du système optique utilisés pour modéliser les images. Base de données Taille de l’image H(m) ϕ(˚) α(˚) base (1530 images) 512 × 512 0, 65 ∈ [66; 70] ∈ [−3; −1] 2ème base (1530 images) 512 × 512 0, 65 ∈ [54; 58] ∈ [−4; 4] 1ère f (mm) 16 8, 5 TAB . 4.3 – Résumé des 2 configurations du système optique pour la modélisation des images. La figure 4.17 présente 3 images de la banque No 9 issues de la base de données No 1 présentant une distribution d’adventices de type ponctuel (a), agrégatif (b) et mixte (c) pour un taux d’infestation de 35%. (a) (b) (c) F IG . 4.17 – Exemples d’images simulées avec une distribution d’adventices de type : ponctuel (a), agrégatif (b) ou mixte (c) ayant un taux d’infestation de 35%. 4.8.2 Images réelles Concernant les images réelles, dix images ont été prises avec un appareil photo IXUS 330. Nous ne connaissons pas les conditions de prise de vues mais cette série d’images a été réalisée dans une parcelle d’orge et ont été segmentées manuellement afin de connaı̂tre le nombre de pixels de culture et d’adventices inter et intra rang. Par contre, afin de pouvoir appliquer les algorithmes énoncés précédemment, nous avons appliqué quelques pré-traitements sur ces images car nous avons besoin d’avoir des images en niveau de gris représentant seulement la végétation. Les images originales sont codées en RGB et afin de séparer la végétation du reste de la scène, nous avons utilisé un indice de végétation. Parmi les indices existants et définis dans la littérature (Woebbecke et al., 1995 ; Meyer et al., 1998 ; Søgaard et Olsen, 2003), nous avons utilisé l’indicator (Søgaard et Olsen, 2003) défini par 2 × G − R − B. La figure 4.18 représente l’image no 2 réelle originale et la segmentation obtenue en utilisant l’indicator. 92 4.9 (a) Résultats et Discussion (b) F IG . 4.18 – Exemple d’une image réelle de culture d’orge (a) avec son pré-traitement afin d’avoir une image ne présentant que de la végétation (b). 4.9 Résultats et Discussion 4.9.1 Introduction Nous allons maintenant présenter et interpréter les résultats de discrimination culture/adventices obtenus pour les différents algorithmes étudiés. On verra dans un premier temps les résultats obtenus sur des images simulées (bases de données No 1 et No 2) puis sur des images réelles (base de données No 3). Pour les images simulées et afin d’avoir une idée sur la classification entre la culture et les adventices, nous présentons pour chaque algorithme une image classifiée (taux d’infestation initial de 30%) de la banque No 9 de la base No 1 avec une distribution d’adventices de type mixte accompagnée de sa matrice de confusion où les termes sont exprimés en pourcentage de la végétation totale comprise dans l’image. Puis pour définir la robustesse de chaque algorithme testé, nous avons, pour chaque image de même taux d’infestation des différentes banques d’une base de données, moyenné les valeurs de la matrice de confusion obtenue. Ainsi ce sont dix sept matrices associées à 17 taux d’infestation différents qui ont été traitées pour chaque type de distribution d’adventices (ponctuel, agrégatif et mixte), à partir des résultats des dix sept matrices. Ainsi trois types de graphique associés à ces trois distributions seront présentés et discutés. Chaque graphe présente quatre courbes. Sachant que le complémentaire pour un taux d’infestation d’adventices initial est le taux de culture initial, nous aurons : – T Iinit = f (T Iinit ) représentant la droite idéale de détection des adventices dans le cas d’un classificateur idéal, – TCinit = f (T Iinit ) représentant la droite idéale de détection des cultures dans le cas d’un classificateur idéal, – T Idetect = f (T Iinit ) représentant le taux d’infestation détecté en fonction du taux d’infestation initial, – TCdetect = f (T Iinit ) représentant le taux de culture détecté en fonction du taux d’infestation initial. Cependant, les taux détectés comportent non seulement les vraies détections mais aussi des fausses détections ; c’est pourquoi nous avons également tracé un autre graphique représentant : – T Iinit = f (T Iinit ) représentant la droite idéale de détection des adventices dans le cas d’un classificateur 93 Chapitre 4. Algorithmes spatiaux idéal, – TCinit = f (T Iinit ) représentant la droite idéale de détection des cultures dans le cas d’un classificateur idéal, – VA = f (T Iinit ) représentant le taux d’infestation correctement détecté en fonction du taux d’infestation initial, – VC = f (T Iinit ) représentant le taux de culture correctement détecté en fonction du taux d’infestation initial. Ce dernier graphique nous permet de visualiser les proportions de bonnes et mauvaises détections pour chaque classe afin d’évaluer les performances de chaque algorithme lors du classement de chaque pixel de l’image. Enfin, à partir des graphes ROC, il va être possible d’étudier le comportement général d’un classificateur en regardant la proportion de Taux de Vraie Adventice en fonction du Taux de Fausse Culture. Nous présentons ces mêmes graphiques pour la base de données No 3, c’est-à-dire les images réelles. Puis nous ferons une synthèse concernant tous ces algorithmes en utilisant les trois représentations vu précédemment mais aussi en rassemblant les résultats de tous ces algorithmes sur une même figure pour chaque type de graphique et pour les trois bases de données afin de conclure sur la méthode la mieux adaptée pour discriminer la culture des adventices. 4.9.2 Algorithme basé sur la transformée de Fourier et du filtre de Gabor (TF) 4.9.2.1 Utilisation sur des images présentant une vue en perspective 4.9.2.1.1 Images simulées La figure 4.19 présente le résultat de la classification culture/adventices de l’image présentée dans 4.17.c en utilisant l’algorithme basé sur la transformée de Fourier et celui du filtre de Gabor. Ce résultat est accompagné de la matrice de confusion où les termes sont exprimés en pourcentage de la végétation totale comprise dans l’image, c’est-à-dire que la somme de ces quatre termes est égale à 100%. F IG . 4.19 – Représentation d’une image discriminée avec un Taux d’Infestation initial de 30% en utilisant l’algorithme basé sur la TF. Les couleurs cyan et magenta représentent respectivement les prédictions correctes de la classe ”culture” et de la classe ”adventice”, contrairement aux couleurs rouge et verte qui représentent les fausses prédictions de la classe ”culture” et de la classe ”adventice”. 94 4.9 Résultats et Discussion A partir de cette matrice de confusion, on en déduit que sur 100% de la végétation, nous avons 68% de prédictions correctes de la classe ”culture” initiale et 1% de prédictions incorrectes attribuées à la classe ”adventice”. Pour la classe ”adventice”, nous avons 15% de prédictions correctes contre 16% d’erreur, c’est-à-dire classifié comme culture. Cette image fait apparaı̂tre une ”sur-détection” de la culture. En effet, nous avons la moitié des adventices qui sont classées comme culture (couleur verte dans l’image). Nous pouvons voir aussi que l’algorithme est en défaut pour la classification en bordure des lignes classe ”adventice”. L’erreur de détection sur la classe ”culture” (couleur rouge) provient d’un problème de classification sur le haut de l’image. De plus au vue de toutes les images traitées par cet algorithme, nous avons remarqué que plus le taux d’infestation initial augmente, moins l’algorithme est performant sur la classification, pour en arriver même à ne pas pouvoir classifier. 95 Chapitre 4. Algorithmes spatiaux Cela peut s’expliquer par une détermination erronée des paramètres du filtre de Gabor qui conduit à un filtre passe-bas et non un filtre passe-bande. Dans ce cas, toute la végétation est retenue. Pour avoir une discrimination efficace, les adventices doivent être situées au plus près du centre de l’intervalle entre deux lignes de semis. Afin de vérifier ces hypothèses, nous avons tracé le premier graphique (figure 4.20) où T Idetect et TCdetect sont étudiés en fonction de T Iinit . Les résultats ne se comportant pas de la même façon selon le type de distribution d’adventices, nous avons décidé de représenter ces trois types de distribution. F IG . 4.20 – Représentation des Taux de Culture et d’Infestation détectés en fonction du Taux d’Infestation initial pour une distribution d’adventices de type ponctuel, agrégatif et mixte en utilisant l’algorithme basé sur la TF. Ces différents graphes représentent les Taux de Culture (△, , ♦) et d’Infestation (N, , ) détectés en fonction du Taux d’Infestation initial, pour les trois types de distribution d’adventices. Pour l’ensemble des cas, nous remarquons une ”sur-détection” de la culture et donc une ”sous-détection” sur l’identification des pixels d’adventices. En effet la courbe expérimentale de détection de la classe ”culture” est située au dessus de la courbe théorique associée au cas d’un classificateur parfait. Il est à noter que les résultats obtenus pour la distribution de type agrégatif présentent un problème pour des Taux Initiaux d’infestation élevés ; la détection n’est pas linéaire ; contrairement aux distributions de type ponctuel et mixte. Cela indique que les adventices de distribution de type agrégatif sont plus difficiles à détecter. Ces pourcentages détectés présentent sans nul doute des erreurs sur la détection. Pour vérifier cela nous avons utilisé le deuxième graphique représentant les pourcentages de Vraie Culture et de Vraie Adventice détectés en fonction du Taux d’Infestation initial (figure 4.21). Avec cette représentation, nous retrouvons tous les termes de la matrice de confusion comme nous le remarquons sur la figure 4.21.a. A partir de cette figure, on remarque que le pourcentage de Vraie Culture est correct contrairement au pourcentage de Vraie Adventice. En effet, la classe ”adventice” est sous détectée surtout pour les forts Taux d’Infestation initiaux lorsque la distribution d’adventices est de distribution de type agrégatif. La classe ”culture” étant le complémentaire de la classe ”adventice”, cela indique une ”sur-détection” de la classe ”culture”. La meilleure détection est obtenue lorsque les adventices sont distribuées ponctuellement. 96 4.9 (a) (b) (c) (d) Résultats et Discussion F IG . 4.21 – Représentation du pourcentage, de Vraie Adventice (%VA) et de Vraie Culture (%VC) détectés en fonction du Taux d’Infestation initial pour une distribution d’adventices de type ponctuel (a), agrégatif (b) ou mixte (c) en utilisant l’algorithme basé sur la TF. Afin d’avoir une idée sur la précision de ce classificateur, nous avons calculé la moyenne des différentes valeurs de Fausse Culture et Fausse Adventice, sachant que plus ces valeurs sont proches de zéro plus le classificateur est parfait. Ces valeurs sont présentées dans le tableau 4.4. hhhh hhhh Type de distribution hhh Ponctuel hhhh Erreur en % h h Culture Adventice 1,9 11,1 Agrégatif Mixte 2,3 20,5 2,3 17,5 TAB . 4.4 – Moyenne des %FC soit l’erreur commise sur la classe ”culture” et %FA, l’erreur commise sur la classe ”adventice” en utilisant l’algorithme basé sur la TF. A partir de ce tableau, on démontre bien que nous avons une bonne détection de la classe ”culture” avec un pourcentage d’erreur inférieur à 2,3%, ce qui n’est pas le cas de la classe ”adventice” avec une erreur comprise entre 11,1%, pour une distribution de type ponctuel, et 20,5%, pour une distribution de type agrégatif. En revanche ces pourcentages représentent un pourcentage de la végétation totale comprise dans l’image, nous allons maintenant utiliser d’autres termes définis à partir des valeurs de la matrice de confusion. Nous allons calculer la proportion du nombre de prévisions correctes noté AC, le Taux de Vraie Adventice (TVA), le Taux de Fausse Adventice (T FA), le Taux de Fausse Culture (T FC) et le Taux de Vraie Culture (TVC). Ces termes 97 Chapitre 4. Algorithmes spatiaux permettent d’exprimer le pourcentage de bonne et mauvaise détection sur une classe, soit TVC + T FA = 1 ainsi que T FC + TVA = 1. En calculant ces termes pour chaque matrice de confusion, nous pouvons représenter le graphique ROC. Ainsi, pour chaque distribution d’adventices ce sont 17 matrices et donc 17 points correspondants à 17 Taux d’Infestation testés. Pour chaque graphe de la figure 4.22, les 17 points sont étiquetés par le taux d’infestation. (a) (b) 68 (c) 55 80 75 52 70 70 67 60 70 65 45 60 40 10 50 45 30 35 20 35 25 20 TVA 15 65 65 60 49 15 TVA TVA 45 55 75 50 40 5 50 55 66 5 51 65 50 10 75 10 25 47 20 64 3550 35 30 45 25 2 2.5 3 TFA 45 25 30 80 3.5 4 4.5 20 80 15 30 62 1.5 55 46 5 40 63 40 48 2 2.5 3 3.5 4 4.5 TFA 5 5.5 6 6.5 44 0 2 4 6 TFA 8 10 12 F IG . 4.22 – Représentation des graphiques ROC pour une distribution d’adventices de type ponctuel (a), agrégatif (b) ou mixte (c) en utilisant l’algorithme basé sur la TF. A partir de ces graphiques, nous pouvons remarquer que pour une distribution de type ponctuel, l’erreur sur la culture (T FC) est comprise entre 2 et 4,2%, pour une détection d’adventice correcte (TVA) comprise entre 62 et 68%. Pour une distribution de type agrégatif, nous avons entre 2 et 6,5% d’erreur sur la culture avec une bonne détection d’adventices comprise entre 20 et 55%. Finalement pour le type mixte, nous avons une erreur dans un intervalle de 1,8 à 12% pour la culture et un intervalle de 44 à 55% pour la détection correcte d’adventice. 98 4.9 Résultats et Discussion Finalement le tableau 4.5 résume pour les trois types de distribution, la proportion du nombre de prévisions correctes (AC), les Taux de Fausse et de Vraie Culture (T FC) et (TVC) et les Taux de Vraie et de Fausse Adventice (TVA) et (T FA). hhhh hhhType de distribution hhhh Ponctuel hhhh Taux en % h h AC TFA TVC TVA TFC 87,6 2,9 97 65,2 34,7 Agrégatif Mixte 78,4 3,6 96,3 39,5 60,4 81,1 3,9 96 47,7 52.2 TAB . 4.5 – Moyenne des différents termes (%) obtenus par la matrice de confusion utilisant l’algorithme basé sur la TF. Ce tableau nous indique que la meilleure classification est obtenue avec une distribution d’adventices de type ponctuel avec une proportion du nombre de prévisions correctes de 87,6%, un taux d’erreur sur la détection de la culture de 2,9% pour une détection correcte d’adventices de 65,2%. 99 Chapitre 4. Algorithmes spatiaux 4.9.2.1.2 No 3). Images réelles Nous avons également testé cet algorithme sur des images réelles (base de données (a) (b) (c) (d) 55 2 4 50 1 45 40 6 7 TVA 35 30 3 25 10 20 9 15 10 0 8 2 5 4 6 8 TFA 10 12 14 16 F IG . 4.23 – (a)Illustration d’une image discriminée. (b)Représentation des Taux de Culture et d’Adventice détectés en fonction du Taux d’Infestation initial. (c)Représentation du pourcentage, de Vraie Adventice (%VA) et de Vraie Culture (%VC) détectés en fonction du Taux d’Infestation initial. (d)Représentation du graphique ROC. Pour des images réelles avec l’utilisation de l’algorithme basé sur la TF. La figure 4.23.a représente l’image No 2 de cette base (cf. figure 4.18.b) ; image discriminée avec sa matrice de confusion. Nous observons les mêmes problèmes que nous avions exposé pour les essais sur des images simulées, à savoir un problème de détection sur le haut de l’image et en bord des lignes de semis. La figure 4.23.b présente les classes de ”culture” et ”adventice” détectées. Il existe aussi comme pour les images simulées une ”sur-détection” de la culture. La figure 4.23.c représente les vraies détections de chaque classe, les résultats obtenus auparavant se vérifient encore avec une bonne détection de la culture et une détection d’adventices relativement moyenne. Le tableau 4.6 résume les erreurs moyennes de détection de la culture et des adventices. Il en résulte encore un fois comme nous l’avons vu dans le cas d’images simulées, que nous avons une détection correcte de la culture contrairement aux adventices. Finalement, la figure 4.23.d représente le graphique ROC. L’erreur de culture est comprise entre 0,05 et 16% pour une détection correcte d’adventices se situant entre 15 et 52,2%. Le tableau 4.7 résume les données obtenues par le graphique ROC. L’utilisation d’images réelles donne globalement les mêmes résultats que les images simulées avec une distribution d’adventices de type agrégatif. En effet, les termes standards AC, T FA, TVA, T FC et TVC obtenus sont à peu près égaux au cas des images simulées avec une distribution d’adventices de type agrégatif mais il est à 100 4.9 Résultats et Discussion hhhh hhh Type de distribution hhhh Réel hhhh Erreur en % h h Culture Adventice 4,9 16,9 TAB . 4.6 – Moyenne des %FC soit l’erreur commise sur la classe ”culture” et %FA, l’erreur commise sur la classe ”adventice” en utilisant l’algorithme basé sur la TF avec des images réelles. hhhh hhhType de distribution hhhh Réel hhh Taux en % hh h AC TFA TVC TVA TFC 78,1 6,4 93,5 32,1 67,9 TAB . 4.7 – Moyenne des différents termes obtenus (%) par la matrice de confusion en utilisant l’algorithme basé sur la TF. signaler que pour les images simulées, ces termes ont été obtenus à partir de 1530 images testées à comparer aux 10 images réelles. 4.9.2.2 Utilisation sur des images redressées Nous nous sommes intéressés à l’application de l’algorithme basé sur la transformée de Fourier et le filtre de Gabor sur des images présentant des lignes de semis parallèles. Contrairement aux images présentant une vue perspective, où la fréquence des lignes varie entre le haut et le bas de l’image, nous avons une seule fréquence de lignes de semis dans l’image. 4.9.2.2.1 Images simulées La figure 4.24 présente le résultat de la classification de l’image présentée figure 4.17.c redressée en utilisant l’algorithme basé sur la transformée de Fourier et le filtre de Gabor. Cette image est divisée en quatre classes. La classe Vraie Culture (cyan), Fausse Culture (vert), Vraie Adventice (magenta) et Fausse Adventice (rouge). Ces classes correspondent à la matrice de confusion située en dessous de l’image. A partir de cette figure, nous pouvons remarquer que pratiquement toute la culture est correctement détectée, contrairement aux adventices où une zone située dans le coin gauche de l’image présente une surface infestée qui a été détectée comme culture. Il existe, tout comme lors de l’utilisation d’images présentant une vue perspective, un problème de détection en bordure des lignes de semis. 101 Chapitre 4. Algorithmes spatiaux F IG . 4.24 – Représentation d’une image redressée discriminée avec un Taux d’Infestation initial de 35% en utilisant l’algorithme basé sur la TF. Les couleurs cyan et magenta représentent respectivement les prédictions correctes de la classe ”culture” et de la classe ”adventice”, alors que les couleurs rouge et verte représentent les fausses prédictions de la classe ”culture” et de la classe ”adventice”. Sur 100 % de la végétation qui composent cette image, nous avons 64,5% de Vraie Culture, pour une valeur de Fausse Adventice de 0,5%, puis 19% de Vraie Adventice pour une valeur de Fausse Culture de 16%. Ces chiffres indiquent que nous avons bien détecté la culture, nous avons même ”sur-détecté” cette dernière car nous avons seulement environ 50 % de bien détectée. Pour avoir une discrimination efficace, il faut que les adventices soient situées au plus près du centre de l’intervalle entre deux lignes de semis. Afin de connaı̂tre le comportement global de l’algorithme, nous avons tracé les graphiques des Taux de Culture et d’Adventice détectés en fonction du Taux d’Infestation initial (figure 4.25). F IG . 4.25 – Représentation des Taux de Culture et d’Infestation détectés en fonction du Taux d’Infestation initial pour une distribution d’adventices de type ponctuel, agrégatif et mixte en utilisant l’algorithme basé sur la TF avec des images redressées. Sur cette figure et pour les trois types de distribution d’adventices nous avons également, comme dans le cas d’images présentant une vue perspective, une ”sur-détection” de la culture et donc une ”sous-détection” des 102 4.9 Résultats et Discussion adventices. En effet, la courbe expérimentale du Taux de Culture est située au dessus de la courbe théorique. Enfin un problème de détection dans les Taux d’Infestation initiaux élevés est observé. Ce problème est aussi présent pour la distribution mixte. Nous allons maintenant représenter graphiquement (figure 4.26) la matrice de confusion pour les trois types de distribution d’adventices. (a) (b) (c) (d) F IG . 4.26 – Représentation du pourcentage, de Vraie Adventice (%VA) et de Vraie Culture (%VC) détectés en fonction du Taux d’Infestation initial pour une distribution d’adventices de type ponctuel (a), agrégatif (b) ou mixte (c) en utilisant l’algorithme basé sur la TF avec des images redressées. A partir de cette figure, nous pouvons remarquer que le Taux de Vraie Culture est correct contrairement au Taux de Vraie Adventice. Il est à noter que nous avons une ”sous-détection” d’adventices, soit une ”sur-détection” de culture. La meilleure classification est obtenue lors de l’utilisation d’une distribution d’adventices de type ponctuel. Pour avoir une idée globale du classificateur, nous allons présenter le tableau 4.8 résumant les erreurs effectuées sur les détections de culture et d’adventices. hhhh hhh Type de distribution hhhh Ponctuel hhh Erreur en % hh h Culture Adventice 0,2 12,5 Agrégatif Mixte 1,9 18,5 1,4 17,2 TAB . 4.8 – Moyenne des %FC soit l’erreur commise sur la classe ”culture” et %FA, l’erreur commise sur la classe ”adventice” en utilisant l’algorithme basé sur la TF avec des images ayant été redressées. 103 Chapitre 4. Algorithmes spatiaux A partir de ce tableau, nous observons une bonne détection de la culture avec un pourcentage inférieur à 1,9% et une erreur sur les adventices inférieure à 18,5%. De nouveau le classificateur donne de meilleur résultat pour la distribution de type ponctuel. En redressant les images, nous avons une meilleure classification de la culture, mais des résultats assez proches en ce qui concernent les adventices. Les graphiques ROC (figure 4.27) permettent d’affirmer les hypothèses émises. (a) (b) 64 (c) 55 45 20 30 55 50 35 5 40 60 25 63 62 15 10 60 65 55 15 30 60 35 25 20 40 45 50 40 10 30 65 20 50 60 55 25 5 45 35 55 15 50 70 50 10 5 70 65 70 45 45 61 TVA TVA TVA 40 40 35 60 75 35 80 30 59 25 30 58 75 20 80 75 57 0 0.5 1 1.5 2 2.5 3 3.5 25 TFA 0 5 10 15 20 TFA 25 30 35 80 40 15 0 5 10 15 TFA 20 25 30 F IG . 4.27 – Représentation des graphiques ROC pour une distribution d’adventices de type ponctuel (a), agrégatif (b) et mixte (c) en utilisant l’algorithme basé sur la TF avec des images ayant été redressées. Si nous interprétons ces graphiques, nous pouvons voir que les données étiquetées 70,75 et 80 biaisent la méthode. Ces données sont issues d’images ayant les trois Taux d’Infestation initiaux les plus élevés. En effet, l’algorithme est incapable de discriminer la culture des adventices lorsque le Taux d’Infestation initial est élevé et ce quel que soit le type de distribution des adventices. Si nous ignorons ces trois points, nous avons pour une distribution de type ponctuel une erreur de culture comprise entre 0 et 0,05% pour un taux de détection correct d’adventices compris entre 61,5 et 63,5%. Pour une distribution de type agrégatif, l’erreur sur la culture est comprise entre 0 et 0,05% pour un taux variant de 48 à 55% pour une détection correcte de la culture. Pour la distribution mixte, l’erreur de culture est sensiblement égale aux autres types de distribution avec un taux compris entre 0 et 0,07%, le taux de bonne détection d’adventices est de 54,5 à 56,5%. Le tableau 4.9 résume les différents taux obtenus à partir de la matrice de confusion. hhhh hhhType de distribution hhhh Ponctuel hhhh Taux en % h h AC TFA TVC TVA TFC 88 0,4 99,6 62 37,9 Agrégatif Mixte 80,7 4,9 95 48,2 51,7 82,4 3,4 96,5 51,5 48,4 TAB . 4.9 – Moyenne des différents termes (%) obtenus par la matrice de confusion en utilisant l’algorithme basé sur la TF avec des images ayant été redressées. Ce tableau nous indique que la meilleure classification est obtenue pour une distribution d’adventices de type ponctuel bien que la méthode ait été biaisée par trois points. En effet, ces points présentent des images avec un Taux d’Infestation initial élevé et l’algorithme est incapable de paramètrer le filtre de Gabor car la transformée de Fourier de l’image ne permet pas de détecter la bonne fréquence des lignes de semis (il y a plus d’adventices que de culture). Redresser les images permet de faire une meilleure classification que sur les images présentant une vue perspective. La culture est détectée pratiquement à 100%. Cette méthode est donc valable pour les faibles Taux d’Infestation (inférieur à 50%) mais elle risque d’être plus coûteuse en temps de calcul, car nous sommes obligés de redresser l’image. D’autre part, cette méthode nécessite une connaissance parfaite des paramètres extrinsèques de la caméra obtenus par autocalibration en temps réel. 104 4.9 4.9.2.2.2 Images réelles redressées. Résultats et Discussion Nous allons présenter ici, les résultats obtenus sur des images réelles qui ont été (a) (b) (c) (d) 70 2 60 4 50 7 6 1 8 TVA 40 3 5 30 20 9 10 0 0 10 1 2 3 4 5 TFA 6 7 8 9 10 F IG . 4.28 – (a)Illustration d’une image discriminée. (b)Représentation des Taux de Culture et d’Adventice détectés en fonction du Taux d’Infestation initial. (c)Représentation du pourcentage, de Vraie Adventice (%VA) et de Vraie Culture (%VC) détectés en fonction du Taux d’Infestation initial. (d)Représentation du graphique ROC. Pour des images redressées réelles avec l’utilisation de l’algorithme basé sur la TF. La figure 4.28.a représente l’image No 2 redressée. L’image est mieux discriminée que celle non redressée (cf figure 4.23.a). Effectivement, nous avons une meilleure détection de la culture. Par contre nous retrouvons l’erreur commise en bord de lignes de culture. La figure 4.28.b présente les Taux de Culture et d’Infestation détectés en fonction du Taux d’Infestation initial. A partir de ces courbes, nous admettons que nous avons une ”sur-détection” de la culture. La figure 4.28.c représente graphiquement la matrice de confusion, cette figure indique que la culture est en générale bien détectée contrairement aux adventices qui sont apparemment toujours détectées à la même valeur quel que soit le taux d’infestation initial. Le tableau 4.10 résume les erreurs moyennes commises sur la culture et les adventices. Il en résulte que la culture est bien détectée contrairement aux adventices. A partir de ce tableau, nous pouvons voir que la méthode donne de meilleurs résultats que sur des images présentant une vue perspective. La figure 4.28.d présente le graphique ROC où le Taux de Fausse Culture est compris entre 0,05 et 10% pour un Taux de Vraie Adventice variant de 10 à 68%. Nous avons résumé dans le tableau 4.11 la moyenne des données présentées par le graphique ROC. L’utilisation d’images réelles redressées donne globalement de meilleurs résultats que les images réelles présentant une vue perspective. En revanche les résultats sont en deçà de ce qui a été montré dans le cas d’images simulées et redressées. 105 Chapitre 4. Algorithmes spatiaux hhhh hhh Type de distribution hhhh Réel hhhh Erreur en % h h Culture Adventice 2,9 13,9 TAB . 4.10 – Moyenne des %FC soit l’erreur commise sur la classe ”culture” et %FA, l’erreur commise sur la classe ”adventice” en utilisant l’algorithme basé sur la TF avec des images redressées réelles. hhh hhhhType de distribution hhh Réel hhhh Taux en % hh h AC TFA TVC TVA TFC 83 3,7 96,2 39,3 60,7 TAB . 4.11 – Moyenne des différents termes (%) obtenus par la matrice de confusion en utilisant l’algorithme basé sur la TF avec des images redressées réelles. 4.9.3 Algorithme basé sur la transformée de Fourier à fenêtre glissante (TFG) Afin d’éviter de redresser les images pour avoir une meilleure classification ce qui implique une opération supplémentaire, nous nous sommes intéressés à l’utilisation de la transformée de Fourier à fenêtre glissante afin de garder une localisation spatio-fréquentiel. 4.9.3.1 Images simulées La figure 4.29 présente le résultat de la classification culture/adventice de l’image présentée figure 4.17.c obtenue en utilisant l’algorithme basé sur la transformée de Fourier à fenêtre glissante. F IG . 4.29 – Représentation d’une image discriminée avec un Taux d’Infestation initial de 30% en utilisant l’algorithme basé sur la TFG. Les couleurs cyan et magenta représentent respectivement les prédictions correctes de la classe ”culture” et de la classe ”adventice”, contrairement aux couleurs rouge et verte qui représentent les fausses prédictions de la classe ”culture” et de la classe ”adventice”. 106 4.9 Résultats et Discussion A partir de cette image, nous pouvons remarquer que nous avons toujours un problème de détection de la culture en bordure des lignes de semis. Il apparaı̂t de nouveau une ”sur-détection” de culture représentée en couleur verte dans l’image. Sur 100% de la végétation présente dans cette image nous avons 67% de culture bien détectée contre 2% d’erreur et 14% d’adventices bien classifiée et 17% incorrectement classifiée comme culture. Afin d’avoir une précision globale de l’algorithme, nous avons tracé les graphiques des Taux de Culture et d’Infestation détectés en fonction du Taux d’Infestation initial présenté figure 4.30. F IG . 4.30 – Représentation des Taux de Culture et d’Infestation détectés en fonction du Taux d’Infestation initial pour une distribution d’adventices de type ponctuel, agrégatif et mixte en utilisant l’algorithme basé sur la TFG. Nous pouvons remarquer sur cette figure une ”sur-détection” de la culture quelque soit le type d’adventices présent dans l’image. Il est à noter que pour la distribution de type agrégatif, l’algorithme est moins performant pour les Taux d’Infestation élevé contrairement à ce qui se passe pour les distributions de type ponctuel ou mixte. La figure 4.31 représente graphiquement la matrice de confusion. Cette figure présente l’efficacité du classificateur. Nous pouvons remarquer que les taux de culture détectés se superposent pratiquement à la courbe théorique, ce qui indique une bonne reconnaissance de la culture, alors que ce n’est pas le cas pour les adventices. Effectivement les taux d’infestation détectés sont situés en dessous de la courbe théorique ce qui indique une ”sous-détection” des adventices et donc une ”sur-détection” de la culture. Le tableau 4.12 présente les erreurs globales de détection commisent sur les deux classes : culture et adventices. hhhh hhhh Type de distribution hhh Ponctuel hhhh Erreur en % h h Culture Adventice 1 12 Agrégatif Mixte 1,4 19,5 1,7 16,5 TAB . 4.12 – Moyenne des %FC soit l’erreur commise sur la classe ”culture” et %FA, l’erreur commise sur la classe ”adventice” en utilisant l’algorithme basé sur la TFG. Ce tableau nous permet de démontrer que nous avons une bonne classification de la culture avec un pourcentage d’erreur compris entre 1 et 1,7%. En revanche, la classe ”adventice” est ”sous-détectée” avec une erreur com107 Chapitre 4. Algorithmes spatiaux (a) (b) (c) (d) F IG . 4.31 – Représentation du pourcentage, de Vraie Adventice (%VA) et de Vraie Culture (%VC) détectés en fonction du Taux d’Infestation initial pour une distribution d’adventices de type ponctuel (a), agrégatif (b) et mixte (c) en utilisant l’algorithme basé sur la TFG. prise entre 12 et 19,5%. Les meilleurs résultats sont obtenus pour la distribution d’adventices de type ponctuel. (a) (b) (c) 50 64 15 75 70 30 60 70 70 55 5 35 40 45 54 30 65 35 56 65 45 20 63.5 55 50 10 25 75 63 53 40 40 60 5 5 15 25 20 45 80 TVA TVA TVA 52 20 62.5 10 51 50 55 50 50 55 10 40 49 30 61.5 30 48 25 61 75 65 45 35 15 62 60 35 1 1.2 1.4 1.6 1.8 TFA 2 2.2 2.4 2.6 25 80 80 1 1.5 2 2.5 3 3.5 TFA 4 4.5 5 5.5 47 1 2 3 4 5 6 7 8 TFA F IG . 4.32 – Représentation des graphiques ROC pour une distribution d’adventices de type ponctuel (a), agrégatif (b) et mixte (c) en utilisant l’algorithme basé sur la TFG. La figure 4.32 représente les graphiques ROC pour les trois types de distribution. A partir de cette figure, nous pouvons voir pour une distribution de type ponctuel que nous avons un Taux de Fausse Adventice compris entre 0,2 et 0,4% pour un Taux de Vraie Adventice dans l’intervalle 62,4 à 68%. Pour le type agrégatif, nous 108 4.9 Résultats et Discussion avons une erreur de culture comprise entre 2 et 6,5% pour un taux de 20 à 55% sur la détection des adventices. Finalement pour la distribution de type mixte, nous nous apercevons que les données étiquetées 65 à 80 biaisent la méthode. En effet ces quatre données donnent les plus mauvais résultats sur la détection de la culture en comparaison avec les autres données. Si nous excluons ces données, le Taux de Fausse Adventice devient compris entre 0,17 et 0,38% (0,7% si nous gardons toutes les données) pour un Taux de Vraie Adventice variant de 44,6 à 51,74%. hhh hhhhType de distribution hhhh Ponctuel hhh Taux en % hh h AC TFA TVC TVA TFC 87,5 1,6 98,3 62,5 37,4 Agrégatif Mixte 80 2,8 97,1 44,5 55,4 82,9 2,9 97 51,6 48,3 TAB . 4.13 – Erreur commise sur la détection de la culture et des adventices pour la base de données No 1 en utilisant l’algorithme basé sur la TFG. Le tableau 4.13 résume les différents termes standards obtenus à partir de la matrice de confusion. A partir de ces données, nous pouvons voir, que les meilleurs résultats sont obtenus avec une distribution d’adventices de type ponctuel avec une proportion du nombre de prévisions correctes de 87,5%. 4.9.3.2 Images réelles Nous avons testé également cet algorithme avec des images réelles. La figure 4.33.a représente les résultats de l’algorithme testé sur l’image No 2 (figure 4.18.b). Nous pouvons voir un problème de discrimination dans les zones proche des lignes de semis. D’après la figure 4.33.b, nous remarquons que la culture est ”sur-détectée” comme dans le cas des images simulées. La figure 4.33 nous permet d’affirmer que nous avons une détection correcte de la classe ”culture” alors que ce n’est pas le cas pour la classe ”adventice”. hhhh hhhh Type de distribution hhh Réel hhhh Erreur en % h h Culture Adventice 3 14 TAB . 4.14 – Moyenne des %FC soit l’erreur commise sur la classe ”culture” et %FA, l’erreur commise sur la classe ”adventice” en utilisant l’algorithme basé sur la TFG avec des images réelles. Le tableau 4.14 résume les erreurs obtenues pour cet algorithme. La figure 4.33 représente le graphique ROC, nous obtenons une valeur comprise entre 0,1 et 0,5% pour le Taux de Fausse Adventice et entre 20 et 63% pour le Taux de Vraie Adventice. Nous avons donc une bonne détection de la culture contrairement à la détection des adventices. Le tableau 4.15 résume les valeurs des termes standards obtenus à partir de la matrice de confusion. Avec cet algorithme, nous avons obtenu une proportion du nombre de prévisions correctes de 82%, un taux de 96,6% de bonne détection de la culture et un taux de 37,4% de bonne détection des adventices. 109 Chapitre 4. Algorithmes spatiaux (a) (b) (c) (d) 65 4 60 55 2 50 1 TVA 45 7 40 35 9 8 6 30 3 25 20 15 10 5 1 1.5 2 2.5 3 3.5 4 4.5 5 5.5 TFA F IG . 4.33 – (a)Illustration d’une image discriminée. (b)Représentation des Taux de Culture et d’Adventice détectés en fonction du Taux d’Infestation initial. (c)Représentation du pourcentage, de Vraie Adventice (%VA) et de Vraie Culture (%VC) détectés en fonction du Taux d’Infestation initial. (d)Représentation du graphique ROC. Pour des images réelles avec l’utilisation de l’algorithme basé sur la TFG. hhhh hhhType de distribution hhhh Réel hhhh Taux en % h h AC TFA TVC TVA TFC 82 3,3 96,6 37,4 62,5 TAB . 4.15 – Moyenne des différents termes (%) obtenus par la matrice de confusion en utilisant l’algorithme basé sur la TFG avec des images réelles. 4.9.4 Algorithme basé sur la transformée en ondelette 4.9.4.1 Utilisation sur des images présentant une vue en perspective 4.9.4.1.1 Images simulées Comme nous avons testé trente trois ondelettes différentes (4.1), nous ne présentons ici que les résultats obtenus avec une ondelette de Daubechies d’ordre 25 (db25), une approximation de l’ondelette de Meyer discrète (dmey) et une ondelette bi-orthogonale d’ordre 3 pour la décomposition et 5 pour la reconstruction (bior3.5). Les deux premières ondelettes permettent d’avoir les meilleurs résultats avec cet algorithme contrairement à la dernière qui donne les plus mauvais résultats. La figure 4.34 présente le résultat de la classification culture/adventice de l’image montrée figure 4.17.c obtenu en utilisant l’algorithme basé sur la Transformée en ondelette. 110 4.9 (a) Résultats et Discussion (b) F IG . 4.34 – Représentation d’une image discriminée avec un taux d’infestation initial de 30% en utilisant l’algorithme basé sur la TO en utilisant une ondelette de Daubechies d’ordre 25 (a) ou une bi-orthogonale de niveau 3 pour la décomposition et 5 pour la reconstruction (b). Les couleurs cyan et magenta représentent respectivement les prédictions correctes de la classe ”culture” et de la classe ”adventice”, contrairement aux couleurs rouge et verte qui représentent les fausses prédictions de la classe ”culture” et de la classe ”adventice”. Comme l’utilisation de l’ondelette db25 et l’ondelette dmey donnent sensiblement les mêmes résultats, nous avons seulement présenté le résultat de la classification utilisant une ondelette db25 et bior3.5. A partir de ces résultats, nous pouvons remarquer une ”sur-détection” des adventices, plus accentuée avec l’utilisation d’une ondelette bior3.5 que pour une ondelette db25. A partir de la matrice de confusion de ces deux images, les pourcentages de Vraie Culture et de Vraie Adventice sont différents : il apparaı̂t donc que l’utilisation d’une ondelette db25 donne de meilleurs résultats que l’utilisation d’une ondelette bior3.5. En revanche, il existe un problème de détection en bordure des lignes de semis. En effet certaines extrémités de feuilles d’une plante de culture sont considérées comme adventices. La figure 4.35 représente les Taux de Culture et d’Infestation détectés en fonction du Taux d’Infestation initial pour différents types de distribution d’adventices et pour différentes ondelettes. On observe une ”surdétection” des adventices quelque soit le type de distribution d’adventices ou de l’ondelette utilisée. L’utilisation d’une ondelette bior3.5 fournit une ”sur-détection” de la classe ”adventice” plus importante que celle fournie par l’utilisation d’une ondelette dmey ou db25. Nous avons une détection correcte même pour les Taux d’Infestation initiaux élevés. La figure 4.36 présente le pourcentage de Vraie Adventice et Vraie Culture en fonction du Taux d’Infestation initial. Avec l’utilisation d’une ondelette db25 ou dmey, nous avons une bonne détection de la culture et des adventices, contrairement à ce que nous obtenons avec une ondelette bior3.5, qui détecte bien les adventices mais qui donne une erreur plus grande sur la détection de la culture. L’utilisation d’une distribution d’adventices de type ponctuel donne les meilleurs résultats. Le tableau 4.16 présente les erreurs commises sur la détection de la culture et d’adventices. Type de distribution Erreur en % Culture Adventice bior3.5 13,5 3,8 Ponctuel db25 dmey 5,8 6 2,3 2,4 Agrégatif bior3.5 db25 dmey 14,2 6,6 6,8 6,5 4,6 4,7 bior3.5 14,2 6,1 Mixte db25 6,5 4,4 dmey 6,6 4,5 TAB . 4.16 – Moyenne des %FC soit l’erreur commise sur la classe ”culture” et %FA, l’erreur commise sur la classe ”adventice” pour trois ondelettes différentes. 111 Chapitre 4. Algorithmes spatiaux (a) (b) (c) (d) F IG . 4.35 – Représentation des Taux de Culture et d’Infestation détectés en fonction du Taux d’Infestation initial pour une distribution d’adventices de type ponctuel (a), agrégatif (b) et mixte (c) en utilisant l’algorithme basé sur la TO. Ce tableau nous permet de conclure que les meilleurs résultats sont obtenus pour l’ondelette db25. L’ondelette dmey donne approximativement les mêmes résultats que l’ondelette db25. L’utilisation d’une ondelette bior3.5 donne de mauvais résultats sur la détection de la culture. Les meilleurs résultats sont obtenus avec l’utilisation d’une distribution d’adventices de type ponctuel et l’utilisation d’une ondelette db25, soit un pourcentage de Fausse Culture inférieur à 5,8% et un pourcentage de Fausse Adventice inférieur à 2,4%. Nous nous intéressons maintenant au graphique ROC présenté figure 4.37. Cette figure nous permet de démontrer que l’utilisation d’une ondelette bior3.5 (couleur bleue) donne de moins bon résultat que l’utilisation d’une ondelette db 25 (couleur cyan) ou d’une ondelette dmey (couleur rouge). En effet, le nuage de points est bien distinct des autres nuages. L’utilisation d’une ondelette db25 ou dmey donne approximativement les mêmes résultats soit un Taux de Fausse Adventice de 0,70 à 11,5% pour un Taux de Vraie Adventice compris entre 91 et 94,4% pour une distribution d’adventices de type ponctuel. Il est à noter que si le Taux d’Infestation initial est inférieur à 40%, nous avons un Taux de Fausse Adventice inférieur à 10% et un Taux de Vraie Adventice supérieur à 90%. L’utilisation d’une distribution d’adventices de type agrégatif fournit un Taux de Fausse Adventice de 0,7 à 15% pour un Taux de Vraie Adventice compris entre 81,3 et 93,3%. Pour un Taux d’Infestation initial inférieur à 40%, nous avons un Taux de Fausse Adventice inférieur à 10% avec un Taux de Vraie Adventice supérieur à 80%. Pour finir, pour le troisième type de distribution d’adventices, nous obtenons un Taux de Fausse Adventice dans l’intervalle 0,7 à 17% pour un Taux de Vraie Adventice variant de 84,9 à 89%. Pour un Taux d’Infestation initial inférieur à 40%, le Taux de Fausse Adventice est inférieur à 10%, pour un Taux de Vraie Adventice supérieur à 85%. Cet algorithme semble bien être approprié pour notre traitement. Il apparaı̂t que l’utilisation d’une distribution d’adventices de type ponctuel donne les meilleurs résultats. Le tableau 4.17 résume les différents termes standards obtenus avec la matrice de confusion. La meilleure classification est obtenue avec une distribution d’adventices de type ponctuel et avec l’utilisation d’une ondelette db25 ayant un nombre de prévision correcte de 91,8%. Soit en moyenne 91% de la classe ”culture” bien détectée et 92,5% de la classe ”adventice” classée correctement. 112 4.9 (a) (b) (c) (d) Résultats et Discussion F IG . 4.36 – Représentation du pourcentage, de Vraie Adventice (%VA) et de Vraie Culture (%VC) détectés en fonction du taux d’infestation initial pour une distribution d’adventices de type ponctuel (a), agrégatif (b) et mixte (c) en utilisant l’algorithme basé sur la TO. (a) (b) 95 92 91 80 80 55 bior3.5 db25 dmey 70 20 20 88 70 75 75 65 75 75 90 87 15 15 30 40 30 50 1025 50 10 3540 45 25 35 45 80 80 75 75 70 70 80 50 30 5 55 88 20 15 60 40 45 25 50 10 30 5 87 85 65 60 1010 65 89 86 20 20 55 15 55 5 15 50 50 45 30 35 45 30 35 40 25 25 40 85 90 70 70 6565 60 60 5 45 TVA 93 89 bior3.5 db25 dmey 80 80 TVA 94 TVA (c) 95 bior3.5 db25 dmey 80 75 80 75 70 70 65 30 45 55 60 65 10 55 60 50 30 40 25 5 50 40 10 35 45 5 25 20 35 15 15 20 55 55 80 84 70 83 55 60 20 25 75 50 81 35 75 65 10 82 35 40 35 30 10 15 86 60 60 65 45 40 55 5 25 80 20 85 6 8 10 12 14 16 18 TFA 20 22 24 70 5 10 15 20 TFA 25 30 79 15 5 10 15 20 25 30 TFA F IG . 4.37 – Représentation des graphiques ROC pour une distribution d’adventices de type ponctuel (a), agrégatif (b) et mixte (c) en utilisant l’algorithme basé sur la TO. 4.9.4.1.2 Images Réelles No 2 (cf. figure 4.18.b). La figure 4.38.a présente les résultats de l’algorithme (db25) testé sur l’image 113 Chapitre 4. Algorithmes spatiaux Type de distribution Taux en % AC TFA TVC TVA TFC Ponctuel bior3.5 db25 82,5 91,8 20,3 9 79,7 91 87,6 92,5 12,4 7,5 dmey 91,6 9,1 90,8 92,1 7,9 Agrégatif bior3.5 db25 79,4 89 22,5 10,8 77,5 89,2 79,7 85,7 20,3 14,3 Mixte bior3.5 db25 79,6 89,3 22,2 10,5 77,8 89,4 81,4 86,9 18,5 13 dmey 88,8 11 88,9 85,5 14,5 dmey 89 10,7 89,3 86,7 13,3 TAB . 4.17 – Moyenne des différents termes (%) obtenus par la matrice de confusion en utilisant 3 algorithmes (bior3.5, db25 et dmey) basés sur la TO. (a) (b) (c) (d) 90 bior3.5 db25 dmey 3 2 3 85 2 10 10 7 80 1 7 1 TVA 6 9 75 5 70 6 4 3 9 7 10 1 2 4 5 9 6 4 8 8 8 65 5 60 10 15 20 25 30 35 TFA F IG . 4.38 – (a)Illustration d’une image discriminée. (b)Représentation des Taux de Culture et d’Infestation détectés en fonction du Taux d’Infestation initial. (c)Représentation du pourcentage, de Vraie Adventice (%VA) et de Vraie Culture (%VC) détectés en fonction du Taux d’Infestation initial. (d)Représentation du graphique ROC. Pour des images réelles avec l’utilisation de l’algorithme basé sur la TO. Comme pour les images simulées, nous avons un problème de détection en bordure des lignes de semis. En effet certaines extrémités des feuilles d’une plante de culture sont considérées comme adventices. La figure 4.38.b représente les classes de ”culture” et ”adventice” détectées en fonction du Taux d’Infestation initial, nous remarquons une ”sur-détection” des adventices car les données détectées sont situées au dessus de la courbe théorique. La figure 4.38.c représente les vraies détections de chaque classe. Nous pouvons remarquer à partir de ce graphe que les adventices sont bien détectées, la culture est moins bien détectée : elle est ”sous-détectée”. 114 4.9 Résultats et Discussion Le tableau 4.18 résume les erreurs moyennes de Fausse Culture et de Fausse Adventice. Type de distribution Erreur en % Culture Adventice bior3.5 21,1 6,2 Réel db25 14,2 5,4 dmey 14,3 5,3 TAB . 4.18 – Moyenne des %FC soit l’erreur commise sur la classe ”culture” et %FA, l’erreur commise sur la classe ”adventice” en utilisant l’algorithme basé sur la TO avec des images réelles. Les meilleurs résultats sont obtenus avec l’utilisation d’une ondelette de Daubechies d’ordre 25. Finalement, la figure 4.38.d représente le graphique ROC. L’utilisation d’une l’ondelette db25 donne les meilleurs résultats avec un Taux de Fausse Adventice variant entre 13 et 25% et un Taux de Vraie Adventice compris entre 69 et 88,3%. Le tableau 4.19 indique que la meilleure classification est obtenue avec une ondelette de Daubechies d’ordre 25 pour une précision correcte de 80,4%, un Taux de Vraie Culture de 81,2% pour un Taux de Vraie Adventice de 77%. Type de distribution Taux en % AC TFA TVC TVA TFC Réel bior3.5 db25 72,6 80,4 27,7 18,7 72,2 81,2 73,4 77 26,5 23 dmey 80,3 18,8 81,1 78 22 TAB . 4.19 – Moyenne des différents termes (%) obtenus par la matrice de confusion en utilisant l’algorithme basé sur la TO avec des images réelles. 4.9.4.2 Utilisation sur des images redressées L’avantage de la transformée en ondelette et de l’analyse multi-résolution est qu’elle ne nécessite aucun paramètres. Nous avons également testé cet algorithme sur des images redressées. 4.9.4.2.1 Images simulées Comme précédemment, seul les résultats obtenus avec une ondelette de Daubechies d’ordre 25 (db25), l’approximation de l’ondelette de Meyer discrète (dmey) et une ondelette biorthogonale d’ordre 3 pour la décomposition et d’ordre 5 pour la reconstruction seront utilisées. La figure 4.39 présente le résultat de la classification culture/adventice de l’image, montrée figure 4.17.c en utilisant l’analyse multirésolution avec une ondelette db25 (a) et une ondelette bior3.5 (b). A partir de ces images, nous remarquons que l’utilisation de l’ondelette db25 donne de meilleurs résultats sur la discrimination. En effet, la culture est mieux détectée avec l’utilisation de l’ondelette db25 qu’avec une ondelette bior3.5. Nous remarquons aussi que nous avons un problème de détection en bordure des lignes de semis avec certaines plantes dont les extrémités des feuilles sont classifiées à tort comme adventices. De plus, si nous regardons les matrices de confusion, nous nous apercevons que le pourcentage de Vraie Adventice et de Vraie Culture est nettement meilleur avec l’utilisation d’une ondelette db25 qu’une ondelette bior3.5. La figure 4.40 présente les graphiques des Taux d’Infestation détectés et des Taux de Culture détectés en fonction du Taux d’Infestation initial pour les trois types de distribution d’adventices. A partir de cette figure, nous pouvons admettre que l’utilisation d’une ondelette bior3.5 donne de moins bons résultats que l’utilisation d’une ondelette db25 ou dmey. Pour une distribution de type ponctuel (a), quelle que soit l’ondelette utilisée, nous remarquons une ”sous-détection” de la culture pour les Taux d’Infestation initiaux inférieurs à 30%, puis pour les taux supérieurs à 30%, nous obtenons une ”sur-détection” de la culture. 115 Chapitre 4. Algorithmes spatiaux (a) (b) F IG . 4.39 – Représentation d’une image redressée et discriminée avec un taux d’infestation initial de 30% en utilisant l’algorithme basé sur la TO en utilisant une ondelette de Daubechies d’ordre 25 (a) ou une biorthogonale de niveau 3 pour la décomposition et 5 pour la reconstruction. Les couleurs cyan et magenta représentent respectivement les prédictions correctes de la classe culture et de la classe adventice, alors que les couleurs rouge et verte représentent les fausses prédictions de la classe ”culture” et de la classe ”adventice”. Le même phénomène se produit pour un Taux d’Infestation initial de 50% pour une distribution d’adventices de type agrégatif (b). Pour une distribution d’adventices de type mixte, le phénomène se produit vers un Taux d’Infestation environ égal à 20%. Il est à noter que visuellement les meilleurs résultats sont obtenus avec une ondelette db25 ou dmey en utilisant une distribution d’adventices de type ponctuel. La figure 4.41 présente le pourcentage de Vraie Adventice (VA) et Vraie Culture (VC) en fonction du Taux d’Infestation initial. A partir de ces graphes, il est difficile de voir où se situe la ”sur-détection” de la culture, nous pouvons seulement dire que pour une distribution d’adventices de type ponctuel, nous avons une bonne détection de la culture et des adventices même pour des Taux d’Infestation initiaux élevés. Les distributions d’adventices de type agrégatif et mixte donnent aussi de bons résultats mais pour des Taux d’Infestation initiaux plus faibles. Type de distribution Erreur en % Culture Adventice Ponctuel bior3.5 db25 dmey 9,9 2,7 2,8 4 2,5 2,5 Agrégatif bior3.5 db25 dmey 11,5 3,9 4 7,2 5,8 5,8 Mixte bior3.5 db25 10,9 3,7 6,5 5 dmey 3,8 5,1 TAB . 4.20 – Moyenne des %FC soit l’erreur commise sur la classe ”culture” et %FA, l’erreur commise sur la classe ”adventice” pour trois ondelettes différentes. Le tableau 4.20 démontre que les meilleurs résultats sont obtenus avec l’utilisation d’une ondelette db25. Les résultats réalisés avec une ondelette dmey sont assez proches de ceux obtenus avec l’utilisation d’une ondelette db25. Les meilleures performances sont observées pour une distribution d’adventices de type ponctuel et en utilisant une ondelette db25 avec l’analyse multi-résolution avec un pourcentage d’erreur sur la culture de 2,7% et de 2,5% sur la classe ”adventice”. 116 4.9 (a) (b) (c) (d) Résultats et Discussion F IG . 4.40 – Représentation des Taux de Culture et d’Infestation détectés en fonction du Taux d’Infestation initial pour une distribution d’adventice de type ponctuel, agrégatif et mixte en utilisant l’algorithme basé sur la TO avec des images ayant été redressées. La figure 4.42, représente les graphiques ROC, avec l’utilisation des ondelettes bior3.5 (bleue), db25 (cyan) et dmey(rouge) superposés, pour chaque type de distribution d’adventices. Nous nous apercevons que le nuage de points représentant le graphique ROC de l’ondelette bior3.5 est éloigné des deux autres nuages ce qui prouve que l’utilisation d’une ondelette bior3.5 donne de moins bons résultats que l’utilisation des deux autres ondelettes. Une ondelette de daubechies d’ordre 25 donne approximativement les même résultats que l’approximation de l’ondelette discrète de Meyer. Soit un Taux de Fausse Adventice comprise entre 2,7 et 9,2% pour un Taux de Vraie Adventice de 91,8 à 93,5% pour une distribution d’adventices de type ponctuel. Il est à noter que pour des Taux d’Infestation initiaux inférieurs à 50%, le Taux de Fausse Adventice est inférieur à 5% pour un Taux de Vraie Adventice supérieur à 91,8%. Pour une distribution d’adventices de type agrégatif, nous avons un Taux de Fausse Adventice compris entre 2,7 et 12,3% pour un Taux de Vraie Adventice allant de 78 à 87%. Finalement pour le dernier type de distribution c’est-à-dire mixte, le Taux de Fausse Adventice est compris entre 2,4 et 12,5% pour un Taux de Vraie Adventice variant de 83,6 à 87,1%. Les meilleurs résultats ont été réalisés en utilisant une distribution d’adventices de type ponctuel. Le tableau 4.21 résume les différents termes standards calculés à partir de la matrice de confusion. La meilleure classification est obtenue avec une distribution d’adventices de type ponctuel et avec l’utilisation d’une ondelette de Daubechies d’ordre 25 avec un nombre de bonnes prévisions exact de 94,8%, soit en moyenne 95,6% de culture bien détectée et 92,3% d’adventices correctement classées. 117 Chapitre 4. Algorithmes spatiaux (a) (b) (c) (d) F IG . 4.41 – Représentation du pourcentage, de Vraie Adventice (%VA) et de Vraie Culture (%VC) détectés en fonction du taux d’infestation initial pour une distribution d’adventices de type ponctuel (a), agrégatif (b) et mixte (c) en utilisant l’algorithme basé sur la TO avec des images ayant été redressées. (a) (b) 5 93 86 75 84 15 90 TVA 82 5 55 80 15 20 30 30 25 20 25 65 65 60 60 55 45 50 35 45 5055 35 bior3.5 db25 dmey 10 87 5 80 75 91 TVA 88 bior3.5 db25 dmey 8080 55 2025 30 45 15 30 20 15 45 55 60 40 75 65 75 10 35 25 50 60 3540 80 70 6580 10 70 50 92 (c) 88 bior3.5 db25 dmey 5 20 10 20 15 30 50 50 25 30 40 5 3540 25 35 45 45 86 70 70 85 75 84 60 60 65 70 65 70 75 75 80 80 5555 40 40 65 TVA 94 70 83 60 15 89 82 78 10 55 30 20 55 80 88 10 35 45 87 10 75 30 76 70 30 10 80 25 74 25 20 79 2 4 6 8 10 12 TFA 14 16 18 20 72 0 5 10 15 TFA 45 15 40 60 55 5 10 86 70 65 35 40 20 80 75 50 81 50 35 5 65 25 50 60 40 45 15 20 25 78 0 5 10 15 20 25 TFA F IG . 4.42 – Représentation des graphiques ROC pour une distribution d’adventices de type ponctuel (a), agrégatif (b) et mixte (c) en utilisant l’algorithme basé sur la TO en utilisant des images ayant été redressées. 4.9.4.2.2 Images Réelles La figure 4.43.a présente l’image, No 2 de la base de données d’images réelles (cf. figure 4.18.b), redressée et classifiée. 118 4.9 Type de distribution Taux en % AC TFA TVC TVA TFC Ponctuel bior3.5 db25 86 94,8 15,1 4,3 84,8 95,6 87,9 92,3 12 7,6 dmey 84,8 4,4 95,5 92,3 7,7 Agrégatif bior3.5 db25 81,6 90,7 18 6,6 81,9 93,4 77,2 82 22,7 17,9 dmey 90,5 6,8 93,2 81,8 18,1 Résultats et Discussion Mixte bior3.5 db25 82,6 91,5 17,1 6,2 82,8 97,7 79,9 85 20,1 14,9 dmey 91,4 6,4 93,6 84,7 15,2 TAB . 4.21 – Moyenne des différents termes (%) obtenus par la matrice de confusion en utilisant l’algorithme basé sur la TO avec des images ayant été redressées. (a) (b) (c) (d) 95 bior3.5 db25 dmey 2 90 2 85 2 80 66 7 7 1 7 75 TVA 6 70 44 1 99 3 3 10 8 9 1 3 65 4 10 8 60 10 5 55 5 50 45 10 15 5 20 25 30 35 TFA F IG . 4.43 – (a)Illustration d’une image réelle redréssée et discriminée. (b)Représentation des Taux de Culture et d’Adventice détectés en fonction du Taux d’Infestation initial. (c)Représentation du pourcentage, de Vraie Adventice (%VA) et de Vraie Culture (%VC) détectés en fonction du Taux d’Infestation initial. (d)Représentation du graphique ROC. Pour des images réelles avec l’utilisation de l’algorithme basé sur la TO. Pour obtenir cette image, nous avons opté pour une ondelette de Daubechies d’ordre 25. Il apparaı̂t que nous avons une bonne détection des adventices avec 12,8% de bonne localisation sur 100% de la végétation contre une mauvaise détection de 1,7%. Par contre nous avons un problème avec la détection de la classe ”culture”. En effet, nous pouvons voir en couleur rouge, les erreurs obtenues sur la détection de cette classe surtout sur la troisième ligne de semis en partant de la gauche de l’image qui a été détectée pour moitié comme des adventices. La figure 4.43.b représente les Taux d’Infestation et de Culture détectés en fonction du Taux 119 Chapitre 4. Algorithmes spatiaux d’Infestation initial. Il existe une ”sur-détection” de la culture car les Taux d’Infestation détectés sont situés au dessus de la courbe théorique. La figure 4.43.c montre les pourcentages de Vraie Adventice et de Vraie Culture obtenus suivant le Taux d’Infestation présent dans l’image originale. Nous remarquons que nous avons une détection correcte de la classe ”adventice” contrairement à la classe ”culture” qui est ”sous-détectée”. Ces hypothèses se vérifient avec les données du tableau 4.22. En effet, nous avons des moyennes de pourcentage de Fausse Adventice de 6,6% et 14,4% pour la Vraie Culture avec l’utilisation d’une ondelette db25 qui donne les meilleurs résultats, alors qu’une ondelette bior3.5 conduit à une plus grosse erreur sur la culture. La figure 4.43.d représente le graphique ROC avec l’utilisation des ondelettes bior3.5 (noir), db25 (cyan) et dmey (rouge). Le nuage rouge et cyan démontre que le Taux de Fausse Adventice est inférieur à 25% pour un Taux de Vraie Culture supérieur à 50%. Le nuage noir présente un Taux de Fausse Adventice inférieur à 35% pour un Taux de Vraie Culture supérieur à 55%. A partir de ce graphique et du tableau 4.23, il est apparaı̂t que l’utilisation d’une ondelette de Daubechies d’ordre 25 permet une meilleure détection avec une proportion de bonnes prévisions égales à79% avec en moyenne sur la série d’images un Taux de Vraie Culture de 51,5% pour un Taux de Vraie Adventice de 69,6% Type de distribution Erreur en % Culture Adventice Réel bior3.5 db25 20,2 14,4 6,2 6,6 dmey 14,5 6,7 TAB . 4.22 – Moyenne des %FC soit l’erreur commise sur la classe ”culture” et %FA, l’erreur commise sur la classe ”adventice” en utilisant l’algorithme basé sur la TO avec des images réelles redressées. Type de distribution Taux en % AC TFA TVC TVA TFC bior3.5 73,6 26 74 71,8 28,2 Réel db25 79 18,5 81,5 69,6 30,4 dmey 78,8 18,6 81,4 69,3 30,6 TAB . 4.23 – Erreur commise sur la détection de la culture et des adventices pour la base de données No 1 en utilisant l’algorithme basé sur la TO avec des images réelles redressées. 4.9.5 Algorithme basé sur la transformée de Hough 4.9.5.1 Images simulées La figure 4.44 présente les résultats de la classification culture/adventice de l’image présenté figure 4.17.c obtenus à partir l’algorithme basé sur la transformée de Hough. A partir de cette image et de sa matrice de confusion, nous remarquons que nous avons un faible pourcentage de Fausse Culture avec 0,8% mais avec un pourcentage de Fausse Adventice élevé qui est de 32,3%. Ce résultat s’explique sur la non détection de certaines lignes de semis (couleur rouge sur l’image). Ici nous ne présentons qu’une seule image, il ne faut donc considérer que ce problème est général. Nous allons étudier les graphiques de la figure 4.45 afin d’avoir une idée des performances moyennes de la méthode. 120 4.9 Résultats et Discussion F IG . 4.44 – Représentation d’une image discriminée avec un Taux d’Infestation initial de 30% en utilisant l’algorithme basé sur la TH. Les couleurs cyan et magenta représentent respectivement les prédictions correctes de la classe ”culture” et de la classe ”adventice”, contrairement aux couleurs rouge et verte qui représentent les fausses prédictions de la classe ”culture” et de la classe ”adventice”. F IG . 4.45 – Représentation des Taux de Culture et d’Infestation détectés en fonction du Taux d’Infestation initial pour une distribution d’adventices de type ponctuel, agrégatif et mixte en utilisant l’algorithme basé sur la TH. Cette figure présente quel que soit le type de distribution des adventices, une ”sur-détection” des adventices, ce qui permet de penser que nous avons un problème concernant la détection de la culture. Afin de vérifier cette hypothèse, nous utilisons les graphes représentant la matrice de confusion (figure 4.46). Cette figure présente les courbes de Vraie Adventice et de Vraie Culture en fonction du Taux d’Infestation initial pour les différents types de distribution d’adventices. Ces graphes permettent de vérifier l’hypothèse émise pour la ”sur-détection” de la classe ”adventice”. En effet, nous avons une ”sous-détection” de la classe ”culture” alors que ce n’est pas le cas pour la classe ”adventice” qui est pratiquement confondue avec la courbe théorique. Ce problème s’explique le plus souvent par la non détection des lignes de semis dans les coins en haut à gauche et en haut à droite de l’image. En effet sur les images traitées, ce problème est souvent observé. En revanche, généralement le reste des lignes de semis est bien détecté. Le résultat des moyennes de Fausse Culture et de Fausse Adventice est donné par le tableau 4.24. 121 Chapitre 4. Algorithmes spatiaux (a) (b) (c) (d) F IG . 4.46 – Représentation du pourcentage, de Vraie Adventice (%VA) et de Vraie Culture (%VC) détectés en fonction du Taux d’Infestation initial pour une distribution d’adventice de type ponctuel (a), agrégatif (b) et mixte (c) en utilisant l’algorithme basé sur la TH. Ce tableau nous permet d’affirmer que nous avons un pourcentage de Fausse Adventice variant de 2% pour une distribution de type ponctuel à 2,5% pour une distribution de type mixte. Pour la Fausse Culture, le pourcentage est de 11,6% à 13,1%. Les meilleurs résultats sont donnés pour une distribution d’adventices de type ponctuel. hhh hhhh Type de distribution hhh Ponctuel hhhh Erreur en % hh h Culture Adventice 11,6 2 Agrégatif Mixte 12,9 2,2 13,1 2,5 TAB . 4.24 – Moyenne des %FC soit l’erreur commise sur la classe ”culture” et %FA, l’erreur commise sur la classe ”adventice” en utilisant l’algorithme basé sur la TH. Concernant les graphiques ROC présentés en figure 4.47, il apparaı̂t que pour une distribution de type ponctuel, nous avons un Taux de Fausse Adventice compris entre 0,4% et 45% pour un Taux de Vraie Adventice variant de 92,6 à 95,3%. Si le Taux d’Infestation initial présent dans l’image est inférieur à 45%, le Taux de Vraie Adventice est supérieur à 93,5% pour un Taux de Fausse Adventice inférieur à 15%. Il en est de même pour une distribution de type agrégatif pour un T Iinit < 45%, le Taux de Vraie Adventice est supérieur à 89% pour un Taux de Fausse Adventice inférieur à 20%. Ces derniers résultats sont valables aussi avec une 122 4.9 Résultats et Discussion distribution de type mixte. Le tableau 4.47 résume les valeurs de Taux de Vraie Adventice et Culture et de Taux de Fausse Adventice et Fausse Culture. Nous remarquons que les meilleurs résultats sont obtenus pour une distribution de type ponctuel avec un nombre de détections correct égal à 86,4%. Pour cette distribution, nous avons, en moyenne, un Taux de Vraie Culture de 80,1% pour un Taux de Vraie Adventice de 94,25% (a) (b) (c) 96 95.5 96 15 5 95 80 95 55 95 55 94 40 94 35 50 60 TVA TVA 94 70 45 15 93 75 65 70 93 30 35 55 60 40 5025 15 75 20 92 10 45 60 50 20 TVA 10 94.5 45 25 30 35 5 92 65 40 30 25 5 70 91 93.5 20 91 90 65 93 90 80 89 5 10 15 20 25 30 35 40 45 80 10 75 92.5 50 89 TFA 0 10 20 30 40 TFA 50 60 70 80 88 10 15 20 25 30 TFA 35 40 45 50 F IG . 4.47 – Représentation des graphiques ROC pour une distribution d’adventices de type ponctuel (a), agrégatif (b) et mixte (c) en utilisant l’algorithme basé sur la TH. hhhh hhhType de distribution hhhh Ponctuel hhh Taux en % hh h AC TFA TVC TVA TFC 86,4 19,2 80,1 94,2 5,7 Agrégatif Mixte 85,2 22,5 77,4 92,9 7 84,4 21,6 78,4 92,8 7,1 TAB . 4.25 – Erreur commise sur la détection de la classe ”culture” et de la classe ”adventice” pour la base de données No 1 en utilisant l’algorithme basé sur la TH. 4.9.5.2 Images réelles Nous avons testé cet algorithme avec des images réelles. La figure 4.48.a représente l’image No 2 discriminée. Elle est issue de la base de données d’images réelles (figure 4.17.c). A partir de cette image, nous remarquons un problème de détection sur la culture sur les coins haut gauche et droite de l’image comme pour dans le cas d’images simulées. Mais il apparaı̂t aussi un problème de détection sur certaines lignes de semis. Nous pouvons également remarquer qu’une tache d’adventices ayant une partie commune avec de la culture est considérée à tort comme de la culture, ceci provient de l’étiquetage de l’image par la méthode de blob-coloring. En effet cette tache d’adventices a la même étiquette que la culture détectée avec la transformée de Hough. Les figures 4.48.b et 4.48.c démontrent que cet algorithme classifie très mal la culture avec une moyenne sur le pourcentage de Fausse Culture égale à 42,4% alors que le pourcentage de Fausse Adventice est de 5,3%. Finalement le graphique ROC présenté figure 4.48.d démontre l’incapacité de l’algorithme à classifier la culture et les adventices. En effet, nous pouvons voir pour la plupart des points (en haut du graphe) que nous avons un Taux de Vraie Adventice excellent pour un Taux de Fausse Adventice énorme. Cela implique que le plus souvent, la classe ”culture” est très mal détectée. Ceci est confirmé par le tableau 4.27 qui présente une proportion du nombre de prévisions correctes de 52,2% avec un Taux de Vraie Adventice de 82,3% pour un Taux de Vraie Culture de 46,7%. 123 Chapitre 4. Algorithmes spatiaux (a) (b) (c) (d) 100 3 1 5 6 9 90 4 7 80 2 TVA 70 60 50 40 10 8 30 0 10 20 30 40 50 TFA 60 70 80 90 100 F IG . 4.48 – (a)Illustration d’une image discriminée. (b)Représentation des Taux de Culture et d’Adventice détectés en fonction du Taux d’Infestation initial. (c)Représentation du pourcentage, de Vraie Adventice (%VA) et de Vraie Culture (%VC) détectés en fonction du Taux d’Infestation initial. (d)Représentation du graphique ROC. Pour des images réelles avec l’utilisation de l’algorithme basé sur la TH. hhhh hhh Type de distribution hhhh Réel hhhh Erreur en % h h Culture Adventice 42,4 5,3 TAB . 4.26 – Moyenne des %FC soit l’erreur commise sur la classe ”culture” et %FA, l’erreur commise sur la classe ”adventice” en utilisant l’algorithme basé sur la TH avec des images réelles. hhh hhhhType de distribution hhhh Réel hhh Taux en % hh h AC TFA TVC TVA TFC 52,2 53,2 46,7 82,3 17,6 TAB . 4.27 – Erreur commise sur la détection de la classe ”culture” et de la classe ”adventice” pour la base de données No 3 en utilisant l’algorithme basé sur la TH. 124 4.9 Résultats et Discussion 4.9.6 Bilan Nous venons de voir précédemment les performances de classification de chaque algorithme étudié. D’une façon générale, il apparaı̂t que les résultats obtenus pour chaque algorithme sont de meilleure qualité avec les images simulées et pour une distribution d’adventices de type ponctuel. Nous avons décidé pour cette synthèse de représenter, les pourcentages de Vraie Adventice et de Vraie Culture en fonction du Taux d’Infestation initial pour chaque type d’algorithme sur une même figure afin de faire un comparatif général et ceci pour les 3 bases de données existantes. Pour les bases de données d’images simulées No 1 (f=16mm) et No 2 (f=8,5mm), nous représenterons seulement le type de distribution ponctuel. (a) (b) 90 90 80 80 70 70 60 60 %VA et %VC 100 %VA et %VC 100 50 40 50 40 30 30 20 20 10 10 0 0 −10 0 10 20 30 TIinit 40 −10 50 (c) 0 10 20 30 TIinit 40 50 60 (d) 100 90 80 70 %VA et %VC 60 50 40 30 20 10 0 −10 0 5 10 15 20 TIinit 25 30 35 40 F IG . 4.49 – Représentation des pourcentages, de Vraie Adventice (%VA) et de Vraie Culture (%VC) détectés en fonction du Taux d’Infestation initial pour une distribution d’adventices de type ponctuel avec les différents algorithmes étudiés pour les bases de données simulées No 1 (a) et No 2 (b) et de données réelles No 3 (c). La figure 4.49.d, présente la légende des graphes avec : – – – – – – VA, Vraie Adventice, VC, Vraie Culture, TF, algorithme utilisant la Transformée de Fourier, TF redresse, algorithme utilisant la Transformée de Fourier avec des images ayant été redressées, TFG, algorithme utilisant la Transformée de Fourier à Fenêtre Glissante, TO, algorithme utilisant la Transformée en Ondelette avec une ondelette de Daubechies d’ordre 25, 125 Chapitre 4. Algorithmes spatiaux – TO redresse, algorithme utilisant la Transformée en Ondelette avec une ondelette de Daubechies d’ordre 25 et des images redressées, – TH, algorithme utilisant la Transformée de Hough. Les représentations sur les figures 4.49.a et 4.49.b démontrent que pour deux systèmes optiques différents, les algorithmes se comportent de la même manière. En effet nous nous apercevons que les méthodes basées sur la transformée de Fourier permettent une bonne détection de la classe ”culture” et une mauvaise de la classe ”adventice”, nous effectuons donc une ”sur-détection” de la classe ”culture”. En revanche, les autres algorithmes permettent une bonne détection de la classe ”adventice” et de la classe ”culture”, avec une moins bonne détection de cette dernière pour l’algorithme utilisant la transformée de Hough. Les algorithmes les plus performants sont ceux utilisant la transformée en ondelette. Utiliser des images redressées avec cet algorithme donnerait donc la meilleure discrimination culture/adventice. Cependant, cet algorithme ”sur-détecte” la classe ”adventice”. La figure 4.49.c permet de conclure que les résultats obtenus avec des images simulées ne correspondent pas exactement à la réalité surtout avec l’utilisation de la transformée de Hough. Mais l’utilisation d’une analyse multirésolution basée sur la transformée en ondelette avec une ondelette de Daubechies d’ordre 25 présente la meilleure classification sur des images agronomiques réelles. La figure 4.50 présente, les graphiques ROC des trois bases de données. Pour les bases de données d’images simulées No 1 et No 2, nous représenterons seulement les graphes obtenus avec l’utilisation d’une distribution d’adventices de type ponctuel car cette dernière permet une meilleure classification culture/adventice. (a) (b) 0.95 0.9 0.9 0.8 0.85 0.7 TVA TVA 0.8 0.6 0.75 0.7 0.5 0.65 0.4 0.6 0.3 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 TFA 0.05 0.1 0.15 0.2 0.25 0.3 TFA (c) (d) 1 0.9 0.8 0.7 TVA 0.6 0.5 0.4 0.3 0.2 0.1 0.1 0.2 0.3 0.4 0.5 TFA 0.6 0.7 0.8 0.9 F IG . 4.50 – Représentation des graphiques ROC, pour une distribution d’adventices de type ponctuel pour les bases de données simulées No 1 (a) et No 2 (b) et de données réelles No 3 (c). Les figures 4.50.a et 4.50.b démontrent bien que quel que soit le système optique utilisé, nous obtenons sensible126 4.9 Résultats et Discussion ment les mêmes résultats, exception faite pour l’algorithme utilisant la transformée en ondelette. En effet, nous remarquons que pour la base de données No 2, redresser les images donne de moins bons résultats alors que ce n’est pas le cas pour la base de donnée No 1. A partir de ces graphes, nous pouvons conclure que nous avons une bonne localisation de la culture lorsqu’un algorithme basé sur la transformée de Fourier est utilisé, surtout avec l’utilisation d’image redressée ou de la transformée de Fourier à fenêtre glissante. Globalement, l’utilisation de l’algorithme basé sur la transformée de Fourier et le filtre de Gabor présente de meilleurs résultats qu’en redressant les images ou en utilisant un fenêtrage. L’utilisation de la transformée de Hough permet une bonne localisation des adventices mais pas de la culture. Finalement, le résultat optimum pour la classification est obtenu avec l’utilisation de l’algorithme basé sur la transformée en ondelette avec une ondelette de Daubechies d’ordre 25. La figure 4.50.c confirme ces résultats sur des images agronomiques réelles. Finalement, les tableaux 4.28, 4.29 et 4.30 présentent respectivement les moyennes de : la proportion du nombre de prévisions correctes AC, le Taux de Fausse Adventice T FA, le Taux de Vraie Culture TVC, le Taux de Vraie Adventice TVA et le Taux de Fausse Culture T FC pour chaque type d’algorithme utilisé et pour chaque base de données. hhh hhhh Type d’algorithme hhh TF hhhh Taux en % hh h AC TFA TVC TVA TFC 87,6 2,9 97 65,2 34,7 TF redresse TFG TO TO redresse TH 88 0,4 99,6 62 38 87,5 1,6 98,3 62,6 37,4 91,8 9 91 92,5 7,5 94,8 4,3 95,6 92,3 7,6 86,3 19,2 80,1 94,2 5,7 TAB . 4.28 – Synthèse de chaque algorithme testé avec la base de données d’images simulées No 1 avec une distribution d’adventices de type ponctuel. hhhh hhh Type d’algorithme hhhh TF hhh Taux en % hh h AC TFA TVC TVA TFC 85,5 4,9 95,1 64,1 35,9 TF redresse TFG TO TO redresse TH 85 3 97 59,1 40,8 86 2,5 97,5 60,9 39,1 94 5,8 94,2 92,5 7,4 92,9 6,3 93,6 90,2 9,7 86,4 16 84 89,6 10,3 TAB . 4.29 – Synthèse de chaque algorithme testé avec la base de données d’images simulées No 2 avec une distribution d’adventices de type ponctuel. hhhh hhh Type d’algorithme hhhh TF hhhh Taux en % h h AC TFA TVC TVA TFC 78,1 6,4 93,5 32,1 67,9 TF redresse TFG TO TO redresse TH 83 3,7 96,2 39,3 60,8 82 3,3 96,6 37,4 62,6 80,4 18,7 81,2 77 23 79 18,5 81,5 69,6 30,4 52,2 53,2 46,7 82,3 17,7 TAB . 4.30 – Synthèse de chaque algorithme testé avec la base de données d’images réelles (No 3). 127 Chapitre 4. Algorithmes spatiaux 4.9.7 Réflexion générale sur l’imagerie pour la lutte contre les adventices Les algorithmes basés sur la transformée de Fourier nécessitent des images de taille en puissance de deux (2n ) afin que l’algorithme soit le plus efficace. Si nous voulons traiter des images avec la taille originale de l’image, dans notre cas 1598 × 1199. Les autres algorithmes peuvent traiter directement l’image dans sa taille d’origine. Les algorithmes spatiaux sont incapables de détecter des adventices dans le rang alors que les algorithmes spectraux le peuvent. Il serait donc intéressant d’envisager une fusion des méthodes spectrales et spatiales afin d’avoir des algorithmes plus robustes. Mais nous avons vu qu’une caméra multispectrale nécessite une roue de filtres ce qui rend le temps réel difficile. Une alternative à ce problème est d’utiliser des miroirs fixés sur une seule caméra afin de faire de la stéréo vision en utilisant deux filtres différents pour avoir deux images identiques mais issues de longueurs d’onde différentes. Notre laboratoire a étudié la faisabilité d’un tel système, il en résulte que ce système semble réalisable (Gée et al., 2008). Dans ces conditions, lors de la réalisation du prototype, nous nous sommes restreints aux algorithmes spatiaux. 4.10 Conclusion A travers ce chapitre, nous avons exposé et expliqué tous les algorithmes de classification basés sur une approche spatiale élaborés durant ces travaux de thèse puis nous avons exposé l’ensemble des résultats de classification obtenus pour les différents algorithmes étudiés afin d’en définir les avantages et les inconvénients. Les algorithmes basés sur la transformée de Fourier permettent une bonne localisation de la culture et une moins bonne des adventices. Le fait que nous ayons une faible reconnaissance de l’ordre de 50% des adventices est la conséquence d’une ”sur-détection” de la culture. Cette ”sur-détection” s’explique par une mauvaise binarisation des images originales et du résultat du filtrage. Le rendu de cette binarisation par clustering ne donne pas exactement la classe culture initiale. Il est possible d’améliorer la classification à partir du résultat du filtrage en utilisant une classification Bayésienne. Si nous arrivons à avoir une meilleure détection de la culture, c’està-dire sans ”sur-détection”, les trois algorithmes utilisant la transformée de Fourier seraient ainsi plus robustes. Pour ce qui concerne les algorithmes basés sur l’utilisation d’une analyse multi-résolution, nous avons une très bonne détection des adventices et une erreur de détection sur la culture, malgré tout, très faible. Ici, à l’inverse de l’utilisation de la transformée de Fourier, nous avons une ”sur-détection” des adventices, nous pourrions, pour résoudre ce problème, envisager aussi une approche Bayésienne pour affiner la classification de la culture et des adventices. Il pourrait être aussi envisageable de tester l’algorithme basé sur l’analyse multirésolution avec d’autre types d’ondelettes, par exemple des ondelettes de Daubechies avec un ordre supérieur à 25. L’algorithme basé sur la transformée de Hough permet une très bonne localisation des adventices. La détection de la culture est biaisée surtout avec la non détection de certaines lignes de culture. Par contre, dans le cas d’images réelles, cet algorithme est incapable de détecter les deux classes, ”culture” et ”adventice”. Nous devrions optimiser cet algorithme en privilégiant une meilleure détection des lignes de semis et de la culture en général, un algorithme de ce type a été optimisé avec succès dans notre laboratoire par Jones et al (Jones et al., 2007b). Pour poursuivre notre étude sur le développement d’un pulvérisateur par imagerie en temps réel, nous avons opté pour l’utilisation d’un filtre de Gabor du fait de sa mise en œuvre simple et de ses temps de calcul cours. 128 Chapitre 5 Mise en œuvre du prototype réalisé Sommaire 5.1 5.2 5.3 5.4 5.5 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Premiers tests de gestion des électrovannes pneumatiques . . . . . . . . . . . . . . . . . Premiers tests sur l’algorithme basé sur la transformée de Fourier et du filtre de Gabor Poursuite de l’étude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 129 130 133 133 5.1 Introduction Au cours des précédents chapitres, nous avons étudié indépendamment les uns des autres, les principaux éléments du futur prototype : de la prise d’images à l’extraction des temps de déclenchement et d’ouverture des électrovannes pneumatiques à partir d’un algorithme de discrimination culture/adventices judicieusement choisi. A travers ce chapitre, l’ensemble de ces techniques vont être réunies pour permettre la réalisation du prototype de pulvérisation localisée par imagerie. Différentes étapes de test sont présentées. Elles ont pour but de cibler rapidement les éventuels problèmes. A l’issue de ces tests, nous conclurons sur la faisabilité d’un tel système pour une éventuelle commercialisation. Ces résultats ont été présentés dans différentes conférences, accompagnées de vidéo. 5.2 Premiers tests de gestion des électrovannes pneumatiques Dans un premier temps, afin de tester le déclenchement automatique des buses, nous avons travaillé sur le parking de notre établissement en disposant des objets de couleur blanche, qui ont pour but de modéliser une tache de végétation. Le choix de couleur a pour but de simplifier la procédure de binarisation pour discriminer le sol de la végétation (blanc). Nous avons utilisé comme paramètres optique initiaux, une hauteur de caméra de 1,06 mètres, un angle de lacet nul et un angle de tangage à 58˚ et nous avons utilisé une focale de 8,5mm. Dans ces conditions, et comme le sol est considéré comme plat, il n’est pas nécessaire de faire une autocalibration des paramètres extrinsèques de la caméra. Avec ces paramètres, la scène filmée correspond à un trapèze de hauteur égale à 3,11 mètres avec une petite base de 1,10 mètres et ayant pour grande base 3,29 mètres. La dimension de la scène implique qu’au maximum, seul les quatre buses centrales seront utilisables. Afin de détecter ces objets blancs, sur le sol gris, nous avons effectué un simple seuillage afin de ne récupérer que les objets blancs de l’image représentant donc la carte d’infestation. Puis comme expliqué au chapitre 2.3.3.4, une table de chronogrammes des électrovannes pneumatiques a été réalisée. Pour ce test, la vitesse du tracteur (position tortue 1) variait entre 1,5 km/h et 2 km/h. Comme le montre la figure 5.1, le prototype pulvérise bien sur les objets. Un autre essai a été réalisé pour une vitesse plus élevée (en tortue 2) variant de 4,8 à 5,3 km/h, et les résultats sont tout aussi probants. Le seul problème rencontré à cette vitesse est la prise de mesures de vitesse 129 Chapitre 5. Mise en œuvre du prototype réalisé avec le capteur ILS qui parfois donne des valeurs erronées. Donc, cela soulève un problème sur le capteur de vitesse utilisé qui peut être la conséquence d’un problème électronique ou autre mais qui n’a pas encore été résolu. (a) (b) (c) F IG . 5.1 – (a)Cible avant traitement. (b)Cible après traitement. (c)Plusieurs cibles traitées après passage du prototype. 5.3 Premiers tests sur l’algorithme basé sur la transformée de Fourier et du filtre de Gabor Maintenant que nous avons démontré la faisabilité de fonctionnement du prototype pour le déclenchement automatique des buses, nous avons implémenté un algorithme de discrimination de culture/adventices dans le prototype. L’algorithme le plus facile à mettre en œuvre pour le temps réel, est l’algorithme basé sur le filtre de Gabor. Dans ces conditions, sachant que pour ce type d’algorithme, la taille de l’image doit être une puissance de deux, nous avons utilisé une image de taille 1024 × 1024 soit une scène filmée avec un trapèze de hauteur égale à 2,43 mètres, une petite base de 0,708 mètres et une grande base de 1,64 mètres. Afin de tester le prototype, nous avons modélisé une scène agronomique sur le parking de notre établissement. Nous avons représenté une partie d’un champ de blé dont les lignes de culture (réalisées avec de l’adhésif blanc) ont une largeur de cinq centimètres et un inter-rang d’environ seize centimètres. Puis nous avons positionné différentes adventices (morceaux de papier) dans la scène comme montré sur la figure 5.2.a. (a) (b) (c) F IG . 5.2 – (a) Modélisation d’une culture de blé réalisée avec de l’adhésif blanc. (b) Représentation d’une image acquise et seuillée de ce champ de taille 1024 × 1024. (c) Discrimination de la culture (couleur verte) des adventices (couleur rouge), la couleur noire représente le sol. 130 5.3 Premiers tests sur l’algorithme basé sur la transformée de Fourier et du filtre de Gabor Les quelques essais réalisés ont été très concluants en montrant que le déclenchement des EVP est bien réalisé uniquement sur les taches d’adventices quelle que soit la vitesse d’avancement du tracteur. Cependant, nous savons (chapitre 4) que l’algorithme utilisant le filtre de Gabor montre quelques faiblesses concernant la discrimination culture/adventices surtout pour le traitement du haut de l’image. Le tableau 5.1 présente les différents temps d’exécution de chaque étape du programme. Étape de traitement d’image Acquisition d’image Filtrage Binarisation Discrimination culture/adventice Blob coloring Création des chronogrammes des EVP Temps total moyen Temps d’exécution (ms) 1/120=8,33 284 63 25 39 18 437,32 Pourcentage du temps total (%) 1,90 64,94 14,40 5,72 8,92 4,11 100 TAB . 5.1 – Différents temps d’exécution des différentes parties du programme de discrimination de l’acquisition d’image à la création de la table des chronogrammes des EVP. Parmi ces temps, nous avons défini : 1. la durée de l’acquisition d’image. Ce temps dépend en fait du temps d’intégration de la caméra pour permettre la prise d’image, lors de nos essais et de manière générale, ce temps est de 1/120 seconde, soit environ 8,33ms, 2. le temps pour la partie filtrage de l’image comprend le calcul de la transformée de Fourier de l’image acquise, la création du filtre de Gabor dans le domaine fréquentiel, le produit de ces deux entités donnant le résultat du filtrage puis la transformée de Fourier inverse de ce résultat, soit un temps d’exécution de 284ms dont 254 ms sont nécessaires pour créer le filtre d’une taille de 1024 × 1024, 3. le temps de la binarisation comprend la binarisation de l’image originale (seuillage blanc/noir) dont nous pouvons voir un exemple de résultat figure 5.2.b et de l’image résultante du filtrage soit une durée de 63ms, 4. le temps concernant la discrimination culture/adventices. Ce temps inclut le temps nééssaire au ET logique entre l’image acquise binarisée et le négatif du résultat de l’étape précédente. Cette étape dure 25ms. Au passage un exemple de ce résultat est présenté sur la figure 5.2.c. Il est à noter que nous retrouvons sur cette image les problèmes énoncés dans la section 4.9 à savoir une mauvaise détection sur le haut de l’image et, le fait que les adventices doivent être situées le plus possible au centre de l’intervalle séparant deux lignes de semis, 5. le temps pour la réalisation du blob-coloring qui correspond à l’étiquetage de la carte d’infestation obtenue dans l’étape précédente, soit une durée de 39ms. Ce temps est une valeur moyenne et peut varier suivant le nombre de pixels ayant une amplitude différente de zéro. En effet une valeur de un conduit à un calcul contrairement à une valeur nulle, 6. le temps pour la création des chronogrammes des EVP. Comme son nom l’indique, c’est le temps nécessaire pour créer les chronogrammes des EVP à partir du résultat précédent, soit 18ms. L’algorithme nécessite donc un temps de calcul de 437,33 ms à partir de l’acquisition de l’image jusqu’à la création des chronogrammes des électrovannes pneumatiques. Nous pouvons remarquer que c’est la création du filtre qui réquisitionne le plus de temps avec 254ms soit environ 58,1% du temps total. Il est à noter que lors de cette procédure, les temps d’autocalibration de la caméra n’ont pas été pris en compte puisque les essais ont été réalisés sur sol plat. La vitesse de pulvérisation en France est d’environ 10 km/h (environ 2,77 m/s), et sachant que la réalisation des chronogrammes doit être effectuée avant chaque nouvelle prise d’image, c’est-à-dire avant que le tracteur 131 Chapitre 5. Mise en œuvre du prototype réalisé ait parcouru 2,43 mètres, nous pouvons définir le temps t à ne pas dépasser pour l’exécution du programme, 2, 43 ≃ 875ms. Ainsi, ce temps étant supérieur au temps d’exécution du programme, nous pouvons donc soit 2, 77 admettre que notre prototype peut pulvériser à 10km/h avec une certaine marge de sécurité pour intégrer d’éventuelles fonctions plus sophistiquées pour améliorer la détection (implémentation d’autres algorithmes ou autocalibration). Il faut également faire attention à cette vitesse car elle dépend non seulement des paramètres intrinsèques mais aussi des paramètres extrinsèques du système optique. F IG . 5.3 – Résultat de la pulvérisation du prototype fonctionnant avec un algorithme de discrimination basé sur le filtre de Gabor. La vitesse du tracteur varie actuellement entre 1,5 et 2 km/h. La figure 5.3 présente un exemple de notre prototype pulvérisant sur les adventices. Nous nous apercevons également que les taches de pulvérisation sont présentes le plus souvent aux endroits où les adventices sont placées et rarement ailleurs. Nous pouvons remarquer que les taches de pulvérisation sont larges, cela dépendant du type de buses utilisées. Le point négatif avec l’algorithme implémenté est que les problèmes de discrimination culture/adventices se répercutent sur le motif de pulvérisation. En effet la mauvaise détection sur le haut des images traitées déclenche une pulvérisation alors qu’aucune adventice est présente dans la scène. Mais après les premiers essais, nous pouvons conclure que le prototype se comporte, dans son ensemble, correctement sur sol plat. Cette étape de test a permis de comprendre qu’en absence d’adventices, une pulvérisation est parfois réalisée à cause d’une erreur de détection produite par le traitement d’image utilisé. A partir des expériences présentées ci-dessus, nous pouvons admettre que notre prototype permet en temps réel, et à la vitesse nominale de pulvérisation française, d’acquérir une scène et de la traiter afin de pouvoir pulvériser au bon moment et au bon endroit la bonne dose d’herbicide en présence d’adventices. Ces expériences permettent aussi d’affirmer que la vitesse théorique maximale de notre pulvérisateur est estimée à 20km/h pour les paramètres du système optique suivant : une focale de 8,5mm, un angle de tangage de 58˚ et une hauteur de caméra de 1,06m. Maintenant que les premiers tests ont été validés avec succès, nous devons tester ce prototype en conditions 132 5.4 Poursuite de l’étude réelles, c’est-à-dire sur de vraies parcelles cultivées. 5.4 Poursuite de l’étude Pour les prochains essais en champ, il deviendra nécessaire d’implémenter la méthode d’autocalibration des paramètres extrinsèques pour connaı̂tre la position du système optique dans l’espace monde à chaque prise d’image. En effet dans ces conditions de travail, le sol est rarement plat et présente le plus souvent des dévers. D’autre part, il serait intéressant d’implémenter les autres algorithmes afin de valider leur fonctionnement en temps réel si cela est possible et de choisir celui donnant le meilleur compromis classification et temps de traitement afin d’avoir un prototype optimum. Dans ces conditions, nous pourrions faire une étude économique et environnementale de notre système afin de le comparer aux systèmes de désherbage localisé existant comme nous avons pu le voir dans le chapitre 1. Nous devons être capables pour la suite soit d’optimiser le code du logiciel de commande de notre pulvérisateur afin de diminuer les temps de traitement soit d’utiliser un processeur plus puissant. Le mieux serait d’utiliser un processeur double cœur afin que chacun puisse effectuer une des taches présentées dans le chapitre 2 afin d’avoir du ”vrai parallélisme”. Notre établissement va bientôt acquérir un nouveau tracteur avec un ordinateur de bord et un régulateur de vitesse. La régulation de vitesse nous permettrait de ne plus utiliser de capteur de vitesse et d’alléger aussi bien le code du logiciel de fonctionnement du prototype et le code commandant la carte de contrôle faisant le lien entre le système de vision et les actionneurs. Il serait intéressant d’envisager l’interfaçage entre l’ordinateur du prototype et l’ordinateur de bord de ce nouveau tracteur. 5.5 Conclusion Ce chapitre a permis de présenter la mise en œuvre l’ensemble du prototype et de le tester dans un premier temps sur un sol plat et uniforme. Lors de cette étude, deux tests ont été réalisés, l’un permettant de vérifier la bonne gestion des EVP, l’autre de tester l’algorithme du filtre de Gabor implémenté en temps réel pour une discrimination culture/adventices. Lors de ce deuxième test, il a pu être mis en évidence que l’algorithme utilisé semble être limité pour cette discrimination sur la partie haute des images. Ceci est dû au fait que l’image présente une perspective trop prononcée. La dernière étape de validation de ce prototype est de le tester en temps réel sur des parcelles cultivées et de vérifier que la pulvérisation d’herbicides est bien efficace. 133 Chapitre 5. Mise en œuvre du prototype réalisé 134 Conclusion générale L’utilisation de l’imagerie comme outil d’aide à la décision pour un désherbage chimique localisé en temps réel est un sujet encore peu exploité. A travers cette thèse, nous avons montré tous les avantages qu’il y avait à exploiter cet outil notamment pour la réduction des traitements herbicides tout en préservant une efficacité totale concernant non seulement le désherbage mais aussi concernant la réduction des coûts pour l’agriculteur. En effet, ce type de prototype permettrait de respecter la nouvelle législation européenne qui est de plus en plus sévère en ce qui concerne les doses d’intrants à déposer sur la parcelle cultivée. Les éléments apportés au cours de cette thèse ont permis d’explorer (ou de réexplorer) différentes méthodes de discrimination entre la culture et les adventices et par ce biais, de dégager une méthode d’imagerie pour la réalisation d’un système de vision pour une pulvérisation spécifique en temps réel. Le prototype ainsi développé a été conçu dans le but d’être adaptable à n’importe quel type de tracteur et quelque soit le système de vision utilisé. Au cours du chapitre 2, nous avons longuement présenté la conception et réalisation de ce prototype en discutant le choix des techniques pour permettre au système d’être le plus universel possible comme par exemple, le choix de l’orientation de la caméra. D’autre part, l’utilisation d’un pulvérisateur régulé en pression et utilisant des électrovannes pneumatiques (EVP) s’avère être le meilleur choix pour maintenir le débit en sortie des buses quelque soit le nombre de buses qui s’ouvrent en temps réel. En revanche, une étude détaillée devrait être conduite pour étudier le temps de réponse d’une EVP et vérifier que le temps nécessaire pour atteindre un régime permanent est suffisamment rapide. Au cours de cette thèse, nous avons pu choisir de façon délibérée le type d’algorithme de discrimination culture/adventices que nous souhaitions implémenter en temps réel au moyen de l’utilisation d’images modélisées. Cette méthode nous a permis de tester quatre algorithmes dont l’utilisation de la transformée de Fourier couplé avec un filtre de Gabor testée sur des images présentant une vue de perspective et sur des images redressées. Ces mêmes images ont été étudiées avec un algorithme basé sur la transformée en ondelette. Les deux derniers algorithmes étudiés ne s’appliquent que sur des images présentant une vue de perspective avec l’utilisation de la transformée de Fourier à fenêtre glissante et la transformée de Hough. Pour chaque algorithme, nous avons étudié au moyen de matrices de confusion leur capacité à bien classer les pixels d’une image selon la classe ”culture” ou la classe ”adventice” en comparant les résultats de cette classification aux données initiales (nombre de pixels de culture/adventices initiaux parfaitement contrôlés). Cette étude a été conduite en modélisant des images prises par deux systèmes optiques différents ( f = 16mm et ϕ = 68˚ dans un cas et f = 8, 5mm et ϕ = 56˚ dans l’autre cas). Enfin, la constitution d’une petite base de données d’images réelles a permis de valider l’ensemble des résultats obtenus sur les images synthétisées. Seul l’algorithme basé sur la transformée de Fourier engendre une ”sur-détection” de la culture. Mais cette méthode a été sélectionnée pour être implémentée en temps réel. Elle représente en effet, un bon compromis entre temps de calcul et discrimination. Cependant, ces méthodes, dites de discrimination spatiale, ne permettent pas d’envisager d’identifier une adventice au sein d’un rang de culture. C’est pourquoi l’approche spectrale a été envisagée afin de voir le potentiel de cette méthode. Un premier travail a été conduit en laboratoire puis en champ à l’aide d’un spectromètre afin, d’identifier une plante à l’aide de sa signature spectrale (réflectance). Autant la séparation entre la classe ”monocotylédone” et celle de ”dicotylédone” semble aisée, autant identifier une espèce à partir de son spectre de réflectance semble encore une opération ambitieuse en particulier si elle est menée au champ. L’utilisation d’un filtre infra-rouge fixé devant la caméra, devrait suffire dans un premier temps à facilement discriminer la végétation du sol. Quant à utiliser une roue à filtres embarquée sur un tracteur, cela semble encore ambitieux. Sachant que seule l’information contenue dans le domaine des longueurs d’onde situées dans le vert 135 Conclusion générale (550nm) et dans celui de l’infra-rouge est intéressante pour l’étude des végétaux, il pourrait être envisageable de développer un système catadioptrique bi-spectral. Le prototype, dans sa plus simple expression, c’est-à-dire sans l’utilisation d’une analyse spectrale est, actuellement opérationnel et les premiers essais ont été réalisés sur sol plat. Non seulement la gestion des EVP s’est avérée opérationnelle mais aussi l’utilisation de l’algorithme utilisant la transformée de Fourier et un filtre de Gabor, pour séparer la culture des adventices au sein d’une image afin de ne pulvériser que sur les adventices, semble donner des résultats satisfaisants. La poursuite du travail sera dans un premier temps de prendre en compte les effets d’un sol accidenté comme celui d’une parcelle cultivée. Pour ce faire, un algorithme d’auto-calibration de la caméra en temps réel a été spécialement développé (chapitre 2.4.3). Puis dans un second temps, il faudra tester ce prototype sur une parcelle cultivée afin de suivre au cours du temps l’efficacité de ce désherbage chimique localisé. Enfin par la suite, il serait tout à fait envisageable pour chaque image analysée d’enregistrer le nombre de pixels de culture et d’adventices ainsi que le Taux d’Infestation d’Adventices ce qui permettrait de réaliser avec ou sans la présence d’un GPS, une carte d’infestation de chaque image puis de la parcelle étudiée. Un taux d’infestation pour une image (représentant au sol une surface de 2m2 ) constituerait une information de haute résolution face à la dimension de la parcelle (plusieurs hectares). 136 Perspectives Actuellement, les algorithmes testés sur des images pour la discrimination culture/adventices sont uniquement basés sur l’information spatiale des végétaux. De ce fait, nous nous sommes attachés à détecter uniquement les mauvaises herbes localisées dans l’inter-rang. Pour poursuivre le développement de ces algorithmes, notamment sur l’utilisation de l’information spectrale pour discriminer la culture des mauvaises herbes situées dans l’intra-rang, il faudrait poursuivre la modélisation d’images agronomiques déjà initiée en y insérant la notion de couleur. Ainsi, grâce à cette information spectrale, il sera envisageable de développer des algorithmes utilisant non seulement l’information spatiale mais également spectrale. Par la suite un système utilisant des filtres pourrait être implémenté sur le prototype de pulvérisation localisé. Cette première approche permettant, en temps réel, de contrôler un outil agricole par imagerie semble très prometteuse. Certes, de nombreux tests doivent encore être réalisés notamment sur des parcelles cultivées. Cependant, ce travail ouvre de nouvelles perspectives en terme de gestion spatialisée. En effet, il pourrait être envisageable de contrôler en temps réel d’autres types d’outils tels que les outils de travail du sol ou de désherbage mécanique (par exemple : herses à étrilles). Cependant, il faut garder en mémoire que le champ de vision de la caméra est très petit, ce qui ne permet de piloter que quelques buses de la rampe d’un pulvérisateur. Ainsi donc, le passage de l’étape ”prototype” à l’étape de commercialisation nécessite une réflexion plus approfondie sur la position de la caméra pour avoir un plus grand champ de vision tout en conservant une haute définition de l’image. Une autre approche serait également d’envisager d’utiliser deux ou plusieurs caméras afin de gérer un champ de vision de la taille d’une rampe de pulvérisation. Chaque caméra ayant la gestion d’une partie de cette rampe. Enfin, il faut préciser que ce prototype est unique puisqu’il est le seul à pouvoir travailler à des cadences élevées (vitesse du tracteur supérieur à 2 km/h) contrairement à tous les systèmes actuellement développés par les autres équipes de recherche. La tendance actuelle repose de plus en plus sur l’électronique embarquée permettant soit de simplifier les différentes tâches de l’agriculteur soit de réaliser une prise de données géo-référencées pour permettre une traçabilité de l’information ou une meilleure prise en compte des hétérogénéités intraparcellaires. Comme le précise M. Berducat (Berducat, 2007), il semblerait que l’évolution des agroéquipements s’oriente soit vers : – l’utilisation de machines de plus en plus grosses et performantes (par exemple, une charrue de plus de 14 corps, rampe de pulvérisateur de plus de 32 m...), – le développement de robots autonomes pour une intervention intra-parcellaire avec par exemple l’utilisation d’un robot chien de troupeau développé par Lelly (Lelly, 2007), – la coopération de machines de taille moyenne. Une nouvelle voie peut être envisagée avec des systèmes tels que celui développé au laboratoire car son atout principal est de pouvoir s’intégrer directement sur une machine agricole ce qui permet ainsi à l’agriculteur d’être au plus près de ses champs en conduisant son tracteur, tout en observant en temps réel la réalisation des tâches. D’autre part, l’avantage d’un tel système est que non seulement il travaille en temps réel de façon autonome mais aussi, il permet d’enregistrer des données (par exemple, un taux d’infestation par image acquise) permettant de réaliser la cartographie des données connaissant : 1. l’ordre dans lequel les données ont été enregistrées, 137 Perspectives 2. le parcours suivi par le tracteur au sein de la parcelle. Avec un tel système, il serait donc envisageable d’obtenir des informations géoréférencées, non pas dans l’absolu mais par rapport à la parcelle elle-même. 138 Bibliographie Å STRAND, B. et BAERVELDT, A.-J. (1999). Robust tracking of plant rows using machine vision. In the sixth international conference on mechatronics and machine vision in practice, pages 95–101, Ankara, Turkey. Å STRAND, B. et BAERVELDT, A.-J. (2002). An agricultural mobile robot with vision based perception for mechanical weed control. Autonomous Robots, 13:21–35. Å STRAND, B. et BAERVELDT, A.-J. (2003). A mobile robot for mechanical weed control. International Sugar Journal, 105(1250):89–95. Å STRAND, B. et BAERVELDT, A.-J. (2005). A vision based row-following system for agricultural field machinery. Mechatronics, 15:251–269. A LTERNATIVES E CONOMIQUES (2007). L’agriculture française et la politique agricole commune. http ://www.alternatives-economiques.fr/prepas/2001-SC3.html. A NTOINE, J., VANDERGHEYNST, P. et M URENZI, R. (1996). Two-dimensional directional wavelets in image processing. International Journal of Imaging Systems and Technology, 7(3):152–165. A NTONIADIS, A. et C ARMONA, R. (1991). Multiresolution analysis and wavelets for density estimation. A SS ÉMAT, L., G ÉE, C., M ANSOURI, A., M ARINELLI, R. et F.M ARZANI (2007). Weed species reflectance discrimination by multispectral imaging : a field test on seedlings. In STAFFORD, J., éditeur : 6th European Conference on Precision Agriculture, Skiathos, Greece. AYACHE, N. (1989). Vision Stéréoscopique et Perception Multisensorielle : Application à la robotique mobile. Inter-Editions (MASSON). 314 pages. BACOUR, C. (2001). Contribution à la détermination des paramètres biophysiques des couverts végétaux par inversion de modèles de réflectance : analyses de sensibilité comparatives et configurations optimales. Thèse de doctorat, Université de Paris 7. BALLARD, D. H. et B ROWN, C. M. (1982). Computer Vision. Prentice Hall. BAMOUH, A. et NACIRI, M. (1998). Désherbage chimique de la lentille : Recherche d’une stratégie efficace et économique. Bulletin réalisé à l’Institut Agronomique et Vétérinaire Hassan II. http ://www.vulgarisation.net/01-39.htm. BARANOSKI, G. V. G. et ROKNE, J. G. (1997). An algorithmic reflectance and transmittance model for plant tissue. Eurographics, 16(3). BARANOSKI, G. V. G. et ROKNE, J. G. (2004). Light interaction with plants. A computer graphics perspective. Horwood Publishing. BARNES, J. D. et C ARDOSO -V ILHENA, J. (1996). Interactions between electromagnetic radiation and the plant cuticule. Oxford : Bios Scientific Publishers, plant cuticules, an integrated functional approach édition. BARTHELEMY, P., B OISGONTIER, D., J OUY, L. et L AJOUX, P. (1990). Choisir les outils de pulvérisation. ITCF (Institut Technique des Céréales et des Fourrages). BATISTA, J., A RA’ UJO, H. et A LMEIDA, A. (1998). Iterative multi–step explicit camera calibration. In Proceeding of the 6th International Conference on Computer Vision, pages 709–714, Bombay, India. BAYER C ROP S CIENCE (2007). Place de l’agriculture française. http ://www.bayercropscience.fr/srt/inter/flb/show ?location.id :=1364. 139 BIBLIOGRAPHIE B ÉNALLAL, M. (2002). Système de calibration de Caméra Localisation de forme polyédrique par vision monoculaire. Thèse de doctorat, ÉCOLE DES MINES DE PARIS, Centre de mathématiques appliquées. B ERDUCAT, M. (2007). Quelles innovations sur l’optimisation des trajectoires et les nouvelles fonctionnnalités des agroéquipements ? In Machine intelligentes pour une agriculture durable et compétitive. SIMA, Paris, France. B IJAOUI, A. (1991). Algorithmes de la transformation en ondelettes : application à l’imagerie astronomique. In Colloque Int. ondelettes et paquets d’ondes, Rocquencourt (France). B IJAOUI, A., S TARCK, J.-L. et M URTAGH, F. (1994). Restauration des images multi-echelles par l’Algorithme à trous (non publié). Traitement du Signal, 11(3):229–243. B ILLER, R. H. (1998). Reduced input of herbicides by use of optoelectronic sensors. Journal of Agricultural Engineering Research, 71:357–362. B ILLER, R. H., H OLLSTEIN, A. et S OMMER, C. (1997). Precision application of herbicides by use of optoelectronic sensors. In Precision Agriculture 97, pages 451–458. B ILLINGSLEY, J. et S CHOENFISCH, M. (1997). The successful development of a vision guidance system for agriculture. Computers and Electronics in Agriculture, 16:147–163. B LASCO, J., A LEIXOS, N., ROGER, J. M., R ABATEL, G. et M OLT Ó, E. (2002). Robotic weed control using machine vision. Biosystems Engineering, 83(2):149–157. B LUM, B. J. (2004). Perspectives pratiques du contrôle biologique des adventices. In Proceedings de la 19ème Conférence du COLUMA - Journées Internationales sur la lutte contre les Mauvaises Herbes, Dijon, France. B OSSU, J., G ÉE, C., G UILLEMIN, J.-P. et T RUCHETET, F. (2005). Feasibility of a real-time weed detection system using spectral reflectance. In S TAFFORD, J., éditeur : Fifth European Conference on Precision Agriculture, pages 123–130, Upsalla, Sweden. B OSSU, J., G ÉE, C., G UILLEMIN, J.-P. et T RUCHETET, F. (2006a). Development of methods based on double Hough transform or Gabor filtering to discriminate between crop and weed in agronomic images. In IS&T/SPIE 18th Annual Symposium Electronic Imaging Science and Technology, volume 6070, pages 1–11, San Jose, California USA. B OSSU, J., G ÉE, C. et T RUCHETET, F. (2006b). Développement d’un système de vision pour une pulvérisation spécifique en temps réel. In MAnifestation des Jeunes Chercheurs STIC (Majecstic), Lorient, France. B OSSU, J., G ÉE, C. et T RUCHETET, F. (2007a). Development of a machine vision system for a real time precision sprayer. In 8th International Conference on Quality Control by Artificial Vision (QCAV), volume 6356, pages 63560K(1–11), Le Creusot, France. B OSSU, J., G ÉE, C. et T RUCHETET, F. (2007b). Système de vision pour la réduction temps réel d’herbicides. In Proceedings de la 20ème Conférence du COLUMA - Journées Internationales sur la lutte contre les Mauvaises Herbes, Dijon, France. B OSSU, J., G ÉE, C. et T RUCHETET, F. (2007c). Wavelet transform to discriminate between crop and weed in agronomic images. In Wavelet Applications in Industrial Processing V, volume 6763-28, Boston, Massachusetts, USA. B OUCHEREAU, E. B. (1997). Analyse d’images par transformée en ondelette. Application aux images sismiques. Thèse de doctorat, Université de Grenoble I. B OUGUET, J.-Y. (1999). Visual methods for three-dimensional modeling. Thèse de doctorat, California Institute of Technology Pasadena, California. B OUGUET, J.-Y. (2004). Camera Calibration Toolbox for MATLAB. B OURGEAT, P. (2004). Segmentation d’images de semi-conducteurs appliquée à la détection de défauts. Thèse de doctorat, Université de Bourgogne. B OUSQUET, L. (2007). Mesure et modélisation des propriétés optiques spectrales et directionnelles des feuilles. Thèse de doctorat, Université de Paris 7. 140 BIBLIOGRAPHIE B OUSQUET, L., L ACH ÉRADE, S., S.JACQUEMOUD et M OYA, I. (2005). Leaf BRDF measurement and model for specular and diffuse component differentiation. Remote Sensing of Environment, 98(2-3):201–211. B RACEWELL, R. (1999). The Fourier Transform and Its Applications. McGraw-Hill Science Engineering. B REUER, L., E CKHARDT, K. et H-G. F REDE (2003). Plant parameter values for models in temperate climates. Ecological Modeling, 15:237–293. B RIGHAM, E. O. (1988). The fast Fourier transform and its applications. Englewood Cliffs, N.J., Prentice Hall. B RISOUHAL, M. (2001). Reconstruction de données. Application à la dosimétrie des radiotéléphones. Thèse de doctorat, Institut National des Sciences Appliquées de Rennes. B ROWN, D. (1966). Decentering distortion of lenses. Photogrammetric Engineering, 32(3):444–462. B URT, P. et A DELSON, H. (1983). Unitary representations of the affine group. IEEE Trans. Comp, 31:532– 540. C ALLET, P. (1998). Couleur-lumière ; Couleur matière. Diderot Arts et Sciences. C ARDINA, J., J OHNSON, G. A. et S PARROW, D. H. (1997). The nature and consequence of weed spatial distribution. Weed Science Society of America, 45(3):364–373. C ARLBOM, I. et PACIOREK, J. (1978). Planar geometric projections and viewing transformations. ACM Comput. Surv., 10(4):465–502. C EMAGREF (2007). http ://www.montpellier.cemagref.fr/umritap/equipes/EquipeNO.htm. C HEN, J. M. et B LACK, T. A. (1992). Defining leaf area index for non-flat leaves. Plant, Cell and Environment, 15:421–429. C HEN, J. M., R ICH, P. M., G OWER, T. S., N ORMAN, J. M. et P LUMMER, S. (1997). Leaf area index of boreal forests : theory, techniques and measurements. Geophysical Research, 102(D24):29429–29444. C HEN, S., C OWAN, C. F. N. et G RANT, P. M. . (1991). Orthogonal least squares learning algorithm for radial basis function. IEEE Transactions on Neural Networks, 2(2):302–309. C OHEN, A., DAUBECHIES, I. et F EAUVEAU, J.-C. (1992). Biorthogonal bases of compactly supported wavelets. Comm. in Pure and Applied Math., 45(5):485–560. C OQUEREZ, J.-P. et P HILIPP, S. (1995). Analyse d’images : filtrage et segmentation. Masson. C ORNUJ ÉOLS, A. et M ICLET, L. (2002). Apprentissage artificiel - Concepts et algorithmes. Eyrolles. DAUBECHIES, I. (1992). Ten Lectures on Wavelets. Society for Industrial & Applied Mathematics, Philadelphia, Penn. DAUBECHIES, I. et L AGARIAS, J. (1991). Two-scale difference equations. I. existence and global regularity of solutions. SIAM Journal of Mathematical Analysis, 22(5):1388–1410. DAUGMAN, J. G. (1985). Uncertainty relation for resolution in space, spatial frequency and orientation optimized by two-dimensional visual cortical filters. J. Opt. Soc. Am., 2(7):1160–1169. D ELABAYS, N. et M UNIER -J OLAIN, N. (2004). Inhibition de la croissance des mauvaises herbes après incorporation au sol de résidus végétaux : allélopathie ou modification du cycle de l’azote. In Proceedings de la 19ème Conférence du COLUMA - Journées Internationales sur la lutte contre les Mauvaises Herbes, Dijon, France. DELVANO (2007). http ://www.delvano.com/delvano/gamma-f.htm#. D ERICHE, R. et C OCQUEREZ, J.-P. (1987). Extraction de composantes connexes basée sur une détection optimale des contours. In Cognitiva, pages 1–9. CESTA. D UDA, R. et H ART, P. (1972). Use of the Hough transformation to detect lines and curves in pictures. Commun. ACM, 15(1):11–15. D UTILLEUX, P. (1989). An implementation of the “algorithme à trous” to compute the wavelet transform. In C OMBES, J. M., G ROSSMANN, A. et T CHAMITCHIAN, P., éditeurs : Wavelets, Time-Frequency Methods and Phase Space, pages 298–304. Springer-Verlag. 141 BIBLIOGRAPHIE EADS/A STRIUM (2007). Farmstar. http ://www.spotimage.fr/web/621-agriculture-de-precision.php. FAUGERAS, O. (1993). Three-dimensional Computer Vision. MIT Press. F ELTON, W. L. (1995). Commercial progress in spot spraying weeds. In Brighton Crop Protection Conference Weed, British Crop Protection Council, volume 3, pages 1087–1096, Brighton (UK). F ELTON, W. L. et M C C LOY, K. R. (1992). Spot spraying. Agricultural Engineering, 11:26–29. F ONTAINE, M. (2001). Segmentation non supervisée d’images couleur par analyse de la connexité des pixels. Thèse de doctorat, Université de Lille 1. F REYER, J. (1994). Lens distortion for simple ’c’ mount lenses. International Archives of Photogrammetry and Remote Sensing, 30(5):97–101. F UNG, G. S. K., Y UNG, N. H. C. et PANG, G. K. H. (2003). Camera calibration from road lane markings. Optical Engineering, 42(10):2967–2977. G ABOR, D. (1946). Theory of communication. J. IEE (London), 93(III):429–457. G ASQUET, C. et W ITOMSKI, P. (1990). Analyse de Fourier et applications. Masson. G AUSMAN, H. W. et A LLEN, W. A. (1973). Optical parameters of leaves of 30 plants species. Plant Physiol, 52:57–62. G AUSMAN, H. W. (1985). Plant Leaf Optical Properties in Visible and Near-Infrared Light. Graduate Studies N 29, Texas Tech University. G ÉE, C., B ONVARLET, L., M AGNIN -ROBERT, J. et G UILLEMIN, J.-P. (2004a). Weeds classification based on spectral properties. In 7th International Conference on Precision Agriculture and Other Ressource Management, Minneapolis (USA). CD-ROM. G ÉE, C., B ONVARLET, L., M AGNIN -ROBERT, J. B. et G UILLEMIN, J.-P. (2004b). Weed discrimination by reflectance measurements using neural networks. In XIIième colloque international sur la biologie des mauvaises herbes, pages 487–494, Dijon, France. G ÉE, C., B OSSU, J. et T RUCHETET, F. (2006). A double Hough transform for a crop-weed discrimination. In Agricultural Engineering For a Better World, pages IS 330 A, CD–ROM, Bonn, Allemagne. G ÉE, C., B OSSU, J., J ONES, G. et T RUCHETET, F. (2007). Crop/weed discrimination in perspective agronomic images. Computers and Electronics in Agriculture. G ÉE, C., B ERRET, L., B OSSU, J., C HARDON, C., J ONES, G. et T RUCHETET, F. (2008). Feasibility study for a catadioptric bi-band imaging system. In Proc. SPIE 20th Annual Symposium on Electronic Imaging Science and Technology - ”Machine Vision Applications in Industrial Inspection XIV”, volume 6816, San Jose, USA. G ENNERY, D. B. (1991). Camera calibration including lens distortion. Rapport technique, National Aeronautics and Space Administration, Jet Propulsion Laboratory, California Institute of Technology, Pasadena, California. G OUDY, H. J., TARDIF, F. J., B ROWN, R. B. et B ENNETT, K. A. (1999). Evaluating site-specific weed control in a maize-sotbean rotation system. In C OUNCIL, B. C. P., éditeur : The 1999 Brighton Conference-Weeds, volume 2, pages 621–626. G RANGER, S. et G UILLEMIN, J.-P. (2004). Impact of the morpholgy of two weed species on maize growth. In XIIième colloque international sur la biologie des mauvaises herbes, pages 31–35, Dijon, France. G ROSSMANN, A. et M ORLET, J. (1984). Decomposition of hardy functions into square integrable wavelets of constant shape. SIAM Journal of Mathematical Analysis, 15(4):723–736. G ROUPE T V AGRI (2007). Agriculture et Nouvelles Technologies. G UILLEMIN, J.-P., T HOMAS, J. M. et G RANGER, S. (2004). Effect of intraspecific competition on energy conversion of amaranthus retroflexus l. In XIIième colloque international sur la biologie des mauvaises herbes, pages 37–42, Dijon, France. G UYOT, G. (1989). Signatures spectrales des surfaces naturelles. Collection “Télédétection Satellitaire. 142 BIBLIOGRAPHIE H AGAN, M. T., D EMUTH, H. B. et B EALE, M. H. (1996). Neural network design. MA : PWS Publishing. H AGGAR, R. J., S TENT, C. J. et I SAAC, S. (1983). A prototype hand-held patch sprayer for killing weeds, activated by spectral differences in crop/weed canopies. Journal of Agricultural Engineering Research, 28: 349–358. H AGUE, T. et T ILLETT, N. D. (1996). Navigation and control of an autonomous horticultural robot. Mechatronics, 6(2):168–180. H AGUE, T. et T ILLETT, N. D. (2001). A bandpass filter-based approach to crop row location and tracking. Mechatronics, 11:1–12. H AHN, F., L OPEZ, I. et H ERNADEZ, G. (2004). Spectral detection and neural network discrimination of rhizopus stolonifer spores on red tomatoes. Biosystems Engineering, 89(1):93–99. H AMAMOTO, Y., U CHIMURA, S., WATANABE, M., YASUDA, T., M ITANI, Y. et T OMITA, S. (1998). A Gabor filter-based method for recognizing handwritten numerals. Pattern Recognition, 31:395–400. H ARALICK, R. M. et S HAPIRO, L. G. (1992). Computer and Robot Vision. Addison-Wesley. HARDI-EVRARD (2007). http ://www.hardi-fr.com/Home.aspx. H ATEY, L. et B RAS, C. (2004). Nouvelle technique alternative de désherbage “waı̈puna”. In Proceedings de la 19ème Conférence du COLUMA - Journées Internationales sur la lutte contre les Mauvaises Herbes, Dijon, France. H E, X. C. et Y UNG, N. H. C. (2007). New method for overcoming ill-conditioning in vanishing-point-based camera calibration. Optical Engineering, 46(3):037202(1–11). H EARN, D. et BAKER, M. P. (1986). Computer graphics. Prentice-Hall, Inc., Upper Saddle River, NJ, USA. H EARST, M. A. (1998). Support vector machines. IEEE Intelligent Systems, 13(4):18–28. H EIKKILA, J. et S ILVEN, O. (1997). A four-step camera calibration procedure with implicit image correction. In CVPR ’97 : Proceedings of the 1997 Conference on Computer Vision and Pattern Recognition (CVPR ’97), page 1106, Washington, DC, USA. IEEE Computer Society. H LOBEN, P., VONDRICKA, J. et S CULZE L AMMERS, P. (2006). Study on reponse time of direct nozzle injection system for variable rate application of herbicides. In Agricultural Engineering for a Better World, pages IS 490 A, CD–ROM, Bonn, Allemagne. H ORAUD, P. R. et M ONGA, O. (1995). Vision par ordinateur : outils fondamentaux. ’Editions Hermès, Paris. H OTELLING, H. (1933). Analysis of a complex of statistical variables with principal components. Journal of Educational Psychology, 24:498–520. H OUGH, P. (1962). A method and means for recognizing complex patterens. U.S. Patent 3,069,654. H UBBARD, B. (1995). Ondes et ondelettes. Paris, Pour la science. I NTEL (2001). Open source computer vision library. http ://www.intel.com/technology/computing/opencv/index.htm. I NTEL (2005). Intel integrated performance library. na/eng/perflib/302910.htm. http ://www.intel.com/cd/software/products/asmo- JACQUEMOUD, S., U STIN, S. L., V ERDEBOUT, J., ans G. A NDREOLI, G. S. et H OSGGOD, B. (1996). Estimating leaf biochemistry using the prospect leaf optical properties model. Remote Sensing of Environment, 56:194–202. JAGO, R. A., C UTLER, M. E. J. et C URRAN, P. J. (1999). Estimating canopy chlorophyll concentration from field and airbone spectra. Remote Sensing of Environment, 68:217–224. JAIN, A. et L AKSHMANAN, N. R. S. (1997). Object detection using Gabor filters. Pattern Recognition, 30:295–309. J ONES, G., C.G EE et T RUCHETET, F. (2007a). Simulation of perspective agronomic images for weed detection. In STAFFORD, J., éditeur : 6th European Conference on Precision Agriculture, pages 507–514, Skiathos, Greece. 143 BIBLIOGRAPHIE J ONES, G., G ÉE, C. et T RUCHETET, F. (2007b). Crop/weed discrimination in simulated agronomic images. In IS&T/SPIE 19th Annual Symposium Electronic Imaging Science and Technology, volume 6497-64970, San Jose, California USA. J ONES, G., G ÉE, C. et T RUCHETET, F. (2007c). Simulation of agronomic images for an automatic evaluation of crop/weed discrimination algorithm accuracy. In 8th International Conference on Quality Control by Artificial Vision, volume 6356, pages 63560J(1–10), Le Creusot, France. K AVDIR, I. (2004). Discrimination of sunflower, weed and soil by artificial neural networks. Computers and Electronics in Agriculture, 44:153–160. K ISE, M., Z HANG, Q. et ROVIRA M ÁS, F. (2005). A stereovision-based crop row detection method for tractor-automated guidance. Biosystems Engineering, 90(4):357–367. K NAPP, A. K. et C ARTER, G. A. (1998). Variability in leaf optical properties among 26 species from a broad range of habitats. American Journal of Botany, 85(940):940–946. KOHAVI, R. et P ROVOST, F. (1998). Glossary of terms. Machine Learning, 30:271–274. KORN, G. et KORN, T. (1961). Mathematical handbook for scientists and engineers. MacGrow-Hill book Company. L EBEAU, F., E L BAHIR, L., M-F. D ESTAIN, K INNAERT, M. et H ANUS, R. (2004). Improvement of spray deposit homogeneity using a PWM spray controller to compensate horizontal boom speed variations. Computers and electronics in agriculture, 43:149–161. L EE, W. S. et S LAUGHTER, D. C. (1998). Plant recognition using hardware-based neural network. In ASAE Annual International Meeting, pages 1–14, Orlando, Florida, USA. 983040. L EE, W. S., S LAUGHTER, D. C. et G ILES, D. K. (1997). Robotic weed control system for tomatoes using machine vision system and precision chemical application. In ASAE Annual International Meeting, pages 1–15, Minneapolis, USA. L EE, W. S., S LAUGHTER, D. C. et G ILES, D. K. (1999). Robotic weed control system for tomatoes. Precision Agriculture, 1:95–113. L EEMANS, V. et D ESTAIN, M.-F. (2006a). Application of the Hough transform for seed row localisation using machine vision. Biosystems Engineering, 94(3):325–336. L EEMANS, V. et D ESTAIN, M.-F. (2006b). Line cluster detection using a variant of the Hough transform for culture row localisation. Image and Vision Computing, 24:541–550. L ELLY, D. (2007). matériel agricole no 119. M AC Q UEEN, J. B. (1967). Some methods for classification and analysis of multivariate observations. In of C ALIFORNIA P RESS, U., éditeur : Proceedings of fifth Berkeley Symposium on Mathematical Statistics and Probability, pages 281–297, Berkeley. M ALLAT, S. et Z HONG, S. (1992). Characterization of signals from multiscale edges. IEEE Trans. Pattern Anal. Mach. Intell., 14(7):710–732. M ALLAT, S. G. (1989). A theory for multiresolution signal decomposition : the wavelet representation. IEEE Trans. Pattern Anal. Mach. Intell., 11(7):674–693. M ANSOURI, A. (2005). Étude, conception et réalisation d’un système multispectral de vision pour des applications de proximité, et développement d’algorithmes de reconstruction de la réflectance. Thèse de doctorat, Université de Bourgogne. M ARCHANT, J. (1996). Tracking of row structure in three crops using image analysis. Computers and Electronics in Agriculture, 15:161–179. M ARCHANT, J. A., H AGUE, T. et T ILLETT, N. D. (1997). Row-following accuracy of an autonomous visionguided agricultural vehicle. Computers and electronics in agriculture, 16:165–175. M ARTIN -C HEFSON, L. (2000). Détection et reconnaissance des adventices dans les cultures céréalières par traitement d’image multispectrale. Thèse de doctorat, Université de Cergy-Pontoise. 144 BIBLIOGRAPHIE M EYER, G., M ETHA, T., KOCHER, M., M ORTENSEN, D. et S AMAL, A. (1998). Textural imaging and discriminant analysis for distinguishing weeds for spot spraying. Transactions of the ASAE, 41(4):1189–1197. M EYER, Y. (1990). Ondelettes et opérateurs. I. Actualités Mathématiques. [Current Mathematical Topics]. Hermann, Paris. Ondelettes. [Wavelets]. M ITRA, P., S HANKAR, B. U. et PAL, S. K. (2004). Segmentation of multispectral remote sensing images using active support vector machines. Pattern Recognition Letters, 25:1067–1074. M ONDRAG ÓN P EDRERO, G. et S ERRANO C OVARRUBIAS, L. M. (2004). Etude de la competitivité du haricot (phaseolus vulgaris l.) vis-à-vis des mauvaises herbes. In X II ème colloque international sur la biologie des mauvaises herbes, pages 73–79, Dijon, France. M ORLET, J., A RENS, G., F OURGEAU, E. et G IARD, D. (1982). Wave propagation and sampling theory – Part II : Sampling theory and complex waves. Geophysics, 47(2). M OSANTO (2007). http ://www.monsanto.fr/. M OSHOU, D., BAERDEMAEKER, J. D. et R AMON, H. (1999). Neural network based classification of different weed species and crops. In S TAFFORD, J., éditeur : Second European Conference on Precision Agriculture, pages 275–284, Odense, Denmark. M OSHOU, D., V RINDTS, E., D E K ETELAERE, B., D E BAERDEMEKER, J. et R AMON, H. (2001). A neural network based plant classifier. Computers and Electronics in Agriculture, 31:5–16. M UNIER -J OLAIN, N. M., FALOYA, V., DAVAINE, J. B., B IJU -D UVAL, L., M EINIER, D., M ARTIN, C. et C HARLES, R. (2004). A cropping system experiement for testing the principles of integrated weed management : first results. In X II ème colloque international sur la biologie des mauvaises herbes, pages 147–156, Dijon, France. M URENZI, R. (1990). Ondelettes multidimensionnelles et applications à l’analyse d’images. Thèse de doctorat, Université Catholique de Louvain (Belgique). M UZY, J. F., BACRY, E. et A RNEODO, A. (1994). The multifractal formalism, revisited with wavelets. International Journal of Bifurcations and Chaos, 4:254–302. M YNENI, R. B., H ALL, F. G., S ELLERS, P. J. et M ARSHAK, A. L. (1995). The interpretation of spectral vegetation indexes. IEEE Transactions on Geoscience and Remote Sensing, 33:481–486. NAVAR, P. (2001). Conception et réalisation d’une caméra multispectrale. Mémoire de D.E.A., Conservatoire national des Arts et Métiers. O OMS, D., L EBEAU, F., RUTER, R. et M-F. D ESTAIN (2002). Measurements of the horizontal sprayer boom movements by sensor data fusion. Compters and electronics in agriculture, 33:139–162. P ÉREZ, J.-P. (2000). Optique, fondements et applications. Dunod, 6ème édition. P ILORGE, E., Q UERE, L. et L ECOMTE, V. (2004). Intérêt des techniques combinées pour le désherbage du tournesol. In Proceedings de la 19ème Conférence du COLUMA - Journées Internationales sur la lutte contre les Mauvaises Herbes, Dijon, France. P INTO, F. A. C., R EID, J. F., Z HANG, Q. et N OGUSHI, N. Guidance parameter determination using artificial neural network classifier. In An ASAE Meeting Presentation, pages 1–14. 993004. P OUCHIN, T. (2001). Cours de télédétection. http ://perso.club-internet.fr/tpouchin. P ROHARAM, R. (2007). Spray concept. http ://spray-concept.com/cerealiers.htm. P ROVOST, F., FAWCETT, T. et KOHAVI, R. (1998). The case against accuracy estimation for comparing induction algorithms. In ICML ’98 : Proceedings of the Fifteenth International Conference on Machine Learning, pages 445–453, San Francisco, CA, USA. Morgan Kaufmann Publishers Inc. P ULVEXPER (2007). http ://www.pulvexper.com/. R ICHARDSON, A. J. et W IEGRAND, C. L. (1977). Distinguishing vegetation from soil background information. Photogrammetric Engineering and Remote Sensing, 43:1541–1552. 145 BIBLIOGRAPHIE R IOUL, O. et D UHAMEL, P. (1992). Fast algorithms for discrete and continuous wavelet transforms. IEEE Transactions on Information Theory, 38(2):569–586. ROBERT, P. C. (2000). L’agriculture de précision : les verrous liés à la technologie et à la gestion agronomique. In Colloque Agriculture de Précision, pages 11–29, Dijon, France. RUMELHART, D. E., H INTON, G. E. et W ILLIAMS, R. J. (1986). Parallel Data Processing (Learning internal representations by error propagation), volume 1. MA : The M.I.T Press. S AFEE -R AD, R., S MITH, K. C., B ENHABIB, B. et T CHOUKANOV, I. (1992). Application of moment and fourier descriptors to the accurate estimation of elliptical-shape parameters. Pattern Recognition Letters, 13:497–508. S ANCHIZ, J. M., M ARCHANT, J. A., P LA, F. et H AGUE, T. (1998a). Real-time visual sensing for task planning in a field navigation vehicle. Real-Time Imaging, 4:55–65. S ANCHIZ, J. M., P LA, F. et M ARCHANT, J. A. (1998b). An approach to the vision tasks involved in an autonomous crop protection vehicle. Artificial intelligence, 11:175–187. S HENSA, M. (1992). The discrete wavelet transform : Wedding the a trous and mallat algorithms. IEEE Transactions on Signal Processing, 40:2464–2482. S INGH, S., H ADDON, J. et M ARKOU, M. (1999). Nearest neighbour strategies for image understanding. In Workshop an Advanced Concepts for Intelligent Vision System (ACVIS). S KORDAS, T. (1995). Une revue des derniers progrès en autocalibration de camera CCD. Traitement du signal, 12(1). S LATON, M. R., H UNT, E. R. et S MITH, W. K. (2001). Estimating near-infrared leaf reflectance from leaf structural characteristics. American Journal of Botany, 88(2):278–284. S LAUGHTER, D., G ILES, D. et D OWNEY, D. (2007). Autonomous robotic weed control systems : A review. Computers and Electronics in Agriculture (in press). S ØGAARD, H. T. et O LSEN, H. J. (1999). Crop row detection for cereal grain. In S TAFFORD, J., éditeur : Second European Conference on Precision Agriculture, pages 181–190, Odense, Denmark. S ØGAARD, H. T. et O LSEN, H. J. (2003). Determination of crop rows by image analysis without segmentation. Computers and electronics in agriculture, 38:141–158. S TRUB, G., PAINTER, T., H UBER, S., DANGEL, S., M ARTONCHIK, J., B ERENDSE, F. et S CHAEPMAN, E. M. (2004). About the importance of the definition of reflectance quantities - results of case studies. In XXth ISPRS Congress (International Society for Photogrammetry and Remote Sensing), pages 361–367, Istanbul, Turkey. S WETS, J. (1988). Measuring the accuracy of diagnostic system. Science, 240(4857):1285–1293. S YNGENTA (2007). http ://www.syngenta-agro.fr/synweb/default.aspx. TAKAHASHI, K., NAKATANI, H. et A BE, K. (1995). Color image segmentation using isodata clustering. In 2nd Asian Conference on Computer Vision, volume 1, pages 523–527. T ECNOMA (2007). Tecnoma technologies. http ://www.tecnoma.com. T ERRIER, P., D EVLAMINCK, V., C HARBOIS, J. M., WAUQUIER, F., A SSEMAT, L., G AUVRIT, C. et C HA PRON , M. (2004). Discrimination between weed species using polarized light measurement. In XIIième colloque international sur la biologie des mauvaises herbes, pages 479–486, Dijon, France. T HOMAS, J. M., G UILLEMIN, J.-P. et G RANGER, S. (2004). Evaluation of intraspecific competition for amaranthus retroflexus l. In XIIième colloque international sur la biologie des mauvaises herbes, pages 43–49, Dijon, France. T IAN, L., R EID, J. F. et H UMMEL, J. W. (1999). Development of a precision sprayer for site-specific weed management. Transactions of the ASAE, 42(4):893–900. T ILLETT, N. D., H AGUE, T. et M ARCHANT, J. A. (1998). A robotic for plant-scale husbandry. Journal of Agricultural Engineering Research, 69(2):169–178. 146 BIBLIOGRAPHIE T ILLETT, N. D. et H AGUE, T. (1999). Computer-vision-based hoe guidance for cereals : an initial trial. Journal of Agricultural Engineering Research, 74:225–236. T OSCANI, G. (1987). Système de Calibration et perception du mouvement en vision artificielle. Thèse de doctorat, Université Paris Sud. T RUCHETET, F. (1998). Ondelettes pour le signal numérique. Hermès, Paris, France. T SAI, R. Y. (1986). An efficient and accurate camera calibration technique for 3d machine vision. In Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, pages 364–374, Miami Beach, Florida, USA. T SAI, R. Y. (1987). A versatile camera calibration technique for high-accuracy 3d machine vision metrology using off-the-shelf tv cameras and lenses. IEEE Journal of Robotics and Automation, RA-3(4):323–344. T UCKER, C. J. (1979). Red and photographic infrared linear combinations for monitoring vegetation. Remote Sensing of Environment, 8(2):127–150. VANDERBILT, V. C., G RANT, L. et DAUGHTRY, C. S. T. (1985). Polarization of light sctattered by vegetation. Proceedings of the IEEE, 73:1021–1024. VANDERBILT, V. C. et G RANT, L. (1986). Polarization photometer to measure bidirectional reflectance factor r(55˚,0˚ ;55˚,180˚) of leaves. Optical Engineering, 25:566–571. V IOIX, J.-B., D OUZALS, J.-P., T RUCHETET, F., A SSEMAT, L. et G UILLEMIN, J.-P. (2002). Spatial and spectral methods for weed detection and localization. EURASIP Journal on Applied Signal Processing, 7:679–685. V IOIX, J.-B. (2004). Conception et réalisation d’un dispositif d’imagerie multispectrale embarqué : du capteur aux traitements pour la détection d’adventices. Thèse de doctorat, Université de Bourgogne. V IOIX, J.-B., S LIWA, T. et G ÉE, C. (2006). An automatic inter and intra-row weed detection in agronomic images. In XVI CIGR World Congress -Agricultural Engineering for a Better World, Bonn, Allemagne. VOGELMANN, T. C. et M ARTIN, G. (1993). The functional significance of palisade tissue : penetration of directional versus diffuse light. Plant, cell and environment, 16(1):65–72. VOIRY, F. et M ALASHKO, A. (2004). Conception et réalisation d’un pulvérisateur pour l’agriculture de précision. Rapport technique, Etablissement National d’Enseignement Supérieur Agronomique de Dijon (ENESAD). VONDRICKA, J., H LOBEN, P. et S CULZE L AMMERS, P. (2006). Study on the mixing process in direct injection systems for site-specific herbicide application. In Agricultural Engineering for a Better World, Bonn, Allemagne. CDROM. V RINDTS, E. (2000). Automatic recogintion of weeds with optical techniques as a basis for site-specificspraying. Thèse de doctorat, Université de Louvain (Belgique). WASSEMAN, P. D. (1993). Advanced Methods in Neural Computing. Van Nostrand Reinhold. W OEBBECKE, D., M EYER, G., BARGEN, K. V. et M ORTENSEN, D. (1995). Color indices for weed identification under various soil, residue, and lightning conditions. Transactions of the ASAE, 38(1):259–269. YANG, J., L IU, L., J IAN, T. et FAN, Y. (2003). A modified Gabor filter design method for fingerprint image enhancement. Pattern Recognition Letters, 24:1805–1817. 147