Thèse de J. Bossu

Transcription

Thèse de J. Bossu
UNIVERSITÉ DE
BOURGOGNE
U.F.R. SCIENCES ET TECHNIQUES
ÉCOLE DOCTORALE ENVIRONNEMENT, SANTE/STIC (E2S)
LE2I - UMR CNRS 5158
Thèse
présentée en vue de l’obtention du grade de
Docteur en Instrumentation et Informatique de l’Image
par
Jérémie BOSSU
Segmentation d’images pour la localisation d’adventices.
Application à la réalisation d’un système de vision pour une pulvérisation
spécifique en temps réel.
Soutenue le 4 décembre 2007 devant la commission d’examen
Rapporteurs
:
Examinateurs
:
M. F. Destain
Professeur
G. Grenier
M. Chapron
C. Gée
B. Lamalle
M. Morel
F. Truchetet
Professeur
Maı̂tre de Conférences
Maı̂tre de Conférences
Professeur
Responsable Marketing
Professeur
Faculté Universitaire des Sciences Agronomiques
de Gembloux (Belgique)
UMR CNRS 5218, ENITA de Bordeaux
UMR CNRS 8051, ENSEA, Cergy-Pontoise
ENESAD-DSI/UP-GAP, Dijon
UMR 5158 uB-CNRS, Le2I, Le Creusot
Société Tecnoma du groupe Exel Industries
UMR 5158 uB-CNRS, Le2I, Le Creusot
A la mémoire de ma grand mère paternelle décédée le 6/10/2007,
A la mémoire de mon grand père maternel décédé le 30/10/1991,
A mes parents,
A ma famille,
ii
Remerciements
Au cours de ces années de thèse, j’ai côtoyé plusieurs personnes qui m’ont aidé et encouragé et j’aimerais
les remercier ici.
Cette thèse s’est déroulée au sein de l’UP GAP (Unité Propre en Génie des Agroéquipements et Procédés)
de l’ENESAD. Je salue l’ensemble des membres de ce laboratoire, en particulier Richard Martin pour son aide
sur la conception et la réalisation du pulvérisateur de précision.
Merci à tous les membres de l’équipe et à son responsable (Bernard Chopinet) pour leurs aides au cours
de ces années passées quotidiennement avec eux et tout particulièrement Frédéric, Gawain, Jean-Noel, Nicole,
Richard et Sylvain.
Christelle Gée m’a encadré pendant toute cette période. Merci pour tes conseils et surtout pour ta patience
et ton calme.
Frédéric Truchetet, qui a assuré la direction scientifique de cette thèse, a toujours su répondre à mes
problèmes et mes requêtes.
Marie France Destain et Gilbert Grenier qui ont accepté d’être les rapporteurs de cette thèse ainsi que tous
les membres de la commision d’examen.
Cette thèse a été réalisée en partenariat avec la société Tecnoma et je tiens à remercier particulièrement
Michel Morel, responsable marketing.
Cédricq Garrido pour son aide sur la programmation multi-threading.
Je tiens aussi à remercier l’ensemble des membre du LE2I de Dijon et Le Creusot en particulier Savério,
Julien, Johel, Elbey et Pierre, ainsi que Jean-Marie Bilbault qui m’a permis de m’inscrire en DEA.
A mes amis qui m’ont soutenu pendant ces années et plus particulièrement Christelle, Romu, Sabir, Fred,
Vaness, Fab, Bijoux, Aurélie, Pin’s, Caro et j’en oublie sûrement !
Remerciements
iv
Résumé
Dans le souci d’une agriculture respectueuse de l’environnement, nous nous sommes intéressés au
développement d’un système de vision pour une pulvérisation de précision en temps réel. Ce système destiné
aux grandes cultures (cultures céréalières) a pour but de moduler les doses d’herbicides déposées sur une
parcelle cultivée.
Une caméra monochrome est embarquée à l’avant d’un tracteur. L’image est en temps réel analysée
par un ordinateur afin d’identifier la végétation du reste de la scène puis de séparer les adventices de la
culture. Pour le choix de l’algorithme de traitement d’image, nous avons comparé différents algorithmes de
discrimination culture/adventices basés sur l’utilisation de la transformée de Fourier couplée à un filtre de
Gabor, la transformée en ondelette ou bien sur la transformée de Hough. C’est au moyen d’images modélisées
que nous avons pu sélectionner celui qui nous est apparu le plus éfficace pour fonctionner en temps réel à
savoir le filtre de Gabor. Une fois la carte d’infestation réalisée, chaque tache d’adventices est clairement
détectée puis étiquetée par une méhode de blob-coloring. Enfin l’utilisation d’un modèle du sténopé permet
de localiser ces taches en coordonnées du monde réel afin d’activer la bonne électrovanne pneumatique du
pulvérisateur au bon moment.
Mots-clefs : traitement d’image, classification, analyse multirésolution, filtre de Gabor, détection d’adventices, temps réel.
v
Résumé
vi
Abstract
The subject of this thesis is devoted to the development of a vision system for a precision sprayer in real
time.
The system, dedicated to field crops (cereal crops), aims to adjust the doses of herbicides managing each
nozzle of the sprayer boom by actuator. It is a feasbility study with the aim to be adaptable to usual sprayer or
tractor and to work at standard spraying speed (10 km/h).
A tilted monochrome camera is embedded in the front of a tractor. The image is processed in real time by
a computer to identify vegetation of the rest of the scene and then to discriminate between weed and crop.
To choice the best crop/weed discrimination algorithm (accuracy and time computing) for image processing,
we compared different algorithms based on Fourier transform coupled with Gabor filter, wavelet transform or
Hough transform. The comparison has been done on a big data base of modelled images where the number of
crop and weed pixels are initial parameters of the modelling. The Gabor filtering has been selected as being
the most efficient algorithm to operate in real time and to implement it. Once the infestaion map is realized,
each weed patches is clearly labelled and then detected by a blob-coloring method. Finally, the use of a pinhole
camera model makes it possible to locate these patches in real-world coordinates to enable the right actuator at
the right time.
Keywords : Image processing, classification, multiresolution analysis, Gabor filter, wavelet transform,
Hough transform, weeds detection, sustainable agriculture, real time.
vii
Abstract
viii
Sommaire
Remerciements
iii
Résumé
v
Abstract
vii
Introduction générale
1
2
v
Généralités sur le désherbage et l’imagerie
1.1 Contexte agricole . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Lutte contre les mauvaises herbes - Les différentes pratiques de désherbage
1.2.1 Le désherbage chimique . . . . . . . . . . . . . . . . . . . . . . .
1.2.2 Le désherbage biologique et mécanique . . . . . . . . . . . . . . .
1.2.3 Autres types de désherbage . . . . . . . . . . . . . . . . . . . . . .
1.2.4 Les Techniques Culturales Simplifiées (TCS) . . . . . . . . . . . .
1.2.5 L’efficacité des stratégies de désherbage . . . . . . . . . . . . . . .
1.3 Vers une meilleure gestion de la pulvérisation . . . . . . . . . . . . . . . .
1.4 Modulation de la pulvérisation : état des lieux . . . . . . . . . . . . . . . .
1.5 L’apport de l’imagerie pour le désherbage . . . . . . . . . . . . . . . . . .
1.5.1 Imagerie spectrale pour identification des plantes . . . . . . . . . .
1.5.2 Autres méthodes d’imagerie pour l’identification des plantes . . . .
1.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Dispositif expérimental
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Prototype de pulvérisation localisée en temps réel par imagerie . . . . . . . . . . .
2.2.1 Le pulvérisateur et ses modifications . . . . . . . . . . . . . . . . . . . . .
2.2.2 Choix de la caméra et de la carte d’acquisition . . . . . . . . . . . . . . .
2.2.3 Capteur de vitesse et unité de traitement . . . . . . . . . . . . . . . . . . .
2.3 Électronique et commande du pulvérisateur . . . . . . . . . . . . . . . . . . . . .
2.3.1 Présentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.2 Unité de contrôle - Protocole de communication . . . . . . . . . . . . . .
2.3.3 Logiciel de pilotage des EVP . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.3.1 Gestion des temps . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.3.2 Réalisation d’une carte d’infestation . . . . . . . . . . . . . . .
2.3.3.3 Gestion des EVP . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.3.4 Réalisation des chronogrammes des électrovannes pneumatiques
2.4 Dispositif optique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.1 Présentation du système optique . . . . . . . . . . . . . . . . . . . . . . .
2.4.2 Modélisation géométrique de la caméra : modèle du sténopé . . . . . . . .
2.4.2.1 Matrice de passage (Pe ) . . . . . . . . . . . . . . . . . . . . . .
2.4.2.2 Projection perspective . . . . . . . . . . . . . . . . . . . . . . .
i
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
3
3
4
5
5
5
5
8
10
11
11
12
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
15
15
16
16
18
19
20
20
21
22
22
23
24
25
25
26
27
27
29
SOMMAIRE
.
.
.
.
.
.
.
.
.
.
.
29
29
31
31
33
35
37
39
41
41
42
Algorithmes spectraux
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Les différents types de réflexion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.1 La réflexion spéculaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.2 La réflexion diffuse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.3 La réflexion chez les végétaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Réflectance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.1 Propriétés spectrales des végétaux . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.2 Propriétés directionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4 État de l’art : réflectance et désherbage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5 Réalisation de deux bases de données de réflectance . . . . . . . . . . . . . . . . . . . . . . .
3.5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5.2 Espèces végétales étudiées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5.3 Dispositif expérimental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5.4 Base de données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.6 Méthode de réduction des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.6.1 Analyse en Composantes Principales (ACP) . . . . . . . . . . . . . . . . . . . . . . .
3.6.1.1 Principe de l’ACP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.6.1.2 Étude des variables - Cercle des corrélations . . . . . . . . . . . . . . . . .
3.6.1.3 Étude des individus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.6.1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.7 Les réseaux de neurones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.7.1 Les réseaux multicouches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.7.1.1 Structure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.7.1.2 Règle d’apprentissage . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.7.2 Exemple d’architecture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.7.3 Les réseaux de type fonction à base radiale (Radial Basis Fonction, RBF) probabiliste
3.8 Résultats et discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.8.1 Prétraitement et matrice de données . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.8.2 Résultat de l’Analyse en Composante Principale . . . . . . . . . . . . . . . . . . . .
3.8.3 Résultats des classifications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.8.3.1 Utilisation d’un réseau de neurone de type perceptron . . . . . . . . . . . .
3.8.3.1.1
Campagne 1 avec la campagne 2 . . . . . . . . . . . . . . . . . .
3.8.3.2 Utilisation d’un réseau de neurones de type probabiliste . . . . . . . . . . .
3.8.3.2.1
Résultats campagne 1 . . . . . . . . . . . . . . . . . . . . . . . .
3.8.3.2.2
Résultats campagne 2 . . . . . . . . . . . . . . . . . . . . . . . .
3.8.3.2.3
Résultats sur l’ensemble campagne 1 et campagne 2 . . . . . . . .
3.8.3.2.4
Laboratoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.8.3.3 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.9 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
45
45
46
46
47
47
48
49
49
49
50
50
50
51
52
53
53
53
54
54
55
55
56
56
56
56
56
57
57
58
59
59
62
63
63
63
65
65
66
67
2.5
3
2.4.2.3 Transformation caméra/image . . . . . . . . . . . . . . . .
2.4.2.4 Transformation globale . . . . . . . . . . . . . . . . . . .
2.4.3 Autocalibration pour le temps réel . . . . . . . . . . . . . . . . . . .
2.4.3.1 Méthode de calibration des paramètres intrinsèques . . . .
2.4.3.1.1
Résultats de la calibration . . . . . . . . . . . . .
2.4.3.2 Méthode de calibration des paramètres extrinsèques . . . .
2.4.3.2.1
Détermination des coordonnées du point de fuite .
2.4.3.2.2
Détermination de l’angle de tangage ϕ . . . . . .
2.4.3.2.3
Détermination de l’angle de lacet α . . . . . . . .
2.4.3.2.4
Résultats de la calibration . . . . . . . . . . . . .
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
ii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
SOMMAIRE
4
Algorithmes spatiaux
69
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.2 La transformée de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.2.1 Rappel sur la transformée de Fourier (TF) . . . . . . . . . . . . . . . . . . . . . . . . 71
4.2.2 Rappel sur le filtre de Gabor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.2.2.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.2.3 Utilisation du filtre de Gabor pour discriminer la culture des adventices . . . . . . . . 73
4.2.3.1 Transformée de Fourier rapide et détection des paramètres du filtre . . . . . 73
4.2.3.2 Filtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.2.4 Illustration de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.3 La transformée de Fourier à fenêtre glissante . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.3.1 Rappel sur la transformée de Fourier à fenêtre glissante . . . . . . . . . . . . . . . . . 76
4.3.2 Utilisation de la transformée de Fourier à fenêtre glissante pour détecter les lignes de semis 77
4.4 La transformée en ondelette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.4.1 Définition d’une ondelette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.4.2 Transformée discrète et analyse multi-résolution . . . . . . . . . . . . . . . . . . . . 78
4.4.3 Utilisation de la transformée en ondelette pour la détection de lignes de semis . . . . . 79
4.4.4 Illustration de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.5 La transformée de Hough . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.5.1 Rappel sur la transformée de Hough . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.5.1.1 Les accumulateurs dans Hough . . . . . . . . . . . . . . . . . . . . . . . . 85
4.5.2 Description de l’algorithme mis en place . . . . . . . . . . . . . . . . . . . . . . . . 85
4.5.2.1 Première transformée de Hough . . . . . . . . . . . . . . . . . . . . . . . . 85
4.5.2.2 Détection des maxima locaux . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.5.2.3 Seconde transformée de Hough . . . . . . . . . . . . . . . . . . . . . . . . 86
4.5.2.4 Extraction des maxima associés à des lignes de semis . . . . . . . . . . . . 86
4.5.3 Illustration de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.6 Redressement des images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.7 Étude de la robustesse des algorithmes spatiaux . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.7.1 Modélisation d’images agronomiques . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.7.2 Matrice de confusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.8 Création de trois bases de données d’images . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.8.1 Images simulées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.8.2 Images réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.9 Résultats et Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.9.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.9.2 Algorithme basé sur la transformée de Fourier et du filtre de Gabor (TF) . . . . . . . . 94
4.9.2.1 Utilisation sur des images présentant une vue en perspective . . . . . . . . . 94
4.9.2.1.1
Images simulées . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.9.2.1.2
Images réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
4.9.2.2 Utilisation sur des images redressées . . . . . . . . . . . . . . . . . . . . . 101
4.9.2.2.1
Images simulées . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.9.2.2.2
Images réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
4.9.3 Algorithme basé sur la transformée de Fourier à fenêtre glissante (TFG) . . . . . . . . 106
4.9.3.1 Images simulées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
4.9.3.2 Images réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
4.9.4 Algorithme basé sur la transformée en ondelette . . . . . . . . . . . . . . . . . . . . . 110
4.9.4.1 Utilisation sur des images présentant une vue en perspective . . . . . . . . . 110
4.9.4.1.1
Images simulées . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
4.9.4.1.2
Images Réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
4.9.4.2 Utilisation sur des images redressées . . . . . . . . . . . . . . . . . . . . . 115
iii
SOMMAIRE
4.9.4.2.1
Images simulées . . . . . . . . . . . . . . . . .
4.9.4.2.2
Images Réelles . . . . . . . . . . . . . . . . .
4.9.5 Algorithme basé sur la transformée de Hough . . . . . . . . . . . .
4.9.5.1 Images simulées . . . . . . . . . . . . . . . . . . . . . .
4.9.5.2 Images réelles . . . . . . . . . . . . . . . . . . . . . . .
4.9.6 Bilan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.9.7 Réflexion générale sur l’imagerie pour la lutte contre les adventices
4.10 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Mise en œuvre du prototype réalisé
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Premiers tests de gestion des électrovannes pneumatiques . . . . . . . . . . . . . . . .
5.3 Premiers tests sur l’algorithme basé sur la transformée de Fourier et du filtre de Gabor .
5.4 Poursuite de l’étude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
115
118
120
120
123
125
128
128
.
.
.
.
.
129
129
129
130
133
133
Conclusion générale
135
Perspectives
137
Bibliographie
139
iv
Introduction générale
Dans la seconde moitié du vingtième siècle, l’agriculture française s’est intensivement développée au
point d’atteindre dans les années 80, une productivité qui lui confère la première place sur le marché européen (Bayer CropScience, 2007). A titre d’exemple, depuis les années 50, la production de blé a été multipliée
par quatre pour atteindre les 70 quintaux à l’hectare en moyenne en France (Alternatives Economiques, 2007 ;
Groupe Tv Agri, 2007). Cette révolution agricole a pu se faire grâce à la mise en place de la Politique
Agricole Commune (PAC) dans les années 60 mais aussi avec les nombreux progrès techniques (mécanisation,
utilisation d’intrants1 , recours à la sélection variétale), qui semblent marquer le pas aujourd’hui et qui ont
permis une explosion des rendements. Cependant, dans le même temps, la consommation de pesticides2 est
devenue 25 fois plus importante et celle d’engrais chimiques a été multipliée par 10. Cette course aveugle à
la productivité et donc aux profits a conduit inéluctablement à une forte dégradation des ressources naturelles
(eau, sol, ...). En 1984, à l’initiative de Pierre Robert (Robert, 2000) à l’université de Minneapolis (MN-USA),
une réflexion scientifique a été menée par les principaux acteurs du domaine sur l’agriculture du X X I ème siècle.
Le terme ”agriculture de précision” fait alors son apparition, sa définition est axée sur une meilleure gestion
spatiale des intrants selon la variabilité intra parcellaire tout en conservant les objectifs économiques :
– la réduction des coûts en produits chimiques (engrais et pesticides),
– l’augmentation des rendements.
Cependant les attentes sociales en terme d’environnement ont fait que ce concept a dû évoluer en se focalisant
sur une meilleure gestion de l’environnement. Cette notion de modulation des apports sur la parcelle cultivée
devient réalisable grâce à la possibilité d’utiliser des nouvelles technologies telles que l’imagerie, l’électronique
embarquée et l’informatique ouvrant ainsi de nouveaux axes de recherche.
Objectifs de la thèse
Dans le cadre de la protection de l’environnement, le laboratoire GAP ”Génie des Agroéquipements et
des Procédés” a réfléchi sur la possibilité de regrouper ses compétences en imagerie au service du milieu
agricole. Notre travail avec les professionnels de la pulvérisation (Société Tecnoma), nous a naturellement
conduit à porter notre intérêt sur la pulvérisation dans le contexte de l’agriculture de précision définit par ”la
bonne dose, au bon endroit et au bon moment”. L’approche de cette thèse est innovante car, aucune équipe
de recherche n’a actuellement envisagé de coupler l’imagerie à un outil agricole dans le but de faire de la
modulation automatique de doses en temps réel. Au cours de ce travail, le principal verrou scientifique à lever
sera la détermination du meilleur algorithme de traitement d’images se caractérisant par le meilleur compromis
entre le temps de calcul et l’efficacité à séparer la culture des adventices sur des images en perspective en temps
réel. Le couplage du traitement d’images et de la gestion d’électrovannes en temps réel représente quant à lui,
le verrou technologique.
1 Intrants
: ce terme englobe tous les produits chimiques apportés sur la parcelle : engrais chimiques (azote (N), potassium (K) et
phosphore (P)) et produits phytosanitaires.
2 Pesticides : terme générique regroupant les insecticides, les fongicides et les herbicides.
v
Introduction générale
Plan de la thèse
Le manuscrit est structuré en deux parties, la première partie comporte les acquis concernant les méthodes
de désherbage (chimique, manuel, électrique et mécanique) et l’imagerie dans le contexte de la pulvérisation.
Ce sujet étant trop vaste, nous ne pourrons le détailler de façon complète, nous nous limiterons donc aux
travaux concernant cette thèse. Le premier chapitre présentera les pratiques agricoles de lutte contre les
mauvaises herbes. Un état des lieux du matériel de pulvérisation suivra où nous présenterons les efforts
réalisés par les constructeurs pour être en adéquation avec les normes environnementales. Pour finir, un état
de l’art sur les différents systèmes de modulation de doses développés par les laboratoires de recherche seront
présentés. Dans le chapitre 2 on trouvera la description de la conception et de la réalisation du prototype que
j’ai développé dans le cadre de cette thèse dont les principales étapes sont :
– l’adaptation d’un pulvérisateur standard au concept de précision : de la caméra aux électrovannes,
– la réalisation d’une carte d’interfaçage entre l’ordinateur (permettant d’exécuter les algorithmes de discrimination de la culture des adventices) et les actionneurs (électrovannes pneumatiques). Nous parlerons
aussi du protocole de communication pour le pilotage de la carte par l’ordinateur,
– le logiciel réalisé pour le temps réel avec la gestion de plusieurs tâches (multi-threading).
La seconde partie présente les méthodes de traitement du signal développées pour la discrimination entre la
culture et les adventices. Deux approches ont été étudiées, spectrale et spatiale, afin de déterminer dans chacune
de ces approches, quelles seraient les informations importantes à exploiter en vue d’utiliser l’imagerie pour une
pulvérisation sélective automatique en temps réel.
L’utilisation des signatures spectrales, pour la discrimination des plantes est présentée dans le chapitre 3. En
utilisant un spectromètre, les expériences de réflectance sur différentes espèces végétales ont été conduites aussi
bien en laboratoire que dans des parcelles. La constitution de ces deux bases de données nous a permis de tester
différentes méthodes de classification supervisées (Analyse en Composantes Principales ou Réseau de Neurones) afin de mettre en évidence la possibilité de différencier un groupe végétal d’un autre (monocotylédone et
dicotylédone) ou une espèce végétale d’une autre. Comme nous le verrons dans la section résultats et discussion
(3.8), les excellents résultats obtenus sur les mesures faites en laboratoire ne semblent pas se confirmer lorsque
celles-ci sont obtenues dans des conditions semi-réelles (éclairement contrôlé dans un environnement naturel :
la parcelle).
La deuxième orientation choisie pour la discrimination de la culture et des adventices est basée sur une
approche spatiale ce qui permet de carctériser la végétation dans une parcelle cultivée selon leurs distributions
spatiales :
– une distribution périodique pour la culture,
– une distribution aléatoire ponctuelle ou agrégative pour les adventices.
Dans ces conditions, le chapitre 4 présente quatre algorithmes qui ont été développés pour discriminer la
culture des mauvaises herbes dans une image. Ces algorithmes sont basés sur :
– l’utilisation d’un filtre de Gabor et de la transformée de Fourier sur des images présentant une perspective
ou sur des images redressées,
– l’utilisation d’un filtre de Gabor et de la transformée de Fourier à fenêtre glissante,
– une analyse multi-résolution utilisant la transformée en ondelettes sur des images présentant une perspective ou sur des images redressées,
– la transformée de Hough.
Afin de tester la robustesse de ces algorithmes face à différents taux d’infestation d’adventices dans une parcelle cultivée, des images modélisant une scène agronomique dont les paramètres initiaux sont parfaitement
contrôlés ont été utilisées (nombre de pixels de culture, nombre de pixels d’adventices et le taux d’infestation
exprimé en pourcentage). L’ensemble des résultats obtenus pour ces différents algorithmes sont présentés dans
vi
Introduction générale
la section 4.9 qui se termine par une discussion générale comparant les avantages et inconvénients de chacune
des méthodes pour une mise en œuvre dans le cadre d’une utilisation pour le temps réel.
Les conclusions obtenues à l’issue des résultats sur la discrimination spatiale et spectrale nous ont permis
de réaliser un prototype de pulvérisation spécifique en temps réel contrôlé par vision dont les caractéristiques
techniques sont présentées au chapitre 5.
Bilan-Publications et valorisation
Les travaux présentés au cours de cette thèse ont fait l’objet de différentes publications à caractère
scientifique :
Revues(3)
– C. Gée, J. Bossu, G. Jones et F. Truchetet, 2007. Crop/weed discrimination in perspective agronomic
images. Computers and Electronics in Agriculture, 61, pp.49-59.
(Trois autres publications sont soumises à des revues internationales).
Publications antérieures à la thèse :
– S. Morfu, J. Bossu et P. Marquié, 2007. Experiments on an electrical nonlinear oscillators network.
International Journal of Bifurcation and Chaos, 17 (10).
– S. Morfu, J. Bossu, P. Marquié et J-M. Bilbault, 2006. Contrast enhancement with a nonlinear oscillators
network. Nonlinear Dynamics Journal, Springer, 44 (1), pp. 173-180.
Conférences internationales(7)
– C.Gée, L. Berret, J. Bossu, C. Chardon, G. Jones et F. Truchetet, 2008. Feasibility study for a catadioptric bi-band imaging system. IS&T/SPIE 20th Annual Symposium on Electronic Imaging Science and
technology, San Jose,USA, 6816.
– J. Bossu, C. Gée, J-P Guillemin et F. Truchetet, 2007. Wavelet transform to discriminate between crop
and weed in agronomic images. Wavelet Applications in Industrial Processing V, Boston, Massachusetts
USA, 6763-28.
– J. Bossu, C. Gée et F. Truchetet, 2007. Development of a machine vision system for a real time precision sprayer. 8th International Conference on Quality Control by Artificial Vision (QCAV), Le Creusot,
France,6356, pp. 63560K(1-11).
– C. Gée, J. Bossu et F. Truchetet, 2006. A Double Hough Transform for a Crop-Weed discrimination.
Agricultural Engineering for a Better World, Bonn, Allemagne, IS 330 A, CD-ROM.
– J. Bossu, C. Gée, J-P Guillemin et F. Truchetet, 2006. Development of methods based on double Hough
transform or Gabor filtering to discriminate between crop and weed in agronomic images. IS&T/SPIE
18th Annual Symposium Electronic Imaging Science and Technology, San José, Californie USA, 6070,
pp. 1-11.
– J. Bossu, C. Gée, J-P Guillemin et F. Truchetet, 2005. Feasibility of a real-time weed detection system
using spectral reflectance. Fifth European Conference on Precision Agriculture, Upsalla, Suède, pp. 123130.
Conférence antérieure à la thèse :
– S. Morfu, J. Bossu et P. Marquié, 2005. Nonlinear Image Processing : theory and experiments. 12th International Workshop on Nonlinear Dynamics of Electronic Systems, NDES 2005, Potsdam, Allemagne.
Conférences nationales(3)
– J. Bossu, C. Gée, J-P Guillemin et F. Truchetet, 2007. Système de vision pour la réduction temp réel
d’herbicides. Proceedings de la 20ème Conférence de COLUMA - Journées Internationales sur la lutte
contre les Mauvaises Herbes, Dijon, France.
– J. Bossu, C. Gée, J-P Guillemin et F. Truchetet, 2006. Développement d’un système de vision pour une
pulvérisation spécifique en temps réel. MAnifestation des Jeunes Chercheurs STIC (Majecstic), Lorient,
France.
Conférence antérieure à la thèse :
vii
Introduction générale
– S. Morfu, J. Bossu et P. Marquié, 2005. Un réseau cellulaire non linéaire pour le traitement d’images.
Compte-rendus de la 8e Rencontre du Non-Linéaire de l’institut Henri Poincaré, Non Linéaire Publications, Paris, France, pp. 169-174.
Articles de vulgarisation(3)
– C. Gée, 2007. L’imagerie au service de l’agriculture. Graine d’info, Revue externe de l’Enesad, Vol N˚11.
Juin.
– C. Gée, 2006. Le désherbage de précision par imagerie. AgroMag, Vol. Nov.
– C. Crivillé, 2006. La pulvérisation bientôt guidée par l’image. Agriculture et Nouvelles Technologies,
Vol. N˚5 p-10, Juin.
viii
Chapitre 1
Généralités sur le désherbage et l’imagerie
Sommaire
1.1
1.2
1.3
1.4
1.5
1.6
Contexte agricole . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Lutte contre les mauvaises herbes - Les différentes pratiques de désherbage
1.2.1 Le désherbage chimique . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.2 Le désherbage biologique et mécanique . . . . . . . . . . . . . . . . .
1.2.3 Autres types de désherbage . . . . . . . . . . . . . . . . . . . . . . . .
1.2.4 Les Techniques Culturales Simplifiées (TCS) . . . . . . . . . . . . . .
1.2.5 L’efficacité des stratégies de désherbage . . . . . . . . . . . . . . . . .
Vers une meilleure gestion de la pulvérisation . . . . . . . . . . . . . . . . .
Modulation de la pulvérisation : état des lieux . . . . . . . . . . . . . . . .
L’apport de l’imagerie pour le désherbage . . . . . . . . . . . . . . . . . .
1.5.1 Imagerie spectrale pour identification des plantes . . . . . . . . . . . .
1.5.2 Autres méthodes d’imagerie pour l’identification des plantes . . . . . .
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
3
3
4
5
5
5
5
8
10
11
11
12
1.1 Contexte agricole
Comme il a été précisé dans l’introduction, l’évolution des Sciences et Technologies de l’Information et de
la Communication (STIC) a permis, dans les pays industrialisés, de développer une agriculture beaucoup plus
intensive grâce à la mécanisation ou encore à l’essor de l’automatisation des travaux agricoles. Parallèlement à
ces évolutions technologiques, l’essor après guerre de l’industrie pétro-chimique est venu renforcer la productivité de l’agriculture française qui est de nos jours la plus productive d’Europe (communiqué du ministère de
l’agriculture et de la pêche, 2006). Jusqu’au milieu du X X ème siècle, l’apport massif de produits chimiques (i.e.
intrants) sur une parcelle cultivée, pour augmenter le rendement des cultures mais aussi les profits de l’agriculteur ne posaient pas de problème sociétal. On passait ainsi naturellement d’un apport d’engrais chimiques
(azote, potassium, phosphore) afin de s’assurer du bon développement des cultures à un apport de pesticides soit
pour un désherbage radical (herbicides), soit pour protéger la culture de toute attaque parasitaire (insecticides,
fongicides).
Initialement, les capteurs embarqués sur des engins agricoles avaient pour but d’optimiser les travaux agricoles, mais les progrès scientifiques ont permis d’embarquer ces capteurs également dans des vecteurs aériens
(avions, drones, satellites) mettant en évidence non seulement des variabilités intra-parcellaires mais aussi
des problèmes de pollution engendrés par ces apports. C’est ainsi que certains capteurs (photodétecteurs) permettent de mesurer la lumière réfléchie par les végétaux. Il est alors possible à partir de ce signal d’extraire
une information agronomique (par exemple : indice foliaire, stress) souvent à partir d’indices tels que le LAI
(Leaf Area Index = surface foliaire par rapport à la surface au sol) (Chen et Black, 1992 ; Chen et al., 1997 ;
PIR − R
avec PIR, la
Breuer et al., 2003) ou encore le Normalized Difference Vegetation Index NDV I =
PIR + R
1
Chapitre 1. Généralités sur le désherbage et l’imagerie
composante proche infrarouge et R, la composante rouge du signal réfléchi (Richardson et Wiegrand, 1977 ;
Tucker, 1979 ; Myneni et al., 1995).
La récente prise de conscience du surdosage de ces produits phytosanitaires et des effets néfastes qu’ils
engendrent a permis de faire évoluer les mentalités agricoles vers une agriculture plus environnementale (ou
respectueuse de l’environnement) et pas uniquement tournée vers les profits. Une autre solution existe pour
résoudre ces problèmes, elle consiste à passer à une agriculture dite ”biologique” où les agriculteurs utilisent
non pas des produits chimiques mais plutôt des produits organiques sur les parcelles cultivées. Cependant les
contraintes associées à cette agriculture sont :
– d’un point de vue agricole :
– la nécessité d’une main d’œuvre importante,
– beaucoup plus de travail répétitif sur la parcelle avec un rendement identique à une agriculture classique (Goudy et al., 1999).
– d’un point de vue industriel :
– l’arrêt net de toute la filière phyto-chimique de l’industrie chimique.
Pour aider la communauté agricole à atteindre ces objectifs c’est-à-dire maintenir les rendements tout en
polluant moins, il est nécessaire de fournir aux agriculteurs des outils leur permettant d’optimiser les apports
d’intrants. La communauté scientifique s’est donc efforcée de mettre en place des outils d’aide à la décision
(OAD) en fournissant aux agriculteurs entre autres des cartes de préconisation. Celles-ci peuvent être de
différentes formes :
– carte de préconisation des doses d’azote sur une parcelle. Par exemple sur la figure 1.11 on peut voir une
carte de préconisation Farmstar développée par EADS/Astrium (EADS/Astrium, 2007),
– carte de rendement. La figure 1.21 présente une carte obtenue par un capteur de rendement et d’un GPS
embarqués dans une moissonneuse batteuse.
F IG . 1.1 – Carte de préconisation Farmstar.
1 source
: http ://www.spotimage.fr/web/621-agriculture-de-precision.php
2
1.2
Lutte contre les mauvaises herbes - Les différentes pratiques de désherbage
F IG . 1.2 – Exemple de carte de rendement obtenu chez un agriculteur en Champagne Ardenne pour une parcelle
de blé.
1.2 Lutte contre les mauvaises herbes - Les différentes pratiques de
désherbage
Bien que les pratiques agricoles aient considérablement évolué, parmi les plus ancestrales, il en est une
qui est de nos jours encore mondialement utilisée, c’est la rotation des cultures. L’intérêt de cette méthode
est de permettre non seulement de ne pas appauvrir constamment les mêmes composants du sol et donc de
réduire le rendement de la culture mais aussi d’empêcher certaines espèces végétales néfastes à la culture
de s’implanter définitivement sur la parcelle. Le principe consiste à changer de type de culture d’une année
sur l’autre, il est ainsi possible de régénérer le sol et de modifier l’implantation de certaines espèces. Une
particularité de l’agriculture française est d’utiliser une autre pratique liée au désherbage : le labour. Un des
buts de cette méthode, réalisée avant le semis de la culture, est d’éradiquer les plantes vivaces présentes sur
la parcelle. L’intérêt de cette méthode est de permettre à la culture de se développer sainement, pleinement
et suffisamment vite avant que les mauvaises herbes ne se développent. Dans le cas où certaines mauvaises
herbes subsisteraient, une concurrence entre la culture et les adventices apparaı̂trait. Cette concurrence est un
champ de recherche largement étudié en agronomie et notamment au sein de l’UMR INRA/ENESAD BGA
(Biologie et Gestion des Adventices). JP Guillemin et al. (Granger et Guillemin, 2004 ; Guillemin et al., 2004 ;
Thomas et al., 2004) ont montré que la culture prendra l’ascendant sur une autre plante au cours des quinze
premiers jours après le semis. Des études sur la compétitivité ont également été conduites au Mexique sur des
cultures de haricots afin de sélectionner les graines de haricots qui ont une très bonne aptitude à la concurrence
vis-à-vis des mauvaises herbes (Mondragón Pedrero et Serrano Covarrubias, 2004).
Ainsi l’existence d’une concurrence entre plante cultivée et mauvaises herbes nécessite de mettre en œuvre
des techniques pour lutter contre les mauvaises herbes.
1.2.1 Le désherbage chimique
C’est ainsi que l’agriculteur peut avoir recours aux herbicides afin de finaliser l’éradication des adventices
sur la parcelle, le temps que la culture soit suffisamment développée. Actuellement, les firmes de produits phytosanitaires proposent une gamme extrêmement large dont l’efficacité est telle que l’agriculteur en est devenu
totalement tributaire.
Ces produits peuvent être soit de pré-émergence, soit de post-émergence et peuvent avoir soit une action
foliaire soit une action racinaire ou soit les deux.
Il existe plusieurs firmes proposant ces produits comme Syngenta (Syngenta, 2007), Tradi-Agri, MONSANTO (Mosanto, 2007)....
3
Chapitre 1. Généralités sur le désherbage et l’imagerie
Ces firmes ont développé, entre autre, des herbicides dits sélectifs qui n’endommagent pas la
culture même si celle-ci est pulvérisée, des herbicides adaptés à différentes classes de plantes (monocotylédones/dicotylédones), voire à différentes familles (brassicacées, astéracées) ou bien même à différentes
espèces (chardon, vulpin,...).
Par la suite, ce sont ces produits et plus particulièrement leurs molécules chimiques qui vont polluer le sol,
suite à une mauvaise pulvérisation ou un surdosage, sans possibilité par la suite de les éliminer provoquant ainsi
une pollution des eaux notamment par les nitrates qui les composent. De nombreux travaux scientifiques ont
étudié les raisons pour lesquelles ces molécules actives n’atteignent pas leur cible (les feuilles par exemple).
La principale cause est liée à la fabrication du jet de pulvérisation en sortie de buse. En effet, la difficulté est
de pouvoir créer des gouttes d’eau, vecteurs de ces molécules actives, de dimensions correctes pour qu’elles ne
s’évaporent pas durant leurs parcours avant d’atteindre la cible ou qu’elles ne ruissellent pas sur les feuilles finissant alors sur le sol. Des équipes, comme celle du laboratoire de Gembloux, ont étudié des jets de pulvérisation
afin de tester de nouveaux types de buse (Ooms et al., 2002 ; Lebeau et al., 2004).
Face à ce problème environnemental, des décisions européennes ont été prises interdisant la vente de certaines matières actives (inscription à l’annexe I de la directive 91/414/CEE1 ). Ainsi chaque année, ce sont plus
de 550 molécules actives qui sont retirées du marché par les pouvoirs publics (informations obtenues chez
Trame2 qui représente un réseau de 6 000 salariés agricoles, 50 000 agriculteurs, 120 associations régionales
ou départementales de développement agricole, 1 500 associations locales, 250 conseillers ou techniciens).
Parmi les molécules actives, la plus connue est l’Atrazine (sa forme structurelle est présentée figure 1.3),
dont la vente est interdite depuis le premier octobre 2003.
F IG . 1.3 – Formule structurelle de l’atrazine.
Bien sûr, réduire ces produits chimiques n’est pas, en soi, une solution satisfaisante. En effet l’environnement
continuera à être pollué, certes en plus faible quantité, mais aussi du fait que l’on produit un biotope de mauvaises herbes de plus en plus résistant à ces produits contraignant le monde de la phyto-chimie à développer
des produits de plus en plus agressifs, pouvant nuire également au bon développement de la faune (par exemple
les abeilles), de la flore (disparition de certaines espèces) et de l’homme (le taux de cancer chez les agriculteurs
est de plus en plus élevé).
1.2.2 Le désherbage biologique et mécanique
Le désherbage biologique fait intervenir l’action de parasites, de prédateurs ou d’organismes pathogènes sur
les plantes. Cette méthode consiste à favoriser l’attaque des mauvaises herbes par les insectes ou les maladies.
Étonnamment, cette méthode est peu développée en France alors qu’elle est extrêmement utilisée dans certains
de nos pays limitrophes, notamment en Suisse avec le projet européen COST 816 qui a réuni, de 1994 à 1999,
des chercheurs de 14 pays (Blum, 2004).
Le désherbage mécanique (binage, hersage...) est utilisé le plus souvent dans le but de limiter l’emploi de
produits phytosanitaires ; c’est une technique qui est plus particulièrement utilisée pour détruire les mauvaises
herbes dans l’inter-rang de la culture.
1 http
2 http
://fr.wikipedia.org/wiki/Directive 91/414/CEE
://trame.asso.fr/index.php ?page=g1&texte=trame adherents
4
1.3
Vers une meilleure gestion de la pulvérisation
1.2.3 Autres types de désherbage
De façon marginale, il existe des méthodes plus originales de désherbage, telles que le désherbage thermique ou brûlage. Ces méthodes ont été testées essentiellement sur des cultures maraı̂chères (?).
On peut noter également, un désherbage marginal testé en ville et non pas en milieu agricole. L’utilisation
d’une mousse spéciale à base de produits naturels. Le Waı̈puna, développé en Nouvelle Zélande a été testé en
2004/2005 par la DDE (Direction Départementale des Équipements) dans des villes de Bretagne pour désherber
les trottoirs en ville. Ce système de pulvérisation consiste à projeter une mousse sur le sol goudronné comportant
des mauvaises herbes, mousse composée de substances naturelles qui vont détruire les mauvaises herbes en
moins de 24 heures (Hatey et Bras, 2004).
Des travaux scientifiques récents démontrent de façon de plus en plus irréfutable la réalité des propriétés
allélopathiques3 de certaines plantes. Pour exemple, l’espèce armoise annuelle (artemesia annua) dont certains génotypes produisent des niveaux élevés d’artémisinine4 , une molécule dont les effets inhibiteurs sur la
croissance des plantes cibles sont démontrés (Delabays et Munier-Jolain, 2004).
1.2.4 Les Techniques Culturales Simplifiées (TCS)
Les Techniques Culturales Simplifiées sont actuellement en plein essor car elles sont respectueuses de
l’environnement et économes en produits phytosanitaires et en énergie. Ces pratiques ont pour but de restituer
la richesse organique des sols et d’assurer un développement durable à l’agriculture. Initialement ces techniques
reposent sur la simplification du travail du sol : il n’y a plus de travail profond du sol, on évite le labour. Le
labour est alors remplacé par un travail du sol superficiel, développant un sol plus homogène avec une matière
organique concentrée en surface. La forme la plus extrême des TCS est de réduire totalement les travaux du
sol en réalisant le semis direct, le semis se fait alors sur un sol non travaillé où les adventices auront été au
préalable contrôlées par une pulvérisation d’herbicides.
1.2.5 L’efficacité des stratégies de désherbage
Actuellement, les solutions envisagées et testées sur certains types de cultures (par exemple : lentille, betterave) montrent que la combinaison de ces différentes méthodes de désherbage semble donner d’aussi bons
résultats concernant le rendement que le désherbage utilisant une seule pratique. Notamment combiner un
désherbage chimique avec un désherbage manuel est également étudié (Bamouh et Naciri, 1998). Ces types de
travaux sont en cours d’étude à l’UMR BGA5 dans un essai dit ”longue durée” (Munier-Jolain et al., 2004)
où l’efficacité de différentes combinaisons de méthodes de désherbage est étudiée. On citera également
les études menées par le CETIOM6 sur l’intérêt des techniques combinées pour le désherbage du tournesol (Pilorge et al., 2004).
1.3 Vers une meilleure gestion de la pulvérisation
Dans le cadre de cette thèse, nous nous sommes intéressés plus particulièrement aux pratiques de
désherbage chimique. Les principales entreprises impliquées dans la pulvérisation (fabricants de pulvérisateurs
et/ou de buses) ont commencé dès les années 80 à prendre conscience du problème environnemental en
proposant très tôt des machines dont la pulvérisation peut-être automatiquement régulée de différentes façons
mais aussi en développant des systèmes pour une meilleure stabilité de la rampe de pulvérisation lors de
l’avancement (par exemple, le système Axair de Tecnoma (Tecnoma, 2007)). La régulation a pour rôle de
pré-régler, de contrôler et de maintenir constant le volume/ha désiré, quels que soient le tracteur utilisé, le
3 le phénomène d’allélopathie décrit les interactions biochimiques directes ou indirectes, positives ou négatives, d’une plante sur une
autre (micro-organismes inclus) au moyen de métabolites secondaires. Un métabolite secondaire est une molécule que produisent les
organismes en dehors des voies métaboliques strictement nécessaires à assurer la survie.
4 L’artémisinine est le principe actif isolé de la plante armoise annuelle.
5 Biologie et Gestion des Adventices.
6 Centre Technique Interprofessionnel des Oléagineux Métropolitains.
5
Chapitre 1. Généralités sur le désherbage et l’imagerie
régime moteur, la vitesse d’avancement et le débit de la pompe. Elle permet aussi de protéger les composants
du pulvérisateur contre les élévations trop importantes de pression.
Les lois de la régulation sont soumises à trois paramètres qui sont :
– la pression, fournie par la pompe et mesurée dans les circuits ou aux buses,
– le débit des buses, ou de la rampe,
– la vitesse d’avancement du pulvérisateur.
Il existe deux grands principes de régulation :
– la régulation à pression constante : dans ce cas, un régulateur de pression maintient constante la pression dans les canalisations. Le débit des buses est alors constant, ce qui nécessite une vitesse d’avancement constante si l’on veut maintenir constant le volume épandu,
– la régulation à débit proportionnel : avec ce principe, un dispositif assure automatiquement un volume
constant pendant toute la durée de pulvérisation. Dans ce cas une variation de la vitesse d’avancement ou
du débit de la pompe est corrigée automatiquement par le système de régulation.
A partir de ces deux principes de régulation, différents systèmes de régulation, toujours placés entre la pompe
et la rampe, sont proposés :
– régulation à pression constante (P.C.) : avec ce système, la pression de pulvérisation est maintenue
constante par un régulateur de pression (Barthelemy et al., 1990),
– régulation à débit proportionnel au régime moteur (D.P.M.) : cette régulation est basée sur le principe
de la proportionnalité entre le débit des buses et le débit de retour en cuve quel que soit le débit de la
pompe, donc quel que soit le régime moteur. La pompe doit être de type volumétrique. Le volume/ha
est donc constant quelles que soient les variations de vitesse de rotation du moteur pour un rapport
de boite donnée. Ceci se réalise au détriment de la pression qui peut varier en cours de pulvérisation,
modifiant ainsi la qualité des gouttes. De même, en cas de patinage du tracteur aucune correction n’est
effectuée (Barthelemy et al., 1990),
– régulation à débit proportionnel à l’avancement (D.P.A.) : la régulation est basée sur le principe de
proportionnalité entre le débit aux buses et la vitesse d’avancement. Le volume/ha est constant quelles
que soient les variations de vitesse d’avancement ou du régime moteur, et même en cas de patinage. La
correction se réalise au détriment de la pression qui varie au cours de pulvérisation, entraı̂nant ainsi une
modification de la taille des gouttes (Barthelemy et al., 1990),
– régulation à débit proportionnel électronique (D.P.E.) : l’utilisation de l’électronique sur les
pulvérisateurs permet de mettre au point différents systèmes de régulation qui sont basés sur le même
principe. Des capteurs collectent des informations (débit, pression, vitesse) qu’ils transmettent à des
unités de traitement qui, après analyse des données, commandent des actionneurs (régulateurs de débit,
de pression). Ces systèmes permettent de vérifier le débit obtenu, de corriger et d’ajuster en permanence
le volume/ha, quels que soient la vitesse d’avancement, le régime d’entraı̂nement de la pompe ou la
largeur de la rampe (Barthelemy et al., 1990).
Cependant, même si ces systèmes de régulation sont fonction de la vitesse d’avancement du tracteur et/ou
du devers de la parcelle, il faut avoir en mémoire qu’actuellement la plupart de ces systèmes pulvérise de
façon homogène sur toute la parcelle sans tenir compte de la répartition spatiale des mauvaises herbes dans
une parcelle cultivée. Enfin, une autre avancée technique est l’arrivée sur le marché de nouveaux types de
buses dites ”buses anti-dérive” permettant, entre autre, de contrôler la dimension et la quantité des gouttelettes
susceptibles d’être déplacées par le vent afin qu’elles puissent atteindre leur cible. Nous pouvons voir sur la
figure 1.4 différentes buses existantes7 .
7 source
: http ://www.rhone-alpes.chambagri.fr/phytov3/pages/derive.htm
6
1.3
Vers une meilleure gestion de la pulvérisation
Parmi les plus connues, on notera les buses Teejet développées par la Société Pulvexpert (Pulvexper, 2007),
mais aussi les buses Nozal de chez Tecnoma (Tecnoma, 2007) basées sur le principe d’injection d’air pour
modifier la taille des gouttes.
Enfin, il est à noter que la charte Phytomieux8 signé entre le constructeur et le distributeur a pour objectif
la fourniture d’un matériel neuf et d’un service de qualité respectant les règles de sécurité pour l’utilisateur
et minimisant l’impact sur l’environnement. Elle est complémentaire des normes européennes sur la sécurité
(EN907)9 et sur l’environnement (EN 12761).
F IG . 1.4 – Différentes buses existentent sur le marché.
Parmi les équipes de recherche (autre que le laboratoire de Gembloux en Belgique) travaillant sur la
pulvérisation, le Département of Agricultural Engineering de l’université de Bonn en Allemagne a développé
de nouveaux types de buses utilisant la régulation basée sur la Modulation de Largeurs d’Impulsions (MLI ou
PWM : Pulse Width Modulation en anglais) (Hloben et al., 2006 ; Vondricka et al., 2006). Également le Cemagref de Montpellier avec l’équipe ”Technologies et Équipements”, de l’Unité Mixte de Recherche ITAP10 ,
dirigé par Bernadette Ruelle (Cemagref, 2007) a mis en place une plateforme de recherche technologique pour
les matériels et techniques d’applications des produits phytosanitaires. Afin de caractériser les produits, comme
la mesure de la taille et de la vitesse des gouttelettes, des méthodes de granulométrie, vélocimétrie laser (basé
sur les propriétés de diffusion de la lumière sur des gouttelette) sont utilisées. Enfin, des expériences sont
menées sur la répartition de la pulvérisation sous une rampe en utilisant un banc de répartition sous rampe.
Quant à l’étude de l’influence du vent sur les jets de pulvérisation, un tunnel de dérive a été réalisé tout comme
à l’unité de Gembloux dirigée par M. F. Destain. Actuellement deux doctorants travaillent sur ce sujet, JeanMarc Brun11 travaille sur l’étude des phénomènes de dérives ; il vise plus particulièrement à caractériser les
flux issus de la parcelle au cours de l’application des pesticides et à prédire leur devenir et par conséquent
leur répartition dans l’environnement à courte distance. Magali de Luca12 propose d’étudier et de modéliser les
mécanismes mis en jeu lors de l’atomisation d’un liquide afin de calculer les tailles et les vitesses de gouttes
optimales nécessaires à une pulvérisation contrôlée de produit phytosanitaire.
8 http
://www.trame.org/Phytomieux/Charte acc%E9s doc pdf.htm
://www.epagri.com/news00010b15.html
10 Information et Technologies pour les Agro-Procédés.
11 thèse intitulée ”Utilisation de techniques de contrôle optimal pour la modélisation de rangs de végétation, appliquées à la
modélisation de la dispersion de produits phytosanitaires”.
12 thèse intitulée : ”Contribution à la modélisation de la pulvérisation d’un liquide phytosanitaire en vue de réduire les pollutions”.
9 http
7
Chapitre 1. Généralités sur le désherbage et l’imagerie
1.4 Modulation de la pulvérisation : état des lieux
Les travaux récents conduits sur des cultures céréalières ont permis de montrer que le désherbage localisé
est envisageable au niveau de la parcelle agricole (Vioix, 2004) en acceptant des modifications techniques
importantes sur le matériel agricole. Actuellement ceci se traduit pour les pulvérisateurs agricoles par un degré
de sophistication très élevé engendrant un surcoût lors de l’achat d’un tel matériel. Cependant la réduction
du coût des produits phytosanitaires et la conservation des rendements compensent largement le surcoût du
matériel13 .
Certaines sociétés de pulvérisation comme SPRAY Concept ont abordé différemment l’approche sur
la préservation de l’environnement en s’interrogeant sur le devenir des ”fonds de cuve”. En effet, une fois
la pulvérisation (bouillie composé d’eau et de produits phytosanitaires) terminée, que faire de cet excès de
bouillie pour ne pas la rejeter dans la nature. Cette réflexion a conduit à développer un nouveau type de
pulvérisateur dit ”pulvérisateur à injection directe”. Le système est composé de plusieurs cuves, une pour
chaque constituant de la bouillie à pulvériser, par exemple on peut voir sur la figure 1.514 le SP-ID15 développé
par SPRAY Concept (Proharam, 2007).
F IG . 1.5 – Pulvérisation par injection directe (SP-ID) de la société SPRAY Concept.
Les avantages de ce système sont les suivants :
–
–
–
–
–
–
–
la cuve principale qui contient seulement de l’eau propre,
les produits phytosanitaires liquides ou solides sont placés dans des cuves séparées,
les produits peuvent être appliqués en séquence ou simultanément, selon la législation en vigueur,
les fonds de cuve sont supprimés,
le nettoyage du pulvérisateur s’effectue au champ en fin de travail,
le dosage est commandé à partir de la cabine grâce à une console électronique,
les produits non utilisés sont récupérés dans leur emballage d’origine en fin de traitement,
Depuis peu arrivent sur le marché d’autres types de pulvérisateurs équipés de systèmes de navigation par
satellites (GPS) permettant la gestion automatisée des coupures de tronçons de rampe. Deux catégories de
matériels sont proposées :
13 revue
Profi 2002.
: http ://spray-concept.com/cerealiers.htm
15 Spraying par Injection Directe.
14 source
8
1.4
Modulation de la pulvérisation : état des lieux
– une carte de préconisation de pulvérisation a été réalisée au préalable et celle-ci est ensuite insérée dans
l’ordinateur du tracteur pour gérer des tronçons de rampe,
– à l’aide d’un GPS16 , il est possible selon la position du tracteur de contrôler l’ouverture ou non des
tronçons d’une rampe de pulvérisation. Par exemple, la société HARDI-EVRARD avec l’Auto Section
Control 100 (ASC100)17 (HARDI-EVRARD, 2007) ou encore la société DELVANO, avec le modèle
EUROTRAC (DELVANO, 2007) permet d’éviter des surdoses lors de passages successifs à un même
endroit de la parcelle (figure 1.6.a)18 . Ce type de système permet de commander automatiquement et
individuellement (à l’aide d’un joystick comme présenté figure 1.6.b) l’ouverture et la fermeture des sections de rampe en bordure de champ ou lors de contournement d’obstacles. Le système saisit les limites
du champ et détermine sur cette base, compte tenu des paramètres de fonctionnement du pulvérisateur,
les zones dans lesquelles les segments de rampe doivent être ouverts ou fermés.
(a)
(b)
F IG . 1.6 – (a)Auto Section Control 100 (ASC1000). (b)Joystick de commande de tronçons de rampe.
Ces systèmes sont et resteront coûteux puisqu’ils sont équipés de ce système de navigation par satellite de haute
précision. Ainsi un GPS classique ne suffit pas (l’erreur de position est de l’ordre de quelques mètres) et il faut
le plus souvent avoir recours à un système DGPS19 pour réduire au maximum l’erreur sur la position spatiale de
l’engin agricole. Avec ce type de systèmes, l’agriculteur est obligé d’avoir un abonnement pour avoir accès à ce
service en passant par un prestataire qui est peut être un constructeur agricole (i.e. John Deere). En effet, dans
le milieu agricole, la précision minimale requise pour utiliser ce type de systèmes de navigation varie entre 5
centimètres et 20 centimètres selon les travaux (semis, pulvérisation, moisson...). A titre indicatif, la figure 1.7
renseigne sur le prix d’un système DGPS selon les constructeurs20 .
16 Global
Positionning System.
(ASC 100) est une gestion automatisée des coupures de tronçon, basée sur le positionnement GPS, qui
gère l’ouverture et la fermeture des tronçons pour éviter tout manque ou surdosage.
18 source : http ://www.hardi-fr.com/News/2007/FR%20ASC%20100.aspx
19 Differential Global Positionning System.
20 Revue Réussir 2005, l’autoguidage, article de Michel Portier, volume N˚179.
17 L’Auto Section Control 100
9
Chapitre 1. Généralités sur le désherbage et l’imagerie
F IG . 1.7 – Système de correction GPS, précision et prix (2005). Ces prix ne tiennent pas compte de l’achat du
boı̂tier et de la console GPS.
Il est à noter que l’utilisation du DGPS ouvre de nouvelles perspectives en agriculture pour une assistance
au guidage en proposant un guidage automatique de précision.
Les systèmes proposés actuellement sur le marché demandent à l’agriculteur beaucoup trop d’attention en
mode manuel (conduire, regarder et agir sur le joystick). Quant au mode automatique, l’utilisation du DGPS
est un investissement pas encore suffisamment rentable pour les parcelles françaises de petites tailles. D’autre
part, la réception de ce signal GPS n’est pas ou peu accessible pour les parcelles situées dans des régions
montagneuses où pour des parcelles situées en lisière de bois.
D’autres solutions basées sur l’utilisation de caméra ont été étudiées dans les laboratoires de recherche.
L’idée étant, non pas de géo-référencer les travaux agricoles par rapport à une référence absolue dépendante
d’un prestataire, mais plutôt par rapport à l’engin agricole lui-même. Les premiers travaux, conduits à
l’institut Silsoe (Hague et Tillett, 1996 ; Marchant et al., 1997 ; Sanchiz et al., 1998a ; Sanchiz et al., 1998b ;
Tillett et al., 1998 ; Tillett et Hague, 1999 ; Hague et Tillett, 2001) ont commencé avec l’utilisation d’une
caméra pour l’autoguidage. En fait le tracteur utilise un système de vision qui effectue du ”tracking” (suivi)
des lignes de semis soit en utilisant la transformée de Hough ou les filtres étendus de Kalman puis en regardant la déviation verticale qui existe entre ces lignes et le tracteur afin de corriger l’erreur de position
du tracteur par rapport aux lignes. Åstrand et son équipe utilisent aussi la transformée de Hough pour effectuer du guidage automatique (Åstrand et Baerveldt, 1999 ; Åstrand et Baerveldt, 2005). Billingsley utilise un
fenêtrage sur les lignes de cultures pour détecter des points appartenant à la culture et effectue une régression
linéaire sur ces points afin de détecter les lignes de semis (Billingsley et Schoenfisch, 1997). Quant à Kise et
son équipe (Kise et al., 2005), ils utilisent un système de stéréovision afin de construire une carte de niveau des
cultures et recherchent des points de repère dans cette carte afin de guider le tracteur. Il faut être conscient que
le fait d’embarquer ce type de capteur a également ses inconvénients car il est impossible de travailler de nuit
avec une caméra sans lumière artificielle.
1.5 L’apport de l’imagerie pour le désherbage
Dans le cadre du désherbage, l’imagerie permettrait à travers des applications en temps réel de venir en
complément d’une utilisation GPS qui servirait pour la traçabilité.
L’imagerie en temps réel devra permettre de réaliser les trois étapes suivantes :
1. détecter un signal à l’aide d’un capteur,
2. extraire l’information agronomique et établir un protocole de décision,
10
1.5
L’apport de l’imagerie pour le désherbage
3. déclencher une action sur l’outil de désherbage comme par exemple, le déclenchement ou non des buses
d’un pulvérisateur.
1.5.1 Imagerie spectrale pour identification des plantes
Les premiers travaux ont été menés par Felton (Felton et McCloy, 1992 ; Felton, 1995) dans les années 90
sur la signature spectrale des végétaux pour une pulvérisation localisée. Comme la signature spectrale de la
végétation est très différente de celle du sol dans les longueurs d’onde infra rouge, il est aisé de séparer le sol
et la végétation dans une scène agronomique. Il existe plusieurs systèmes basés sur les propriétés spectrales
des plantes comme le pulvérisateur ”à main” développé par Haggar et al. (Haggar et al., 1983) utilisant deux
filtres à bandes étroites, centrées sur les longueurs d’onde 750 nm (proche infrarouge, PIR) et 650 nm (rouge,
R + PIR
R) et mesurant le rapport
. Ce rapport étant plus grand en présence de plantes, on peut déterminer un
R
seuil d’intervention pour la pulvérisation. Les tests en champ montrent qu’il est possible de traiter 90% des
mauvaises herbes présentes. Depuis, beaucoup de systèmes sont commercialisés, le plus connu étant le système
Detectspray (Felton et McCloy, 1992), un des précurseurs basé sur la réflectance des plantes. Ce système est
composé de deux capteurs équipés de photodiodes, l’un dirigé vers le sol, l’autre vers le ciel afin de sélectionner
la lumière ambiante seule et d’adapter ainsi le système aux variations de luminosité. Un indice de végétation
PIR
VI =
est utilisé pour détecter une plante. Biller et al. (Biller et al., 1997 ; Biller, 1998) proposent une étude
R
de ce système dans une culture de maı̈s. L’économie de désherbant a été mesurée sur 4 bandes de 130 mètres de
long placées dans l’entre-rangs. Une réduction d’herbicide de 30 à 70 % a été constatée. L’auteur remarque que
le système reste toutefois délicat à calibrer. D’autres systèmes ont été développés comme le système américain
Weedseeker qui a sa propre source de lumière et qui est donc capable de procéder de jour comme de nuit. Le
système Sprayvision capte la lumière réfléchie selon quatre longueurs d’onde, le bleu, le vert, le rouge et le
proche infra rouge, afin de déterminer le signal correspondant aux plantes. Cependant, la principale limite de
ces systèmes est qu’ils sont incapables à partir d’une seule bande spectrale (PIR) de discriminer la culture des
adventices, ils ne détectent que la végétation.
1.5.2 Autres méthodes d’imagerie pour l’identification des plantes
D’autres systèmes utilisent non pas une information spectrale mais une information spatiale ou des critères
morphologiques sur les plantes pour les discriminer. L’ensemble des résultats suivants sont regroupés dans le
tableau 1.1. Ainsi Lee et Slaughter (Lee et al., 1999) décrivent un système de détection d’adventices dans une
culture de tomates fonctionnant en temps réel (environ 1 km/h) et comportant deux caméras. La première permet le guidage automatique du robot et la deuxième, positionnée verticalement, permet de filmer une scène de
11, 43cm × 10, 16cm. La classification entre la culture et les adventices est effectuée en utilisant des paramètres
de forme simples (élongation, rondeur...) sur les feuilles individuelles. Pour cela les auteurs utilisent une classification Bayésienne basée sur un réseau de neurones de type RBF (Radial Basis Function) (Lee et al., 1997 ;
Lee et Slaughter, 1998). Une dose d’herbicide est appliquée pour chaque adventice détectée. Suite aux essais
en extérieur, ils montrent que 24,2% des tomates sont mal identifiées et donc traitées, et 52,4% des adventices
ne sont pas traitées. Ce système n’est efficace que si les adventices sont bien différentes de la culture par leur
forme, et s’il n’existe pas trop de chevauchements de feuilles. Dans ce cas, en effet, le calcul des paramètres de
forme est biaisé.
Blasco et al. (Blasco et al., 2002) décrivent un système fonctionnant en temps réel (0,8 km/h) et utilisant un
désherbage électrique. Une électrode alimentée par un ensemble de batteries permet de produire une décharge
électrique de 15 KV pouvant détruire les adventices. Le système est composé de deux caméras. La première
caméra est placée verticalement à l’avant du robot afin de détecter les adventices et de transmettre leurs coordonnées au bras de contrôle portant l’électrode. La surface de la scène filmée est de 11, 52cm × 8, 64cm. La
deuxième caméra est utilisée pour reconnaı̂tre l’adventice à détruire, elle est placée au niveau de l’électrode.
La classification est effectuée par analyse discriminante Bayésienne non linéaire. Pour cela ils utilisent des
critères de formes (périmètre, surface...) pour chaque feuille individuelle. Pour chaque adventice détectée, une
signature numérique lui est appliquée. C’est cette signature numérique qui est utilisée par la deuxième caméra
11
Chapitre 1. Généralités sur le désherbage et l’imagerie
pour identifier l’adventice à détruire. Ce système a été utilisé dans un champ de laitues et permet de détecter
84% de mauvaises herbes et 99% de laitue et d’éliminer 100% des petites adventices c’est-à-dire comportant
moins de cinq feuilles et ayant moins de 20 cm de hauteur.
Tian et al. (Tian et al., 1999) ont développé un pulvérisateur de précision expérimental utilisant un système
d’image pour estimer la densité de mauvaises herbes et la taille des adventices. Le système utilise deux caméras
positionnées verticalement, chacune d’elle ayant deux lignes de semis dans leur champ de vision. La rampe
de pulvérisation a une largeur de 3,05 mètres et comporte 12 buses, séparées les unes des autres de 0,254
mètre, commandées par des électrovannes pneumatiques. Le pulvérisateur travaille sur la largeur d’un interrang (76 centimètres) comme le maı̈s ou le soja. Le pulvérisateur a une vitesse comprise entre 1,5 et 5 km/h.
La transformation en ondelettes est utilisée pour détecter les surfaces ayant une zone d’infestation élevée. Pour
cela, ils utilisent un seuil sur la luminosité des pixels résultant de la transformée. La surface utile pour la
détection des adventices est de 3, 7m × 0, 43m. Le temps de décision pour la pulvérisation est de 0,37 seconde
ce qui limite la vitesse du pulvérisateur à 4,2 km/h. La précision de ce système est de 100% sur sol nu, 75%
dans la zone d’infestation et de 47,8% dans la zone de culture. Une réduction d’herbicide comprise entre 48%
et 58,5% est obtenue suivant le seuil utilisé pour la densité de mauvaises herbes.
Enfin, plus récemment, Åstrand et Baerveldt (Åstrand et Baerveldt, 1999 ; Åstrand et Baerveldt, 2002 ;
Åstrand et Baerveldt, 2003) présentent un système de discrimination en temps réel (0,72 km/h) comportant
deux caméras. La première permet de guider le robot dans le champ. La deuxième caméra (couleur) est positionnée verticalement et permet de filmer une scène de 45cm × 80cm. La détection des adventices se fait suivant
19 critères (couleur, élongation, surface...) et par l’utilisation d’une classification suivant l’algorithme des k
plus proches voisins. Le désherbage est de type mécanique. Les essais dans un champ de betteraves sucrières
montrent un taux de détection de 97% dans le cas où les 19 critères de détection sont utilisés.
1.6 Conclusion
Nous avons vu à travers ce chapitre que les constructeurs de machines agricoles savent très peu faire de
la pulvérisation localisée en temps réel et de façon automatisée. Seule l’utilisation des cartes d’infestation
obtenues par le système DGPS (ayant un prix élevé) est possible.
Les systèmes actuels utilisant les propriétés spectrales des plantes ne permettent pas de faire une discrimination culture/adventice, mais seulement de séparer la végétation du sol.
Enfin, plusieurs laboratoires ont développé des robots basés sur l’imagerie pour un désherbage chimique,
mécanique ou électrique utilisant le plus souvent deux caméras, la première permettant de guider le robot dans
le champ. La deuxième, souvent en position verticale ce qui implique un faible champ de vision et permet
de détecter les adventices. Seule l’équipe de Tian a développé un pulvérisateur de précision et non un robot
mais peu d’informations sont disponibles sur leur prototype. Le tableau 1.1 présente un bilan des différents
prototypes existants et de leurs caractéristiques. Ces systèmes sont essentiellement destinés à des cultures bien
spécifiques (salade, betterave à sucre, etc...) où l’ensemencement est effectué selon une méthode de semis en
place.
Dans le cadre de cette thèse, nous avons entrepris non pas de développer un robot spécifique mais de placer
une caméra (inclinée pour augmenter le champ de vision de celle-ci) sur une machine agricole ce qui constitue
une simple adaptation et ne perturbe pas les habitudes de l’agriculteur. D’autre part, ce système pourra être
utilisé aussi bien en cultures céréalières que maraı̂chères. Il est à noter que très récemment, D. C. Slaugther et
al. (Slaughter et al., 2007) viennent de rédiger un article de revue résumant les différents systèmes de robots
autonomes pour le contrôle des adventices.
12
1.6
Prototype
Orientation de
la caméra
Taille de la
scène
filmée
(cm × cm)
11, 43 × 10, 16
Lee(97-99)
vertical
Blasco(2002)
vertical
11, 52 × 8, 64
Tian(99)
vertical
370 × 43
Åstrand(992002-2003)
vertical
45 × 80
Algorithme
de traitement
d’image
classifieur
Bayésien
analyse
discriminante
Bayésienne
non linéaire
transformée en
ondelette
k plus proches
voisins
Conclusion
Vitesse du tracteur
Désherbage
1 km/h
chimique
0,8 km/h
électrique
4,2 km/h
chimique
0,72 km/h
mécanique
TAB . 1.1 – Résumé des systèmes de traitement existant qui utilisent un système de vision en temps réel.
13
Chapitre 1. Généralités sur le désherbage et l’imagerie
14
Chapitre 2
Dispositif expérimental
Sommaire
2.1
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2
Prototype de pulvérisation localisée en temps réel par imagerie . . . . . . . . . . . . . . . 16
2.3
2.4
2.5
2.2.1
Le pulvérisateur et ses modifications . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2.2
Choix de la caméra et de la carte d’acquisition . . . . . . . . . . . . . . . . . . . . . 18
2.2.3
Capteur de vitesse et unité de traitement . . . . . . . . . . . . . . . . . . . . . . . . . 19
Électronique et commande du pulvérisateur . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.1
Présentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.2
Unité de contrôle - Protocole de communication . . . . . . . . . . . . . . . . . . . . 21
2.3.3
Logiciel de pilotage des EVP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Dispositif optique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.4.1
Présentation du système optique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.4.2
Modélisation géométrique de la caméra : modèle du sténopé . . . . . . . . . . . . . . 27
2.4.3
Autocalibration pour le temps réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.1 Introduction
Actuellement, sur le marché de la pulvérisation en grande culture, il existe des pulvérisateurs commerciaux
qui permettent en temps réel la gestion automatisée des tronçons de rampe. En effet, ils ne permettent pas de
déclencher les buses indépendamment les unes des autres. On peut voir ci-dessous un exemple de pulvérisateur
Tecnoma (Tecnoma, 2007) de la gamme T X sur la figure 2.1 où toutes les buses pulvérisent en même temps.
L’un des objectifs de cette thèse est de développer un prototype de pulvérisation permettant la gestion
automatique en utilisant un système de vision en temps réel.
Au cours de ce chapitre, nous allons détailler la réalisation de notre prototype en précisant et caractérisant
les principaux éléments :
– les modifications apportées au pulvérisateur, l’utilisation d’un capteur de vitesse et le choix de la caméra,
– l’électronique de commande via la conception d’une carte d’interfaçage pour permettre de gérer la communication, via un protocole (spécialement développé pour ce projet) entre les différents capteurs et
actionneurs,
– le système optique utilisé.
15
Chapitre 2. Dispositif expérimental
F IG . 2.1 – Présentation d’un pulvérisateur de la gamme TX de chez Tecnoma technologies.
2.2 Prototype de pulvérisation localisée en temps réel par imagerie
2.2.1 Le pulvérisateur et ses modifications
Le pulvérisateur que nous utilisons est un pulvérisateur de parcs et jardins de la marque Tecnoma
(Tecnoma, 2007) possédant un réservoir de 200 litres, il a pour référence ”TS200 PM 90” et est présenté sur la
figure 2.2. Le choix de ce pulvérisateur s’explique par le fait que son gabarit (taille et poids) est particulièrement
bien adapté à la faible puissance du tracteur que l’ENESAD possède. En effet, nous disposons d’un tracteur
”espace vert” de 17 chevaux (Ferrari T93).
F IG . 2.2 – Le pulvérisateur TS200 PM 90 de Tecnoma.
Dans le contexte d’agriculture de précision, des modifications techniques ont été nécessaires et ont été
réalisés par F. Voiry et A. Malashko, étudiants en troisième année de formation initiale à l’ENESAD. La plupart
des informations suivantes sont tirées de leur rapport technique ”Conception et réalisation d’un pulvérisateur
pour l’agriculture de précision” (Voiry et Malashko, 2004).
Du point de vue mécanique, il a fallu construire un nouveau châssis pour le pulvérisateur afin qu’il puisse
supporter la cuve, la nouvelle rampe et le compresseur d’air. Initialement, le support de rampe fourni par Tecnoma était en aluminium, il a été délaissé car sa largeur ne convenait pas et parce que la rampe devait être plus
robuste pour supporter les ”tuyauteries” hydraulique et pneumatique ainsi que les pentajets et électrovannes. Le
support de rampe pourra ainsi accueillir une rampe de 6m avec 12 buses espacées de 50cm. On peut voir sur la
figure 2.3, le châssis et la rampe avec un porte buse pentajet.
16
2.2
Prototype de pulvérisation localisée en temps réel par imagerie
F IG . 2.3 – (a) Châssis réalisé. (b) Support de rampe avec un porte buse pentajet et une électrovanne pneumatique.
Du point de vue pneumatique, il a fallu également prévoir l’installation d’une électrovanne pneumatique
(EVP) en amont de chaque buse (figure 2.4.a), soit au total, 12 électrovannes. Nous nous sommes orientés vers
des électrovannes pneumatiques pour leur faible temps de réponse à l’ouverture et à la fermeture en temps
réel (environ 10 ms) permettant de maintenir un jet sous pression (quelques bars) en atteignant un régime
permanent rapidement. Cela implique l’installation d’un compresseur d’air alimenté par un moteur électrique,
ainsi que l’installation d’un circuit d’air comprimé (cuve et filtration). Ainsi, le circuit pneumatique (figure
2.4.b) est composé :
– d’un moteur électrique couplé au compresseur permettant de créer l’air comprimé,
– d’un réservoir qui emmagasine l’air comprimé. Il est doté d’un capteur (tout ou rien) qui déclenche le
compresseur s’il y a moins de 8 bars et l’arrête s’il y a plus de 10 bars. La cuve comporte une soupape
de sécurité en cas de défaillance du système,
– d’un filtre placé avant la rampe commune qui protège les électrovannes.
Au repos donc en l’absence de pression, les EVP laissent passer la bouillie1 vers les buses. Alimentées, donc
sous pression, elles coupent l’arrivée de la bouillie vers les buses. Ces électrovannes pneumatiques sont commandées électriquement par une carte électronique que nous avons réalisé et qui a été spécialement développée
pour cette application (voir §2.3.2).
F IG . 2.4 – (a) Électrovanne pneumatique en amont de chaque pentajet. (b) Circuit pneumatique.
1 Mélange
d’eau et de produits physanitaires
17
Chapitre 2. Dispositif expérimental
Pour finir, du point de vue hydraulique, notre partenaire Tecnoma nous a fait profiter de sa régulation
Régulair (figure 2.5.a). Cette régulation à pression constante est assurée par une membrane soumise à la pression hydraulique de la pompe et à la pression pneumatique d’un micro-système pneumatique, ce qui apporte une
souplesse et une facilité de réglage : modulation en cours de travail par commande électrique. Un manomètre a
été installé afin de vérifier la pression (environ 4 bars) dans le circuit.
Pour résumer, nous avons un pulvérisateur composé d’une rampe de 6m de long avec 12 buses espacées
de 0, 5 mètres. Le circuit hydraulique est similaire à un pulvérisateur standard dont la régulation est à pression constante. Un circuit pneumatique spécifique a été développé afin de toujours maintenir une pression
suffisante (4 bars) pour le bon fonctionnement des électrovannes pneumatiques. La gestion des buses se fait
indépendamment par une carte électronique (unité de contrôle) via les électrovannes pneumatiques contrôlées.
Ainsi chaque buse va pouvoir fonctionner en ”tout ou rien”.
F IG . 2.5 – (a) La régulation Régulair. (b) Capteur de vitesse.
2.2.2 Choix de la caméra et de la carte d’acquisition
Comme les images acquises sont prises en mouvement, nous nous sommes tournés vers une technologie
de caméras dites ”full frame” effectuant la prise d’image en une seule trame. En effet, les caméras classiques
utilisent deux trames pour faire une image, la trame paire et impaire. Si nous avions opté pour une caméra de ce
type, nous aurions eu un décalage entre la trame paire et impaire pour l’image finale à cause de l’avancement
du tracteur pendant la prise de ces deux trames. En fait nous aurions obtenu une image entrelacée. Pour éviter
ce problème, la solution consiste à ne garder qu’une des deux trames, ce qui divise la résolution horizontale de
la caméra par deux, et nous aurions obtenu une image compressée verticalement de la scène réelle.
Le deuxième élément critique pour le choix de la caméra est sa résolution. En effet, les images acquises
doivent permettre de détecter des jeunes pousses d’adventices, c’est-à-dire au stade où l’adventice présente
trois feuilles soit environ la taille d’une plantule (surface < 10cm2 , soit environ 3cm × 3cm). Pour une longueur
correspondant à la taille de la rampe de pulvérisation (6 mètres) et pour une plante représentée par 5 pixels, il
6×5
= 1000 pixels par ligne.
vient
0, 03
Le troisième point important est la possibilité d’accéder et de contrôler toutes les commandes internes de la
caméra : le temps d’exposition et d’acquisition, les différents ”triggers’. En effet, pour certaines caméras il est
nécessaire de développer une électronique particulière pour accéder à certains de ces paramètres (Vioix, 2004 ;
Navar, 2001 ; Mansouri, 2005). Nous nous sommes donc tournés vers les caméras possédant la norme ”camera
link”2 .
2 Camera
Link est un protocole de communication série conçu pour des applications de vision par ordinateur et basé sur l’interface
Channel Link de National Semiconductor. La normalisation des systèmes vidéo scientifiques et industriels, tels que caméras, câbles,
cartes d’acquisition... ont motivé la création de ce protocole.
18
2.2
Prototype de pulvérisation localisée en temps réel par imagerie
Enfin le dernier point est que cette caméra doit pouvoir fonctionner dans le domaine spectral du proche
infrarouge (650 - 1100 nm) afin de rehausser les signaux des végétaux du reste de la scène (sol, ombres,
résidus...).
Finalement notre choix de caméra s’est porté sur une caméra Sony U1000. C’est une caméra monochrome
dont la plage spectrale s’étend jusque dans le proche infrarouge. C’est une caméra ”full frame”, supportant la
norme ”camera link” et dont la résolution des images est de 1598 × 1199 pixels.
Étant donné le tracteur que nous possédons, nous avons choisi de placer la caméra à l’avant du tracteur
comme le montre la figure 2.6 et non pas sur l’arceau afin d’avoir le plus grand champ de vision possible tout
en ayant un angle de tangage correct.
La prise d’image est effectuée par l’intermédiaire d’une carte d’acquisition Imaq PCI/PXI-1428 de chez
National Instruments. Le fait que la carte soit de type PCI imposera par la suite l’utilisation d’un ordinateur
traditionnel de bureau pour le traitement des différents tâches.
2.2.3 Capteur de vitesse et unité de traitement
Pour finaliser notre prototype, nous avons besoin :
– d’un capteur de vitesse (figure 2.5.b). Nous utilisons un capteur ILS3 relié à l’unité de contrôle. C’est un
capteur de proximité composé d’une lame souple sensible à la présence d’un champ magnétique mobile
(aimant sur la roue). Lorsque le champ se trouve sous la lame, il ferme le contact du circuit provoquant
la commutation du capteur.
– d’un ordinateur afin de traiter les images acquises,
– d’une unité de contrôle permettant le lien entre les capteurs et actionneurs avec l’ordinateur,
– d’une batterie 12 volts permettant d’alimenter l’unité de contrôle et les électrovannes pneumatiques,
– d’un onduleur 12V/220V pour nous permettre d’alimenter l’ordinateur et la caméra à partir de la batterie.
Ces deux éléments sont nécessaires car notre tracteur ne possède pas d’alternateur, il est donc impossible
d’utiliser la batterie du tracteur.
La figure 2.6 montre la vue générale du pulvérisateur de précision comprenant, le pulvérisateur, la caméra,
l’unité de contrôle, l’ordinateur et le capteur de vitesse. Le schéma général du pulvérisateur de précision est
présenté figure 2.7.
F IG . 2.6 – Vue générale du pulvérisateur de précision.
3 Interrupteur
à Lames Souple.
19
Chapitre 2. Dispositif expérimental
F IG . 2.7 – Schéma général du pulvérisateur de précision.
2.3 Électronique et commande du pulvérisateur
Après avoir présenté les différents constituants nécessaires à la réalisation du prototype de pulvérisation
localisée, contrôlé en temps réel par un système de vision, nous nous attachons dans cette section à expliquer la
partie du travail de thèse qui a consisté à mettre en place une communication entre ces constituants. Cette communication passe dans un premier temps par de l’électronique avec la conception et la réalisation d’une carte
d’interfaçage. Puis dans un deuxième temps, nous abordons la partie informatique en décrivant le protocole de
communication ainsi que le logiciel de pilotage des buses qui a été réalisé.
2.3.1 Présentation
On peut voir sur la figure 2.8, le fonctionnement général du pulvérisateur.
F IG . 2.8 – Synoptique complet du dispositif du prototype.
Dans la partie ”ordinateur” nous voyons une carte compact flash. L’ordinateur étant situé sur le capot du
tracteur, il est soumis à de nombreuses vibrations du moteur qui pourraient provoquer la détérioration des
20
2.3
Électronique et commande du pulvérisateur
pistes d’un disque dur traditionnel voire sa destruction totale. Nous avons finalement opté pour l’utilisation
d’une carte compact flash de 4 Go (via un adaptateur carte flash/ide réalisé en partie dans notre laboratoire)
en remplacement d’un disque dur traditionnel. Sur le tracteur nous n’avons ni écran, ni clavier, ni souris ; pour
les essais, nous commandons l’ordinateur à distance avec un ordinateur portable par liaison wifi. L’interaction
entre les électrovannes pneumatiques, le capteur de vitesse, et l’ordinateur se fait par liaison série de type full
duplex, c’est-à-dire que l’information circule dans les deux sens : des informations peuvent être transmises en
même temps que des informations sont reçues. Les électrovannes pneumatiques sont commandées par l’unité
de contrôle ainsi que la prise de vitesse du tracteur. La caméra est reliée à la carte d’acquisition par la liaison
”camera link”, qui permet d’envoyer et recevoir des informations.
2.3.2 Unité de contrôle - Protocole de communication
Dans cette section, nous allons décrire le fonctionnement de l’unité de contrôle ainsi que le protocole de
communication mis en place. Cette unité de contrôle est constituée d’une carte électronique (figure 2.9) et
est basée sur l’utilisation d’un microcontrôleur PIC 16C765 de chez Microchip relié à l’ordinateur via une
liaison série (RS232, 9600 bauds). La carte que nous avons réalisée permet de commander les électrovannes
pneumatiques grâce à un circuit de puissance et de commande. La partie commande utilise le microcontrôleur
programmé en langage assembleur avec l’outil MPLAB de chez Microchip, il est le ”cœur” de la communication entre l’ordinateur, le capteur de vitesse et les électrovannes.
F IG . 2.9 – Carte électronique permettant la liaison entre tous les organes du prototype.
Lors de l’application de l’herbicide, cette unité de contrôle reçoit de l’ordinateur les commandes d’ouverture
et de fermeture des électrovannes pneumatiques. Elle permet aussi de récupérer l’information concernant le
temps qui s’écoule entre deux passages consécutifs du capteur ILS devant l’aimant, soit un tour de roue avant
du tracteur. Un protocole de communication a été réalisé afin de communiquer entre le microcontrôleur et
l’ordinateur. Il est à noter que le microcontrôleur fonctionne en interruption pour les émissions et les réceptions
de données. De même, le capteur ILS fonctionne lui aussi en interruption : lorsque le capteur ILS se déclenche,
nous utilisons un compteur qui va compter le nombre de cycles d’horloge s’écoulant jusqu’à un nouveau
déclenchement du capteur ILS. Cependant le microcontrôleur utilisé a une technologie de 8 bits, limitant le
comptage de 0 à 255 (28 ). Au delà de 255, le microcontrôleur génére une interruption due au débordement
du compteur. La programmation de ce microcontrôleur est basée sur une bonne gestion de toutes ces interruptions. Ainsi, le programme principal du microcontrôleur a pour but de recevoir (via la liaison RS232) en
continu les informations (circulant sous forme de trame) provenant de l’ordinateur. La trame comporte une
succession de deux (demande de réception de la vitesse par l’ordinateur) ou quatre (envoi par l’ordinateur des
commandes des électrovannes) octets. Nous avons donc un octet de start permettant de savoir ce que doit faire
le microcontrôleur, deux octets de données correspondant à la commande des douze électrovannes et un octet
de fin pour que le microcontrôleur sache que la trame est finie et qu’il peut traiter l’information. On définit un
octet par ses huit bits de la façon suivante : b7 b6 b5 b4 b3 b2 b1 b0 . Les octets de start et de fin sont des octets
21
Chapitre 2. Dispositif expérimental
de commande et pour chacun d’entre eux, b0 est égal à 1 afin de différencier ces octets de commande de ceux
des octets de données où les bits b0 sont égaux à 0. Si le bit b2 est égal à 0, cela signifie que l’octet de commande est l’octet de start, dans le cas contraire nous aurons un octet de fin. Le bit b1 permet de savoir de quel
type est la trame, si b1 = 1, cela veut dire que l’ordinateur demande la réception de la vitesse au microcontrôleur.
En résumé :
type d’octet
b7 b6 b5 b4 b3 b2 b1 b0 octet
start, envoi des données des états de chaque électrovanne X X X X X 0 0 1 0x01
start, demande de la vitesse au microcontrôleur
X X X X X 0 1 1 0x03
fin
X X X X X 1 0 1 0x05
Si l’ordinateur a besoin de la vitesse du tracteur, il enverra la trame 0x03 0x05 à l’unité de contrôle qui transmettra alors la vitesse à l’ordinateur. Si le message reçu est 0x01 0x?? 0x?? 0x05, l’unité de contrôle sait que les
deux octets 0x?? sont les états des électrovannes. Pour ne pas confondre les octets de données avec les octets
de commande, leur bit b0 est mis à 0 afin de ne jamais prendre les valeurs 0x01, 0x03 et 0x05.
Finalement, les octets 0x01 et 0x03 sont des octets de commande permettant au microcontrôleur de savoir
quelle tâche il doit effectuer. Enfin, l’octet 0x05 est l’octet de fin de trame.
Lorsque le microcontrôleur reçoit une trame, il attend de recevoir l’octet de fin signifiant que la trame
complète a été reçue. Le message est alors traité par rapport à l’octet de commande.
Pour les octets de données, la valeur des bits à la signification suivante :
– 0→électrovanne à l’arrêt.
– 1→électrovanne en marche.
Maintenant que le protocole de communication est défini, nous allons présenter le logiciel développé pour
l’acquisition et le traitement d’image.
2.3.3 Logiciel de pilotage des EVP
La gestion automatique des buses a nécessité la mise au point d’un logiciel, qui permet à partir de l’image
acquise, de discriminer la culture des adventices afin d’ouvrir les buses indépendamment les unes des autres,
suivant la vitesse du tracteur.
2.3.3.1
Gestion des temps
Afin d’être en accord avec le temps réel, nous avons choisi de développer notre software en langage C
et C++. La carte d’acquisition NI-IMaq PCI/PXI-1428 propose une librairie de fonctions pour le langage
C et C++ pour commander les caméras. Cette carte d’acquisition ne fonctionnant pas sous le système
d’exploitation linux, nous nous sommes tournés vers une programmation sous l’environnement Microsoft
Windows XP. Nous avons donc utilisé le logiciel Microsoft Visual C 6.0 afin de profiter des fonctions de
l’API Windows telles que les fonctions pour la programmation multi-tâches (multithreading) et pour la
programmation des interfaces homme-machines (IHM). Programmer une application multi-tâches en temps
réel sous l’environnement Windows XP n’est pas chose facile. En effet, il faut faire attention à la gestion
de la mémoire de l’ordinateur et tenir compte de l’ordonnanceur de Windows qui permet de gérer tous
les processus ouverts sous le système. Dans un premier temps, nous avons implémenté un chronomètre
ultra-précis (de l’ordre de la nano seconde) ; ceci permet de référencer temporellement toutes les tâches
effectuées. Afin d’alléger la programmation, nous avons utilisé les librairies OpenCV (Open Source Computer
Vision) (Intel, 2001) et IPP (Integrated Performance Primitive) développées par Intel Software (Intel, 2005).
Ces librairies comportent beaucoup de fonctions dédiées au traitement du signal et des images. L’ordinateur utilisé possède comme processeur un Intel Celeron cadencé à 2,4 GHz et possède 768 Mo de mémoire vive.
22
2.3
Électronique et commande du pulvérisateur
Dans ce programme, nous avons deux tâches à gérer :
– le traitement de l’image acquise pour obtenir les coordonnées des mauvaises herbes,
– le pilotage de la carte de contrôle qui permet d’envoyer via la liaison RS232 l’état des électrovannes à
n’importe quel moment.
Afin de comprendre ce qui se passe réellement, un schéma de la scène est présenté en figure 2.10 en considérant
une hauteur de caméra notée H et un angle de tangage noté ϕ et un angle de lacet nul (α = 0). La longueur
l représente la somme des longueurs du tracteur du pulvérisateur. La distance ya représente la distance entre
l’avant du tracteur et le début de la scène filmée yROI . On peut s’apercevoir sur cette figure, qu’entre le moment
où l’image a été acquise et le moment où la rampe de pulvérisation arrive à l’endroit correspondant à l’image
acquise, il faut parcourir la distance l + ya .
F IG . 2.10 – Vue schématique de la scène
Comme avec l’ordinateur, nous ne pouvons pas contrôler directement les distances, nous avons transformé ces
distances en temps à partir de la vitesse du tracteur.
yROI
(2.1)
tr =
v
ya + l
ts =
(2.2)
v
(2.3)
avec v, la vitesse du tracteur, tr le temps permettant de parcourir yROI à la vitesse v et ts le temps permettant
de parcourir la distance ya + l à cette même vitesse. Ainsi le temps d’échantillonnage de prise de vue est choisi
égal à tr . Lors du démarrage du tracteur, il devra s’écouler un temps ts avant la commande de la rampe de
pulvérisation. La précision de l’opération est donc dépendante de la bonne connaissance de la vitesse réelle du
tracteur.
2.3.3.2
Réalisation d’une carte d’infestation
Dans ce paragraphe, nous expliquons comment sont générées les commandes des électrovannes pneumatiques. Notre logiciel de discrimination de la culture par rapport aux adventices fournit une carte d’infestation. A partir de cette carte, une étape de segmentation permet de classer ces zones de mauvaises herbes en
régions. Pour effectuer ce traitement, nous utilisons une méthode de blob-coloring (ou étiquetage en composantes connexes) (Ballard et Brown, 1982 ; Deriche et Cocquerez, 1987 ; Haralick et Shapiro, 1992). En appliquant le modèle inverse du sténopé, il est possible de déterminer les coordonnées de ces régions dans le monde
réel. Les détails de changement de coordonnées seront expliqués à la section 2.4 de ce chapitre. Suivant la taille
de ces régions, il est possible ou non de les conserver. En effet, sachant que la taille minimale d’une plantule
est égale à environ 3cm × 3cm, si la zone de mauvaises herbes dans le monde réel est inférieure à la taille d’une
plantule, nous décidons de ne pas conserver cette zone.
23
Chapitre 2. Dispositif expérimental
2.3.3.3
Gestion des EVP
La carte d’infestation ainsi obtenue, il reste à gérer le déclenchement des électrovannes pneumatiques. La
figure 2.11 représente une vue schématique du tracteur avec la rampe de pulvérisation. Sur cette figure, nous
pouvons voir l’origine 0 du repère monde (0, xw , yw ) qui est située au milieu de la rampe de pulvérisation. Pour
chaque zone de mauvaises herbes, nous ne gardons que 4 coordonnées :
–
–
–
–
l’abscisse minimale notée xwmin
l’abscisse maximale notée xwmax
l’ordonnée minimale notée ywmin
l’ordonnée maximale notée ywmax
Le résultat donné par la moyenne des abscisses de chacune de ces zones nous permet d’affecter une buse à la
zone d’adventices (cf. figure 2.12). En effet, nous savons que l’espacement entre chaque buse est de 50 cm,
ce qui nous donne les coordonnées de chaque buse. Ensuite, une simple comparaison de ces coordonnées avec
les valeurs moyennes des abscisses de chaque zone permet de définir la buse à actionner, soit celle dont la
coordonnée est la plus proche de la valeur moyenne de ces abscisses. Enfin, l’ouverture et la fermeture des
vannes sont définies par les valeurs minimale et maximale de l’ordonnée de la zone infestée. Connaissant la
vitesse du tracteur et la distance à parcourir pour que la rampe soit au niveau d’une zone d’infestation, nous
pouvons donc réaliser un chronogramme sur les temps d’ouverture et de fermeture de chaque électrovanne
pneumatique.
F IG . 2.11 – Vue schématique du tracteur avec la rampe de pulvérisation.
24
2.4
Dispositif optique
F IG . 2.12 – Choix de l’EVP selon la position de la zone d’infestation.
2.3.3.4
Réalisation des chronogrammes des électrovannes pneumatiques
Nous savons que pour chaque image acquise, le tracteur devra parcourir la distance yROI avec la rampe
de pulvérisation pour atteindre l’endroit représentant l’image acquise soit le temps tr. Nous allons discrétiser
ce temps avec un pas temporel de dt. A titre indicatif, pour nos essais en temps réel, nous avons choisi un
tr
temps dt de 10 ms. Nous avons créé un tableau ayant comme nombre de lignes, le rapport
et 12 colonnes
dt
correspondant aux 12 électrovannes pneumatiques pour chaque pas dt. Nous regardons quelles électrovannes
doivent être en fonctionnement : on met 1 dans le tableau pour oui et 0 pour non. Pour éviter l’écrasement
des données d’une image sur l’autre enregistrée dans ce tableau, nous utilisons 5 tableaux fonctionnant sous la
forme d’une FIFO4 . Effectivement la distance ya + l étant supérieure à yROI , nous aurons déjà acquis plus d’une
image lorsque la distance ya + l aura été parcourue.
Il suffit ensuite d’envoyer chaque ligne du tableau à l’unité de contrôle tous les temps dt. Chaque ligne
correspond à un nombre binaire codé sur 12 bits soit deux octets. Ce sont ces 2 octets qui représentent les 2
octets de données dans la trame de données présentée dans la section précédente (2.3.2). Nous pouvons voir
dans la table 2.1, le fonctionnement principal du logiciel développé permettant de gérer les deux tâches opérant
en parallèle.
A partir de la ligne 9 nous avons deux tâches qui fonctionnent en parallèle jusqu’à ce que la tâche traitement
d’image se termine. Le plus souvent, le programme n’exécute qu’une seule tâche.
2.4 Dispositif optique
Ce paragraphe est consacré à la caractérisation du système optique pour décrire la caméra par un modèle
de projection perspective (modèle du sténopé) afin de pouvoir transformer les coordonnées du monde image (2
dimensions) vers le monde réel (3 dimensions) et inversement. Ce modèle nous permettra de déterminer les coordonnées dans le monde réel des zones d’infestation situées dans l’image afin d’activer la bonne électrovanne,
au bon moment durant la bonne période. On verra que ce modèle nécessite la connaissance des paramètres intrinsèques, spécifiques à chaque caméra et des paramètres extrinsèques (degrés de liberté de la caméra), propres
au changement de repère entre l’image et le monde réel.
D’autre part, nous présenterons la méthode d’autocalibration de la caméra développée pour obtenir en temps
réel les principaux paramètres extrinsèques. Cette méthode est basée sur la détermination du point de fuite dans
l’image acquise par la caméra. Cette autocalibration de la caméra en temps réel s’avérera nécessaire lors des
futurs essais en champ sur sol irrégulier.
4 L’acronyme FIFO est l’abréviation de l’expression anglaise First In, first Out, que l’on peut traduire par ” premier arrivé, premier
servi ” (littéralement ” premier entré, premier sorti ”). Ce terme est souvent employé en informatique pour décrire une méthode de traitement des données. Cette méthode correspond à une méthode de traitement des éléments d’une file d’attente (calculs d’un ordinateurs,
stocks).
25
Chapitre 2. Dispositif expérimental
Algorithme de la gestion des tâches
Variables : ta correspond au temps où l’on doit acquérir une image.
tr correspond au temps nécessaire pour parcourir la distance yROI
ts correspond au temps nécessaire pour parcourir la distance ya + l
Temps() est le chronomètre ultra-précis créé
1 : test ← f alse
2 : ta ← 0
3 : tic ← Temps()
4 : répéter
5 :
toc ← Temps()
6 :
time ← toc − tic
7 :
si time ≥ ta
8 :
prise d’image
9 :
lancement de la tâche traitement d’image et création tableau de déclenchement EVP
10 :
ta ← ta + tr
11 :
fin si
12 :
si time ≥ ts
13 :
state ← État des électrovannes au temps time
14 :
envoi state à l’unité de contrôle
15 :
fin si
16 : tant que l’utilisateur n’arrête pas le programme
TAB . 2.1 – Algorithme principal de la gestion des tâches du logiciel développé
2.4.1 Présentation du système optique
F IG . 2.13 – Présentation du système optique avec les différents repères utiles : image(Oc , uc , vc ), image
métrique(Oi , ui , vi , wi ), caméra(Ok , xk , yk , zk ) et monde(Ow , xw , yw , zw ).
La figure 2.13 présente le modèle géométrique utilisé pour caractériser notre système optique. L’axe z
26
2.4
Dispositif optique
représente l’axe optique et les différents repères présentés sont définis comme suit :
– (xw , yw , zw ) correspond au repère monde, les coordonnées en 3 dimensions sont exprimées en mètres. Ce
sont donc ces coordonnées qui nous intéressent pour notre prototype,
– (xk , yk , zk ) correspond au repère caméra, c’est-à-dire à la position de la caméra dans le monde réel. Ces
coordonnées en 3 dimensions sont exprimées en mètres,
– (ui , vi , wi ) correspond au repère image métrique, dans ce repère les coordonnées sont en trois dimensions,
elles sont exprimées en mètres, ce repère fait intervenir les coordonnées du centre optique de l’image
ainsi que la taille du CCD de la caméra et de sa focale. L’origine de ce repère Oi est située au centre de
l’image,
– (uc , vc ) correspond au repère image où les coordonnées à 2 dimensions de chaque point sont exprimées
en pixel, l’origine Oc de ce repère est située en haut à gauche de l’image soit le coin supérieur gauche.
2.4.2 Modélisation géométrique de la caméra : modèle du sténopé
Le modèle le plus courant et le plus simple pour décrire le processus de formation des images est le modèle
du sténopé (ou pinhole dans la littérature anglo-saxone) (Carlbom et Paciorek, 1978 ; Hearn et Baker, 1986 ;
Ayache, 1989 ; Faugeras, 1993 ; Horaud et Monga, 1995 ; Bouguet, 1999). Le modèle consiste à réduire l’ensemble des lentilles qui composent le système optique en un point où convergent tous les rayons lumineux pour
aller se projeter sur le plan image (figure 2.13).
Nous nous plaçons dans le cas d’images réelles prises avec un appareil numérique. Pour décrire ce modèle,
trois transformations sont nécessaires :
1. une relation de passage du repère monde vers le repère caméra (Pe ),
2. une expression de la projection perspective qui transforme un point de l’espace en trois dimensions en un
point de l’image en deux dimensions,
3. puis une transformation affine d’un repère métrique lié à la caméra à un repère pixel lié à l’image.
Ces différentes transformations seront exprimées sous forme matricielle.
2.4.2.1
Matrice de passage (Pe )
La transformation d’une position exprimée dans le système de coordonnées caméra k vers une position
exprimée dans le système de coordonnées du monde réel w est en général donnée par la formule suivante :
 k
w
x
x
 y  = [R ]wk  y  + [T ]wk
z
z

avec


tx
[T ]wk =  ty 
tz
(2.4)
(2.5)
où [R ]wk et [T ]wk sont respectivement la matrice de rotation et de translation entre le système monde w et le
système caméra k. Dans notre cas (figure 2.13), [R ]wk dépend des angles : ϕ, α et β avec ϕ l’angle de tangage,
α l’angle de lacet et enfin β l’angle de roulis.
−−−→
Les trois translations dépendent des angles de roulis et de tangage et de la distance l = kOk Ow k. Elles sont
définies par :
tx = l sin ϕ sin α
(2.6)
ty = −l sin ϕ cos α
(2.7)
tz = l cos ϕ = H
27
(2.8)
Chapitre 2. Dispositif expérimental
tz représente la hauteur H de la caméra.
La matrice de translation peut s’écrire sous la forme d’une transformation homogène définie par :


1 0 0 tx
 0 1 0 ty 

[T ]wk = 
 0 0 1 tz 
0 0 0 1
Les trois rotations sont définies ci-après en coordonnées homogènes :

1
0
0
 0 cos(ϕ + π) − sin(ϕ + π)
Rx = 
 0 sin(ϕ + π) cos(ϕ + π)
0
0
0
soit :

1
0
0
 0 − cos ϕ sin ϕ
Rx = 
 0 − sin ϕ − cos ϕ
0
0
0

cos β 0 sin β

0
1
0
Ry = 
 − sin β 0 cos β
0
0
0

cos α − sin α 0
 sin α cos α 0
Rz = 
 0
0
1
0
0
0

0
0 

0 
1

0
0 

0 
1

(2.9)
(2.10)
(2.11)
0
0 

0 
1

0
0 

0 
1
(2.12)
(2.13)
La matrice de rotation est égale à [R ]wk = R z × R y × R z
Ainsi, on pose :
 w
 k
x
x
w [T ]w
 y 
 y 
[
R
]
k
k
  =
 
 z 
 z 
0
1
1
1
(2.14)
Soit la relation de passage du repère monde vers le repère caméra suivant :

k

x
 y 

  = Pe 
 z 

1
w
x
y 

z 
1
(2.15)
Étant donné l’orthogonalité de la matrice de rotation, P e a pour expression :
Pe =
[R ]wk [T ]wk
0
1
−1
=
[R ]wT
k
0
w
−[R ]wT
k [T ]k
1
si det[R ]wk 6= 0
(2.16)
w
avec [R ]wT
k , la matrice transposée de [R ]k .
Cette matrice représente une transformation rigide (3 rotations et 3 translations) : ses coefficients sont les
paramètres extrinsèques.
28
2.4
2.4.2.2
Dispositif optique
Projection perspective
La projection perspective a pour but de transformer un point de l’espace en trois dimensions en un point de
l’image en deux dimensions et inversement. La projection se fait suivant un centre de projection (Ok ). L’origine
du repère est placée au centre de projection et ce repère est orienté de façon que le plan de projection ait pour
équation z = f où f est la distance focale. La projection perspective permet d’expliciter les coordonnées du
repère image métrique i en fonction du repère caméra k :
f xk
zk
f yk
zk
f
ui =
vi =
wi =
soit sous forme matricielle :
(2.18)
(2.19)

i
 k
su
x
 sv  = P p  v 
s
z
avec,
(2.20)


f 0 0
Pp =  0 f 0 
0 0 1
P p représente la matrice de projection.
2.4.2.3
(2.17)
(2.21)
Transformation caméra/image
Afin de connaı̂tre les coordonnées dans le repère image pixel c, nous devons introduire les paramètres u0 , v0
qui sont respectivement les coordonnées (mesurées en pixels) du centre optique (appelé point principal) et du
et dv qui sont les dimensions d’un élément du CCD respectivement horizontale et verticale (mm/pixels) :
ui
+ u0
du
vi
+ v0
dv
uc =
vc =
Soit en notation matricielle :
(2.22)
(2.23)

 i
c
u
u
 v  = Pa  v 
1
1
avec,

1
du
Pa =  0
0
0
1
dv
0
(2.24)

u0
v0 
1
(2.25)
P a est une transformation affine représentant un changement d’échelle et une translation.
2.4.2.4
Transformation globale
Dans un premier temps, nous allons définir la matrice concernant les paramètres intrinsèques noté P i .

Pi
f
du
 0
0
0
f
dv
0

=

Pa
1
du
u0
v0  =  0
0
1
29
0
1
dv
0
 
Pp

u0
f 0 0
v0   0 f 0 
0 0 1
1
(2.26)
Chapitre 2. Dispositif expérimental
Soit,
 k
c
x
su
 y 
 sv  = P i  
 z 
s
1

(2.27)
Soit la matrice P i :

f
du
 0
Pi 

0
0
0
f
dv
0
0
u0
v0
1
0

0
0 

0 
1
(2.28)
Finalement, en utilisant les matrices des paramètres extrinsèques P e et intrinsèques P i , nous obtenons la
matrice de passage P wc = P i × P e des coordonnées monde (exprimées en m) en coordonnées images (exprimées
en pixels) :
 w

c
x
su
 y 
c
 sv  = P w  
(2.29)
 z 
s
1
Lors de la prise d’image dans une parcelle cultivée, la culture étant encore à l’état de plantule, nous avons fait
l’hypothèse de négliger leur hauteur, ce qui entraı̂ne zw = 0 comme équation du champ. Pour le passage des
coordonnées images (pixels) en coordonnées monde (m), nous avons :

c
w
su
x


 y  = [P wc ]−1  sv 
 s 
0
1

(2.30)
Si on modélise la matrice P = pcT
w comme suit :


a11 a12 a13 a14
P =  a21 a22 a23 a24 
a31 a32 a33 a34
(2.31)
on obtient :
a34
a31 uc + a32 vc + a33
(a11 a34 − a14 a31 )uc + (a12 a34 − a14 a32 )vc + a13 a34 − a14 a33
= −
a31 uc + a32 vc + a33
(a21 a34 − a24 a31 )uc + (a22 a34 − a24 a32 )vc + a23 a34 − a24 a33
= −
a31 uc + a32 vc + a33
s = −
xw
yw
Soit en calculant P :
30
(2.32)
(2.33)
(2.34)
2.4
Dispositif optique
a11 = cos α cos βdu
(2.35)
a12 = (sin α cos ϕ − cos α sin β sin ϕ)dv
(2.36)
a13 = − cos α cos βu0 du − (sin α cos ϕ − cos α sin β sin ϕ)v0 dv +
(− sin α sin ϕ − cos α sin β cos ϕ) f
(2.37)
a14 = l sin ϕ sin α
(2.38)
a21 = sin α cos βdu
(2.39)
a22 = (− cos α cos ϕ − sin α sin β sin ϕ)dv
(2.40)
a23 = − sin α cos βu0 du − (− cos α cos ϕ − sin α sin β sin ϕ)v0 dv +
(cos α sin ϕ − sin α sin β cos ϕ) f
(2.41)
a24 = −l sin ϕ cos α
(2.42)
a32 = − cos β sin ϕdv
(2.44)
a31 = − sin βdu
(2.43)
a33 = sin βu0 du + cos β sin ϕv0 dv − cos β cos ϕ f
a34 = l cos ϕ
(2.45)
(2.46)
(2.47)
Par la suite, dans notre système, nous avons négligé l’angle de roulis β car c’est l’angle qui variera le moins.
Donc, il vient :
xw =
yw =
l(cos α cos ϕ(uc − u0 )du + sin α(vc − v0 )dv)
sin ϕ(vc − v0 )dv + f cos ϕ
l(sin α cos ϕ(uc − u0 )du − cos α(vc − v0 )dv
sin ϕ(vc − v0 )dv + f cos ϕ
(2.48)
(2.49)
Ainsi la matrice P est une matrice projective 3 × 4 ayant onze degrés de liberté
(R x , R y , R z , tx , ty , tz , f , u0 , v0 , du et dv) qui doivent être déterminés par la mise en place d’une
méthode de calibration de la caméra.
2.4.3 Autocalibration pour le temps réel
Après avoir caractérisé le système optique par le modèle du sténopé, il s’avère que certains de ces paramètres doivent être déterminés par une calibration. Il s’agit de caractériser non seulement les paramètres
intrinsèques mais aussi les paramètres extrinsèques du système optique. Dans chacun de ces deux cas, deux
méthodes de calibration ont été développées.
2.4.3.1
Méthode de calibration des paramètres intrinsèques
Autant le constructeur peut nous fournir avec précaution la taille du CCD où les dimensions d’un pixel,
autant la valeur de la focale et du point principal doivent être obtenues par une calibration. Il existe d’autres
paramètres à prendre en compte comme :
– l’angle entre l’axe uc et vc considéré égal à 90˚, noté ξ,
– le facteur d’échelle représentant l’incertitude due aux imperfections dans la synchronisation du matériel
pour l’acquisition et la numérisation de l’image noté Su ,
– les distorsions géométriques (Brown, 1966 ; Gennery, 1991 ; Freyer, 1994) qui déforment l’image tout
en conservant sa netteté soit :
* la distorsion radiale, notée δr , qui contracte ou dilate l’image suivant les demi-droites qui ont pour
origine le point principal de l’image,
31
Chapitre 2. Dispositif expérimental
* la distorsion tangentielle, notée δt qui déforme l’image suivant une direction perpendiculaire aux demidroites issues du point principal. Il en résulte une torsion de l’image. Généralement, cette distorsion
est nettement plus faible que la distorsion radiale.
Parmi les nombreuses méthodes développées, on notera :
– la méthode des multiplans, qui utilise plusieurs vues d’un même plan (Batista et al., 1998 ;
Bouguet, 1999) dans un volume donné. En général, une dizaine de vues différentes du plan comportant une vingtaine de points de repères sont nécessaires pour rendre la méthode robuste, les paramètres à
identifier sont obtenus par interpolation,
– la méthode de ”Tsaı̈” (Tsai, 1986 ; Tsai, 1987), cette méthode permet de modéliser la calibration d’une
caméra par une approche géométrique simplifiée. Cette méthode permet, entre autre, d’estimer le coefficient de distorsion radiale du système optique,
– la méthode de ”Faugeras et Toscani” (Toscani, 1987) est l’une des méthodes les plus couramment utilisées dans l’industrie. A l’aide d’une mire de calibration et à partir d’équations de la projection perspective, les paramètres intrinsèques et extrinsèques sont extraits par résolution du système d’équations par
le nombre de points de repère sélectionnés,
– méthode par autocalibration. Il s’agit d’extraire sans intervention manuelle et sans mire de calibration les
paramètres intrinsèques d’une caméra. Thomas Skordas (Skordas, 1995) présente un comparatif détaillé
des différentes méthodes d’autocalibration.
Enfin, M. Bénallal (Bénallal, 2002) présente un état de l’art sur la calibration de caméra dans sa thèse.
Pour calibrer notre caméra, nous avons utilisé la méthode proposée par J-Y. Bouguet (Bouguet, 1999 ;
Bouguet, 2004) similaire à celle de J. Heikkila et O. Silven (Heikkila et Silven, 1997) de l’université de Oulu
en Finlande. Cette méthode nous permet de caractériser les paramètres suivants : les coordonnées du point
principal (u0 , v0 ), la focale ( f ), l’angle entre l’axe uc et vc (ξ), le facteur d’échelle d’incertitude (Su ) et les deux
coefficients de distorsion radiale (δr ) et tangentielle (δt ).
La distorsion radiale peut être approximée par l’expression suivante :
δrui
= ui (k1 + ri2 + k2 ri4 + . . .)
(2.50)
δrvi
vi (k1 + ri2 + k2 ri4 + . . .)
(2.51)
=
q
où k1 , k2 , . . . sont les coefficients de distorsion radiale, et ri = u2i + v2i . Généralement, deux coefficients
suffisent pour compenser cette distorsion.
L’expression de la distorsion tangentielle est souvent écrite sous la forme suivante :
δtui
= 2p1 ui vi + p2 (ri2 + 2u2i )
(2.52)
δtvi
p1 (ri2 + 2v2i ) + 2p2 ui vi
(2.53)
=
où p1 et p2 sont les coefficients de distorsion tangentielle.
En combinant le modèle du sténopé, incluant le facteur d’incertitude et l’angle entre l’axe uc et vc (ξ), avec
les corrections des composantes de distorsions radiale et tangentielle, il vient :
uc =
vc =
Su
(ui + δrui + δtui + ξ(vi + δrvi + δtvi )) + u0
du
1
(vi + δrvi + δtvi ) + v0
dv
(2.54)
(2.55)
Soit les coordonnées ud et vd correspondant aux coordonnées ui et vi corrigées par les coefficients de distorsion
radiale et tangentielle,
ud = ui + δrui + δtui
vd =
vi + δrvi
32
+ δtvi
(2.56)
(2.57)
2.4
il vient, sous forme matricielle :

c
 d
u
u
 v  = P acorr  v 
1
1
avec,

Su
du
Su
ξ du
0
0
P acorr =  0
1
dv

u0
v0 
1
Dispositif optique
(2.58)
(2.59)
P acorr représente la nouvelle matrice de transformation caméra/image.
2.4.3.1.1
Résultats de la calibration
Comme nous l’avons évoqué un peu plus haut, nous avons utilisé la méthode de Bouguet (Bouguet, 1999 ;
Bouguet, 2004) afin de définir les paramètres intrinsèques de la caméra. Le constructeur de la caméra fournit
les données suivantes :
1598
= 799 et
– résolution de 1598 × 1199, ce qui implique pour le point principal u0 =
2
1199
v0 =
= 599, 5,
2
– la taille d’un pixel : notre caméra a des pixels carrés soit dx = dy = 4, 4µm, c’est la seule donnée que
nous pouvons admettre car elle ne tient en aucun compte du système optique, cette valeur a été obtenue
lors de la fonte du CCD.
La focale que nous utilisons pour nos essais est une focale de f = 8, 5mm. La méthode de Bouguet est mise en
œuvre avec une mire de 56 × 56 centimètres ayant 14 carrés de taille 4 × 4 centimètres en alternance de couleur
noir et blanc comme on peut voir en photo sur la figure 2.14. Nous avons utilisé vingt cinq images représentant
la mire dans différentes positions.
F IG . 2.14 – Une prise de vue de la mire parmi les 25 effectuées
Nous obtenons les valeurs suivantes :
f c = [1928 1930.9]
(2.60)
cc = [804, 53 585, 87]
(2.61)
al pha c = [0, 00000]
(2.62)
kc = [−0.22050 0.26755 − 0.00247 0.00162]
33
(2.63)
Chapitre 2. Dispositif expérimental
Ces résultats correspondent à des combinaisons des paramètres intrinsèques. En effet f c(1) = 1928 correspond
au produit entre la focale f , le facteur d’échelle Su et la taille horizontale d’un élément du CCD du, soit :
f c(1) =
f Su
du
(2.64)
La valeur f c(2) correspond au produit entre la focale f et la taille verticale d’un élément du CCD dv,
f c(2) =
f
dv
(2.65)
Les valeurs de cc sont les coordonnées du point principal ; donc :
cc(1) = u0
(2.66)
cc(2) = v0
(2.67)
La valeur de al pha c détermine la mesure de l’angle entre l’axe uc et vc , ce qui implique :
al pha c = ξ
(2.68)
Pour finir les valeurs contenues dans kc correspondent aux valeurs des coefficients de distorsions radiale et
tangentielle multipliées par une puissance n de la focale f :
kc(1) =
kc(2) =
kc(3) =
kc(4) =
f 3 k1
(2.69)
5
(2.70)
2
(2.71)
2
(2.72)
f k2
f p1
f p2
Ainsi d’après l’équation 2.65, la focale f est égale à 8,49 mm. A partir des équations 2.64 et 2.65, nous
déterminons que le facteur d’échelle Su a pour valeur 0,00002. Puis les équations 2.63, 2.69, 2.70 et 2.65,
donnent accès aux deux coefficients de distorsion radiale, k1 et k2 respectivement égaux à -0,00036 et 0,000006.
Finalement, avec les équations 2.63, 2.71, 2.72 et 2.65, nous obtenons les deux coefficients de distorsion tangentielle p1 et p2 , soit -0,000034 et 0,000022. Le tableau 2.2 résume les valeurs des paramètres intrinsèques
obtenus par calibration.
u0
v0
f
ξ
Su
k1
k2
p1
p2
804, 53 pixels 585, 57 pixels 8, 49 mm 0˚ 0, 00002 −0, 00036 0, 000006 −0, 000034 0, 000022
TAB . 2.2 – Résumé des paramètres intrinsèques obtenues par calibration.
La figure 2.15 montre l’influence de la distorsion (radiale et tangentielle) de chaque pixel de l’image. Chaque
flèche représente le déplacement effectif d’un pixel induit par la distorsion optique. Nous remarquons que les
points situés en coin de l’image ont été déplacés d’environ 25 à 35 pixels, ce qui est non négligable surtout si
on veut faire une transformation de l’espace image à l’espace monde. La figure 2.16.a montre l’impact de la
composante tangentielle de distorsion, le maximum de déplacement induit est de 3,5 pixels dans le coin bas
à gauche. Pour finir, la figure 2.16.b montre l’impact de la composante radiale de distorsion. Ce graphe est
similaire à celui représentant le modèle de distorsion complet, ce qui implique que la composante de distorsion
tangentielle peut être ignorée devant la composante radiale. Sur ces trois figures, la croix indique le centre de
l’image alors que le cercle localise les coordonnées du point principal.
34
2.4
Dispositif optique
F IG . 2.15 – Modèle de distorsion complet (radiale + tangentielle).
(a)
(b)
F IG . 2.16 – Composante tangentielle (a) et radiale (b) du modèle de distorsion.
Maintenant que nous connaissons les valeurs des paramètres intrinsèques, nous pouvons appliquer sans
problème la transformation caméra/image en appliquant les corrections dues à la distorsion. La deuxième étape
consiste à calibrer les paramètres extrinsèques du système optique afin d’obtenir les bonnes coordonnées dans
le repère caméra.
2.4.3.2
Méthode de calibration des paramètres extrinsèques
En pratique, lors de chaque prise d’image, nous ne connaissons pas exactement les paramètres extrinsèques
(Rx , Ry , Rz , tx , ty et tz ) du système optique, en particulier l’angle de lacet et l’angle de tangage. Cette calibration
sera particulièrement nécessaire lorsque le système est utilisé sur des parcelles de culture dont le sol présente
de nombreuses irrégularités (dévers, pente...). Dans ce cas, les paramètres initiaux sont légèrement modifiés.
Cependant, une petite erreur induite sur ces angles peut avoir d’énormes conséquences sur l’estimation de la
position des plantes dans le monde réel. En effet, la précision recherchée sur la position des plantes est de
l’ordre du centimètre ; puisque pour être efficace, notre système doit pulvériser sur la cible. Les figures 2.17
35
Chapitre 2. Dispositif expérimental
et 2.18 présentent des courbes d’erreurs métriques au sol pour deux systèmes optiques différents. Nous nous
apercevons que sur la figure 2.17, nous avons un système composé d’une focale de 16mm, une hauteur de
1,06m avec un angle de tangage de 70˚ une variation de plus ou moins 3˚ de cet angle implique une erreur
comprise entre 20 et 50% sur le calcul de la position des plantes. La deuxième courbe d’erreur présentée (figure
2.18) a pour système optique la même hauteur, une focale de 8,5mm et un angle de tangage de 58˚. Dans ce
cas une erreur de plus ou moins 3˚ induit une erreur de 20 à 35% sur la position des plantes. Cette erreur est
inférieure à celle obtenue avec le système optique précédent puisque l’angle de tangage est plus faible. Pour la
suite de l’étude, nous garderons une configuration avec une hauteur de 1,06m, une focale de 8,5mm et un angle
de tangage de 58˚.
% d’erreur sur yw suivant sa coordonnée ligne en fonction de φ
80
∆φ=73.00
60
∆φ=72.75
∆φ=72.50
∆φ=72.25
40
∆φ=72.00
% d’erreur
∆φ=71.75
∆φ=71.50
∆φ=71.25
∆φ=71.00
∆φ=70.75
∆φ=70.50
∆φ=70.25
∆φ=70.00
∆φ=69.75
∆φ=69.50
∆φ=69.25
∆φ=69.00
∆φ=68.75
∆φ=68.50
∆φ=68.25
∆φ=68.00
∆φ=67.75
∆φ=67.50
∆φ=67.25
∆φ=67.00
20
0
−20
−40
1200
1000
800
600
coordonnée ligne (pixel)
400
200
0
F IG . 2.17 – Pourcentage d’erreur commise sur la position des plantes avec un système optique de hauteur
1,06m, une focale de 16mm et un angle de tangage de 70˚.
Nous avons donc cherché à développer une méthode permettant de déterminer en temps réel les angles de
tangage et de lacet à partir de l’image acquise par la caméra. Pour cela, nous nous sommes intéressés aux travaux
de Fung et al. et He et al. (Fung et al., 2003 ; He et Yung, 2007) qui présentent une méthode d’autocalibration
basée sur des données connues de l’image acquise. Leurs caméras filment une route avec des marquages au
sol (bandes blanches délimitant les routes) et comme la taille d’une bande est parfaitement connue dans le
monde réel, ils utilisent cette information pour remonter aux paramètres extrinsèques du système optique. Dans
notre cas, la difficulté est que la seule donnée accessible est la distance séparant deux lignes de semis, distance
qui peut d’ailleurs varier au cours du temps car les lignes de semis ne sont pas parfaitement rectilignes. Cette
donnée étant trop approximative, nous avons recherché dans l’image une donnée fiable : le point de fuite. En
effet, les images acquises présentent des lignes de semis en perspective et ces lignes convergent toutes en ce
même point. Nous avons donc développé une méthode de calibration du système optique basé sur la détection
de ce point de fuite.
36
2.4
Dispositif optique
% d’erreur sur yw suivant sa coordonnée ligne en fonction de φ
40
∆φ=61.00
∆φ=60.75
30
∆φ=60.50
∆φ=60.25
∆φ=60.00
% d’erreur
20
∆φ=59.75
∆φ=59.50
∆φ=59.25
∆φ=59.00
∆φ=58.75
∆φ=58.50
∆φ=58.25
∆φ=58.00
∆φ=57.75
∆φ=57.50
∆φ=57.25
∆φ=57.00
∆φ=56.75
∆φ=56.50
∆φ=56.25
∆φ=56.00
∆φ=55.75
∆φ=55.50
∆φ=55.25
∆φ=55.00
10
0
−10
−20
−30
1200
1000
800
600
coordonnée ligne (pixel)
400
200
0
F IG . 2.18 – Pourcentage d’erreur commise sur la position des plantes avec un système optique de hauteur
1,06m, une focale de 8,5mm et un angle de tangage de 58˚.
2.4.3.2.1 Détermination des coordonnées du point de fuite
Si la transformation de Hough est utilisée pour la discrimination culture/adventices (cf. section 4.5) la position
du point de fuite est automatiquement obtenue. En revanche, si une autre méthode est utilisée pour la détection
des mauvaises herbes (Fourier (4.2), ondelettes (4.4),...), nous devons développer une méthode spécifique pour
obtenir ce point de fuite.
Nous proposons d’utiliser la méthode des moments géométriques pour calculer les paramètres de l’ellipse
possédant les même moments géométriques qu’une région considérée dans l’image (Safee-Rad et al., 1992). A
partir de ces paramètres, nous allons obtenir le centre de l’ellipse et son orientation par rapport à l’horizontale
ce qui nous permettra d’obtenir les équations des droites passant par la région considérée.
Rappel sur le calcul des paramètres de l’ellipse en utilisant la méthode des moments
On peut voir sur la figure 2.19 une ellipse située dans une image caractérisée par ses principaux paramètres :
grand axe (a), petit axe (b), centre de gravité (c) et l’angle d’inclinaison (ω).
La définition des moments d’ordre p, q dans le cas discret pour une image f (x, y) est exprimée de la façon
suivante :
NL−1 NC−1
m pq =
∑ ∑
y=0
x p yq f (x, y)
x=0
Avec :
– NL=nombre de lignes de l’image.
– NC=nombre de colonnes de l’image.
Nous allons maintenant déterminer les différents paramètres de l’ellipse.
37
(2.73)
Chapitre 2. Dispositif expérimental
F IG . 2.19 – Représentation d’une ellipse avec ces principaux paramètres : grand axe (a), petit axe (b), centre de
gravité (c) et l’angle d’inclinaison (ω).
1. Surface :
On utilise le moment d’ordre 0 :
S = m00
(2.74)
2. Coordonnées du centre de gravité C(c0 , r0 ) :
Elles sont données par les moments d’ordre 1 :
r0 =
c0 =
m10
m00
m01
m00
(2.75)
(2.76)
3. Axes de l’ellipse :
Pour calculer les axes de l’ellipse équivalente, il faut exprimer les moments d’ordre 2 par rapport au
centre de gravité :
mg20 = m20 − m00 r02
(2.77)
m02 − m00 c20
(2.79)
g
m11
g
m02
= m11 − m00 r0 c0
=
(2.78)
Puis nous déterminons l’inclinaison de l’ellipse (angle ω) :
2mg11
π 1 −1
ω + k = tan
2 2
mg02 − mg20
(2.80)
Nous calculons alors les moments d’inertie rapportés aux axes principaux de l’ellipse :
mxx =
myy =
q
1
g
g
g
g 2
g 2
m02 + m20 + (m02 − m20 ) + 4(m11 )
2
q
1
g
g 2
g 2
g
g
m02 + m20 − (m02 − m20 ) + 4(m11 )
2
38
(2.81)
(2.82)
2.4
Dispositif optique
Connaissant les relations entre les moments et les paramètres a et b de l’ellipse :
πa3 b
4
πab3
myy =
4
S = πab
mxx =
(2.83)
(2.84)
(2.85)
Il vient :
r
mxx
a = 2
S
r
myy
b = 2
S
(2.86)
(2.87)
Pour résumer, l’ellipse a pour centre C(r0 , c0 ), sa surface est S, ses demi-axes sont a et b et elle est inclinée d’un
angle ω par rapport à l’horizontale.
Algorithme de détection du point de fuite
La méthode est appliquée sur l’image traitée par la transformée de Fourier avec un filtre de Gabor ou par la
transformée en ondelette. Cette image représente les lignes de semis dont le contraste a été rehaussé. Nous appliquons sur cette image une méthode de blob-coloring (Ballard et Brown, 1982 ; Deriche et Cocquerez, 1987 ;
Haralick et Shapiro, 1992) afin d’étiqueter notre image en plusieurs régions. Pour chaque région, il s’agit de
calculer l’ellipse possédant les mêmes moments géométriques que la région considérée. Lorsque tous les paramètres de chaque région ont été calculés, nous ne gardons que les quatre régions ayant la surface d’ellipse la
plus grande. Comme nous connaissons les paramètres de ces quatre ellipses, nous calculons les droites passant
par ces régions de la façon suivante :
y = mx + p
(2.88)
m = tan(ω)
(2.89)
p = r0 − mc0
(2.90)
soit l’équation de droite obtenue avec le centre de l’ellipse et son inclinaison :
y = x tan(ω) + r0 − c0 tan(ω)
(2.91)
Il est possible que ces quatre droites ne convergent pas vers un même point, nous avons donc élaboré un
algorithme permettant de sélectionner les droites convergeant vers un même point. On effectue une régression
linéaire pour chaque groupe de trois droites en utilisant les couples m et p de chaque droite. Pour chacun de ces
groupes, nous calculons l’intersection, correspondant à un point de fuite, deux à deux des droites. Pour tous les
points de fuite trouvés dans chacun des groupes, nous calculons les distances séparant ces points de fuite des
paramètres trouvés à l’aide de la régression linéaire. Ces distances nous permettent pour chacun des groupes et
suivant un seuil défini sur cette distance de ne garder que les groupes présentant le moins d’erreur. Ce processus
est itératif jusqu’à ce que le bon couple de points soit trouvés.
2.4.3.2.2
Détermination de l’angle de tangage ϕ
Soit le point de fuite Vp (uvp , vvp ) dont les coordonnées sont exprimées en pixels dans le repère (Oc , uc , vc ).
Ce point est positionné sur la ligne d’horizon (ligne horizontale parallèle au sol), située à la hauteur de l’observateur (dans notre cas, la hauteur de la caméra). Donc, comme le montre la figure 2.20, ce point est situé sur
une partie virtuelle du CCD, c’est-à-dire en dehors du capteur CCD.
39
Chapitre 2. Dispositif expérimental
F IG . 2.20 – Vue générale expliquant la projection du point de fuite sur le capteur CCD.
Nous pouvons nous apercevoir que sur la figure 2.20, l’angle de tangage ϕ se retrouve dans le triangle
AVp D où Vp représente la position du point de fuite sur la partie virtuelle du CCD. Nous allons donc faire un
zoom sur le triangle rectangle AVp D qui est rectangle en A afin d’exprimer l’angle de tangage ϕ en fonction des
paramètres intrinsèques de la caméra (figure 2.21).
F IG . 2.21 – Vue de coupe et vue de dessous.
Dans le triangle AVp D, nous avons :
ψ + ϕ = 90˚ =⇒ ψ = 90˚ − ϕ
(2.92)
En considérant maintenant le triangle Vp AOi , où le point Oi (u0 , v0 ) représente le point principal de la
caméra, nous obtenons :
90˚ + β + ψ = 180˚
(2.93)
Si nous remplaçons 2.92 dans 2.93, il vient :
β = ϕ
40
(2.94)
2.4
Dispositif optique
Donc on retrouve l’angle de tangage dans le triangle Vp AOi . A partir de ces données, il est possible d’ex−−−→
−−→
primer les distances kOiVp k notée d et kOi Ak égale à la focale f , par :
q
[(uvp − u0 )du]2 + [(vvp − v0 )dv]2
f
−1
ϕ = β = tan
d
d =
2.4.3.2.3
(2.95)
(2.96)
Détermination de l’angle de lacet α
Maintenant que nous connaissons l’angle de tangage ϕ, il nous reste à déterminer l’angle de lacet α. Nous
allons de nouveau utiliser les coordonnées du point de fuite. Pour trouver l’angle de lacet, nous allons calculer
les coordonnées du point de fuite dans le monde réel en utilisant la matrice de passage dans laquelle :
– l’angle ϕ prendra la valeur trouvée dans l’équation 2.96,
– l’angle α sera supposé nul.
Soit Vpw (xvp , yvp ) les coordonnées du point de fuite dans le monde réel déduites de la matrice de passage. La
figure 2.22 montre la position du point de fuite dans le monde réel Vpw par rapport à l’origine dans le repère
monde.
F IG . 2.22 – Localisation de l’angle de lacet α par rapport au point de fuite et l’origine du repère monde.
Nous nous apercevons alors, que l’angle de lacet α correspond à l’angle entre les droites (Ow yw ) et (OwVpw ),
soit :
−1 xvp
α = tan
(2.97)
yvp
2.4.3.2.4 Résultats de la calibration
Nous présentons dans ce paragraphe, les résultats obtenus dans la phase d’autocalibration des paramètres extrinsèques. Dans un premier temps, nous donnons un exemple sur une image pour déterminer le point de fuite
puis nous calculerons les angles de tangage ϕ et de lacet α afin de les comparer avec les valeurs théoriques.
41
Chapitre 2. Dispositif expérimental
Pour finir, une comparaison sur le calcul d’angle obtenu à partir de plusieurs séries d’images avec différentes
valeurs pour le système optique sera présentée.
Pour illustrer la méthode, nous utiliserons le résultat obtenu avec l’analyse multirésolution utilisant une
ondelette de Daubechies d’ordre 25 (cf 4.4). En effet, lorsque l’on implémente seulement un ET logique entre
les différents niveaux de détails retenus, nous obtenons l’image présentée figure 2.23.a. Ce résultat est issu
de l’image présentée figure 4.3.a. L’image résultante de l’analyse multirésolution est étiquetée afin d’avoir
des régions bien distinctes. Puis pour chaque région, nous calculons l’ellipse possédant les mêmes moments
géométriques que la région considérée. Nous gardons seulement les quatre surfaces d’ellipse les plus importantes puis à partir des valeurs du centre de l’ellipse et de son inclinaison, nous calculons les équations de
droites passant par ces régions comme montré figure 2.23.b. La figure 2.23.c représente un zoom de l’image
précédente afin de mettre en évidence la convergence des droites. Nous nous apercevons que les quatre droites
ne convergent pas vers le même point. En utilisant l’algorithme mis en place dans le §2.4.3.2, nous allons
seulement sélectionner les droites convergeant vers un même point. La figure 2.24.a présente ce résultat où
seulement les trois droites convergeant vers le même point ont été retenues. La figure 2.24.b présente un zoom
de ces droites afin de montrer le point de fuite graphiquement. L’étoile rouge correspond au point de fuite trouvé
par régression linéaire et l’étoile noire celui obtenu en prenant la médiane de chaque point de fuite calculé deux
à deux entre ces trois droites. On considère que le point de fuite correspond à l’étoile noire soit, dans notre
exemple, xvp = 214, 36 et yvp = −329, 62. Ce qui implique pour la valeur de l’angle de tangage ϕ = 69, 14˚
pour un angle vrai de 69,60˚ soit une différence de 0,46˚ (erreur de 0,66%). Et un angle de lacet de α = −1, 76˚
pour un angle vrai de -1,70˚ soit une différence de 0,06˚ (erreur de 3,4%).
(a)
(b)
(c)
F IG . 2.23 – (a)Résultat obtenu par l’analyse multirésolution avec une ondelette de Daubechies d’ordre 25.
(b)Droites retenues dans l’image par la méthode des moments. (c)Zoom de l’image (b).
A titre d’exemple, nous pouvons voir dans le chapitre 4.9, une vue redressée (figure 4.24) de l’image originale
présentée sur la figure 4.19. La figure 2.25.a représente l’angle de tangage ϕ détecté par rapport à la valeur
initiale pour les 1530 valeurs d’angle de tangage obtenues lors de la création de la base de données d’images
simulées No 2 (cf. 4.8), la courbe rouge étant la courbe idéale de détection. Nous nous apercevons que plus
l’angle est élevé, plus il est difficile de le détecter précisément, du moins plus les coordonnées du point de
fuite sont difficiles à déterminer précisément. L’erreur moyenne de l’angle de tangage est de −0, 51˚ avec un
écart-type de 0,81. La figure 2.25.b est la représentation de l’angle de lacet détecté en fonction de l’angle de
lacet initial, la courbe rouge étant la détection idéale. L’erreur moyenne de cet angle est de -0,06˚ avec un écart
type de 0,42.
2.5 Conclusion
Ce chapitre a permis de montrer la conception et la réalisation du dispositif expérimental avec notamment
une caractérisation du système optique avec la détermination de la matrice de passage du monde image vers le
monde réel permettant de piloter en temps réel les électrovannes.
42
2.5
(a)
Conclusion
(b)
F IG . 2.24 – (a)Droites retenues en utilisant notre algorithme. (b)Visualisation du point de fuite.
(a)
(b)
F IG . 2.25 – (a)Angle de tangage détecté en fonction de l’angle de tangage initial. (b)Angle de lacet détecté en
fonction de l’angle de lacet initial.
En ce qui concerne le système optique, nous avons utilisé le modèle du sténopé, modèle de projection perspective. Ce modèle fait appel non seulement aux paramètres intrinsèques (internes à la caméra) mais aussi aux
paramètres extrinsèques de la caméra (position de la caméra dans le monde réel). Les paramètres intrinsèques
ont été déterminés en laboratoire en utilisant une mire standard (grille composée de carrés noirs et blancs) à
partir de la méthode de J-Y. Bouguet. Il a été ainsi possible de connaı̂tre avec précision, la valeur de la focale utilisée, les coordonnées du point principal de l’image ainsi que les différentes corrections dues aux phénomènes
de distorsion de l’image obtenue pour cette caméra avec une focale donnée.
Quant aux paramètres extrinsèques, même si ceux-ci ont été prédéfinis (par exemple ϕ = 58˚, H = 1, 06m),
ils doivent être automatiquement re-déterminés en temps réel du fait que la caméra est perpétuellement soumise
aux variations du terrain lors de la prise d’image. Une méthode basée sur la connaissance à priori du point
de fuite a été développée, pour calibrer en temps réel, les deux angles qui sont les plus soumis aux grandes
43
Chapitre 2. Dispositif expérimental
variations : l’angle de tangage (ϕ) et l’angle de lacet (α). En effet, une erreur sur le calcul de ces angles induit
une erreur non négligeable sur la pulvérisation (erreur métrique de localisation) et sur le fonctionnement du
prototype (erreur sur les temps tr et ts).
44
Chapitre 3
Algorithmes spectraux
Sommaire
3.1
3.2
3.3
3.4
3.5
3.6
3.7
3.8
3.9
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Les différents types de réflexion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.1 La réflexion spéculaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.2 La réflexion diffuse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.3 La réflexion chez les végétaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Réflectance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.1 Propriétés spectrales des végétaux . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.2 Propriétés directionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
État de l’art : réflectance et désherbage . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Réalisation de deux bases de données de réflectance . . . . . . . . . . . . . . . . . . . . .
3.5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5.2 Espèces végétales étudiées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5.3 Dispositif expérimental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5.4 Base de données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Méthode de réduction des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.6.1 Analyse en Composantes Principales (ACP) . . . . . . . . . . . . . . . . . . . . . . .
Les réseaux de neurones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.7.1 Les réseaux multicouches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.7.2 Exemple d’architecture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.7.3 Les réseaux de type fonction à base radiale (Radial Basis Fonction, RBF) probabiliste
Résultats et discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.8.1 Prétraitement et matrice de données . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.8.2 Résultat de l’Analyse en Composante Principale . . . . . . . . . . . . . . . . . . . .
3.8.3 Résultats des classifications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
45
46
46
47
47
48
49
49
49
50
50
50
51
52
53
53
55
56
56
56
57
57
58
59
67
3.1 Introduction
Chaque objet d’une scène agronomique peut être identifié par sa signature spectrale. Les plantes présentent
une couleur verte alors que le sol est marron. Comme nous le verrons, autant séparer les végétaux du reste de
la scène (sol, ombre, résidus racinaires...) est une opération facile en traitement d’image par l’utilisation d’un
indice de végétation (NDVI, LAI, ExcessGreen...), avant, distinguer une plante d’une autre est une opération
plus délicate. Cette question fera l’objet de ce chapitre qui présente les différentes méthodes mises en œuvre
pour identifier une plante du sol, une plante d’une autre en utilisant les signatures spectrales. Après quelques
rappels sur les notions de réflexion et de réflectance, un état de l’art sur les différentes techniques mises en
45
Chapitre 3. Algorithmes spectraux
œuvre par les chercheurs pour obtenir cette information spectrale est présentée. Enfin, nous présentons le dispositif expérimental de spectroscopie utilisé pour recueillir les spectres de réflectance. Des expériences ont été
conduites en champs sur des feuilles. Puis nous détaillerons les différentes méthodes de classification supervisée (réseaux de neurones artificiels de type perceptron ou probabiliste) utilisées pour identifier les plantes en
ayant auparavant réduit la taille de notre base de données via une Analyse en Composante Principale (ACP).
3.2 Les différents types de réflexion
Éclairer en lumière directe un objet pour l’identifier est la méthode la plus couramment utilisée dans le cadre
de la télédétection (Jago et al., 1999). La mise en œuvre de cette méthode non destructive nécessite quelques
notions sur la théorie de l’interaction lumière/matière. Il faut en particulier étudier les phénomènes de réflexion.
En effet, lorsque la lumière interagit avec la matière, celle-ci peut être absorbée, transmise ou réfléchie, ces
phénomènes peuvent être modélisés suivant :
A(λ) + R(λ) + T (λ) = 1
(3.1)
avec A(λ) la fraction de l’énergie lumineuse absorbée par rapport à l’énergie incidente, T (λ) la fraction de
l’énergie lumineuse transmise par rapport à l’énergie incidente et R(λ) la fraction de l’énergie lumineuse
réfléchie par rapport à l’énergie incidente.
3.2.1 La réflexion spéculaire
La réflexion spéculaire se produit à la surface de tout objet. Dans le cas d’un miroir parfaitement lisse
(encore appelé surface de Fresnel), c’est-à-dire d’un matériau qui n’est sujet qu’à la réflexion spéculaire, les
lois de Snell-Descartes (Pérez, 2000) permettent de définir le comportement de la lumière : elle est réfléchie
dans une seule direction dont l’angle à la normale à la surface est égal à l’angle entre la direction incidente et
la normale, ces deux angles étant coplanaires (figure 3.1).
F IG . 3.1 – Réflexion spéculaire dans le cas d’un miroir parfaitement lisse.
Le coefficient de réflexion est défini comme le rapport entre le flux lumineux réfléchi (φr ) et le flux lumineux
incident (φi ) :
φr
(3.2)
R=
φi
Dans le cas d’un matériau réel, l’essentiel de la lumière est réfléchi dans la direction théorique définie par les
lois de Snell - Descartes, mais une partie de celle-ci peut-être également réfléchie à l’intérieur d’un cône centré
sur cette direction (figure 3.2). Dans le cas d’une surface lisse, il sera observé un pic spéculaire ; dans le cas
d’une surface rugueuse, ce sera un lobe (Guyot, 1989 ; Callet, 1998) (décroissance plus lente de l’intensité
lumineuse en fonction de l’angle à l’axe du cône).
C’est cette réflexion qui est détectée par imagerie satellitale (BRDF method1 ) (Bousquet et al., 2005).
1 Bidirectional
Reflectance Distribution Function (réflectance bidirectionnelle spectrale).
46
3.2
Les différents types de réflexion
F IG . 3.2 – Réflexion spéculaire dans le cas d’un matériau réel.
3.2.2 La réflexion diffuse
La réflexion diffuse s’applique à la majorité des objets de la vie courante. Dans ce cas de réflexion, l’interaction de l’onde avec la matière a lieu avec des couches plus profondes de l’objet, ainsi la lumière réfléchie
sera différente à cause de l’absorption d’une partie de la lumière par les pigments. Dans ce cas, le rayonnement
réfléchi obéit à la loi de Lambert (Pérez, 2000) avec I = I0 cos θ avec I0 , l’intensité énergétique pour θ = 0
et θ est l’angle formé par la direction à la normale à la surface (figure 3.3). Et, contrairement à la diffusion
spéculaire, on peut en déduire une information sur la structure interne de l’objet étudié. En particulier, pour une
plante, nous pourrons en déduire les informations sur la structure interne des feuilles (Jacquemoud et al., 1996 ;
Bacour, 2001 ; Bousquet, 2007).
F IG . 3.3 – Réflexion diffuse.
3.2.3 La réflexion chez les végétaux
Dans le cas des végétaux, la réflexion de la lumière incidente sera une combinaison de la réflexion spéculaire
et de la réflexion diffuse. L’ensemble de ses réflexions constituent le modèle de Lambert non parfait. L’utilisation de la polarisation pourrait-être un bon moyen pour identifier la contribution de chacun de ces signaux
dans la réflexion globale des végétaux (Vanderbilt et al., 1985 ; Vanderbilt et Grant, 1986 ; Terrier et al., 2004).
Concernant les espèces végétales, il existe deux grandes familles (monocotylédone/dicotylédone) qui se caractérisent entre autre par des structures de feuilles différentes. Les ”monocotylédones” ont des feuilles allongées avec une nervure principale et la structure de ces feuilles est symétrique par rapport au centre de
la feuille. Le mésophylle2 ne contient pas de parenchyme3 palissadique. En revanche les ”dicotylédones”
2 La plus grande partie de l’intérieur d’une feuille, c’est-à-dire entre l’épiderme inférieur et supérieur, peut être composé d’un
parenchyme appelé mésophylle.
3 Les parenchymes sont des tissus végétaux constitués de cellules vivantes, à paroi pecto-cellulosique mince, perforées de ponctuations ou plasmodesmes, qui permettent des communications intercellulaires et une circulation des substances à l’intérieur des cellules
47
Chapitre 3. Algorithmes spectraux
présentent un parenchyme palissadique et un parenchyme spongieux. Ainsi le signal de réflexion diffuse sera
différent d’une famille à l’autre ce qui permet une classification par leur signature spectrale. Différents paramètres structuraux d’une feuille influencent (dans le proche infra rouge) le signal de réflexion diffuse. Knapp
et Carter (Knapp et Carter, 1998) montrent que généralement les feuilles épaisses ont un signal plus intense
que celui des feuilles fines. D’autre part, Gausman et Allen (Gausman et Allen, 1973) montrent aussi que le
passage d’un milieu hydraté (tel que le cytoplasme4 d’une cellule) d’indice de réfraction 1,47 à un espace intracellulaire d’indice de réfraction 1 augmente sa dispersion. Il en résulte une augmentation du signal de réflexion
diffuse avec le nombre d’interface eau/air. La forme des cellules influe également sur l’intensité du signal de
réflexion diffuse. Ainsi les tissus palissadiques (à cellules rectangulaires et hautes) dispersent moins la lumière
que les cellules rondes, ce qui donne une corrélation négative entre la présence de ce type de tissu dans une
feuille et son signal de réflexion diffuse (Vogelmann et Martin, 1993). La couche individuelle de cellules de
l’épiderme, quant à elle joue un rôle de lentille qui concentre la lumière dans le mésophylle, cette concentration dépend de la convexité des cellules composant l’épiderme (Vogelmann et Martin, 1993). L’épaisseur
et la composition de la cuticule5 semblent avoir un effet sur ce signal de réflexion dans le proche infrarouge (Barnes et Cardoso-Vilhena, 1996). En 2001, Slaton et al. (Slaton et al., 2001) ont réalisé un modèle
de prédiction dans le proche infra-rouge à partir de mesures effectuées sur 48 espèces dont l’un des principaux
paramètres est le volume des lacunes du parenchyme spongieux.
3.3 Réflectance
La réflexion n’étant pas une mesure absolue du fait qu’elle est dépendante de l’illuminant, la notion
de réflectance a été introduite. Il s’agit du rapport entre la réflexion de l’échantillon étudié (feuille) et la
réflexion par une surface standard de référence (Strub et al., 2004). Cette dernière est une surface blanche en
PolyTétraFluoroEthylène6 (PTFE) qui réfléchit entièrement (99,999%)7 la totalité du rayon incident.
%Réflectance =
Réchantillon
Rréférence
(3.3)
La figure ci-dessous (3.4) regroupe les spectres de réflectance de quelques surfaces en fonction de la longueur
d’onde (du bleu (400 nm) au proche infra-rouge (900nm)) d’après (Pouchin, 2001).
F IG . 3.4 – Spectres de réflectance de quelques surfaces (Pouchin, 2001).
(circulation symplasmique).
4 Le cytoplasme désigne le contenu d’une cellule vivante.
5 La cuticule désigne la couche externe sécrétée par l’épiderme des plantes (cire de plante).
6 Teflon, sous sa marque commerciale.
7 Donnée constructeur.
48
3.4
État de l’art : réflectance et désherbage
Nous remarquons que le sol (béton, sol sablonneux, asphalte) présente le plus souvent un spectre de réflectance
linéaire en fonction de la longueur d’onde.
3.3.1 Propriétés spectrales des végétaux
Classiquement, les spectres de réflectance des végétaux présentent dans le visible (400-700 nm) une forte
absorption liée aux pigments foliaires, essentiellement la chlorophylle a et b avec deux bandes d’absorption
dans le bleu (430-450 nm) et le rouge (640-660 nm) ainsi que les autres pigments photosynthétiques (caroténoı̈de8 910 ). En conséquence, le signal de réflectance des végétaux dans le visible est faible et présente un
maximum dans les longueurs d’onde proches de 500 nm expliquant la couleur verte des végétaux. Baranoski
et Rokne (Baranoski et Rokne, 2004) ont développé un modèle de réflectance dans le visible à partir de ces
fonctions biologiques. En revanche, c’est dans le proche infra-rouge (700-1300 nm) où les pigments foliaires
sont transparents pour ces longueurs d’onde que la réflectance devient très élevée et stable en présentant un
plateau. Ce signal est corrélé à la structure anatomique des feuilles notamment aux nombres et discontinuité
des couches cellulaires (Gausman, 1985 ; Baranoski et Rokne, 1997 ; Vrindts, 2000). La transition entre le visible et le proche infra-rouge se traduit par un point particulier appelé Red Edge qui serait le point d’inflexion
de cette courbe et qui serait fortement corrélé à la fluorescence rouge des pigments chlorophylliens excités par
la lumière visible. Au delà de ces longueurs d’onde, dans le moyen infra-rouge (1300-2500 nm), les propriétés
optiques des feuilles sont affectées par la présence non seulement d’eau contenue dans celles-ci mais aussi
des composés biochimiques des tissus foliaires. Enfin, les végétaux comme tous les êtres vivants, vont avoir
des propriétés optiques qui évoluent non seulement avec le stress et l’environnement qu’ils subissent (stress
hydrique, attaques parasitaires...) mais aussi avec l’âge.
3.3.2 Propriétés directionnelles
Du fait que le rayonnement réfléchi (3.2.3) est constitué d’une composante spéculaire et d’une composante diffuse, celui-ci va également dépendre de l’angle d’incidence en conséquence de quoi, le signal de
réflectance dépend très fortement de l’angle d’illumination, d’où l’utilisation d’un modèle BRDF11 . Par la
suite, dans le cadre de nos expériences, la lumière incidente a toujours été positionnée perpendiculairement
aux échantillons de feuille (θ = 0), avec l’impossibilité technique de modifier cet angle. Cela aurait été possible avec l’utilisation d’un goniophotomètre12 développé au laboratoire IPGP13 (Jussieu) dans l’équipe de S.
Jacquemoud (Bousquet, 2007). Ainsi, l’étude qui suivra, portant sur la possibilité d’identifier une plante via sa
signature spectrale, est restreinte aux spectres de réflectance mesurés pour un angle d’incidence nul.
3.4 État de l’art : réflectance et désherbage
Dans le cadre du désherbage, les premiers travaux sur l’utilisation de la réflectance pour identifier une plante
d’une autre sont apparus avec la thèse de Els Vrindts (Vrindts, 2000) en 2000. L’auteur utilise un spectromètre
pour avoir des spectres de réflectance de 200 à 2000 nm. Bien sûr, en agriculture, le Weedseeker et autres
prototypes (apparus dans les année 80) de ce genre utilisant les propriétés spectrales pour le désherbage localisé
sont très vite limités (cf. 1.5) car la faible résolution spectrale ne permet pas cette discrimination plante/plante.
8 On
regroupe sous le terme de caroténoı̈de les carotènes et les xanthophylles.
carotène est un terpène, un pigment de couleur orange, important pour la photosynthèse.
10 Les xanthophylles sont des molécules de couleur jaune dérivées des carotènes, par ajout d’atomes d’oxygène (fonctions alcool,
cétone, époxy,...).
11 Bidirectional Reflectance Distribution Function (réflectance bidirectionnelle spectrale).
12 Le goniophotomètre est un montage mécanique qui permet de modifier l’orientation de la source et/ou la position du détecteur,
tout en maintenant constante la distance entre la source et le détecteur.
13 Institut de Physique du Globe de Paris.
9 Le
49
Chapitre 3. Algorithmes spectraux
Les approches spectrales basées sur la réflectance peuvent se décliner en deux catégories :
– celles qui utilisent un spectromètre,
– celles qui s’appuient sur des images fournies par une caméra multispectrale.
Une première étude a été menée en laboratoire pour l’acquisition des spectres de différents échantillons de
cultures et d’adventices. Il est possible de classer ces échantillons en deux classes, culture et adventice,
avec un taux d’erreur très faible (entre 0 et 6%) à l’aide d’une analyse discriminante multivariée. Gée et
al. (Gée et al., 2004b) ont mené des mesures de réflectance sur 4 espèces végétales différentes en laboratoire.
Une analyse en composante principale est réalisée dans le but de déterminer quelles longueurs d’onde permettent de discriminer au mieux les adventices. La classification est obtenue par l’utilisation d’un réseau de
neurones de type perceptron. La classification entre monocotylédones et dicotylédones est de 100%. Quant à la
classification entre 4 espèces différentes, elle donne un résultat correcte avec ≈86,66% de bonne détection.
Vioix (Vioix, 2004), quant à lui, utilise une caméra multispectrale équipée de 4 bandes - bleu, vert, rouge et
proche infra-rouge - embarquée dans un drone. L’auteur extrait une information spectrale après avoir séparé
le sol de la végétation. Cette information n’est pas en fonction de la longueur d’onde, mais il s’agit plus
d’une information fondée sur l’intensité des pixels dans chaque bande de couleur. Le nombre de filtres étant
faible, il est difficile de vraiment parler de reconstruction d’un spectre de réflectance mais plus d’une reconstruction d’un profil spectral. A partir de cette information, l’auteur a testé plusieurs méthodes de classification afin de discriminer la culture des adventices (SVM, kppv,...). Parallèlement aux travaux de Vioix, Mansouri (Mansouri, 2005) a utilisé une caméra multi-spectrale ayant 9 filtres lui permettant de mieux reconstruire
le spectre de réflectance de différents objets contenus dans une scène filmée. Ces caméras multispectrales ne
permettent pas de faire du traitement en temps réel pour le moment.
3.5 Réalisation de deux bases de données de réflectance
3.5.1 Introduction
L’objectif de cette étude, qui se démarque des travaux réalisés par les autres équipes de recherche, est d’être
capable de reconnaı̂tre une mauvaise herbe à partir de sa réflectance. La finalité à plus long terme est de vouloir
construire une classification de ces adventices en différents groupes de réflectance. En effet, actuellement la
classification des plantes est basée essentiellement sur leur mode de reproduction et leur morphologie.
Dans le but d’une automatisation du traitement phytosanitaire, la détection des adventices pourrait être
réalisée en plaçant des capteurs optiques sur des engins agricoles pour des mesures de réflectance : il
est nécessaire de connaı̂tre la relation entre le spectre mesuré et les mauvaises herbes à traiter. Une partie de ce travail a été présenté lors de la conférence ”Fifth European Conference on Precision Agriculture” (Bossu et al., 2005).
3.5.2 Espèces végétales étudiées
Pour cette étude, nous avons choisi de travailler sur huit espèces d’adventices (table 3.1). Ces espèces appartenant à différentes familles végétales ont été choisies car elles sont fréquemment rencontrées en Bourgogne
dans les parcelles agricoles.
Espèces végétales
La moutarde des champs
Le chardon des champs
La véronique de perse
La folle avoine
Classe
Dicotylédone
Dicotylédone
Dicotylédone
Monocotylédone
Famille
Brassicacée
Astéracée
Scrophulariacée
Poacée
TAB . 3.1 – Présentation des huit espèces étudiées.
50
3.5
Réalisation de deux bases de données de réflectance
3.5.3 Dispositif expérimental
Les mesures des spectres de réflectance des plantes sont obtenues au moyen :
– d’un spectromètre, qui reçoit la lumière réfléchie par la feuille. Seule la bande spectrale comprise entre
400 et 900 nm est utilisée. Il s’agit d’un spectromètre de chez Oceans Optics,
– d’un ordinateur permettant de récupérer les données du spectromètre,
– d’une source de lumière continue : il s’agit d’une lampe halogène tungstène qui émet un spectre dans le
domaine 450-1000 nm,
– d’une surface blanche PTFE (PolyTetraFluoroEthylene) servant d’échantillon de référence,
– d’une sphère intégrante opaque et blanche qui possède un orifice de 8 mm de diamètre permettant de
collecter toute la lumière réfléchie par la feuille.
On peut voir sur la figure 3.5 le principe de la mesure de réflectance des plantes.
Ø
L a s o u r c e , le s p e c t r o m è t r e e t la d é t e c t io n
s o u r c e d e lu m iè r e c o n t in u e
S p e c t r o m è t r e
H a lo g è n e - t u n g s t è n e
P T F E
A R e te n ir
s u r fa c e b la n c h e
• D o m a in e s p e c t r a l d e
l’a p p a r e il : [ 5 2 5 - 9 5 0 ]
n m
• R é s o lu t io n ~ 1 0 n m
• M é t h o d e d e s t r u c t iv e
E c h a n t illo n : fe u ille
M ir o ir
R é s e a u : 6 0 0 t r a it s / m m
C a p t e u r : b a r e t t e d e C C D
F IG . 3.5 – Principe de la mesure de réflectance des plantes.
Ce dispositif fonctionne en espace clos puisque tous les signaux lumineux transitent via des fibres optiques. Les
spectres sont enregistrés grâce au logiciel OOIBase32. Chaque spectre, est obtenu en utilisant une moyenne sur
la mesure de dix enregistrements, et est constitué de 2048 points ce qui conduit à une résolution spectrale
d’environ 0,25 nm.
Les mesures en champ sont toujours réalisées en lumière contrôlée. On peut voir sur la figure 3.6 le prototype de mesure de réflectance adapté pour aller au champ, il est embarqué dans une charrette contenant une
batterie pour assurer l’autonomie électrique du dispositif.
Contrairement à ce qui a été fait dans les travaux de Gée et al. (Gée et al., 2004b), dans cette étude les feuilles
ne sont plus prélevées sur la plante. Nous travaillons sur des plantes vivantes situées dans une parcelle proche
de l’ENESAD. Ces mesures ont été réalisées en majeure partie sur les mêmes espèces que celles étudiées en
laboratoire par Gée et al. (Gée et al., 2004b).
Deux campagnes de mesures ont été réalisées en novembre 2004 afin de se mettre dans les mêmes conditions climatiques que pour la pulvérisation. Malheureusement, l’automne 2004 a été exécrable, très pluvieux et
avec quelques gelées provoquant beaucoup de difficultés dans la prise de mesure.
51
Chapitre 3. Algorithmes spectraux
F IG . 3.6 – Dispositif de mesure de réflectance en champ.
3.5.4 Base de données
Nous avons ainsi construit deux bases de données : une en champ où deux campagnes de mesures ont été
conduites et une autre en laboratoire réalisée par Gée et al. (Gée et al., 2004b).
Pour la base de données en laboratoire, ce sont plus de 88 spectres qui ont été collectés sur quatre espèces
différentes : folle avoine, moutarde, véronique et chardon. Pour la base de données en champ, 68 spectres ont été
réalisés sur les 4 espèces étudiées en laboratoire pour la campagne 1. Pour la campagne 2, nous avons mesuré
64 spectres des espèces étudiées en laboratoire. Les tableaux 3.2 et 3.3 résument les nombres d’échantillons
réalisés sur chaque espèce.
Espèces
Classe
Echantillons
chardon
Dicotylédone
32
Véronique
Dicotylédone
22
Moutarde
Dicotylédone
16
Folle avoine Monocotylédone
18
TAB . 3.2 – Base de données de laboratoire. Nombre d’échantillons obtenus pour chaque espèce.
Date
Temps
12/11/2004
froid
19/11/2004
froid
Campagne1
68 spectres
Campagne 2
64 spectres
Soleil
Espèces
Classe
Chardon
Dicotylédone
Véronique
Dicotylédone
absent
Moutarde
Dicotylédone
Folle avoine Monocotylédone
Chardon
Dicotylédone
Véronique
Dicotylédone
présent
Moutarde
Dicotylédone
Folle avoine Monocotylédone
Echantillons
10
21
8
29
13
13
18
20
TAB . 3.3 – Nombre d’échantillons de chaque espèces pour les différentes campagnes conduites en champ.
Toutes les mesures de réflectance effectuées permettent de créer une matrice de données (individus×variables)
contenant des intensités lumineuses obtenues pour chaque longueur d’onde. A partir de cette matrice, nous appliquons une Analyse en Composante Principale afin d’étudier la carte des individus et le cercle de corrélation,
informations qui peuvent nous permettre de savoir s’il est envisageable de faire une classification de ces spectres
de réflectance dans un nouvel espace de variables réduites sans pertes d’information (carte des individus).
52
3.6
Méthode de réduction des données
Le cercle permet, quant à lui, de mettre en évidence la redondance d’information contenue dans les variables
(longueur d’ondes) et ainsi de réduire la taille de la matrice de données. Ensuite cette base de données servira
pour mettre en place un algorithme d’identification d’une plante en fonction de son spectre de réflectance.
Pour ce faire, nous utiliserons différents réseaux de neurones pour classer nos individus en testant différentes
architectures de réseaux.
3.6 Méthode de réduction des données
3.6.1 Analyse en Composantes Principales (ACP)
L’Analyse en Composantes Principales (ACP) est une méthode d’analyse statistique qui a pour but de
réduire la taille des données tout en conservant le maximum d’information. Cette technique a été utilisée pour
la première fois par Hotelling dans les années 30 (Hotelling, 1933) mais s’est réellement développée avec
l’essor de l’informatique dans les années 80.
3.6.1.1
Principe de l’ACP
On définit m le nombre de variables (longueurs d’onde) étudiées et N le nombre d’observations (spectres
de réflectance) de chaque variable. On définit :


λ1 (1) λ2 (1) · · · λm (1)
 λ1 (2) λ2 (2) · · · λm (2) 


s=
(3.4)

..
..
..
..


.
.
.
.
λ1 (N) λ2 (N) · · · λm (N)
où λ1 (1) représente la mesure obtenue pour la première longueur d’onde du premier spectre. Afin de rendre
le résultat indépendant des unités utilisées pour chaque variable, on utilise les valeurs centrées réduites des
variables. Chaque colonne s j de la nouvelle matrice centrée est donnée par :
Sj =
sj − sj
σj
(3.5)
avec s j représentant la jème colonne de la matrice s, s j est sa moyenne calculée de la façon suivante :
sj =
1 N
∑ λ j (k)
N k=1
(3.6)
σ j est l’écart-type calculé comme suit :
σj =
s
1 N
∑ (λ j (k) − s j )2
N k=1
(3.7)
La nouvelle matrice est notée :
S = [S1 · · · Sm ]
(3.8)
On définit la matrice de corrélation par :
1
ST S
(3.9)
N −1
L’estimation des paramètres du modèle ACP se résume à une détermination des valeurs et vecteurs propres de
la matrice de corrélation Mc , soit :
Mc =
m
Mc = ∑ µi pi pTi
(3.10)
i=1
avec P, la matrice des vecteurs propres, pi , le ième vecteur propre de Mc et µi la valeur propre correspondante.
53
Chapitre 3. Algorithmes spectraux
3.6.1.2
Étude des variables - Cercle des corrélations
La matrice de corrélation donne accès aux valeurs propres des vecteurs ainsi qu’aux coordonnées des
variables (λi ) dans l’espace des composantes principales : il faut donc maintenant les représenter sur un
graphique. En effet, notre but (et qui est celui de l’ACP) est de réduire le nombre de dimensions du système
et donc de choisir les valeurs propres les plus représentatives, il faut alors déterminer les axes représentant
plus d’information que les axes initiaux correspondant aux variables. S’il existe q relations linéaires entre les
colonnes de S, on aura q valeurs propres nulles (ou quasiment nulles dans la pratique) et la matrice S peut
être représentée par les premières (m − q) = l composantes principales correspondant aux valeurs propres non
nulles, donc l correspondra au nombre de composantes retenues dans le modèle ACP. Dans la plupart des cas,
deux ou trois axes suffisent pour la meilleure représentation des données (Korn et Korn, 1961).
Remarque : la méthode ne convient que pour des mélanges linéaires.
La représentation en 2 dimensions permet une bonne lecture des données. Si 3 axes doivent être utilisés,
3 représentations en deux dimensions sont nécessaires. La figure 3.7 représente la position de deux variables
var1 et var2 parmi un nombre important de variables, dans un espace à 3 dimensions. Comme la variable var1
est déjà dans le plan Axe1/Axe2, l’extrémité de son vecteur (normé par définition) est positionnée sur le cercle
de rayon 1. Au contraire, si le vecteur n’est pas dans le plan de projection (var2 par rapport à Axe1/Axe2),
sa projection aura une norme inférieure à 1. Une même projection peut être effectuée dans des espaces à n
dimensions (Korn et Korn, 1961).
F IG . 3.7 – Projection dans le plan Axe1/Axe2 de deux variables.
→
−
→ −
\
Deux variables i et i’ corrélées ont des vecteurs colinéaires Oi et Oi′ donc un angle (Oi,
Oi′ ) faible tandis
que deux variables inversement corrélées ont des vecteurs opposés (angle de 180˚). L’angle qui existe entre
2 variables représentées dans le plan des composantes principales est un estimateur de la corrélation entre
deux variables. Si l’angle entre les vecteurs est de 90˚, aucune corrélation n’existe entre les deux variables
(Korn et Korn, 1961).
3.6.1.3
Étude des individus
Le traitement mathématique, appliqué aux variables (colonnes de la matrice S), peut s’appliquer aux individus (ligne de la matrice S). Ils peuvent être représentés dans le nouvel espace défini par les axes principaux.
Cette représentation permet de regrouper les différents individus ou familles d’individus (ou expériences)
54
3.7
Les réseaux de neurones
suivant leur ressemblance. Par analogie au traitement des variables, plus les individus sont proches dans
l’espace des composantes principales plus ils se ressemblent. Cette représentation assure l’identification des
individus exotiques et qui peuvent être issus soit d’une erreur de mesure, soit d’un comportement exceptionnel.
3.6.1.4
Conclusion
L’Analyse en Composantes Principales permet donc de réduire un espace de plusieurs variables en un
espace de variables moindres. De plus le cercle de corrélation peut nous permettre de récupérer les informations
non redondantes pour différents individus.
L’utilisation d’axes principaux ne conduit qu’à des corrélations du premier ordre (variation linéaire entre
facteurs). Si des relations plus complexes (ordre deux ou loi exponentielle ou autre loi non linéaire) existent
entre les facteurs, les corrélations linéaires obtenues par l’ACP peuvent être négligeables.
Dans le cas d’absence de corrélation ou de corrélations linéaires, les coefficients de corrélation sont
respectivement très proches de 0 et de 1, dans ce cas l’ACP sera utilisable. Au contraire, pour une relation du
second ordre ou de forme exponentielle, les coefficients de corrélation linéaire sont faibles malgré l’existence
d’une corrélation marquée entre deux séries, ici, l’ACP sera inutilisable.
En conclusion, l’ACP donne accès à deux types d’analyse :
– l’analyse des variables : détermination des corrélations entre variables (colonnes de la matrice s),
– l’analyse des individus : détermination de la similitude des expériences (lignes de la matrice s).
Cette ACP a été effectuée avant d’utiliser un réseau de neurones afin de ne garder que les données essentielles
des individus pour diminuer la dimension de la matrice s (où les lignes représentent les spectres de réflectance
et les colonnes, les longueurs d’onde) tout en conservant un maximum d’informations.
3.7 Les réseaux de neurones
Parmi les méthodes de classification, il existe deux types de classification : les méthodes dites non supervisées et les méthodes supervisées.
Les méthodes non supervisées permettent de classer des ensembles d’individus homogènes sans connaissance a priori des propriétés des individus. Parmi ces méthodes, il existe l’ACP que nous avons défini ci-dessus
utilisé par exemple par Martin-Chefson pour séparer la végétation du sol dans des scènes de culture de maı̈s
(Martin-Chefson, 2000). Beaucoup de techniques sont basées ou dérivées du clustering (MacQueen, 1967),
comme la méthode des centres mobiles (Coquerez et Philipp, 1995 ; Cornujéols et Miclet, 2002), les nuées
dynamiques ou les k-means. Ces différentes méthodes de clustering sont basées sur le calcul de distance et
nécessite la connaissance des différentes classes présentes pour les études. Une variante de ces algorithmes
existe faisant abstraction du nombre de classes présentes, l’algorithme des ISODATA (Iterative Self-Organizing
Data Analysis Techniques A) (Takahashi et al., 1995) est basé sur les k-means. Le nombre de classes est modifié au cours du processus selon les règles définies dans (Fontaine, 2001). Une autre méthode appelée AFD
(Analyse Factorielle Discriminante) a été utilisée, entre autre, par Gée et al (Gée et al., 2004a) pour séparer les
plantes à partir de leurs signatures spectrales.
Dans le cas des méthodes supervisées, nous avons besoin d’une base d’apprentissage afin de créer
une règle d’apprentissage permettant, dans notre cas, de relier un spectre de réflectance à une espèce.
Généralement la matrice de données est divisée en deux afin d’avoir une matrice d’apprentissage pour apprendre les propriétés des individus. L’autre moitié sert à tester la règle d’apprentissage. Parmi ces méthodes,
développées pour séparer les plantes à partir de leurs propriétés spectrales, nous trouvons la méthode
des k plus proches voisins (Singh et al., 1999) utilisée par exemple par Vioix (Vioix, 2004) et Åstrand et
Baerveldt (Åstrand et Baerveldt, 1999 ; Åstrand et Baerveldt, 2002 ; Åstrand et Baerveldt, 2003). Mitra et al
(Mitra et al., 2004) utilisent une méthode basée sur les SVM (Support Vector Machines) (Hearst, 1998 ;
55
Chapitre 3. Algorithmes spectraux
Cornujéols et Miclet, 2002). Maı̈s les méthodes les plus courantes sont basées sur les réseaux de neurones
artificiels (Hagan et al., 1996) utilisés en partie dans (Pinto et al., ; Moshou et al., 1999 ; Moshou et al., 2001 ;
Vioix et al., 2002 ; Hahn et al., 2004 ; Kavdir, 2004).
Je présenterai ici seulement les réseaux de neurones utilisés dans notre étude, c’est-à-dire de type perceptron
(MLP) car ils sont simples à utiliser et probabiliste (RBF probabiliste).
3.7.1 Les réseaux multicouches
Parmi les réseaux de neurones, les MLP (multi-layer perceptron), ou réseaux à plusieurs couches, sont les
plus utilisés car simples d’emploi, ils donnent souvent d’excellents résultats.
3.7.1.1
Structure
Les neurones sont organisés en couches : chaque neurone est connecté à toutes les sorties des neurones de
la couche précédente, et nourrit de sa sortie tous les neurones de la couche suivante (ces réseaux sont d’ailleurs
qualifiés de feedforward en anglais : (”nourrit devant”). Une couche est souvent ajoutée pour constituer les
entrées.
Les fonctions d’entrée et d’activation sont les mêmes pour les neurones d’une même couche, mais peuvent
différer selon la couche. Les couches situées entre les entrées et la couche de sortie sont dénommées couches
cachées. Les fonctions d’activation des couches cachées sont des fonctions dérivables et pour la couche de
sortie on choisit généralement l’identité.
3.7.1.2
Règle d’apprentissage
Les réseaux multicouches utilisent la règle de rétropropagation du gradient (Hagan et al., 1996 ;
Rumelhart et al., 1986). Cette règle consiste simplement en une descente de gradient de l’erreur, qui est une
méthode d’optimisation universelle. Cela consiste à minimiser une fonction erreur (qui représente l’erreur entre
la sortie désirée et la sortie obtenue), en suivant les lignes de plus grande pente.
Les fonctions d’activation doivent donc être différentiables, c’est pourquoi le plus souvent des fonctions
de type ”sigmoı̈de”(tangentielle ou exponentielle) sont utilisées et elles sont des approximations infiniment
dérivables de la fonction à seuil de Heaviside.
3.7.2 Exemple d’architecture
Pour notre étude, le nombre de couches cachées et de neurones ont été déterminés de façon à trouver le
meilleur compromis entre le temps de calcul et la rapidité de convergence du réseau. La figure 3.8 présente un
réseau avec couche cachée, il comprend une couche de sortie et un vecteur d’entrée.
3.7.3 Les réseaux de type fonction à base radiale (Radial Basis Fonction, RBF) probabiliste
Dans ce paragraphe, nous présenterons très brièvement les réseaux de type RBF (Chen et al., 1991 ;
Wasseman, 1993).
Ce réseau se différencie du MLP par les fonctions d’activation qu’il utilise. En effet les fonctions d’activation de la couche cachée sont des fonctions de type à base radiale (radbas). Ici, l’entrée correspond à un
distance entre le vecteur d’entrée et le vecteur de poids W . Il y autant de neurones dans la couche cachée qu’il
y a d’éléments constituant le vecteur d’entrée.
La fonction radbas est à son maximum c’est à dire 1 lorsque son entrée est à 0. Si la distance entre w et λ
diminue, la sortie augmente. Ainsi, un neurone de RBF agit comme un détecteur qui produit un 1 toutes les
fois que l’entrée λ est identique au vecteur de poids w.
56
3.8
Résultats et discussion
F IG . 3.8 – Un exemple d’architecture d’un réseau de neurones.
La couche de sortie comprend comme fonction d’activation, une fonction compétitivité. Il y a autant de
neurones que de classes. Un seul neurone peut prendre la valeur 1, tous les autres ont la valeur 0. Ce type de
réseau classe le vecteur d’entrée dans une des K classes spécifiques car cette classe a eu la probabilité maximale.
Cette probabilité est obtenue à partir de la couche cachée.
3.8 Résultats et discussion
Afin d’illustrer les algorithmes spectraux développés ci-dessus, nous avons mené deux campagnes de mesures dans les parcelles appartenant à l’ENESAD. La campagne 1 a été réalisée le 12 novembre 2004, le temps
était froid et le soleil était absent. La campagne 2 a été réalisée le 19 novembre 2004, le temps était froid,
humide et le soleil était présent. Pour chaque campagne, nous avons relevé plusieurs spectres de réflectance
pour différentes espèces de plantes. Dans un premier temps, afin de ne pas fausser les données des différents
traitements à réaliser (ACP, réseaux de neurones, etc...), un prétraitement est effectué afin de ne conserver que
le domaine spectral nécessaire pour notre étude (500-900nm). Nous présenterons ensuite la matrice de données
utilisée pour effectuer une ACP, puis la classification par différents réseaux de neurones.
3.8.1 Prétraitement et matrice de données
A l’origine, chaque mesure de réflectance comprend 2048 points correspondant à l’intensité suivant
différentes longueurs d’ondes (400-900 nm). On peut voir figure 3.9.a que les points de mesures avant la
longueur d’onde 600 nm ne sont pas corrects, nous les avons donc volontairement supprimés, le résultat est
présenté sur la figure 3.9.b.
Après corrections de toutes les courbes, nous avons tracé toutes les courbes de réflectance d’une espèce sur un
même graphique (exemple : figure 3.10.a avec la véronique de la campagne 2). On peut s’apercevoir, à partir
de cette figure, que certaines mesures ne correspondent pas aux autres, nous les avons donc supprimées, il est
en effet très probable que des erreurs de mesure ou de manipulation ont été faites lors de l’acquisition de la
réflectance avec le spectromètre. Le résultat est montré figure 3.10.b.
57
Chapitre 3. Algorithmes spectraux
(a)
(b)
F IG . 3.9 – Prétraitement de la courbe de réflectance. (a)courbe originale. (b)courbe débarrassée des mauvaises
mesures évidentes.
(a)
(b)
F IG . 3.10 – Prétraitement du graphique véronique. (a)graphique original. (b)graphique ”épuré”.
3.8.2 Résultat de l’Analyse en Composante Principale
Nous nous sommes intéressés à la carte des individus en utilisant une Analyse en Composante Principale
afin de voir si les individus peuvent être classés. Cette analyse peut nous permettre aussi, par l’intermédiaire du
cercle de corrélation, de voir les variables redondantes et donc de pouvoir les éliminer par la suite afin d’alléger
le vecteur d’entrée. La figure 3.11.a présente le cercle de corrélation avec son agrandissement figure 3.11.b. La
figure 3.11.c représente une carte des individus.
Après étude du cercle de corrélation, nous nous apercevons que quelques longueurs d’onde suffisent pour
reconstruire le spectre de réflectance de chaque plante. Nous avons retenu 14 longueurs d’onde. La figure
3.12.a représente le nouveau cercle de corrélation et la figure 3.12.b montre la nouvelle carte des individus pour
un vecteur d’entrée à 14 variables.
La figure 3.13.a représente les courbes originales. La figure 3.13.b représente les courbes de réflectance de la
véronique lors de la campagne 2 composées seulement par ses 14 longueurs d’onde retenues.
58
3.8
(b )
(a )
c e r c le d e s c o r r e la tio n s
1
c e r c le d e s c o r r e la tio n s
1 0
0 .6
0
987654321 0 0
-0 .2
21 00 00
-0 .4
-0 .6
0 .2
a x e p r in c ip a l 2 : 0 3 .3 9
4 0 0
5 0 0
6 0 0
78 00 00
9 0 0
3 0 0
0 .2
a x e p r in c ip a l 2 : 0 3 .3 9
a x e p r in c ip a l 2 : 0 3 .3 9
0 .4
0 .1 5
0 .1
-1
-0 .5
0
a x e p r in c ip a l 1 : 9 5 .2 1
0 .5
5 0 0
5
6 0 0
0
7 0 0
-5
8 0 0
-1 0
0 .0 5
1
-1 5
-6 0
0 .9 6 0 .9 8 1
a x e p r in c ip a l 1 : 9 5 .2 1
c a p s e lle
c h a rd o n
c h ie n d e n t
fo lle a v o in e
lis e r o n
m o u ta rd e
s e n e ç o n
v é r o n iq u e
4 0 0
-0 .8
-1
(c )
C a r te d e s in d iv id u s
1 5
0 .2 5
0 .8
Résultats et discussion
-4 0
-2 0
0
2 0
a x e p r in c ip a l 1 : 9 5 .2 1
4 0
6 0
8 0
F IG . 3.11 – ACP effectuée pour la campagne 3. (a) le cercle de corrélation. (b) zoom du cercle de corrélation.
(c) carte des individus.
(a )
c e r c le d e s c o r r e la tio n s
1
C a r te d e s in d iv id u s
2
0 .8
c a p s e lle
c h a rd o n
c h ie n d e n t
fo lle a v o in e
lis e r o n
m o u ta rd e
s e n e ç o n
v é r o n iq u e
1 .5
0 .6
1
a x e p r in c ip a l 2 : 0 3 .9 8
0 .4
a x e p r in c ip a l 2 : 0 3 .9 8
(b )
0 .2
0
-0 .2
-0 .4
0 .5
0
-0 .5
-1
-0 .6
-1 .5
-0 .8
-2
-1
-1
-0 .5
0
a x e p r in c ip a l 1 : 9 4 .9 3
0 .5
1
-2 .5
-6
-4
-2
0
2
a x e p r in c ip a l 1 : 9 4 .9 3
4
6
8
F IG . 3.12 – ACP effectuée pour la campagne 2 avec seulement 14 longueurs d’onde. (a) le cercle de corrélation.
(b)carte des individus.
Après avoir interprété la carte des individus, nous constatons que la distance entre les individus de même
espèces est minimisée, nous pouvons donc poursuivre notre étude en utilisant un réseau de neurones afin d’envisager une classification.
3.8.3 Résultats des classifications
3.8.3.1
Utilisation d’un réseau de neurone de type perceptron
Résultats campagne 1
discrimination monocotylédone / dicotylédone :
Pour discriminer nos espèces en deux familles c’est-à-dire ”monocotylédone” et ”dicotylédone”, nous
avons utilisé un perceptron à une couche de sortie à un neurone avec une couche cachée composée de neuf
neurones. Lorsque la sortie du perceptron est à 0 cela signifie qu’une dicotylédone a été détectée. Si la sortie
est à 1 cela signifie que c’est une monocotylédone.
59
Chapitre 3. Algorithmes spectraux
1 0 0
v é r
v é r
v é r
v é r
v é r
v é r
v é r
v é r
v é r
9 0
8 0
7 0
o n iq
o n iq
o n iq
o n iq
o n iq
o n iq
o n iq
o n iq
o n iq
u e n
u e n
u e n
u e n
u e n
u e n
u e n
u e n
u e n
v é r o n iq u e
° 1
° 2
(a )
1 0 0
9 0
° 3
° 4
° 5
8 0
° 6
° 7
° 8
7 0
° 9
6 0
6 0
5 0
5 0
4 0
4 0
3 0
3 0
2 0
5 5 0
6 0 0
v é r
v é r
v é r
v é r
v é r
v é r
v é r
v é r
v é r
6 5 0
7 0 0
7 5 0
8 0 0
8 5 0
2 0
9 0 0
5 5 0
o n iq
o n iq
o n iq
o n iq
o n iq
o n iq
o n iq
o n iq
o n iq
u e n
u e n
u e n
u e n
u e n
u e n
u e n
u e n
u e n
v é r o n iq u e
° 1
(b )
° 2
° 3
° 4
° 5
° 6
° 7
° 8
° 9
6 0 0
6 5 0
7 0 0
7 5 0
8 0 0
8 5 0
F IG . 3.13 – Courbes de réflectance de la véronique lors de la campagne 2. (a)courbe originale. (b)courbe après
traitement de l’ACP.
Le tableau 3.4 référence le nombre d’échantillons ayant servi à l’apprentissage et au test du réseau. Ici
nous avons utilisé 14 plantes de la famille monocotylédone et 18 plantes de la famille dicotylédone pour
l’apprentissage et 15 et 19 respectivement pour le test.
Chardon
Folle avoine
Véronique
Moutarde
Monocotylédone
Dicotylédone
Apprentissage Test
4
4
14
15
10
11
4
4
14
15
18
19
TAB . 3.4 – Nombres d’échantillons (par espèces) utilisés pour l’apprentissage et le test du réseau de neurones.
Le tableau 3.5 montre le résultat du perceptron : les plantes de la famille ”monocotylédone” ont toutes bien
été classées alors qu’il n’y a qu’une erreur de classement pour celle de la famille dicotylédone soit 94,73% de
plantes bien classées.
Monocotylédone Dicotylédone
%
Monocotylédone
15
0
100
Dicotylédone
1
18
94, 73
Précision totale
97, 4
TAB . 3.5 – Discrimination monocotylédone / dicotylédone.
discrimination entre 4 espèces :
Dans ce paragraphe, nous allons nous intéresser à la discrimination entre 4 espèces différentes que sont le
chardon, la folle avoine, la véronique et la moutarde. Les spectres de réflectance choisis pour le test sont les
60
3.8
Résultats et discussion
mêmes que précédemment (tableau 3.4).
Le réseau de neurones utilisé ici est un perceptron comportant une couche cachée de 9 neurones et une
couche de sortie de 2 neurones dont nous pouvons voir la signification sur le tableau 3.6.
sortie du 1er neurone sortie du 2ème neurone
0
0
1
1
0
1
0
1
espèce associée
véronique
moutarde
chardon
folle avoine
TAB . 3.6 – Signification de la sortie des 2 neurones.
Chardon
Folle avoine
Véronique
Moutarde
Chardon Folle avoine véronique moutarde
%
4
0
0
0
100
0
10
0
5
66, 66
3
1
7
0
63, 63
0
0
3
1
25
Précision totale
63, 82
TAB . 3.7 – Discrimination entre 4 espèces.
Nous pouvons voir d’après le tableau 3.7 que les spectres de chardon sont classés à 100%, et que nous avons
environ 2/3 de bon classement pour les spectres de folle avoine et la véronique. Cependant, seulement 1 quart
des spectres de moutarde ont été bien reconnu.
Résultats campagne 2
discrimination monocotylédone / dicotylédone :
Pour discriminer ces deux familles, nous avons utilisé le même réseau de neurone de type perceptron que
celui du paragraphe 3.8.3.1 de même nom (une couche de sortie à 1 neurone).
Le tableau 3.8 représente le nombre d’échantillons de test et d’apprentissage utilisés pour la mise en œuvre
du réseau de neurones.
Chardon
Folle Avoine
Véronique
Moutarde
Monocotylédone
Dycotylédone
Apprentissage Test
6
7
8
9
4
5
6
6
8
9
16
18
TAB . 3.8 – Échantillons utilisés pour le réseau de type perceptron.
Les résultats de la classification sont présentés dans le tableau 3.9. On peut voir que contrairement à la
campagne 1 (3.5) les résultats ne sont pas aussi bons. Nous n’avons que 88,89% de plantes de la famille
61
Chapitre 3. Algorithmes spectraux
monocotylédone bien classées contre 100% pour la campagne 1 et respectivement 72,22% de dicotylédone
contre 94,73%.
Monoctylédone Dicotylédone
%
Monocotylédone
8
1
88, 89
Dicotylédone
5
13
72, 22
Précision totale
80, 55
TAB . 3.9 – Discrimination monocotylédone / dicotylédone.
discrimination entre 4 espèces :
Pour discriminer le chardon, la folle avoine, la véronique et la moutarde, nous avons utilisé le même réseau
de neurones présenté au paragraphe 3.8.3.1. Les résultats de ce réseau sont présentés tableau 3.10. D’après ce
tableau et par comparaison avec les résultats de la campagne 1 (3.7), on peut voir que globalement les résultats
sont moins bons, en particulier la moutarde est très mal reconnue.
Véronique
Moutarde
Chardon
Folle avoine
Véronique Moutarde Chardon Folle avoine
5
0
0
0
2
2
2
0
0
0
2
4
0
0
1
8
Précision totale
%
100
33, 33
28, 57
88, 88
62, 69
TAB . 3.10 – Discrimination entre 4 espèces.
3.8.3.1.1
Campagne 1 avec la campagne 2
Dans cette section, nous allons, en utilisant toujours le même perceptron, classer les plantes de type monocotylédone et celles de type dicotylédone en utilisant comme échantillons ceux de la campagne 1 et campagne
2. Puis nous utiliserons ce perceptron pour la classification entre les 4 espèces suivantes : la folle avoine, la
véronique, le chardon et la moutarde avec ces mêmes échantillons (campagne 1 et campagne 2).
Discrimination monocotylédone / dicotylédone :
Le tableau 3.11 présente le nombre d’échantillons utilisés après concaténation de la campagne 1 et la
campagne 2.
Chardon
Folle avoine
Véronique
Moutarde
Monocotylédone
Dicotylédone
Apprentissage Test
10
11
24
24
14
16
10
10
22
24
34
37
TAB . 3.11 – Échantillons utilisés
62
3.8
Résultats et discussion
Nous n’avons pas pu obtenir de résultat pour la discrimination entre le classe de plante de la famille monocotylédone et celle des plantes de la famille dicotylédone car notre réseau de neurones ne converge pas. Ce
réseau semble donc inadapté pour classifier ces deux familles de plantes.
Discrimination entre 4 espèces :
Dans cette partie, nous allons classer la folle avoine, la véronique, le chardon et la moutarde des deux
campagnes. Le nombre d’échantillons est rappelé tableau 3.11.
Les résultats de cette classification sont donnés tableau 3.12. On peut voir que la moutarde n’est pas du
tout reconnue, ce qui confirme le problème rencontré auparavant concernant l’identification de la moutarde par
ses spectres de réflectance. Pour les autres classes, la folle avoine obtient un résultat très correct avec 83,33 %
de plantes bien classées, alors que la véronique et le chardon sont très mal classés avec un taux de classement
inférieur à 50 %.
D’après ces résultats, il semblerait que les mesures de réflectance n’aient pas été réalisées de la même
manière car sur les deux campagnes prises indépendamment l’une de l’autre, nous avions obtenus des bons
résultats de classement ce qui n’est plus le cas lorsque les résultats de ces deux campagnes sont concaténés
puisque les résultats sont dégradés.
Folle avoine
Véronique
Moutarde
Chardon
Folle avoine Véronique Moutarde Chardon
%
20
3
1
0
88, 33
6
7
0
3
43, 75
7
3
0
0
0
7
0
0
4
36, 36
Précision totale
42, 11
TAB . 3.12 – Résultat de la classification du chardon, véronique, folle avoine et moutarde sur les deux campagnes
1 et 2.
3.8.3.2
Utilisation d’un réseau de neurones de type probabiliste
Comme le réseau de neurones de type perceptron ne donne pas satisfaction sur certains résultats, nous
allons, dans cette section, classer les espèces en utilisant un réseau de neurones de type probabiliste. Nous
classerons seulement les plantes de la famille ”monocotylédone” et celles de la famille ”dicotylédone” puis
les quatre espèces suivantes : folle avoine, véronique, moutarde et chardon. Nous utiliserons les échantillons
d’apprentissage et de test obtenus à partir des tableaux suivants : le tableau 3.4 pour la campagne1, le tableau
3.8 pour la campagne 2, et pour l’ensemble des deux campagnes, le tableau 3.11.
3.8.3.2.1
Résultats campagne 1
discrimination monocotylédone / dicotylédone :
Le tableau 3.13 représentent le classement par famille. On s’aperçoit qu’il n’y aucune erreur de classification.
discrimination entre 4 espèces :
Le tableau 3.14 représente le classement des espèces. Le chardon et la folle avoine ont été reconnus à 100%,
alors que la véronique et la moutarde ont été reconnues respectivement à 45, 45% et 75%.
3.8.3.2.2
Résultats campagne 2
63
Chapitre 3. Algorithmes spectraux
Monocotylédone
Dicotylédone
Monocotylédone Dicotylédone %
15
0
100
0
19
100
Précision totale
100
TAB . 3.13 – Discrimination monocotylédone / dicotylédone.
Chardon
Folle avoine
Véronique
Moutarde
Chardon Folle avoine véronique moutarde
%
4
0
0
0
100
0
15
0
0
100
4
0
5
2
45, 45
0
0
1
3
75
Précision totale
80, 11
TAB . 3.14 – Discrimination entre 4 espèces en utilisant un réseau de neurones de type probabiliste.
discrimination monocotylédone / dicotylédone :
Le tableau 3.15 représente le classement par famille suite à l’utilisation d’un réseau de neurones de type
probabiliste. Nous nous apercevons qu’il n’y aucune erreur de classification pour les plantes de la classe
”monocotylédone” contrairement à celles de la classe ”dicotylédone” avec un taux de classification de 91,66%.
Monocotylédone Dicotylédone
%
Monocotylédone
9
0
100
Dicotylédone
3
15
83, 33
Précision totale
91, 66
TAB . 3.15 – Discrimination monocotylédone / dicotylédone en utilisant un réseau de neurone de type probabiliste.
discrimination entre 4 espèces :
Le tableau 3.16 représente le classement des espèces obtenu suite à l’utilisation d’un réseau de neurones de
type probabiliste. Les spectres de folle avoine ont été les mieux reconnus avec 88.88% de bien classés, alors
que ceux de la véronique et du chardon ont été reconnus respectivement à 80% et 66, 67%. En revanche les
spectres de réflectance de la moutarde ont été très mal reconnus avec un taux de16, 67%, ils ont été confondus
avec ceux de la véronique.
Véronique Moutarde Chardon Folle avoine
Véronique
Moutarde
Chardon
Folle avoine
4
4
0
0
0
1
0
0
Précision totale
1
1
4
1
0
0
2
8
%
80
16, 67
66, 67
88, 88
63, 05
TAB . 3.16 – Discrimination entre 4 espèces en utilisant un réseau de neurone de type probabiliste.
64
3.8
3.8.3.2.3
Résultats et discussion
Résultats sur l’ensemble campagne 1 et campagne 2
Comme la classification entre les plantes de type monocotylédone et celles de type dicotylédone n’a pas pu
être obtenue par le perceptron, nous nous intéresserons seulement à la discrimination entre les quatre espèces
étudiées. Le tableau 3.17 présente le classement des espèces. On peut voir que la folle avoine et la moutarde sont
très bien classées avec des taux respectifs de 100% et 90%, alors que la véronique et le chardon n’atteignent
même pas un taux de 40%.
Folle avoine
Véronique
Moutarde
Chardon
Folle avoine Véronique Moutarde Chardon
%
24
0
0
0
100
0
5
7
4
31, 25
0
1
9
0
90
7
0
0
4
36, 36
Précision totale
64, 40
TAB . 3.17 – Résultats de la classification du chardon, véronique, folle avoine et moutarde obtenus sur les deux
campagnes en utilisant un réseau de neurones de type probabiliste.
3.8.3.2.4
Laboratoire
Dans ce paragraphe, nous présentons les résultats obtenus en laboratoire par Gée et al. (Gée et al., 2004b)
pour l’utilisation d’un perceptron identique à celui utilisé pour nos tests ; le réseau probabiliste n’ayant pas été
testé dans cette expérience. Ces résultats, rappelés pour mémoire, nous servirons à comparer la robustesse de la
classification entre les études menées au champ et celles conduites en laboratoire sur des feuilles fraı̂chement
prélevées.
discrimination monocotylédone / dicotylédone : Le tableau 3.18 présente le résultat de la classification
entre les plantes de type monocotylédone et celles de type dicotylédone où aucune erreur n’a été commise.
Monocotylédone Dicotylédone %
Monocotylédone
9
0
100
Dicotylédone
0
36
100
Précision totale
100
TAB . 3.18 – Discrimination monocotylédone / dicotylédone en utilisant un réseau de neurone de type perceptron.
65
Chapitre 3. Algorithmes spectraux
discrimination entre 4 espèces :
Le tableau 3.19 présente le résultat de la classification entre les différentes espèces étudiées. Il n’y aucune
erreur de classification concernant les spectres de folle avoine et de véronique. Les spectres de moutarde ont
été classés avec un taux de réussite de 80,5% et ceux du chardon avec un taux de 70,6%.
Véronique
Moutarde
Chardon
Folle avoine
Véronique Moutarde Chardon Folle avoine
11
0
0
0
0
7
0
1
3
2
12
0
0
0
0
9
Précision totale
%
100
87, 5
70, 6
100
89, 52
TAB . 3.19 – Discrimination entre 4 espèces en utilisant un réseau de neurone de type perceptron.
3.8.3.3
Discussion
Les tableaux 3.20 et 3.21 présentent un résumé des résultats des différentes classifications obtenues
pour chaque campagne mais aussi pour les deux campagnes prises ensemble. Nous présentons également
les résultats sur les essais conduits en laboratoire, pour les deux architectures de réseaux de neurones vu
précédemment, à savoir, le perceptron (couleur noir) et le probabiliste (en rouge). L’utilisation d’un réseau
de neurones de type probabiliste donne de meilleurs résultats de classification que ce soit par espèce ou par
famille et quelle que soit la campagne comme le montre les tableaux 3.20 et 3.21. Par contre, quel que soit
le réseau utilisé, on a pu voir que les campagnes prisent une à une donnent de bons résultats de classification
alors que l’ensemble des résultats des deux campagnes donne des résultats moins bons.
Campagne 1 Campagne 2 Campagne 1 + 2 laboratoire
Monocotylédone
100 100
88, 89 100
100
Dicotylédone
94, 73 100 72, 22 83, 33
100
Global
97, 4 100
80, 55 91, 66
100
TAB . 3.20 – Résumé des taux de classement par familles pour deux architectures de réseau de neurones (perceptron en noir et probabiliste en rouge).
Campagne 1
Chardon
100 100
Folle avoine 66, 66 100
Véronique 63, 63 45, 45
Moutarde
25 75
Global
63, 82 80, 11
Campagne 2 Campagne 1 + 2 laboratoire
28, 57 66, 67
36, 36 36, 36
70, 6
88, 88 88, 88
88, 33 100
100
100 80
43, 75 31, 25
100
33, 33 16, 67
0 90
87, 5
62, 69 63, 05
42, 11 64, 40
89, 52
TAB . 3.21 – Résumé des taux de classement par espèces pour deux architectures de réseau de neurones (perceptron en noir et probabiliste en rouge).
On peut s’apercevoir que les résultats obtenus en laboratoire sont toujours supérieurs à ceux obtenus en
champ, surtout pour la discrimination entre les quatre espèces différentes avec une différence d’environ de 25%
entre ces deux résultats. Une explication possible sur les résultats médiocres de classification obtenus en champ
est qu’il existe une différence de variabilité d’une feuille de plante à une autre lors de la prise de mesure par
66
3.9
Conclusion
rapport au laboratoire où toutes les feuilles ont été prises sur les même plante et dans des conditions saines.
Il est vrai que pour les mesures en champ, les feuilles sélectionnées proviennent de différentes plantes situées
à différents endroits de la parcelle où les conditions environnementales sont très différentes. Il peut exister un
stress hydrique sur certains échantillons, il peut y avoir de l’eau, ou autre chose qui peut modifier le spectre de
réflectance de l’échantillon. En conclusion, les essais en champ ne semblent pas confirmer de façon probante
les résultats obtenus en laboratoire.
3.9 Conclusion
L’ensemble des résultats obtenus en champ pour la discrimination des plantes par les propriétés spectrales
ne permettent pas de conclure avec enthousiasme sur l’utilisation de cette méthode qui semblait à l’issue des
travaux conduits en laboratoire être performante. Cependant, pour les campagnes de mesures conduites en
novembre 2004 où les conditions météorologiques étaient particulièrement mauvaises (froid, pluie, gel...) il
se peut que le choix de la méthode de classification des spectres fut mal adapté pour cette discrimination.
Seulement deux type de réseaux de neurones ont été testés et peut-être que d’autres méthodes telles que les
SVM, AFD... devraient être essayées.
Si nous voulons utiliser l’analyse spectrale en temps réel, il nous faut concevoir un prototype permettant
d’enregistrer la même scène à différentes longueurs d’onde. Cela implique donc de fixer des filtres optiques sur
la caméra afin de pouvoir reconstruire un spectre de réflectance (Navar, 2001 ; Vioix, 2004 ; Mansouri, 2005).
Les résultats de l’Analyse en Composante Principale ont permis de mettre en valeur les longueurs d’onde primordiales pour identifier les plantes de la famille monocotylédone de la famille dicotylédone, ou quelques
espèces entre elles. Cependant, autant la mesure de la réflexion des plantes est une chose réalisable, autant la
mesure de réflectance devient plus compliquée à mettre en œuvre puisqu’il est délicat de mesurer en temps réel
la réflexion du soleil sans utiliser de surface blanche. En effet, si l’on filme une scène de dimension de 2m × 3m,
il nous faudrait couvrir cette surface avec une surface blanche, ce qui devient impossible. Une solution serait
peut être d’utiliser un luxmètre ou d’utiliser la méthode développée par A. Mansouri permettant de reconstruire un spectre de réflectance à partir de la réflexion des objets et connaissant les paramètres intrinsèques et
extrinsèques de la caméra (Mansouri, 2005 ; Assémat et al., 2007). De plus, il faudrait confirmer les résultats
obtenus en laboratoire sur la classification des plantes par leur signature spectrale.
Une alternative à ces problèmes est, comme nous allons le voir dans le chapitre suivant, l’utilisation
d’algorithmes spatiaux qui ne nécessitent qu’une seule caméra sans filtre.
67
Chapitre 3. Algorithmes spectraux
68
Chapitre 4
Algorithmes spatiaux
Sommaire
4.1
4.2
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
La transformée de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.2.1 Rappel sur la transformée de Fourier (TF) . . . . . . . . . . . . . . . . . . . . . . . . 71
4.2.2 Rappel sur le filtre de Gabor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.2.3 Utilisation du filtre de Gabor pour discriminer la culture des adventices . . . . . . . . 73
4.2.4 Illustration de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.3 La transformée de Fourier à fenêtre glissante . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.3.1 Rappel sur la transformée de Fourier à fenêtre glissante . . . . . . . . . . . . . . . . . 76
4.3.2 Utilisation de la transformée de Fourier à fenêtre glissante pour détecter les lignes de semis 77
4.4 La transformée en ondelette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.4.1 Définition d’une ondelette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.4.2 Transformée discrète et analyse multi-résolution . . . . . . . . . . . . . . . . . . . . 78
4.4.3 Utilisation de la transformée en ondelette pour la détection de lignes de semis . . . . . 79
4.4.4 Illustration de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.5 La transformée de Hough . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.5.1 Rappel sur la transformée de Hough . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.5.2 Description de l’algorithme mis en place . . . . . . . . . . . . . . . . . . . . . . . . 85
4.5.3 Illustration de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.6 Redressement des images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.7 Étude de la robustesse des algorithmes spatiaux . . . . . . . . . . . . . . . . . . . . . . . 88
4.7.1 Modélisation d’images agronomiques . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.7.2 Matrice de confusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.8 Création de trois bases de données d’images . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.8.1 Images simulées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.8.2 Images réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.9 Résultats et Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.9.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.9.2 Algorithme basé sur la transformée de Fourier et du filtre de Gabor (TF) . . . . . . . . 94
4.9.3 Algorithme basé sur la transformée de Fourier à fenêtre glissante (TFG) . . . . . . . . 106
4.9.4 Algorithme basé sur la transformée en ondelette . . . . . . . . . . . . . . . . . . . . . 110
4.9.5 Algorithme basé sur la transformée de Hough . . . . . . . . . . . . . . . . . . . . . . 120
4.9.6 Bilan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
4.9.7 Réflexion générale sur l’imagerie pour la lutte contre les adventices . . . . . . . . . . 128
4.10 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
69
Chapitre 4. Algorithmes spatiaux
4.1 Introduction
A partir d’une vision globale d’une parcelle cultivée, il va être possible d’identifier chacun des objets de
la scène à partir de ses propriétés spatiales. La culture présente souvent une certaine périodicité alors que les
mauvaises herbes ont une distribution spatiale ponctuelle ou agrégative. Quant au sol, il ne possède en générale
aucune périodicité spatiale.
Dans le chapitre précédent nous avons tenté de discriminer les plantes par leurs propriétés spectrales montrant que les résultats des différentes classifications utilisées ne sont pas suffisamment robustes pour être exploitables pour une discrimination culture/adventices en temps réel. Nous allons dans ce chapitre tenter discriminer une plante d’une autre en utilisant, comme de nombreux chercheurs l’ont fait, leurs propriétés spatiales. La culture semée en ligne présentera une périodicité dans le champ alors que les adventices dispersées
aléatoirement de manière ponctuelle ou agrégative sont le plus souvent localisées dans l’inter-rang. Cependant
comme nous le verrons, une des grandes limites de ces méthodes de discrimination spatiale est l’impossibilité
de discerner une adventice dans un rang de culture. Suivant le type de culture, la fréquence du rang de semis peut
varier de douze centimètres pour le blé à quarante cinq centimètres pour le tournesol et différentes méthodes
de semis le long de la ligne de semis peuvent être rencontrées : en continue pour les cultures céréalières ou
périodique par exemple pour le tournesol (15 centimètres). Ainsi l’utilisation de méthode basée sur la transformée de Fourier semble tout à fait adaptée pour ce type de discrimination au sein d’une image. J-B. Vioix
a développé cette approche en utilisant un filtre de Gabor sur des images acquises par un drone survolant des
parcelles de tournesol (Vioix et al., 2002 ; Vioix, 2004). Ce travail a été poursuivi pour non seulement détecter
la fréquence des lignes de semis mais aussi la fréquence de chaque plante semée dans une ligne en utilisant une
modélisation de la scène (Vioix et al., 2006). A titre d’exemple, T. Hague et N. D. Tillet (Hague et Tillett, 2001)
utilisent un filtre passe bande pour localiser des lignes de semis afin de faire du guidage automatique. Autant
la détection des lignes semble très satisfaisante (à condition que la périodicité soit constante dans l’image),
autant la caractérisation des plantes dans le rang de culture semble plus délicate surtout en présence d’adventices. Dans ce chapitre, nous avons testé et adapté l’approche initiée par J-B. Vioix en l’appliquant au
cas d’images présentant une perspective puisque tel est notre cas avec la caméra inclinée devant le tracteur.
Nous présenterons une méthode simple utilisant la transformée de Fourier avec un filtre de Gabor puis une
méthode utilisant la transformée de Fourier à fenêtre glissante. Également, une autre méthode basée sur la transformée en ondelette et l’analyse multirésolution sera étudiée dans le cas d’images en perspective. Cette dernière
méthode, au temps de calcul extrêmement rapide (Vioix, 2004), pourrait s’avérer très intéressante dans le cadre
de notre étude en temps réel. Également, deux méthodes basées sur la transformée en ondelette ou la transformée de Fourier ont été étudiées sur des images redressées, donc présentant des lignes de semis parallèles.
Parmi les autres méthodes développées en traitement d’images exploitant une information spatiale, nous citerons la transformée de Hough. Nombreux sont les chercheurs en agriculture à avoir utilisé cette méthode
de détection de lignes pour l’autoguidage d’un tracteur par vision (Marchant, 1996 ; Søgaard et Olsen, 1999 ;
Åstrand et Baerveldt, 2005 ; Leemans et Destain, 2006a ; Leemans et Destain, 2006b). Nous avons donc voulu
tester également cette méthode en l’adaptant à la reconnaissance d’adventices, c’est-à-dire que nous avons
couplé la détection de ligne à une méthode de blob-coloring permettant de regrouper des pixels conjoints à une
même classe.
Au cours de ce chapitre, nous allons présenter l’ensemble de ces méthodes mises en œuvre pour l’identification culture/adventices. La fin du chapitre présente la méthode retenue pour le temps réel en comparant les
résultats de discrimination.
4.2 La transformée de Fourier
Dans un premier temps, nous proposons un rappel sur la Transformée de Fourier. Nous présentons ensuite
le filtre de Gabor, pour finir sur la méthode de la détection des lignes.
70
4.2
La transformée de Fourier
4.2.1 Rappel sur la transformée de Fourier (TF)
L’étude d’un signal nécessite souvent de combiner une analyse temporelle à une analyse fréquentielle.
L’étude temporelle renseigne sur les discontinuités et la durée du signal. La deuxième permet de savoir quelles
fréquences sont présentes dans ce signal. La transformée de Fourier fut le premier outil d’analyse fréquentielle
utilisé en traitement d’images (Brigham, 1988 ; Bracewell, 1999). L’un des avantages de la transformée de
Fourier est de permettre de réaliser des filtrages par simple multiplication dans le domaine fréquentiel en évitant
de réaliser le produit de convolution dans le domaine temporel ce qui réduit le temps de calcul des filtrages
surtout quand les masques de convolution sont de grandes tailles (théorème de Plancherel). La transformée
de Fourier est une transformation linéaire permettant de décomposer un signal sur la base des exponentielles
complexes. Elle est calculée comme suit :
sb(ω) =
Z +∞
−∞
s(t)e− jωt dt
(4.1)
Sa transformée inverse permet de reconstruire le signal à partir des exponentielles complexes qui le constituent :
s(t) =
1
2π
Z +∞
−∞
sb(ω)e jωt dω
(4.2)
Avec s(t) le signal temporel, sb(ω) le signal fréquentiel, ω = 2π f la pulsation du signal et f la fréquence. Pour
que le transformée de Fourier existe, le signal doit être absolument sommable : s’il est à carré sommable, c’està-dire à énergie finie, la transformée inverse est exacte au sens de la norme L2 . Pour les signaux réels, cette
condition est toujours remplie puisque la mesure est faite sur un temps fini. La transformée discrète,
utilisée
T T
.
dans la pratique étant périodique de période T , il est d’usage de limiter son intervalle de définition à − ,
2 2
Le noyau gaussien étant séparable, la TF peut être appliquée, aisément aux signaux à deux dimensions comme
les images, sa définition devient :
b
f (u, v) =
Z +∞ Z +∞
−∞
−∞
f (x, y)e− j2π(ux+vy) dxdy
(4.3)
b
f (u, v)e j2π(ux+vy) dudv
(4.4)
La transformée inverse s’écrit alors :
f (x, y) =
Z +∞ Z +∞
−∞
−∞
Avec f (x, y) le signal représentant l’image (x et y respectivement l’indice de ligne et de colonne), b
f (u, v) sa
représentation dans le domaine fréquentiel (u et v respectivement la fréquence horizontale et verticale).
4.2.2 Rappel sur le filtre de Gabor
4.2.2.1
Principe
Gabor a proposé un modèle de filtre à une dimension basé sur une fonction gaussienne modulée par une
oscillation complexe (Gabor, 1946) définie par sa réponse impulsionnelle :
−
g(x) = e
x2
2σ2
e j2πu0 x
(4.5)
Dans cette équation, l’écart-type σ caractérise la largeur de la fenêtre spatiale du filtre, la fréquence centrale
étant fixée par u0 .
Ce qui nous intéresse ici, c’est d’étendre cette fonction au domaine à deux dimensions car pour les images,
le signal est bidimensionnel. La généralisation du filtre de Gabor à un espace à deux dimensions à été étudiée par
Daugman (Daugman, 1985 ; Jain et Lakshmanan, 1997 ; Hamamoto et al., 1998), la forme générale est dérivée
de la forme à une dimension (eq.4.5) et est définie par :
g(x, y) =
1
e
πσx σy
−
2
x2
+ y2
2σ2x
2σy
71
e j2π(u0 x+v0 y)
(4.6)
Chapitre 4. Algorithmes spatiaux
où u0 et v0 représentent les fréquences centrales du filtre. Les valeurs de σx et σy caractérisent la bande passante
du filtre selon les directions x et y.
Dans notre cas, comme les images acquisent sont des signaux réels, nous avons opté pour un filtre réel
possédant une orientation définie par les écarts types du noyau gaussien (σx et σy ). La forme suivante est alors
souvent utilisée (Daugman, 1985 ; Yang et al., 2003) :
−
1
g(xθ , yθ ) =
e
πσx σy
y2
x2θ
+ θ2
2σx2
2σy
cos (2πu0 xθ )
(4.7)
avec
xθ
yθ
=
cos θ sin θ
− sin θ cos θ
x
y
(4.8)
Nous pouvons décomposer ce filtre en trois parties N, m(x) et h(y) comme le montre l’équation suivante
(eq.4.9) :
y2
x2
− θ2
1
− θ2
2σ
2σ
× e x cos(2πu0 xθ ) × e y
g(xθ , yθ ) =
(4.9)
πσx σy
g(xθ , yθ ) =
N
×
m(xθ )
× h(yθ )
La partie N représente le gain du filtre. Dans le cas de la définition du filtre où N =
1
, il permet d’avoir
πσx σy
un gain unitaire dans le domaine fréquentiel.
La partie m(xθ ) est un filtre de Gabor unidimensionnel centré en u0 selon l’axe porté par la direction θ.
Selon la valeur de l’écart-type σx le long de cet axe, ce filtre m(x) peut être un filtre passe-bas ou passe-bande.
Si la valeur de l’écart-type σx est faible, la largeur de bande dans le domaine spectral est élevée, le filtre devient
donc de type passe-bas. Sinon, si la valeur de l’écart-type σx est suffisamment grande, la largeur de bande
dans le domaine spectral devient faible et le filtre a alors un comportement passe-bande, Nous constatons que
l’écart-type σx doit croı̂tre pour les faibles valeurs de la fréquence centrale u0 . Son écart-type dans le domaine
1
.
spectral est de
2πσx
La partie h(yθ ) est une fonction gaussienne d’écart-type σy , orthogonale à la direction de l’orientation θ.
1
.
Ce filtre est de type passe-bas. Dans le domaine spectral, son écart-type est égal à
2πσy
Cette décomposition permet de comprendre le comportement fréquentiel du filtre. Les signaux de
fréquences proches de la fréquence centrale du filtre u0 orientés selon l’angle θ ne seront pas ou peu atténués
contrairement aux autres signaux.
La transformée de Fourier (réponse fréquentielle) de ce filtre est donnée par l’équation suivante (eq.4.10) :
i
h
2 2
2
2 2
2
2 2 2
(4.10)
G(u, v) = e−2π σy v e−2π σx (u−u0 ) + e−2π σx (u+u0 )
La figure 4.1 représente schématiquement la réponse fréquentielle d’un filtre de Gabor.
La fréquence centrale du filtre est égale à :
q
u0 = (u2 + v2 )
(4.11)
L’orientation du filtre est donnée par :
θ = tan−1
hvi
72
u
(4.12)
4.2
La transformée de Fourier
F IG . 4.1 – Représentation d’un filtre de Gabor dans l’espace de Fourier.
Les valeurs des écarts-types sont données par la largeur à mi-hauteur des signaux gaussiens (FWMH : Full
Width Middle Height) :
FW MHx = 2, 35σx = ( fC − fB )
FW MHy = 2, 35σy = ( fD − fE )
(4.13)
(4.14)
Soit :
σx =
σy =
fC − fB
2, 35
fD − fE
2, 35
(4.15)
(4.16)
4.2.3 Utilisation du filtre de Gabor pour discriminer la culture des adventices
Nous nous intéressons à la détection de lignes de semis afin de faire une classification entre la culture et
les adventices. En effet, on peut considérer que toute végétation comprise entre les lignes de semis, donc, dans
l’inter-rang est constituée d’adventices. La connaissance de la position des lignes de semis permet donc la
détection des adventices.
La figure 4.2 présente les différentes étapes nécessaires pour parvenir à cette classification
(Bossu et al., 2006a ; Bossu et al., 2006b ; Bossu et al., 2007a ; Bossu et al., 2007b).
F IG . 4.2 – Organigramme de l’algorithme de classification des cultures et des adventices.
4.2.3.1
Transformée de Fourier rapide et détection des paramètres du filtre
Dans un premier temps, nous calculons la transformée de Fourier de l’image acquise afin de déterminer les
paramètres du filtre de Gabor. Ces différents paramètres sont :
– l’orientation du filtre θ,
– la fréquence centrale u0 ,
73
Chapitre 4. Algorithmes spatiaux
– l’écart-type σx suivant la direction horizontale,
– l’écart-type σy suivant la direction verticale.
Pour cela, nous allons chercher les paramètres u, v, fB , fC , fD et fE .
Nous calculons le module de la TF pour finalement, normaliser celle-ci. Comme la transformée de Fourier
est symétrique, nous ne travaillerons que sur la partie positive de celle-ci.
Dans un premier temps, pour extraire les paramètres u0 et θ, soit la fréquence centrale et l’orientation du
filtre, nous recherchons le gain maximum qui est normalement égal à un décibel puisque nous avons un gain
normalisé, nous obtenons une valeur de fréquence horizontale u et verticale v. La valeur de la fréquence u0
correspond à la principale composante fréquentielle présente dans l’image originale.
Pour trouver l’écart-type σx , nous faisons une coupe de la transformée de Fourier de l’image acquise suivant
la droite (du ), nous ne considérons que la partie du signal située autour du fondamental (fréquence u0 ) qui
s’apparente à un signal gaussien, nous allons donc chercher la largeur à mi-hauteur de cette gaussienne pour
obtenir les valeurs fB et fC . Pour l’écart-type σy , nous appliquons la même méthode avec une coupe de la
transformée de Fourier, cette fois-ci, suivant la droite (dv ) afin de trouver les valeurs fD et fE .
Maintenant que nous avons extrait les paramètres u, v, fB , fC , fD et fE , il suffit de les remplacer dans les
équations 4.11, 4.12, 4.15 et 4.16 afin de paramètrer le filtre.
4.2.3.2
Filtrage
Une fois les paramètres de configuration du filtre noté g(x, y) déterminés, nous pouvons donc filtrer l’image
agronomique notée h(x, y). Le résultat de ce filtrage sera défini par r(x, y). Le résultat sera égal au produit de
convolution entre l’image acquise h(x, y) et la réponse impulsionnelle du filtre g(x, y) soit :
r(x, y) = h(x, y) ∗ g(x, y)
(4.17)
Pour l’implémentation de cette fonction, nous devons avoir un filtre de taille finie, le filtre de Gabor ayant
un support infini, nous devons donc tronquer sa taille. Comme le filtre de Gabor est basé sur une fonction
gaussienne, les critères de troncature des fonctions gaussiennes peuvent lui être appliqués. Usuellement, les
fonctions gaussiennes sont tronquées sur ±3σ (σ étant l’écart-type) car cela permet de conserver plus de 90% de
l’information. Nous utilisons ce critère pour limiter le domaine du filtre de Gabor entre [−3σx , 3σx ][−3σy , 3σy ].
L’image filtrée représente une image où les lignes de semis sont rehaussées. La taille du masque de convolution
croit en fonction de la sélectivité spatiale. Nous obtenons généralement un filtre de convolution de grande taille
entraı̂nant des temps de calcul très longs.
Afin de minimiser les temps de calcul, nous allons utiliser le théorème de Plancherel où cette convolution se
transforme par une simple multiplication dans l’espace fréquentiel entre la transformée de Fourier de l’image
acquise H(u, v) et la réponse fréquentielle du filtre G(u, v) soit :
R(u, v) = H(u, v) × G(u, v)
(4.18)
avec R(u, v) le résultat du filtrage dans le domaine fréquentiel. Si nous appliquons une transformée de Fourier inverse à ce résultat, nous obtiendrons une image filtrée représentant les lignes de semis. L’utilisation du
théorème de Plancherel et de l’algorithme FFT1 permet de gagner en temps de calcul mais ne permet pas de
traiter aisément une image dont la taille n’est pas une puissance de deux. Nous serons donc obliger de couper
notre image originale de taille 1600 × 1200 en une image de taille 1024 × 1024.
A partir de l’image filtrée (r(x, y)) et de l’image originale et en utilisant une fonction logique de type ET
ayant une entrée inverseuse, nous obtenons la carte d’infestation notée a. Nous posons Im, l’image acquise
(h(x, y)) binarisée par une méthode de clustering (MacQueen, 1967) et c l’image binaire de l’image filtrée
obtenue également par cette méthode de clustering, il vient :
a = Im · c
1 Fast
Fourier Transform, transformée de Fourier rapide
74
(4.19)
4.2
La transformée de Fourier
4.2.4 Illustration de la méthode
La méthodologie que nous présentons est valable dans le cas d’images présentant ou non de la perspective.
La figure 4.3.a représente l’image à traiter. Afin de pouvoir paramètrer le filtre de Gabor, nous devons calculer le
module normalisé de l’image présentée figure 4.3.b. Sur cette figure, nous pouvons voir deux taches distinctes
symétriques (représentées dans le cercle) par rapport à l’origine. La figure 4.3.c représente un zoom de ces
taches, donc de ce qui est à l’intérieur du cercle et l’étoile de couleur cyan représente le maximum de l’amplitude
du module (donc 1 car le module est normalisé), ayant pour coordonnées u et v ce qui nous permet de définir la
fréquence centrale u0 et l’orientation θ du filtre. Dans ce cas, u0 = 0, 0088 et θ = 0.
(a)
(b)
(c)
F IG . 4.3 – (a) Image à traiter. (b)Module de la transformée de Fourier (TF) de l’image à traiter. (c) Zoom du
cercle de cette TF.
Afin de définir les écarts types σx (suivant la direction horizontale) et σy (suivant la direction verticale), nous
faisons une coupe transversale de la TF suivant la droite passant par l’origine et par le maximum de l’amplitude
du module de la TF. Cette coupe est présentée figure 4.4.a. La figure 4.4.b représente un zoom de la coupe, nous
retrouvons bien l’étoile de couleur cyan ayant pour coordonnées (u0 ,1), nous pouvons apparenter la partie de la
courbe délimitée par les deux étoiles noires et l’étoile cyan, à une gaussienne que nous obtenons en ajustant au
mieux par approximation successive des paramètres. La figure 4.4.c présente en plus de la figure précédente, la
gaussienne de couleur rouge obtenue par régression. Les étoiles vertes représentent les mesures effectuées pour
trouver la largeur à mi-hauteur, mais comme cette coupe de la TF est discrète, nous avons dû interpoler certaines
parties de la courbe avec une interpolation d’ordre zéro afin de pouvoir trouver les fréquences correspondant à
la largeur à mi-hauteur (étoiles rouges). Nous avons donc trouvé les valeurs fC = 0, 0122 et fB = 0, 0046 soit
σx = 0, 0033. Nous avons appliqué la même méthode avec une coupe de la TF suivant la droite passant par
u0 et orthogonale à la droite passant par ce même point et par l’origine, nous avons trouvé fD = −0, 0106 et
fE = 0, 0106 soit σy = 0, 009.
(a)
(b)
(c)
F IG . 4.4 – (a) Vue de coupe de la TF. (b) Zoom de la vue de coupe de la TF. (c) Zoom de la vue de coupe de la
TF avec la gaussienne équivalente (rouge).
Il nous reste maintenant à multiplier la TF de notre image par le filtre de Gabor implémenté avec les paramètres
75
Chapitre 4. Algorithmes spatiaux
trouvés précédemment. La figure 4.5.a représente le filtre de Gabor implémenté dans le domaine fréquentiel.
La figure 4.5.b représente le résultat du filtrage (couleur bleue) dans le domaine spatial superposé à l’image
originale (vert), nous avons donc bien rehaussé les lignes de semis lors du filtrage, et pour finir, la figure 4.5.c
représente la discrimination de la culture (vert) et des adventices (rouge).
(a)
(b)
(c)
F IG . 4.5 – (a) Filtre de Gabor dans le domaine spectral. (b) Résultat du filtrage dans le spatial (bleu) superposé à
l’image originale (vert). (c) Résultat de la discrimination de la culture (vert) par rapport aux adventices (rouge).
4.3 La transformée de Fourier à fenêtre glissante
Nous nous sommes intéressés à la transformée de Fourier à fenêtre glissante ou ”Short Time Fourier
Transform” (STFT) car la Transformée de Fourier présente des limites pour notre application. En effet, nos
images présentent un effet de perspective et les lignes de semis convergent vers un point de fuite ce qui élargit
considérablement le spectre de l’image. Malgré son immense succès, la TF manque de localisation spatiale :
elle permet de connaı̂tre les différentes fréquences présentes dans un signal, mais ne permet pas de savoir à quel
endroits ces fréquences sont présentes. Cette analyse donne une information globale et non locale. Cette perte
de localité n’est pas un inconvénient pour analyser des signaux stationnaires, mais le devient pour des signaux
non stationnaires comme ceux de nos images. De tels signaux nécessitent donc la mise en place d’une analyse
espace-fréquence ce qui permet une localisation des périodicités dans l’espace.
C’est D. Gabor (Gabor, 1946) en 1946 qui propose la première forme de représentation temps-fréquence.
Sa technique consiste à découper le signal en différentes plages ou fenêtres de longueurs fixées. Chaque plage
est alors étudiée séparément des autres par l’analyse traditionnelle de Fourier.
4.3.1 Rappel sur la transformée de Fourier à fenêtre glissante
La transformée de Fourier à fenêtre glissante (Gasquet et Witomski, 1990) revient à limiter le domaine
d’intégration temporel à l’aide d’une fenêtre en multipliant le signal s(t) par une fonction de fenêtrage φ(t),
soit : s(t)φ(b − t) = sb (t). Nous faisons glisser φ(t) pour explorer le signal s(t) (nous appliquons la transformée
de Fourier sur sb (t)), nous obtenons la transformée de Fourier à fenêtre glissante (STFT) définie de la manière
suivante :
Gφ s(b, ξ) =
Z +∞
−∞
s(t)φb,ξ dt
(4.20)
où
φb,ξ = φ(t − b)e jξt
et
ξ = 2πλ
(4.21)
Le paramètre λ joue le rôle d’une fréquence localisée autour de l’abscisse b du signal temporel. Gφ s(b, ξ) donne
ainsi une indication de ce qui se passe autour de l’abscisse t = b pour la fréquence λ.
76
4.4
La transformée en ondelette
Cette transformée peut être interprétée comme une projection de s sur la base des fonctions fenêtres glissantes φ :
Gφ s(b, ξ) = hs(t), φb,ξ i
(4.22)
La fonction φb,ξ se comporte comme une onde oscillant dans l’enveloppe de la fonction de φ(t), elle est
appelée fenêtre d’analyse. Les fenêtres les plus connues sont les fenêtres de Hanning, de Hamming et de Gauss.
Dans ce dernier cas, la transformation a été nommée transformation de Gabor et on appelle Gaborette la fonction
analysante.
Les informations temps-fréquence restent couplées par un compromis limité par la relation d’incertitude,
sur la localisation à la fois en temps et en fréquence.
Cette transformée peut être étendue au domaine à 2 dimensions et se présente sous la forme suivante :
F(u, v, a, b) =
Z +∞ Z +∞
−∞
−∞
f (x, y)φ(a − x, b − y)e− j2π(ux+vy) dxdy
(4.23)
La fonction d’analyse en deux dimensions est représentée par φ(a, b).
4.3.2 Utilisation de la transformée de Fourier à fenêtre glissante pour détecter les lignes de
semis
Ici, nous utilisons la même méthode vue dans la section précédente (4.2) sauf que nous utilisons un fenêtrage
sur notre image originelle. Nous avons découpé l’image originale en plusieurs imagettes de différentes tailles.
Nous utilisons des images ayant une taille de 1024 × 1024 et sachant que l’image présente des lignes de semis
en perspective, nous avons une information fréquentielle plus détaillée dans le haut de l’image où nous avons
plus de lignes de semis que dans le bas de l’image. Nous avons choisi après différents essais de diviser notre
imagette en 4 imagettes de 1024 × 64 pour les lignes de l’image 1 à 256, 2 imagettes de taille 1024 × 128
pour les lignes allant de 256 à 512, pour finir pour les lignes 512 à 1024, nous avons choisi deux imagettes de
1024 × 256.
Cette technique hybride se rapproche en fait de la transformation en ondelette.
4.4 La transformée en ondelette
Cette méthode d’analyse ne privilégie aucune échelle particulière mais généralise à toutes les échelles ;
l’analyse locale des fréquences étant obtenues par la STFT. Cette méthode a été introduite en 1982 par Morlet
et se nomme la transformée en ondelette (Morlet et al., 1982 ; Grossmann et Morlet, 1984).
Les ondelettes, famille de fonctions déduites d’une même fonction, appelée ondelette mère, par
des opérations de translation et de dilatation (la rotation introduite pour les dimensions supérieure à
1, permet à l’aide d’ondelette complexe de Morlet, une sélectivité directionnelle (Antoine et al., 1996)),
ont trouvé, de part la puissance de leur théorie, des applications dans de nombreux domaines
(Burt et Adelson, 1983 ; Mallat, 1989 ; Murenzi, 1990 ; Bijaoui, 1991 ; Antoniadis et Carmona, 1991 ;
Daubechies et Lagarias, 1991 ; Cohen et al., 1992 ; Daubechies, 1992 ; Meyer, 1990 ; Mallat et Zhong, 1992 ;
Muzy et al., 1994 ; Bouchereau, 1997 ; Tian et al., 1999 ; Brisouhal, 2001 ; Bourgeat, 2004 ; Vioix, 2004). La
décomposition en ondelettes est similaire à la décomposition de Gabor : un signal s’écrit sous la forme d’une
superposition d’ondelettes décalées et dilatées. Les poids de ces ondelettes dans la décomposition, appelés les
coefficients d’ondelette, forment la transformée en ondelette, qui est donc une fonction de deux variables : le
temps et l’échelle.
La différence majeure avec la STFT est que la largeur de la fenêtre varie de façon inversement proportionnelle à la fréquence ce qui conduit à une analyse à Q2 constant.
2 Facteur
de qualité
77
Chapitre 4. Algorithmes spatiaux
4.4.1 Définition d’une ondelette
Le terme ”ondelette” définit une onde de durée finie, le terme onde renvoyant à une localisation
fréquentielle, le terme durée à une localisation temporelle ; la recherche de fonctions d’analyse localisées en
temps et en fréquence est un problème. En effet, un compromis entre la résolution temporelle et fréquentielle
liées par la relation d’incertitude de Heisenberg doit être envisagé (une démonstration de ce principe d’incertitude est donné dans (Hubbard, 1995). On appelle ondelette mère la fonction Ψ. A partir d’une ondelette mère,
une famille d’ondelettes Ψa,b est créée par des opérations de translation et de dilatation suivant :
t −b
1
√
Ψ
(4.24)
Ψa,b (t) =
a
a
où a est le facteur d’échelle et b le paramètre de translation. Le facteur d’échelle est lié à la fréquence : pour
a > 1, l’ondelette est plus étalée et correspond à une fréquence plus faible, alors que pour a < 1, l’ondelette est
1
plus étroite et correspond à une fréquence plus élevée. Le facteur √ assure que l’énergie reste la même pour
a
tout a, b :
Z +∞
−∞
|Ψa,b (t)|2 dt =
Z +∞
−∞
|Ψ(t)|2 dt
(4.25)
Dans le cas unidimensionnel, la transformée en ondelette (TO) de la fonction f (t) est alors définie comme
le produit scalaire entre l’ondelette Ψa,b et la fonction f (t) tel que :
Z +∞
1
t −b
W f (a, b) = h f , Ψa,b i = √
f (t)Ψ
dt
(4.26)
a −∞
a
La transformée en ondelette continue est obtenue en balayant le facteur d’échelle a de manière continue sur
R+∗ et le pas de translation b sur R.
4.4.2 Transformée discrète et analyse multi-résolution
Parmi les méthodes de discrétisation de la famille (Ψa,b )a,b,∈R en une sous famille (Ψa j ,bk )a j ,bk ∈R , deux
algorithmes aux propriétés différentes existent, l’analyse multi-résolution (Mallat, 1989) présentée, ci-après, et
l’algorithme à trous (Dutilleux, 1989 ; Bijaoui et al., 1994). Une étude approfondie de ces deux algorithmes est
disponible dans (Rioul et Duhamel, 1992 ; Shensa, 1992 ; Bouchereau, 1997).
Pour une analyse multi-résolution, la discrétisation dyadique est effectuée selon a j = 2 j , bk = 2 j k, avec
j, k ∈ R, soit l’écriture de la TO suivante :
Z +∞ 1
t
W f (2 j , 2 j k) = √ j
(4.27)
Ψ j − k f (t)dt
2
2 −∞
C’est une écriture qui conduit à un algorithme rapide de calcul des coefficients d’ondelette introduit par Mallat
(Mallat, 1989) pour l’analyse multi-résolution. La transformée en ondelette obtenue n’est pas redondante, ce
qui cible ses applications à la compression du signal.
Une analyse multi-résolution est basée sur l’approximation d’une fonction sur une famille (V j ) j∈Z d’espaces emboı̂tés où V j représente l’espace dans lequel la fonction est approximée à la résolution 2− j . Nous
désignons par O j , l’espace dans lequel nous trouvons le détail perdu entre la résolution 2− j+1 et la résolution
2− j .
V j ⊂ V j−1 et O j ⊕ V j = V j−1
(4.28)
En dimension 1, chaque espace V j est représenté par une fonction d’échelle φ ; (Pφ j,k )k∈Z étant une base de V j ,
et chaque espace O j est représenté par l’ondelette Ψ, (Ψ j,k )k∈Z étant une base de O j . Ceci permet d’exprimer
j
j
les coefficients d’approximation ak de la fonction f dans V j , ainsi que les coefficients de détail dk dans O j :
ak = h f , Φ j,k i
j
dkj
= h f , Ψ j,k i
78
(4.29)
(4.30)
4.4
La transformée en ondelette
Le point clef est fourni par la décomposition de ak en fonction de ak . Pour cela, nous exprimons Φ j,k
dans la base de Φ j−1,k , ce qui permet de définir la suite numérique h[n] vérifiant :
j
j−1
Φ j,k = ∑ h̃[2n − k]Φ j−1,k
(4.31)
n
h est la réponse impulsionnelle d’un filtre H passe-bas, et h̃ son filtre miroir associé, soit h̃[n] = h[−n]. Nous
pouvons alors écrire :
akj = ∑ h̃[2n − k]akj−1
(4.32)
n
De la même manière, si nous exprimons Ψ j,k dans la base de Φ j−1,k et en utilisant un filtre passe-haut G de
réponse impulsionnelle g, nous obtenons :
dk = ∑ g̃[2n − k]ak
j−1
j
(4.33)
n
Les équations (4.32) et (4.33) montrent que les coefficients d’ondelette peuvent être calculés en fonction des
différentes approximation suivant le schéma figure 4.6.
F IG . 4.6 – Exemple de décomposition pour l’analyse multi-résolution.
La reconstruction du signal est donné par :
anj−1 = ∑ akj h[n − 2k] + ∑ dkj g[n − 2k]
k
(4.34)
k
Si les bases d’ondelette et celles de la fonction d’échelle sont orthonormales, la transformée est non redondante ce qui permet de compresser le signal sans pertes en assurant une reconstruction parfaite.
L’extension à la dimension 2 se fait de manière naturelle en appliquant l’algorithme unidimensionnel successivement sur les lignes et les colonnes pour chaque type de coefficients comme le montre la figure 4.7. Plus
de détails sur ce type d’algorithmes sont disponibles dans (Truchetet, 1998).
4.4.3 Utilisation de la transformée en ondelette pour la détection de lignes de semis
Nous allons présenter dans cette section l’algorithme de détection de lignes basé sur la transformée en
ondelette (Bossu et al., 2007c). En effet, afin de détecter les lignes de semis, nous effectuons une analyse multirésolution sur l’image pour rehausser le contraste des lignes de semis. Le rehaussement sera présent sur
les détails verticaux à différentes résolutions. L’algorithme est présenté pour des images ayant une taille de
800 × 600, mais il peut être adapté sans difficulté à des images différentes.
79
Chapitre 4. Algorithmes spatiaux
j
F IG . 4.7 – Décomposition et reconstruction d’une image, avec l’approximation a j , les détails horizontaux dh ,
j
j
verticaux dv et diagonaux dd .
Nous allons décomposer l’image originale afin de faire ressortir une information sur les lignes de semis.
Nous nous intéressons donc aux détails verticaux à différentes décompositions. Pour une image ayant une taille
de 800 × 600, nous avons remarqué que les informations des lignes de semis ressortent mieux pour les niveaux
de décomposition 5, 6 et 7.
En effet, le détail vertical au niveau 5 (noté dv5 ) nous renseigne sur la largeur de la ligne de semis sur la
moitié haute de l’image. Par contre, à ce niveau et pour les images perspectives fournies par notre dispositif
expérimental (voir chapitre 2) nous avons le double de lignes de semis présentes dans l’image originale. Pour
remédier à ce problème, nous utilisons le niveau 6 (noté dv6 ) de détail vertical. Effectivement, à ce niveau nous
avons l’information sur le nombre de lignes de semis présentes sur la moitié haute de l’image, par contre la
largeur de la ligne renseignée à ce niveau, ne correspond pas à la largeur du niveau initial. Si nous combinons
ces deux niveaux de détails, il est possible de récupérer l’information sur les lignes de semis sur la partie haute
de l’image. Pour effectuer cette combinaison, nous utiliserons une fonction ET logique(AND) entre ces deux
détails verticaux de décomposition. Le problème pour effectuer cette opération logique vient du fait que lors
de la décomposition de l’image, nous n’obtenons pas la même taille d’imagette (approximation et détails)
suivant le niveau de décomposition (division de la taille par 2 à chaque niveau de décomposition), nous devons
donc au préalable reconstruire nos imagettes de détails à différents niveaux de décomposition retenus pour
avoir une imagette de taille égale à la taille de l’image originale. Nous reconstruisons donc l’image suivant la
figure 4.7 jusqu’au niveau 0 en ne gardant que le détails dv5 , Nous noterons cette reconstruction a05 , et a06 pour
la reconstruction utilisant le détail dv6 . Cet algorithme nous permet seulement de rehausser les lignes de semis
sur la moitié haute de l’image. Afin d’avoir les informations sur la moitié basse de l’image, nous utiliserons
le même principe avec les détails verticaux aux niveaux de décomposition 6 et 7 (noté dv7 ). La reconstruction
de dv7 est notée a07 . Pour finir, si nous effectuons un ET logique entre ces résultats et l’image originale, nous
obtenons la carte de culture de l’image originale.
Nous posons :
– ci : culture détectée pour la moitié haute de l’image (i = 1) et pour la moitié basse de l’image (i = 2).
– im : l’image originale.
– a0j : les imagettes des détails verticaux j reconstruits avec j ∈ [5, 7].
En appliquant l’algorithme énoncé ci-dessus, pour détecter les lignes de culture, il vient :
c1 = im · a05 · a06
c2 =
im · a06 · a07
(4.35)
(4.36)
Nous avons désormais 2 cartes de culture c1 (seulement la moitié haute de cette image comporte des informations intéressantes sur les lignes de semis) et c2 (ici, seulement la partie basse de l’image nous renseigne
80
4.4
La transformée en ondelette
sur la localisation des lignes de semis). Il suffit pour avoir la carte de culture complète que nous noterons c de
combiner ces deux cartes de culture. Si nous notons nbrL le nombre de lignes de l’image et nbrC, le nombre de
colonnes, il vient :
nbrL
nbrL
c [1 à nbrL, 1 à nbrC] = c1 1 à
, 1 à nbrC + c2
à nbrL, 1 à nbrC
(4.37)
2
2
Parmi les nombreuses familles d’ondelettes disponibles dans la littérature, nous avons recherché des bases
d’ondelettes orthogonales en travaillant avec trois familles d’ondelettes :
1. les ondelettes de Daubechies (de taille finie, compacte mais non symétriques) dont les Symlet et Coiflet
(Daubechies non optimisées),
2. mais aussi, l’ondelette de Meyer (base orthogonale de taille infinie) très localisée dans l’espace des
fréquences.
3. Enfin, un dernier type d’ondelettes, les Bi-orthogonales, a été testé. Cette dernière famille, consituée de
bases bi-orthogonales s’opposent aux deux précédentes familles dont le processus de reconstruction est
plus stable et robuste.
Cet algorithme a été testé pour trente trois types d’ondelettes afin de savoir quelles ondelettes étaient les plus
appropriées pour la détection des lignes de culture. Parmi ces trente trois ondelettes, nous avons utilisé les
ondelettes de type :
–
–
–
–
–
Daubechies, que nous noterons par la suite dbi, avec i l’ordre de l’ondelette,
Symlet, que nous noterons par la suite symi, avec i l’ordre de l’ondelette,
Coiflet, que nous noterons par la suite coifi, avec i l’ordre de l’ondelette,
approximation discrète de l’ondelette Meyer, que nous noterons par la suite dmey,
Biorthogonal, que nous noterons par la suite biori.j, avec i l’ordre de l’ondelette pour la décomposition
et j l’ordre de l’ondelette pour la recomposition,
– Biorthogonal reverse, que nous noterons par la suite rbioi.j, avec i l’ordre de l’ondelette pour la
décomposition et j l’ordre de l’ondelette pour la recomposition.
Le tableau 4.1 résume les ondelettes utilisées pour notre analyse :
Daubechies
Symlet
Coiflet
Biorthogonal
Birothogonal reverse
Meyer
db5
sym4
coif2
bior2.6
rbio2.6
dmey
db6
sym5
coif3
bior2.8
rbio3.7
db7
sym6
coif4
bior3.5
rbio3.9
db8
sym7
coif5
bior3.7
rbio5.5
db9
sym8
db10
sym10
bior3.9
rbio6.8
bior6.8
db15
sym13
db16
sym15
db25
TAB . 4.1 – Résumé des ondelettes utilisées pour l’analyse multirésolution.
Et finalement, pour avoir la carte d’infestation d’adventices notée w, une simple soustraction suffit :
w = im − c
(4.38)
4.4.4 Illustration de la méthode
Pour illustrer cet algorithme, nous utilisons la figure présentée 4.3.a. Nous utiliserons une ondelette de
Daubechies d’ordre 25 (comme nous le verrons plus tard, c’est l’ondelette qui donne les meilleurs résultats
de classification) pour la décomposition et la reconstruction. La figure 4.8 présente l’image originale (rouge)
81
Chapitre 4. Algorithmes spatiaux
superposée aux niveaux 5 (vert) et 6 (bleu) des détails verticaux (a) et aux niveaux 6 (bleu) et 7 (vert) des
détails verticaux (b). Nous voyons bien que la couleur blanche qui est une combinaison des niveaux et de
l’image originale, fait ressortir des informations sur les lignes de semis.
(a)
(b)
F IG . 4.8 – (a) Niveaux de détails verticaux 5 et 6 avec l’image originale. (b) Niveaux de détails verticaux 6 et
7 avec l’image originale.
Les résultats de ces combinaisons sont montrés figure 4.9. Nous nous apercevons que la figure 4.9.a donne une
information sur les lignes de semis de la moitié haute de l’image contrairement à la figure 4.9.b qui donne une
information sur les lignes de semis sur le bas de l’image. La combinaison de ces deux images, nous permet
de reconstruire la carte de culture, c’est-à-dire les lignes de semis (couleur verte) et d’en déduire la carte
d’infestation (couleur rouge) visible sur la figure 4.9.c.
(a)
(b)
(c)
F IG . 4.9 – (a) Résultat de la carte de culture en utilisant les détails 5 et 6.(b) Résultat de la carte de culture en
utilisant les détails 6 et 7. (c) Carte de culture globale (vert) et carte d’infestation (rouge).
82
4.5
La transformée de Hough
4.5 La transformée de Hough
4.5.1 Rappel sur la transformée de Hough
La transformée de Hough (Hough, 1962) permet de détecter des lignes (ou alignement de points) dans une
image. La détection de ces droites est réalisée dans l’espace des paramètres du modèle. Nous noterons l’espace
hx, yi, l’espace d’origine et l’espace ha, bi, celui des paramètres c’est-à-dire l’espace de Hough.
Dans l’espace hx, yi, une équation de droite est définie par y = ax + b, les paramètres a et b de cette
équation vont définir l’espace des paramètres (a est la pente et b l’ordonnée à l’origine).
espace d’origine hx, yi ⇐⇒espace des paramètres ha, bi.
Soit la fonction F qui associe à chaque couple (x,y), un ensemble de couples (a,b) définit par :
F(x, y){(a, b)|y = ax + b}
Prenons l’exemple d’une droite dans l’espace hx, yi comme représentée figure 4.10, la droite d’équation
y4 = a4 x + b4 (en rouge) est représentée par un point de coordonnées (a4 , b4 ) dans l’espace des paramètres.
Réciproquement, les droites passant par un point de coordonnées (x1 , y1 ) dans l’espace de départ représentent
dans l’espace des paramètres une droite d’équation b = −ax1 + y1 (figure 4.10).
F IG . 4.10 – Exemple de plusieurs droites passant par le même point de coordonnées (x,y) dans l’espace hx, yi
et sa représentation dans l’espace des paramètres.
Si dans l’image initiale, nous avons plusieurs droites, nous obtiendrons dans l’espace des paramètres autant de
points que de droites détectées dans cette image.
Il existe une autre représentation de l’espace de Hough utilisant les coordonnées polaires
(Duda et Hart, 1972). Dans ce cas l’espace des paramètres ne dépend plus de a et b mais de ρ et θ comme
le montre la figure 4.11 (ρ est la distance perpendiculaire à l’origine d’une droite et θ, l’angle entre cette distance et l’axe des abscisses). Un point de coordonnées M(x,y) dans l’espace d’origine se représente par une
courbe d’équation y = b sin θ dans l’espace des paramètres. En effet, nous avons :
→
−
→
u .−
v = 0
x cos θ + y sin θ = ρ
(4.39)
(4.40)
(4.41)
or
−
→
−
→
−
→
u = ρ cos θ i + ρ sin θ j
83
(4.42)
Chapitre 4. Algorithmes spatiaux
et
−
→
−
→
−
→
v = i +a j
(4.43)
En utilisant les équations 4.39, 4.42 et 4.43, il vient :
→
−
→
u .−
v = ρ cos θ + aρ sin θ = 0
(4.44)
Connaissant l’équation de la droite dans l’espace d’origine qui est y = ax + b, nous en déduisons :
y−b
x
Si nous associons les équations 4.44 et 4.45, nous obtenons :
a =
(4.45)
x cos θ + y sin θ = b sin θ
(4.46)
Enfin, il vient d’après les équations 4.40 et 4.46
ρ = b sin θ
π.
Pour une image de m colonnes et n lignes, ρ sera compris entre 0 et
E s p a c e d 'o r ig in e
b
E sp a c e d e s p a r a m è tr e s
r
y
q
u
r
√
m2 + n2 et θ entre 0 et 2π ou de −π à
r = b s in q
M ( x ,y )
v
x
q
y = a x + b
F IG . 4.11 – Exemple d’un point M(x,y) dans l’espace d’origine et sa représentation dans l’espace des paramètres.
F IG . 4.12 – Exemple de plusieurs points situés sur la même droite dans l’espace hx, yi et leurs représentations
dans l’espace des paramètres.
En résumé, cette représentation a les propriétés remarquables suivantes (cf figure 4.12) :
84
4.5
La transformée de Hough
– un point de l’espace d’origine correspond à une sinusoı̈de dans l’espace des paramètres,
– un point de l’espace des paramètres correspond à une droite dans l’espace d’origine,
– un ensemble de points alignés dans l’espace d’origine correspond à un ensemble de sinusoı̈des ayant un
point d’intersection en commun dans l’espace des paramètres,
– un ensemble de points situés sur une même sinusoı̈de dans l’espace des paramètres correspond à un
ensemble de droites convergeant toutes en un même point dans l’espace d’origine.
4.5.1.1
Les accumulateurs dans Hough
Lorsque nous implémentons cette transformée, il faut discrétiser l’espace de Hough. Cela revient à transformer l’espace des paramètres en un tableau à deux dimensions (ρ, θ).
Si nous nous plaçons dans la représentation polaire, cela revient à échantillonner l’angle θ et à quantifier les
longueurs ρ calculées pour chaque point pris en compte dans l’espace original. Pour chaque valeur de l’angle,
nous accumulons les différentes valeurs de ρ obtenues suivant les coordonnées de chaque point de l’espace
d’origine. Dès que tous les angles sont balayés, les valeurs maximales de ρ représentent les principales droites
identifiées dans l’espace d’origine.
Pour terminer cette section, notons que la transformée devra être normalisée pour ne pas favoriser certaines
valeurs de ρ par rapport à d’autres (pour éviter de privilégier les diagonales de l’image par exemple).
Nous allons donc utiliser cette méthode afin de trouver les lignes dans une image.
4.5.2 Description de l’algorithme mis en place
Dans le cadre de notre étude, la transformée de Hough va nous permettre la détection des lignes de semis
mais nous allons devoir faire une classification entre la culture et les adventices. Cette classification reposera
sur l’hypothèse que toute végétation située dans l’inter-rang sera considérée comme adventices.
D’autre part, l’ensemble des images acquises présenteront un effet de perspective dû à la position de la
caméra. En conséquence de quoi, nous avons développé un algorithme utilisant les propriétés géométriques de
la scène à savoir le point de fuite pour déterminer ces lignes. C’est ainsi que nous avons utilisé une double transformée de Hough pour détecter ce point de fuite où seules les lignes de culture convergent (Bossu et al., 2006a ;
Gée et al., 2006 ; Gée et al., 2007). La figure 4.13 présente les différentes étapes afin de parvenir à la classification culture/adventice.
F IG . 4.13 – Organigramme de l’algorithme permettant la classification culture et adventices au sein d’une image
présentant un effet de perspective.
4.5.2.1
Première transformée de Hough
Dans cette partie, nous implémentons la transformée de Hough de l’image binaire, obtenue par clustering (MacQueen, 1967) à partir de l’image acquise. Nous utilisons la représentation polaire (ρ, θ). Les valeurs
de l’orientation θ seront limitées entre [θmin , θmax ] degrés et le pas de quantification de l’angle θ sera de un
degré. Nous obtenons donc un accumulateur représentant l’espace des paramètres. Nous allons donc extraire
les maxima locaux de cet accumulateur.
85
Chapitre 4. Algorithmes spatiaux
4.5.2.2
Détection des maxima locaux
A partir de l’accumulateur trouvé précédemment, nous devons être capables de déterminer les maxima
correspondant aux lignes de l’image initiale. Pour les identifier, nous recherchons pour chaque valeur de l’angle
θ, la valeur ρ maximale qui lui est associée dans l’accumulateur. Après avoir effectué ceci, nous sommes
en présence d’un grand nombre de valeurs se regroupant en différents nuages. En effet, chaque nuage est
associé à une ligne de semis qui présente une certaine largeur selon le type de culture. Pour ne garder qu’un
seul maximum par nuage, nous calculons le centre de gravité de chaque nuage en utilisant la méthode des kmeans (MacQueen, 1967) dont la distance entre les nuages est prédéfinie. Mais ce traitement n’est pas suffisant
pour détecter les lignes de semis car tous les centres de gravité ne représentent pas une ligne de culture. En
effet, il est possible suivant la distribution spatiale des adventices de détecter des droites ne correspondant pas
à une ligne de culture. Pour remédier à ce problème, nous allons introduire une seconde transformée de Hough.
4.5.2.3
Seconde transformée de Hough
Cette partie traitera de la détection des maxima ne correspondant qu’à des lignes de semis. En effet, sur les
différents maxima locaux détectés précédemment, les seuls que nous souhaitons détecter, sont ceux associés
aux lignes de semis.
Afin de détecter ces maxima intéressants, une seconde transformée de Hough est introduite. En effet, si nous
prenons en compte la symétrie des images acquises donc des lignes de semis présentant une vue de perspective,
nous nous apercevons que nous avons une famille de lignes qui convergent vers un même point généralement
appelé point de fuite. En fait, ce point n’existe pas sur l’image mais peut être détecté dans le premier espace des
paramètres par une sinusoı̈de et les maxima locaux associés aux lignes de semis appartiendraient à celle-ci. Au
vue de la symétrie de la scène, cette sinusoı̈de peut s’approximer par une droite. Ainsi, seuls les maxima proches
de cet alignement peuvent correspondre à des lignes de culture. C’est pourquoi, pour les détecter nous faisons
une seconde transformée de Hough dans l’espace des paramètres afin de trouver la droite correspondant à un
alignement de maxima locaux. Cette transformée de Hough nous donne un second espace de paramètres (ρ2 ,
θ2 ) présentant un maximum local de coordonnées ρ2y et θ2x correspondant à la droite produite par l’alignement
des maxima locaux dans le premier espace des paramètres dont l’équation est égale à :
ρ=−
ρ2y
1
θ+
tan θ2x
sin θ2x
(4.47)
Maintenant que nous connaissons ”l’équation de la droite du point de fuite” (eq. 4.47), seuls les maxima
proches de cette équation correspondent à des lignes de semis.
4.5.2.4
Extraction des maxima associés à des lignes de semis
La détermination des maxima associés à des lignes de semis dépend de ”l’équation de la droite du point de
fuite” représentant le point de fuite dans l’image originale. Afin de détecter ces maxima, l’algorithme suivant a
été développé :
Pour i de 0 à Nbr centroid
ρ2y
/*d’après 4.47*/
cos θ2x
Si ((θ(i) > θ cl min(i)) And (θ(i) < θ cl max(i)))
Alors i représente une ligne de semis
Sinon i est rejeté
Fin Si
Fin Pour
θ(i) = −tan2 θ2x × ρ(i) +
Avec Nbr centroid le nombre de centres de gravité. θ cl min et θ cl max représentent les valeurs de θ
minimum et maximum de chaque nuage de points. Finalement, tous les maxima retenus par cet algorithme
86
4.5
La transformée de Hough
correspondent à des lignes de semis.
Après avoir présenté la détection des lignes de semis présentent dans l’image, nous allons expliquer la
méthode permettant la discrimination de la culture des adventices. Dans un premier temps, nous considérons
que chaque pixel des lignes détectées est classé comme culture. Dans un deuxième temps nous réalisons
une segmentation région de l’image binaire selon la méthode dite de blob-coloring (Ballard et Brown, 1982 ;
Deriche et Cocquerez, 1987 ; Haralick et Shapiro, 1992). Puis si une région coupe une ligne de semis alors
cette région sera étiquetée comme culture. Dans le cas contraire, la région sera étiquetée comme adventices.
4.5.3 Illustration de la méthode
Pour illustrer cet algorithme, nous utilisons de nouveau l’image présentée sur la figure 4.3.a. Dans un
premier temps nous implémentons la première transformée de Hough (figure 4.14.a), la figure 4.14.b représente
le résultat du premier traitement, c’est-à-dire la recherche des maxima de ρ pour chaque valeur de θ, nous
voyons donc apparaı̂tre des nuages. Par la méthode des k-means, nous pouvons extraire le centre de chaque
nuage représenté figure 4.14.c. Il arrive parfois que certains centres ne correspondent pas à une ligne de semis,
nous cherchons donc à trouver les coordonnées du point de fuite où convergent toutes nos droites. Pour cela
nous appliquons une deuxième transformée de Hough sur le résultat précédent, le résultat est présenté figure
4.15.a. Le maximum de cette deuxième transformée de Hough nous permet de définir la sinusoı̈de dans le
premier espace de Hough (figure 4.15.b), et cette sinusoı̈de représente le point de fuite dans l’image originale.
La figure 4.15.c représente la discrimination entre la culture et les adventices, nous nous apercevons que la
ligne dans le coin en haut à gauche de l’image n’a pas été détectée ce qui induit une erreur sur la détection de
la culture.
(a)
(b)
(c)
F IG . 4.14 – (a) Première transformée de Hough. (b) Résultat du premier traitement, création de clusters. (c)
Extraction des centres de gravité de chaque cluster.
(a)
(b)
(c)
F IG . 4.15 – (a) Seconde transformée de Hough, maxima représenté par le point blanc.(b) Résultat de la seconde
transformée de Hough sur la première. (c) Carte de culture globale (vert) et carte d’infestation (rouge).
87
Chapitre 4. Algorithmes spatiaux
4.6 Redressement des images
Un autre algorithme de discrimination consiste à ”détordre” les images afin d’obtenir des lignes de semis
parallèles. En utilisant le point de fuite détecté dans l’image et l’autocalibration du système optique décrits
dans la section 2.4, nous sommes capables en utilisant la matrice de passage P et pour chaque pixel de l’image
acquise de calculer l’équivalent dans le monde réel. Dans un premier temps, nous calculons les dimensions
réelles de l’image acquise afin de définir suivant la taille de l’image désirée, le pas d’échantillonnage horizontal
et vertical. Nous créons donc une image de la taille voulue où chaque pixel de l’image a pour intensité −1. Pour
chaque pixel de l’image originale, nous calculons ses nouvelles coordonnées. Lorsque tous les pixels ont été
traités, les pixels de l’image résultante ayant une intensité égale à −1 représentent des valeurs non connues par
la déformation de l’image et doivent donc être interpolés. Pour l’interpolation, nous utilisons une interpolation
d’ordre 1, nous utilisons un masque en croix dont le centre est représenté par le pixel traité. Le pixel traité
prendra la valeur moyenne de ses pixels voisins. Les pixels voisins ayant comme intensité −1 ne sont pas pris
en compte. Sur ces images redressées, nous pouvons appliquer l’algorithme basé sur le filtre de Gabor (4.2).
Un algorithme basé sur l’analyse multirésolution différent de celui présenté 4.4.3 à été élaboré pour obtenir une
classification de la culture et des adventices. Il est différent car comme nous avons des lignes parallèles, nous
avons seulement besoin des détails verticaux 5 et 6. Nous utiliserons donc seulement les équations 4.35 et 4.38
avec c1 = c.
4.7 Étude de la robustesse des algorithmes spatiaux
Après avoir présenté les différents algorithmes de traitement d’images pour discriminer la culture des adventices, il nous reste à établir une méthode pour pouvoir comparer leurs performances. Les méthodes les plus
couramment utilisées nécessitent un travail fastidieux. Parmi celles-ci, nous noterons celles qui consistent à
comparer les résultats de discrimination d’un algorithme à une vérité de terrain c’est-à-dire vérifier que la densité de plantes (adventice ou culture) détectée par un algorithme corresponde à celle mesurée par une personne
sur le terrain via un comptage manuel. Une autre approche toute aussi fastidieuse serait de comparer pixel
à pixel les résultats de l’algorithme avec une analyse de segmentation manuelle des images. Ces méthodes
ne peuvent être employées pour tester ces algorithmes face à la masse de données à traiter (2000 images).
La solution envisagée et qui a été développée au laboratoire est de réaliser des images modélisant les scènes
agronomiques photographiées avec notre système optique en ne considérant que les propriétés spatiales des
végétaux.
4.7.1 Modélisation d’images agronomiques
Ce travail de modélisation de scènes agronomiques constitue une partie de la thèse de Gawain Jones
(Jones et al., 2007a ; Jones et al., 2007c). Dans un premier temps, la parcelle est modélisée en tenant compte
des propriétés spatiales de la culture et des adventices. Puis une image de cette parcelle est prise en positionnant
une caméra virtuelle dont les paramètres intrinsèques ( f , du et dv) et extrinsèques (Rx , Rz et tz ) sont prédéfinis.
Les cultures modélisées sont issues de semis en ligne. La première caractéristique nous permettant de
représenter une scène agronomique est la largeur de l’inter-rang des lignes de semis. De plus, il existe deux
types de culture :
– les cultures céréalières, semées en continue sur la ligne de semis. Une dose est pré-définie par hectare de
blé (par exemple 1000Kg/ha),
– les cultures en pré-semis (par exemple, le tournesol) qui possèdent une fréquence dans le rang.
Différents motifs de plantes ont été créés pour correspondre à chacune des cultures (blé, tournesol, maı̈s) mais
aussi pour identifier les adventices de type monocotylédone ou dicotylédone.
D’autre part, les adventices ont tendance à se développer au sein d’une parcelle selon deux modes de
propagation : de manière isolée ou en agrégats (Cardina et al., 1997). Jones et al. proposent donc de modéliser
88
4.7
Étude de la robustesse des algorithmes spatiaux
deux types de distribution spatiale : ponctuelle (loi de Poisson) et agrégative (loi de Neyman-Scott). Ces deux
distributions de type aléatoire ne présupposent aucune connaissance à priori de l’état de la parcelle (composition
au sol, compétitivité des plantes).
Ce modèle a été spécialement développé pour tester les algorithmes de traitements d’images dans le cadre
de la pulvérisation et comme les traitements d’herbicides sont généralement appliqués à un jeune stade de
croissance, la végétation a été modélisée par un modèle en deux dimensions.
Pour transformer la scène agronomique en photographie, il faut positionner et orienter une caméra virtuelle
dans le champ. Cette transformation de l’espace ”champ” à l’espace ”caméra” est réalisée au moyen du modèle
du sténopé présenté dans le paragraphe 2.4. A partir de cette image modélisée, nous sommes à même de
contrôler tous les paramètres initiaux tels que :
1. le nombre de pixels de culture,
2. le nombre de pixels de mauvaises herbes inter et intra rang ainsi que leur position dans l’image,
3. le taux d’infestation inter-rang égal à :
TI =
nombre de pixels inter-rang
× 100
nombre de pixels inter-rang+nombre de pixels intra-rang+nombre de pixels de culture
(4.48)
Ainsi avec cette modélisation d’images agronomiques, il va être aisé non seulement de tester les performances
de discrimination d’un algorithme par rapport à la connaissance des paramètres initiaux mais aussi de pouvoir
comparer différents algorithmes entre eux.
4.7.2 Matrice de confusion
Initial
La comparaison entre le nombre de pixels de culture / adventices initial et détecté par les algorithmes n’est
pas suffisante pour tester la robustesse des algorithmes. En effet, parmi les pixels détectés, les algorithmes
peuvent commettre des erreurs de classification où des pixels initialement identifiés comme culture / adventices seront détectés comme adventices / culture. Pour analyser plus finement les erreurs commises par ces
algorithmes (sur ou sous détection), nous allons utiliser la matrice de confusion (Kohavi et Provost, 1998 ;
Provost et al., 1998). Le tableau 4.2 représente la matrice de confusion pour une classification à deux classes.
Détecté
Culture Adventice
Culture
VC
FA
Adventice
FC
VA
TAB . 4.2 – Matrice de confusion.
avec :
– VC (Vraie Culture) qui est le nombre de prédictions correctes de la classe culture initiale,
– VA (Vraie Adventice) qui est le nombre de prédictions correctes de la classe adventice initiale,
– FC (Fausse Culture) qui est le nombre de prédictions incorrectes de la classe culture initiale,
– FA (Fausse Adventice) qui est le nombre de prédictions incorrectes de la classe adventice initiale.
A partir de ce tableau, il va être possible d’évaluer en détail les performances de chacun des algorithmes étudiés.
Plusieurs termes standards sont définis pour cette matrice :
– The ACcuracy (AC) représente la proportion du nombre de prévisions correctes :
AC =
VC +VA
VC + FA + FC +VA
89
(4.49)
Chapitre 4. Algorithmes spatiaux
– le Taux de Vraie Adventice (TVA) est la proportion des cas d’adventices qui ont été correctement identifiés :
VA
TVA =
(4.50)
FC +VA
– le Taux de Fausse Adventice (T FA) est la proportion des cas de culture qui ont été incorrectement classifiés en adventice :
FA
T FA =
(4.51)
VC + FA
– le Taux de Vraie Culture (TVC) est la proportion des cas de culture qui ont été correctement identifiés :
TVC =
VC
VC + FA
(4.52)
– le Taux de Fausse Culture (T FC) est la proportion des cas d’adventices qui ont été incorrectement classifiés en culture :
FC
(4.53)
T FC =
FC +VA
Il vient avec cette matrice de confusion que le taux d’infestation définit par l’équation 4.48 est aussi égal à :
T Iinit =
FC +VA
VC + FA + FC +VA
(4.54)
A partir de cette matrice, nous pouvons définir aussi le taux d’infestation détecté T Idetect , le taux de culture
initial TCinit et détecté TCdetect :
T Idetect
TCinit
TCdetect
FA +VA
VC + FA + FC +VA
VC + FA
=
VC + FA + FC +VA
VC + FC
=
VC + FA + FC +VA
=
(4.55)
(4.56)
(4.57)
Un autre manière de tester la robustesse d’un algorithme de classification à partir de la matrice de confusion
est d’utiliser un graphique ROC (Receiver Operating Caracteristics) (Swets, 1988) déduit pour chaque image
testée. Ce graphique représente un point, taux de vraie adventice en fonction du taux de fausse adventice
(TVA = f (T FC))(cf. figure 4.16). Pour chaque image testées, ce point peut avoir plusieurs significations :
–
–
–
–
si le point est en (0,1), cela signifie que nous avons un algorithme de classification qui est parfait,
si le point est en (0,0), cela signifie que l’algorithme a détecté toute la culture,
si le point est en (1,1) représente la détection de toutes les adventices,
si le point est en (1,0), cela démontre que l’algorithme n’est capable de détecter aucune classe.
Nous utiliserons cette matrice de confusion et le graphe de ROC pour tester et comparer la robustesse de nos
algorithmes de discrimination de la culture par rapport aux adventices.
4.8 Création de trois bases de données d’images
Pour mener à bien notre étude sur la robustesse des algorithmes testés, différentes bases d’images ont été
créées. Trois bases ont été élaborées : deux constituées d’images simulées avec différents paramètres du système
optique et la dernière représente des images réelles.
90
4.8
Création de trois bases de données d’images
0.95
0.9
0.85
TVA
0.8
0.75
0.7
0.65
0.6
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
TFA
F IG . 4.16 – Exemple de courbes de ROC.
4.8.1 Images simulées
Toutes les images modélisées représentent des céréales comme culture. Comme le modèle de G. Jones
permet de modéliser trois modes de propagation des adventices (ponctuel, en agrégat et la combinaison des deux
notée mixte), nous avons créé 30 banques d’images pour chacun d’entre eux. Chaque banque est constituée de
dix sept images dont le taux d’infestation varie de 0% à 80% avec un pas de 5%. Ce qui implique un total de
1530 images.
91
Chapitre 4. Algorithmes spatiaux
Nous avons modélisé ces images pour deux configurations différentes du système optique :
1ère base de données : taille de l’image 512 × 512. La hauteur de la caméra est H = 0, 65m et la focale
utilisée est de f = 16mm. L’angle de tangage est ϕ = 68˚ qui pourra varier de 66˚ à 70˚ afin de modéliser des
images prises sur un sol accidenté. L’angle de lacet α est normalement nul mais il variera pour les mêmes
raisons que précédemment entre -1˚ et -3˚.
2ème base de données : dans ce système, seulement la focale et les angles changent. La focale est égale
à f = 8, 5mm tandis que l’angle de tangage est ϕ = 56˚ qui variera entre 54˚ et 58˚ et l’angle de lacet variera
entre -4˚ et 4˚.
Le tableau 4.3 résume les différents paramètres des deux configurations du système optique utilisés pour
modéliser les images.
Base de données
Taille de l’image H(m)
ϕ(˚)
α(˚)
base (1530 images)
512 × 512
0, 65 ∈ [66; 70] ∈ [−3; −1]
2ème base (1530 images)
512 × 512
0, 65 ∈ [54; 58] ∈ [−4; 4]
1ère
f (mm)
16
8, 5
TAB . 4.3 – Résumé des 2 configurations du système optique pour la modélisation des images.
La figure 4.17 présente 3 images de la banque No 9 issues de la base de données No 1 présentant une distribution
d’adventices de type ponctuel (a), agrégatif (b) et mixte (c) pour un taux d’infestation de 35%.
(a)
(b)
(c)
F IG . 4.17 – Exemples d’images simulées avec une distribution d’adventices de type : ponctuel (a), agrégatif (b)
ou mixte (c) ayant un taux d’infestation de 35%.
4.8.2 Images réelles
Concernant les images réelles, dix images ont été prises avec un appareil photo IXUS 330. Nous ne connaissons pas les conditions de prise de vues mais cette série d’images a été réalisée dans une parcelle d’orge et ont
été segmentées manuellement afin de connaı̂tre le nombre de pixels de culture et d’adventices inter et intra rang.
Par contre, afin de pouvoir appliquer les algorithmes énoncés précédemment, nous avons appliqué quelques
pré-traitements sur ces images car nous avons besoin d’avoir des images en niveau de gris représentant
seulement la végétation. Les images originales sont codées en RGB et afin de séparer la végétation du
reste de la scène, nous avons utilisé un indice de végétation. Parmi les indices existants et définis dans la
littérature (Woebbecke et al., 1995 ; Meyer et al., 1998 ; Søgaard et Olsen, 2003), nous avons utilisé l’indicator (Søgaard et Olsen, 2003) défini par 2 × G − R − B. La figure 4.18 représente l’image no 2 réelle originale et
la segmentation obtenue en utilisant l’indicator.
92
4.9
(a)
Résultats et Discussion
(b)
F IG . 4.18 – Exemple d’une image réelle de culture d’orge (a) avec son pré-traitement afin d’avoir une image
ne présentant que de la végétation (b).
4.9 Résultats et Discussion
4.9.1 Introduction
Nous allons maintenant présenter et interpréter les résultats de discrimination culture/adventices obtenus
pour les différents algorithmes étudiés. On verra dans un premier temps les résultats obtenus sur des images
simulées (bases de données No 1 et No 2) puis sur des images réelles (base de données No 3). Pour les images
simulées et afin d’avoir une idée sur la classification entre la culture et les adventices, nous présentons pour
chaque algorithme une image classifiée (taux d’infestation initial de 30%) de la banque No 9 de la base No 1
avec une distribution d’adventices de type mixte accompagnée de sa matrice de confusion où les termes sont
exprimés en pourcentage de la végétation totale comprise dans l’image. Puis pour définir la robustesse de
chaque algorithme testé, nous avons, pour chaque image de même taux d’infestation des différentes banques
d’une base de données, moyenné les valeurs de la matrice de confusion obtenue. Ainsi ce sont dix sept matrices
associées à 17 taux d’infestation différents qui ont été traitées pour chaque type de distribution d’adventices
(ponctuel, agrégatif et mixte), à partir des résultats des dix sept matrices. Ainsi trois types de graphique
associés à ces trois distributions seront présentés et discutés. Chaque graphe présente quatre courbes. Sachant
que le complémentaire pour un taux d’infestation d’adventices initial est le taux de culture initial, nous aurons :
– T Iinit = f (T Iinit ) représentant la droite idéale de détection des adventices dans le cas d’un classificateur
idéal,
– TCinit = f (T Iinit ) représentant la droite idéale de détection des cultures dans le cas d’un classificateur
idéal,
– T Idetect = f (T Iinit ) représentant le taux d’infestation détecté en fonction du taux d’infestation initial,
– TCdetect = f (T Iinit ) représentant le taux de culture détecté en fonction du taux d’infestation initial.
Cependant, les taux détectés comportent non seulement les vraies détections mais aussi des fausses détections ;
c’est pourquoi nous avons également tracé un autre graphique représentant :
– T Iinit = f (T Iinit ) représentant la droite idéale de détection des adventices dans le cas d’un classificateur
93
Chapitre 4. Algorithmes spatiaux
idéal,
– TCinit = f (T Iinit ) représentant la droite idéale de détection des cultures dans le cas d’un classificateur
idéal,
– VA = f (T Iinit ) représentant le taux d’infestation correctement détecté en fonction du taux d’infestation
initial,
– VC = f (T Iinit ) représentant le taux de culture correctement détecté en fonction du taux d’infestation
initial.
Ce dernier graphique nous permet de visualiser les proportions de bonnes et mauvaises détections pour chaque
classe afin d’évaluer les performances de chaque algorithme lors du classement de chaque pixel de l’image.
Enfin, à partir des graphes ROC, il va être possible d’étudier le comportement général d’un classificateur en
regardant la proportion de Taux de Vraie Adventice en fonction du Taux de Fausse Culture. Nous présentons
ces mêmes graphiques pour la base de données No 3, c’est-à-dire les images réelles. Puis nous ferons une
synthèse concernant tous ces algorithmes en utilisant les trois représentations vu précédemment mais aussi en
rassemblant les résultats de tous ces algorithmes sur une même figure pour chaque type de graphique et pour
les trois bases de données afin de conclure sur la méthode la mieux adaptée pour discriminer la culture des
adventices.
4.9.2 Algorithme basé sur la transformée de Fourier et du filtre de Gabor (TF)
4.9.2.1
Utilisation sur des images présentant une vue en perspective
4.9.2.1.1 Images simulées La figure 4.19 présente le résultat de la classification culture/adventices de
l’image présentée dans 4.17.c en utilisant l’algorithme basé sur la transformée de Fourier et celui du filtre
de Gabor. Ce résultat est accompagné de la matrice de confusion où les termes sont exprimés en pourcentage
de la végétation totale comprise dans l’image, c’est-à-dire que la somme de ces quatre termes est égale à 100%.
F IG . 4.19 – Représentation d’une image discriminée avec un Taux d’Infestation initial de 30% en utilisant
l’algorithme basé sur la TF. Les couleurs cyan et magenta représentent respectivement les prédictions correctes
de la classe ”culture” et de la classe ”adventice”, contrairement aux couleurs rouge et verte qui représentent les
fausses prédictions de la classe ”culture” et de la classe ”adventice”.
94
4.9
Résultats et Discussion
A partir de cette matrice de confusion, on en déduit que sur 100% de la végétation, nous avons 68% de
prédictions correctes de la classe ”culture” initiale et 1% de prédictions incorrectes attribuées à la classe ”adventice”. Pour la classe ”adventice”, nous avons 15% de prédictions correctes contre 16% d’erreur, c’est-à-dire
classifié comme culture. Cette image fait apparaı̂tre une ”sur-détection” de la culture. En effet, nous avons
la moitié des adventices qui sont classées comme culture (couleur verte dans l’image). Nous pouvons voir
aussi que l’algorithme est en défaut pour la classification en bordure des lignes classe ”adventice”. L’erreur de
détection sur la classe ”culture” (couleur rouge) provient d’un problème de classification sur le haut de l’image.
De plus au vue de toutes les images traitées par cet algorithme, nous avons remarqué que plus le taux d’infestation initial augmente, moins l’algorithme est performant sur la classification, pour en arriver même à ne pas
pouvoir classifier.
95
Chapitre 4. Algorithmes spatiaux
Cela peut s’expliquer par une détermination erronée des paramètres du filtre de Gabor qui conduit à un filtre
passe-bas et non un filtre passe-bande. Dans ce cas, toute la végétation est retenue.
Pour avoir une discrimination efficace, les adventices doivent être situées au plus près du centre de l’intervalle entre deux lignes de semis. Afin de vérifier ces hypothèses, nous avons tracé le premier graphique (figure
4.20) où T Idetect et TCdetect sont étudiés en fonction de T Iinit . Les résultats ne se comportant pas de la même
façon selon le type de distribution d’adventices, nous avons décidé de représenter ces trois types de distribution.
F IG . 4.20 – Représentation des Taux de Culture et d’Infestation détectés en fonction du Taux d’Infestation
initial pour une distribution d’adventices de type ponctuel, agrégatif et mixte en utilisant l’algorithme basé sur
la TF.
Ces différents graphes représentent les Taux de Culture (△, , ♦) et d’Infestation (N, , ) détectés en
fonction du Taux d’Infestation initial, pour les trois types de distribution d’adventices. Pour l’ensemble des
cas, nous remarquons une ”sur-détection” de la culture et donc une ”sous-détection” sur l’identification des
pixels d’adventices. En effet la courbe expérimentale de détection de la classe ”culture” est située au dessus de
la courbe théorique associée au cas d’un classificateur parfait. Il est à noter que les résultats obtenus pour la
distribution de type agrégatif présentent un problème pour des Taux Initiaux d’infestation élevés ; la détection
n’est pas linéaire ; contrairement aux distributions de type ponctuel et mixte. Cela indique que les adventices
de distribution de type agrégatif sont plus difficiles à détecter. Ces pourcentages détectés présentent sans nul
doute des erreurs sur la détection. Pour vérifier cela nous avons utilisé le deuxième graphique représentant les
pourcentages de Vraie Culture et de Vraie Adventice détectés en fonction du Taux d’Infestation initial (figure
4.21). Avec cette représentation, nous retrouvons tous les termes de la matrice de confusion comme nous le
remarquons sur la figure 4.21.a.
A partir de cette figure, on remarque que le pourcentage de Vraie Culture est correct contrairement au pourcentage de Vraie Adventice. En effet, la classe ”adventice” est sous détectée surtout pour les forts Taux d’Infestation initiaux lorsque la distribution d’adventices est de distribution de type agrégatif. La classe ”culture”
étant le complémentaire de la classe ”adventice”, cela indique une ”sur-détection” de la classe ”culture”. La
meilleure détection est obtenue lorsque les adventices sont distribuées ponctuellement.
96
4.9
(a)
(b)
(c)
(d)
Résultats et Discussion
F IG . 4.21 – Représentation du pourcentage, de Vraie Adventice (%VA) et de Vraie Culture (%VC) détectés en
fonction du Taux d’Infestation initial pour une distribution d’adventices de type ponctuel (a), agrégatif (b) ou
mixte (c) en utilisant l’algorithme basé sur la TF.
Afin d’avoir une idée sur la précision de ce classificateur, nous avons calculé la moyenne des différentes valeurs
de Fausse Culture et Fausse Adventice, sachant que plus ces valeurs sont proches de zéro plus le classificateur
est parfait. Ces valeurs sont présentées dans le tableau 4.4.
hhhh
hhhh
Type
de distribution
hhh
Ponctuel
hhhh
Erreur en %
h
h
Culture
Adventice
1,9
11,1
Agrégatif
Mixte
2,3
20,5
2,3
17,5
TAB . 4.4 – Moyenne des %FC soit l’erreur commise sur la classe ”culture” et %FA, l’erreur commise sur la
classe ”adventice” en utilisant l’algorithme basé sur la TF.
A partir de ce tableau, on démontre bien que nous avons une bonne détection de la classe ”culture” avec
un pourcentage d’erreur inférieur à 2,3%, ce qui n’est pas le cas de la classe ”adventice” avec une erreur comprise entre 11,1%, pour une distribution de type ponctuel, et 20,5%, pour une distribution de type agrégatif.
En revanche ces pourcentages représentent un pourcentage de la végétation totale comprise dans l’image, nous
allons maintenant utiliser d’autres termes définis à partir des valeurs de la matrice de confusion. Nous allons
calculer la proportion du nombre de prévisions correctes noté AC, le Taux de Vraie Adventice (TVA), le Taux
de Fausse Adventice (T FA), le Taux de Fausse Culture (T FC) et le Taux de Vraie Culture (TVC). Ces termes
97
Chapitre 4. Algorithmes spatiaux
permettent d’exprimer le pourcentage de bonne et mauvaise détection sur une classe, soit TVC + T FA = 1 ainsi
que T FC + TVA = 1. En calculant ces termes pour chaque matrice de confusion, nous pouvons représenter le
graphique ROC. Ainsi, pour chaque distribution d’adventices ce sont 17 matrices et donc 17 points correspondants à 17 Taux d’Infestation testés. Pour chaque graphe de la figure 4.22, les 17 points sont étiquetés par le
taux d’infestation.
(a)
(b)
68
(c)
55
80
75
52
70
70
67
60
70
65
45
60
40
10
50
45
30
35
20
35
25
20
TVA
15
65
65
60
49
15
TVA
TVA
45
55
75
50
40
5
50
55
66
5
51
65
50
10
75
10
25
47
20
64
3550
35
30
45
25
2
2.5
3
TFA
45
25
30
80
3.5
4
4.5
20
80
15
30
62
1.5
55
46
5
40
63
40
48
2
2.5
3
3.5
4
4.5
TFA
5
5.5
6
6.5
44
0
2
4
6
TFA
8
10
12
F IG . 4.22 – Représentation des graphiques ROC pour une distribution d’adventices de type ponctuel (a),
agrégatif (b) ou mixte (c) en utilisant l’algorithme basé sur la TF.
A partir de ces graphiques, nous pouvons remarquer que pour une distribution de type ponctuel, l’erreur sur la
culture (T FC) est comprise entre 2 et 4,2%, pour une détection d’adventice correcte (TVA) comprise entre 62 et
68%. Pour une distribution de type agrégatif, nous avons entre 2 et 6,5% d’erreur sur la culture avec une bonne
détection d’adventices comprise entre 20 et 55%. Finalement pour le type mixte, nous avons une erreur dans
un intervalle de 1,8 à 12% pour la culture et un intervalle de 44 à 55% pour la détection correcte d’adventice.
98
4.9
Résultats et Discussion
Finalement le tableau 4.5 résume pour les trois types de distribution, la proportion du nombre de prévisions
correctes (AC), les Taux de Fausse et de Vraie Culture (T FC) et (TVC) et les Taux de Vraie et de Fausse
Adventice (TVA) et (T FA).
hhhh
hhhType de distribution
hhhh
Ponctuel
hhhh
Taux en %
h
h
AC
TFA
TVC
TVA
TFC
87,6
2,9
97
65,2
34,7
Agrégatif
Mixte
78,4
3,6
96,3
39,5
60,4
81,1
3,9
96
47,7
52.2
TAB . 4.5 – Moyenne des différents termes (%) obtenus par la matrice de confusion utilisant l’algorithme basé
sur la TF.
Ce tableau nous indique que la meilleure classification est obtenue avec une distribution d’adventices de type
ponctuel avec une proportion du nombre de prévisions correctes de 87,6%, un taux d’erreur sur la détection de
la culture de 2,9% pour une détection correcte d’adventices de 65,2%.
99
Chapitre 4. Algorithmes spatiaux
4.9.2.1.2
No 3).
Images réelles
Nous avons également testé cet algorithme sur des images réelles (base de données
(a)
(b)
(c)
(d)
55
2
4
50
1
45
40
6
7
TVA
35
30
3
25
10
20
9
15
10
0
8
2
5
4
6
8
TFA
10
12
14
16
F IG . 4.23 – (a)Illustration d’une image discriminée. (b)Représentation des Taux de Culture et d’Adventice
détectés en fonction du Taux d’Infestation initial. (c)Représentation du pourcentage, de Vraie Adventice (%VA)
et de Vraie Culture (%VC) détectés en fonction du Taux d’Infestation initial. (d)Représentation du graphique
ROC. Pour des images réelles avec l’utilisation de l’algorithme basé sur la TF.
La figure 4.23.a représente l’image No 2 de cette base (cf. figure 4.18.b) ; image discriminée avec sa matrice
de confusion. Nous observons les mêmes problèmes que nous avions exposé pour les essais sur des images
simulées, à savoir un problème de détection sur le haut de l’image et en bord des lignes de semis. La figure
4.23.b présente les classes de ”culture” et ”adventice” détectées. Il existe aussi comme pour les images simulées
une ”sur-détection” de la culture. La figure 4.23.c représente les vraies détections de chaque classe, les résultats
obtenus auparavant se vérifient encore avec une bonne détection de la culture et une détection d’adventices
relativement moyenne. Le tableau 4.6 résume les erreurs moyennes de détection de la culture et des adventices.
Il en résulte encore un fois comme nous l’avons vu dans le cas d’images simulées, que nous avons une détection
correcte de la culture contrairement aux adventices. Finalement, la figure 4.23.d représente le graphique ROC.
L’erreur de culture est comprise entre 0,05 et 16% pour une détection correcte d’adventices se situant entre 15
et 52,2%. Le tableau 4.7 résume les données obtenues par le graphique ROC.
L’utilisation d’images réelles donne globalement les mêmes résultats que les images simulées avec une distribution d’adventices de type agrégatif. En effet, les termes standards AC, T FA, TVA, T FC et TVC obtenus sont
à peu près égaux au cas des images simulées avec une distribution d’adventices de type agrégatif mais il est à
100
4.9
Résultats et Discussion
hhhh
hhh Type de distribution
hhhh
Réel
hhhh
Erreur en %
h
h
Culture
Adventice
4,9
16,9
TAB . 4.6 – Moyenne des %FC soit l’erreur commise sur la classe ”culture” et %FA, l’erreur commise sur la
classe ”adventice” en utilisant l’algorithme basé sur la TF avec des images réelles.
hhhh
hhhType de distribution
hhhh
Réel
hhh
Taux en %
hh
h
AC
TFA
TVC
TVA
TFC
78,1
6,4
93,5
32,1
67,9
TAB . 4.7 – Moyenne des différents termes obtenus (%) par la matrice de confusion en utilisant l’algorithme
basé sur la TF.
signaler que pour les images simulées, ces termes ont été obtenus à partir de 1530 images testées à comparer
aux 10 images réelles.
4.9.2.2
Utilisation sur des images redressées
Nous nous sommes intéressés à l’application de l’algorithme basé sur la transformée de Fourier et le filtre de
Gabor sur des images présentant des lignes de semis parallèles. Contrairement aux images présentant une vue
perspective, où la fréquence des lignes varie entre le haut et le bas de l’image, nous avons une seule fréquence
de lignes de semis dans l’image.
4.9.2.2.1 Images simulées La figure 4.24 présente le résultat de la classification de l’image présentée figure
4.17.c redressée en utilisant l’algorithme basé sur la transformée de Fourier et le filtre de Gabor. Cette image
est divisée en quatre classes. La classe Vraie Culture (cyan), Fausse Culture (vert), Vraie Adventice (magenta)
et Fausse Adventice (rouge). Ces classes correspondent à la matrice de confusion située en dessous de l’image.
A partir de cette figure, nous pouvons remarquer que pratiquement toute la culture est correctement détectée,
contrairement aux adventices où une zone située dans le coin gauche de l’image présente une surface infestée
qui a été détectée comme culture. Il existe, tout comme lors de l’utilisation d’images présentant une vue perspective, un problème de détection en bordure des lignes de semis.
101
Chapitre 4. Algorithmes spatiaux
F IG . 4.24 – Représentation d’une image redressée discriminée avec un Taux d’Infestation initial de 35% en
utilisant l’algorithme basé sur la TF. Les couleurs cyan et magenta représentent respectivement les prédictions
correctes de la classe ”culture” et de la classe ”adventice”, alors que les couleurs rouge et verte représentent les
fausses prédictions de la classe ”culture” et de la classe ”adventice”.
Sur 100 % de la végétation qui composent cette image, nous avons 64,5% de Vraie Culture, pour une valeur
de Fausse Adventice de 0,5%, puis 19% de Vraie Adventice pour une valeur de Fausse Culture de 16%. Ces
chiffres indiquent que nous avons bien détecté la culture, nous avons même ”sur-détecté” cette dernière car
nous avons seulement environ 50 % de bien détectée. Pour avoir une discrimination efficace, il faut que les
adventices soient situées au plus près du centre de l’intervalle entre deux lignes de semis. Afin de connaı̂tre
le comportement global de l’algorithme, nous avons tracé les graphiques des Taux de Culture et d’Adventice
détectés en fonction du Taux d’Infestation initial (figure 4.25).
F IG . 4.25 – Représentation des Taux de Culture et d’Infestation détectés en fonction du Taux d’Infestation
initial pour une distribution d’adventices de type ponctuel, agrégatif et mixte en utilisant l’algorithme basé sur
la TF avec des images redressées.
Sur cette figure et pour les trois types de distribution d’adventices nous avons également, comme dans le cas
d’images présentant une vue perspective, une ”sur-détection” de la culture et donc une ”sous-détection” des
102
4.9
Résultats et Discussion
adventices. En effet, la courbe expérimentale du Taux de Culture est située au dessus de la courbe théorique.
Enfin un problème de détection dans les Taux d’Infestation initiaux élevés est observé. Ce problème est aussi
présent pour la distribution mixte. Nous allons maintenant représenter graphiquement (figure 4.26) la matrice
de confusion pour les trois types de distribution d’adventices.
(a)
(b)
(c)
(d)
F IG . 4.26 – Représentation du pourcentage, de Vraie Adventice (%VA) et de Vraie Culture (%VC) détectés en
fonction du Taux d’Infestation initial pour une distribution d’adventices de type ponctuel (a), agrégatif (b) ou
mixte (c) en utilisant l’algorithme basé sur la TF avec des images redressées.
A partir de cette figure, nous pouvons remarquer que le Taux de Vraie Culture est correct contrairement au Taux
de Vraie Adventice. Il est à noter que nous avons une ”sous-détection” d’adventices, soit une ”sur-détection”
de culture. La meilleure classification est obtenue lors de l’utilisation d’une distribution d’adventices de type
ponctuel. Pour avoir une idée globale du classificateur, nous allons présenter le tableau 4.8 résumant les erreurs
effectuées sur les détections de culture et d’adventices.
hhhh
hhh Type de distribution
hhhh
Ponctuel
hhh
Erreur en %
hh
h
Culture
Adventice
0,2
12,5
Agrégatif
Mixte
1,9
18,5
1,4
17,2
TAB . 4.8 – Moyenne des %FC soit l’erreur commise sur la classe ”culture” et %FA, l’erreur commise sur la
classe ”adventice” en utilisant l’algorithme basé sur la TF avec des images ayant été redressées.
103
Chapitre 4. Algorithmes spatiaux
A partir de ce tableau, nous observons une bonne détection de la culture avec un pourcentage inférieur à 1,9%
et une erreur sur les adventices inférieure à 18,5%. De nouveau le classificateur donne de meilleur résultat
pour la distribution de type ponctuel. En redressant les images, nous avons une meilleure classification de la
culture, mais des résultats assez proches en ce qui concernent les adventices. Les graphiques ROC (figure 4.27)
permettent d’affirmer les hypothèses émises.
(a)
(b)
64
(c)
55
45
20 30
55
50 35
5 40 60
25
63
62
15
10
60
65
55
15
30
60
35
25
20
40
45
50
40
10
30
65
20
50
60
55
25
5
45
35
55 15
50
70
50
10
5
70
65
70
45
45
61
TVA
TVA
TVA
40
40
35
60
75
35
80
30
59
25
30
58
75
20
80
75
57
0
0.5
1
1.5
2
2.5
3
3.5
25
TFA
0
5
10
15
20
TFA
25
30
35
80
40
15
0
5
10
15
TFA
20
25
30
F IG . 4.27 – Représentation des graphiques ROC pour une distribution d’adventices de type ponctuel (a),
agrégatif (b) et mixte (c) en utilisant l’algorithme basé sur la TF avec des images ayant été redressées.
Si nous interprétons ces graphiques, nous pouvons voir que les données étiquetées 70,75 et 80 biaisent la
méthode. Ces données sont issues d’images ayant les trois Taux d’Infestation initiaux les plus élevés. En effet,
l’algorithme est incapable de discriminer la culture des adventices lorsque le Taux d’Infestation initial est élevé
et ce quel que soit le type de distribution des adventices. Si nous ignorons ces trois points, nous avons pour
une distribution de type ponctuel une erreur de culture comprise entre 0 et 0,05% pour un taux de détection
correct d’adventices compris entre 61,5 et 63,5%. Pour une distribution de type agrégatif, l’erreur sur la culture
est comprise entre 0 et 0,05% pour un taux variant de 48 à 55% pour une détection correcte de la culture. Pour
la distribution mixte, l’erreur de culture est sensiblement égale aux autres types de distribution avec un taux
compris entre 0 et 0,07%, le taux de bonne détection d’adventices est de 54,5 à 56,5%. Le tableau 4.9 résume
les différents taux obtenus à partir de la matrice de confusion.
hhhh
hhhType de distribution
hhhh
Ponctuel
hhhh
Taux en %
h
h
AC
TFA
TVC
TVA
TFC
88
0,4
99,6
62
37,9
Agrégatif
Mixte
80,7
4,9
95
48,2
51,7
82,4
3,4
96,5
51,5
48,4
TAB . 4.9 – Moyenne des différents termes (%) obtenus par la matrice de confusion en utilisant l’algorithme
basé sur la TF avec des images ayant été redressées.
Ce tableau nous indique que la meilleure classification est obtenue pour une distribution d’adventices de type
ponctuel bien que la méthode ait été biaisée par trois points. En effet, ces points présentent des images avec un
Taux d’Infestation initial élevé et l’algorithme est incapable de paramètrer le filtre de Gabor car la transformée
de Fourier de l’image ne permet pas de détecter la bonne fréquence des lignes de semis (il y a plus d’adventices que de culture). Redresser les images permet de faire une meilleure classification que sur les images
présentant une vue perspective. La culture est détectée pratiquement à 100%. Cette méthode est donc valable
pour les faibles Taux d’Infestation (inférieur à 50%) mais elle risque d’être plus coûteuse en temps de calcul,
car nous sommes obligés de redresser l’image. D’autre part, cette méthode nécessite une connaissance parfaite
des paramètres extrinsèques de la caméra obtenus par autocalibration en temps réel.
104
4.9
4.9.2.2.2 Images réelles
redressées.
Résultats et Discussion
Nous allons présenter ici, les résultats obtenus sur des images réelles qui ont été
(a)
(b)
(c)
(d)
70
2
60
4
50
7
6
1
8
TVA
40
3
5
30
20
9
10
0
0
10
1
2
3
4
5
TFA
6
7
8
9
10
F IG . 4.28 – (a)Illustration d’une image discriminée. (b)Représentation des Taux de Culture et d’Adventice
détectés en fonction du Taux d’Infestation initial. (c)Représentation du pourcentage, de Vraie Adventice (%VA)
et de Vraie Culture (%VC) détectés en fonction du Taux d’Infestation initial. (d)Représentation du graphique
ROC. Pour des images redressées réelles avec l’utilisation de l’algorithme basé sur la TF.
La figure 4.28.a représente l’image No 2 redressée. L’image est mieux discriminée que celle non redressée
(cf figure 4.23.a). Effectivement, nous avons une meilleure détection de la culture. Par contre nous retrouvons
l’erreur commise en bord de lignes de culture. La figure 4.28.b présente les Taux de Culture et d’Infestation
détectés en fonction du Taux d’Infestation initial. A partir de ces courbes, nous admettons que nous avons une
”sur-détection” de la culture. La figure 4.28.c représente graphiquement la matrice de confusion, cette figure
indique que la culture est en générale bien détectée contrairement aux adventices qui sont apparemment toujours détectées à la même valeur quel que soit le taux d’infestation initial. Le tableau 4.10 résume les erreurs
moyennes commises sur la culture et les adventices.
Il en résulte que la culture est bien détectée contrairement aux adventices. A partir de ce tableau, nous pouvons
voir que la méthode donne de meilleurs résultats que sur des images présentant une vue perspective. La figure
4.28.d présente le graphique ROC où le Taux de Fausse Culture est compris entre 0,05 et 10% pour un Taux
de Vraie Adventice variant de 10 à 68%. Nous avons résumé dans le tableau 4.11 la moyenne des données
présentées par le graphique ROC.
L’utilisation d’images réelles redressées donne globalement de meilleurs résultats que les images réelles
présentant une vue perspective. En revanche les résultats sont en deçà de ce qui a été montré dans le cas
d’images simulées et redressées.
105
Chapitre 4. Algorithmes spatiaux
hhhh
hhh Type de distribution
hhhh
Réel
hhhh
Erreur en %
h
h
Culture
Adventice
2,9
13,9
TAB . 4.10 – Moyenne des %FC soit l’erreur commise sur la classe ”culture” et %FA, l’erreur commise sur la
classe ”adventice” en utilisant l’algorithme basé sur la TF avec des images redressées réelles.
hhh
hhhhType de distribution
hhh
Réel
hhhh
Taux en %
hh
h
AC
TFA
TVC
TVA
TFC
83
3,7
96,2
39,3
60,7
TAB . 4.11 – Moyenne des différents termes (%) obtenus par la matrice de confusion en utilisant l’algorithme
basé sur la TF avec des images redressées réelles.
4.9.3 Algorithme basé sur la transformée de Fourier à fenêtre glissante (TFG)
Afin d’éviter de redresser les images pour avoir une meilleure classification ce qui implique une opération
supplémentaire, nous nous sommes intéressés à l’utilisation de la transformée de Fourier à fenêtre glissante afin
de garder une localisation spatio-fréquentiel.
4.9.3.1
Images simulées
La figure 4.29 présente le résultat de la classification culture/adventice de l’image présentée figure 4.17.c
obtenue en utilisant l’algorithme basé sur la transformée de Fourier à fenêtre glissante.
F IG . 4.29 – Représentation d’une image discriminée avec un Taux d’Infestation initial de 30% en utilisant l’algorithme basé sur la TFG. Les couleurs cyan et magenta représentent respectivement les prédictions correctes
de la classe ”culture” et de la classe ”adventice”, contrairement aux couleurs rouge et verte qui représentent les
fausses prédictions de la classe ”culture” et de la classe ”adventice”.
106
4.9
Résultats et Discussion
A partir de cette image, nous pouvons remarquer que nous avons toujours un problème de détection de la
culture en bordure des lignes de semis. Il apparaı̂t de nouveau une ”sur-détection” de culture représentée en
couleur verte dans l’image. Sur 100% de la végétation présente dans cette image nous avons 67% de culture
bien détectée contre 2% d’erreur et 14% d’adventices bien classifiée et 17% incorrectement classifiée comme
culture. Afin d’avoir une précision globale de l’algorithme, nous avons tracé les graphiques des Taux de Culture
et d’Infestation détectés en fonction du Taux d’Infestation initial présenté figure 4.30.
F IG . 4.30 – Représentation des Taux de Culture et d’Infestation détectés en fonction du Taux d’Infestation
initial pour une distribution d’adventices de type ponctuel, agrégatif et mixte en utilisant l’algorithme basé sur
la TFG.
Nous pouvons remarquer sur cette figure une ”sur-détection” de la culture quelque soit le type d’adventices
présent dans l’image. Il est à noter que pour la distribution de type agrégatif, l’algorithme est moins performant
pour les Taux d’Infestation élevé contrairement à ce qui se passe pour les distributions de type ponctuel ou
mixte. La figure 4.31 représente graphiquement la matrice de confusion.
Cette figure présente l’efficacité du classificateur. Nous pouvons remarquer que les taux de culture détectés se
superposent pratiquement à la courbe théorique, ce qui indique une bonne reconnaissance de la culture, alors
que ce n’est pas le cas pour les adventices. Effectivement les taux d’infestation détectés sont situés en dessous
de la courbe théorique ce qui indique une ”sous-détection” des adventices et donc une ”sur-détection” de la
culture. Le tableau 4.12 présente les erreurs globales de détection commisent sur les deux classes : culture et
adventices.
hhhh
hhhh
Type
de distribution
hhh
Ponctuel
hhhh
Erreur en %
h
h
Culture
Adventice
1
12
Agrégatif
Mixte
1,4
19,5
1,7
16,5
TAB . 4.12 – Moyenne des %FC soit l’erreur commise sur la classe ”culture” et %FA, l’erreur commise sur la
classe ”adventice” en utilisant l’algorithme basé sur la TFG.
Ce tableau nous permet de démontrer que nous avons une bonne classification de la culture avec un pourcentage
d’erreur compris entre 1 et 1,7%. En revanche, la classe ”adventice” est ”sous-détectée” avec une erreur com107
Chapitre 4. Algorithmes spatiaux
(a)
(b)
(c)
(d)
F IG . 4.31 – Représentation du pourcentage, de Vraie Adventice (%VA) et de Vraie Culture (%VC) détectés en
fonction du Taux d’Infestation initial pour une distribution d’adventices de type ponctuel (a), agrégatif (b) et
mixte (c) en utilisant l’algorithme basé sur la TFG.
prise entre 12 et 19,5%. Les meilleurs résultats sont obtenus pour la distribution d’adventices de type ponctuel.
(a)
(b)
(c)
50
64
15
75
70
30
60
70
70
55
5
35 40
45
54
30
65
35
56
65
45
20
63.5
55
50
10
25
75
63
53
40
40
60
5
5
15
25
20
45
80
TVA
TVA
TVA
52
20
62.5
10
51
50
55
50
50
55
10
40
49
30
61.5
30
48
25
61
75
65
45
35
15
62
60
35
1
1.2
1.4
1.6
1.8
TFA
2
2.2
2.4
2.6
25
80
80
1
1.5
2
2.5
3
3.5
TFA
4
4.5
5
5.5
47
1
2
3
4
5
6
7
8
TFA
F IG . 4.32 – Représentation des graphiques ROC pour une distribution d’adventices de type ponctuel (a),
agrégatif (b) et mixte (c) en utilisant l’algorithme basé sur la TFG.
La figure 4.32 représente les graphiques ROC pour les trois types de distribution. A partir de cette figure,
nous pouvons voir pour une distribution de type ponctuel que nous avons un Taux de Fausse Adventice compris
entre 0,2 et 0,4% pour un Taux de Vraie Adventice dans l’intervalle 62,4 à 68%. Pour le type agrégatif, nous
108
4.9
Résultats et Discussion
avons une erreur de culture comprise entre 2 et 6,5% pour un taux de 20 à 55% sur la détection des adventices.
Finalement pour la distribution de type mixte, nous nous apercevons que les données étiquetées 65 à 80 biaisent
la méthode. En effet ces quatre données donnent les plus mauvais résultats sur la détection de la culture en
comparaison avec les autres données. Si nous excluons ces données, le Taux de Fausse Adventice devient
compris entre 0,17 et 0,38% (0,7% si nous gardons toutes les données) pour un Taux de Vraie Adventice
variant de 44,6 à 51,74%.
hhh
hhhhType de distribution
hhhh
Ponctuel
hhh
Taux en %
hh
h
AC
TFA
TVC
TVA
TFC
87,5
1,6
98,3
62,5
37,4
Agrégatif
Mixte
80
2,8
97,1
44,5
55,4
82,9
2,9
97
51,6
48,3
TAB . 4.13 – Erreur commise sur la détection de la culture et des adventices pour la base de données No 1 en
utilisant l’algorithme basé sur la TFG.
Le tableau 4.13 résume les différents termes standards obtenus à partir de la matrice de confusion. A partir de
ces données, nous pouvons voir, que les meilleurs résultats sont obtenus avec une distribution d’adventices de
type ponctuel avec une proportion du nombre de prévisions correctes de 87,5%.
4.9.3.2
Images réelles
Nous avons testé également cet algorithme avec des images réelles.
La figure 4.33.a représente les résultats de l’algorithme testé sur l’image No 2 (figure 4.18.b). Nous pouvons
voir un problème de discrimination dans les zones proche des lignes de semis. D’après la figure 4.33.b, nous
remarquons que la culture est ”sur-détectée” comme dans le cas des images simulées. La figure 4.33 nous
permet d’affirmer que nous avons une détection correcte de la classe ”culture” alors que ce n’est pas le cas pour
la classe ”adventice”.
hhhh
hhhh
Type
de distribution
hhh
Réel
hhhh
Erreur en %
h
h
Culture
Adventice
3
14
TAB . 4.14 – Moyenne des %FC soit l’erreur commise sur la classe ”culture” et %FA, l’erreur commise sur la
classe ”adventice” en utilisant l’algorithme basé sur la TFG avec des images réelles.
Le tableau 4.14 résume les erreurs obtenues pour cet algorithme. La figure 4.33 représente le graphique ROC,
nous obtenons une valeur comprise entre 0,1 et 0,5% pour le Taux de Fausse Adventice et entre 20 et 63% pour
le Taux de Vraie Adventice. Nous avons donc une bonne détection de la culture contrairement à la détection des
adventices. Le tableau 4.15 résume les valeurs des termes standards obtenus à partir de la matrice de confusion.
Avec cet algorithme, nous avons obtenu une proportion du nombre de prévisions correctes de 82%, un taux de
96,6% de bonne détection de la culture et un taux de 37,4% de bonne détection des adventices.
109
Chapitre 4. Algorithmes spatiaux
(a)
(b)
(c)
(d)
65
4
60
55
2
50
1
TVA
45
7
40
35
9
8
6
30
3
25
20
15
10
5
1
1.5
2
2.5
3
3.5
4
4.5
5
5.5
TFA
F IG . 4.33 – (a)Illustration d’une image discriminée. (b)Représentation des Taux de Culture et d’Adventice
détectés en fonction du Taux d’Infestation initial. (c)Représentation du pourcentage, de Vraie Adventice (%VA)
et de Vraie Culture (%VC) détectés en fonction du Taux d’Infestation initial. (d)Représentation du graphique
ROC. Pour des images réelles avec l’utilisation de l’algorithme basé sur la TFG.
hhhh
hhhType de distribution
hhhh
Réel
hhhh
Taux en %
h
h
AC
TFA
TVC
TVA
TFC
82
3,3
96,6
37,4
62,5
TAB . 4.15 – Moyenne des différents termes (%) obtenus par la matrice de confusion en utilisant l’algorithme
basé sur la TFG avec des images réelles.
4.9.4 Algorithme basé sur la transformée en ondelette
4.9.4.1
Utilisation sur des images présentant une vue en perspective
4.9.4.1.1 Images simulées Comme nous avons testé trente trois ondelettes différentes (4.1), nous ne
présentons ici que les résultats obtenus avec une ondelette de Daubechies d’ordre 25 (db25), une approximation
de l’ondelette de Meyer discrète (dmey) et une ondelette bi-orthogonale d’ordre 3 pour la décomposition et 5
pour la reconstruction (bior3.5). Les deux premières ondelettes permettent d’avoir les meilleurs résultats avec
cet algorithme contrairement à la dernière qui donne les plus mauvais résultats.
La figure 4.34 présente le résultat de la classification culture/adventice de l’image montrée figure 4.17.c obtenu
en utilisant l’algorithme basé sur la Transformée en ondelette.
110
4.9
(a)
Résultats et Discussion
(b)
F IG . 4.34 – Représentation d’une image discriminée avec un taux d’infestation initial de 30% en utilisant
l’algorithme basé sur la TO en utilisant une ondelette de Daubechies d’ordre 25 (a) ou une bi-orthogonale
de niveau 3 pour la décomposition et 5 pour la reconstruction (b). Les couleurs cyan et magenta représentent
respectivement les prédictions correctes de la classe ”culture” et de la classe ”adventice”, contrairement aux
couleurs rouge et verte qui représentent les fausses prédictions de la classe ”culture” et de la classe ”adventice”.
Comme l’utilisation de l’ondelette db25 et l’ondelette dmey donnent sensiblement les mêmes résultats,
nous avons seulement présenté le résultat de la classification utilisant une ondelette db25 et bior3.5. A partir
de ces résultats, nous pouvons remarquer une ”sur-détection” des adventices, plus accentuée avec l’utilisation
d’une ondelette bior3.5 que pour une ondelette db25. A partir de la matrice de confusion de ces deux images,
les pourcentages de Vraie Culture et de Vraie Adventice sont différents : il apparaı̂t donc que l’utilisation d’une
ondelette db25 donne de meilleurs résultats que l’utilisation d’une ondelette bior3.5. En revanche, il existe un
problème de détection en bordure des lignes de semis. En effet certaines extrémités de feuilles d’une plante de
culture sont considérées comme adventices.
La figure 4.35 représente les Taux de Culture et d’Infestation détectés en fonction du Taux d’Infestation
initial pour différents types de distribution d’adventices et pour différentes ondelettes. On observe une ”surdétection” des adventices quelque soit le type de distribution d’adventices ou de l’ondelette utilisée. L’utilisation d’une ondelette bior3.5 fournit une ”sur-détection” de la classe ”adventice” plus importante que celle
fournie par l’utilisation d’une ondelette dmey ou db25. Nous avons une détection correcte même pour les Taux
d’Infestation initiaux élevés.
La figure 4.36 présente le pourcentage de Vraie Adventice et Vraie Culture en fonction du Taux d’Infestation
initial. Avec l’utilisation d’une ondelette db25 ou dmey, nous avons une bonne détection de la culture et des adventices, contrairement à ce que nous obtenons avec une ondelette bior3.5, qui détecte bien les adventices mais
qui donne une erreur plus grande sur la détection de la culture. L’utilisation d’une distribution d’adventices de
type ponctuel donne les meilleurs résultats. Le tableau 4.16 présente les erreurs commises sur la détection de la
culture et d’adventices.
Type de distribution
Erreur en %
Culture
Adventice
bior3.5
13,5
3,8
Ponctuel
db25 dmey
5,8
6
2,3
2,4
Agrégatif
bior3.5 db25 dmey
14,2
6,6
6,8
6,5
4,6
4,7
bior3.5
14,2
6,1
Mixte
db25
6,5
4,4
dmey
6,6
4,5
TAB . 4.16 – Moyenne des %FC soit l’erreur commise sur la classe ”culture” et %FA, l’erreur commise sur la
classe ”adventice” pour trois ondelettes différentes.
111
Chapitre 4. Algorithmes spatiaux
(a)
(b)
(c)
(d)
F IG . 4.35 – Représentation des Taux de Culture et d’Infestation détectés en fonction du Taux d’Infestation
initial pour une distribution d’adventices de type ponctuel (a), agrégatif (b) et mixte (c) en utilisant l’algorithme
basé sur la TO.
Ce tableau nous permet de conclure que les meilleurs résultats sont obtenus pour l’ondelette db25. L’ondelette
dmey donne approximativement les mêmes résultats que l’ondelette db25. L’utilisation d’une ondelette bior3.5
donne de mauvais résultats sur la détection de la culture. Les meilleurs résultats sont obtenus avec l’utilisation
d’une distribution d’adventices de type ponctuel et l’utilisation d’une ondelette db25, soit un pourcentage de
Fausse Culture inférieur à 5,8% et un pourcentage de Fausse Adventice inférieur à 2,4%. Nous nous intéressons
maintenant au graphique ROC présenté figure 4.37.
Cette figure nous permet de démontrer que l’utilisation d’une ondelette bior3.5 (couleur bleue) donne de moins
bon résultat que l’utilisation d’une ondelette db 25 (couleur cyan) ou d’une ondelette dmey (couleur rouge). En
effet, le nuage de points est bien distinct des autres nuages. L’utilisation d’une ondelette db25 ou dmey donne
approximativement les mêmes résultats soit un Taux de Fausse Adventice de 0,70 à 11,5% pour un Taux de
Vraie Adventice compris entre 91 et 94,4% pour une distribution d’adventices de type ponctuel. Il est à noter
que si le Taux d’Infestation initial est inférieur à 40%, nous avons un Taux de Fausse Adventice inférieur à 10%
et un Taux de Vraie Adventice supérieur à 90%. L’utilisation d’une distribution d’adventices de type agrégatif
fournit un Taux de Fausse Adventice de 0,7 à 15% pour un Taux de Vraie Adventice compris entre 81,3 et
93,3%. Pour un Taux d’Infestation initial inférieur à 40%, nous avons un Taux de Fausse Adventice inférieur
à 10% avec un Taux de Vraie Adventice supérieur à 80%. Pour finir, pour le troisième type de distribution
d’adventices, nous obtenons un Taux de Fausse Adventice dans l’intervalle 0,7 à 17% pour un Taux de Vraie
Adventice variant de 84,9 à 89%. Pour un Taux d’Infestation initial inférieur à 40%, le Taux de Fausse Adventice est inférieur à 10%, pour un Taux de Vraie Adventice supérieur à 85%. Cet algorithme semble bien être
approprié pour notre traitement. Il apparaı̂t que l’utilisation d’une distribution d’adventices de type ponctuel
donne les meilleurs résultats. Le tableau 4.17 résume les différents termes standards obtenus avec la matrice de
confusion. La meilleure classification est obtenue avec une distribution d’adventices de type ponctuel et avec
l’utilisation d’une ondelette db25 ayant un nombre de prévision correcte de 91,8%. Soit en moyenne 91% de la
classe ”culture” bien détectée et 92,5% de la classe ”adventice” classée correctement.
112
4.9
(a)
(b)
(c)
(d)
Résultats et Discussion
F IG . 4.36 – Représentation du pourcentage, de Vraie Adventice (%VA) et de Vraie Culture (%VC) détectés
en fonction du taux d’infestation initial pour une distribution d’adventices de type ponctuel (a), agrégatif (b) et
mixte (c) en utilisant l’algorithme basé sur la TO.
(a)
(b)
95
92
91
80
80
55
bior3.5
db25
dmey
70
20
20
88
70
75
75
65
75
75
90
87
15
15 30 40
30 50
1025
50
10
3540
45
25
35
45
80
80
75
75
70
70
80
50
30
5
55
88
20 15
60
40
45
25
50
10 30
5
87
85
65
60
1010
65
89
86
20
20
55
15
55
5 15
50
50
45
30 35 45
30 35 40
25
25
40
85
90
70
70
6565
60
60
5
45
TVA
93
89
bior3.5
db25
dmey
80
80
TVA
94
TVA
(c)
95
bior3.5
db25
dmey
80
75
80
75
70
70
65
30 45 55 60 65
10
55 60
50
30
40
25
5
50
40
10 35
45
5
25
20
35
15
15
20
55
55
80
84
70
83
55
60
20
25
75
50
81
35
75
65
10
82
35
40
35
30
10
15
86
60
60 65
45
40
55
5
25
80
20
85
6
8
10
12
14
16
18
TFA
20
22
24
70
5
10
15
20
TFA
25
30
79
15
5
10
15
20
25
30
TFA
F IG . 4.37 – Représentation des graphiques ROC pour une distribution d’adventices de type ponctuel (a),
agrégatif (b) et mixte (c) en utilisant l’algorithme basé sur la TO.
4.9.4.1.2 Images Réelles
No 2 (cf. figure 4.18.b).
La figure 4.38.a présente les résultats de l’algorithme (db25) testé sur l’image
113
Chapitre 4. Algorithmes spatiaux
Type de distribution
Taux en %
AC
TFA
TVC
TVA
TFC
Ponctuel
bior3.5 db25
82,5
91,8
20,3
9
79,7
91
87,6
92,5
12,4
7,5
dmey
91,6
9,1
90,8
92,1
7,9
Agrégatif
bior3.5 db25
79,4
89
22,5
10,8
77,5
89,2
79,7
85,7
20,3
14,3
Mixte
bior3.5 db25
79,6
89,3
22,2
10,5
77,8
89,4
81,4
86,9
18,5
13
dmey
88,8
11
88,9
85,5
14,5
dmey
89
10,7
89,3
86,7
13,3
TAB . 4.17 – Moyenne des différents termes (%) obtenus par la matrice de confusion en utilisant 3 algorithmes
(bior3.5, db25 et dmey) basés sur la TO.
(a)
(b)
(c)
(d)
90
bior3.5
db25
dmey
3
2
3
85
2
10
10
7
80
1
7
1
TVA
6
9
75
5
70
6
4
3
9
7
10
1
2
4
5
9
6
4
8
8
8
65
5
60
10
15
20
25
30
35
TFA
F IG . 4.38 – (a)Illustration d’une image discriminée. (b)Représentation des Taux de Culture et d’Infestation
détectés en fonction du Taux d’Infestation initial. (c)Représentation du pourcentage, de Vraie Adventice (%VA)
et de Vraie Culture (%VC) détectés en fonction du Taux d’Infestation initial. (d)Représentation du graphique
ROC. Pour des images réelles avec l’utilisation de l’algorithme basé sur la TO.
Comme pour les images simulées, nous avons un problème de détection en bordure des lignes de semis.
En effet certaines extrémités des feuilles d’une plante de culture sont considérées comme adventices. La figure
4.38.b représente les classes de ”culture” et ”adventice” détectées en fonction du Taux d’Infestation initial, nous
remarquons une ”sur-détection” des adventices car les données détectées sont situées au dessus de la courbe
théorique. La figure 4.38.c représente les vraies détections de chaque classe. Nous pouvons remarquer à partir
de ce graphe que les adventices sont bien détectées, la culture est moins bien détectée : elle est ”sous-détectée”.
114
4.9
Résultats et Discussion
Le tableau 4.18 résume les erreurs moyennes de Fausse Culture et de Fausse Adventice.
Type de distribution
Erreur en %
Culture
Adventice
bior3.5
21,1
6,2
Réel
db25
14,2
5,4
dmey
14,3
5,3
TAB . 4.18 – Moyenne des %FC soit l’erreur commise sur la classe ”culture” et %FA, l’erreur commise sur la
classe ”adventice” en utilisant l’algorithme basé sur la TO avec des images réelles.
Les meilleurs résultats sont obtenus avec l’utilisation d’une ondelette de Daubechies d’ordre 25. Finalement,
la figure 4.38.d représente le graphique ROC. L’utilisation d’une l’ondelette db25 donne les meilleurs résultats
avec un Taux de Fausse Adventice variant entre 13 et 25% et un Taux de Vraie Adventice compris entre 69 et
88,3%. Le tableau 4.19 indique que la meilleure classification est obtenue avec une ondelette de Daubechies
d’ordre 25 pour une précision correcte de 80,4%, un Taux de Vraie Culture de 81,2% pour un Taux de Vraie
Adventice de 77%.
Type de distribution
Taux en %
AC
TFA
TVC
TVA
TFC
Réel
bior3.5 db25
72,6
80,4
27,7
18,7
72,2
81,2
73,4
77
26,5
23
dmey
80,3
18,8
81,1
78
22
TAB . 4.19 – Moyenne des différents termes (%) obtenus par la matrice de confusion en utilisant l’algorithme
basé sur la TO avec des images réelles.
4.9.4.2
Utilisation sur des images redressées
L’avantage de la transformée en ondelette et de l’analyse multi-résolution est qu’elle ne nécessite aucun
paramètres. Nous avons également testé cet algorithme sur des images redressées.
4.9.4.2.1 Images simulées Comme précédemment, seul les résultats obtenus avec une ondelette de Daubechies d’ordre 25 (db25), l’approximation de l’ondelette de Meyer discrète (dmey) et une ondelette biorthogonale d’ordre 3 pour la décomposition et d’ordre 5 pour la reconstruction seront utilisées.
La figure 4.39 présente le résultat de la classification culture/adventice de l’image, montrée figure 4.17.c en utilisant l’analyse multirésolution avec une ondelette db25 (a) et une ondelette bior3.5 (b). A partir de ces images,
nous remarquons que l’utilisation de l’ondelette db25 donne de meilleurs résultats sur la discrimination. En
effet, la culture est mieux détectée avec l’utilisation de l’ondelette db25 qu’avec une ondelette bior3.5. Nous remarquons aussi que nous avons un problème de détection en bordure des lignes de semis avec certaines plantes
dont les extrémités des feuilles sont classifiées à tort comme adventices. De plus, si nous regardons les matrices
de confusion, nous nous apercevons que le pourcentage de Vraie Adventice et de Vraie Culture est nettement
meilleur avec l’utilisation d’une ondelette db25 qu’une ondelette bior3.5. La figure 4.40 présente les graphiques
des Taux d’Infestation détectés et des Taux de Culture détectés en fonction du Taux d’Infestation initial pour
les trois types de distribution d’adventices.
A partir de cette figure, nous pouvons admettre que l’utilisation d’une ondelette bior3.5 donne de moins bons
résultats que l’utilisation d’une ondelette db25 ou dmey. Pour une distribution de type ponctuel (a), quelle que
soit l’ondelette utilisée, nous remarquons une ”sous-détection” de la culture pour les Taux d’Infestation initiaux inférieurs à 30%, puis pour les taux supérieurs à 30%, nous obtenons une ”sur-détection” de la culture.
115
Chapitre 4. Algorithmes spatiaux
(a)
(b)
F IG . 4.39 – Représentation d’une image redressée et discriminée avec un taux d’infestation initial de 30%
en utilisant l’algorithme basé sur la TO en utilisant une ondelette de Daubechies d’ordre 25 (a) ou une biorthogonale de niveau 3 pour la décomposition et 5 pour la reconstruction. Les couleurs cyan et magenta
représentent respectivement les prédictions correctes de la classe culture et de la classe adventice, alors que les
couleurs rouge et verte représentent les fausses prédictions de la classe ”culture” et de la classe ”adventice”.
Le même phénomène se produit pour un Taux d’Infestation initial de 50% pour une distribution d’adventices
de type agrégatif (b). Pour une distribution d’adventices de type mixte, le phénomène se produit vers un Taux
d’Infestation environ égal à 20%. Il est à noter que visuellement les meilleurs résultats sont obtenus avec une
ondelette db25 ou dmey en utilisant une distribution d’adventices de type ponctuel.
La figure 4.41 présente le pourcentage de Vraie Adventice (VA) et Vraie Culture (VC) en fonction du Taux
d’Infestation initial. A partir de ces graphes, il est difficile de voir où se situe la ”sur-détection” de la culture,
nous pouvons seulement dire que pour une distribution d’adventices de type ponctuel, nous avons une bonne
détection de la culture et des adventices même pour des Taux d’Infestation initiaux élevés. Les distributions
d’adventices de type agrégatif et mixte donnent aussi de bons résultats mais pour des Taux d’Infestation initiaux
plus faibles.
Type de distribution
Erreur en %
Culture
Adventice
Ponctuel
bior3.5 db25 dmey
9,9
2,7
2,8
4
2,5
2,5
Agrégatif
bior3.5 db25 dmey
11,5
3,9
4
7,2
5,8
5,8
Mixte
bior3.5 db25
10,9
3,7
6,5
5
dmey
3,8
5,1
TAB . 4.20 – Moyenne des %FC soit l’erreur commise sur la classe ”culture” et %FA, l’erreur commise sur la
classe ”adventice” pour trois ondelettes différentes.
Le tableau 4.20 démontre que les meilleurs résultats sont obtenus avec l’utilisation d’une ondelette db25. Les
résultats réalisés avec une ondelette dmey sont assez proches de ceux obtenus avec l’utilisation d’une ondelette
db25. Les meilleures performances sont observées pour une distribution d’adventices de type ponctuel et en
utilisant une ondelette db25 avec l’analyse multi-résolution avec un pourcentage d’erreur sur la culture de 2,7%
et de 2,5% sur la classe ”adventice”.
116
4.9
(a)
(b)
(c)
(d)
Résultats et Discussion
F IG . 4.40 – Représentation des Taux de Culture et d’Infestation détectés en fonction du Taux d’Infestation
initial pour une distribution d’adventice de type ponctuel, agrégatif et mixte en utilisant l’algorithme basé sur
la TO avec des images ayant été redressées.
La figure 4.42, représente les graphiques ROC, avec l’utilisation des ondelettes bior3.5 (bleue), db25 (cyan)
et dmey(rouge) superposés, pour chaque type de distribution d’adventices. Nous nous apercevons que le nuage
de points représentant le graphique ROC de l’ondelette bior3.5 est éloigné des deux autres nuages ce qui prouve
que l’utilisation d’une ondelette bior3.5 donne de moins bons résultats que l’utilisation des deux autres ondelettes. Une ondelette de daubechies d’ordre 25 donne approximativement les même résultats que l’approximation de l’ondelette discrète de Meyer. Soit un Taux de Fausse Adventice comprise entre 2,7 et 9,2% pour un
Taux de Vraie Adventice de 91,8 à 93,5% pour une distribution d’adventices de type ponctuel. Il est à noter que
pour des Taux d’Infestation initiaux inférieurs à 50%, le Taux de Fausse Adventice est inférieur à 5% pour un
Taux de Vraie Adventice supérieur à 91,8%. Pour une distribution d’adventices de type agrégatif, nous avons
un Taux de Fausse Adventice compris entre 2,7 et 12,3% pour un Taux de Vraie Adventice allant de 78 à 87%.
Finalement pour le dernier type de distribution c’est-à-dire mixte, le Taux de Fausse Adventice est compris
entre 2,4 et 12,5% pour un Taux de Vraie Adventice variant de 83,6 à 87,1%. Les meilleurs résultats ont été
réalisés en utilisant une distribution d’adventices de type ponctuel.
Le tableau 4.21 résume les différents termes standards calculés à partir de la matrice de confusion. La meilleure
classification est obtenue avec une distribution d’adventices de type ponctuel et avec l’utilisation d’une ondelette de Daubechies d’ordre 25 avec un nombre de bonnes prévisions exact de 94,8%, soit en moyenne 95,6%
de culture bien détectée et 92,3% d’adventices correctement classées.
117
Chapitre 4. Algorithmes spatiaux
(a)
(b)
(c)
(d)
F IG . 4.41 – Représentation du pourcentage, de Vraie Adventice (%VA) et de Vraie Culture (%VC) détectés
en fonction du taux d’infestation initial pour une distribution d’adventices de type ponctuel (a), agrégatif (b) et
mixte (c) en utilisant l’algorithme basé sur la TO avec des images ayant été redressées.
(a)
(b)
5
93
86
75
84
15
90
TVA
82
5
55
80
15
20
30
30
25
20
25
65
65
60
60
55
45 50
35 45 5055
35
bior3.5
db25
dmey
10
87
5
80
75
91
TVA
88
bior3.5
db25
dmey
8080
55
2025
30 45
15 30
20
15
45 55 60
40
75
65
75
10 35
25 50 60
3540
80
70
6580
10
70
50
92
(c)
88
bior3.5
db25
dmey
5
20
10
20
15 30
50
50
25 30
40
5
3540
25
35
45
45
86
70
70
85
75
84
60
60
65 70
65 70
75
75
80
80
5555
40
40
65
TVA
94
70
83
60
15
89
82
78
10
55
30
20
55 80
88
10
35 45
87
10
75
30
76
70
30
10
80
25
74
25 20
79
2
4
6
8
10
12
TFA
14
16
18
20
72
0
5
10
15
TFA
45
15 40
60
55
5
10
86
70
65
35
40
20
80
75
50
81
50
35
5
65
25
50
60
40
45
15
20
25
78
0
5
10
15
20
25
TFA
F IG . 4.42 – Représentation des graphiques ROC pour une distribution d’adventices de type ponctuel (a),
agrégatif (b) et mixte (c) en utilisant l’algorithme basé sur la TO en utilisant des images ayant été redressées.
4.9.4.2.2 Images Réelles
La figure 4.43.a présente l’image, No 2 de la base de données d’images réelles (cf. figure 4.18.b), redressée et
classifiée.
118
4.9
Type de distribution
Taux en %
AC
TFA
TVC
TVA
TFC
Ponctuel
bior3.5 db25
86
94,8
15,1
4,3
84,8
95,6
87,9
92,3
12
7,6
dmey
84,8
4,4
95,5
92,3
7,7
Agrégatif
bior3.5 db25
81,6
90,7
18
6,6
81,9
93,4
77,2
82
22,7
17,9
dmey
90,5
6,8
93,2
81,8
18,1
Résultats et Discussion
Mixte
bior3.5 db25
82,6
91,5
17,1
6,2
82,8
97,7
79,9
85
20,1
14,9
dmey
91,4
6,4
93,6
84,7
15,2
TAB . 4.21 – Moyenne des différents termes (%) obtenus par la matrice de confusion en utilisant l’algorithme
basé sur la TO avec des images ayant été redressées.
(a)
(b)
(c)
(d)
95
bior3.5
db25
dmey
2
90
2
85
2
80
66
7
7
1
7
75
TVA
6
70
44
1
99
3
3
10
8
9
1 3
65
4
10
8
60
10
5
55
5
50
45
10
15
5
20
25
30
35
TFA
F IG . 4.43 – (a)Illustration d’une image réelle redréssée et discriminée. (b)Représentation des Taux de Culture et
d’Adventice détectés en fonction du Taux d’Infestation initial. (c)Représentation du pourcentage, de Vraie Adventice (%VA) et de Vraie Culture (%VC) détectés en fonction du Taux d’Infestation initial. (d)Représentation
du graphique ROC. Pour des images réelles avec l’utilisation de l’algorithme basé sur la TO.
Pour obtenir cette image, nous avons opté pour une ondelette de Daubechies d’ordre 25. Il apparaı̂t que
nous avons une bonne détection des adventices avec 12,8% de bonne localisation sur 100% de la végétation
contre une mauvaise détection de 1,7%. Par contre nous avons un problème avec la détection de la classe
”culture”. En effet, nous pouvons voir en couleur rouge, les erreurs obtenues sur la détection de cette classe
surtout sur la troisième ligne de semis en partant de la gauche de l’image qui a été détectée pour moitié comme
des adventices. La figure 4.43.b représente les Taux d’Infestation et de Culture détectés en fonction du Taux
119
Chapitre 4. Algorithmes spatiaux
d’Infestation initial. Il existe une ”sur-détection” de la culture car les Taux d’Infestation détectés sont situés
au dessus de la courbe théorique. La figure 4.43.c montre les pourcentages de Vraie Adventice et de Vraie
Culture obtenus suivant le Taux d’Infestation présent dans l’image originale. Nous remarquons que nous avons
une détection correcte de la classe ”adventice” contrairement à la classe ”culture” qui est ”sous-détectée”. Ces
hypothèses se vérifient avec les données du tableau 4.22. En effet, nous avons des moyennes de pourcentage
de Fausse Adventice de 6,6% et 14,4% pour la Vraie Culture avec l’utilisation d’une ondelette db25 qui donne
les meilleurs résultats, alors qu’une ondelette bior3.5 conduit à une plus grosse erreur sur la culture. La figure
4.43.d représente le graphique ROC avec l’utilisation des ondelettes bior3.5 (noir), db25 (cyan) et dmey (rouge).
Le nuage rouge et cyan démontre que le Taux de Fausse Adventice est inférieur à 25% pour un Taux de Vraie
Culture supérieur à 50%. Le nuage noir présente un Taux de Fausse Adventice inférieur à 35% pour un Taux de
Vraie Culture supérieur à 55%. A partir de ce graphique et du tableau 4.23, il est apparaı̂t que l’utilisation d’une
ondelette de Daubechies d’ordre 25 permet une meilleure détection avec une proportion de bonnes prévisions
égales à79% avec en moyenne sur la série d’images un Taux de Vraie Culture de 51,5% pour un Taux de Vraie
Adventice de 69,6%
Type de distribution
Erreur en %
Culture
Adventice
Réel
bior3.5 db25
20,2
14,4
6,2
6,6
dmey
14,5
6,7
TAB . 4.22 – Moyenne des %FC soit l’erreur commise sur la classe ”culture” et %FA, l’erreur commise sur la
classe ”adventice” en utilisant l’algorithme basé sur la TO avec des images réelles redressées.
Type de distribution
Taux en %
AC
TFA
TVC
TVA
TFC
bior3.5
73,6
26
74
71,8
28,2
Réel
db25
79
18,5
81,5
69,6
30,4
dmey
78,8
18,6
81,4
69,3
30,6
TAB . 4.23 – Erreur commise sur la détection de la culture et des adventices pour la base de données No 1 en
utilisant l’algorithme basé sur la TO avec des images réelles redressées.
4.9.5 Algorithme basé sur la transformée de Hough
4.9.5.1
Images simulées
La figure 4.44 présente les résultats de la classification culture/adventice de l’image présenté figure 4.17.c
obtenus à partir l’algorithme basé sur la transformée de Hough. A partir de cette image et de sa matrice de
confusion, nous remarquons que nous avons un faible pourcentage de Fausse Culture avec 0,8% mais avec
un pourcentage de Fausse Adventice élevé qui est de 32,3%. Ce résultat s’explique sur la non détection de
certaines lignes de semis (couleur rouge sur l’image). Ici nous ne présentons qu’une seule image, il ne faut
donc considérer que ce problème est général. Nous allons étudier les graphiques de la figure 4.45 afin d’avoir
une idée des performances moyennes de la méthode.
120
4.9
Résultats et Discussion
F IG . 4.44 – Représentation d’une image discriminée avec un Taux d’Infestation initial de 30% en utilisant
l’algorithme basé sur la TH. Les couleurs cyan et magenta représentent respectivement les prédictions correctes
de la classe ”culture” et de la classe ”adventice”, contrairement aux couleurs rouge et verte qui représentent les
fausses prédictions de la classe ”culture” et de la classe ”adventice”.
F IG . 4.45 – Représentation des Taux de Culture et d’Infestation détectés en fonction du Taux d’Infestation
initial pour une distribution d’adventices de type ponctuel, agrégatif et mixte en utilisant l’algorithme basé sur
la TH.
Cette figure présente quel que soit le type de distribution des adventices, une ”sur-détection” des adventices,
ce qui permet de penser que nous avons un problème concernant la détection de la culture. Afin de vérifier cette
hypothèse, nous utilisons les graphes représentant la matrice de confusion (figure 4.46).
Cette figure présente les courbes de Vraie Adventice et de Vraie Culture en fonction du Taux d’Infestation
initial pour les différents types de distribution d’adventices. Ces graphes permettent de vérifier l’hypothèse
émise pour la ”sur-détection” de la classe ”adventice”. En effet, nous avons une ”sous-détection” de la classe
”culture” alors que ce n’est pas le cas pour la classe ”adventice” qui est pratiquement confondue avec la courbe
théorique. Ce problème s’explique le plus souvent par la non détection des lignes de semis dans les coins en
haut à gauche et en haut à droite de l’image. En effet sur les images traitées, ce problème est souvent observé.
En revanche, généralement le reste des lignes de semis est bien détecté. Le résultat des moyennes de Fausse
Culture et de Fausse Adventice est donné par le tableau 4.24.
121
Chapitre 4. Algorithmes spatiaux
(a)
(b)
(c)
(d)
F IG . 4.46 – Représentation du pourcentage, de Vraie Adventice (%VA) et de Vraie Culture (%VC) détectés
en fonction du Taux d’Infestation initial pour une distribution d’adventice de type ponctuel (a), agrégatif (b) et
mixte (c) en utilisant l’algorithme basé sur la TH.
Ce tableau nous permet d’affirmer que nous avons un pourcentage de Fausse Adventice variant de 2%
pour une distribution de type ponctuel à 2,5% pour une distribution de type mixte. Pour la Fausse Culture, le
pourcentage est de 11,6% à 13,1%. Les meilleurs résultats sont donnés pour une distribution d’adventices de
type ponctuel.
hhh
hhhh Type de distribution
hhh
Ponctuel
hhhh
Erreur en %
hh
h
Culture
Adventice
11,6
2
Agrégatif
Mixte
12,9
2,2
13,1
2,5
TAB . 4.24 – Moyenne des %FC soit l’erreur commise sur la classe ”culture” et %FA, l’erreur commise sur la
classe ”adventice” en utilisant l’algorithme basé sur la TH.
Concernant les graphiques ROC présentés en figure 4.47, il apparaı̂t que pour une distribution de type
ponctuel, nous avons un Taux de Fausse Adventice compris entre 0,4% et 45% pour un Taux de Vraie Adventice
variant de 92,6 à 95,3%. Si le Taux d’Infestation initial présent dans l’image est inférieur à 45%, le Taux
de Vraie Adventice est supérieur à 93,5% pour un Taux de Fausse Adventice inférieur à 15%. Il en est de
même pour une distribution de type agrégatif pour un T Iinit < 45%, le Taux de Vraie Adventice est supérieur
à 89% pour un Taux de Fausse Adventice inférieur à 20%. Ces derniers résultats sont valables aussi avec une
122
4.9
Résultats et Discussion
distribution de type mixte. Le tableau 4.47 résume les valeurs de Taux de Vraie Adventice et Culture et de Taux
de Fausse Adventice et Fausse Culture. Nous remarquons que les meilleurs résultats sont obtenus pour une
distribution de type ponctuel avec un nombre de détections correct égal à 86,4%. Pour cette distribution, nous
avons, en moyenne, un Taux de Vraie Culture de 80,1% pour un Taux de Vraie Adventice de 94,25%
(a)
(b)
(c)
96
95.5
96
15
5
95
80
95
55
95
55
94
40
94
35
50
60
TVA
TVA
94
70
45
15
93
75
65
70
93
30
35
55
60
40
5025
15
75
20
92
10
45
60
50
20
TVA
10
94.5
45
25
30 35
5
92
65
40
30
25
5
70
91
93.5
20
91
90
65
93
90
80
89
5
10
15
20
25
30
35
40
45
80
10
75
92.5
50
89
TFA
0
10
20
30
40
TFA
50
60
70
80
88
10
15
20
25
30
TFA
35
40
45
50
F IG . 4.47 – Représentation des graphiques ROC pour une distribution d’adventices de type ponctuel (a),
agrégatif (b) et mixte (c) en utilisant l’algorithme basé sur la TH.
hhhh
hhhType de distribution
hhhh
Ponctuel
hhh
Taux en %
hh
h
AC
TFA
TVC
TVA
TFC
86,4
19,2
80,1
94,2
5,7
Agrégatif
Mixte
85,2
22,5
77,4
92,9
7
84,4
21,6
78,4
92,8
7,1
TAB . 4.25 – Erreur commise sur la détection de la classe ”culture” et de la classe ”adventice” pour la base de
données No 1 en utilisant l’algorithme basé sur la TH.
4.9.5.2
Images réelles
Nous avons testé cet algorithme avec des images réelles. La figure 4.48.a représente l’image No 2 discriminée. Elle est issue de la base de données d’images réelles (figure 4.17.c). A partir de cette image, nous
remarquons un problème de détection sur la culture sur les coins haut gauche et droite de l’image comme pour
dans le cas d’images simulées. Mais il apparaı̂t aussi un problème de détection sur certaines lignes de semis.
Nous pouvons également remarquer qu’une tache d’adventices ayant une partie commune avec de la culture est
considérée à tort comme de la culture, ceci provient de l’étiquetage de l’image par la méthode de blob-coloring.
En effet cette tache d’adventices a la même étiquette que la culture détectée avec la transformée de Hough.
Les figures 4.48.b et 4.48.c démontrent que cet algorithme classifie très mal la culture avec une moyenne sur le
pourcentage de Fausse Culture égale à 42,4% alors que le pourcentage de Fausse Adventice est de 5,3%. Finalement le graphique ROC présenté figure 4.48.d démontre l’incapacité de l’algorithme à classifier la culture et les
adventices. En effet, nous pouvons voir pour la plupart des points (en haut du graphe) que nous avons un Taux
de Vraie Adventice excellent pour un Taux de Fausse Adventice énorme. Cela implique que le plus souvent,
la classe ”culture” est très mal détectée. Ceci est confirmé par le tableau 4.27 qui présente une proportion du
nombre de prévisions correctes de 52,2% avec un Taux de Vraie Adventice de 82,3% pour un Taux de Vraie
Culture de 46,7%.
123
Chapitre 4. Algorithmes spatiaux
(a)
(b)
(c)
(d)
100
3
1
5
6
9
90
4
7
80
2
TVA
70
60
50
40
10
8
30
0
10
20
30
40
50
TFA
60
70
80
90
100
F IG . 4.48 – (a)Illustration d’une image discriminée. (b)Représentation des Taux de Culture et d’Adventice
détectés en fonction du Taux d’Infestation initial. (c)Représentation du pourcentage, de Vraie Adventice (%VA)
et de Vraie Culture (%VC) détectés en fonction du Taux d’Infestation initial. (d)Représentation du graphique
ROC. Pour des images réelles avec l’utilisation de l’algorithme basé sur la TH.
hhhh
hhh Type de distribution
hhhh
Réel
hhhh
Erreur en %
h
h
Culture
Adventice
42,4
5,3
TAB . 4.26 – Moyenne des %FC soit l’erreur commise sur la classe ”culture” et %FA, l’erreur commise sur la
classe ”adventice” en utilisant l’algorithme basé sur la TH avec des images réelles.
hhh
hhhhType de distribution
hhhh
Réel
hhh
Taux en %
hh
h
AC
TFA
TVC
TVA
TFC
52,2
53,2
46,7
82,3
17,6
TAB . 4.27 – Erreur commise sur la détection de la classe ”culture” et de la classe ”adventice” pour la base de
données No 3 en utilisant l’algorithme basé sur la TH.
124
4.9
Résultats et Discussion
4.9.6 Bilan
Nous venons de voir précédemment les performances de classification de chaque algorithme étudié. D’une
façon générale, il apparaı̂t que les résultats obtenus pour chaque algorithme sont de meilleure qualité avec les
images simulées et pour une distribution d’adventices de type ponctuel. Nous avons décidé pour cette synthèse
de représenter, les pourcentages de Vraie Adventice et de Vraie Culture en fonction du Taux d’Infestation
initial pour chaque type d’algorithme sur une même figure afin de faire un comparatif général et ceci pour les 3
bases de données existantes. Pour les bases de données d’images simulées No 1 (f=16mm) et No 2 (f=8,5mm),
nous représenterons seulement le type de distribution ponctuel.
(a)
(b)
90
90
80
80
70
70
60
60
%VA et %VC
100
%VA et %VC
100
50
40
50
40
30
30
20
20
10
10
0
0
−10
0
10
20
30
TIinit
40
−10
50
(c)
0
10
20
30
TIinit
40
50
60
(d)
100
90
80
70
%VA et %VC
60
50
40
30
20
10
0
−10
0
5
10
15
20
TIinit
25
30
35
40
F IG . 4.49 – Représentation des pourcentages, de Vraie Adventice (%VA) et de Vraie Culture (%VC) détectés
en fonction du Taux d’Infestation initial pour une distribution d’adventices de type ponctuel avec les différents
algorithmes étudiés pour les bases de données simulées No 1 (a) et No 2 (b) et de données réelles No 3 (c).
La figure 4.49.d, présente la légende des graphes avec :
–
–
–
–
–
–
VA, Vraie Adventice,
VC, Vraie Culture,
TF, algorithme utilisant la Transformée de Fourier,
TF redresse, algorithme utilisant la Transformée de Fourier avec des images ayant été redressées,
TFG, algorithme utilisant la Transformée de Fourier à Fenêtre Glissante,
TO, algorithme utilisant la Transformée en Ondelette avec une ondelette de Daubechies d’ordre 25,
125
Chapitre 4. Algorithmes spatiaux
– TO redresse, algorithme utilisant la Transformée en Ondelette avec une ondelette de Daubechies d’ordre
25 et des images redressées,
– TH, algorithme utilisant la Transformée de Hough.
Les représentations sur les figures 4.49.a et 4.49.b démontrent que pour deux systèmes optiques différents,
les algorithmes se comportent de la même manière. En effet nous nous apercevons que les méthodes basées
sur la transformée de Fourier permettent une bonne détection de la classe ”culture” et une mauvaise de la
classe ”adventice”, nous effectuons donc une ”sur-détection” de la classe ”culture”. En revanche, les autres
algorithmes permettent une bonne détection de la classe ”adventice” et de la classe ”culture”, avec une moins
bonne détection de cette dernière pour l’algorithme utilisant la transformée de Hough. Les algorithmes les plus
performants sont ceux utilisant la transformée en ondelette. Utiliser des images redressées avec cet algorithme
donnerait donc la meilleure discrimination culture/adventice.
Cependant, cet algorithme ”sur-détecte” la classe ”adventice”. La figure 4.49.c permet de conclure que les
résultats obtenus avec des images simulées ne correspondent pas exactement à la réalité surtout avec l’utilisation de la transformée de Hough. Mais l’utilisation d’une analyse multirésolution basée sur la transformée
en ondelette avec une ondelette de Daubechies d’ordre 25 présente la meilleure classification sur des images
agronomiques réelles. La figure 4.50 présente, les graphiques ROC des trois bases de données. Pour les bases
de données d’images simulées No 1 et No 2, nous représenterons seulement les graphes obtenus avec l’utilisation d’une distribution d’adventices de type ponctuel car cette dernière permet une meilleure classification
culture/adventice.
(a)
(b)
0.95
0.9
0.9
0.8
0.85
0.7
TVA
TVA
0.8
0.6
0.75
0.7
0.5
0.65
0.4
0.6
0.3
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
TFA
0.05
0.1
0.15
0.2
0.25
0.3
TFA
(c)
(d)
1
0.9
0.8
0.7
TVA
0.6
0.5
0.4
0.3
0.2
0.1
0.1
0.2
0.3
0.4
0.5
TFA
0.6
0.7
0.8
0.9
F IG . 4.50 – Représentation des graphiques ROC, pour une distribution d’adventices de type ponctuel pour les
bases de données simulées No 1 (a) et No 2 (b) et de données réelles No 3 (c).
Les figures 4.50.a et 4.50.b démontrent bien que quel que soit le système optique utilisé, nous obtenons sensible126
4.9
Résultats et Discussion
ment les mêmes résultats, exception faite pour l’algorithme utilisant la transformée en ondelette. En effet, nous
remarquons que pour la base de données No 2, redresser les images donne de moins bons résultats alors que ce
n’est pas le cas pour la base de donnée No 1. A partir de ces graphes, nous pouvons conclure que nous avons
une bonne localisation de la culture lorsqu’un algorithme basé sur la transformée de Fourier est utilisé, surtout
avec l’utilisation d’image redressée ou de la transformée de Fourier à fenêtre glissante. Globalement, l’utilisation de l’algorithme basé sur la transformée de Fourier et le filtre de Gabor présente de meilleurs résultats
qu’en redressant les images ou en utilisant un fenêtrage. L’utilisation de la transformée de Hough permet une
bonne localisation des adventices mais pas de la culture. Finalement, le résultat optimum pour la classification
est obtenu avec l’utilisation de l’algorithme basé sur la transformée en ondelette avec une ondelette de Daubechies d’ordre 25. La figure 4.50.c confirme ces résultats sur des images agronomiques réelles. Finalement, les
tableaux 4.28, 4.29 et 4.30 présentent respectivement les moyennes de : la proportion du nombre de prévisions
correctes AC, le Taux de Fausse Adventice T FA, le Taux de Vraie Culture TVC, le Taux de Vraie Adventice
TVA et le Taux de Fausse Culture T FC pour chaque type d’algorithme utilisé et pour chaque base de données.
hhh
hhhh Type d’algorithme
hhh
TF
hhhh
Taux en %
hh
h
AC
TFA
TVC
TVA
TFC
87,6
2,9
97
65,2
34,7
TF redresse
TFG
TO
TO redresse
TH
88
0,4
99,6
62
38
87,5
1,6
98,3
62,6
37,4
91,8
9
91
92,5
7,5
94,8
4,3
95,6
92,3
7,6
86,3
19,2
80,1
94,2
5,7
TAB . 4.28 – Synthèse de chaque algorithme testé avec la base de données d’images simulées No 1 avec une
distribution d’adventices de type ponctuel.
hhhh
hhh Type d’algorithme
hhhh
TF
hhh
Taux en %
hh
h
AC
TFA
TVC
TVA
TFC
85,5
4,9
95,1
64,1
35,9
TF redresse
TFG
TO
TO redresse
TH
85
3
97
59,1
40,8
86
2,5
97,5
60,9
39,1
94
5,8
94,2
92,5
7,4
92,9
6,3
93,6
90,2
9,7
86,4
16
84
89,6
10,3
TAB . 4.29 – Synthèse de chaque algorithme testé avec la base de données d’images simulées No 2 avec une
distribution d’adventices de type ponctuel.
hhhh
hhh Type d’algorithme
hhhh
TF
hhhh
Taux en %
h
h
AC
TFA
TVC
TVA
TFC
78,1
6,4
93,5
32,1
67,9
TF redresse
TFG
TO
TO redresse
TH
83
3,7
96,2
39,3
60,8
82
3,3
96,6
37,4
62,6
80,4
18,7
81,2
77
23
79
18,5
81,5
69,6
30,4
52,2
53,2
46,7
82,3
17,7
TAB . 4.30 – Synthèse de chaque algorithme testé avec la base de données d’images réelles (No 3).
127
Chapitre 4. Algorithmes spatiaux
4.9.7 Réflexion générale sur l’imagerie pour la lutte contre les adventices
Les algorithmes basés sur la transformée de Fourier nécessitent des images de taille en puissance de deux
(2n ) afin que l’algorithme soit le plus efficace. Si nous voulons traiter des images avec la taille originale de
l’image, dans notre cas 1598 × 1199. Les autres algorithmes peuvent traiter directement l’image dans sa taille
d’origine. Les algorithmes spatiaux sont incapables de détecter des adventices dans le rang alors que les algorithmes spectraux le peuvent. Il serait donc intéressant d’envisager une fusion des méthodes spectrales et spatiales afin d’avoir des algorithmes plus robustes. Mais nous avons vu qu’une caméra multispectrale nécessite
une roue de filtres ce qui rend le temps réel difficile. Une alternative à ce problème est d’utiliser des miroirs
fixés sur une seule caméra afin de faire de la stéréo vision en utilisant deux filtres différents pour avoir deux
images identiques mais issues de longueurs d’onde différentes. Notre laboratoire a étudié la faisabilité d’un tel
système, il en résulte que ce système semble réalisable (Gée et al., 2008).
Dans ces conditions, lors de la réalisation du prototype, nous nous sommes restreints aux algorithmes
spatiaux.
4.10 Conclusion
A travers ce chapitre, nous avons exposé et expliqué tous les algorithmes de classification basés sur une
approche spatiale élaborés durant ces travaux de thèse puis nous avons exposé l’ensemble des résultats de
classification obtenus pour les différents algorithmes étudiés afin d’en définir les avantages et les inconvénients.
Les algorithmes basés sur la transformée de Fourier permettent une bonne localisation de la culture et une moins
bonne des adventices. Le fait que nous ayons une faible reconnaissance de l’ordre de 50% des adventices est la
conséquence d’une ”sur-détection” de la culture. Cette ”sur-détection” s’explique par une mauvaise binarisation
des images originales et du résultat du filtrage. Le rendu de cette binarisation par clustering ne donne pas
exactement la classe culture initiale. Il est possible d’améliorer la classification à partir du résultat du filtrage
en utilisant une classification Bayésienne. Si nous arrivons à avoir une meilleure détection de la culture, c’està-dire sans ”sur-détection”, les trois algorithmes utilisant la transformée de Fourier seraient ainsi plus robustes.
Pour ce qui concerne les algorithmes basés sur l’utilisation d’une analyse multi-résolution, nous avons une très
bonne détection des adventices et une erreur de détection sur la culture, malgré tout, très faible. Ici, à l’inverse de
l’utilisation de la transformée de Fourier, nous avons une ”sur-détection” des adventices, nous pourrions, pour
résoudre ce problème, envisager aussi une approche Bayésienne pour affiner la classification de la culture et
des adventices. Il pourrait être aussi envisageable de tester l’algorithme basé sur l’analyse multirésolution avec
d’autre types d’ondelettes, par exemple des ondelettes de Daubechies avec un ordre supérieur à 25. L’algorithme
basé sur la transformée de Hough permet une très bonne localisation des adventices. La détection de la culture
est biaisée surtout avec la non détection de certaines lignes de culture. Par contre, dans le cas d’images réelles,
cet algorithme est incapable de détecter les deux classes, ”culture” et ”adventice”. Nous devrions optimiser cet
algorithme en privilégiant une meilleure détection des lignes de semis et de la culture en général, un algorithme
de ce type a été optimisé avec succès dans notre laboratoire par Jones et al (Jones et al., 2007b).
Pour poursuivre notre étude sur le développement d’un pulvérisateur par imagerie en temps réel, nous avons
opté pour l’utilisation d’un filtre de Gabor du fait de sa mise en œuvre simple et de ses temps de calcul cours.
128
Chapitre 5
Mise en œuvre du prototype réalisé
Sommaire
5.1
5.2
5.3
5.4
5.5
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Premiers tests de gestion des électrovannes pneumatiques . . . . . . . . . . . . . . . . .
Premiers tests sur l’algorithme basé sur la transformée de Fourier et du filtre de Gabor
Poursuite de l’étude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
129
129
130
133
133
5.1 Introduction
Au cours des précédents chapitres, nous avons étudié indépendamment les uns des autres, les principaux
éléments du futur prototype : de la prise d’images à l’extraction des temps de déclenchement et d’ouverture
des électrovannes pneumatiques à partir d’un algorithme de discrimination culture/adventices judicieusement
choisi.
A travers ce chapitre, l’ensemble de ces techniques vont être réunies pour permettre la réalisation du prototype de pulvérisation localisée par imagerie. Différentes étapes de test sont présentées. Elles ont pour but de
cibler rapidement les éventuels problèmes.
A l’issue de ces tests, nous conclurons sur la faisabilité d’un tel système pour une éventuelle commercialisation. Ces résultats ont été présentés dans différentes conférences, accompagnées de vidéo.
5.2 Premiers tests de gestion des électrovannes pneumatiques
Dans un premier temps, afin de tester le déclenchement automatique des buses, nous avons travaillé sur le
parking de notre établissement en disposant des objets de couleur blanche, qui ont pour but de modéliser une
tache de végétation. Le choix de couleur a pour but de simplifier la procédure de binarisation pour discriminer
le sol de la végétation (blanc). Nous avons utilisé comme paramètres optique initiaux, une hauteur de caméra de
1,06 mètres, un angle de lacet nul et un angle de tangage à 58˚ et nous avons utilisé une focale de 8,5mm. Dans
ces conditions, et comme le sol est considéré comme plat, il n’est pas nécessaire de faire une autocalibration des
paramètres extrinsèques de la caméra. Avec ces paramètres, la scène filmée correspond à un trapèze de hauteur
égale à 3,11 mètres avec une petite base de 1,10 mètres et ayant pour grande base 3,29 mètres. La dimension
de la scène implique qu’au maximum, seul les quatre buses centrales seront utilisables. Afin de détecter ces
objets blancs, sur le sol gris, nous avons effectué un simple seuillage afin de ne récupérer que les objets blancs
de l’image représentant donc la carte d’infestation. Puis comme expliqué au chapitre 2.3.3.4, une table de
chronogrammes des électrovannes pneumatiques a été réalisée. Pour ce test, la vitesse du tracteur (position
tortue 1) variait entre 1,5 km/h et 2 km/h. Comme le montre la figure 5.1, le prototype pulvérise bien sur les
objets. Un autre essai a été réalisé pour une vitesse plus élevée (en tortue 2) variant de 4,8 à 5,3 km/h, et les
résultats sont tout aussi probants. Le seul problème rencontré à cette vitesse est la prise de mesures de vitesse
129
Chapitre 5. Mise en œuvre du prototype réalisé
avec le capteur ILS qui parfois donne des valeurs erronées. Donc, cela soulève un problème sur le capteur de
vitesse utilisé qui peut être la conséquence d’un problème électronique ou autre mais qui n’a pas encore été
résolu.
(a)
(b)
(c)
F IG . 5.1 – (a)Cible avant traitement. (b)Cible après traitement. (c)Plusieurs cibles traitées après passage du
prototype.
5.3 Premiers tests sur l’algorithme basé sur la transformée de Fourier et du
filtre de Gabor
Maintenant que nous avons démontré la faisabilité de fonctionnement du prototype pour le déclenchement
automatique des buses, nous avons implémenté un algorithme de discrimination de culture/adventices dans le
prototype. L’algorithme le plus facile à mettre en œuvre pour le temps réel, est l’algorithme basé sur le filtre de
Gabor. Dans ces conditions, sachant que pour ce type d’algorithme, la taille de l’image doit être une puissance
de deux, nous avons utilisé une image de taille 1024 × 1024 soit une scène filmée avec un trapèze de hauteur
égale à 2,43 mètres, une petite base de 0,708 mètres et une grande base de 1,64 mètres.
Afin de tester le prototype, nous avons modélisé une scène agronomique sur le parking de notre
établissement. Nous avons représenté une partie d’un champ de blé dont les lignes de culture (réalisées avec
de l’adhésif blanc) ont une largeur de cinq centimètres et un inter-rang d’environ seize centimètres. Puis nous
avons positionné différentes adventices (morceaux de papier) dans la scène comme montré sur la figure 5.2.a.
(a)
(b)
(c)
F IG . 5.2 – (a) Modélisation d’une culture de blé réalisée avec de l’adhésif blanc. (b) Représentation d’une
image acquise et seuillée de ce champ de taille 1024 × 1024. (c) Discrimination de la culture (couleur verte)
des adventices (couleur rouge), la couleur noire représente le sol.
130
5.3
Premiers tests sur l’algorithme basé sur la transformée de Fourier et du filtre de Gabor
Les quelques essais réalisés ont été très concluants en montrant que le déclenchement des EVP est bien réalisé
uniquement sur les taches d’adventices quelle que soit la vitesse d’avancement du tracteur. Cependant, nous
savons (chapitre 4) que l’algorithme utilisant le filtre de Gabor montre quelques faiblesses concernant la discrimination culture/adventices surtout pour le traitement du haut de l’image.
Le tableau 5.1 présente les différents temps d’exécution de chaque étape du programme.
Étape de traitement d’image
Acquisition d’image
Filtrage
Binarisation
Discrimination culture/adventice
Blob coloring
Création des chronogrammes des EVP
Temps total moyen
Temps d’exécution (ms)
1/120=8,33
284
63
25
39
18
437,32
Pourcentage du temps total (%)
1,90
64,94
14,40
5,72
8,92
4,11
100
TAB . 5.1 – Différents temps d’exécution des différentes parties du programme de discrimination de l’acquisition
d’image à la création de la table des chronogrammes des EVP.
Parmi ces temps, nous avons défini :
1. la durée de l’acquisition d’image. Ce temps dépend en fait du temps d’intégration de la caméra pour
permettre la prise d’image, lors de nos essais et de manière générale, ce temps est de 1/120 seconde, soit
environ 8,33ms,
2. le temps pour la partie filtrage de l’image comprend le calcul de la transformée de Fourier de l’image
acquise, la création du filtre de Gabor dans le domaine fréquentiel, le produit de ces deux entités donnant
le résultat du filtrage puis la transformée de Fourier inverse de ce résultat, soit un temps d’exécution de
284ms dont 254 ms sont nécessaires pour créer le filtre d’une taille de 1024 × 1024,
3. le temps de la binarisation comprend la binarisation de l’image originale (seuillage blanc/noir) dont nous
pouvons voir un exemple de résultat figure 5.2.b et de l’image résultante du filtrage soit une durée de
63ms,
4. le temps concernant la discrimination culture/adventices. Ce temps inclut le temps nééssaire au ET logique entre l’image acquise binarisée et le négatif du résultat de l’étape précédente. Cette étape dure
25ms. Au passage un exemple de ce résultat est présenté sur la figure 5.2.c. Il est à noter que nous retrouvons sur cette image les problèmes énoncés dans la section 4.9 à savoir une mauvaise détection sur le
haut de l’image et, le fait que les adventices doivent être situées le plus possible au centre de l’intervalle
séparant deux lignes de semis,
5. le temps pour la réalisation du blob-coloring qui correspond à l’étiquetage de la carte d’infestation obtenue dans l’étape précédente, soit une durée de 39ms. Ce temps est une valeur moyenne et peut varier
suivant le nombre de pixels ayant une amplitude différente de zéro. En effet une valeur de un conduit à
un calcul contrairement à une valeur nulle,
6. le temps pour la création des chronogrammes des EVP. Comme son nom l’indique, c’est le temps
nécessaire pour créer les chronogrammes des EVP à partir du résultat précédent, soit 18ms.
L’algorithme nécessite donc un temps de calcul de 437,33 ms à partir de l’acquisition de l’image jusqu’à la
création des chronogrammes des électrovannes pneumatiques. Nous pouvons remarquer que c’est la création
du filtre qui réquisitionne le plus de temps avec 254ms soit environ 58,1% du temps total.
Il est à noter que lors de cette procédure, les temps d’autocalibration de la caméra n’ont pas été pris en
compte puisque les essais ont été réalisés sur sol plat.
La vitesse de pulvérisation en France est d’environ 10 km/h (environ 2,77 m/s), et sachant que la réalisation
des chronogrammes doit être effectuée avant chaque nouvelle prise d’image, c’est-à-dire avant que le tracteur
131
Chapitre 5. Mise en œuvre du prototype réalisé
ait parcouru 2,43 mètres, nous pouvons définir le temps t à ne pas dépasser pour l’exécution du programme,
2, 43
≃ 875ms. Ainsi, ce temps étant supérieur au temps d’exécution du programme, nous pouvons donc
soit
2, 77
admettre que notre prototype peut pulvériser à 10km/h avec une certaine marge de sécurité pour intégrer
d’éventuelles fonctions plus sophistiquées pour améliorer la détection (implémentation d’autres algorithmes ou
autocalibration). Il faut également faire attention à cette vitesse car elle dépend non seulement des paramètres
intrinsèques mais aussi des paramètres extrinsèques du système optique.
F IG . 5.3 – Résultat de la pulvérisation du prototype fonctionnant avec un algorithme de discrimination basé sur
le filtre de Gabor. La vitesse du tracteur varie actuellement entre 1,5 et 2 km/h.
La figure 5.3 présente un exemple de notre prototype pulvérisant sur les adventices. Nous nous apercevons
également que les taches de pulvérisation sont présentes le plus souvent aux endroits où les adventices sont
placées et rarement ailleurs. Nous pouvons remarquer que les taches de pulvérisation sont larges, cela dépendant
du type de buses utilisées. Le point négatif avec l’algorithme implémenté est que les problèmes de discrimination culture/adventices se répercutent sur le motif de pulvérisation. En effet la mauvaise détection sur le haut des
images traitées déclenche une pulvérisation alors qu’aucune adventice est présente dans la scène. Mais après
les premiers essais, nous pouvons conclure que le prototype se comporte, dans son ensemble, correctement sur
sol plat. Cette étape de test a permis de comprendre qu’en absence d’adventices, une pulvérisation est parfois
réalisée à cause d’une erreur de détection produite par le traitement d’image utilisé.
A partir des expériences présentées ci-dessus, nous pouvons admettre que notre prototype permet en temps
réel, et à la vitesse nominale de pulvérisation française, d’acquérir une scène et de la traiter afin de pouvoir pulvériser au bon moment et au bon endroit la bonne dose d’herbicide en présence d’adventices. Ces
expériences permettent aussi d’affirmer que la vitesse théorique maximale de notre pulvérisateur est estimée à
20km/h pour les paramètres du système optique suivant : une focale de 8,5mm, un angle de tangage de 58˚ et
une hauteur de caméra de 1,06m.
Maintenant que les premiers tests ont été validés avec succès, nous devons tester ce prototype en conditions
132
5.4
Poursuite de l’étude
réelles, c’est-à-dire sur de vraies parcelles cultivées.
5.4 Poursuite de l’étude
Pour les prochains essais en champ, il deviendra nécessaire d’implémenter la méthode d’autocalibration
des paramètres extrinsèques pour connaı̂tre la position du système optique dans l’espace monde à chaque prise
d’image. En effet dans ces conditions de travail, le sol est rarement plat et présente le plus souvent des dévers.
D’autre part, il serait intéressant d’implémenter les autres algorithmes afin de valider leur fonctionnement en temps réel si cela est possible et de choisir celui donnant le meilleur compromis classification
et temps de traitement afin d’avoir un prototype optimum. Dans ces conditions, nous pourrions faire une
étude économique et environnementale de notre système afin de le comparer aux systèmes de désherbage
localisé existant comme nous avons pu le voir dans le chapitre 1. Nous devons être capables pour la suite
soit d’optimiser le code du logiciel de commande de notre pulvérisateur afin de diminuer les temps de
traitement soit d’utiliser un processeur plus puissant. Le mieux serait d’utiliser un processeur double cœur
afin que chacun puisse effectuer une des taches présentées dans le chapitre 2 afin d’avoir du ”vrai parallélisme”.
Notre établissement va bientôt acquérir un nouveau tracteur avec un ordinateur de bord et un régulateur de
vitesse. La régulation de vitesse nous permettrait de ne plus utiliser de capteur de vitesse et d’alléger aussi bien
le code du logiciel de fonctionnement du prototype et le code commandant la carte de contrôle faisant le lien
entre le système de vision et les actionneurs. Il serait intéressant d’envisager l’interfaçage entre l’ordinateur du
prototype et l’ordinateur de bord de ce nouveau tracteur.
5.5 Conclusion
Ce chapitre a permis de présenter la mise en œuvre l’ensemble du prototype et de le tester dans un premier
temps sur un sol plat et uniforme. Lors de cette étude, deux tests ont été réalisés, l’un permettant de vérifier
la bonne gestion des EVP, l’autre de tester l’algorithme du filtre de Gabor implémenté en temps réel pour
une discrimination culture/adventices. Lors de ce deuxième test, il a pu être mis en évidence que l’algorithme
utilisé semble être limité pour cette discrimination sur la partie haute des images. Ceci est dû au fait que l’image
présente une perspective trop prononcée. La dernière étape de validation de ce prototype est de le tester en temps
réel sur des parcelles cultivées et de vérifier que la pulvérisation d’herbicides est bien efficace.
133
Chapitre 5. Mise en œuvre du prototype réalisé
134
Conclusion générale
L’utilisation de l’imagerie comme outil d’aide à la décision pour un désherbage chimique localisé en temps
réel est un sujet encore peu exploité. A travers cette thèse, nous avons montré tous les avantages qu’il y avait
à exploiter cet outil notamment pour la réduction des traitements herbicides tout en préservant une efficacité
totale concernant non seulement le désherbage mais aussi concernant la réduction des coûts pour l’agriculteur.
En effet, ce type de prototype permettrait de respecter la nouvelle législation européenne qui est de plus en plus
sévère en ce qui concerne les doses d’intrants à déposer sur la parcelle cultivée.
Les éléments apportés au cours de cette thèse ont permis d’explorer (ou de réexplorer) différentes méthodes
de discrimination entre la culture et les adventices et par ce biais, de dégager une méthode d’imagerie pour la
réalisation d’un système de vision pour une pulvérisation spécifique en temps réel.
Le prototype ainsi développé a été conçu dans le but d’être adaptable à n’importe quel type de tracteur et
quelque soit le système de vision utilisé. Au cours du chapitre 2, nous avons longuement présenté la conception
et réalisation de ce prototype en discutant le choix des techniques pour permettre au système d’être le plus
universel possible comme par exemple, le choix de l’orientation de la caméra. D’autre part, l’utilisation d’un
pulvérisateur régulé en pression et utilisant des électrovannes pneumatiques (EVP) s’avère être le meilleur
choix pour maintenir le débit en sortie des buses quelque soit le nombre de buses qui s’ouvrent en temps réel.
En revanche, une étude détaillée devrait être conduite pour étudier le temps de réponse d’une EVP et vérifier
que le temps nécessaire pour atteindre un régime permanent est suffisamment rapide.
Au cours de cette thèse, nous avons pu choisir de façon délibérée le type d’algorithme de discrimination culture/adventices que nous souhaitions implémenter en temps réel au moyen de l’utilisation d’images
modélisées. Cette méthode nous a permis de tester quatre algorithmes dont l’utilisation de la transformée de
Fourier couplé avec un filtre de Gabor testée sur des images présentant une vue de perspective et sur des images
redressées. Ces mêmes images ont été étudiées avec un algorithme basé sur la transformée en ondelette. Les
deux derniers algorithmes étudiés ne s’appliquent que sur des images présentant une vue de perspective avec
l’utilisation de la transformée de Fourier à fenêtre glissante et la transformée de Hough. Pour chaque algorithme, nous avons étudié au moyen de matrices de confusion leur capacité à bien classer les pixels d’une
image selon la classe ”culture” ou la classe ”adventice” en comparant les résultats de cette classification aux
données initiales (nombre de pixels de culture/adventices initiaux parfaitement contrôlés). Cette étude a été
conduite en modélisant des images prises par deux systèmes optiques différents ( f = 16mm et ϕ = 68˚ dans
un cas et f = 8, 5mm et ϕ = 56˚ dans l’autre cas). Enfin, la constitution d’une petite base de données d’images
réelles a permis de valider l’ensemble des résultats obtenus sur les images synthétisées. Seul l’algorithme basé
sur la transformée de Fourier engendre une ”sur-détection” de la culture. Mais cette méthode a été sélectionnée
pour être implémentée en temps réel. Elle représente en effet, un bon compromis entre temps de calcul et
discrimination.
Cependant, ces méthodes, dites de discrimination spatiale, ne permettent pas d’envisager d’identifier une
adventice au sein d’un rang de culture. C’est pourquoi l’approche spectrale a été envisagée afin de voir le potentiel de cette méthode. Un premier travail a été conduit en laboratoire puis en champ à l’aide d’un spectromètre
afin, d’identifier une plante à l’aide de sa signature spectrale (réflectance). Autant la séparation entre la classe
”monocotylédone” et celle de ”dicotylédone” semble aisée, autant identifier une espèce à partir de son spectre
de réflectance semble encore une opération ambitieuse en particulier si elle est menée au champ.
L’utilisation d’un filtre infra-rouge fixé devant la caméra, devrait suffire dans un premier temps à facilement
discriminer la végétation du sol. Quant à utiliser une roue à filtres embarquée sur un tracteur, cela semble encore
ambitieux. Sachant que seule l’information contenue dans le domaine des longueurs d’onde situées dans le vert
135
Conclusion générale
(550nm) et dans celui de l’infra-rouge est intéressante pour l’étude des végétaux, il pourrait être envisageable
de développer un système catadioptrique bi-spectral.
Le prototype, dans sa plus simple expression, c’est-à-dire sans l’utilisation d’une analyse spectrale est,
actuellement opérationnel et les premiers essais ont été réalisés sur sol plat. Non seulement la gestion des EVP
s’est avérée opérationnelle mais aussi l’utilisation de l’algorithme utilisant la transformée de Fourier et un filtre
de Gabor, pour séparer la culture des adventices au sein d’une image afin de ne pulvériser que sur les adventices,
semble donner des résultats satisfaisants.
La poursuite du travail sera dans un premier temps de prendre en compte les effets d’un sol accidenté
comme celui d’une parcelle cultivée. Pour ce faire, un algorithme d’auto-calibration de la caméra en temps réel
a été spécialement développé (chapitre 2.4.3). Puis dans un second temps, il faudra tester ce prototype sur une
parcelle cultivée afin de suivre au cours du temps l’efficacité de ce désherbage chimique localisé.
Enfin par la suite, il serait tout à fait envisageable pour chaque image analysée d’enregistrer le nombre de
pixels de culture et d’adventices ainsi que le Taux d’Infestation d’Adventices ce qui permettrait de réaliser avec
ou sans la présence d’un GPS, une carte d’infestation de chaque image puis de la parcelle étudiée. Un taux
d’infestation pour une image (représentant au sol une surface de 2m2 ) constituerait une information de haute
résolution face à la dimension de la parcelle (plusieurs hectares).
136
Perspectives
Actuellement, les algorithmes testés sur des images pour la discrimination culture/adventices sont uniquement basés sur l’information spatiale des végétaux. De ce fait, nous nous sommes attachés à détecter uniquement les mauvaises herbes localisées dans l’inter-rang. Pour poursuivre le développement de ces algorithmes,
notamment sur l’utilisation de l’information spectrale pour discriminer la culture des mauvaises herbes situées
dans l’intra-rang, il faudrait poursuivre la modélisation d’images agronomiques déjà initiée en y insérant la
notion de couleur. Ainsi, grâce à cette information spectrale, il sera envisageable de développer des algorithmes
utilisant non seulement l’information spatiale mais également spectrale. Par la suite un système utilisant des
filtres pourrait être implémenté sur le prototype de pulvérisation localisé.
Cette première approche permettant, en temps réel, de contrôler un outil agricole par imagerie semble très
prometteuse. Certes, de nombreux tests doivent encore être réalisés notamment sur des parcelles cultivées.
Cependant, ce travail ouvre de nouvelles perspectives en terme de gestion spatialisée. En effet, il pourrait
être envisageable de contrôler en temps réel d’autres types d’outils tels que les outils de travail du sol ou de
désherbage mécanique (par exemple : herses à étrilles).
Cependant, il faut garder en mémoire que le champ de vision de la caméra est très petit, ce qui ne permet
de piloter que quelques buses de la rampe d’un pulvérisateur. Ainsi donc, le passage de l’étape ”prototype” à
l’étape de commercialisation nécessite une réflexion plus approfondie sur la position de la caméra pour avoir
un plus grand champ de vision tout en conservant une haute définition de l’image. Une autre approche serait
également d’envisager d’utiliser deux ou plusieurs caméras afin de gérer un champ de vision de la taille d’une
rampe de pulvérisation. Chaque caméra ayant la gestion d’une partie de cette rampe. Enfin, il faut préciser
que ce prototype est unique puisqu’il est le seul à pouvoir travailler à des cadences élevées (vitesse du tracteur supérieur à 2 km/h) contrairement à tous les systèmes actuellement développés par les autres équipes de
recherche.
La tendance actuelle repose de plus en plus sur l’électronique embarquée permettant soit de simplifier les
différentes tâches de l’agriculteur soit de réaliser une prise de données géo-référencées pour permettre une
traçabilité de l’information ou une meilleure prise en compte des hétérogénéités intraparcellaires. Comme le
précise M. Berducat (Berducat, 2007), il semblerait que l’évolution des agroéquipements s’oriente soit vers :
– l’utilisation de machines de plus en plus grosses et performantes (par exemple, une charrue de plus de 14
corps, rampe de pulvérisateur de plus de 32 m...),
– le développement de robots autonomes pour une intervention intra-parcellaire avec par exemple l’utilisation d’un robot chien de troupeau développé par Lelly (Lelly, 2007),
– la coopération de machines de taille moyenne.
Une nouvelle voie peut être envisagée avec des systèmes tels que celui développé au laboratoire car son atout
principal est de pouvoir s’intégrer directement sur une machine agricole ce qui permet ainsi à l’agriculteur
d’être au plus près de ses champs en conduisant son tracteur, tout en observant en temps réel la réalisation
des tâches. D’autre part, l’avantage d’un tel système est que non seulement il travaille en temps réel de façon
autonome mais aussi, il permet d’enregistrer des données (par exemple, un taux d’infestation par image
acquise) permettant de réaliser la cartographie des données connaissant :
1. l’ordre dans lequel les données ont été enregistrées,
137
Perspectives
2. le parcours suivi par le tracteur au sein de la parcelle.
Avec un tel système, il serait donc envisageable d’obtenir des informations géoréférencées, non pas dans l’absolu mais par rapport à la parcelle elle-même.
138
Bibliographie
Å STRAND, B. et BAERVELDT, A.-J. (1999). Robust tracking of plant rows using machine vision. In the sixth
international conference on mechatronics and machine vision in practice, pages 95–101, Ankara, Turkey.
Å STRAND, B. et BAERVELDT, A.-J. (2002). An agricultural mobile robot with vision based perception for
mechanical weed control. Autonomous Robots, 13:21–35.
Å STRAND, B. et BAERVELDT, A.-J. (2003). A mobile robot for mechanical weed control. International
Sugar Journal, 105(1250):89–95.
Å STRAND, B. et BAERVELDT, A.-J. (2005). A vision based row-following system for agricultural field machinery. Mechatronics, 15:251–269.
A LTERNATIVES E CONOMIQUES (2007). L’agriculture française et la politique agricole commune.
http ://www.alternatives-economiques.fr/prepas/2001-SC3.html.
A NTOINE, J., VANDERGHEYNST, P. et M URENZI, R. (1996). Two-dimensional directional wavelets in image
processing. International Journal of Imaging Systems and Technology, 7(3):152–165.
A NTONIADIS, A. et C ARMONA, R. (1991). Multiresolution analysis and wavelets for density estimation.
A SS ÉMAT, L., G ÉE, C., M ANSOURI, A., M ARINELLI, R. et F.M ARZANI (2007). Weed species reflectance
discrimination by multispectral imaging : a field test on seedlings. In STAFFORD, J., éditeur : 6th European
Conference on Precision Agriculture, Skiathos, Greece.
AYACHE, N. (1989). Vision Stéréoscopique et Perception Multisensorielle : Application à la robotique mobile.
Inter-Editions (MASSON). 314 pages.
BACOUR, C. (2001). Contribution à la détermination des paramètres biophysiques des couverts végétaux par
inversion de modèles de réflectance : analyses de sensibilité comparatives et configurations optimales. Thèse
de doctorat, Université de Paris 7.
BALLARD, D. H. et B ROWN, C. M. (1982). Computer Vision. Prentice Hall.
BAMOUH, A. et NACIRI, M. (1998). Désherbage chimique de la lentille : Recherche d’une stratégie efficace
et économique.
Bulletin réalisé à l’Institut Agronomique et Vétérinaire Hassan II. http ://www.vulgarisation.net/01-39.htm.
BARANOSKI, G. V. G. et ROKNE, J. G. (1997). An algorithmic reflectance and transmittance model for plant
tissue. Eurographics, 16(3).
BARANOSKI, G. V. G. et ROKNE, J. G. (2004). Light interaction with plants. A computer graphics perspective.
Horwood Publishing.
BARNES, J. D. et C ARDOSO -V ILHENA, J. (1996). Interactions between electromagnetic radiation and the
plant cuticule. Oxford : Bios Scientific Publishers, plant cuticules, an integrated functional approach édition.
BARTHELEMY, P., B OISGONTIER, D., J OUY, L. et L AJOUX, P. (1990). Choisir les outils de pulvérisation.
ITCF (Institut Technique des Céréales et des Fourrages).
BATISTA, J., A RA’ UJO, H. et A LMEIDA, A. (1998). Iterative multi–step explicit camera calibration. In
Proceeding of the 6th International Conference on Computer Vision, pages 709–714, Bombay, India.
BAYER C ROP S CIENCE (2007). Place de l’agriculture française.
http ://www.bayercropscience.fr/srt/inter/flb/show ?location.id :=1364.
139
BIBLIOGRAPHIE
B ÉNALLAL, M. (2002). Système de calibration de Caméra Localisation de forme polyédrique par vision
monoculaire. Thèse de doctorat, ÉCOLE DES MINES DE PARIS, Centre de mathématiques appliquées.
B ERDUCAT, M. (2007). Quelles innovations sur l’optimisation des trajectoires et les nouvelles fonctionnnalités des agroéquipements ? In Machine intelligentes pour une agriculture durable et compétitive. SIMA, Paris,
France.
B IJAOUI, A. (1991). Algorithmes de la transformation en ondelettes : application à l’imagerie astronomique.
In Colloque Int. ondelettes et paquets d’ondes, Rocquencourt (France).
B IJAOUI, A., S TARCK, J.-L. et M URTAGH, F. (1994). Restauration des images multi-echelles par l’Algorithme
à trous (non publié). Traitement du Signal, 11(3):229–243.
B ILLER, R. H. (1998). Reduced input of herbicides by use of optoelectronic sensors. Journal of Agricultural
Engineering Research, 71:357–362.
B ILLER, R. H., H OLLSTEIN, A. et S OMMER, C. (1997). Precision application of herbicides by use of optoelectronic sensors. In Precision Agriculture 97, pages 451–458.
B ILLINGSLEY, J. et S CHOENFISCH, M. (1997). The successful development of a vision guidance system for
agriculture. Computers and Electronics in Agriculture, 16:147–163.
B LASCO, J., A LEIXOS, N., ROGER, J. M., R ABATEL, G. et M OLT Ó, E. (2002). Robotic weed control using
machine vision. Biosystems Engineering, 83(2):149–157.
B LUM, B. J. (2004). Perspectives pratiques du contrôle biologique des adventices. In Proceedings de la 19ème
Conférence du COLUMA - Journées Internationales sur la lutte contre les Mauvaises Herbes, Dijon, France.
B OSSU, J., G ÉE, C., G UILLEMIN, J.-P. et T RUCHETET, F. (2005). Feasibility of a real-time weed detection system using spectral reflectance. In S TAFFORD, J., éditeur : Fifth European Conference on Precision
Agriculture, pages 123–130, Upsalla, Sweden.
B OSSU, J., G ÉE, C., G UILLEMIN, J.-P. et T RUCHETET, F. (2006a). Development of methods based on
double Hough transform or Gabor filtering to discriminate between crop and weed in agronomic images. In
IS&T/SPIE 18th Annual Symposium Electronic Imaging Science and Technology, volume 6070, pages 1–11,
San Jose, California USA.
B OSSU, J., G ÉE, C. et T RUCHETET, F. (2006b). Développement d’un système de vision pour une pulvérisation
spécifique en temps réel. In MAnifestation des Jeunes Chercheurs STIC (Majecstic), Lorient, France.
B OSSU, J., G ÉE, C. et T RUCHETET, F. (2007a). Development of a machine vision system for a real time
precision sprayer. In 8th International Conference on Quality Control by Artificial Vision (QCAV), volume
6356, pages 63560K(1–11), Le Creusot, France.
B OSSU, J., G ÉE, C. et T RUCHETET, F. (2007b). Système de vision pour la réduction temps réel d’herbicides. In Proceedings de la 20ème Conférence du COLUMA - Journées Internationales sur la lutte contre les
Mauvaises Herbes, Dijon, France.
B OSSU, J., G ÉE, C. et T RUCHETET, F. (2007c). Wavelet transform to discriminate between crop and weed in
agronomic images. In Wavelet Applications in Industrial Processing V, volume 6763-28, Boston, Massachusetts, USA.
B OUCHEREAU, E. B. (1997). Analyse d’images par transformée en ondelette. Application aux images sismiques. Thèse de doctorat, Université de Grenoble I.
B OUGUET, J.-Y. (1999). Visual methods for three-dimensional modeling. Thèse de doctorat, California
Institute of Technology Pasadena, California.
B OUGUET, J.-Y. (2004). Camera Calibration Toolbox for MATLAB.
B OURGEAT, P. (2004). Segmentation d’images de semi-conducteurs appliquée à la détection de défauts.
Thèse de doctorat, Université de Bourgogne.
B OUSQUET, L. (2007). Mesure et modélisation des propriétés optiques spectrales et directionnelles des
feuilles. Thèse de doctorat, Université de Paris 7.
140
BIBLIOGRAPHIE
B OUSQUET, L., L ACH ÉRADE, S., S.JACQUEMOUD et M OYA, I. (2005). Leaf BRDF measurement and model
for specular and diffuse component differentiation. Remote Sensing of Environment, 98(2-3):201–211.
B RACEWELL, R. (1999). The Fourier Transform and Its Applications. McGraw-Hill Science Engineering.
B REUER, L., E CKHARDT, K. et H-G. F REDE (2003). Plant parameter values for models in temperate climates.
Ecological Modeling, 15:237–293.
B RIGHAM, E. O. (1988). The fast Fourier transform and its applications. Englewood Cliffs, N.J., Prentice
Hall.
B RISOUHAL, M. (2001). Reconstruction de données. Application à la dosimétrie des radiotéléphones. Thèse
de doctorat, Institut National des Sciences Appliquées de Rennes.
B ROWN, D. (1966). Decentering distortion of lenses. Photogrammetric Engineering, 32(3):444–462.
B URT, P. et A DELSON, H. (1983). Unitary representations of the affine group. IEEE Trans. Comp, 31:532–
540.
C ALLET, P. (1998). Couleur-lumière ; Couleur matière. Diderot Arts et Sciences.
C ARDINA, J., J OHNSON, G. A. et S PARROW, D. H. (1997). The nature and consequence of weed spatial
distribution. Weed Science Society of America, 45(3):364–373.
C ARLBOM, I. et PACIOREK, J. (1978). Planar geometric projections and viewing transformations. ACM
Comput. Surv., 10(4):465–502.
C EMAGREF (2007). http ://www.montpellier.cemagref.fr/umritap/equipes/EquipeNO.htm.
C HEN, J. M. et B LACK, T. A. (1992). Defining leaf area index for non-flat leaves. Plant, Cell and Environment,
15:421–429.
C HEN, J. M., R ICH, P. M., G OWER, T. S., N ORMAN, J. M. et P LUMMER, S. (1997). Leaf area index of boreal
forests : theory, techniques and measurements. Geophysical Research, 102(D24):29429–29444.
C HEN, S., C OWAN, C. F. N. et G RANT, P. M. . (1991). Orthogonal least squares learning algorithm for radial
basis function. IEEE Transactions on Neural Networks, 2(2):302–309.
C OHEN, A., DAUBECHIES, I. et F EAUVEAU, J.-C. (1992). Biorthogonal bases of compactly supported wavelets. Comm. in Pure and Applied Math., 45(5):485–560.
C OQUEREZ, J.-P. et P HILIPP, S. (1995). Analyse d’images : filtrage et segmentation. Masson.
C ORNUJ ÉOLS, A. et M ICLET, L. (2002). Apprentissage artificiel - Concepts et algorithmes. Eyrolles.
DAUBECHIES, I. (1992). Ten Lectures on Wavelets. Society for Industrial & Applied Mathematics, Philadelphia, Penn.
DAUBECHIES, I. et L AGARIAS, J. (1991). Two-scale difference equations. I. existence and global regularity
of solutions. SIAM Journal of Mathematical Analysis, 22(5):1388–1410.
DAUGMAN, J. G. (1985). Uncertainty relation for resolution in space, spatial frequency and orientation optimized by two-dimensional visual cortical filters. J. Opt. Soc. Am., 2(7):1160–1169.
D ELABAYS, N. et M UNIER -J OLAIN, N. (2004). Inhibition de la croissance des mauvaises herbes après incorporation au sol de résidus végétaux : allélopathie ou modification du cycle de l’azote. In Proceedings de la
19ème Conférence du COLUMA - Journées Internationales sur la lutte contre les Mauvaises Herbes, Dijon,
France.
DELVANO (2007). http ://www.delvano.com/delvano/gamma-f.htm#.
D ERICHE, R. et C OCQUEREZ, J.-P. (1987). Extraction de composantes connexes basée sur une détection
optimale des contours. In Cognitiva, pages 1–9. CESTA.
D UDA, R. et H ART, P. (1972). Use of the Hough transformation to detect lines and curves in pictures. Commun. ACM, 15(1):11–15.
D UTILLEUX, P. (1989). An implementation of the “algorithme à trous” to compute the wavelet transform. In
C OMBES, J. M., G ROSSMANN, A. et T CHAMITCHIAN, P., éditeurs : Wavelets, Time-Frequency Methods and
Phase Space, pages 298–304. Springer-Verlag.
141
BIBLIOGRAPHIE
EADS/A STRIUM (2007). Farmstar. http ://www.spotimage.fr/web/621-agriculture-de-precision.php.
FAUGERAS, O. (1993). Three-dimensional Computer Vision. MIT Press.
F ELTON, W. L. (1995). Commercial progress in spot spraying weeds. In Brighton Crop Protection Conference
Weed, British Crop Protection Council, volume 3, pages 1087–1096, Brighton (UK).
F ELTON, W. L. et M C C LOY, K. R. (1992). Spot spraying. Agricultural Engineering, 11:26–29.
F ONTAINE, M. (2001). Segmentation non supervisée d’images couleur par analyse de la connexité des pixels.
Thèse de doctorat, Université de Lille 1.
F REYER, J. (1994). Lens distortion for simple ’c’ mount lenses. International Archives of Photogrammetry
and Remote Sensing, 30(5):97–101.
F UNG, G. S. K., Y UNG, N. H. C. et PANG, G. K. H. (2003). Camera calibration from road lane markings.
Optical Engineering, 42(10):2967–2977.
G ABOR, D. (1946). Theory of communication. J. IEE (London), 93(III):429–457.
G ASQUET, C. et W ITOMSKI, P. (1990). Analyse de Fourier et applications. Masson.
G AUSMAN, H. W. et A LLEN, W. A. (1973). Optical parameters of leaves of 30 plants species. Plant Physiol,
52:57–62.
G AUSMAN, H. W. (1985). Plant Leaf Optical Properties in Visible and Near-Infrared Light. Graduate Studies
N 29, Texas Tech University.
G ÉE, C., B ONVARLET, L., M AGNIN -ROBERT, J. et G UILLEMIN, J.-P. (2004a). Weeds classification based on
spectral properties. In 7th International Conference on Precision Agriculture and Other Ressource Management, Minneapolis (USA). CD-ROM.
G ÉE, C., B ONVARLET, L., M AGNIN -ROBERT, J. B. et G UILLEMIN, J.-P. (2004b). Weed discrimination
by reflectance measurements using neural networks. In XIIième colloque international sur la biologie des
mauvaises herbes, pages 487–494, Dijon, France.
G ÉE, C., B OSSU, J. et T RUCHETET, F. (2006). A double Hough transform for a crop-weed discrimination. In
Agricultural Engineering For a Better World, pages IS 330 A, CD–ROM, Bonn, Allemagne.
G ÉE, C., B OSSU, J., J ONES, G. et T RUCHETET, F. (2007). Crop/weed discrimination in perspective agronomic
images. Computers and Electronics in Agriculture.
G ÉE, C., B ERRET, L., B OSSU, J., C HARDON, C., J ONES, G. et T RUCHETET, F. (2008). Feasibility study for
a catadioptric bi-band imaging system. In Proc. SPIE 20th Annual Symposium on Electronic Imaging Science
and Technology - ”Machine Vision Applications in Industrial Inspection XIV”, volume 6816, San Jose, USA.
G ENNERY, D. B. (1991). Camera calibration including lens distortion. Rapport technique, National Aeronautics and Space Administration, Jet Propulsion Laboratory, California Institute of Technology, Pasadena,
California.
G OUDY, H. J., TARDIF, F. J., B ROWN, R. B. et B ENNETT, K. A. (1999). Evaluating site-specific weed control
in a maize-sotbean rotation system. In C OUNCIL, B. C. P., éditeur : The 1999 Brighton Conference-Weeds,
volume 2, pages 621–626.
G RANGER, S. et G UILLEMIN, J.-P. (2004). Impact of the morpholgy of two weed species on maize growth.
In XIIième colloque international sur la biologie des mauvaises herbes, pages 31–35, Dijon, France.
G ROSSMANN, A. et M ORLET, J. (1984). Decomposition of hardy functions into square integrable wavelets
of constant shape. SIAM Journal of Mathematical Analysis, 15(4):723–736.
G ROUPE T V AGRI (2007). Agriculture et Nouvelles Technologies.
G UILLEMIN, J.-P., T HOMAS, J. M. et G RANGER, S. (2004). Effect of intraspecific competition on energy
conversion of amaranthus retroflexus l. In XIIième colloque international sur la biologie des mauvaises herbes,
pages 37–42, Dijon, France.
G UYOT, G. (1989). Signatures spectrales des surfaces naturelles. Collection “Télédétection Satellitaire.
142
BIBLIOGRAPHIE
H AGAN, M. T., D EMUTH, H. B. et B EALE, M. H. (1996). Neural network design. MA : PWS Publishing.
H AGGAR, R. J., S TENT, C. J. et I SAAC, S. (1983). A prototype hand-held patch sprayer for killing weeds,
activated by spectral differences in crop/weed canopies. Journal of Agricultural Engineering Research, 28:
349–358.
H AGUE, T. et T ILLETT, N. D. (1996). Navigation and control of an autonomous horticultural robot. Mechatronics, 6(2):168–180.
H AGUE, T. et T ILLETT, N. D. (2001). A bandpass filter-based approach to crop row location and tracking.
Mechatronics, 11:1–12.
H AHN, F., L OPEZ, I. et H ERNADEZ, G. (2004). Spectral detection and neural network discrimination of
rhizopus stolonifer spores on red tomatoes. Biosystems Engineering, 89(1):93–99.
H AMAMOTO, Y., U CHIMURA, S., WATANABE, M., YASUDA, T., M ITANI, Y. et T OMITA, S. (1998). A Gabor
filter-based method for recognizing handwritten numerals. Pattern Recognition, 31:395–400.
H ARALICK, R. M. et S HAPIRO, L. G. (1992). Computer and Robot Vision. Addison-Wesley.
HARDI-EVRARD (2007). http ://www.hardi-fr.com/Home.aspx.
H ATEY, L. et B RAS, C. (2004). Nouvelle technique alternative de désherbage “waı̈puna”. In Proceedings de
la 19ème Conférence du COLUMA - Journées Internationales sur la lutte contre les Mauvaises Herbes, Dijon,
France.
H E, X. C. et Y UNG, N. H. C. (2007). New method for overcoming ill-conditioning in vanishing-point-based
camera calibration. Optical Engineering, 46(3):037202(1–11).
H EARN, D. et BAKER, M. P. (1986). Computer graphics. Prentice-Hall, Inc., Upper Saddle River, NJ, USA.
H EARST, M. A. (1998). Support vector machines. IEEE Intelligent Systems, 13(4):18–28.
H EIKKILA, J. et S ILVEN, O. (1997). A four-step camera calibration procedure with implicit image correction.
In CVPR ’97 : Proceedings of the 1997 Conference on Computer Vision and Pattern Recognition (CVPR ’97),
page 1106, Washington, DC, USA. IEEE Computer Society.
H LOBEN, P., VONDRICKA, J. et S CULZE L AMMERS, P. (2006). Study on reponse time of direct nozzle
injection system for variable rate application of herbicides. In Agricultural Engineering for a Better World,
pages IS 490 A, CD–ROM, Bonn, Allemagne.
H ORAUD, P. R. et M ONGA, O. (1995). Vision par ordinateur : outils fondamentaux. ’Editions Hermès, Paris.
H OTELLING, H. (1933). Analysis of a complex of statistical variables with principal components. Journal of
Educational Psychology, 24:498–520.
H OUGH, P. (1962). A method and means for recognizing complex patterens. U.S. Patent 3,069,654.
H UBBARD, B. (1995). Ondes et ondelettes. Paris, Pour la science.
I NTEL (2001). Open source computer vision library.
http ://www.intel.com/technology/computing/opencv/index.htm.
I NTEL (2005). Intel integrated performance library.
na/eng/perflib/302910.htm.
http ://www.intel.com/cd/software/products/asmo-
JACQUEMOUD, S., U STIN, S. L., V ERDEBOUT, J., ans G. A NDREOLI, G. S. et H OSGGOD, B. (1996). Estimating leaf biochemistry using the prospect leaf optical properties model. Remote Sensing of Environment,
56:194–202.
JAGO, R. A., C UTLER, M. E. J. et C URRAN, P. J. (1999). Estimating canopy chlorophyll concentration from
field and airbone spectra. Remote Sensing of Environment, 68:217–224.
JAIN, A. et L AKSHMANAN, N. R. S. (1997). Object detection using Gabor filters. Pattern Recognition,
30:295–309.
J ONES, G., C.G EE et T RUCHETET, F. (2007a). Simulation of perspective agronomic images for weed detection. In STAFFORD, J., éditeur : 6th European Conference on Precision Agriculture, pages 507–514, Skiathos,
Greece.
143
BIBLIOGRAPHIE
J ONES, G., G ÉE, C. et T RUCHETET, F. (2007b). Crop/weed discrimination in simulated agronomic images.
In IS&T/SPIE 19th Annual Symposium Electronic Imaging Science and Technology, volume 6497-64970, San
Jose, California USA.
J ONES, G., G ÉE, C. et T RUCHETET, F. (2007c). Simulation of agronomic images for an automatic evaluation of crop/weed discrimination algorithm accuracy. In 8th International Conference on Quality Control by
Artificial Vision, volume 6356, pages 63560J(1–10), Le Creusot, France.
K AVDIR, I. (2004). Discrimination of sunflower, weed and soil by artificial neural networks. Computers and
Electronics in Agriculture, 44:153–160.
K ISE, M., Z HANG, Q. et ROVIRA M ÁS, F. (2005). A stereovision-based crop row detection method for
tractor-automated guidance. Biosystems Engineering, 90(4):357–367.
K NAPP, A. K. et C ARTER, G. A. (1998). Variability in leaf optical properties among 26 species from a broad
range of habitats. American Journal of Botany, 85(940):940–946.
KOHAVI, R. et P ROVOST, F. (1998). Glossary of terms. Machine Learning, 30:271–274.
KORN, G. et KORN, T. (1961). Mathematical handbook for scientists and engineers. MacGrow-Hill book
Company.
L EBEAU, F., E L BAHIR, L., M-F. D ESTAIN, K INNAERT, M. et H ANUS, R. (2004). Improvement of spray deposit homogeneity using a PWM spray controller to compensate horizontal boom speed variations. Computers
and electronics in agriculture, 43:149–161.
L EE, W. S. et S LAUGHTER, D. C. (1998). Plant recognition using hardware-based neural network. In ASAE
Annual International Meeting, pages 1–14, Orlando, Florida, USA. 983040.
L EE, W. S., S LAUGHTER, D. C. et G ILES, D. K. (1997). Robotic weed control system for tomatoes using
machine vision system and precision chemical application. In ASAE Annual International Meeting, pages
1–15, Minneapolis, USA.
L EE, W. S., S LAUGHTER, D. C. et G ILES, D. K. (1999). Robotic weed control system for tomatoes. Precision
Agriculture, 1:95–113.
L EEMANS, V. et D ESTAIN, M.-F. (2006a). Application of the Hough transform for seed row localisation using
machine vision. Biosystems Engineering, 94(3):325–336.
L EEMANS, V. et D ESTAIN, M.-F. (2006b). Line cluster detection using a variant of the Hough transform for
culture row localisation. Image and Vision Computing, 24:541–550.
L ELLY, D. (2007). matériel agricole no 119.
M AC Q UEEN, J. B. (1967). Some methods for classification and analysis of multivariate observations. In
of C ALIFORNIA P RESS, U., éditeur : Proceedings of fifth Berkeley Symposium on Mathematical Statistics and
Probability, pages 281–297, Berkeley.
M ALLAT, S. et Z HONG, S. (1992). Characterization of signals from multiscale edges. IEEE Trans. Pattern
Anal. Mach. Intell., 14(7):710–732.
M ALLAT, S. G. (1989). A theory for multiresolution signal decomposition : the wavelet representation. IEEE
Trans. Pattern Anal. Mach. Intell., 11(7):674–693.
M ANSOURI, A. (2005). Étude, conception et réalisation d’un système multispectral de vision pour des applications de proximité, et développement d’algorithmes de reconstruction de la réflectance. Thèse de doctorat,
Université de Bourgogne.
M ARCHANT, J. (1996). Tracking of row structure in three crops using image analysis. Computers and
Electronics in Agriculture, 15:161–179.
M ARCHANT, J. A., H AGUE, T. et T ILLETT, N. D. (1997). Row-following accuracy of an autonomous visionguided agricultural vehicle. Computers and electronics in agriculture, 16:165–175.
M ARTIN -C HEFSON, L. (2000). Détection et reconnaissance des adventices dans les cultures céréalières par
traitement d’image multispectrale. Thèse de doctorat, Université de Cergy-Pontoise.
144
BIBLIOGRAPHIE
M EYER, G., M ETHA, T., KOCHER, M., M ORTENSEN, D. et S AMAL, A. (1998). Textural imaging and discriminant analysis for distinguishing weeds for spot spraying. Transactions of the ASAE, 41(4):1189–1197.
M EYER, Y. (1990). Ondelettes et opérateurs. I. Actualités Mathématiques. [Current Mathematical Topics].
Hermann, Paris. Ondelettes. [Wavelets].
M ITRA, P., S HANKAR, B. U. et PAL, S. K. (2004). Segmentation of multispectral remote sensing images
using active support vector machines. Pattern Recognition Letters, 25:1067–1074.
M ONDRAG ÓN P EDRERO, G. et S ERRANO C OVARRUBIAS, L. M. (2004). Etude de la competitivité du haricot
(phaseolus vulgaris l.) vis-à-vis des mauvaises herbes. In X II ème colloque international sur la biologie des
mauvaises herbes, pages 73–79, Dijon, France.
M ORLET, J., A RENS, G., F OURGEAU, E. et G IARD, D. (1982). Wave propagation and sampling theory – Part
II : Sampling theory and complex waves. Geophysics, 47(2).
M OSANTO (2007). http ://www.monsanto.fr/.
M OSHOU, D., BAERDEMAEKER, J. D. et R AMON, H. (1999). Neural network based classification of different
weed species and crops. In S TAFFORD, J., éditeur : Second European Conference on Precision Agriculture,
pages 275–284, Odense, Denmark.
M OSHOU, D., V RINDTS, E., D E K ETELAERE, B., D E BAERDEMEKER, J. et R AMON, H. (2001). A neural
network based plant classifier. Computers and Electronics in Agriculture, 31:5–16.
M UNIER -J OLAIN, N. M., FALOYA, V., DAVAINE, J. B., B IJU -D UVAL, L., M EINIER, D., M ARTIN, C. et
C HARLES, R. (2004). A cropping system experiement for testing the principles of integrated weed management : first results. In X II ème colloque international sur la biologie des mauvaises herbes, pages 147–156,
Dijon, France.
M URENZI, R. (1990). Ondelettes multidimensionnelles et applications à l’analyse d’images. Thèse de doctorat, Université Catholique de Louvain (Belgique).
M UZY, J. F., BACRY, E. et A RNEODO, A. (1994). The multifractal formalism, revisited with wavelets. International Journal of Bifurcations and Chaos, 4:254–302.
M YNENI, R. B., H ALL, F. G., S ELLERS, P. J. et M ARSHAK, A. L. (1995). The interpretation of spectral
vegetation indexes. IEEE Transactions on Geoscience and Remote Sensing, 33:481–486.
NAVAR, P. (2001). Conception et réalisation d’une caméra multispectrale. Mémoire de D.E.A., Conservatoire
national des Arts et Métiers.
O OMS, D., L EBEAU, F., RUTER, R. et M-F. D ESTAIN (2002). Measurements of the horizontal sprayer boom
movements by sensor data fusion. Compters and electronics in agriculture, 33:139–162.
P ÉREZ, J.-P. (2000). Optique, fondements et applications. Dunod, 6ème édition.
P ILORGE, E., Q UERE, L. et L ECOMTE, V. (2004). Intérêt des techniques combinées pour le désherbage du
tournesol. In Proceedings de la 19ème Conférence du COLUMA - Journées Internationales sur la lutte contre
les Mauvaises Herbes, Dijon, France.
P INTO, F. A. C., R EID, J. F., Z HANG, Q. et N OGUSHI, N. Guidance parameter determination using artificial
neural network classifier. In An ASAE Meeting Presentation, pages 1–14. 993004.
P OUCHIN, T. (2001). Cours de télédétection. http ://perso.club-internet.fr/tpouchin.
P ROHARAM, R. (2007). Spray concept. http ://spray-concept.com/cerealiers.htm.
P ROVOST, F., FAWCETT, T. et KOHAVI, R. (1998). The case against accuracy estimation for comparing
induction algorithms. In ICML ’98 : Proceedings of the Fifteenth International Conference on Machine
Learning, pages 445–453, San Francisco, CA, USA. Morgan Kaufmann Publishers Inc.
P ULVEXPER (2007). http ://www.pulvexper.com/.
R ICHARDSON, A. J. et W IEGRAND, C. L. (1977). Distinguishing vegetation from soil background information. Photogrammetric Engineering and Remote Sensing, 43:1541–1552.
145
BIBLIOGRAPHIE
R IOUL, O. et D UHAMEL, P. (1992). Fast algorithms for discrete and continuous wavelet transforms. IEEE
Transactions on Information Theory, 38(2):569–586.
ROBERT, P. C. (2000). L’agriculture de précision : les verrous liés à la technologie et à la gestion agronomique.
In Colloque Agriculture de Précision, pages 11–29, Dijon, France.
RUMELHART, D. E., H INTON, G. E. et W ILLIAMS, R. J. (1986). Parallel Data Processing (Learning internal
representations by error propagation), volume 1. MA : The M.I.T Press.
S AFEE -R AD, R., S MITH, K. C., B ENHABIB, B. et T CHOUKANOV, I. (1992). Application of moment and
fourier descriptors to the accurate estimation of elliptical-shape parameters. Pattern Recognition Letters,
13:497–508.
S ANCHIZ, J. M., M ARCHANT, J. A., P LA, F. et H AGUE, T. (1998a). Real-time visual sensing for task planning
in a field navigation vehicle. Real-Time Imaging, 4:55–65.
S ANCHIZ, J. M., P LA, F. et M ARCHANT, J. A. (1998b). An approach to the vision tasks involved in an
autonomous crop protection vehicle. Artificial intelligence, 11:175–187.
S HENSA, M. (1992). The discrete wavelet transform : Wedding the a trous and mallat algorithms. IEEE
Transactions on Signal Processing, 40:2464–2482.
S INGH, S., H ADDON, J. et M ARKOU, M. (1999). Nearest neighbour strategies for image understanding. In
Workshop an Advanced Concepts for Intelligent Vision System (ACVIS).
S KORDAS, T. (1995). Une revue des derniers progrès en autocalibration de camera CCD. Traitement du
signal, 12(1).
S LATON, M. R., H UNT, E. R. et S MITH, W. K. (2001). Estimating near-infrared leaf reflectance from leaf
structural characteristics. American Journal of Botany, 88(2):278–284.
S LAUGHTER, D., G ILES, D. et D OWNEY, D. (2007). Autonomous robotic weed control systems : A review.
Computers and Electronics in Agriculture (in press).
S ØGAARD, H. T. et O LSEN, H. J. (1999). Crop row detection for cereal grain. In S TAFFORD, J., éditeur :
Second European Conference on Precision Agriculture, pages 181–190, Odense, Denmark.
S ØGAARD, H. T. et O LSEN, H. J. (2003). Determination of crop rows by image analysis without segmentation.
Computers and electronics in agriculture, 38:141–158.
S TRUB, G., PAINTER, T., H UBER, S., DANGEL, S., M ARTONCHIK, J., B ERENDSE, F. et S CHAEPMAN, E. M.
(2004). About the importance of the definition of reflectance quantities - results of case studies. In XXth
ISPRS Congress (International Society for Photogrammetry and Remote Sensing), pages 361–367, Istanbul,
Turkey.
S WETS, J. (1988). Measuring the accuracy of diagnostic system. Science, 240(4857):1285–1293.
S YNGENTA (2007). http ://www.syngenta-agro.fr/synweb/default.aspx.
TAKAHASHI, K., NAKATANI, H. et A BE, K. (1995). Color image segmentation using isodata clustering. In
2nd Asian Conference on Computer Vision, volume 1, pages 523–527.
T ECNOMA (2007). Tecnoma technologies. http ://www.tecnoma.com.
T ERRIER, P., D EVLAMINCK, V., C HARBOIS, J. M., WAUQUIER, F., A SSEMAT, L., G AUVRIT, C. et C HA PRON , M. (2004). Discrimination between weed species using polarized light measurement. In XIIième colloque international sur la biologie des mauvaises herbes, pages 479–486, Dijon, France.
T HOMAS, J. M., G UILLEMIN, J.-P. et G RANGER, S. (2004). Evaluation of intraspecific competition for
amaranthus retroflexus l. In XIIième colloque international sur la biologie des mauvaises herbes, pages 43–49,
Dijon, France.
T IAN, L., R EID, J. F. et H UMMEL, J. W. (1999). Development of a precision sprayer for site-specific weed
management. Transactions of the ASAE, 42(4):893–900.
T ILLETT, N. D., H AGUE, T. et M ARCHANT, J. A. (1998). A robotic for plant-scale husbandry. Journal of
Agricultural Engineering Research, 69(2):169–178.
146
BIBLIOGRAPHIE
T ILLETT, N. D. et H AGUE, T. (1999). Computer-vision-based hoe guidance for cereals : an initial trial.
Journal of Agricultural Engineering Research, 74:225–236.
T OSCANI, G. (1987). Système de Calibration et perception du mouvement en vision artificielle. Thèse de
doctorat, Université Paris Sud.
T RUCHETET, F. (1998). Ondelettes pour le signal numérique. Hermès, Paris, France.
T SAI, R. Y. (1986). An efficient and accurate camera calibration technique for 3d machine vision. In Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, pages 364–374, Miami Beach,
Florida, USA.
T SAI, R. Y. (1987). A versatile camera calibration technique for high-accuracy 3d machine vision metrology
using off-the-shelf tv cameras and lenses. IEEE Journal of Robotics and Automation, RA-3(4):323–344.
T UCKER, C. J. (1979). Red and photographic infrared linear combinations for monitoring vegetation. Remote
Sensing of Environment, 8(2):127–150.
VANDERBILT, V. C., G RANT, L. et DAUGHTRY, C. S. T. (1985). Polarization of light sctattered by vegetation.
Proceedings of the IEEE, 73:1021–1024.
VANDERBILT, V. C. et G RANT, L. (1986). Polarization photometer to measure bidirectional reflectance factor
r(55˚,0˚ ;55˚,180˚) of leaves. Optical Engineering, 25:566–571.
V IOIX, J.-B., D OUZALS, J.-P., T RUCHETET, F., A SSEMAT, L. et G UILLEMIN, J.-P. (2002). Spatial and spectral methods for weed detection and localization. EURASIP Journal on Applied Signal Processing, 7:679–685.
V IOIX, J.-B. (2004). Conception et réalisation d’un dispositif d’imagerie multispectrale embarqué : du capteur aux traitements pour la détection d’adventices. Thèse de doctorat, Université de Bourgogne.
V IOIX, J.-B., S LIWA, T. et G ÉE, C. (2006). An automatic inter and intra-row weed detection in agronomic
images. In XVI CIGR World Congress -Agricultural Engineering for a Better World, Bonn, Allemagne.
VOGELMANN, T. C. et M ARTIN, G. (1993). The functional significance of palisade tissue : penetration of
directional versus diffuse light. Plant, cell and environment, 16(1):65–72.
VOIRY, F. et M ALASHKO, A. (2004). Conception et réalisation d’un pulvérisateur pour l’agriculture de
précision. Rapport technique, Etablissement National d’Enseignement Supérieur Agronomique de Dijon
(ENESAD).
VONDRICKA, J., H LOBEN, P. et S CULZE L AMMERS, P. (2006). Study on the mixing process in direct injection systems for site-specific herbicide application. In Agricultural Engineering for a Better World, Bonn,
Allemagne. CDROM.
V RINDTS, E. (2000). Automatic recogintion of weeds with optical techniques as a basis for site-specificspraying. Thèse de doctorat, Université de Louvain (Belgique).
WASSEMAN, P. D. (1993). Advanced Methods in Neural Computing. Van Nostrand Reinhold.
W OEBBECKE, D., M EYER, G., BARGEN, K. V. et M ORTENSEN, D. (1995). Color indices for weed identification under various soil, residue, and lightning conditions. Transactions of the ASAE, 38(1):259–269.
YANG, J., L IU, L., J IAN, T. et FAN, Y. (2003). A modified Gabor filter design method for fingerprint image
enhancement. Pattern Recognition Letters, 24:1805–1817.
147

Documents pareils