visionner le document

Transcription

visionner le document
MEGATEMII – Classification automatique des anomalies
Maxime Claprood ([email protected])
Introduction
Ce document présente la méthodologie employée pour classer automatiquement les
anomalies d’un levé MEGATEM. Les méthodes d’interprétation actuelles d’un levé
MEGATEM sont coûteuses au niveau du temps d’opération. Des améliorations
semblent donc indispensables. Des quantités imposantes de données sont acquises et
pour le moment, seule une analyse visuelle permet de traiter cette information. L’outil
développé permettra de créer une librairie de modèles géologiques simulant des dépôts
de sulfures massifs volcanogènes (VMS) et leurs réponses MEGATEM associées. Le
système de classification devra ensuite être adapté de façon à reconnaître certains traits
caractéristiques de ces levés, pour associer ces traits aux propriétés des VMS du
modèle géologique. Ce document présente les étapes nécessaires à la classification des
anomalies et à l’estimation de leurs propriétés. La méthodologie développée assume
que l’anomalie est détectée préalablement au traitement. Aucun résultat ne sera
présenté dans ce document, ceux-ci ne seront dévoilés que lorsque les résultats finaux
seront connus.
Voici le plan du document :
1. Objectifs
2. Modélisation
3. Traitement sur les modèles LeroiAir
4. Régression
5. Autres avenues possibles...
1. Objectifs
• Développer un système de classification automatique des anomalies
MEGATEM.
•
Analyser la forme, la largeur, l’amplitude et les constantes de temps des
anomalies.
•
Une fois l’anomalie détectée sur un levé MEGATEM, estimer les propriétés du
corps pouvant générer une telle anomalie.
•
Distinguer la réponse d’une plaque conductrice mince ou épaisse en
comparaison à un changement d’épaisseur du mort-terrain ou autres anomalies
géologiques ne correspondant pas à un VMS.
2. Modélisation
L’outil de modélisation numérique doit pouvoir calculer les réponses
électromagnétiques dans le domaine transitoire pour la configuration MEGATEM. Il
doit être rapide car plus de 2000 modèles seront modélisés et doit pouvoir converger
pour une gamme étendue de paramètres. Le groupe d’Electromagnetic Modelling,
supervisé par Dr. Arthur Raiche du Commonwealth Scientific & Industrial Research
Organisation (CSIRO) de Sydney, a développé plusieurs algorithmes permettant la
modélisation EM. Dû à leur géométrie, la majorité des VMS peuvent être modélisés
par une plaque mince. L’algorithme LeroiAir a été choisi pour effectuer la
modélisation. Il permet de modéliser des plaques minces avec différents paramètres
tels que la conductance, profondeur, pendage et dimensions dans un sous-sol stratifié
représentant le cas de l’Abitibi. Le tableau suivant donne la liste complète des
paramètres employés dans la modélisation, pour un total de 2100 combinaisons
possibles.
Tableau 1. Paramètres des modèles de plaques minces
Longueur
Extension
Profondeur Conductance
Pendage
(pendage)
(°)
50
50
21
1
30
150
150
50
3
45
300
300
100
10
60
600
200
30
90
300
100
120
135
150
Pour chacun de ces 2100 modèles, 4 lignes de vol sont modélisées, toutes parallèles
entre elles, espacées de 150m, longues de 3000m, volées dans les directions alternées
comme un véritable levé MEGATEM. La première ligne de vol passe directement au
milieu du corps et les autres sont décalées vers l’extérieur. Les Figures 1 et 2
présentent des exemples de réponses obtenues par LeroiAir pour 2 plaques minces
différentes pour un profil passant par le centre des plaques.
Figure 1. Plaque Mince : 300x150 m², z=100m, σt=30S, θ=60°
Figure 2. Plaque Mince : 150x50 m², z=21m, σt=100S, θ=120°
Les 2 figures ci-dessus démontrent bien la variabilité des réponses obtenues sur un
levé MEGATEM en relation avec les propriétés de la plaque mince. Le MEGATEM
génère des réponses sur 20 canaux de temps, dont 15 après coupure du courant
primaire. On ne tient compte que de ces canaux pour l’analyse présentée.
3. Traitements sur les modèles LeroiAir
Il est important d’isoler l’information significative sur ces levés pour éviter de
travailler sur de l’information superflue ou redondante. On garde donc quelques traits
caractéristiques des levés dbx/dt et dbz/dt et on ne travaille que sur ces traits
dominants afin d’établir les relations avec les propriétés des plaques minces. Afin
d’éviter un dédoublement de l’information, on ne garde que quelques canaux pour le
calcul les propriétés. En se basant sur la littérature, on remarque que certaines relations
sont déjà établies entre la profondeur et les distances pic à pic ainsi que le pendage et
les rapports des pics (Smith et Keating, 1996). La figure suivante présente quelques
traits caractéristiques des levés qui seront utilisés pour les traitements subséquents.
Figure 3. Caractéristiques calculées sur les levés « dbx/dt », « dbz/dt » et
« l’enveloppe d’énergie » (EE) pour une plaque mince.
Px1
Px2
x1
x2
Pz1
Pz2
Pz3
x1
x2
x3
x1
x2
Des scripts MATLAB identifient les positions et les valeurs des pics sur les levés
dbx/dt et dbz/dt. On calcule les rapports ainsi que les distances entre les différents pics
observés sur les levés. En plus de ces variables, on utilise la longueur d’onde de
l’enveloppe d’énergie ainsi que la constante de temps calculée sur le levé dbz/dt
comme paramètres pour les traitements subséquents. Ces caractéristiques sont appelées
les variables explicatives (« X ») et servent à estimer les propriétés des plaques
minces. Cette liste de traits caractéristiques n’est probablement pas exhaustive et
d’autres variables pourraient tenir un rôle non négligeable dans les régressions.
4. Régression
On utilise la régression classique afin de trouver les relations linéaires qui existent
entre une variable à expliquer « Y » et les variables explicatives « X ». Comme
indiqué plus haut, les variables « X » symbolisent les traits caractéristiques des profils
tandis que les variables « Y » représentent les paramètres de la plaque à estimer. Un
modèle de régression est nécessaire pour chaque paramètre à estimer et déterminera les
traits dominants ayant le plus d’influence sur l’évaluation de ce paramètre. Les
relations entre ces variables ne sont pas toujours linéaires. Il est donc important
d’observer les distributions des variables afin d’appliquer les transformations
nécessaires sur les variables « X » afin de linéariser le problème. La régression
linéaire, comme son nom l’indique, ne détermine en effet que les relations linéaires
entre les variables impliquées. Il faut s’assurer que les distributions des variables
impliquées dans la régression soient gaussiennes, ce que permettent les
transformations sur les variables.
On utilise la régression pas-à-pas (« stepwise ») afin de déterminer les variables qui
sont les plus significatives dans l’estimation des propriétés des plaques minces. Le
script MATLAB « stepw.m » du Pr. Denis Marcotte (départ. CG&M, École
Polytechnique) est utilisé pour faire cette régression. Il permet de classer en ordre
d’importance les traits caractéristiques calculés sur les profils. On peut ensuite juger, à
l’aide des statistiques appropriées (tests de Fisher, coefficients de corrélation,
intervalles de confiance sur les coefficients de la régression...), quelles variables sot
significatives pour constituer le modèle final de régression. On utilise ensuite les
variables les plus significatives pour construire les modèles finaux de régression, en
utilisant le script MATLAB « regres.m ». La régression multi-linéaire est un outil
relativement simple, rapide et efficace permettant de trouver les relations existantes
entre certains paramètres à un niveau de précision fort acceptable pour l’estimation des
propriétés de la plaque, soit le pendage, la conductance, la profondeur et les
dimensions.
5. Autres avenues possibles
Bien que notre choix se soit premièrement arrêté sur la régression pour estimer les
paramètres des corps conducteurs, d’autres avenues sont possibles et pourront être
analysées subséquemment. Le regroupement (« clustering ») permet de détecter les
ressemblances et différences entre les caractéristiques et ainsi classer les modèles
selon leur niveau d’appartenance à des groupes déterminés à l’avance. Les algorithmes
ressemblent à ceux de la régression, mais à la place de trouver la relation linéaire entre
les variables, le « clustering » effectue plutôt un classement sur les données. Les
programmes de clustering sont toutefois très lents d’exécution et c’est en partie pour
cette raison que nous avons préféré traiter les modèles par régression.
Il serait possible de développer un réseau de neurones permettant d’établir les liens
entre les variables explicatives et les variables à expliquer. Les algorithmes des
réseaux neuronaux peuvent devenir très compliqués et il fut jugé préférable de
développer un système de classification plus simple en premier lieu. Les transformées
en ondelettes ont sensiblement le même problème. Bien que cette technique semble
prometteuse, son développement mathématique complexe et le choix judicieux à faire
dans la sélection de l’ondelette de base font en sorte que la régression semblait un
choix préférable comme première méthode d’analyse.