visionner le document
Transcription
visionner le document
MEGATEMII – Classification automatique des anomalies Maxime Claprood ([email protected]) Introduction Ce document présente la méthodologie employée pour classer automatiquement les anomalies d’un levé MEGATEM. Les méthodes d’interprétation actuelles d’un levé MEGATEM sont coûteuses au niveau du temps d’opération. Des améliorations semblent donc indispensables. Des quantités imposantes de données sont acquises et pour le moment, seule une analyse visuelle permet de traiter cette information. L’outil développé permettra de créer une librairie de modèles géologiques simulant des dépôts de sulfures massifs volcanogènes (VMS) et leurs réponses MEGATEM associées. Le système de classification devra ensuite être adapté de façon à reconnaître certains traits caractéristiques de ces levés, pour associer ces traits aux propriétés des VMS du modèle géologique. Ce document présente les étapes nécessaires à la classification des anomalies et à l’estimation de leurs propriétés. La méthodologie développée assume que l’anomalie est détectée préalablement au traitement. Aucun résultat ne sera présenté dans ce document, ceux-ci ne seront dévoilés que lorsque les résultats finaux seront connus. Voici le plan du document : 1. Objectifs 2. Modélisation 3. Traitement sur les modèles LeroiAir 4. Régression 5. Autres avenues possibles... 1. Objectifs • Développer un système de classification automatique des anomalies MEGATEM. • Analyser la forme, la largeur, l’amplitude et les constantes de temps des anomalies. • Une fois l’anomalie détectée sur un levé MEGATEM, estimer les propriétés du corps pouvant générer une telle anomalie. • Distinguer la réponse d’une plaque conductrice mince ou épaisse en comparaison à un changement d’épaisseur du mort-terrain ou autres anomalies géologiques ne correspondant pas à un VMS. 2. Modélisation L’outil de modélisation numérique doit pouvoir calculer les réponses électromagnétiques dans le domaine transitoire pour la configuration MEGATEM. Il doit être rapide car plus de 2000 modèles seront modélisés et doit pouvoir converger pour une gamme étendue de paramètres. Le groupe d’Electromagnetic Modelling, supervisé par Dr. Arthur Raiche du Commonwealth Scientific & Industrial Research Organisation (CSIRO) de Sydney, a développé plusieurs algorithmes permettant la modélisation EM. Dû à leur géométrie, la majorité des VMS peuvent être modélisés par une plaque mince. L’algorithme LeroiAir a été choisi pour effectuer la modélisation. Il permet de modéliser des plaques minces avec différents paramètres tels que la conductance, profondeur, pendage et dimensions dans un sous-sol stratifié représentant le cas de l’Abitibi. Le tableau suivant donne la liste complète des paramètres employés dans la modélisation, pour un total de 2100 combinaisons possibles. Tableau 1. Paramètres des modèles de plaques minces Longueur Extension Profondeur Conductance Pendage (pendage) (°) 50 50 21 1 30 150 150 50 3 45 300 300 100 10 60 600 200 30 90 300 100 120 135 150 Pour chacun de ces 2100 modèles, 4 lignes de vol sont modélisées, toutes parallèles entre elles, espacées de 150m, longues de 3000m, volées dans les directions alternées comme un véritable levé MEGATEM. La première ligne de vol passe directement au milieu du corps et les autres sont décalées vers l’extérieur. Les Figures 1 et 2 présentent des exemples de réponses obtenues par LeroiAir pour 2 plaques minces différentes pour un profil passant par le centre des plaques. Figure 1. Plaque Mince : 300x150 m², z=100m, σt=30S, θ=60° Figure 2. Plaque Mince : 150x50 m², z=21m, σt=100S, θ=120° Les 2 figures ci-dessus démontrent bien la variabilité des réponses obtenues sur un levé MEGATEM en relation avec les propriétés de la plaque mince. Le MEGATEM génère des réponses sur 20 canaux de temps, dont 15 après coupure du courant primaire. On ne tient compte que de ces canaux pour l’analyse présentée. 3. Traitements sur les modèles LeroiAir Il est important d’isoler l’information significative sur ces levés pour éviter de travailler sur de l’information superflue ou redondante. On garde donc quelques traits caractéristiques des levés dbx/dt et dbz/dt et on ne travaille que sur ces traits dominants afin d’établir les relations avec les propriétés des plaques minces. Afin d’éviter un dédoublement de l’information, on ne garde que quelques canaux pour le calcul les propriétés. En se basant sur la littérature, on remarque que certaines relations sont déjà établies entre la profondeur et les distances pic à pic ainsi que le pendage et les rapports des pics (Smith et Keating, 1996). La figure suivante présente quelques traits caractéristiques des levés qui seront utilisés pour les traitements subséquents. Figure 3. Caractéristiques calculées sur les levés « dbx/dt », « dbz/dt » et « l’enveloppe d’énergie » (EE) pour une plaque mince. Px1 Px2 x1 x2 Pz1 Pz2 Pz3 x1 x2 x3 x1 x2 Des scripts MATLAB identifient les positions et les valeurs des pics sur les levés dbx/dt et dbz/dt. On calcule les rapports ainsi que les distances entre les différents pics observés sur les levés. En plus de ces variables, on utilise la longueur d’onde de l’enveloppe d’énergie ainsi que la constante de temps calculée sur le levé dbz/dt comme paramètres pour les traitements subséquents. Ces caractéristiques sont appelées les variables explicatives (« X ») et servent à estimer les propriétés des plaques minces. Cette liste de traits caractéristiques n’est probablement pas exhaustive et d’autres variables pourraient tenir un rôle non négligeable dans les régressions. 4. Régression On utilise la régression classique afin de trouver les relations linéaires qui existent entre une variable à expliquer « Y » et les variables explicatives « X ». Comme indiqué plus haut, les variables « X » symbolisent les traits caractéristiques des profils tandis que les variables « Y » représentent les paramètres de la plaque à estimer. Un modèle de régression est nécessaire pour chaque paramètre à estimer et déterminera les traits dominants ayant le plus d’influence sur l’évaluation de ce paramètre. Les relations entre ces variables ne sont pas toujours linéaires. Il est donc important d’observer les distributions des variables afin d’appliquer les transformations nécessaires sur les variables « X » afin de linéariser le problème. La régression linéaire, comme son nom l’indique, ne détermine en effet que les relations linéaires entre les variables impliquées. Il faut s’assurer que les distributions des variables impliquées dans la régression soient gaussiennes, ce que permettent les transformations sur les variables. On utilise la régression pas-à-pas (« stepwise ») afin de déterminer les variables qui sont les plus significatives dans l’estimation des propriétés des plaques minces. Le script MATLAB « stepw.m » du Pr. Denis Marcotte (départ. CG&M, École Polytechnique) est utilisé pour faire cette régression. Il permet de classer en ordre d’importance les traits caractéristiques calculés sur les profils. On peut ensuite juger, à l’aide des statistiques appropriées (tests de Fisher, coefficients de corrélation, intervalles de confiance sur les coefficients de la régression...), quelles variables sot significatives pour constituer le modèle final de régression. On utilise ensuite les variables les plus significatives pour construire les modèles finaux de régression, en utilisant le script MATLAB « regres.m ». La régression multi-linéaire est un outil relativement simple, rapide et efficace permettant de trouver les relations existantes entre certains paramètres à un niveau de précision fort acceptable pour l’estimation des propriétés de la plaque, soit le pendage, la conductance, la profondeur et les dimensions. 5. Autres avenues possibles Bien que notre choix se soit premièrement arrêté sur la régression pour estimer les paramètres des corps conducteurs, d’autres avenues sont possibles et pourront être analysées subséquemment. Le regroupement (« clustering ») permet de détecter les ressemblances et différences entre les caractéristiques et ainsi classer les modèles selon leur niveau d’appartenance à des groupes déterminés à l’avance. Les algorithmes ressemblent à ceux de la régression, mais à la place de trouver la relation linéaire entre les variables, le « clustering » effectue plutôt un classement sur les données. Les programmes de clustering sont toutefois très lents d’exécution et c’est en partie pour cette raison que nous avons préféré traiter les modèles par régression. Il serait possible de développer un réseau de neurones permettant d’établir les liens entre les variables explicatives et les variables à expliquer. Les algorithmes des réseaux neuronaux peuvent devenir très compliqués et il fut jugé préférable de développer un système de classification plus simple en premier lieu. Les transformées en ondelettes ont sensiblement le même problème. Bien que cette technique semble prometteuse, son développement mathématique complexe et le choix judicieux à faire dans la sélection de l’ondelette de base font en sorte que la régression semblait un choix préférable comme première méthode d’analyse.