PDF [0.4Mo] - Centre de Géosciences
Transcription
PDF [0.4Mo] - Centre de Géosciences
LES JOURNEES DE GEOSTATISTIQUE 15 & 16 SEPTEMBRE 2011 Recueil des résumés Centre de Géosciences Equipe Géostatistique Fontainebleau Organisateurs : Chantal de Fouquet Thomas Romary Nathalie Dietrich 2 Les Journées de Géostatistique – 15 & 16 septembre 2011 Geostatistical simulations for groundwater flow modelling under ice sheet conditions in Greenland Olivier Jaquet1, Rabah Namar1, P. Jansson2, Pascal Siegel1 1 In2Earth Modelling Ltd, Switzerland 2 Stockholm University, Sweden [email protected] SKB (Sweden), POSIVA (Finland) and NWMO (Canada) have established in 2009 the GAP project (Greenland Analogue Project). These three organisations want to improve current understanding of continental ice sheet and permafrost effects on groundwater flow and water chemistry in crystalline rocks at depths of a potential repository for nuclear waste. The idea is to apply the Greenland ice sheet as an analogue to future glaciations in Fennoscandia and Canada. The GAP project will enable to perform geological and geophysical investigations, measurements of glacial hydrology and hydrogeology as well as geochemical analyses in relation to current ice sheet conditions in Greenland. Within the framework of the GAP project, a regional groundwater flow model under ice sheet conditions was developed for a specific location in Greenland. Conceptually, the groundwater flow system is considered to be governed by infiltration of glacial meltwater in heterogeneous faulted crystalline rocks in the presence of permafrost and taliks. The geological medium with conductive deformation zones was modelled as a 3D stochastic continuum with five hydrogeological units whose hydraulic properties were described using a geostatistical simulation method. Based on glaciological concepts, a stochastic model was proposed for describing the subglacial permafrost distribution in correlation with bed elevation. Numerical modelling of groundwater flow was performed at regional scale under steady state conditions for various sensitivity cases that included variations in boundary conditions and permafrost distribution. The presentation will outline the importance of geostatistical simulations for the description of heterogeneous geological and hydraulic properties used as input for groundwater flow modelling. Keywords: geostatistical simulations, ice sheet, groundwater flow modelling, Greenland. Centre de Géosciences / Equipe Géostatistique – Mines ParisTech 35, rue Saint-Honoré – 77300 FONTAINEBLEAU 3 4 Les Journées de Géostatistique – 15 & 16 septembre 2011 1D Runoff production in the light of queueing theory - Heterogeneity, connectivity and scale Marie-Alice Harel 1, E. Mouche 1, J. Patin 1, E. Ledoux 2 1 LSCE - 2 MINES-ParisTech [email protected] Runoff production on a hillslope during a rainfall event may be basically described as follows. Given a soil of constant infiltrability I, which is the maximum amount of water that the soil can infiltrate, and a constant rainfall intensity R, runoff is observed where R is greater than I. The infiltration rate equals the infiltrability when runoff is produced, R otherwise. In this simplified description, ponding time, topography, and overall spatial and temporal variations of physical parameters, such as R and I, are neglected. In this study, we consider soils of spatially variable infiltrability. Our aim is to assess, in a stochastic framework, the runoff organization on 1D slopes with random infiltrabilities by means of theoretical developments and numerical simulations. As the modelled runoff can re-infiltrate on down-slope areas of higher infiltrabilities (runon), the resulting process is highly non-linear. The stationary runoff equation is: Qn + 1/ Dx = Qn / Dx + (R-in)+ where Qn is the runoff arriving on pixel n of size Dx [L2/T], R and in the rainfall intensity and infiltration function on that same pixel [L/T]. The non-linearity is due to the dependence of in on R and Qn. A theoretical framework based on the queueing theory is developed. We implement the idea of Jones et al. (2009), who remarked that the above formulation is identical to the waiting time equation in a single server queue. Thanks to this theory, it is possible to accurately describe some outputs of our numerical model, notably the runoff repartition over the slope for uncorrelated exponential infiltrability distributions. We analyse the influence of the infiltrability distribution (log-normal, exponential, bimodal...) on the outflow and on the spatial runoff organisation. Our first results indicate that these distributions have limited impacts on the outlet runoff for sufficiently long slopes, indicating a scale effect. However, runoff patterns organize differently depending on the distribution of I, and their connectivity is assessed using the connectivity function of (Allard, 1993). Centre de Géosciences / Equipe Géostatistique – Mines ParisTech 35, rue Saint-Honoré – 77300 FONTAINEBLEAU 5 6 Les Journées de Géostatistique – 15 & 16 septembre 2011 Gradual Deformation Method for Calibrating Transmissivities from Piezometric Heads: An application to the Culebra Formation, New Mexico, USA Mickaele Le Ravalec 1 et Emmanuel Mouche 2 1 IFP Energies Nouvelles - 2 CEA [email protected] An aquifer model is assumed to be reliable when it reflects the behavior of the actual aquifer. Thus, it must respect the available direct and indirect data that are pertinent to fluid flow. Direct data include for instance the transmissivity values derived from well logs, or measured on cores extracted from wells. However, they provide limited information about the spatial distribution of transport properties within the aquifer. Thus, they are complemented by indirect data such as piezometric heads. A possible approach is to take advantage of the link between transport properties and heads to better constrain the aquifer model. This issue is an inverse problem. Flow equations being known, it consists of determining aquifer models for which the simulated heads fit the measured heads. Due to the large number of parameters involved in such models, it is essential to properly parameterize the changes to grid blocks properties. The Gradual Deformation Method (GDM) is a geostatistical parameterization technique introduced in reservoir engineering for compelling reservoir models to respect production history. It makes it possible to adjust the spatial distribution of the transport properties populating the reservoir model so that the flow responses simulated for the modified model closely replicate the production data collected on the field. We propose to investigate the potential of the GDM to produce heterogeneous transmissivity fields conditional to piezometric head measurements within a stochastic context. It focuses on the calibration of the Culebra Dolomite aquifer, which lies approximately 450 m above the repository horizon of the Waste Isolation Pilot Plant (WIPP) in southeastern New Mexico, USA. Transmissivities were measured in 45 wells and steady-state heads in 36 wells. Conventional statistical tools were used to simulate transmissivity realizations honoring transmissivity data. The GDM was then applied to compel these realizations to respect also the head data. To make the overall matching process efficient, we referred to the local variant of the GDM, meaning that transmissivity realizations were locally modified to be able to reproduce the measured heads. The various zones considered were defined from a set of Voronoi polygons centered at wells with head data available. One deformation parameter was assigned to each of them. Thus, we aim to minimize the misfit between the measured heads and the corresponding responses simulated for the target transmissivity model by adjusting 36 gradual deformation parameters. An advantage of the GDM is the preservation of transmissivity continuity in between zones. The matching method proposed here was shown to be efficient and to converge pretty fast to suitable transmissivity realizations. It was applied first to identify several transmissivity realizations respecting both transmissivity and steady-state head data and second to assess uncertainty in these conditional models. Keywords: inverse problem, parameterization, gradual deformation, WIPP case Centre de Géosciences / Equipe Géostatistique – Mines ParisTech 35, rue Saint-Honoré – 77300 FONTAINEBLEAU 7 8 Les Journées de Géostatistique – 15 & 16 septembre 2011 Filtrage de l’impédance-sismique à l’aide de l’impédance-log Danitza Aburto1, Hélène Beucher1, Daniel Guillemot2, Jean-Luc Mari3 1 MINES-ParisTech - 2 ANDRA - 3 IFP [email protected] L‟impédance-sismique et l‟impédance-log sont des mesures indirectes des caractéristiques physiques du sous-sol. L‟impédance-log est calculée à partir des mesures diagraphiques (produit de la densité de la roche par la vitesse des ondes P). L‟impédance-sismique est obtenue lors de l‟inversion géophysique de l‟amplitude mesurée le long des profils sismiques de réflexion, à l‟aide de l‟impédance-log. Pour les étudier conjointement, ces deux impédances sont mises de façon classique sur un même support (ici 1 milliseconde) et dans la même gamme de fréquences (environ 70 Hz), paramètres qui sont donnés par la sismique. L‟analyse des variogrammes simples et croisés, a permis de formuler l‟hypothèse suivante : « les deux mesures d‟impédances se composent d‟une variable (notée Z) liée aux caractéristiques géologiques du milieu et d‟un résidu lié à chaque mesure, les résidus sont non corrélés entre eux et non corrélés à la variable Z ». L‟ajustement satisfaisant des variogrammes expérimentaux permet d‟accepter cette hypothèse. L‟estimation de la composante commune (Z) est donc réalisée par co-krigeage, en filtrant les composants résidus. L‟application de cette méthode a été faite sur les données fournies par l‟ANDRA, dans le cadre de recherches qui visent à évaluer la faisabilité de créer un stockage de déchets radioactifs, dans la formation argileuse du Callovo-Oxfordien. Un facteur limitant pour cette étude est le faible nombre de puits dans la zone d‟intérêt, qui entraîne la non connaissance expérimentale du comportement spatial bi variable suivant l‟horizontale. Un cokrigeage ne peut donc être réalisé qu‟en choisissant un modèle horizontal a priori. Par contre, verticalement, le cokrigeage assure la cohérence de l‟estimation de Z au niveau des puits. Centre de Géosciences / Equipe Géostatistique – Mines ParisTech 35, rue Saint-Honoré – 77300 FONTAINEBLEAU 9 10 Les Journées de Géostatistique – 15 & 16 septembre 2011 Moving-geostatistics for automated interpolation – Application to environmental data Cédrice MAGNERON, Thomas Demongin ESTIMAGES [email protected] Most geostatistical models usually used in the industry are variogram-based. However, when analysis and modeling of a global experimental variogram is involved, these models have two major shortcomings: they lack objectivity, and are often inaccurate. The lack of objectivity is a consequence of interpretation and fitting of an experimental variogram, even when done automatically. The lack of accuracy comes from the inadequacy between a global variogram model and the local structural characteristics of data. Moving-GeoStatistics (M-GS) provides a set of techniques for optimizing locally the parameters involved in variogram-based models, especially structural parameters, such as ranges and anisotropy direction. Optimized parameters, adapted to the local structural characteristics of data, lead to better estimation and simulation results than those obtained by using global parameters deduced from a conventional structural analysis. One of M-GS techniques is based on a local kriging cross-validation process. It involves determining locally the combination of variographic parameters that minimizes the cross-validation error. Consistency of the parameters can be improved by applying the process within overlapping windows. This cross-validation technique, objective and free from any variogram interpretation, has been implemented into industrial software for mapping purpose. Environmental data available at a mesh of 100m x 100m are automatically estimated by ordinary kriging at a mesh of 10m x 10m. The quality improvement due to the technique, locally higher than 20%, is illustrated by comparing it to classical estimates for a real data set. Being automated and giving better mapping results, the technique is promising as it can be used in many interpolation processes. Centre de Géosciences / Equipe Géostatistique – Mines ParisTech 35, rue Saint-Honoré – 77300 FONTAINEBLEAU 11 12 Les Journées de Géostatistique – 15 & 16 septembre 2011 A propos de l’ajustement automatique des variogrammes Didier Renard and Nicolas Desassis MINES-ParisTech [email protected] In the non-stationary case, geostatistical techniques raise the critical issue of the inference of the parameters which describe its spatial characteristics. For instance, in Universal Kriging, we first split the variable into a deterministic drift and the residuals. The model fitted on the residuals may be severely biased at large distances. On the other hand, in the theory of Intrinsic Random Functions of order k, data are considered through increments which filter out any polynomial drift of a given order. The variances of these increments can be written as linear combinations of the model. This property is implemented to derive the (multiplicative) coefficients of each polynomial term which compose the generalized covariance. Only linear properties can be inferred, therefore forbidding the inference of ranges for example. Experimental generalized variograms (or variograms of iterated increments) have been introduced for measuring the spatial characteristics of a variable, while filtering out any polynomial drift of a given degree. Moreover, there is a relationship between the model of a variable and the one of its increments. This property will be used through an automatic fitting tool, to fit the model of a non-stationary variable. This inference is not limited to specific variogram or generalized covariance terms, and can address all types of parameters including ranges. Finally, this technique can even be extended to the multivariate case. This methodology is illustrated through a case study where the top and bottom of a layer, recognized through 2-D seismic lines, present a large distance complex trend system. Centre de Géosciences / Equipe Géostatistique – Mines ParisTech 35, rue Saint-Honoré – 77300 FONTAINEBLEAU 13 14 Les Journées de Géostatistique – 15 & 16 septembre 2011 Le Krigeage Complet Marco Alfaro YAMANA Gold [email protected] Dans certaines situations, le krigeage en voisinage glissant (ou local) cause des artefacts. Le choix d‟un bon voisinage est donc un point crucial d‟une estimation locale. On examine les conséquences du choix des paramètres utilisés pour le krigeage: méthode de recherche, maximum de données, maximum de points par quadrant ou octant, maximum d‟échantillons par sondage. La conclusion est que la zone de recherche doit être assez grande. Par la suite on a construit un programme d‟ordinateur pratique pour faire le krigeage complet ou krigeage en voisinage unique. On étudie les propriétés du krigeage complet : relation de lissage, existence des poids négatifs, calcul des variances d‟estimation. L‟application à la classification des ressources minières est examinée. Centre de Géosciences / Equipe Géostatistique – Mines ParisTech 35, rue Saint-Honoré – 77300 FONTAINEBLEAU 15 16 Les Journées de Géostatistique – 15 & 16 septembre 2011 Dimension Reduction of a Steam Generator Thermohydraulic Model Sylvain Girard1 Thomas Romary2, Hans Wackernagel2 1 MINES-ParisTech et EDF, 2 MINES-ParisTech [email protected] Steam generators – Pressurized light water nuclear power plants mainly consist of two separated water loops that exchange heat. The water from the primary loop goes first through the reactor where it is heated by the nuclear reaction and then through heat exchangers called Steam Generators (SG) where it transfers heat to the water of the secondary loop. The steam exiting the SG upper opening then flows through turbines. A SG consists of a cylindrical tank (approx. 20 m high and 3m wide) that contains the secondary steamliquid mixture. The primary water enters the SG at its bottom and goes through a bundle of U shaped tubes. Circular plates called Tube Support Plates (TSPs) maintain the tube bundle. The TSPs have circular holes to allow for the passage of the tubes and these holes are surrounded by additional quatrefoil holes that allow for the passage of the secondary steam-liquid mixture. Tube support plates clogging – Steam Generators (SG) are affected by fouling of their internal elements by iron oxides present in the secondary feed-water. This causes clogging of the quatrefoil holes of the TSPs that can induce safety issues. Means to estimate TSP clogging are needed to optimize maintenance operations. Previous studies (Midou et al., 2010) demonstrated that the shape of the Wide Range Level (WRL – the pressure difference measured between the steam dome and the bottom of the downcomer) response curve to a power transient is determined by the clogging state of the TSPs. A diagnosis method based on comparison between measured response curves and simulated ones for varying clogging states is being developed by EDF. For that purpose, a mono-dimensional SG model has been created with Modelica and the Dymola software. It is able to simulate the SG behaviour during power transient phases. Power decreases are performed on French nuclear reactors every three months which allows for frequent diagnosis. The input variables of the model are the clogging ratios of each half TSP, one for the hot and cold legs of the U-tube bundle. Clogging ratios are defined as the ratio of the closed area to the total area of the holes without any clogging. The output of the model consists of the 1200 values of WRL (1 per second) given the clogging ratios of the 16 half TSP. The dimension of both the input and output of the model are high which hinders the development of a simple and robust diagnosis method. The objective of the present study is to propose a lesser number of substitute input and output variables that account more efficiently of the effects of clogging. Sensitivity Analysis – A method based on the ANOVA-decomposition and a Monte Carlo computation scheme has been used to compute order 1 and total sensitivity indices for each half-TSP (Sobol‟, 2001). Sequential indices were first computed and exhibited different behaviour for the hot and cold leg as well as four distinct phases during the transient. As the model output is functional, principal component analysis (PCA) was carried out to reduce the dimensionality of the model output and compute „compact‟ order 1 and total sensitivity indices for each major principal component (Lamboni et al., 2009). The model output has been reduced to the first two sets of loadings and two sets of order 1 and total indices have been computed. Finally, estimation variability was assessed by construction of bias corrected and accelerated bootstrap confidence intervals. Only a few interactions have been observed. Centre de Géosciences / Equipe Géostatistique – Mines ParisTech 35, rue Saint-Honoré – 77300 FONTAINEBLEAU 17 Sliced Inverse Regression – The PCA coordinates were then used as output variables. A model of unknown link function depending on linear combination of the input variables and an independent random noise was assumed. A multivariate extension of sliced inverse regression (SIR) (Li, 1991 et Barreda, 2007) was used with various sampling designs to estimate the subspace spanned by these linear combinations. Its dimension was determined by bootstrap. Eventually, the input of the model could be reduced to 2 weighted means of the hot leg and cold leg input variables. Joint use of sensitivity analysis, PCA and SIR allowed reducing the output dimension from 1200 to 2 and the input dimension from 16 to 2. The new set of variables allows for straightforward interpretation and its small dimension paves the way towards surface responses and associated methods. References L. Barreda, A. Gannoun, and J. Saracco. Some extensions of multivariate sliced inverse regression. Journal of Statistical Computation and Simulation, 77(1):1–17, 2007. M. Lamboni et al. Multivariate global sensitivity analysis for dynamic crop models. Field Crops Research, 113:312–320, 2009 K.C. Li. Sliced inverse regression for dimension reduction. Journal of the American Statistical Association, 86(414):316–327, 1991. M. Midou et al. Estimation of SG TSP blockage: Innovative monitoring through dynamic behavior analysis (ICONE18) 2010 I.M. Sobol‟. Global sensitivity indices for nonlinear mathematical models and their Monte Carlo estimates. Mathematics and Computers in Simulation, 55:271–280, 2001 Keywords Sensitivity analysis, principal component analysis, sliced inverse regression, dimension reduction, bootstrap, Steam generators. 18 Les Journées de Géostatistique – 15 & 16 septembre 2011 Domaining by clustering multivariate geostatistical data Thomas Romary1, Nicolas Desassis1, Jacques Rivoirard1, J. Deraisme2, Cristian Quinones3 and Xavier Freulon3 1 MINES-ParisTech - 2 GEOVARIANCES - 3 AREVA NC [email protected] Domaining is very often a complex and time-consuming process in mining assessment. Apart from the further delineation of envelopes, a significant number of parameters (lithology, alteration, grades…) are to be combined in order to characterize domains or sub domains. This rapidly leads to a huge combinatory. Hopefully the number of domains should be limited, while ensuring their connectivity as well as the stationarity of the variables within each domain. In order to achieve this goal, different methods for the spatial clustering of multivariate data are explored and compared. A particular emphasis is placed on the ways to modify existing procedures of clustering in non spatial settings to enforce the spatial connectivity of the resulting clusters. K-means, spectral methods and EM-based algorithms are reviewed. The methods are illustrated on mining data. Centre de Géosciences / Equipe Géostatistique – Mines ParisTech 35, rue Saint-Honoré – 77300 FONTAINEBLEAU 19 20 Les Journées de Géostatistique – 15 & 16 septembre 2011 Industrial experience feedback of a geostatistical estimation of contaminated soil volumes Claire Faucheux, Nicolas Jeannée GEOVARIANCES [email protected] Geostatistics meets a growing interest for the remediation forecast of potentially contaminated sites: pollution mapping, contaminated volumes estimation, integration of auxiliary information, setup of adaptive sampling strategies. This interest has been supported by the GeoSiPol association (Geostatistics for Polluted Sites) created in 2004 and which is gathering together geostatistical specialists and actors involved in the characterization of polluted sites: institutional organizations, industrial and consulting offices. As part of demonstration studies carried out for GeoSiPol and with the financial contribution of Ademe, geostatistics has been applied for the detailed diagnosis of a former TOTAL oil deposit in France. Several investigation campaigns put into evidence high hydrocarbons grades in the lower part of a backfill layer covering almost entirely the site. Given the future use of the site, health risks led to the definition of a remediation threshold on Total Hydrocarbon. As a consequence, the location of areas presenting hydrocarbons grades above the remediation threshold had to be estimated. Geostatistics allowed to estimate pessimistic / probable / optimistic scenarios for the contaminated volumes and to quantify the risks associated to the remediation: financial risk to excavate clean soils, sanitary risk to leave in place contaminated soils. After a first mapping, an iterative approach led to collect additional samples in uncertain areas previously identified by geostatistics. Estimated volumes were then updated, leading to a probable contaminated volume of 12 100 m3, associated to a 90% confidence interval lying between 10 000 and 15 400 m3. Today, the effective remediation of the site allows to provide an experience feedback about the geostatistical methodology. In particular, the estimated volumes can be compared to the real one equal to 13 100 m3 of contaminated soil. This value is close to the probable estimated volume and widely included in the 90% confidence interval. The study shows that geostatistics is a well-suited approach for the remediation forecast of such contaminated sites. Moreover it provides a framework for both uncertainty assessment and cost-benefit analyses, in particular regarding the relevance of collecting additional data versus starting the remediation. Centre de Géosciences / Equipe Géostatistique – Mines ParisTech 35, rue Saint-Honoré – 77300 FONTAINEBLEAU 21 22 Les Journées de Géostatistique – 15 & 16 septembre 2011 Spatial representativeness of an air quality monitoring station. Delimitation of exceedance areas Maxime Beauchamp 1, Laure Malherbe 1, Chantal de Fouquet 2, Laurent Létinois 1 1 INERIS, Direction des Risques Chroniques 2 MINES-ParisTech [email protected] Spatial representativeness of a monitoring station and spatial extent of an exceedance zone in case of noncompliance with environmental objectives are notions appearing in the European legislation on ambient air quality. No specific approach is prescribed to delimit such areas. We developed a probabilistic methodology based on a preliminary kriging estimate of atmospheric concentrations at each point of the domain. In the proposed definition, a point is considered as belonging to the area of representativeness of a station if its concentration differs from the station measurement by less than a given threshold. Additional criteria related to distance or environmental characteristics may also be introduced. The standard deviation of the estimation error is then used, to select the points, at a fixed risk, where the difference of concentration with respect to the station is below the threshold and to provide the probability of overshooting a limit value. Stability in time and sensitivity to the selected criteria are first tested with NO2 annual concentration data produced on national scale by combining surface monitoring observations and outputs from the CHIMERE chemistry transport model. On the local scale, data from passive sampling surveys and high resolution auxiliary variables are used to provide a more precise estimate of background pollution. Traffic related pollution can also be accounted for in the map with help of additional information such as distance to the road, traffic-related NOx emissions, or road traffic counts. The methodology is applied to NO2 experimental datasets for different French cities to assess the spatial representativeness of stations and delimit areas of exceedance of the NO2 annual limit value. Centre de Géosciences / Equipe Géostatistique – Mines ParisTech 35, rue Saint-Honoré – 77300 FONTAINEBLEAU 23 24 Les Journées de Géostatistique – 15 & 16 septembre 2011 Méthodes et critères pour l’optimisation d’un plan d’échantillonnage de la qualité de l’air en agglomération Thomas Romary1, Chantal de Fouquet1 et Laure Malherbe2 1 2 MINES-ParisTech INERIS, Direction des risques chroniques [email protected] In this work, we present a spatial statistical methodology to design benzene air concentration measurement surveys at the urban scale. In a first step, we define an a priori modeling based on an analysis of data coming from previous campaigns on two different agglomerations. More precisely, we retain a modeling with an external drift which consists of a drift plus a spatially correlated residual. The statistical analysis performed leads us to choose the most relevant auxiliary variables and to determine an a priori variogram model for the residual. An a priori distribution is also defined for the variogram parameters, whose values appear to vary from a campaign to another. In a second step, we optimize the positioning of the measuring devices on a third agglomeration according to a Bayesian criterion. Practically, we aim at finding the design that minimizes the mean over the urban domain of the universal kriging variance, whose parameters are based on the a priori modeling, while accounting for the prior distribution over the variogram parameters. Two optimization algorithms are then compared: simulated annealing and a particle filter based algorithm. Centre de Géosciences / Equipe Géostatistique – Mines ParisTech 35, rue Saint-Honoré – 77300 FONTAINEBLEAU 25 26 Les Journées de Géostatistique – 15 & 16 septembre 2011 Optimisation de campagnes d’échantillonnage pour la caractérisation de contaminations de sols Aurélien Bechler 1, Thomas Romary 2, Yvon Desnoyers 1, Nicolas Jeannee 1 1 GEOVARIANCES - 2 MINES-ParisTech Dans le cadre du démantèlement et de l'assainissement d'installations ayant contenu des matières radioactives, des surfaces de béton doivent être retirées. En fonction de leur niveau de contamination, les blocs retirés sont envoyés dans des centres d'élimination différents. De plus, les coûts correspondant au traitement de ces déchets dépendent grandement du niveau de leur radioactivité. La bonne quantification de ces niveaux de radioactivité est donc un enjeu de taille dans ces processus de démantèlement. Il devient ainsi très important de pouvoir délimiter différentes zones en fonction de leur niveau de contamination. Pour ce faire, des mesures sont effectuées à certains endroits ponctuels du site et à l'aide de techniques géostatistiques, des valeurs extrapolées sont déduites pour le reste de l'installation. Dans un premier temps, seules des mesures de rayonnement surfacique de la radioactivité sont effectuées. En effet, les mesures du réel degré de contamination se font par sondages destructifs et sont très coûteuses. A l'inverse, les mesures surfaciques sont faciles à mettre en œuvre et peu coûteuses. Une possibilité serait donc d'effectuer un grand nombre de mesures surfaciques et seulement quelques sondages pour pouvoir caler une relation entre ces deux quantités. Le problème vient du fait que cette relation n'est pas forcément linéaire et peut ne pas être la même d'un bout à l'autre du site. Ainsi, un bon arbitrage entre le nombre de mesures surfaciques et le nombre de prélèvements est à effectuer, avec également la nécessité d'identifier les zones dans lesquelles ces opérations devront être mise en oeuvre. Plusieurs algorithmes ont été développés (Couverture spatiale, Algorithme « Glouton », Recuit simulé). Chacun d'entre eux prend en entrée le jeu de mesures initiales ainsi qu'une grille de points candidats recouvrant l'ensemble du site étudié. Différents critères ont été envisagés pour comparer les algorithmes : longueur des intervalles de confiance autour de chaque points, incertitude autour de probabilités de dépassement d'un seuil, pourcentage de zones mal classées ou encore la variance de krigeage globale. Ainsi, pour comparer les différents algorithmes ou échantillons obtenus, il faudra regarder lequel minimise l'un de ces critères. Il se pourrait qu'en fonction du critère choisi, l'algorithme optimal ne soit pas le même. L'autre paramètre qui jouera un rôle prépondérant est le temps de calcul nécessaire. Il apparaît que pour tous les critères envisagés, la méthode de couverture spatiale est la moins performante, comme on pouvait s'y attendre. Dans la suite de ce projet, elle ne sera sans doute plus envisagée. Les deux autres algorithmes sont, quant à eux, beaucoup plus compétitifs avec de meilleures performances pour tous les critères envisagés. L'algorithme « Glouton » est performant pour tous les critères mais requiert un temps de calcul plutôt élevé dès lors que la grille des points possibles devient assez fine pour être réaliste(en effet l'algorithme la parcourt entièrement à chaque étape). Néanmoins l'avantage de cet algorithme est que, une fois le premier point ajouté, le temps total de calcul est facile à prédire. Le recuit simulé atteint, quant à lui, un niveau de performance un peu meilleur avec un temps de calcul plus faible. Mais dans ce cas, le temps de calcul nécessaire, ainsi que la performance de cet algorithme varient d'une fois à l'autre et ne sont donc pas prédictibles de manière sûre. De nombreuses simulations sont donc à effectuer pour décrire la distribution de la performance et du temps de calcul du recuit simulé. Ces deux algorithmes ont donc leurs avantages et inconvénients, et leur cadre d'utilisation dépend en partie des souhaits de l'utilisateur. Ainsi l'objectif de ce travail est, qu'en fonction d'un critère à minimiser et/ou du temps de calcul à disposition de l'utilisateur, de pouvoir choisir l'algorithme le plus approprié pour ajouter un nombre paramétrable de nouveaux points. Il est également envisageable, une fois les critères choisis et au vu des premiers résultats, de conseiller le nombre optimal de points à ajouter avec une courbe de type coût/amélioration. Centre de Géosciences / Equipe Géostatistique – Mines ParisTech 35, rue Saint-Honoré – 77300 FONTAINEBLEAU 27 28 Les Journées de Géostatistique – 15 & 16 septembre 2011 Spatial sampling effect of laboratory practices in a Chilean porphyry copper deposit Serge Séguret MINES-ParisTech [email protected] Sampling protocols usually concern the way some kilograms of material are reduced to some grams with the same properties, but another protocol has to be considered: the choice of the samples to be used for estimating the resources of the deposit or some of its attributes. An important attribute is the metallurgical recovery. It must be calculated with data sampling the deposit. Laboratory tests are made which reproduce the metallurgical recovery process at a reduced scale. There are very few such tests because they are expensive. Hence the idea is to combine them with exploratory data where the sole in situ grade is known, using geostatistical techniques. While trying to put into practice this idea in a porphyry copper deposit located in the Chilean Central Andes, we encountered a surprising situation: laboratory tests and exploration measurements are supposed to use the same material but the total grades they measure do not have the same spatial variability, and this is not only due to the quantity of material analyzed in each case. The paper presents the study and the impact of four causes: - Spatial restriction: Laboratory samples do not cover the same domain as exploration data. - Regularization: Laboratory and exploration samples do not have the same size. - Sampling density: In the studied area, there are about one hundred laboratory samples and more than five thousand exploration ones. - Grade selection: Laboratory practice avoids high grades. The study shows that the major cause of the observed differences is the grade selection, but also that the number of laboratory tests is certainly too small, with regard to the spatial variability of the grades. The consequence is that the sampling protocol for the metallurgical recovery tests shall be completely reconsidered. Centre de Géosciences / Equipe Géostatistique – Mines ParisTech 35, rue Saint-Honoré – 77300 FONTAINEBLEAU 29 30 Les Journées de Géostatistique – 15 & 16 septembre 2011 Application des simulations stochastiques et des analyses d’incertitudes pour l’optimisation des forages de développement minier d’un gisement d’uranium de type roll front. Gwenaële Petit, Gabrielle Rumbach, Hélène De Boissezon, Valérie Langlais AREVA NC - BUM/DS/SER [email protected] La minéralisation en uranium dans les gisements de type « roll-front » exploités au Kazakhstan est liée à la circulation de fluides chargés en uranium, dont le dépôt, associé au contexte redox et aux propriétés perméables des roches encaissantes, engendre des géométries de gisements sinueuses et des teneurs en uranium très hétérogènes. L‟exploitation de ces gisements profonds et basses teneurs est réalisée par récupération in situ (ISR) grâce à un maillage de puits alternant puits injecteurs de solutions lixiviantes et puits producteurs des fluides chargés en uranium. Les simulations stochastiques permettent de caractériser les incertitudes sur la connaissance des gisements, d‟identifier les paramètres dont l‟impact est majeur et constituent une aide à la planification de la production. Ce papier décrit une application directe des études d‟incertitudes dans la planification des campagnes de forages de développement des gisements. La phase d‟exploration terminée, le gisement est modélisé en 3 dimensions avec la méthode des simulations pluri-gaussienne pour caractériser les facies lithologiques, le contexte redox, et la géométrie de la minéralisation. Plusieurs approches sont mises en regard, l‟une basée sur les données de sondages seules et les courbes de proportions verticales, l‟autre intégrant l‟information du modèle géologique déterministe du gisement. Les teneurs en uranium sont ensuite simulées dans les intervalles minéralisés perméables. La synthèse des résultats des simulations sous formes de cartes de probabilités permet d‟identifier des zones encore incertaines. Des forages additionnels sont proposés visant à réduire les incertitudes sur la géométrie de la minéralisation à exploiter. L‟approche peut être itérative. Lorsque le contour de la minéralisation est précisé, les forages de développement minier sont ajoutés jusqu‟à atteindre un niveau d‟incertitudes acceptable pour les ressources et la planification minière. Mots clés : Mine - Gisement d‟uranium – Modélisation - Simulations - Incertitudes Centre de Géosciences / Equipe Géostatistique – Mines ParisTech 35, rue Saint-Honoré – 77300 FONTAINEBLEAU 31 32 Les Journées de Géostatistique – 15 & 16 septembre 2011 Optimisation de la maille de pré-exploitation et estimation du minerai récupérable pour le gisement de Dôme (Nouvelle Calédonie) Olivier Bertoli 1, Jacques Deraisme 1, Jérôme Michaud 2 1 GEOVARIANCES - 2 SLN [email protected] La SLN achève une phase intensive de reconnaissance du gisement de Dôme. La géologie du gisement présente des spécificités qui impactent sur la récupération et la valorisation du minerai, avec une complexité remarquable à toutes les échelles d‟analyse : lithologie, conditions d‟oxydo-réduction, minéralogie. Les paramètres clés du pilotage de l‟exploitation doivent être calibrés quantitativement, en particulier la maille de sondage pré-exploitation et la méthode d‟estimation du contrôle de teneurs du gisement. Le but de l‟étude présentée est double : 1. Permettre de chiffrer le gain en précision lié au resserrement de la maille pré-exploitation au moment du pilotage de l‟exploitation, en fournissant une quantification des incertitudes : a. Liées à la définition des enveloppes géologiques : Cette incertitude est décrite par des méthodes de caractérisation de l‟incertitude globale visant à quantifier les gains obtenus par resserrement de la maille pré-exploitation sur des volumes correspondant à des périodes de production fixées (mois, trimestre). Pour cela, les précisions élémentaires (pour des périodes d‟exploitation de base, comme la semaine) d‟estimation des variables puissance de couche et puissance passante à coupure sont estimées par krigeage polygonal 2D sur la base de grilles pré-exploitation théoriques (5x5m, 10x10m centrée, 10x10m), puis combinées pour caractériser l‟incertitude globale pour chaque maille sur des volumes correspondant aux périodes de production fixées. b. Liées à l‟estimation des teneurs : Pour prendre en compte à la fois le critère de sélection (teneur de la partie variable de minerai altéré au-dessus de la coupure), le support de sélection et l‟effet d‟information induit par les 3 mailles possibles, il est nécessaire de disposer de représentations plausibles du gisement par simulations conditionnelles. Les simulations produisent des réalisations des variables tonnage (proportion d‟altéré x densité) et métal (tonnage x teneur) afin de reconstituer des images plausibles de la zone à l‟échelle des unités de sélection minière, et d‟échantillonner ces images à l‟aide de grilles de préexploitation afin de mesurer la précision de leur estimation. 2. Etablir un protocole d‟estimation du récupérable sur Dôme qui permette une prévision efficace et une réconciliation adaptée avec le modèle établi au moment du pilotage. L‟estimation du récupérable est réalisée à partir des données d‟exploration et de reconnaissance, permettant d‟appréhender les effets de support (passage des panneaux) et d‟information (sélection ultime basée sur la maille pré-exploitation fixée précédemment). Il est à noter qu‟au moment de l‟exploitation le minerai est catégorisé avant traitement selon la teneur en Ni mais aussi les teneurs en MgO et Fe2O3 des unités de sélection. L‟obtention des teneurs nécessitant de travailler via les variables accumulations (métal et tonnage) et la catégorisation du minerai étant un problème multivariable, il semble judicieux d‟utiliser là aussi des simulations conditionnelles. Pour chaque panneau on estimera les tonnages et teneurs de chaque catégorie de minerai en utilisant une distribution statistique déterminée à partir d‟un nombre suffisant de simulations. La présentation mettra en avant plusieurs perspectives, notamment l‟applicabilité de méthodes de type krigeage de résidus d‟indicatrices avec changement de support, dont il faudrait estimer la capacité à gérer des problématiques multivariables. Centre de Géosciences / Equipe Géostatistique – Mines ParisTech 35, rue Saint-Honoré – 77300 FONTAINEBLEAU 33 34 Les Journées de Géostatistique – 15 & 16 septembre 2011 Application du modèle des résidus d’indicatrices pour l’estimation des ressources minérales d’un gisement d’uranium avec des valeurs extrêmes Xavier Freulon1, Jacques Rivoirard2, Claude Demange1, Aurélie Lécureuil1, Clémence Côme3 1 AREVA NC - 2 MINES-ParisTech - 3 Ecole Polytechnique Montréal (Canada) [email protected] Les valeurs extrêmes sont communes dans un contexte de ressources naturelles (métaux précieux, évaluation halieutique, polluants) : ces valeurs exceptionnellement hautes ou basses ne sont pas des valeurs erronées ou anecdotiques mais bien le centre d‟intérêt du phénomène étudié. Cependant, ces distributions très dissymétriques rendent l‟inférence des moments d‟ordre 1 et 2 imprécise. Un modèle linaire simple a été développé (Rivoirard et al. 2010) pour exploiter ces valeurs extrêmes en considérant que les seules informations spatiales pertinentes qu‟elles apportent sont leur localisation et leur contribution aux statistiques globales (moyenne, variance et histogramme). Dans ce cas, la variable d‟intérêt peut être décomposée en trois variables : la valeur tronquée, l‟indicatrice pondérée des zones à fortes valeurs et le résidu ; l‟estimation de la variable peut alors être réalisée par cokrigeage. La base mathématique de cette décomposition provient du modèle des résidus d‟indicatrices orthogonaux (Rivoirard 1989). L‟estimation linéaire (par exemple l‟estimation des ressources en place dans un cadre minier) peut être complétée par les techniques de géostatistiques non linéaires associées au modèle iso factoriel pour intégrer le changement de support et les coupures. Ces développements sont illustrés sur un gisement d‟uranium exploité par technique minière sélective : le modèle des résidus d‟indicatrices est utilisé pour le calcul des ressources récupérables et comparé aux résultats du Conditionnement Uniforme Gaussien. Cette comparaison permet d‟illustrer l‟intérêt d‟intégrer les valeurs extrêmes au processus d‟estimation en utilisant une technique mathématique adaptée, que ce soit une normalisation par anamorphose gaussienne ou un codage par indicatrices. Références : RIVOIRARD J., DEMANGE C., FREULON X., LECUREUIL A., BELLOT N. (2010) Model for top-cut with indicator residual adapted to deposits with very skewed grade distribution. IAMG 2010 – Extended abstract. 14p. RIVOIRARD J. (1989) Models with orthogonal indicator residuals. In Geostatistics, M. Armstrong (Ed.), Kluwer Academic Publishers, Dordrecht, Vol.1, 91-107. Centre de Géosciences / Equipe Géostatistique – Mines ParisTech 35, rue Saint-Honoré – 77300 FONTAINEBLEAU 35 36 Les Journées de Géostatistique – 15 & 16 septembre 2011 Block model in a multi facies context - Application to a Chilean porphyry copper deposit Serge Séguret MINES-ParisTech [email protected] When a mineral deposit is made of geological bodies such as breccias or lenses that concentrate high grades, and when the size of the production blocks is important compared to the average size of such bodies, estimating block grades by ordinary kriging may produce unrealistic spatial continuity. To improve the block model, a usual practice consists in: (1) Estimating spatial proportions of facies (unit). (2) Estimating the grades, facies by facies. (3) Combining the results to obtain the block grades. We show that this practice assumes some links between the geological bodies, which will be verified. Then, we try to answer this general question: Given a set of samples where facies and grades are known, what is the best way to build a block model? We propose a methodological work flow which leads to a cokriging system where facies indicators are used, together with their product with the grade (the “partial metals”), a method that does not require the previous calculation of the facies proportions, at the scale of the blocks. An application on porphyry copper deposit located in Chile is presented. We compare the results to a usual kriging without any facies consideration, and to the usual approach. Centre de Géosciences / Equipe Géostatistique – Mines ParisTech 35, rue Saint-Honoré – 77300 FONTAINEBLEAU 37 38 Les Journées de Géostatistique – 15 & 16 septembre 2011 Contribution of the process-based modeling to pluri-gaussian simulation in the case of meandering channelized reservoirs Hélène Beucher, Jacques Rivoirard, Isabelle Cojan and Fabien Ors MINES-ParisTech [email protected] Simulating deposits associated to meandering channels with statistical methods is still a challenge due to the complex forms of the sedimentary bodies (eg point bar deposits, crevasse splays, oxbow lakes). Several conditional methods have been proposed to reproduce these geometries at the reservoir scale such as object-based models, Boolean or multi point statistics. Nevertheless, these methods need first to define a synthetic shape of individual sedimentary bodies and then to arrange these in the desired architecture. Another way to simulate more accurately the sedimentary bodies and their internal structures is proposed through the use of process-based-stochastic models, such as Flumy that is conditioned to well data. However when the number of constraining data increases the conditioning is less efficient. We propose to combine the benefits of the realistic simulation of sedimentary bodies of Flumy in simulations performed with PGS that is adapted to conditioning of large data set. Analysis of well data provides us with the necessary parameters (channel max depth, sand body extension, net to gross) to perform several process-based simulations which characteristics correspond to the field to be modeled. Statistics are then performed on these multiple realizations, to obtain more accurate relationship to be used in the PGS simulation (lithofacies, spatial distribution of the facies proportion) calibrating the PGS from the results of a genetic simulation. By this way, the final conditional simulations produced with PGS are conditioned to as many well data as needed and take also into account the spatial relationship of the different types of sedimentary bodies The method is illustrated through a field data set. This dataset has been collected over the Loranca Basin in Spain. Results are presented for two units with different N/G and sand body extension, illustrating the potential of the method. Centre de Géosciences / Equipe Géostatistique – Mines ParisTech 35, rue Saint-Honoré – 77300 FONTAINEBLEAU 39 40 Les Journées de Géostatistique – 15 & 16 septembre 2011 Use of Singular Value Decomposition in Kriging or CoKriging Didier Renard MINES-ParisTech [email protected] The Kriging technique relies on the kriging matrix whose elements reflect the distance between any pair of data (within the neighborhood of the target site) involving the spatial structure of the variable. In the multivariate case, the cokriging matrix also considers the cross-covariance which describes the joint spatial characteristics of any pair of variables. This matrix needs to be inverted and therefore is sensitive to singularity. The Singular Value Decomposition technique (SVD) provides an efficient way of inverting any matrix. In the case of singular (or quasi-singular) matrices, it provides an elegant solution. Applied to the definite positive (or semi-definite positive) kriging matrix, it highlights pairs of points which are too close (in the variogram metric) and lead to singular matrix. In particular and when applied to a clustered data set, a set of N close points will receive a similar weight equal to 1/N of the weight that would be assigned to a single representative data replacing them. Another illustration is given in the case of a redundant model, such as the multivariate model describing the joint spatial structure of a set of N compositional data. The variables are linked by an arithmetic expression; this relationship also affects the corresponding multivariate model. Using all the variables in a cokriging system leads to a singular matrix. Traditionally this requires solving the kriging system with N1 variables and deriving the last one by complementation. This is not necessary with SVD. This is particularly useful for deriving the estimation variances for each variable or when using such a technique with heterotopic data sets. Centre de Géosciences / Equipe Géostatistique – Mines ParisTech 35, rue Saint-Honoré – 77300 FONTAINEBLEAU 41 42 Les Journées de Géostatistique – 15 & 16 septembre 2011 Archéologie préventive et géostatistique : vers un indispensable mariage de raison ? Christophe Tuffery INRAP-DST-SMQ [email protected] En archéologie préventive, la géostatistique est encore très peu utilisée. Les raisons en sont multiples mais on peut surtout en retenir les suivants : manque de formation des archéologues et autres scientifiques aux principes et méthodes de la géostatistique et à leurs possibilités d'application en archéologie faiblesse des publications dans le domaine manque de lieux (publications, rencontres) d'échanges croisés et de débats pluridisciplinaires entre les spécialistes de géostatistique et les archéologues et autres scientifiques intervenant en archéologie. Devant ce constat qu'on ne peut que regretter, il est indispensable d'appeler à de tels rapprochements et échanges entre ces disciplines qui se sont peu croisées jusqu'à maintenant au moins en France. L'exemple présenté dans notre communication vise, à partir d'un exemple limité, à démontrer les possibilités d'utiliser certaines des méthodes simples de géostatistique appliquées à des données d'archéologie préventive. Au-delà de la discussion des résultats provisoires, de leur pertinence méthodologique et de leur validité scientifique, il s'agit aussi et même surtout d'inciter à rapprocher des discours et des pratiques scientifiques qui ont un intérêt à échanger davantage que cela n'a été le cas jusqu'à maintenant, à la fois pour mieux se connaître mutuellement et pour mieux comprendre leurs principes méthodologiques respectifs. L'archéologie préventive, par définition, dispose de données très discontinues et très hétérogènes, dont les degrés d'incertitude, d'incomplétude, d'imprécision nécessitent de recourir à des méthodes comme celles de la géostatistique (mais pas seulement) pour pallier en partie ces problèmes de disponibilité et de qualité des données, souvent mal décrites et explicitées par les archéologues, donnant ainsi lieu à une part d'interprétation parfois trop grande de leurs données et une méconnaissance des limites de validité des résultats qu'ils en tirent. Or la gestion de l'incertitude et celle des multi-temporalités et multi-spatialités des données et des problématiques archéologiques se prêtent particulièrement bien, dans certaines conditions, à la mobilisation de certaines méthodes de la géostatistique. L'exemple présenté concernera des données archéologiques à différentes échelles, depuis l'échelle d'une opération archéologique, à l'échelle du territoire national métropolitain en passant par l'échelle de territoires régionaux administratifs ou de territoires ayant un sens archéologique, pour démontrer comment certains outils de la géostatistique permettent de démontrer simplement ce que cette discipline peut apporter à l'archéologie préventive. Il s'agit d'inviter les collègues archéologues à se rapprocher de cette discipline qui, encore trop souvent, les effraie par la nature même de cette dernière et de ses pré-requis méthodologiques, ses concepts et les outils mathématiques et statistiques mobilisés. Enfin, il sera fait un point sur l'utilisation de certains outils de géostatistique associés à des logiciels de SIG, de plus en plus utilisés en archéologie préventive, pour attirer l'attention sur les risques de dérives d'une utilisation "presse-bouton" de ces modules, sans une connaissance ni une formation préalables indispensables à la géostatistique et à ses principes, ses conditions, ses possibilités et ses limites, en particulier dans le champ d'application de l'archéologie. Centre de Géosciences / Equipe Géostatistique – Mines ParisTech 35, rue Saint-Honoré – 77300 FONTAINEBLEAU 43 44 Les Journées de Géostatistique – 15 & 16 septembre 2011 Conférence “Note de lecture en Statistiques” par Pierre DELFINER 1. Le paradoxe de Simpson 2. La propriété d’être positivement corrélé est-elle transitive ? 3. La corrélation varie-t-elle entre -1 et +1 ? Centre de Géosciences / Equipe Géostatistique – Mines ParisTech 35, rue Saint-Honoré – 77300 FONTAINEBLEAU 45