PDF [0.4Mo] - Centre de Géosciences

Transcription

PDF [0.4Mo] - Centre de Géosciences
LES JOURNEES DE GEOSTATISTIQUE
15 & 16 SEPTEMBRE 2011
Recueil des résumés
Centre de Géosciences
Equipe Géostatistique
Fontainebleau
Organisateurs : Chantal de Fouquet
Thomas Romary
Nathalie Dietrich
2
Les Journées de Géostatistique – 15 & 16 septembre 2011
Geostatistical simulations for groundwater flow modelling
under ice sheet conditions in Greenland
Olivier Jaquet1, Rabah Namar1, P. Jansson2, Pascal Siegel1
1
In2Earth Modelling Ltd, Switzerland
2
Stockholm University, Sweden
[email protected]
SKB (Sweden), POSIVA (Finland) and NWMO (Canada) have established in 2009 the GAP project
(Greenland Analogue Project). These three organisations want to improve current understanding of
continental ice sheet and permafrost effects on groundwater flow and water chemistry in crystalline rocks
at depths of a potential repository for nuclear waste. The idea is to apply the Greenland ice sheet as an
analogue to future glaciations in Fennoscandia and Canada. The GAP project will enable to perform
geological and geophysical investigations, measurements of glacial hydrology and hydrogeology as well
as geochemical analyses in relation to current ice sheet conditions in Greenland. Within the framework of
the GAP project, a regional groundwater flow model under ice sheet conditions was developed for a
specific location in Greenland. Conceptually, the groundwater flow system is considered to be governed
by infiltration of glacial meltwater in heterogeneous faulted crystalline rocks in the presence of permafrost
and taliks. The geological medium with conductive deformation zones was modelled as a 3D stochastic
continuum with five hydrogeological units whose hydraulic properties were described using a
geostatistical simulation method. Based on glaciological concepts, a stochastic model was proposed for
describing the subglacial permafrost distribution in correlation with bed elevation. Numerical modelling of
groundwater flow was performed at regional scale under steady state conditions for various sensitivity
cases that included variations in boundary conditions and permafrost distribution. The presentation will
outline the importance of geostatistical simulations for the description of heterogeneous geological and
hydraulic properties used as input for groundwater flow modelling.
Keywords: geostatistical simulations, ice sheet, groundwater flow modelling, Greenland.
Centre de Géosciences / Equipe Géostatistique – Mines ParisTech
35, rue Saint-Honoré – 77300 FONTAINEBLEAU
3
4
Les Journées de Géostatistique – 15 & 16 septembre 2011
1D Runoff production in the light of queueing theory - Heterogeneity,
connectivity and scale
Marie-Alice Harel 1, E. Mouche 1, J. Patin 1, E. Ledoux 2
1
LSCE -
2
MINES-ParisTech
[email protected]
Runoff production on a hillslope during a rainfall event may be basically described as follows. Given a
soil of constant infiltrability I, which is the maximum amount of water that the soil can infiltrate, and a
constant rainfall intensity R, runoff is observed where R is greater than I. The infiltration rate equals the
infiltrability when runoff is produced, R otherwise. In this simplified description, ponding time,
topography, and overall spatial and temporal variations of physical parameters, such as R and I, are
neglected.
In this study, we consider soils of spatially variable infiltrability. Our aim is to assess, in a stochastic
framework, the runoff organization on 1D slopes with random infiltrabilities by means of theoretical
developments and numerical simulations. As the modelled runoff can re-infiltrate on down-slope areas of
higher infiltrabilities (runon), the resulting process is highly non-linear. The stationary runoff equation is:
Qn + 1/ Dx = Qn / Dx + (R-in)+
where Qn is the runoff arriving on pixel n of size Dx [L2/T], R and in the rainfall intensity and infiltration
function on that same pixel [L/T]. The non-linearity is due to the dependence of in on R and Qn.
A theoretical framework based on the queueing theory is developed. We implement the idea of Jones et
al. (2009), who remarked that the above formulation is identical to the waiting time equation in a single
server queue. Thanks to this theory, it is possible to accurately describe some outputs of our numerical
model, notably the runoff repartition over the slope for uncorrelated exponential infiltrability distributions.
We analyse the influence of the infiltrability distribution (log-normal, exponential, bimodal...) on the
outflow and on the spatial runoff organisation. Our first results indicate that these distributions have
limited impacts on the outlet runoff for sufficiently long slopes, indicating a scale effect. However, runoff
patterns organize differently depending on the distribution of I, and their connectivity is assessed using the
connectivity function of (Allard, 1993).
Centre de Géosciences / Equipe Géostatistique – Mines ParisTech
35, rue Saint-Honoré – 77300 FONTAINEBLEAU
5
6
Les Journées de Géostatistique – 15 & 16 septembre 2011
Gradual Deformation Method for Calibrating Transmissivities from Piezometric
Heads: An application to the Culebra Formation, New Mexico, USA
Mickaele Le Ravalec 1 et Emmanuel Mouche 2
1
IFP Energies Nouvelles - 2 CEA
[email protected]
An aquifer model is assumed to be reliable when it reflects the behavior of the actual aquifer. Thus, it
must respect the available direct and indirect data that are pertinent to fluid flow. Direct data include for
instance the transmissivity values derived from well logs, or measured on cores extracted from wells.
However, they provide limited information about the spatial distribution of transport properties within the
aquifer. Thus, they are complemented by indirect data such as piezometric heads. A possible approach is
to take advantage of the link between transport properties and heads to better constrain the aquifer model.
This issue is an inverse problem. Flow equations being known, it consists of determining aquifer models
for which the simulated heads fit the measured heads. Due to the large number of parameters involved in
such models, it is essential to properly parameterize the changes to grid blocks properties.
The Gradual Deformation Method (GDM) is a geostatistical parameterization technique introduced in
reservoir engineering for compelling reservoir models to respect production history. It makes it possible to
adjust the spatial distribution of the transport properties populating the reservoir model so that the flow
responses simulated for the modified model closely replicate the production data collected on the field.
We propose to investigate the potential of the GDM to produce heterogeneous transmissivity fields
conditional to piezometric head measurements within a stochastic context. It focuses on the calibration of
the Culebra Dolomite aquifer, which lies approximately 450 m above the repository horizon of the Waste
Isolation Pilot Plant (WIPP) in southeastern New Mexico, USA. Transmissivities were measured in 45
wells and steady-state heads in 36 wells. Conventional statistical tools were used to simulate
transmissivity realizations honoring transmissivity data. The GDM was then applied to compel these
realizations to respect also the head data. To make the overall matching process efficient, we referred to
the local variant of the GDM, meaning that transmissivity realizations were locally modified to be able to
reproduce the measured heads. The various zones considered were defined from a set of Voronoi polygons
centered at wells with head data available. One deformation parameter was assigned to each of them.
Thus, we aim to minimize the misfit between the measured heads and the corresponding responses
simulated for the target transmissivity model by adjusting 36 gradual deformation parameters. An
advantage of the GDM is the preservation of transmissivity continuity in between zones. The matching
method proposed here was shown to be efficient and to converge pretty fast to suitable transmissivity
realizations. It was applied first to identify several transmissivity realizations respecting both
transmissivity and steady-state head data and second to assess uncertainty in these conditional models.
Keywords: inverse problem, parameterization, gradual deformation, WIPP case
Centre de Géosciences / Equipe Géostatistique – Mines ParisTech
35, rue Saint-Honoré – 77300 FONTAINEBLEAU
7
8
Les Journées de Géostatistique – 15 & 16 septembre 2011
Filtrage de l’impédance-sismique à l’aide de l’impédance-log
Danitza Aburto1, Hélène Beucher1, Daniel Guillemot2, Jean-Luc Mari3
1
MINES-ParisTech - 2 ANDRA - 3 IFP
[email protected]
L‟impédance-sismique et l‟impédance-log sont des mesures indirectes des caractéristiques physiques du
sous-sol. L‟impédance-log est calculée à partir des mesures diagraphiques (produit de la densité de la
roche par la vitesse des ondes P). L‟impédance-sismique est obtenue lors de l‟inversion géophysique de
l‟amplitude mesurée le long des profils sismiques de réflexion, à l‟aide de l‟impédance-log.
Pour les étudier conjointement, ces deux impédances sont mises de façon classique sur un même support
(ici 1 milliseconde) et dans la même gamme de fréquences (environ 70 Hz), paramètres qui sont donnés
par la sismique.
L‟analyse des variogrammes simples et croisés, a permis de formuler l‟hypothèse suivante : « les deux
mesures d‟impédances se composent d‟une variable (notée Z) liée aux caractéristiques géologiques du
milieu et d‟un résidu lié à chaque mesure, les résidus sont non corrélés entre eux et non corrélés à la
variable Z ». L‟ajustement satisfaisant des variogrammes expérimentaux permet d‟accepter cette
hypothèse. L‟estimation de la composante commune (Z) est donc réalisée par co-krigeage, en filtrant les
composants résidus.
L‟application de cette méthode a été faite sur les données fournies par l‟ANDRA, dans le cadre de
recherches qui visent à évaluer la faisabilité de créer un stockage de déchets radioactifs, dans la formation
argileuse du Callovo-Oxfordien. Un facteur limitant pour cette étude est le faible nombre de puits dans la
zone d‟intérêt, qui entraîne la non connaissance expérimentale du comportement spatial bi variable suivant
l‟horizontale. Un cokrigeage ne peut donc être réalisé qu‟en choisissant un modèle horizontal a priori. Par
contre, verticalement, le cokrigeage assure la cohérence de l‟estimation de Z au niveau des puits.
Centre de Géosciences / Equipe Géostatistique – Mines ParisTech
35, rue Saint-Honoré – 77300 FONTAINEBLEAU
9
10
Les Journées de Géostatistique – 15 & 16 septembre 2011
Moving-geostatistics for automated interpolation – Application to environmental
data
Cédrice MAGNERON, Thomas Demongin
ESTIMAGES
[email protected]
Most geostatistical models usually used in the industry are variogram-based. However, when analysis and
modeling of a global experimental variogram is involved, these models have two major shortcomings:
they lack objectivity, and are often inaccurate. The lack of objectivity is a consequence of interpretation
and fitting of an experimental variogram, even when done automatically. The lack of accuracy comes
from the inadequacy between a global variogram model and the local structural characteristics of data.
Moving-GeoStatistics (M-GS) provides a set of techniques for optimizing locally the parameters involved
in variogram-based models, especially structural parameters, such as ranges and anisotropy direction.
Optimized parameters, adapted to the local structural characteristics of data, lead to better estimation and
simulation results than those obtained by using global parameters deduced from a conventional structural
analysis.
One of M-GS techniques is based on a local kriging cross-validation process. It involves determining
locally the combination of variographic parameters that minimizes the cross-validation error. Consistency
of the parameters can be improved by applying the process within overlapping windows.
This cross-validation technique, objective and free from any variogram interpretation, has been
implemented into industrial software for mapping purpose. Environmental data available at a mesh of
100m x 100m are automatically estimated by ordinary kriging at a mesh of 10m x 10m. The quality
improvement due to the technique, locally higher than 20%, is illustrated by comparing it to classical
estimates for a real data set. Being automated and giving better mapping results, the technique is
promising as it can be used in many interpolation processes.
Centre de Géosciences / Equipe Géostatistique – Mines ParisTech
35, rue Saint-Honoré – 77300 FONTAINEBLEAU
11
12
Les Journées de Géostatistique – 15 & 16 septembre 2011
A propos de l’ajustement automatique des variogrammes
Didier Renard and Nicolas Desassis
MINES-ParisTech
[email protected]
In the non-stationary case, geostatistical techniques raise the critical issue of the inference of the
parameters which describe its spatial characteristics. For instance, in Universal Kriging, we first split the
variable into a deterministic drift and the residuals. The model fitted on the residuals may be severely
biased at large distances. On the other hand, in the theory of Intrinsic Random Functions of order k, data
are considered through increments which filter out any polynomial drift of a given order. The variances of
these increments can be written as linear combinations of the model. This property is implemented to
derive the (multiplicative) coefficients of each polynomial term which compose the generalized
covariance. Only linear properties can be inferred, therefore forbidding the inference of ranges for
example.
Experimental generalized variograms (or variograms of iterated increments) have been introduced for
measuring the spatial characteristics of a variable, while filtering out any polynomial drift of a given
degree. Moreover, there is a relationship between the model of a variable and the one of its increments.
This property will be used through an automatic fitting tool, to fit the model of a non-stationary variable.
This inference is not limited to specific variogram or generalized covariance terms, and can address all
types of parameters including ranges. Finally, this technique can even be extended to the multivariate
case.
This methodology is illustrated through a case study where the top and bottom of a layer, recognized
through 2-D seismic lines, present a large distance complex trend system.
Centre de Géosciences / Equipe Géostatistique – Mines ParisTech
35, rue Saint-Honoré – 77300 FONTAINEBLEAU
13
14
Les Journées de Géostatistique – 15 & 16 septembre 2011
Le Krigeage Complet
Marco Alfaro
YAMANA Gold
[email protected]
Dans certaines situations, le krigeage en voisinage glissant (ou local) cause des artefacts. Le choix d‟un
bon voisinage est donc un point crucial d‟une estimation locale. On examine les conséquences du choix
des paramètres utilisés pour le krigeage: méthode de recherche, maximum de données, maximum de
points par quadrant ou octant, maximum d‟échantillons par sondage. La conclusion est que la zone de
recherche doit être assez grande. Par la suite on a construit un programme d‟ordinateur pratique pour faire
le krigeage complet ou krigeage en voisinage unique.
On étudie les propriétés du krigeage complet : relation de lissage, existence des poids négatifs, calcul des
variances d‟estimation. L‟application à la classification des ressources minières est examinée.
Centre de Géosciences / Equipe Géostatistique – Mines ParisTech
35, rue Saint-Honoré – 77300 FONTAINEBLEAU
15
16
Les Journées de Géostatistique – 15 & 16 septembre 2011
Dimension Reduction of a Steam Generator Thermohydraulic Model
Sylvain Girard1 Thomas Romary2, Hans Wackernagel2
1
MINES-ParisTech et EDF, 2 MINES-ParisTech
[email protected]
Steam generators – Pressurized light water nuclear power plants mainly consist of two separated water
loops that exchange heat. The water from the primary loop goes first through the reactor where it is heated
by the nuclear reaction and then through heat exchangers called Steam Generators (SG) where it transfers
heat to the water of the secondary loop. The steam exiting the SG upper opening then flows through
turbines.
A SG consists of a cylindrical tank (approx. 20 m high and 3m wide) that contains the secondary steamliquid mixture. The primary water enters the SG at its bottom and goes through a bundle of U shaped
tubes. Circular plates called Tube Support Plates (TSPs) maintain the tube bundle. The TSPs have circular
holes to allow for the passage of the tubes and these holes are surrounded by additional quatrefoil holes
that allow for the passage of the secondary steam-liquid mixture.
Tube support plates clogging – Steam Generators (SG) are affected by fouling of their internal elements
by iron oxides present in the secondary feed-water. This causes clogging of the quatrefoil holes of the
TSPs that can induce safety issues. Means to estimate TSP clogging are needed to optimize maintenance
operations.
Previous studies (Midou et al., 2010) demonstrated that the shape of the Wide Range Level (WRL – the
pressure difference measured between the steam dome and the bottom of the downcomer) response curve
to a power transient is determined by the clogging state of the TSPs. A diagnosis method based on
comparison between measured response curves and simulated ones for varying clogging states is being
developed by EDF. For that purpose, a mono-dimensional SG model has been created with Modelica and
the Dymola software. It is able to simulate the SG behaviour during power transient phases. Power
decreases are performed on French nuclear reactors every three months which allows for frequent
diagnosis. The input variables of the model are the clogging ratios of each half TSP, one for the hot and
cold legs of the U-tube bundle. Clogging ratios are defined as the ratio of the closed area to the total area
of the holes without any clogging. The output of the model consists of the 1200 values of WRL (1 per
second) given the clogging ratios of the 16 half TSP.
The dimension of both the input and output of the model are high which hinders the development of a
simple and robust diagnosis method. The objective of the present study is to propose a lesser number of
substitute input and output variables that account more efficiently of the effects of clogging.
Sensitivity Analysis – A method based on the ANOVA-decomposition and a Monte Carlo computation
scheme has been used to compute order 1 and total sensitivity indices for each half-TSP (Sobol‟, 2001).
Sequential indices were first computed and exhibited different behaviour for the hot and cold leg as well
as four distinct phases during the transient. As the model output is functional, principal component
analysis (PCA) was carried out to reduce the dimensionality of the model output and compute „compact‟
order 1 and total sensitivity indices for each major principal component (Lamboni et al., 2009). The model
output has been reduced to the first two sets of loadings and two sets of order 1 and total indices have been
computed. Finally, estimation variability was assessed by construction of bias corrected and accelerated
bootstrap confidence intervals. Only a few interactions have been observed.
Centre de Géosciences / Equipe Géostatistique – Mines ParisTech
35, rue Saint-Honoré – 77300 FONTAINEBLEAU
17
Sliced Inverse Regression – The PCA coordinates were then used as output variables. A model of
unknown link function depending on linear combination of the input variables and an independent random
noise was assumed. A multivariate extension of sliced inverse regression (SIR) (Li, 1991 et Barreda,
2007) was used with various sampling designs to estimate the subspace spanned by these linear
combinations. Its dimension was determined by bootstrap. Eventually, the input of the model could be
reduced to 2 weighted means of the hot leg and cold leg input variables.
Joint use of sensitivity analysis, PCA and SIR allowed reducing the output dimension from 1200 to 2 and
the input dimension from 16 to 2. The new set of variables allows for straightforward interpretation and its
small dimension paves the way towards surface responses and associated methods.
References
L. Barreda, A. Gannoun, and J. Saracco. Some extensions of multivariate sliced inverse regression.
Journal of Statistical Computation and Simulation, 77(1):1–17, 2007.
M. Lamboni et al. Multivariate global sensitivity analysis for dynamic crop models. Field Crops Research,
113:312–320, 2009
K.C. Li. Sliced inverse regression for dimension reduction. Journal of the American Statistical
Association, 86(414):316–327, 1991.
M. Midou et al. Estimation of SG TSP blockage: Innovative monitoring through dynamic behavior
analysis (ICONE18) 2010
I.M. Sobol‟. Global sensitivity indices for nonlinear mathematical models and their Monte Carlo
estimates. Mathematics and Computers in Simulation, 55:271–280, 2001
Keywords
Sensitivity analysis, principal component analysis, sliced inverse regression, dimension reduction,
bootstrap, Steam generators.
18
Les Journées de Géostatistique – 15 & 16 septembre 2011
Domaining by clustering multivariate geostatistical data
Thomas Romary1, Nicolas Desassis1, Jacques Rivoirard1, J. Deraisme2,
Cristian Quinones3 and Xavier Freulon3
1
MINES-ParisTech -
2
GEOVARIANCES -
3
AREVA NC
[email protected]
Domaining is very often a complex and time-consuming process in mining assessment. Apart from the
further delineation of envelopes, a significant number of parameters (lithology, alteration, grades…) are to
be combined in order to characterize domains or sub domains. This rapidly leads to a huge combinatory.
Hopefully the number of domains should be limited, while ensuring their connectivity as well as the
stationarity of the variables within each domain. In order to achieve this goal, different methods for the
spatial clustering of multivariate data are explored and compared. A particular emphasis is placed on the
ways to modify existing procedures of clustering in non spatial settings to enforce the spatial connectivity
of the resulting clusters. K-means, spectral methods and EM-based algorithms are reviewed. The methods
are illustrated on mining data.
Centre de Géosciences / Equipe Géostatistique – Mines ParisTech
35, rue Saint-Honoré – 77300 FONTAINEBLEAU
19
20
Les Journées de Géostatistique – 15 & 16 septembre 2011
Industrial experience feedback of a geostatistical estimation of contaminated soil
volumes
Claire Faucheux, Nicolas Jeannée
GEOVARIANCES
[email protected]
Geostatistics meets a growing interest for the remediation forecast of potentially contaminated sites:
pollution mapping, contaminated volumes estimation, integration of auxiliary information, setup of
adaptive sampling strategies. This interest has been supported by the GeoSiPol association (Geostatistics
for Polluted Sites) created in 2004 and which is gathering together geostatistical specialists and actors
involved in the characterization of polluted sites: institutional organizations, industrial and consulting
offices.
As part of demonstration studies carried out for GeoSiPol and with the financial contribution of Ademe,
geostatistics has been applied for the detailed diagnosis of a former TOTAL oil deposit in France. Several
investigation campaigns put into evidence high hydrocarbons grades in the lower part of a backfill layer
covering almost entirely the site. Given the future use of the site, health risks led to the definition of a
remediation threshold on Total Hydrocarbon. As a consequence, the location of areas presenting
hydrocarbons grades above the remediation threshold had to be estimated. Geostatistics allowed to
estimate pessimistic / probable / optimistic scenarios for the contaminated volumes and to quantify the
risks associated to the remediation: financial risk to excavate clean soils, sanitary risk to leave in place
contaminated soils. After a first mapping, an iterative approach led to collect additional samples in
uncertain areas previously identified by geostatistics. Estimated volumes were then updated, leading to a
probable contaminated volume of 12 100 m3, associated to a 90% confidence interval lying between
10 000 and 15 400 m3.
Today, the effective remediation of the site allows to provide an experience feedback about the
geostatistical methodology. In particular, the estimated volumes can be compared to the real one equal to
13 100 m3 of contaminated soil. This value is close to the probable estimated volume and widely included
in the 90% confidence interval.
The study shows that geostatistics is a well-suited approach for the remediation forecast of such
contaminated sites. Moreover it provides a framework for both uncertainty assessment and cost-benefit
analyses, in particular regarding the relevance of collecting additional data versus starting the remediation.
Centre de Géosciences / Equipe Géostatistique – Mines ParisTech
35, rue Saint-Honoré – 77300 FONTAINEBLEAU
21
22
Les Journées de Géostatistique – 15 & 16 septembre 2011
Spatial representativeness of an air quality monitoring station.
Delimitation of exceedance areas
Maxime Beauchamp 1, Laure Malherbe 1, Chantal de Fouquet 2, Laurent Létinois 1
1
INERIS, Direction des Risques Chroniques
2
MINES-ParisTech
[email protected]
Spatial representativeness of a monitoring station and spatial extent of an exceedance zone in case of noncompliance with environmental objectives are notions appearing in the European legislation on ambient
air quality. No specific approach is prescribed to delimit such areas. We developed a probabilistic
methodology based on a preliminary kriging estimate of atmospheric concentrations at each point of the
domain.
In the proposed definition, a point is considered as belonging to the area of representativeness of a station
if its concentration differs from the station measurement by less than a given threshold. Additional criteria
related to distance or environmental characteristics may also be introduced.
The standard deviation of the estimation error is then used, to select the points, at a fixed risk, where the
difference of concentration with respect to the station is below the threshold and to provide the probability
of overshooting a limit value.
Stability in time and sensitivity to the selected criteria are first tested with NO2 annual concentration data
produced on national scale by combining surface monitoring observations and outputs from the
CHIMERE chemistry transport model.
On the local scale, data from passive sampling surveys and high resolution auxiliary variables are used to
provide a more precise estimate of background pollution. Traffic related pollution can also be accounted
for in the map with help of additional information such as distance to the road, traffic-related NOx
emissions, or road traffic counts. The methodology is applied to NO2 experimental datasets for different
French cities to assess the spatial representativeness of stations and delimit areas of exceedance of the
NO2 annual limit value.
Centre de Géosciences / Equipe Géostatistique – Mines ParisTech
35, rue Saint-Honoré – 77300 FONTAINEBLEAU
23
24
Les Journées de Géostatistique – 15 & 16 septembre 2011
Méthodes et critères pour l’optimisation d’un plan d’échantillonnage de la qualité
de l’air en agglomération
Thomas Romary1, Chantal de Fouquet1 et Laure Malherbe2
1
2
MINES-ParisTech
INERIS, Direction des risques chroniques
[email protected]
In this work, we present a spatial statistical methodology to design benzene air concentration measurement
surveys at the urban scale. In a first step, we define an a priori modeling based on an analysis of data
coming from previous campaigns on two different agglomerations. More precisely, we retain a modeling
with an external drift which consists of a drift plus a spatially correlated residual. The statistical analysis
performed leads us to choose the most relevant auxiliary variables and to determine an a priori variogram
model for the residual. An a priori distribution is also defined for the variogram parameters, whose values
appear to vary from a campaign to another. In a second step, we optimize the positioning of the measuring
devices on a third agglomeration according to a Bayesian criterion. Practically, we aim at finding the
design that minimizes the mean over the urban domain of the universal kriging variance, whose
parameters are based on the a priori modeling, while accounting for the prior distribution over the
variogram parameters. Two optimization algorithms are then compared: simulated annealing and a particle
filter based algorithm.
Centre de Géosciences / Equipe Géostatistique – Mines ParisTech
35, rue Saint-Honoré – 77300 FONTAINEBLEAU
25
26
Les Journées de Géostatistique – 15 & 16 septembre 2011
Optimisation de campagnes d’échantillonnage pour la caractérisation de
contaminations de sols
Aurélien Bechler 1, Thomas Romary 2, Yvon Desnoyers 1, Nicolas Jeannee 1
1
GEOVARIANCES - 2 MINES-ParisTech
Dans le cadre du démantèlement et de l'assainissement d'installations ayant contenu des matières
radioactives, des surfaces de béton doivent être retirées. En fonction de leur niveau de contamination, les
blocs retirés sont envoyés dans des centres d'élimination différents. De plus, les coûts correspondant au
traitement de ces déchets dépendent grandement du niveau de leur radioactivité. La bonne quantification
de ces niveaux de radioactivité est donc un enjeu de taille dans ces processus de démantèlement. Il devient
ainsi très important de pouvoir délimiter différentes zones en fonction de leur niveau de contamination.
Pour ce faire, des mesures sont effectuées à certains endroits ponctuels du site et à l'aide de techniques
géostatistiques, des valeurs extrapolées sont déduites pour le reste de l'installation. Dans un premier temps,
seules des mesures de rayonnement surfacique de la radioactivité sont effectuées. En effet, les mesures du
réel degré de contamination se font par sondages destructifs et sont très coûteuses. A l'inverse, les mesures
surfaciques sont faciles à mettre en œuvre et peu coûteuses. Une possibilité serait donc d'effectuer un
grand nombre de mesures surfaciques et seulement quelques sondages pour pouvoir caler une relation
entre ces deux quantités. Le problème vient du fait que cette relation n'est pas forcément linéaire et peut ne
pas être la même d'un bout à l'autre du site. Ainsi, un bon arbitrage entre le nombre de mesures
surfaciques et le nombre de prélèvements est à effectuer, avec également la nécessité d'identifier les zones
dans lesquelles ces opérations devront être mise en oeuvre.
Plusieurs algorithmes ont été développés (Couverture spatiale, Algorithme « Glouton », Recuit simulé).
Chacun d'entre eux prend en entrée le jeu de mesures initiales ainsi qu'une grille de points candidats
recouvrant l'ensemble du site étudié. Différents critères ont été envisagés pour comparer les algorithmes :
longueur des intervalles de confiance autour de chaque points, incertitude autour de probabilités de
dépassement d'un seuil, pourcentage de zones mal classées ou encore la variance de krigeage globale.
Ainsi, pour comparer les différents algorithmes ou échantillons obtenus, il faudra regarder lequel minimise
l'un de ces critères. Il se pourrait qu'en fonction du critère choisi, l'algorithme optimal ne soit pas le même.
L'autre paramètre qui jouera un rôle prépondérant est le temps de calcul nécessaire.
Il apparaît que pour tous les critères envisagés, la méthode de couverture spatiale est la moins
performante, comme on pouvait s'y attendre. Dans la suite de ce projet, elle ne sera sans doute plus
envisagée.
Les deux autres algorithmes sont, quant à eux, beaucoup plus compétitifs avec de meilleures performances
pour tous les critères envisagés. L'algorithme « Glouton » est performant pour tous les critères mais
requiert un temps de calcul plutôt élevé dès lors que la grille des points possibles devient assez fine pour
être réaliste(en effet l'algorithme la parcourt entièrement à chaque étape). Néanmoins l'avantage de cet
algorithme est que, une fois le premier point ajouté, le temps total de calcul est facile à prédire.
Le recuit simulé atteint, quant à lui, un niveau de performance un peu meilleur avec un temps de calcul
plus faible. Mais dans ce cas, le temps de calcul nécessaire, ainsi que la performance de cet algorithme
varient d'une fois à l'autre et ne sont donc pas prédictibles de manière sûre. De nombreuses simulations
sont donc à effectuer pour décrire la distribution de la performance et du temps de calcul du recuit simulé.
Ces deux algorithmes ont donc leurs avantages et inconvénients, et leur cadre d'utilisation dépend en
partie des souhaits de l'utilisateur.
Ainsi l'objectif de ce travail est, qu'en fonction d'un critère à minimiser et/ou du temps de calcul à
disposition de l'utilisateur, de pouvoir choisir l'algorithme le plus approprié pour ajouter un nombre
paramétrable de nouveaux points. Il est également envisageable, une fois les critères choisis et au vu des
premiers résultats, de conseiller le nombre optimal de points à ajouter avec une courbe de type
coût/amélioration.
Centre de Géosciences / Equipe Géostatistique – Mines ParisTech
35, rue Saint-Honoré – 77300 FONTAINEBLEAU
27
28
Les Journées de Géostatistique – 15 & 16 septembre 2011
Spatial sampling effect of laboratory practices in a Chilean porphyry copper
deposit
Serge Séguret
MINES-ParisTech
[email protected]
Sampling protocols usually concern the way some kilograms of material are reduced to some grams with
the same properties, but another protocol has to be considered: the choice of the samples to be used for
estimating the resources of the deposit or some of its attributes.
An important attribute is the metallurgical recovery. It must be calculated with data sampling the deposit.
Laboratory tests are made which reproduce the metallurgical recovery process at a reduced scale. There
are very few such tests because they are expensive. Hence the idea is to combine them with exploratory
data where the sole in situ grade is known, using geostatistical techniques.
While trying to put into practice this idea in a porphyry copper deposit located in the Chilean Central
Andes, we encountered a surprising situation: laboratory tests and exploration measurements are supposed
to use the same material but the total grades they measure do not have the same spatial variability, and this
is not only due to the quantity of material analyzed in each case.
The paper presents the study and the impact of four causes:
- Spatial restriction: Laboratory samples do not cover the same domain as exploration data.
- Regularization: Laboratory and exploration samples do not have the same size.
- Sampling density: In the studied area, there are about one hundred laboratory samples and
more than five thousand exploration ones.
- Grade selection: Laboratory practice avoids high grades.
The study shows that the major cause of the observed differences is the grade selection, but also that the
number of laboratory tests is certainly too small, with regard to the spatial variability of the grades. The
consequence is that the sampling protocol for the metallurgical recovery tests shall be completely
reconsidered.
Centre de Géosciences / Equipe Géostatistique – Mines ParisTech
35, rue Saint-Honoré – 77300 FONTAINEBLEAU
29
30
Les Journées de Géostatistique – 15 & 16 septembre 2011
Application des simulations stochastiques et des analyses d’incertitudes pour
l’optimisation des forages de développement minier d’un gisement d’uranium de
type roll front.
Gwenaële Petit, Gabrielle Rumbach, Hélène De Boissezon, Valérie Langlais
AREVA NC - BUM/DS/SER
[email protected]
La minéralisation en uranium dans les gisements de type « roll-front » exploités au Kazakhstan est liée à
la circulation de fluides chargés en uranium, dont le dépôt, associé au contexte redox et aux propriétés
perméables des roches encaissantes, engendre des géométries de gisements sinueuses et des teneurs en
uranium très hétérogènes.
L‟exploitation de ces gisements profonds et basses teneurs est réalisée par récupération in situ (ISR) grâce
à un maillage de puits alternant puits injecteurs de solutions lixiviantes et puits producteurs des fluides
chargés en uranium.
Les simulations stochastiques permettent de caractériser les incertitudes sur la connaissance des
gisements, d‟identifier les paramètres dont l‟impact est majeur et constituent une aide à la planification de
la production.
Ce papier décrit une application directe des études d‟incertitudes dans la planification des campagnes de
forages de développement des gisements.
La phase d‟exploration terminée, le gisement est modélisé en 3 dimensions avec la méthode des
simulations pluri-gaussienne pour caractériser les facies lithologiques, le contexte redox, et la géométrie
de la minéralisation. Plusieurs approches sont mises en regard, l‟une basée sur les données de sondages
seules et les courbes de proportions verticales, l‟autre intégrant l‟information du modèle géologique
déterministe du gisement. Les teneurs en uranium sont ensuite simulées dans les intervalles minéralisés
perméables.
La synthèse des résultats des simulations sous formes de cartes de probabilités permet d‟identifier des
zones encore incertaines. Des forages additionnels sont proposés visant à réduire les incertitudes sur la
géométrie de la minéralisation à exploiter. L‟approche peut être itérative.
Lorsque le contour de la minéralisation est précisé, les forages de développement minier sont ajoutés
jusqu‟à atteindre un niveau d‟incertitudes acceptable pour les ressources et la planification minière.
Mots clés : Mine - Gisement d‟uranium – Modélisation - Simulations - Incertitudes
Centre de Géosciences / Equipe Géostatistique – Mines ParisTech
35, rue Saint-Honoré – 77300 FONTAINEBLEAU
31
32
Les Journées de Géostatistique – 15 & 16 septembre 2011
Optimisation de la maille de pré-exploitation et estimation du minerai récupérable
pour le gisement de Dôme (Nouvelle Calédonie)
Olivier Bertoli 1, Jacques Deraisme 1, Jérôme Michaud 2
1
GEOVARIANCES -
2
SLN
[email protected]
La SLN achève une phase intensive de reconnaissance du gisement de Dôme. La géologie du gisement
présente des spécificités qui impactent sur la récupération et la valorisation du minerai, avec une
complexité remarquable à toutes les échelles d‟analyse : lithologie, conditions d‟oxydo-réduction,
minéralogie. Les paramètres clés du pilotage de l‟exploitation doivent être calibrés quantitativement, en
particulier la maille de sondage pré-exploitation et la méthode d‟estimation du contrôle de teneurs du
gisement. Le but de l‟étude présentée est double :
1. Permettre de chiffrer le gain en précision lié au resserrement de la maille pré-exploitation au moment du
pilotage de l‟exploitation, en fournissant une quantification des incertitudes :
a. Liées à la définition des enveloppes géologiques : Cette incertitude est décrite par des méthodes de
caractérisation de l‟incertitude globale visant à quantifier les gains obtenus par resserrement de la maille
pré-exploitation sur des volumes correspondant à des périodes de production fixées (mois, trimestre). Pour
cela, les précisions élémentaires (pour des périodes d‟exploitation de base, comme la semaine)
d‟estimation des variables puissance de couche et puissance passante à coupure sont estimées par krigeage
polygonal 2D sur la base de grilles pré-exploitation théoriques (5x5m, 10x10m centrée, 10x10m), puis
combinées pour caractériser l‟incertitude globale pour chaque maille sur des volumes correspondant aux
périodes de production fixées.
b. Liées à l‟estimation des teneurs : Pour prendre en compte à la fois le critère de sélection (teneur de la
partie variable de minerai altéré au-dessus de la coupure), le support de sélection et l‟effet d‟information
induit par les 3 mailles possibles, il est nécessaire de disposer de représentations plausibles du gisement
par simulations conditionnelles. Les simulations produisent des réalisations des variables tonnage
(proportion d‟altéré x densité) et métal (tonnage x teneur) afin de reconstituer des images plausibles de la
zone à l‟échelle des unités de sélection minière, et d‟échantillonner ces images à l‟aide de grilles de préexploitation afin de mesurer la précision de leur estimation.
2. Etablir un protocole d‟estimation du récupérable sur Dôme qui permette une prévision efficace et une
réconciliation adaptée avec le modèle établi au moment du pilotage.
L‟estimation du récupérable est réalisée à partir des données d‟exploration et de reconnaissance,
permettant d‟appréhender les effets de support (passage des panneaux) et d‟information (sélection ultime
basée sur la maille pré-exploitation fixée précédemment). Il est à noter qu‟au moment de l‟exploitation le
minerai est catégorisé avant traitement selon la teneur en Ni mais aussi les teneurs en MgO et Fe2O3 des
unités de sélection. L‟obtention des teneurs nécessitant de travailler via les variables accumulations (métal
et tonnage) et la catégorisation du minerai étant un problème multivariable, il semble judicieux d‟utiliser
là aussi des simulations conditionnelles. Pour chaque panneau on estimera les tonnages et teneurs de
chaque catégorie de minerai en utilisant une distribution statistique déterminée à partir d‟un nombre
suffisant de simulations.
La présentation mettra en avant plusieurs perspectives, notamment l‟applicabilité de méthodes de type
krigeage de résidus d‟indicatrices avec changement de support, dont il faudrait estimer la capacité à gérer
des problématiques multivariables.
Centre de Géosciences / Equipe Géostatistique – Mines ParisTech
35, rue Saint-Honoré – 77300 FONTAINEBLEAU
33
34
Les Journées de Géostatistique – 15 & 16 septembre 2011
Application du modèle des résidus d’indicatrices pour l’estimation des
ressources minérales d’un gisement d’uranium avec des valeurs extrêmes
Xavier Freulon1, Jacques Rivoirard2, Claude Demange1, Aurélie Lécureuil1, Clémence Côme3
1
AREVA NC -
2
MINES-ParisTech -
3
Ecole Polytechnique Montréal (Canada)
[email protected]
Les valeurs extrêmes sont communes dans un contexte de ressources naturelles (métaux précieux,
évaluation halieutique, polluants) : ces valeurs exceptionnellement hautes ou basses ne sont pas des
valeurs erronées ou anecdotiques mais bien le centre d‟intérêt du phénomène étudié. Cependant, ces
distributions très dissymétriques rendent l‟inférence des moments d‟ordre 1 et 2 imprécise.
Un modèle linaire simple a été développé (Rivoirard et al. 2010) pour exploiter ces valeurs extrêmes en
considérant que les seules informations spatiales pertinentes qu‟elles apportent sont leur localisation et
leur contribution aux statistiques globales (moyenne, variance et histogramme). Dans ce cas, la variable
d‟intérêt peut être décomposée en trois variables : la valeur tronquée, l‟indicatrice pondérée des zones à
fortes valeurs et le résidu ; l‟estimation de la variable peut alors être réalisée par cokrigeage. La base
mathématique de cette décomposition provient du modèle des résidus d‟indicatrices orthogonaux
(Rivoirard 1989).
L‟estimation linéaire (par exemple l‟estimation des ressources en place dans un cadre minier) peut être
complétée par les techniques de géostatistiques non linéaires associées au modèle iso factoriel pour
intégrer le changement de support et les coupures.
Ces développements sont illustrés sur un gisement d‟uranium exploité par technique minière sélective : le
modèle des résidus d‟indicatrices est utilisé pour le calcul des ressources récupérables et comparé aux
résultats du Conditionnement Uniforme Gaussien. Cette comparaison permet d‟illustrer l‟intérêt d‟intégrer
les valeurs extrêmes au processus d‟estimation en utilisant une technique mathématique adaptée, que ce
soit une normalisation par anamorphose gaussienne ou un codage par indicatrices.
Références :
RIVOIRARD J., DEMANGE C., FREULON X., LECUREUIL A., BELLOT N. (2010) Model
for top-cut with indicator residual adapted to deposits with very skewed grade
distribution. IAMG 2010 – Extended abstract. 14p.
RIVOIRARD J. (1989) Models with orthogonal indicator residuals. In Geostatistics,
M. Armstrong (Ed.), Kluwer Academic Publishers, Dordrecht, Vol.1, 91-107.
Centre de Géosciences / Equipe Géostatistique – Mines ParisTech
35, rue Saint-Honoré – 77300 FONTAINEBLEAU
35
36
Les Journées de Géostatistique – 15 & 16 septembre 2011
Block model in a multi facies context - Application to a Chilean
porphyry copper deposit
Serge Séguret
MINES-ParisTech
[email protected]
When a mineral deposit is made of geological bodies such as breccias or lenses that concentrate high
grades, and when the size of the production blocks is important compared to the average size of such
bodies, estimating block grades by ordinary kriging may produce unrealistic spatial continuity.
To improve the block model, a usual practice consists in:
(1) Estimating spatial proportions of facies (unit).
(2) Estimating the grades, facies by facies.
(3) Combining the results to obtain the block grades.
We show that this practice assumes some links between the geological bodies, which will be verified.
Then, we try to answer this general question: Given a set of samples where facies and grades are known,
what is the best way to build a block model? We propose a methodological work flow which leads to a
cokriging system where facies indicators are used, together with their product with the grade (the “partial
metals”), a method that does not require the previous calculation of the facies proportions, at the scale of
the blocks.
An application on porphyry copper deposit located in Chile is presented. We compare the results to a
usual kriging without any facies consideration, and to the usual approach.
Centre de Géosciences / Equipe Géostatistique – Mines ParisTech
35, rue Saint-Honoré – 77300 FONTAINEBLEAU
37
38
Les Journées de Géostatistique – 15 & 16 septembre 2011
Contribution of the process-based modeling to pluri-gaussian simulation in the
case of meandering channelized reservoirs
Hélène Beucher, Jacques Rivoirard, Isabelle Cojan and Fabien Ors
MINES-ParisTech
[email protected]
Simulating deposits associated to meandering channels with statistical methods is still a challenge due to
the complex forms of the sedimentary bodies (eg point bar deposits, crevasse splays, oxbow lakes).
Several conditional methods have been proposed to reproduce these geometries at the reservoir scale such
as object-based models, Boolean or multi point statistics. Nevertheless, these methods need first to define
a synthetic shape of individual sedimentary bodies and then to arrange these in the desired architecture.
Another way to simulate more accurately the sedimentary bodies and their internal structures is proposed
through the use of process-based-stochastic models, such as Flumy that is conditioned to well data.
However when the number of constraining data increases the conditioning is less efficient.
We propose to combine the benefits of the realistic simulation of sedimentary bodies of Flumy in
simulations performed with PGS that is adapted to conditioning of large data set.
Analysis of well data provides us with the necessary parameters (channel max depth, sand body extension,
net to gross) to perform several process-based simulations which characteristics correspond to the field to
be modeled. Statistics are then performed on these multiple realizations, to obtain more accurate
relationship to be used in the PGS simulation (lithofacies, spatial distribution of the facies proportion)
calibrating the PGS from the results of a genetic simulation.
By this way, the final conditional simulations produced with PGS are conditioned to as many well data as
needed and take also into account the spatial relationship of the different types of sedimentary bodies
The method is illustrated through a field data set. This dataset has been collected over the Loranca Basin
in Spain. Results are presented for two units with different N/G and sand body extension, illustrating the
potential of the method.
Centre de Géosciences / Equipe Géostatistique – Mines ParisTech
35, rue Saint-Honoré – 77300 FONTAINEBLEAU
39
40
Les Journées de Géostatistique – 15 & 16 septembre 2011
Use of Singular Value Decomposition in Kriging or CoKriging
Didier Renard
MINES-ParisTech
[email protected]
The Kriging technique relies on the kriging matrix whose elements reflect the distance between any pair
of data (within the neighborhood of the target site) involving the spatial structure of the variable. In the
multivariate case, the cokriging matrix also considers the cross-covariance which describes the joint
spatial characteristics of any pair of variables. This matrix needs to be inverted and therefore is sensitive
to singularity.
The Singular Value Decomposition technique (SVD) provides an efficient way of inverting any matrix. In
the case of singular (or quasi-singular) matrices, it provides an elegant solution. Applied to the definite
positive (or semi-definite positive) kriging matrix, it highlights pairs of points which are too close (in the
variogram metric) and lead to singular matrix. In particular and when applied to a clustered data set, a set
of N close points will receive a similar weight equal to 1/N of the weight that would be assigned to a
single representative data replacing them.
Another illustration is given in the case of a redundant model, such as the multivariate model describing
the joint spatial structure of a set of N compositional data. The variables are linked by an arithmetic
expression; this relationship also affects the corresponding multivariate model. Using all the variables in a
cokriging system leads to a singular matrix. Traditionally this requires solving the kriging system with N1 variables and deriving the last one by complementation. This is not necessary with SVD. This is
particularly useful for deriving the estimation variances for each variable or when using such a technique
with heterotopic data sets.
Centre de Géosciences / Equipe Géostatistique – Mines ParisTech
35, rue Saint-Honoré – 77300 FONTAINEBLEAU
41
42
Les Journées de Géostatistique – 15 & 16 septembre 2011
Archéologie préventive et géostatistique : vers un indispensable
mariage de raison ?
Christophe Tuffery
INRAP-DST-SMQ
[email protected]
En archéologie préventive, la géostatistique est encore très peu utilisée. Les raisons en sont multiples mais
on peut surtout en retenir les suivants :
manque de formation des archéologues et autres scientifiques aux principes et méthodes de la
géostatistique et à leurs possibilités d'application en archéologie
faiblesse des publications dans le domaine
manque de lieux (publications, rencontres) d'échanges croisés et de débats pluridisciplinaires entre
les spécialistes de géostatistique et les archéologues et autres scientifiques intervenant en
archéologie.
Devant ce constat qu'on ne peut que regretter, il est indispensable d'appeler à de tels rapprochements et
échanges entre ces disciplines qui se sont peu croisées jusqu'à maintenant au moins en France.
L'exemple présenté dans notre communication vise, à partir d'un exemple limité, à démontrer les
possibilités d'utiliser certaines des méthodes simples de géostatistique appliquées à des données
d'archéologie préventive. Au-delà de la discussion des résultats provisoires, de leur pertinence
méthodologique et de leur validité scientifique, il s'agit aussi et même surtout d'inciter à rapprocher des
discours et des pratiques scientifiques qui ont un intérêt à échanger davantage que cela n'a été le cas
jusqu'à maintenant, à la fois pour mieux se connaître mutuellement et pour mieux comprendre leurs
principes méthodologiques respectifs.
L'archéologie préventive, par définition, dispose de données très discontinues et très hétérogènes, dont les
degrés d'incertitude, d'incomplétude, d'imprécision nécessitent de recourir à des méthodes comme celles
de la géostatistique (mais pas seulement) pour pallier en partie ces problèmes de disponibilité et de qualité
des données, souvent mal décrites et explicitées par les archéologues, donnant ainsi lieu à une part
d'interprétation parfois trop grande de leurs données et une méconnaissance des limites de validité des
résultats qu'ils en tirent. Or la gestion de l'incertitude et celle des multi-temporalités et multi-spatialités des
données et des problématiques archéologiques se prêtent particulièrement bien, dans certaines conditions,
à la mobilisation de certaines méthodes de la géostatistique.
L'exemple présenté concernera des données archéologiques à différentes échelles, depuis l'échelle d'une
opération archéologique, à l'échelle du territoire national métropolitain en passant par l'échelle de
territoires régionaux administratifs ou de territoires ayant un sens archéologique, pour démontrer comment
certains outils de la géostatistique permettent de démontrer simplement ce que cette discipline peut
apporter à l'archéologie préventive. Il s'agit d'inviter les collègues archéologues à se rapprocher de cette
discipline qui, encore trop souvent, les effraie par la nature même de cette dernière et de ses pré-requis
méthodologiques, ses concepts et les outils mathématiques et statistiques mobilisés.
Enfin, il sera fait un point sur l'utilisation de certains outils de géostatistique associés à des logiciels de
SIG, de plus en plus utilisés en archéologie préventive, pour attirer l'attention sur les risques de dérives
d'une utilisation "presse-bouton" de ces modules, sans une connaissance ni une formation préalables
indispensables à la géostatistique et à ses principes, ses conditions, ses possibilités et ses limites, en
particulier dans le champ d'application de l'archéologie.
Centre de Géosciences / Equipe Géostatistique – Mines ParisTech
35, rue Saint-Honoré – 77300 FONTAINEBLEAU
43
44
Les Journées de Géostatistique – 15 & 16 septembre 2011
Conférence “Note de lecture en Statistiques”
par Pierre DELFINER
1. Le paradoxe de Simpson
2. La propriété d’être positivement corrélé est-elle transitive ?
3. La corrélation varie-t-elle entre -1 et +1 ?
Centre de Géosciences / Equipe Géostatistique – Mines ParisTech
35, rue Saint-Honoré – 77300 FONTAINEBLEAU
45

Documents pareils