Analyse de sensibilité globale et analyse harmonique: une

Transcription

Analyse de sensibilité globale et analyse harmonique: une
Analyse de sensibilité globale et analyse
harmonique: une nouvelle introduction aux
méthodes FAST et RBD
Jean-Yves TISSOT
(Université de Grenoble/INRIA)
dir. thèse: Clémentine PRIEUR et Éric BLAYO
Séminaire INRA 16 janvier 2012 Jouy-en-Josas
Avant-propos
> on considère 2 méthodes d'estimation d'indices de sensibilité :
1) Fourier Amplitude Sensitivity Test (FAST)
[Cukier et al., 1973], [Schaibly & Shuler, 1973],
[Cukier et al., 1975] et [Cukier et al., 1978]
2) Random Balance Design (RBD)
[Tarantola et al., 2006]
> objectif :réintoduire ces 2 méthodes de manière plus rigoureuse
−→ mieux comprendre
−→
faire le lien avec des théories existantes
−→ optimiser
−→ généraliser
1. Analyse de sensibilité
Généralités
Analyse de sensibilité globale basée sur la variance
Approche par analyse harmonique
2. Méthode FAST
FAST par le théorème ergodique de Weyl
Application : FAST vs Sobol'
FAST par les "lattice rules"
So, what's new ?
3. Méthode RBD
Dénition et redénition de RBD
Biais dans RBD
Application : correction du biais
1. Analyse de sensibilité
Généralités (1)
> Cadre : système entrée/sortie
f
: [ 0 , 1 ]d
X(ω)
−→ R
7−→ Y (ω) = f
X1 (ω), . . . , X
d
(ω)
−→ Xi v.a. indépendantes
−→ f déterministe
> Objectifs : connaître
sur la sortie Y l'eet des variables d'entrée X1 , . . . ,X
−→ connaître "qualitativement" :
- eet linéaire/non-linéaire ?
- eet conjoint de plusieurs variables (interaction) ?
−→ connaître "quantitativement" :
- eet plus important qu'un autre ?
- eet négligeable ?
d
Généralités (2)
> Exemple : analyse de sensibilité locale par les dérivées
−→ on évalue les dérivées partielles en un point x0 ∈ [0, 1]d
δi =
f (x10 , . . . , x 0 + ε, . . . , x 0 ) − f (x10 , . . . , x 0 )
i
d
d
ε
−→ le classement
|δ3 | < |δ7 | < |δ1 | < · · ·
indique alors l'inuence de chacune des variables.
−→ Problème : l'information recueillie est purement locale !
Généralités (3)
> Alternatives à l'analyse locale par les dérivées :
−→ analyse par les dérivées en plusieurs points du domaine
(voir screening de Morris [Morris, 1991] et indices de sensibilité
basés sur les dérivées [Sobol' & Kucherenko, 2010]).
−→ analyse de sensibilité globale basée sur la variance
Analyse de sensibilité globale basée sur la variance (1)
> Principe :
1) décomposition de
Y
Y
= f (X1 , . . . , Xd )
= f0 +f1 (X1 )+· · ·+fd (Xd )+f12 (X1 , X2 )+· · ·+f1...d (X1 , . . . , Xd )
2) évaluation des quantités
Var [f 1 ... m (X1 , . . . , X
i
i
d
)]
> Problème : non-unicité de la décomposition (D).
−→ exemple : Y = |{z}
1 + X1 = |{z}
0 + 1 + X1
|{z}
| {z }
f0
(
f 1 X1
)
f0
(
f 1 X1
)
(D )
Analyse de sensibilité globale basée sur la variance (2)
> Décomposition ANOVA de
Y
= f (X1 , . . . , Xd )
[Hoeding, 1948] Si E[Y 2 ] < +∞, la décompo-sition (D) existe et est unique sous la condition
∀{j1 , . . . , jt } {i1 , . . . , is }, E fi1 ...is (Xi1 , . . . , Xis )Xj1 , . . . , Xjt = 0
Théorème
−→ dans ce cas, f0 = E[Y ]
f1 (X1 ) = E[Y |X1 ] − E[Y ]
..
.
f12 (X1 , X2 ) = E[Y |X1 , X2 ]−E[Y |X1 ]−E[Y |X2 ]+E[Y ]
..
.
−→ les fi1 ,...,im (Xi1 , . . . , Xim ) sont orthogonales et centrées.
Analyse de sensibilité globale basée sur la variance (3)
> Dénition des indices de sensibilité :
−→ part de variance due à l'interaction des
X 1 ,. . . ,X m
i
i
:
V 1 ... m (f ) = Var [f 1 ... m (X 1 , . . . , X m )]
i
i
i
i
i
i
−→ variance totale :
V (f ) = Var [Y ]
−→ indices de sensibilité (ou de Sobol') :
S 1 ... m (f ) =
i
> Propriétés :
i
Su (f ) ≥ 0 et
P
V 1 ... m (f )
V (f )
i
i
Su (f ) = 1
> Estimation : Monte Carlo [Sobol', 1993], Hypercubes latins
répliqués [MacKay, 1995]
Approche par analyse harmonique (1)
> Décomposition harmonique de Y : (Xi uniformes)
X
Y=
ck (f )e 2i πk·X avec ck (f ) = E f X e −2i πk·X
k∈Zd
−→ on pose
f0 = cP0 (f )
f1 (X1 ) = ∈Z∗ c(
k
k
,0,...,0) (
f )e 2 π
i
kX1
..
. P
f12 (X1 , X2 ) = k ,h∈Z∗ c(k ,h,0,...,0) (f )e 2i π(kX1 +hX2 )
..
.
−→ c'est la décomposition ANOVA de
Y.
Approche par analyse harmonique (2)
> Dénition harmonique des indices de sensibilité : par Parseval,
X
X
|c(k ,h,0,...,0) (f )|2
|c(k ,0,...,0) (f )|2
S1 (f ) =
k
∈Z∗
X
k∈(Zd )∗
|ck (f )|2
,...,
S12 (f ) =
, ∈Z∗
k h
X
k∈(Zd )∗
|ck (f )|2
> Remarques :
−→ FAST repose sur cette décomposition harmonique
−→ = approche spectrale par polynômes de chaos [Sudret,
2007] (polynômes d'Hermite, Laguerre, Legendre. . . )
−→ si Y = g (Z1 , . . . , Zd ) avec Zi non uniformes, alors Y =
f (X1 , . . . , Xd ) avec Xi uniformes (par transformation inverse).
,...
Approche par analyse harmonique (3)
X1 , X2 v.a. uniformes, Y
> Exemple :
Y
= f (X1 , X2 )
1 e 2i π(4X2 ) + (−1) e 2i π(3X1 +X2 )
= |{z}
2 + (−4) e 2i πX1 + |{z}
| {z }
| {z }
c(0,0)
c(0,4)
c(1,0)
c(3,1)
2
2
2
2
Var [Y ] = k∈(Z
d ∗ |c (f )| = (−4) + 1 + (−1) = 18
P) k
Var [f1 (X1 )] = P ∈Z∗ |c( ,0) (f )|2 = (−4)2 = 16
Var [f2 (X2 )] = ∈ZP∗ |c(0, ) (f )|2 = 12 = 1
Var [f12 (X1 , X2 )] = , ∈Z∗ |c( , ) (f )|2 = (−1)2 = 1
P
k
k
k
k
k h
d'où
k h
16
S2 (f ) = S12 (f ) = 181 S1 (f ) = 18
2. Méthode FAST
Avant-propos
> approche harmonique = évaluer des ck (f ) = E[f (X)e −2i πk·X ]
−→ intégration num. potentiellement en grande dimension.
Soit l'estimateur "canonique" :
b
ck (f , D ) =
1 X
N x∈
f (x)e−2 πk·x
i
D
où
D
est un sous-ensemble ni de [0, 1]d de cardinal
> Exemple 1 :
> Exemple 2 :
> What else ?
N.
D : échantillon aléatoire uniformément distribué
sur [0, 1]d −→ Monte Carlo (converge lentement)
D
1 d
} avec
: grille régulière {0, n1 , . . . , n−
n
−→ TFD (irréalisable en terme de coût)
n
d
=N
FAST par le théorème ergodique de Weyl (1)
> Théorème ergodique de Weyl [Weyl, 1916] :
Z
f (x)d x =
[0,1[d
x (t ) = {ω t } et ω
i
i
i
1
T →+∞ 2T
lim
Z
T
f (x1 (t ), . . . , x (t ))dt
d
−T
∈ R linéairement indépendants sur Q.
> Par suite,
1
ck (f ) = lim
T →+∞ 2T
> Problème :
Z
T
f (x1 (t ), . . . , x (t ))e−2 π( 1 ω1 +···+ d ωd ) dt
i
d
−T
t ∈] − ∞, +∞[. . .
k
k
t
1
x(t)
ω2
x(0)
0
ω1
1
FAST par le théorème ergodique de Weyl (2)
> Dans FAST :
ωi ∈ N∗
ϕi ∈ [0, 2π[
Gi
>
x ∗ (t ) = G
i
i
shift aléatoire
1
: [−1, 1] → [0, 1] (=
π
sin(2πωi t + ϕi )
1
arcsin(·) + 2 pour des v.a.
Xi
uniformes)
x ∗ (·) 1-périodiques d'où
i
ck (f ) ≈
Z
1
f (x1∗ (t ), . . . , x ∗ (t ))e−2 π( 1 ω1 +···+ d ωd ) dt
i
k
k
t
d
0
> puis en discrétisant (t ∈ {0, N1 , . . . , NN−1 })
c( 1 ,..., d ) (f ) ≈
k
k
N −1
1 X
N
|
j
=0
f x1∗
j
j −2 π( 1 ω1 +···+ d ωd ) Nj
, . . . , x∗
e
N
N
i
k
k
d
{z
b
ck ω +···+k ω (f ◦x∗ )
1 1
d d
}
1
0.9
0.8
0.7
0.6
x∗ (2/N )
x∗ (1/N )
0.5
∗
x (0)
x∗ (N − 1/N )
0.4
0.3
0.2
0.1
0
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
FAST par le théorème ergodique de Weyl (3)
> FAST estime
S (f ) = Var [f (X )]/Var [Y ] par
i
i
i
∗ 2
=−M bk ωi ( ◦ x )
k 6=0
2
PN −1 bk ( ◦ x∗ )
k =1
PM
Sb
FAST
i
(f , M , x∗ ) =
−→ généralisable à
S ,S
ij
ijk
k
c
f
c f
. . . [Cukier et al., 1978]
> Problème : interférences
Exemple : si ω1 = 2 et ω2 = 3 alors b
c3ω1 (f ◦ x∗ ) = bc2ω2 (f ◦ x∗ ).
> Choix des paramètres ω1 , . . . , ωd et N : P
d
−→ a1 ω1 + · · · + ad ωd 6= 0 , ai ∈ Z,
|ai | ≤ L + 1
i =1
(critère de Schaibly & Shuler [Schaibly & Shuler, 1973])
−→ N > 2M max(ω1 , . . . , ωd ) (critère de Shannon)
Illustration : FAST vs Sobol' (1)
>
g -function en dimension 5 (non-linéaire, singularité au centre
du domaine).
> estimation des indices d'ordre 1 et 2 avec un total de 12000
simulations.
1) Sobol' −→ utilisation de suite à discrépance faible
(séquences LPτ [Sobol',1967]).
2) FAST −→ estimation des indices d'ordre 1 avec les 18
premières harmoniques et des indices d'ordre 2 avec ∼80
coecients de Fourier.
> Boxplots de 120 expériences.
Illustration : FAST vs Sobol' (2)
Illustration : FAST vs Sobol' (3)
FAST par les "lattice rules" (1)
> Opérateur de régularisation R :
−→ pour x ∈ [0, 1]d , on pose
r (x ) = 2x 1[0, 21 [ (x ) + (2 − 2x )1[ 12 ,1] (x )
i
et
i
i
Rf (x1 , . . . , xd ) = f
i
i
r (x1 ), . . . , r (x
d
)
FAST par les "lattice rules" (2)
> Opérateur de translation T :
−→ pour x ∈ [0, 1]d et ϕ ∈ [0, 2π[d , on pose
Tϕ f (x1 , . . . , xd ) = f
x1 +
1 ϕd 1 ϕ1 +
, . . . , xd + +
4 2π
4 2π
> Sous-groupe cycliques de [0, 1[d :
−→ pour ω ∈ Nd , on pose
j j
G (ω) =
ω1 , . . . ,
ωd
,
N
N
j ∈ {0, . . . , N
le sous-groupe de générateur ({ω1 /N }, . . . , {ωd /N })
− 1}
ω1 = 6, ω2 = 2,
N=5
FAST par les "lattice rules" (3)
> Redénition de FAST :
−→ Rappel 1 : dans FAST, ck (f ) ≈ b
ck1 ω1 +···+kd ωd (f ◦ x∗ ).
P
−→ Rappel 2 : b
ck (f , D ) = N1 x∈D f (x)e−2i πk·x .
b
ck1 ω1 +···+kd ωd (f ◦ x∗ ) = bck (Tϕ ◦ R)f , G (ω) .
calculatoire.
Proposition 1.
Preuve :
Remarques :
1) b
ck (Tϕ ◦ R)f ,G (ω) est l'approximation numérique de
ck (Tϕ ◦ R)f par une règle de quadrature équipondérée
sur un groupe (="lattice rule" [Sloan & Joe, 1998]).
2) la décomposition ANOVA est R et Tϕ -invariante.
So, what's new ? (1)
> Impact de la régularisation :
NB : fonction lisse ⇔ décroissance du spectre rapide.
−→ Question ouverte : autres régularisations (C 1 ,. . . ?)
So, what's new ? (2)
> Choix des paramètres ω1 , . . . , ωd et N :
−→ Formule sommatoire de Poisson généralisée :
X
b
ck (Tϕ ◦R)f , G (ω) = ck (Tϕ ◦R)f +
ck+h
h∈G (ω)⊥ \{0}
où
G (ω)⊥ est le "dual lattice" de G (ω) .
−→ Nouveau critère "anti-interférences" :
on xe K = {k ∈ Zd | ck n'est pas négligeable } ; il faut
∀k,
k
0
∈ K,
k
6= k0 , (k − k0 ) · ω ≡
/ 0 (mod
> Remarques :
−→ c.f. construction de plans factoriels réguliers.
−→ limite CPU.
N)
(Tϕ ◦R)f
So, what's new ? (3)
> Remarques (suite) :
−→ critère optimal ; en particulier plus souple que l'ancien
(Schaibly & Shuler + Shannon) .
Exemple : a) modèle additif à 5 paramètres
−→ Y = f0 + f1 (X1 ) + f2 (X2 ) + · · · + f5 (X5 )
b) estimation de chaque Var [fi (Xi )] à partir des 4
premières harmoniques (supp. non négligeables)
ancien crit.
nouveau crit.
ω1
7
1
ω2
11
3
ω3
16
5
ω4
17
7
ω5
19
9
N
79
22
So, what's new ? (4)
> Qu'est-ce que l'estimateur de FAST ? (sous le nouveau critère)
P
Pour E ⊂ Zd , on pose f˜E (x) = k∈E b
ck (Tϕ ◦ R)f , G (ω) e 2i πk·x
Proposition 2.
i) si N = |K | alors f˜K est le polynôme d'interpolation trigonomé-trique de (Tϕ ◦ R)f aux points de quadratures g ∈ G (ω) et
Sbu
FAST
ii) si
N > |K |, ∃H ⊂ Z
d
Vb
FAST
Preuve : mq f˜
K
(f ) = Su (f˜K )
tq f˜H p.i.t. (f˜K quasi-p.i.t.) et
b FAST (f ) = Vu (f˜K )
(f ) = V (f˜H ) et V
u
(dans i.) et f˜H (dans ii.) p.i.t. + déf indice FAST.
3. Méthode RBD
Avant propos : biais dans RBD
[Xu & Gertner, 2011] et [JYT & Prieur, en révision]
0.2
0.18
0.16
0.14
0.12
0.1
0.08
0.06
0.043
0.02
0
2000
4000
8000
16e3
32e3
Dénition et redénition de RBD (1)
> RBD [Tarantola et al., 2006] :
1) FAST avec ω1 = · · · = ωd = ω ∈ N∗ et ϕ = 0
1
j
1
∗
∗ j
x −→ xi ( ) =
N
π arcsin sin(2πω N ) + 2
2) ENCODAGE :
x
−→ xi? ( Nj ) =
?
1
π
arcsin sin(2πω σiN(j ) ) +
où σi permutations aléatoires de {0, . . . , N − 1}
3) DÉCODAGES :
i.e.
x ?,
i
k
( Nj ) =
σ (j )
−→ x?,k ( Nj ) = x? ( k N ) (1 ≤ k ≤ d )
σ ◦σ −1 (j ) arcsin sin(2πω i Nk
) + 12
?,k
x
= Var [fi (Xi )]/Var [Y ] par
PM
b
ck ω (f ◦ x?,i )2
k =−M
SbiRBD (f , M , x?,i ) = PkN6=−01 b
ck (f ◦ x?,i )2
k =1
> RBD estime
S
1
π
−1
1
2
i
−→ sous cette forme : pas généralisable à
S ,S
ij
ijk
...
1
x∗
0.9
0.8
0.7
x∗ (2/N )
0.6
x∗ (1/N )
0.5
x∗ (0)
0.4
x∗ (N − 1/N )
0.3
0.2
0.1
0
0
0.2
0.4
0.6
0.8
1
1
x?
0.9
0.8
x? (0)
0.7
0.6
x? (2/N )
0.5
0.4
0.3
x? (1/N )
0.2
x? (N − 1/N )
0.1
0
0
0.2
0.4
0.6
0.8
1
1
x?,1
0.9
0.8
x?,1 (1/N )
x?,1 (2/N )
0.7
0.6
x?,1 (N − 1/N )
0.5
x?,1 (0)
0.4
0.3
0.2
0.1
0
0
0.2
0.4
0.6
0.8
1
Dénition et redénition de RBD (2)
Posons,
o
j
j
,...,
, j = 0..N − 1
N
N
n σ (j )
o
σ (j ) 1
,...,
A(σ) =
, j = 0..N − 1
N
N
A=
n
d
−→ les A(σ) sont des tableaux orthogonaux [Hedayat et al., 1999]
à N niveaux, de force 1 et d'indice 1, randomisés.
Dénition et redénition de RBD (3)
> Redénition de RBD :
−→ Rappel 1 : dans RBD,
−→ Rappel 2 : b
ck (f , D ) =
Prop. 3.
c(0,...,0, i ,0,...,0) (f ) ≈ bc i ω (f
k
k
1
N
P
x∈ D
f (x)e−2 πk·x .
◦ x?,i ).
i
b
cki ω (f ◦ x?,i ) = bc(0,...,0,ki ,0,...,0) (Tω̃ ◦ Rω )f , A(σ) .
(1−ω)π
· · ◦ R}.
où ω̃ = ( (1−ω)π
2ω , . . . , 2ω ) et Rω = R
| ◦ ·{z
Preuve : calculatoire.
ω
fois
Dénition et redénition de RBD (4)
> Qu'est-ce que l'estimateur de RBD ?
c(0,...,0,k ,0,...,0) (Tω̃ ◦ Rω )f , A(σ) 2
i
i =−M b
ki 6=0
PM
Sb
RBD
i
k
(f , M , A(σ)) =
Vb
emp
(Tω̃ ◦ Rω )f , A(σ)
−→ généralisation 1 : tableau orthogonal A quelconque
−→ généralisation 2 : estimation des Sij , Sijk ,. . .
Sb
RBD
ij
(f , M , A(σ))
PM
k
=
i =−M
ki 6=0
c(0,...,0,k ,...,k ,0,...0) (Tω̃ ◦ Rω )f , A(σ) 2
i
j
j =−M b
kj 6=0
PM
k
Vb
emp
(Tω̃ ◦ Rω )f , A(σ)
Biais dans RBD (1)
>
f
dans un espace de Korobov Q
de Hα paramètre α > 1
2
2
−→ |ck (f )| ≤ ||f ||Hα / di=1 max(1, |ki |α )
> S : ensemble de tous σ = (σ1 , . . . , σd ) (où σi perm. de
{0, 1, . . . , N − 1})
−→ {A(σ), σ ∈ S} : ens. des plans possibles pour RBD
> µ : mesure d'équiprobabilité sur S
b RBD (f , M , A(σ)]
−→ on s'intéresse à Eµ [S
i
b RBD (f , M , A(σ)]
et Eµ [S
ij
Biais dans RBD (2)
Proposition 4 : Si f
et
f 2 susamment lisses (∈ Hα , α ≥ 4) alors
b RBD (f , A(σ))] =
Eµ [V
1 X
1
N −1
V (f ) +
V (f ) + O ( 2 )
N
N =1
N
d
i
i
N − 2M − 1
2M
V (f ) + V (f )
N
N
1 X
M
−
Ṽ (f ) + O ( 2 ) + O (M 1−α )
N =1
N
b RBD (f , M , A(σ))] =
Eµ [V
i
i
d
ij
j
j
6=i
4M 2
N − 4M + 1
V (f ) +
(V (f ) + c02 )
N
N
2M
1 X
M2
−
(V (f ) + V (f )) −
Ṽ (f ) + O ( 2 ) + O (M 2−α )
N
N =1
N
b RBD (f , M , A(σ))] =
Eµ [V
ij
ij
d
i
j
ijk
k
k
6=i ,j
où
Ṽu (f ) = Vu (f ) "tronquée à un certain nombre d'harmoniques"
Biais dans RBD (3)
> Preuve de la Proposition 4 : utilise un résultat combinatoire de
Owen [Owen, 1994] sur les tableaux orthogonaux randomisés.
−→ NB : résultat généralisable pour A qcq et indice d'ordre qcq.
Application : correction du biais (1)
>
g -function en dimension 6 (non-linéaire, singularité au centre
du domaine).
> estimation des indices d'ordre 2 avec N=4000 puis 8000
simulations et M=9.
> Boxplots de 120 expériences.
> Comparatifs des indices bruts (notés
Uij ).
B
ij
) et corrigés (notés
> Correction de biais "à la hache" :
Vb
Vb
corr
ij
corr
b RBD (f , A(σ))
(f , A(σ)) = V
b RBD (f , M , A(σ))− 4M
(f , M , A(σ)) = V
ij
N
2h
Vb
RBD
(f , A σ) +b
c0
f , A(σ)
i
Application : correction du biais (2)
0,2
0,15
0,1
0,043
0.019
0.0085
0
B12
U12 B13
U13 B14
U14 B26
U26 B45
U45 B46
U46
Application : correction du biais (3)
0,2
0,15
0,1
0.043
0.019
0.0085
0
B12
U12 B13
U13 B14
U14 B26
U26 B45
U45 B46
U46
En résumé
1) réintroduction de FAST et RBD comme des méthodes d'estimation
sur des fractions particulières de la grille régulière {0, q , . . . , q q }d :
- sous-groupes cycliques pour FAST
- tableaux orthogonaux de force 1 randomisés pour RBD
−→ APPLICATIONS IMMÉDIATES :
- estimation RBD par tableaux orthogonaux de force >1
- application du nouveau critère "anti-interférences" dans FAST
−→ PERSPECTIVE : autres constructions de groupes (pas forcément
cycliques, voir théorie des plans factoriels réguliers et lattice rules)
2) mise en évidence d'une transformation l'opérateur R qui opti-mise l'estimation des indices tout en laissant l'ANOVA invariante
−→ QUESTION OUVERTE : autres opérateurs plus ecaces?
3) formulation explicite du biais de l'estimateur RBD
−→ APPLICATION IMMEDIATE : correction du biais
−→ QUESTION OUVERTE : quid de la variance de l'estimateur?
1
−1
Références
Cukier R.I., Fortuin C.M., Shuler K.E., Petschek A.G., Schaibly J.H.(1973),
Study of the sensitivity of coupled reaction systems to uncertainties in rate
coecients : Theory. Journal of Chemical Physics, 59, 38733878.
Cukier R.I., Schaibly J.H., Shuler K.E. (1975), Study of the sensitivity of coupled
reaction systems to uncertainties in rate coecients : Analysis of the
approximations. Journal of Chemical Physics, 63, 11401149.
Cukier R.I., Levine H.B., Shuler K.E. (1978), Nonlinear sensitivity analysis of
multiparameter model systems. Journal of Computational Physics, 26, 142.
Hedayat A.S., Sloane N.J.A., Stufken J., Orthogonal Arrays : Theory and
Applications, Springer-Verlag New York, 1999.
Hoeding W.F. (1948), A class of statistics with asymptotically normal
distributions, Annals of Mathematical Statistics, 19, 293325.
MacKay M.D. (1995), Evaluating prediction uncertainty.
Technical Report
NUREG/CR-6311, US Nuclear Regulatory Commission and Los Alamos National
Laboratory
Morris M.D. (1991), Factorial Sampling Plans for Preliminary Computational
Experiments, Technometrics, 33, 161174.
Owen A.B. (1994), Lattice sampling revisited : Monte Carlo variance of means
over randomized orthogonal arrays, The Annals of Statistics, 22(2), 930945.
Schaibly J.H., Shuler K.E. (1973), Study of the sensitivity of coupled reaction
systems to uncertainties in rate coecients : Applications. Journal of Chemical
Physics, 59, 38793888.
Sloan I.H., Joe S., Lattice Methods for Multiple Integration, Oxford University
Press, 1994.
Sobol' I.M. (1967), Distribution of points in a cube and approximate evaluation
of integrals, U.S.S.R Comput. Maths. Math. Phys., 7, 86112.
Sobol' I.M. (1993), Sensitivity estimates for nonlinear mathematical models.
Mathematical Modeling and Computational Experiment V. 1, N 4, 407-414.
Sobol' I.M., Kucherenko S. (2009), Derivative based global sensitivity measures
and their link with global sensitivity indices, Mathematics and Computers in
Simulation, 79(10), 30093017.
Tarantola S., Gatelli D., Mara T.A. (2006), Random Balance designs for the
estimation of rst-order global sensitivity indices. RESS, 91, 717727.
Tissot J.Y., Prieur C., Bias correction for the estimation of sensitivity indices
based on random balance designs, en révision pour RESS.
Weyl H. (1916), Über die gleichverteilung von zahlen mod. eins,
Annalen, 77, 313352.
Mathematische
Xu C., Gertner G. (2011), Understanding and comparisons of dierent sampling
approaches for the Fourier Amplitude Sensitivity Test (FAST), Computational
Statistics and Data Analysis, 55, 184198.