Analyse de sensibilité globale et analyse harmonique: une
Transcription
Analyse de sensibilité globale et analyse harmonique: une
Analyse de sensibilité globale et analyse harmonique: une nouvelle introduction aux méthodes FAST et RBD Jean-Yves TISSOT (Université de Grenoble/INRIA) dir. thèse: Clémentine PRIEUR et Éric BLAYO Séminaire INRA 16 janvier 2012 Jouy-en-Josas Avant-propos > on considère 2 méthodes d'estimation d'indices de sensibilité : 1) Fourier Amplitude Sensitivity Test (FAST) [Cukier et al., 1973], [Schaibly & Shuler, 1973], [Cukier et al., 1975] et [Cukier et al., 1978] 2) Random Balance Design (RBD) [Tarantola et al., 2006] > objectif :réintoduire ces 2 méthodes de manière plus rigoureuse −→ mieux comprendre −→ faire le lien avec des théories existantes −→ optimiser −→ généraliser 1. Analyse de sensibilité Généralités Analyse de sensibilité globale basée sur la variance Approche par analyse harmonique 2. Méthode FAST FAST par le théorème ergodique de Weyl Application : FAST vs Sobol' FAST par les "lattice rules" So, what's new ? 3. Méthode RBD Dénition et redénition de RBD Biais dans RBD Application : correction du biais 1. Analyse de sensibilité Généralités (1) > Cadre : système entrée/sortie f : [ 0 , 1 ]d X(ω) −→ R 7−→ Y (ω) = f X1 (ω), . . . , X d (ω) −→ Xi v.a. indépendantes −→ f déterministe > Objectifs : connaître sur la sortie Y l'eet des variables d'entrée X1 , . . . ,X −→ connaître "qualitativement" : - eet linéaire/non-linéaire ? - eet conjoint de plusieurs variables (interaction) ? −→ connaître "quantitativement" : - eet plus important qu'un autre ? - eet négligeable ? d Généralités (2) > Exemple : analyse de sensibilité locale par les dérivées −→ on évalue les dérivées partielles en un point x0 ∈ [0, 1]d δi = f (x10 , . . . , x 0 + ε, . . . , x 0 ) − f (x10 , . . . , x 0 ) i d d ε −→ le classement |δ3 | < |δ7 | < |δ1 | < · · · indique alors l'inuence de chacune des variables. −→ Problème : l'information recueillie est purement locale ! Généralités (3) > Alternatives à l'analyse locale par les dérivées : −→ analyse par les dérivées en plusieurs points du domaine (voir screening de Morris [Morris, 1991] et indices de sensibilité basés sur les dérivées [Sobol' & Kucherenko, 2010]). −→ analyse de sensibilité globale basée sur la variance Analyse de sensibilité globale basée sur la variance (1) > Principe : 1) décomposition de Y Y = f (X1 , . . . , Xd ) = f0 +f1 (X1 )+· · ·+fd (Xd )+f12 (X1 , X2 )+· · ·+f1...d (X1 , . . . , Xd ) 2) évaluation des quantités Var [f 1 ... m (X1 , . . . , X i i d )] > Problème : non-unicité de la décomposition (D). −→ exemple : Y = |{z} 1 + X1 = |{z} 0 + 1 + X1 |{z} | {z } f0 ( f 1 X1 ) f0 ( f 1 X1 ) (D ) Analyse de sensibilité globale basée sur la variance (2) > Décomposition ANOVA de Y = f (X1 , . . . , Xd ) [Hoeding, 1948] Si E[Y 2 ] < +∞, la décompo-sition (D) existe et est unique sous la condition ∀{j1 , . . . , jt } {i1 , . . . , is }, E fi1 ...is (Xi1 , . . . , Xis )Xj1 , . . . , Xjt = 0 Théorème −→ dans ce cas, f0 = E[Y ] f1 (X1 ) = E[Y |X1 ] − E[Y ] .. . f12 (X1 , X2 ) = E[Y |X1 , X2 ]−E[Y |X1 ]−E[Y |X2 ]+E[Y ] .. . −→ les fi1 ,...,im (Xi1 , . . . , Xim ) sont orthogonales et centrées. Analyse de sensibilité globale basée sur la variance (3) > Dénition des indices de sensibilité : −→ part de variance due à l'interaction des X 1 ,. . . ,X m i i : V 1 ... m (f ) = Var [f 1 ... m (X 1 , . . . , X m )] i i i i i i −→ variance totale : V (f ) = Var [Y ] −→ indices de sensibilité (ou de Sobol') : S 1 ... m (f ) = i > Propriétés : i Su (f ) ≥ 0 et P V 1 ... m (f ) V (f ) i i Su (f ) = 1 > Estimation : Monte Carlo [Sobol', 1993], Hypercubes latins répliqués [MacKay, 1995] Approche par analyse harmonique (1) > Décomposition harmonique de Y : (Xi uniformes) X Y= ck (f )e 2i πk·X avec ck (f ) = E f X e −2i πk·X k∈Zd −→ on pose f0 = cP0 (f ) f1 (X1 ) = ∈Z∗ c( k k ,0,...,0) ( f )e 2 π i kX1 .. . P f12 (X1 , X2 ) = k ,h∈Z∗ c(k ,h,0,...,0) (f )e 2i π(kX1 +hX2 ) .. . −→ c'est la décomposition ANOVA de Y. Approche par analyse harmonique (2) > Dénition harmonique des indices de sensibilité : par Parseval, X X |c(k ,h,0,...,0) (f )|2 |c(k ,0,...,0) (f )|2 S1 (f ) = k ∈Z∗ X k∈(Zd )∗ |ck (f )|2 ,..., S12 (f ) = , ∈Z∗ k h X k∈(Zd )∗ |ck (f )|2 > Remarques : −→ FAST repose sur cette décomposition harmonique −→ = approche spectrale par polynômes de chaos [Sudret, 2007] (polynômes d'Hermite, Laguerre, Legendre. . . ) −→ si Y = g (Z1 , . . . , Zd ) avec Zi non uniformes, alors Y = f (X1 , . . . , Xd ) avec Xi uniformes (par transformation inverse). ,... Approche par analyse harmonique (3) X1 , X2 v.a. uniformes, Y > Exemple : Y = f (X1 , X2 ) 1 e 2i π(4X2 ) + (−1) e 2i π(3X1 +X2 ) = |{z} 2 + (−4) e 2i πX1 + |{z} | {z } | {z } c(0,0) c(0,4) c(1,0) c(3,1) 2 2 2 2 Var [Y ] = k∈(Z d ∗ |c (f )| = (−4) + 1 + (−1) = 18 P) k Var [f1 (X1 )] = P ∈Z∗ |c( ,0) (f )|2 = (−4)2 = 16 Var [f2 (X2 )] = ∈ZP∗ |c(0, ) (f )|2 = 12 = 1 Var [f12 (X1 , X2 )] = , ∈Z∗ |c( , ) (f )|2 = (−1)2 = 1 P k k k k k h d'où k h 16 S2 (f ) = S12 (f ) = 181 S1 (f ) = 18 2. Méthode FAST Avant-propos > approche harmonique = évaluer des ck (f ) = E[f (X)e −2i πk·X ] −→ intégration num. potentiellement en grande dimension. Soit l'estimateur "canonique" : b ck (f , D ) = 1 X N x∈ f (x)e−2 πk·x i D où D est un sous-ensemble ni de [0, 1]d de cardinal > Exemple 1 : > Exemple 2 : > What else ? N. D : échantillon aléatoire uniformément distribué sur [0, 1]d −→ Monte Carlo (converge lentement) D 1 d } avec : grille régulière {0, n1 , . . . , n− n −→ TFD (irréalisable en terme de coût) n d =N FAST par le théorème ergodique de Weyl (1) > Théorème ergodique de Weyl [Weyl, 1916] : Z f (x)d x = [0,1[d x (t ) = {ω t } et ω i i i 1 T →+∞ 2T lim Z T f (x1 (t ), . . . , x (t ))dt d −T ∈ R linéairement indépendants sur Q. > Par suite, 1 ck (f ) = lim T →+∞ 2T > Problème : Z T f (x1 (t ), . . . , x (t ))e−2 π( 1 ω1 +···+ d ωd ) dt i d −T t ∈] − ∞, +∞[. . . k k t 1 x(t) ω2 x(0) 0 ω1 1 FAST par le théorème ergodique de Weyl (2) > Dans FAST : ωi ∈ N∗ ϕi ∈ [0, 2π[ Gi > x ∗ (t ) = G i i shift aléatoire 1 : [−1, 1] → [0, 1] (= π sin(2πωi t + ϕi ) 1 arcsin(·) + 2 pour des v.a. Xi uniformes) x ∗ (·) 1-périodiques d'où i ck (f ) ≈ Z 1 f (x1∗ (t ), . . . , x ∗ (t ))e−2 π( 1 ω1 +···+ d ωd ) dt i k k t d 0 > puis en discrétisant (t ∈ {0, N1 , . . . , NN−1 }) c( 1 ,..., d ) (f ) ≈ k k N −1 1 X N | j =0 f x1∗ j j −2 π( 1 ω1 +···+ d ωd ) Nj , . . . , x∗ e N N i k k d {z b ck ω +···+k ω (f ◦x∗ ) 1 1 d d } 1 0.9 0.8 0.7 0.6 x∗ (2/N ) x∗ (1/N ) 0.5 ∗ x (0) x∗ (N − 1/N ) 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 FAST par le théorème ergodique de Weyl (3) > FAST estime S (f ) = Var [f (X )]/Var [Y ] par i i i ∗ 2 =−M bk ωi ( ◦ x ) k 6=0 2 PN −1 bk ( ◦ x∗ ) k =1 PM Sb FAST i (f , M , x∗ ) = −→ généralisable à S ,S ij ijk k c f c f . . . [Cukier et al., 1978] > Problème : interférences Exemple : si ω1 = 2 et ω2 = 3 alors b c3ω1 (f ◦ x∗ ) = bc2ω2 (f ◦ x∗ ). > Choix des paramètres ω1 , . . . , ωd et N : P d −→ a1 ω1 + · · · + ad ωd 6= 0 , ai ∈ Z, |ai | ≤ L + 1 i =1 (critère de Schaibly & Shuler [Schaibly & Shuler, 1973]) −→ N > 2M max(ω1 , . . . , ωd ) (critère de Shannon) Illustration : FAST vs Sobol' (1) > g -function en dimension 5 (non-linéaire, singularité au centre du domaine). > estimation des indices d'ordre 1 et 2 avec un total de 12000 simulations. 1) Sobol' −→ utilisation de suite à discrépance faible (séquences LPτ [Sobol',1967]). 2) FAST −→ estimation des indices d'ordre 1 avec les 18 premières harmoniques et des indices d'ordre 2 avec ∼80 coecients de Fourier. > Boxplots de 120 expériences. Illustration : FAST vs Sobol' (2) Illustration : FAST vs Sobol' (3) FAST par les "lattice rules" (1) > Opérateur de régularisation R : −→ pour x ∈ [0, 1]d , on pose r (x ) = 2x 1[0, 21 [ (x ) + (2 − 2x )1[ 12 ,1] (x ) i et i i Rf (x1 , . . . , xd ) = f i i r (x1 ), . . . , r (x d ) FAST par les "lattice rules" (2) > Opérateur de translation T : −→ pour x ∈ [0, 1]d et ϕ ∈ [0, 2π[d , on pose Tϕ f (x1 , . . . , xd ) = f x1 + 1 ϕd 1 ϕ1 + , . . . , xd + + 4 2π 4 2π > Sous-groupe cycliques de [0, 1[d : −→ pour ω ∈ Nd , on pose j j G (ω) = ω1 , . . . , ωd , N N j ∈ {0, . . . , N le sous-groupe de générateur ({ω1 /N }, . . . , {ωd /N }) − 1} ω1 = 6, ω2 = 2, N=5 FAST par les "lattice rules" (3) > Redénition de FAST : −→ Rappel 1 : dans FAST, ck (f ) ≈ b ck1 ω1 +···+kd ωd (f ◦ x∗ ). P −→ Rappel 2 : b ck (f , D ) = N1 x∈D f (x)e−2i πk·x . b ck1 ω1 +···+kd ωd (f ◦ x∗ ) = bck (Tϕ ◦ R)f , G (ω) . calculatoire. Proposition 1. Preuve : Remarques : 1) b ck (Tϕ ◦ R)f ,G (ω) est l'approximation numérique de ck (Tϕ ◦ R)f par une règle de quadrature équipondérée sur un groupe (="lattice rule" [Sloan & Joe, 1998]). 2) la décomposition ANOVA est R et Tϕ -invariante. So, what's new ? (1) > Impact de la régularisation : NB : fonction lisse ⇔ décroissance du spectre rapide. −→ Question ouverte : autres régularisations (C 1 ,. . . ?) So, what's new ? (2) > Choix des paramètres ω1 , . . . , ωd et N : −→ Formule sommatoire de Poisson généralisée : X b ck (Tϕ ◦R)f , G (ω) = ck (Tϕ ◦R)f + ck+h h∈G (ω)⊥ \{0} où G (ω)⊥ est le "dual lattice" de G (ω) . −→ Nouveau critère "anti-interférences" : on xe K = {k ∈ Zd | ck n'est pas négligeable } ; il faut ∀k, k 0 ∈ K, k 6= k0 , (k − k0 ) · ω ≡ / 0 (mod > Remarques : −→ c.f. construction de plans factoriels réguliers. −→ limite CPU. N) (Tϕ ◦R)f So, what's new ? (3) > Remarques (suite) : −→ critère optimal ; en particulier plus souple que l'ancien (Schaibly & Shuler + Shannon) . Exemple : a) modèle additif à 5 paramètres −→ Y = f0 + f1 (X1 ) + f2 (X2 ) + · · · + f5 (X5 ) b) estimation de chaque Var [fi (Xi )] à partir des 4 premières harmoniques (supp. non négligeables) ancien crit. nouveau crit. ω1 7 1 ω2 11 3 ω3 16 5 ω4 17 7 ω5 19 9 N 79 22 So, what's new ? (4) > Qu'est-ce que l'estimateur de FAST ? (sous le nouveau critère) P Pour E ⊂ Zd , on pose f˜E (x) = k∈E b ck (Tϕ ◦ R)f , G (ω) e 2i πk·x Proposition 2. i) si N = |K | alors f˜K est le polynôme d'interpolation trigonomé-trique de (Tϕ ◦ R)f aux points de quadratures g ∈ G (ω) et Sbu FAST ii) si N > |K |, ∃H ⊂ Z d Vb FAST Preuve : mq f˜ K (f ) = Su (f˜K ) tq f˜H p.i.t. (f˜K quasi-p.i.t.) et b FAST (f ) = Vu (f˜K ) (f ) = V (f˜H ) et V u (dans i.) et f˜H (dans ii.) p.i.t. + déf indice FAST. 3. Méthode RBD Avant propos : biais dans RBD [Xu & Gertner, 2011] et [JYT & Prieur, en révision] 0.2 0.18 0.16 0.14 0.12 0.1 0.08 0.06 0.043 0.02 0 2000 4000 8000 16e3 32e3 Dénition et redénition de RBD (1) > RBD [Tarantola et al., 2006] : 1) FAST avec ω1 = · · · = ωd = ω ∈ N∗ et ϕ = 0 1 j 1 ∗ ∗ j x −→ xi ( ) = N π arcsin sin(2πω N ) + 2 2) ENCODAGE : x −→ xi? ( Nj ) = ? 1 π arcsin sin(2πω σiN(j ) ) + où σi permutations aléatoires de {0, . . . , N − 1} 3) DÉCODAGES : i.e. x ?, i k ( Nj ) = σ (j ) −→ x?,k ( Nj ) = x? ( k N ) (1 ≤ k ≤ d ) σ ◦σ −1 (j ) arcsin sin(2πω i Nk ) + 12 ?,k x = Var [fi (Xi )]/Var [Y ] par PM b ck ω (f ◦ x?,i )2 k =−M SbiRBD (f , M , x?,i ) = PkN6=−01 b ck (f ◦ x?,i )2 k =1 > RBD estime S 1 π −1 1 2 i −→ sous cette forme : pas généralisable à S ,S ij ijk ... 1 x∗ 0.9 0.8 0.7 x∗ (2/N ) 0.6 x∗ (1/N ) 0.5 x∗ (0) 0.4 x∗ (N − 1/N ) 0.3 0.2 0.1 0 0 0.2 0.4 0.6 0.8 1 1 x? 0.9 0.8 x? (0) 0.7 0.6 x? (2/N ) 0.5 0.4 0.3 x? (1/N ) 0.2 x? (N − 1/N ) 0.1 0 0 0.2 0.4 0.6 0.8 1 1 x?,1 0.9 0.8 x?,1 (1/N ) x?,1 (2/N ) 0.7 0.6 x?,1 (N − 1/N ) 0.5 x?,1 (0) 0.4 0.3 0.2 0.1 0 0 0.2 0.4 0.6 0.8 1 Dénition et redénition de RBD (2) Posons, o j j ,..., , j = 0..N − 1 N N n σ (j ) o σ (j ) 1 ,..., A(σ) = , j = 0..N − 1 N N A= n d −→ les A(σ) sont des tableaux orthogonaux [Hedayat et al., 1999] à N niveaux, de force 1 et d'indice 1, randomisés. Dénition et redénition de RBD (3) > Redénition de RBD : −→ Rappel 1 : dans RBD, −→ Rappel 2 : b ck (f , D ) = Prop. 3. c(0,...,0, i ,0,...,0) (f ) ≈ bc i ω (f k k 1 N P x∈ D f (x)e−2 πk·x . ◦ x?,i ). i b cki ω (f ◦ x?,i ) = bc(0,...,0,ki ,0,...,0) (Tω̃ ◦ Rω )f , A(σ) . (1−ω)π · · ◦ R}. où ω̃ = ( (1−ω)π 2ω , . . . , 2ω ) et Rω = R | ◦ ·{z Preuve : calculatoire. ω fois Dénition et redénition de RBD (4) > Qu'est-ce que l'estimateur de RBD ? c(0,...,0,k ,0,...,0) (Tω̃ ◦ Rω )f , A(σ) 2 i i =−M b ki 6=0 PM Sb RBD i k (f , M , A(σ)) = Vb emp (Tω̃ ◦ Rω )f , A(σ) −→ généralisation 1 : tableau orthogonal A quelconque −→ généralisation 2 : estimation des Sij , Sijk ,. . . Sb RBD ij (f , M , A(σ)) PM k = i =−M ki 6=0 c(0,...,0,k ,...,k ,0,...0) (Tω̃ ◦ Rω )f , A(σ) 2 i j j =−M b kj 6=0 PM k Vb emp (Tω̃ ◦ Rω )f , A(σ) Biais dans RBD (1) > f dans un espace de Korobov Q de Hα paramètre α > 1 2 2 −→ |ck (f )| ≤ ||f ||Hα / di=1 max(1, |ki |α ) > S : ensemble de tous σ = (σ1 , . . . , σd ) (où σi perm. de {0, 1, . . . , N − 1}) −→ {A(σ), σ ∈ S} : ens. des plans possibles pour RBD > µ : mesure d'équiprobabilité sur S b RBD (f , M , A(σ)] −→ on s'intéresse à Eµ [S i b RBD (f , M , A(σ)] et Eµ [S ij Biais dans RBD (2) Proposition 4 : Si f et f 2 susamment lisses (∈ Hα , α ≥ 4) alors b RBD (f , A(σ))] = Eµ [V 1 X 1 N −1 V (f ) + V (f ) + O ( 2 ) N N =1 N d i i N − 2M − 1 2M V (f ) + V (f ) N N 1 X M − Ṽ (f ) + O ( 2 ) + O (M 1−α ) N =1 N b RBD (f , M , A(σ))] = Eµ [V i i d ij j j 6=i 4M 2 N − 4M + 1 V (f ) + (V (f ) + c02 ) N N 2M 1 X M2 − (V (f ) + V (f )) − Ṽ (f ) + O ( 2 ) + O (M 2−α ) N N =1 N b RBD (f , M , A(σ))] = Eµ [V ij ij d i j ijk k k 6=i ,j où Ṽu (f ) = Vu (f ) "tronquée à un certain nombre d'harmoniques" Biais dans RBD (3) > Preuve de la Proposition 4 : utilise un résultat combinatoire de Owen [Owen, 1994] sur les tableaux orthogonaux randomisés. −→ NB : résultat généralisable pour A qcq et indice d'ordre qcq. Application : correction du biais (1) > g -function en dimension 6 (non-linéaire, singularité au centre du domaine). > estimation des indices d'ordre 2 avec N=4000 puis 8000 simulations et M=9. > Boxplots de 120 expériences. > Comparatifs des indices bruts (notés Uij ). B ij ) et corrigés (notés > Correction de biais "à la hache" : Vb Vb corr ij corr b RBD (f , A(σ)) (f , A(σ)) = V b RBD (f , M , A(σ))− 4M (f , M , A(σ)) = V ij N 2h Vb RBD (f , A σ) +b c0 f , A(σ) i Application : correction du biais (2) 0,2 0,15 0,1 0,043 0.019 0.0085 0 B12 U12 B13 U13 B14 U14 B26 U26 B45 U45 B46 U46 Application : correction du biais (3) 0,2 0,15 0,1 0.043 0.019 0.0085 0 B12 U12 B13 U13 B14 U14 B26 U26 B45 U45 B46 U46 En résumé 1) réintroduction de FAST et RBD comme des méthodes d'estimation sur des fractions particulières de la grille régulière {0, q , . . . , q q }d : - sous-groupes cycliques pour FAST - tableaux orthogonaux de force 1 randomisés pour RBD −→ APPLICATIONS IMMÉDIATES : - estimation RBD par tableaux orthogonaux de force >1 - application du nouveau critère "anti-interférences" dans FAST −→ PERSPECTIVE : autres constructions de groupes (pas forcément cycliques, voir théorie des plans factoriels réguliers et lattice rules) 2) mise en évidence d'une transformation l'opérateur R qui opti-mise l'estimation des indices tout en laissant l'ANOVA invariante −→ QUESTION OUVERTE : autres opérateurs plus ecaces? 3) formulation explicite du biais de l'estimateur RBD −→ APPLICATION IMMEDIATE : correction du biais −→ QUESTION OUVERTE : quid de la variance de l'estimateur? 1 −1 Références Cukier R.I., Fortuin C.M., Shuler K.E., Petschek A.G., Schaibly J.H.(1973), Study of the sensitivity of coupled reaction systems to uncertainties in rate coecients : Theory. Journal of Chemical Physics, 59, 38733878. Cukier R.I., Schaibly J.H., Shuler K.E. (1975), Study of the sensitivity of coupled reaction systems to uncertainties in rate coecients : Analysis of the approximations. Journal of Chemical Physics, 63, 11401149. Cukier R.I., Levine H.B., Shuler K.E. (1978), Nonlinear sensitivity analysis of multiparameter model systems. Journal of Computational Physics, 26, 142. Hedayat A.S., Sloane N.J.A., Stufken J., Orthogonal Arrays : Theory and Applications, Springer-Verlag New York, 1999. Hoeding W.F. (1948), A class of statistics with asymptotically normal distributions, Annals of Mathematical Statistics, 19, 293325. MacKay M.D. (1995), Evaluating prediction uncertainty. Technical Report NUREG/CR-6311, US Nuclear Regulatory Commission and Los Alamos National Laboratory Morris M.D. (1991), Factorial Sampling Plans for Preliminary Computational Experiments, Technometrics, 33, 161174. Owen A.B. (1994), Lattice sampling revisited : Monte Carlo variance of means over randomized orthogonal arrays, The Annals of Statistics, 22(2), 930945. Schaibly J.H., Shuler K.E. (1973), Study of the sensitivity of coupled reaction systems to uncertainties in rate coecients : Applications. Journal of Chemical Physics, 59, 38793888. Sloan I.H., Joe S., Lattice Methods for Multiple Integration, Oxford University Press, 1994. Sobol' I.M. (1967), Distribution of points in a cube and approximate evaluation of integrals, U.S.S.R Comput. Maths. Math. Phys., 7, 86112. Sobol' I.M. (1993), Sensitivity estimates for nonlinear mathematical models. Mathematical Modeling and Computational Experiment V. 1, N 4, 407-414. Sobol' I.M., Kucherenko S. (2009), Derivative based global sensitivity measures and their link with global sensitivity indices, Mathematics and Computers in Simulation, 79(10), 30093017. Tarantola S., Gatelli D., Mara T.A. (2006), Random Balance designs for the estimation of rst-order global sensitivity indices. RESS, 91, 717727. Tissot J.Y., Prieur C., Bias correction for the estimation of sensitivity indices based on random balance designs, en révision pour RESS. Weyl H. (1916), Über die gleichverteilung von zahlen mod. eins, Annalen, 77, 313352. Mathematische Xu C., Gertner G. (2011), Understanding and comparisons of dierent sampling approaches for the Fourier Amplitude Sensitivity Test (FAST), Computational Statistics and Data Analysis, 55, 184198.