Statistische Testverfahren - Institut für Geodäsie und
Transcription
Statistische Testverfahren - Institut für Geodäsie und
Technische Universität Berlin Institut für Geodäsie und Geoinformationstechnik Fachgebiet Geodäsie und Ausgleichungsrechnung Statistische Testverfahren Prof. Dr.-Ing. L. Gründig 1 Die Binomial- und die Normalverteilung ______________________________________ 1 1.1 Binomialverteilung ___________________________________________________________ 1 1.2 Die Normalverteilung_________________________________________________________ 5 1.2.1 Allgemeine Problemstellung ________________________________________________________ 5 1.2.2 Hagens Hypothese von den Elementarfehlern __________________________________________ 6 1.2.3 Die Normalverteilung als Grenzfall der binomischen Verteilung ___________________________ 6 1.2.4 Die normierte Normalverteilung N(0,1) _____________________________________________ 10 1.2.4.1 Normierung einer Zufallsveränderlichen beliebiger Verteilung________________________ 10 1.2.4.2 Normierte Normalverteilung N(0,1) _____________________________________________ 11 1.2.5 Die Verteilungsfunktion und die Fehlerwahrscheinlichkeitsfunktion _______________________ 11 1.2.6 Die Verteilung von Funktionen normalverteilter Zufallsveränderlicher _____________________ 12 1.2.6.1 Lineare Funktionen __________________________________________________________ 12 1.2.6.2 Nichtlineare Funktionen ______________________________________________________ 13 1.2.7 Zentraler Grenzwertsatz __________________________________________________________ 14 1.2.8 Prinzip der Maximum-Likelihood-Schätzung _________________________________________ 15 1.2.9 Andere Ableitungen der Normalverteilung ___________________________________________ 16 1.2.9.1 Gauß'sches Fehlergesetz ______________________________________________________ 16 1.2.9.2 Literaturhinweise____________________________________________________________ 18 1.2.10 Verschiedene Fehlermaße und ihr Zusammenhang bei normalverteilten Beobachtungen ______ 18 2 Vertrauensintervalle (Konfidenzintervalle) ____________________________________ 19 2.1 Die Ungleichung von Tschebyscheff ____________________________________________ 19 2.2 Statistische Eigenschaften einer normalverteilten Zufallsveränderlichen ______________ 21 2.2.1 Verteilung des arithmetischen Mittels _______________________________________________ 21 2.2.2 Vertrauensintervall für den Erwartungswert ξ ________________________________________ 21 2.2.2.1 Vertrauensintervall für ξ bei Kenntnis von σ x ____________________________________ 21 2.2.2.2 Die t-Verteilung (Student-Verteilung) ___________________________________________ 24 2.2.2.3 Vertrauensintervall für ξ bei Kenntnis von m x ____________________________________ 25 2.2.3-Verteilung _____________________________________________________________________ 27 2 2.2.3.1 Zusammenhang zwischen den Zufallsveränderlichen m und χf2 ______________________ 27 2.2.3.2 Die χ2-Verteilung ___________________________________________________________ 28 2 2.2.3.3 Wahrscheinlichkeitsdichte und Streuungsparameter für m und m bei f Freiheits-graden __ 30 2.2.3.4 Vertrauensintervall für σ _____________________________________________________ 32 2.3 Statistische Zusammenhänge bei der Ausgleichung unabhängiger normalverteilter Beobachtungen ________________________________________________________________ 34 2.3.1 Verteilung der Unbekannten xi und von Funktionen der Unbekannten _____________________ 34 2 2.3.2 Statistische Eigenschaften der Verbesserungen vi und des mittleren Fehlerquadrates m0 _____ 35 2.3.3 Vertrauensintervalle für die Erwartungswerte ξ i ______________________________________ 38 2.3.4 Vertrauensintervalle für die Standardabweichungen σ 0 , σ x i , σ F ________________________ 40 3 Prüfung des mathematischen Modells durch statistische Tests ____________________ 41 3.1 Allgemeine Grundlagen ______________________________________________________ 41 3.2 Fehler erster und zweiter Art _________________________________________________ 43 3.3 Prüfung von Verteilungen ____________________________________________________ 44 3.3.1-Test zur Prüfung von beliebigen Verteilungen ohne unbekannte Parameter (einseitiger Test)____ 44 3.3.2-Test zur Prüfung von Verteilungen mit unbekannten Parametern, insbesondere Normalverteilungen49 4 ________________________________________________________________________ 50 4 227 ____________________________________________________________________ 50 3.4 Prüfung von gemessenen bzw. ausgeglichenen normalverteilten Größen ______________ 51 3.4.1 Abweichung einer Größe von ihrem Erwartungswert ___________________________________ 51 3.4.2 Unterschied zwischen zwei normalverteilten Größen ___________________________________ 55 3.4.2.1 Hypothese und Prüfgröße _____________________________________________________ 55 3.4.2.2 Beobachtungen gleicher Genauigkeit ____________________________________________ 56 3.4.2.3 Beobachtungen verschiedener Genauigkeit _______________________________________ 59 3.4.3 Unterschiede zwischen mehreren normalverteilten Größen_______________________________ 60 3.4.4 Ausreißerkriterien bei normalverteilter Grundgesamtheit ________________________________ 60 3.5 Prüfung von Standardabweichungen bzw. mittleren Fehlern ________________________ 62 3.5.1 Vergleich eines mittleren Fehlers m mit der bekannten Standardabweichung σ der Grundgesamtheit ____________________________________________________________________ 62 3.5.2 Vergleich zweier mittlerer Fehler ___________________________________________________ 64 3.5.2.1 F-Verteilung _______________________________________________________________ 64 3.5.2.2 Einseitiger F-Test ___________________________________________________________ 65 3.5.2.3 Zweiseitiger F-Test __________________________________________________________ 68 3.5.2.4 Folgerungen aus dem F - Test und Vertrauensgrenzen für Gewichtsverhältnisse _________ 69 3.6 Varianzanalyse (Streuungszerlegung) (Vergleich mehrerer Mittelwerte)______________ 70 1 Die Binomial- und die Normalverteilung 1.1 Binomialverteilung r= Frage: Nr N ; w= w N N Wie groß ist die Wahrscheinlichkeit, bei n-Zügen mit Ersetzen x-mal eine rote und n-mal eine weiße Kugel zu ziehen? Voraussetzung Jede Kugel hat die gleiche Chance gezogen zu werden! : N = N r + N w = Gesamtzahl der Kugeln Nr = Anzahl der roten Kugeln Nw = Anzahl der weißen Kugeln Wahrscheinlichkeit eine rote Kugel zu ziehen : r = Nr N Wahrscheinlichkeit eine weiße Kugel zu ziehen : w = 1 - r Zufallsveränderliche: X (diskret, 0 ≤ x ≤ n ) Eine Möglichkeit, bei n Zügen x mal rot zu ziehen: RRR R WWW ...3 W 142... 4 3 1424 x n− x Die Wahrscheinlichkeit für diese eine Möglichkeit unter Vor-aussetzung der stochastischen Unabhängigkeit der Züge: r1 ⋅ r2 ⋅ r4 ... w2 ⋅ w4 ...4 w = r x ⋅ (1 − r ) n − x 4 3r ⋅ w 1⋅4 4 3 rx (1− r ) n − x Wahrscheinlichkeitsdichte der Zufallsveränderlichen X: f ( x) = A ⋅ r x ⋅ (1 − r ) n − x A= Anzahl aller Möglichkeiten, bei denen x-mal R und (n-x)-mal W auftritt. = Anzahl der Permutationen von n Elementen, unter denen jeweils α 1 = x Elemente und α 2 = (n − x ) Elemente gleich sind. Allgemeine Formel: A = n n! n! ; hier A = = α 1 !⋅ α 2 ! x !⋅ ( n − x)! x 1 2 Wahrscheinlichkeitsdichte der Zufallsveränderlichen X (Binomialverteilung): n f ( x) = ⋅ r x ⋅ (1 − r ) n − x x Rekursionsformel: n x +1 f ( x + 1) = ⋅ r ⋅ (1 − r ) n − x −1 x + 1 n! ⋅ r x +1 ⋅ (1 − r ) n− x −1 ( x + 1)!⋅ ( n − x − 1)! n !⋅ ( n − x) r = ⋅ r x ⋅ (1 − r ) n− x ⋅ x !⋅ ( n − x)!⋅ ( x + 1) 1− r = n n−x r = ⋅ r x ⋅ (1 − r ) n − x ⋅ ⋅ x + 1 1− r x f ( x + 1) = f ( x) ⋅ n−x r ⋅ x +1 1− r Erwartungswert für die Zufallsveränderliche X: ξ = ∑ xf ( x) Aus der Rekursionsformel: (1 − r ) ⋅ ( x + 1) ⋅ f ( x + 1) = rn ⋅ f ( x) − rx ⋅ f ( x) Summieren, so daß alle Möglichkeiten erfaßt sind (z.B. von -1 bis n): (1 − r ) ∑ ( x + 1) f ( x + 1) = rn∑ f ( x) − ∑ xf ( x) 1442443 123 1 424 3 1 ξ ξ (1 − r ) ⋅ ξ + r ⋅ ξ = rn ξ = rn Varianz: σ 2 = E( X 2 ) − {E( X)} allgemein 2 σ 2x = ∑ x 2 f ( x) − ξ 2 hier Berechnung von (Erwartungswert) ∑x 2 f ( x) mit Hilfe der Rekursionsformel: (1 − r ) ⋅ ( x + 1) ⋅ f ( x + 1) = rn ⋅ f ( x) − rx ⋅ f ( x) 3 Mulitplikation mit (x+1) (1 − r ) ⋅ ( x + 1) 2 ⋅ f ( x + 1) = ( x + 1) ⋅ {rn ⋅ f ( x) − rx ⋅ f ( x)} 2 ={ rn ⋅ x ⋅ f ( x) + rn { ⋅ f ( x) − r ⋅ x ⋅ f ( x) − r ⋅ x ⋅ f ( x) ξ ξ Summieren, so daß alle Möglichkeiten erfaßt sind: (1 − r ) ∑ ( x + 1) 2 f ( x + 1) = ξ∑ xf ( x) + ξ∑ f ( x) − r ∑ x 2 f ( x) − r ∑ xf ( x) 144 42444 3 1 424 3 123 1 424 3 2 1 ξ ξ x f ( x ) ∑ (1 − r ) ∑ x 2 f ( x) = ξ 2 + ξ − rξ − r ∑ x 2 f ( x) ∑x 2 f ( x ) = ξ 2 + ξ − rξ σ 2x = ∑ x 2 f ( x) − ξ 2 = ξ 2 + ξ − rξ − ξ 2 σ 2x = ξ ⋅ (1 − r ) = nr ⋅ (1 − r ) (Varianz der Zufallsveränderlichen X) Die Binomialverteilung kann z.B. zur Untersuchung von Vorzeichen-fragen herangezogen werden. Beispiel: Vorzeichenverteilung von unabhängigen Beobachtungsdifferenzen Urnenmodell Modell für die Beobachtungsdifferenzen rote Kugel positive Differenz weiße Kugel negative Differenz n = Anzahl der Züge n = Anzahl der Differenzen x = Anzahl der roten Kugeln x = Anzahl der positiven Differenzen r = Wahrscheinlichkeit eine rote Kugel zu r = Wahrscheinlichkeit eine positive Differenz ziehen zu erhalten (1-r) = Wahrscheinlichkeit eine weiße Kugel zu (1-r) = Wahrscheinlichkeit ziehen Differenz zu erhalten eine negative Annahme: Die Wahrscheinlichkeit, eine positive Differenz zu erhalten, ist genauso groß, wie die Wahrscheinlichkeit, eine negative Differenz zu erhalten. r = p (+) = 0,5 ; (1 - r) = p (-) = 0,5 4 a) n = 5 Beobachtungsdifferenzen ξ = 0,5 ⋅ 5 = 2,5 σ x2 = 5 ⋅ 0,5 ⋅ 0,5 = 1,25 , σ x = ±112 5 1 1 P( x = 0) = f (0) = ⋅ ⋅ = 0,0312 5 = P( x = 5) 0 2 2 0 5 5 1 1 P( x = 1) = f (1) = ⋅ ⋅ = 0,1562 5 = P( x = 4) 1 2 2 1 4 5 1 2 1 3 P( x = 2) = f (2) = ⋅ ⋅ = 0,3125 = P( x = 3) 2 2 2 Berechnung nach der Rekursionsformel: 5 0,5 ⋅ f (0) = 0,1562 5 P( x = 1) = f (1) = ⋅ 1 0,5 4 0,5 ⋅ f (1) = 0,3125 P( x = 2) = f ( 2) = ⋅ 2 0,5 P( x ≤ 1) = P( x = 0) + P( x = 1) = 0,1875 b) n = 35 ξ = 0,5 ⋅ 25 = 12,5 σ 2x = 25 ⋅ 0,5 ⋅ 0,5 = 6,25 σ x = ±2,5 P(x = 0) = 0,0000 P(x = 3) = 0,0001 P(x = 1) = 0,0000 P(x = 4) = 0,0004 P(x = 2) = 0,0000 P(x = 5) = 0,0016 5 P( x ≤ 5) = ∑ P( x = i) = 0,0021 i=0 Aus den statistischen Tabellen von Wetzel, Jöhnk, Naeve können diese Werte direkt entnommen werden. 5 1.2 Die Normalverteilung 1.2.1 Allgemeine Problemstellung Gesucht ist die Wahrscheinlichkeitsdichte der unabhängigen Beobachtungen li einer Grundgesamtheit und ihre Verteilungsfunktion. Zufallsveränderlichen für die Beobachtungen l i : L mit E( L) = λ bzw. Zufallsveränderliche der ε i -Werte: ε = λ − L mit E( λ ) = 0 (Abweichung vom Erwartungswert; "wahre" Fehler, deren Wahrscheinlichkeitsdichte auch Fehlergesetz genannt wird). 1. Modellannahme Die Abweichung εi der i-ten Beobachtung l Zufallsgrößen τ i ν darstellbar: i als Summe von verschiedenen unabhängigen q εi = ∑ τi ν ν =1 Veranschaulichung der 1. Modellannahme τ i1 τ i2 τ iq ____ Aus jeder der q Urnen wird ein Wert τ i ν gezogen, ε i ist die Summe der gezogenen Teilbeträge. Die Verteilungen in den einzelnen Urnen sind unbekannt. Beispiel: Winkelmessung τ i1 ... Ablesefehler τ i2 ... Einstellfehler M bei der i-ten Beobachtung τ iq ... Teilkreisfehler 6 1.2.2 Hagens Hypothese von den Elementarfehlern 2. Modellannahme Hagens Hypothese (1837): Alle τ i ν setzen sich aus gleich großen Elementarfehlern + δ und − δ zusammen, deren Auftreten gleich wahrscheinlich ist. Die Wahrscheinlichkeitsdichte ϕ( ε) erhält man für den Grenzfall, daß die Anzahl der aufsummierten Elementar-fehler n → ∞ und die Größe der Elementarfehler δ → 0 geht. Veranschaulichung der 2. Modellannahme ( Hagens Hypothese ) p( + δ) = 0,5 p( − δ) = 0,5 Aus dieser Urne wird n - mal mit Ersetzen gezogen: ( n → ∞ ) ε i ist die Summe der + δ und − δ -Werte aller n-Züge für die i-te Messung. ε i = x i ( + δ ) + ( n − x i ) ⋅ ( − δ ) = 2 δ x i − nδ x i = Anzahl der Züge, bei denen + δ gezogen wurde (δ → ∞) . 1.2.3 Die Normalverteilung als Grenzfall der binomischen Verteilung Die Modellannahme von Hagen entspricht dem Modell der Binomialverteilung. Rote Kugel → +δ ; weiße Kugel → −δ r = 0,5 w = 0,5 Zufallsveränderliche X = Anzahl der Züge, bei denen eine rote Kugel→ + δ gezogen wurde. Erwartungswert und Varianz der Zufallsveränderlichen X n ξ = rn = 2 n σ x2 = ξ ⋅ (1 − r ) = 4 Die Zufallsveränderlichen X ist binomialverteilt mit der Wahrscheinlichkeitsdichte n f ( x) = r x (1 − r ) n − x x Die Zufallsveränderlichen ε ist eine lineare Funktion der diskreten Zufallsveränderlichen X ε = 2δX − nδ (siehe Abschnitt 1.2.2) 7 Erwartungswert und Varianz der Zufallsveränderlichen ε n E( ε) = 2δξ − nδ = 2δ − nδ = 0 2 2 2 2 2 σ ε = σ = 4δ σ x (nach dem Fehlerfortpflanzung) n σ 2x = 4 2 σ = nδ 2 Übergang von der Wahrscheinlichkeitsdichte f(x) zur Wahrschein-lichkeitsdichte ϕ(ε): f ( x) ⋅ ∆x = ϕ( ε) ⋅ ∆ε Diese Gleichung gilt bei monotonen Funktionen auf Grund der Forderung gleicher Wahrscheinlichkeitsdifferentiale dP. Graphische Darstellung der Wahrscheinlichkeitsdichten: f(x) x f(x+ ∆x) ϕ(ε ) x+ ∆x ϕ(ε + ∆ε ) ε ← ∆x = 1 → ε + ∆ε ← ∆ε = 2δ → Ändert sich x um ∆x = +1, so ändert sich ε um + 2δ . f ( x) ⋅ { ∆x = ϕ (ε ) ⋅ { ∆ε 1 2δ f ( x) = ϕ (ε ) ⋅ 2δ f ( x) ϕ( ε) = 2δ f ( x + 1) ϕ( ε + ∆ε ) = 2δ f(x+1) wird mit Hilfe der Rekursionsformel: n−x r eliminiert. f ( x + 1) = ⋅ ⋅ f ( x) x + 1 1{ −r =1 n − x f ( x) ϕ( ε + ∆ε ) − ϕ (ε ) = − 1 ⋅ x +1 { 2δ ϕ( ε ) ϕ( ε + ∆ε ) − ϕ (ε ) = n − 2x − 1 ⋅ ϕ( ε ) x +1 8 x wird durch die Funktion in Abhängigkeit von ε , δ und n ersetzt: ε n + 2δ 2 ε n − − n −1 δ ϕ( ε + ∆ε ) − ϕ (ε ) = ⋅ ϕ ( ε) ε n + +1 2δ 2 − 2 ε − 2δ = ⋅ ϕ ( ε) ε + nδ + 2δ ε = 2δx − nδ → x = Division mit ∆ε = 2δ ϕ( ε + ∆ε ) − ϕ (ε ) − 2 ε − 2δ = ⋅ ϕ (ε ) ∆ε 2εδ + 2{ nδ 2 + 4 δ 2 2σ2 Übergang von der diskreten zu der stetigen Verteilung ϕ( ε) Der Grenzübergang n → ∞; δ → 0 entspricht dem Übergang von der Differenzengleichung zu der Differentialgleichung: dϕ (ε ) ε = − 2 ⋅ ϕ( ε) dε σ Bemerkung: σ 2 kann zunächst nur als Grenzwert der Varianz der Binomialverteilung betrachtet werden. dϕ (ε ) 1 = − 2 ε ⋅ dε ϕ ( ε) σ Integration: ln ϕ( ε) = − 1 ε2 ⋅ + c1 σ2 2 ϕ( ε) = c 2 ⋅ e − ε2 2σ2 Die Integrationskonstante C2 ist so zu bestimmen, daß: +∞ +∞ ∫ ϕ( ε)dε = 1 = C ∫ e 2 −∞ − ε2 2 σ2 dε −∞ Allgemein: +∞ +∞ ∫ e −ax dx = 2 ∫ e −ax dx = 2 −∞ 2 -∞ π ; a>0 a 9 Hier: a= 1 2σ 2 ; 1 = C2 ⋅ 2π ⋅ σ π = 2πσ 2 a → C2 = 1 σ 2π Wahrscheinlichkeitsdichte der Zufallsveränderlichen ε (Gauß'sches Fehlergesetz; Normalverteilung N (O, σ )): −ε 1 2 σ2 ϕ( ε) = ⋅e σ 2π 2 Aus der Definition der Varianz folgt, daß die Varianz σ 2ε der Zufallsveränderlichen ε gleich dem Grenzwert σ 2 für die Normal-verteilung ist. σ = E( ε ) − {E( ε)} = 2 ε 2 2 +∞ ∫ ε ϕ ( ε ) ⋅ dε = σ 2 −∞ 2 ; {E(ε)} 2 = 0 Wahrscheinlichkeitsdichte der stetigen Zufallsveränderlichen L (Normalverteilung N ( λ , σ )): −( λ−l) 1 2 ϕ( l) = e 2σ σ 2π 2 Wahrscheinlichkeitsdichte einer beliebigen Zufallsveränderlichen Modellannahmen zutreffen (Normalverteilung N ( ξ, σ x ): ϕ( x) = 1 σ x 2π X, auf die die − (ξ −x)2 e 2 σ 2x Beachte: In der Statistikliteratur wird statt (ξ − x) 2 meistens der Ausdruck ( x − ξ) 2 benutzt. Die Wahrscheinlichkeitsdichte einer normalverteilten Zufalls-veränderlichen hängt nur von den beiden Parametern ξ und σ ab. ξ als Lageparameter beeinflußt nicht die Form der Wahrscheinlich-keitsdichte. 10 Die Wahrscheinlichkeitsdichte kann als symmetrische Glockenkurve dargestellt werden. Maximum x = ξ Wendepunkt der Kurve: −ε 1 2 ϕ( ε) = e 2σ σ 2π 2 −ε −ε 1 ε ε ' 2σ2 2σ 2 ϕ ( ε) = e ⋅− 2 = − 3 e σ σ 2π σ 2π 2 ϕ' ' ( ε) = − =− 1 σ3 2 −ε −ε 2 ε 2σ 2 σ2 e ⋅ 1 + ε ⋅ e − 2 σ 2 π 1 σ 3 2π 2 −ε2 e 2σ2 2 ε2 1 − 2 σ Wendepunkte: Krümmung = 0 ; d.h. ϕ''( ε w ) = 0 ε 2w 1− 2 = 0 σ ε w = ±σ Die Abszissen ε w der Wendepunkte liegen bei einer N(ξ, σ ) symmetrisch zu ξ bei ± σ . 1.2.4 Die normierte Normalverteilung N(0,1) 1.2.4.1 Normierung einer Zufallsveränderlichen beliebiger Verteilung x−ξ u= (normierte Zufallsveränderliche) σ E ( u) = 0 σ u = ±1 Jede normierte Verteilung hat den Erwartungswert 0 und die Varianz 1. 11 Beziehungen zwischen den Wahrscheinlichkeitsdichten f(x) und f(u) f ( u) ⋅ du = f ( x) ⋅ dx = dP 1 du = ⋅ dx σ f ( u) = σ ⋅ f ( x) 1 f ( x) = ⋅ f ( u) σ 1.2.4.2 Normierte Normalverteilung N(0,1) − ( ξ− x ) 1 2 ϕ( x) = e 2 σ für N(ξ, σ) σ 2π 2 1 −2u e für N(0,1) 2π 2 ϕ( u) = Die Wahrscheinlichkeitsdichte ϕ( u) der normierten Normalverteilung ist tabuliert. Beispiel für die Berechnung von ϕ( x) mit Hilfe von ϕ( u) : ξ = 125,723 m ; x = 125,728 m ; σ = ±2,0 mm 125728 - 125723 u= = 2,5 2,0 ϕ ( u) = 0,0175 1 1 ϕ ( x) = ϕ ( u) = ⋅ ϕ ( u) = 0,0088 σ 2 1.2.5 Die Verteilungsfunktion und die Fehlerwahrscheinlichkeitsfunktion Verteilungsfunktion: −( ξ−t ) 1 2 Φ ( x) = e 2 σ ⋅ dt ∫ σ 2π −∞ ε −t 2 1 2 Φ( ε) = e 2 σ ⋅ dt ∫ σ 2 π −∞ u t2 1 − Φ ( u) = e 2 ⋅ dt ∫ 2 π −∞ x fürN (ξ, σ ) für N (0, σ ) für N (0,1) 2 12 Die Werte Φ(u) der normierten Normalverteilung sind tabuliert. Die Fehlerwahrscheinlichkeitsfunktion Wab gibt die Wahrscheinlichkeit an, daß der Fehler im Intervall a . liegt Wab = Φ( b) − Φ(a ) Beispiele: 1.) Wenn die Ereignisse N(ξ, σ ) verteilt sind, sind darunter theoretisch 15,87 % zu erwarten, die kleiner sind als ξ − σ . 2.) W−+σσ = Φ( + σ ) − Φ( − σ ) = Φ( u = +1) − Φ( u = −1) = 0,8413 − 0,1587 = 0,6826 Im Bereich ξ − σ..... ξ + σ sind 68,3 % aller Ereignisse theoretisch zu erwarten. 3.) W−+33σσ = 0,9987 − 0,0013 = 0,9974 Nur knapp 0,3 % aller Ereignisse sind theoretisch außerhalb des Bereiches ξ − 3σ..... ξ + 3σ zu erwarten ("Maximalfehler"). Alle Aussagen gelten in Strenge nur, wenn die Ereignisse N(ξ, σ ) verteilt sind und σ selbst bekannt ist. 1.2.6 Die Verteilung von Funktionen normalverteilter Zufallsveränderlicher 1.2.6.1 Lineare Funktionen Die x ν seien unabhängige, N(ξ ν , σ ν ) verteilte Zufallsveränderliche. Dann ist die lineare Funktion n X = k 0 + k 1 x1 + k 2 X 2 + k 3 X 3 +.....+ k n X n = k 0 + ∑ k ν ⋅ X ν ν =1 mit reellen Konstanten k ν ebenfalls normalverteilt mit ξ = E( X) = k 0 + k 1 E( X1 ) + k 2 E( X 2 ) +...+ k n E( X n ) n n ν =1 ν =1 = k 0 + ∑ k ν E( X ν ) = k 0 + ∑ k ν ⋅ ξ ν n σ = k σ + k σ +...+ k σ = ∑ k 2ν σ 2ν 2 x 2 1 2 1 2 2 2 2 2 n 2 n ν =1 (Beweis dieses Additionstheorems der Normalverteilung für den Spezialfall X = X1 + X 2 siehe Gotthardt). 13 Beispiel: X= 1 1 1 X 1 + X 2 +...+ X n (arithmetisches Mittel) n n n ξ1 = ξ 2 =... = ξ n σ 1 = σ 2 =... = σ n n 1 E ( X) = ∑ ξ i = ξ i =1 n 1 2 σ2 σ = ∑ 2 σi = n i =1 n n 2 x Das arithmetische Mittel von n unabhängigen N(ξ, σ) verteilten Beobachtungen ist N (ξ, σ n ) verteilt. (s. Kreyszig) 1.2.6.2 Nichtlineare Funktionen Für nichtlineare Funktionen normalverteilter Zufallsveränderlicher müssen die speziellen Verteilungen bestimmt werden. Funktionen der Art: F = f (l1 + ε1 , l 2 + ε 2 ,..., l n + ε n ) mit E( F) = Φ können in den meisten Fällen mit genügender Genauigkeit linearisiert werden δf δf δf F = Φ + ε 1 + ε 2 +...+ ε δl 1 0 δl 2 0 δl n 0 n F ist also zumindestens näherungsweise normalverteilt (vgl. Abschnitt 1.2.6.1) Funktionen der Art: F = ε 12 + ε 22 +...+ ε 2n sind in Strenge bestimmt nicht normalverteilt, da Fmin = 0 ist. Beispiele: F1 = m2 = F2 = [pvv] [ εε ] n n−u 14 [ l] F3 = x = mx n [ vv] n( n − 1) Einige wichtige Verteilungen nichtlinearer Funktionen normal-verteilter Zufalls-veränderlicher (t-Verteilung; χ 2 -Verteilung;F-Verteilung) werden bei entsprechenden Problemstellungen behandelt. 1.2.7 Zentraler Grenzwertsatz Unter gewissen, sehr schwachen Voraussetzungen ist jede Summe von unabhängigen Größen τ iν beliebiger Verteilung (vgl. Abschnitt 1.2.1) n ε i = ∑ τ iν für n → ∞ normalverteilt. ν =1 Voraussetzungen: a) Keine der Größen τ darf im Verhältnis zu den anderen Größen τ einen zu großen Beitrag zur Summe liefern. b) Die Verteilungsfunktionen der τ müssen für − ∞ bzw. + ∞ schnell genug nach 0 bzw. +1 streben. Zentraler Grenzwertsatz (siehe z.B. Hein, Kreyszig). x ν seien unabhängige Zufallsveränderliche mit dem Erwartungswert ξ ν und den Varianzen σ 2ν . Dann besitzt unter sehr schwachen Voraus-setzungen über die (sonst weitgehend beliebigen) Verteilungen der x ν : a) die Summe der Zufallsveränderlichen x ν in der Grenze für n → ∞ die Normalverteilung mit dem Erwartungswert (ξ1 + ξ 2 +...+ ξ ν ) und der Varianz (σ 12 + σ 22 +...+ σ 2ν ) b) die normierte Summe der Zufallsvariablen x ν n ∑ (x ν =1 ν − ξν) n ∑σ ν =1 2 ν in der Grenze für n → ∞ eine Normalverteilung mit dem Erwartungswert O und der Varianz 1. Es zeigt sich, daß eine Summe aus einer beschränkten Anzahl n von Zufallsgrößen mit einer in der Praxis ausreichenden Genauigkeit normalverteilt ist. Als Faustregel kann man allgemein n = 30 angeben. Für symmetrische Verteilungen ist die entsprechende Anzahl n ≥ 5 . 15 Folgerung: Aus der Tatsache, daß die Summe von n Zufallsveränder-lichen bzw. das arithmetische Mittel aus n Werten normalverteilt ist, kann nicht darauf geschlossen werden, daß die Einzelgrößen normalverteilt sind. 1.2.8 Prinzip der Maximum-Likelihood-Schätzung (1. Gauß'sche Begründung der Methode der kleinsten Quadrate) ε 1 = ξ − l1 ε 2 = ξ − l2 . . . ε n = ξ − ln Wahrscheinlichkeitsdichte: ϕ 1 (ε 1 ) ϕ 2 (ε 2 ) . . . ϕ n (ε n ) Wahrscheinlichkeit für das gleichzeitige Auftreten der unabhängigen Werte ε 1 , ε 2 ... ε n : dΦ = ϕ 1 ( ε 1 )dε ⋅ ϕ 2 ( ε 2 )dε⋅...⋅ϕ n (ε n )dε dΦ = ϕ 1 (ε 1 ) ⋅ ϕ 2 (ε 2 )⋅...⋅ϕ n (ε n ) ⋅ (dε) n Annahme: Alle ε i entstammen der gleichen normalverteilten Grundgesamtheit; die Parameter ξ und σ sind aber unbekannt. Für ξ soll ein Wert x geschätzt werden, so daß dΦ zum Maximum wird. L = ϕ ( ε 1 ) ⋅ ϕ (ε 2 )⋅...⋅ϕ( ε n ) ε12 (Likelihood-Funktion ) εn − 2 − 2 − 2 1 2σ 2σ 2σ L= ⋅e ⋅...⋅e ⋅e σ ⋅ 2π n ε 22 ε12 2 1 − 2 − 2 [ ( ξ −li ) 2 ] 1 1 2σ L= ⋅e = ⋅ e 2σ σ ⋅ 2π σ ⋅ 2π n n Für L → L max gilt ξ → x : n L max 1 − 2 [ ( x − li ) 2 ] 1 2σ = ⋅e σ 2π [ ] d. h. ( x − l i ) 2 = [ vv] = Minimum Das ist die 1. Gauß'sche Begründung der Methode der kleinsten Quadrate. Sie setzt voraus, daß die Beobachtungen normalverteilt sind. R. A. Fischer verallgemeinerte das Schätzverfahren: L = f (l1; θ1 , θ 2 ...) ⋅ f (l 2 ; θ1 , θ 2 ...)⋅...⋅f (l n ; θ1 , θ 2 ...) 16 Die unbekannten Parameter θ1 , θ2 ... der Wahrscheinlichkeitsdichten f (l i ; θ1 , θ 2 ...) sollen so bestimmt werden, daß die Likelihood-Funktion L den Maximalwert L max annimmt. δL =0 δθ1 δL =0 δθ 2 M aus diesen Gleichungen sind die Werte der Parameter ξ − u s ⋅ σ x ≤ x ≤ ξ + u s ⋅ σ x zu berechnen Aus rechentechnischen Gründen wird häufig zunächst logarithmiert. ln L = ln f (l1 ; θ1 , θ 2 ...) +...+ ln f (l n ; θ1 , θ 2 ...) δ ln L =0 δθi Likelihood-Schätzungen brauchen nicht erwartungstreu zu sein, sie sind aber asymptotisch normalverteilt und asymptotisch effektiv.Im Falle der Normalverteilung ergibt sich z.B. die Maximum-Likelihood-Schätzung für die Varianz σ 2 (siehe Kreyszig S. 181) 2 m = [ vv] = n − 1 [ vv] ⋅ n n −1 n n −1 1 2 E( m ) = ⋅ E( m 2 ) = (1 − ) ⋅ E( m2 ) n n 2 Diese Schätzung ist nicht erwartungstreu, aber für n → ∞ gilt m → σ 2 . 1.2.9 Andere Ableitungen der Normalverteilung 1.2.9.1 Gauß'sches Fehlergesetz L = ϕ ( ε 1 ) ⋅ ϕ (ε 2 )⋅...⋅ϕ( ε n ) ξ ist unbekannt, es soll die Schätzung x benutzt werden, für die die Likelihood-Funktion zum Maximum wird. v1 = x − l1 v2 = x − l2 M vn = x − ln ϕ( v1 ) ⋅ ϕ ( v 2 )⋅...⋅ϕ ( v n ) = Maximum ln ϕ ( v1 ) + ln ϕ ( v 2 ) +...+ ln ϕ ( v n ) = Maximum 17 d ln ϕ( v1 ) dv1 d ln ϕ ( v 2 ) dv 2 ⋅ + ⋅ +... = 0 dv1 dx dv 2 dx { { 1 1 d ln ϕ( v1 ) d ln ϕ ( v 2 ) d ln ϕ( v i ) v ⋅ d ln ϕ ( v i ) + +... = 0 = ∑ =∑ i dv1 dv 2 dv i v i ⋅ dv i Gauß'sche Annahme: Das arithmetische Mittel ist der wahrscheinlichste Wert. x= l1 + l 2 +...+ l n n Diese Annahme ist gleichbedeutend mit: ∑v = 0 Außerdem gilt: ∑v⋅ d ln ϕ( v) =0 v ⋅ dv Die beiden Gleichungen können ohne Widerspruch bestehen für: (siehe Höpcke) d ln ϕ( v i ) = const v i ⋅ dv i d ln ϕ( v i ) = k ⋅ vi dv i Integration: ln ϕ( v) = 1 k ⋅ v2 + c 2 ϕ( v) = e 1 2 k⋅ v + c 2 = e ⋅e c 1 2 k⋅ v 2 Unter der Annahme einer sehr großen Anzahl von Beobachtungen gilt x → ξ und v → ε : 1 ϕ( ε) = e c ⋅ e 2 k ⋅ε 2 Da für wachsendes ε die Fehlerwahrscheinlichkeit abnehmen soll, wird gesetzt: 1 k = − h 2 ; außerdem e c = A 2 2 2 ϕ( ε) = A ⋅ e − h ε 18 Es werden zwei Bedingungen gebraucht, zur Bestimmung der Integrationskonstanten A und h: +∞ +∞ ∫ ϕ( ε)dε = A ∫ e 1) −∞ − h2ε2 dε = 1 −∞ h π A= Entsprechend Abschnitt 1.2.3: 2) Das von Gauß eingeführte Präzisionsmaß h ist durch die Varianz σ 2 auszudrücken: +∞ σ2 = ∫ ε 2 ϕ(ε)dε = −∞ h π +∞ ∫ε 2 e − h ε dε 2 2 −∞ Allgemein: +∞ ∫x e 2 − ( ax2 + bx + c ) −∞ a + 2b 2 dx = 2a 2 π b a−ac ⋅e a 2 ; a>0 Hier: a = h 2 ; b = c = 0 σ2 = h 1 π 1 1 ⋅ 2 ⋅ 2 = 2 →h= h 2h π 2h σ⋅ 2 Gauß'sches Fehlergesetz (Wahrscheinlichkeitsdichte für N(0, σ ) ): ε − 2 h − h2ε 2 1 2σ ϕ( ε) = = e e π σ 2π 2 1.2.9.2 Literaturhinweise Czuber - Theorie der Beobachtungsfehler, Leipzig 1891 Tienstra - Theory of the adjustment of normally distributed observations Jordan/Eggert/Kneißl- Handbuch der Vermessungskunde, 10. Ausgabe Band I, §133 1.2.10 Verschiedene Fehlermaße und ihr Zusammenhang bei normalverteilten Beobachtungen Definition der Varianz: { σ = E (ξ − l λ ) 2 2 } = E(ε +∞ 2 )= +∞ ∫ ε ϕ( ε)dε = 2 ∫ ε ϕ(ε)dε 2 −∞ 2 0 19 Definition des durchschnittlichen Fehlers: τ = Eε = +∞ +∞ −∞ 0 ∫ ε ϕ(ε)dε = 2 ∫ ε ϕ( ε)dε Definition des wahrscheinlichen Fehlers: +ρ ∫ ϕ( ε)dε = 0,5 = Φ( +ρ) − Φ( −ρ) = Φ( +ρ) − {1 − Φ( +ρ)} = 2Φ(ρ) − 1 −ρ d. h. Φ( +ρ) = 3 →ρ 4 Für unabhängige normalverteilte Beobachtungen ergeben die Inte-grationen (siehe z.B. Höpcke). 1 2h 2 h = Präzisionsmaß 1 τ= = π ⋅h σ2 = 2 ⋅σ π Daraus ergeben sich folgende Zusammenhänge zwischen den Fehlermaßen: τ = 0,80σ = 118 , ρ σ = 1,25τ = 1,47ρ ρ = 0,85τ = 0,67σ τ≈ 4 2 σ ; ρ≈ σ 5 3 2 Vertrauensintervalle (Konfidenzintervalle) 2.1 Die Ungleichung von Tschebyscheff Ist k eine beliebige reelle Zahl, so ist die Wahrscheinlichkeit des Ereignisses X − ξ > kσ kleiner als k −2 . P( X − ξ ≥ kσ ) ≤ 1 k2 Diese Ungleichung gilt ganz allgemein für stetige (und auch für diskrete) Verteilungen, für die σ ≠ 0 ist. Sie gilt in Strenge nur in ξ und σ , nicht aber wenn nur die Schätzungen x und m für ξ und σ bekannt sind. 20 Beweis: +∞ σ2 = ∫ ( t − ξ) 2 f ( t )dt −∞ ξ + kσ = ∫ ( t − ξ) ξ − kσ +∞ 2 f ( t )dt + ξ − kσ t − ξ ≤ kσ ≥ 0 ∫ ( t − ξ) 2 f ( t )dt + ξ + kσ ∫ ( t − ξ) 2 f ( t )dt −∞ t − ξ ≥ kσ ≥ 0 σ 2 ≥ ∫ ( t − ξ) 2 f ( t )dt = ∫ ( kσ + ∆t ) 2 f ( t )dt t − ξ ≥ kσ t − ξ ≥ kσ σ 2 ≥ k 2 σ 2 ∫ f ( t )dt + 2 kσ ∫ ∆tf ( t )dt + ∫ ∆t 2 f ( t )dt ξ ± 3,18 ⋅ m x t − ξ ≥ kσ ≥ 0 ≥ 0 σ 2 ≥ k 2 σ 2 ∫ f ( t )dt = k 2 σ 2 ⋅ P( t − ξ ≥ kσ ) t − ξ ≥ kσ P ( t − ξ ≥ kσ ) ≤ 1 k2 Beispiel: Die Ungleichung besagt, daß unabhängig von der speziellen Wahr-scheinlichkeitsdichte f(x) z.B. im Intervall ±2σ theoretisch mehr als 3/4 (75 % ) aller Fälle liegen (entsprechend im Intervall ±3σ mehr als 8/9 (89 %), im Intervall ±4σ mehr als 15/16 (94 %)). Beispiel: Vorzeichen bei Beobachtungsdifferenzen n = 25 (vgl. Abschnitt 1.1 Beispiel b) X = Anzahl der positiven Beobachtungsdifferenzen ξ = 12,5 σ 2 = 6,25 → σ = 2,5 21 Auf Grund der Ungleichung von Tschebyscheff gilt z.B.: 1 = 0,25 22 P(7,5 < x < 17,5) ≥ 1 − 0,25 = 0,75 P( x - ξ ≥ 2σ ) = P( x - ξ ≥ 5) ≤ Die Wahrscheinlichkeit dafür, daß bei 25 Beobachtungsdifferenzen die Anzahl der positiven Differenzen im Intervall 7,5 < x < 17,5 liegt, ist größer oder gleich 0,75. Zum Vergleich: Die Zufallsveränderliche X ist binomialverteilt. Bei Binomial-verteilung (n = 25; p(+) = 0,5; p (-) = 0,5) gilt: 17 P(8 ≤ x ≤ 17) = ∑ P( x ν ) = 0,9568 ν =8 2.2 Statistische Eigenschaften einer normalverteilten Zufallsveränderlichen 2.2.1 Verteilung des arithmetischen Mittels Ist die Grundgesamtheit N(ξ, σ) normalverteilt, so ist das Stich-probenmittel x = N(ξ, σ n l n streng ) normalverteilt. (vgl. Abschnitt 1.2.6.1) Wegen des Zentralen Grenzwertsatzes (Abschnitt 1.2.7) gilt aber auch: Ist die Grundgesamtheit beliebig verteilt mit Erwartungswert ξ und Standardabweichung σ , so ist das Stichprobenmittel angenähert N(ξ, σ n ) normalverteilt; und zwar ist die Annäherung um so besser, je größer n ist und je mehr die Verteilung einer Normalverteilung ähnelt. 2.2.2 Vertrauensintervall für den Erwartungswert ξ 2.2.2.1 Vertrauensintervall für ξ bei Kenntnis von σx Voraussetzung: Alle Beobachtungen li entstammen der gleichen normalverteilten Grundgesamtheit und sind unabhängig. 22 +u s ε P( − u s ≤ x ≤ + u s ) = S = ∫ ϕ ( t )dt σx −u s u= [ l] σ x − ξ εx = mit x = und σ x = σx σx n n u ... normierte normalverteilte Zufallsveränderliche P( − u s ≤ x−ξ ≤ +us ) = S σx Durch Umformung der Relation erhält man: − us ⋅ σx ≤ x − ξ ≤ us ⋅ σ x − x − u s ⋅ σ x ≤ −ξ ≤ − x + u s ⋅ σ x x − us ⋅ σx ≤ ξ ≤ x + us ⋅ σx entsprechend: ξ − us ⋅ σ x ≤ x ≤ ξ + us ⋅ σx und damit: P( x − u s ⋅ σ x ≤ ξ ≤ x + u s ⋅ σ x ) = S P(ξ − u s ⋅ σ x ≤ x ≤ ξ + u s ⋅ σ x ) = S S = statistische Sicherheit Die Wahl von S hängt vom Problem ab. S% us 68,3 95,0 99,0 99,9 1,00 1,96 2,58 3,29 Vertrauensintervall: x − u s σ x ... x + u s σ x (zweiseitig). (Zufallsintervall konstanter Länge, das mit der Wahrscheinlichkeit S den Erwartungswert ξ enthält). Vertrauensgrenzen: ± u s σ x Diese Aussagen gelten in Strenge nur bei Kenntnis von σx Notwendiger Stichprobenumfang 23 Frage: Wie groß muß der Stichprobenumfang mindestens sein, damit die Abweichung x − ξ des Erwartungswertes ξ vom Schätzwert x in S% aller Fälle einen bestimmten Betrag C Max nicht überschreitet? x ist N (ξ, σ x ) verteilt σ σx = n [ l] x= n C Max = u s ⋅ σ x = u s ⋅ C 2 Max n Min σ n Min σ2 = u ⋅σ = u ⋅ n Min 2 s 2 x u ⋅σ = s C Max 2 s 2 Beispiel: Zur Messung eines Höhenunterschiedes am Fundament eines Hochhauses stehen zwei Nivellierinstrumente zur Verfügung. Die Standard-abweichungen σ für eine einmalige Messung sind bekannt: 1) Ingenieurnivellier ohne Planplatte: σ 1 = ±0,6mm 2) Nivellier mit Planplatte: σ 2 = ±0,2 mm a)Wie oft muß der Höhenunterschied mit Instrument 1 bzw. 2 gemessen werden, wenn bei einer statistischen Sicherheit S = 95% die maximale Differenz C Max = x − ξ < 0,3mm sein soll? S = 95% ; u s = 1,96 1. Instrument: 2 1,96 ⋅ 0,6 n Min = = 15,36 ≈ 16 0,3 2. Instrument: 2 1,96 ⋅ 0,2 n Min = = 1,7 ≈ 2 0,3 24 b) Von der Bauleitung wird für S = 99 % verlangt, daß C Max < 0,1mm sein soll. Läßt sich diese Forderung mit den zur Verfügung stehenden Instrumenten sinnvoll einhalten? - NEIN S = 99% ; u s = 2,58 1. Instrument: 2 2,58 ⋅ 0,6 n Min = = 239,63 ≈ 240 0,1 2. Instrument: 2 2,58 ⋅ 0,2 n Min = = 26,62 ≈ 27 0,1 c) Wie groß dürfte die Standardabweichung σ eines Instrumentes sein, wenn man mit höchstens n = 5 Messungen die Forderungen von b) erfüllen will? 2,58 ⋅ σ 5= 0,1 σ= 2 0,1 ⋅ 5 = 0,087 mm 2,58 2.2.2.2 Die t-Verteilung (Student-Verteilung) Die t-Verteilung wurde von W.S. Gosset (Pseudonym: Student) abge-leitet (1908). (Ableitung siehe Kreyszig, Gotthardt) l i ..... Beobachtungen der N(ξ, σ) normalverteilten Zufallsveränderlichen X x ..... arithmetisches Mittel (Zufallsveränderliche) m ..... Schätzung für σ (Zufallsveränderliche) m x ..... Schätzwert für die Standardabweichung des arithmetischen Mittels x (Zufallsveränderliche) m x und x müssen voneinander unabhängig sein Übergang zu der Zufallsveränderlichen T= X−ξ mx Wahrscheinlichkeitsdichte der Zufallsveränderlichen T: t 2 f ( t , f ) = C( f ) ⋅ 1 + f − f +1 2 f + 1 Γ ∞ 2 1 C( f ) = ⋅ ; Γ ( λ + 1) = ∫ x λ e − x dx (Gamma - Funktion) f fπ 0 Γ 2 25 f = Freiheitsgrad = Anzahl der überschüssigen Beobachtungen, hier f = n - 1 Graphische Darstellung: Die zu f(t) gehörige Kurve ist auch symmetrisch zu ξ bzw. t = 0 wegen der Abhängigkeit von t 2 , sie ist aber flacher als ϕ( ε) . Die t-Verteilung geht für f → ∞ in die normierte Normalverteilung N(0,1) über. Tabelle der Werte ts als Funktion der Wahrscheinlichkeit + ts S= ∫ f ( t )dt und des Freiheitsgrades f. −ts (f = n - 1 bei einer Unbekannten bzw. f = n - u bei u Unbekannten) f S = 68, 3% S = 95, 0% S = 99, 0% 1 2 3 4 5 10 20 100 1,82 1,32 1,20 1,14 1,11 1,05 1,025 1,005 1,000 12,71 4,30 3,18 2,78 2,57 2,23 2,09 1,98 1,96 63,66 9,92 5,84 4,60 4,03 3,17 2,85 2,63 2,58 ∞ Statt der Tabellen empfiehlt es sich, Nomogramme zu benutzen. Wenn f größer als etwa 30 wird, so kann statt ts bereits us benutzt werden. Ist f dagegen klein, so bestehen erhebliche Unterschiede. 2.2.2.3 Vertrauensintervall für ξ bei Kenntnis von mx Voraussetzung: Die Beobachtungen li entstammen einer N(ξ, σ) verteilten Grundgesamtheit und sind unabhängig. 26 x−ξ ≤ +ts ) = S = P( − t s ≤ mx + ts ∫ f ( t )dt −t s entsprechend: x−ξ ≤ +us ) = S = P( − u s ≤ σx + us ∫ ϕ( t)dt − us Wichtiger Unterschied: σx = fester Zahlenwert m x = Schätzung für σ x veränderliche) ϕ(u) Wahrscheinlichkeitsdichte der Zufallsveränderlichen: u= (Zufalls- x−ξ (Normalverteilung) σx f(t) Wahrscheinlichkeitsdichte der Zufallsveränderlichen: t= x−ξ (t-Verteilung) mx (siehe Abschnitt 2.2.2.2) P( x − t s ⋅ m x ≤ ξ ≤ x + t s ⋅ m x ) = S Die Umformung entspricht 2.2.2.1 mit t s statt u s . (Zufallsintervall, das mit der Wahrscheinlichkeit S den Erwartungswert ξ enthält. Die Größe des Intervalls hängt von der Zufallsveränderlichen m x ab.) Unter Voraussetzung normalverteilter Beobachtungen wird für f = 3 und S = 95 % ts = 3,18 ,, d.h. in etwa 5 % aller Fälle ist der Erwartungswert ξ noch außerhalb der Vertrauensgrenzen ± 3,18 ⋅ m x zu erwarten, wenn m x nur 3 Freiheitsgrade enthält. Wäre aber statt der Schätzung m x die Standardabweichung σx bekannt, so wären außerhalb der Vertrauensgrenzen ± 3,29 ⋅ σ x nur etwa 0,1 % aller Messungen zu erwarten. Beispiel: Messung eines parallaktischen Winkels Annahme: normalverteilte Beobachtungen γ v2 v 3,7364 61 69 62 X = 3,73640 0 +3 -5 +2 0 9 25 4 38 27 38 = 12,7 3 m2 m2x = = 3,17 4 m2 = S = 95% mx = 1,8cc f = n -1 = 3 t s = 3,18 Vertrauensgrenzen: ± t s ⋅ m x = ±3,18 ⋅ 1,8cc = ±5,7 cc ≈ 6cc ± u s σ x = ±1,96 ⋅ 1,8 cc = ±3,5cc ≈ 4 cc ( mit σ x = m x ) zum Vergleich: Vertrauensintervall in dem ξ mit 95 % Wahrscheinlichkeit liegt: x − t smx x + t smx 3g ,7364 − 6cc ....... 3g ,7364 + 6cc 3g ,7358 ....... 3g ,7370 x − u s m x .... x + u s m x (Zum Vergleich 3,7360 .... 3,7368 ) 2.2.3 Statistische Eigenschaften des mittleren Fehlerquadrates m 2 = [ ε 2 ] / f und des mittleren Fehlers bei bekanntem Erwartungswert der Beobachtungen 2.2.3 χ2-Verteilung 2.2.3.1 Zusammenhang zwischen den Zufallsveränderlichen m2 und χf2 Voraussetzung: Die unabhängigen Beobachtungen li sind N(ξ, σ ) verteilt. ξ ist bekannt. Schätzung für σ 2 (Zufallsveränderliche): m2 = [ε ] 2 f l f mit f = Freiheitsgrad (hier f = n = Anzahl der Beobachtungen). Zusammenhang zwischen den ε i aus N(ξ, σ ) und den normierten Größen u i aus N(0,1): 28 εi σ εi = σ ⋅ ui ui = [ε ] 2 f i l [ ] = σ 2 u i2 f l σ2 m = ⋅ u 2i f [ ] 2 f f l übliche Bezeichnung: [u ] 2 f i l = χ 2f χ 2f -Verteilung: Verteilung der Quadratsumme von f unabhängigen N (0,1) verteilten Werten ui . m 2f = σ2 2 ⋅ χf f 2.2.3.2 Die χ2-Verteilung Helmert (1876), Pearson (1900) (Ableitung siehe Kreyszig; Gotthardt) Verteilungsfunktion VF( χ 2f ) der Zufallsveränderlichen χ 2f : [ ] P( χ = u 2 f 2 f i l −1 y −1 − f − 2f 2 2 < z ) = Γ 2 ⋅ ∫ y ⋅ e ⋅ dy 2 0 z f Wahrscheinlichkeitsdichte WD( χ 2f ) der Zufallsveränderlichen χ 2f : −1 f − f −1 − z WD( χ = z) = Γ 2 2 ⋅ z 2 ⋅ e 2 2 f 2 f f = Anzahl der aufsummierten unabhängigen N (0,1) verteilten u 2i Graphische Darstellung: Maximum von χf2 = f − 2 für f > 2 29 Additionstheorem der χ 2 -Verteilung: Die Summe zweier unabhängiger χ 2 -verteilter Zufallsgrößen ist wiederum χ 2 -verteilt. χ12 = y12 + y 22 +....+ y 2f 1 χ 22 = z12 + z 22 +....+ z 2f 2 [ ] + [z ] χ 2 = χ12 + χ 22 = y 2i f1 2 j 1 Freiheitsgrad f 1 Freiheitsgrad f2 f2 Freiheitsgrad f 1 + f2 1 Die Größen y i und z j sind voneinander unabhängig N(0,1) verteilt. Erwartungswert E( χ 2 ) der Zufallsveränderlichen χ 2f : χ 2f = u12 + u 22 +....+ u 2f 2 )=f E( χ 2 ) = E( u 12 ) + E( u 22 ) +....+ E( u 2f ) = f E u3 1(2 1 Varianz VAR ( χ 2f ) der Zufallsveränderlichen χ 2f : VAR ( χ 2f ) = E{( χ 2f ) 2 } − {E( χ 2f )} = E( χ 4f ) − f 2 2 E( χ f4 ) = E{( u 12 + u 22 +K+ u 2f ) 2 } = E( u 14 + u12 u 22 +K+ u 12 u 2f + u 22 u 12 + u 42 +K+ u 22 u 2f M M + u 2f u12 + u 2f u 22 +K+ u 4f ) +∞ E( u ) = 4 ∫ u ϕ( u)du 4 (Spezialfall: u ist N(0,1) verteilt) −∞ +∞ = ∫ −∞ 4 2 u u − ⋅ e 2 du 2π Allgemein gilt (aus einer Integral-Formelsammlung): ∞ I = ∫ x 2 n ⋅ e −ax dx = 2 0 1 ⋅ 3...(2 n − 1) π ; n = 0,1,2.. . a 2 n +1 ⋅ a n Hier: x → u; n → 2; a → + E( u 4 ) = 1 ⋅ 2I = 2π 1 ; damit wird: 2 2 1⋅ 3 2 ⋅ 3 ⋅ 2 ⋅ 2π = 3 2π 2 außerdem ist: 30 E( u i2 u 2k ) = E( u i2 ) ⋅ E( u 2k ) = 1⋅ 1 = 1 4 E( χ 4f ) = f ⋅ E u3 ) + ( f 2 − f ) ⋅ E( u i2 ) ⋅ E( u 2k ) = 2 f + f 2 1(2 123 123 3 1 VAR ( χ ) = E( χ ) − f 123 2 f 2 f 1 2 2f + f 2 VAR ( χ 2f ) = 2 f Standardabweichung SA ( χ 2f ) der Zufallsveränderlichen χ 2f : SA ( χ 2f ) = VAR( χ 2f ) = 2 f 2.2.3.3 Wahrscheinlichkeitsdichte und Streuungsparameter für m2 und m bei f Freiheitsgraden Wahrscheinlichkeitsdichte WD(m2) des mittleren Fehlerquadrates m 2 = [ εε] / f : σ2 2 2 f 2 m = ⋅ χ f χ f = 2 m2 f σ Da WD( m2 ) und WD( χ 2f ) in einem endlichen Bereich monoton sind, gilt: d(χ 2 ) WD( m ) = ⋅ WD( χ 2f ) d(m 2 ) d(χ 2 ) f 2 = d( m ) σ 2 f WD( m 2 ) = 2 WD( χ 2f ) σ 2 Bemerkung: Die Wahrscheinlichkeitsdichte WD(m) des mittleren Fehlers m läßt sich nicht in Strenge hieraus ableiten (s. Gotthardt). σ 2 = E( ε 2 ) = [ εε] n n→∞ ungleich m1 +...+ m ν E( m) = ν ν→∞ σ = E( ε 2 ) = [ εε ] n Für praktische Anwendungen werden ohnehin nur spezielle Werte der Verteilungsfunktion VF( χ 2f ) für vorgegebene Wahrscheinlichkeiten S gebraucht. (Für spezielle Sonderprobleme siehe Hristow: Wahr-scheinlichkeitsrechnung und mathematische Statistik) 31 Erwartungswert E( m2 ) und Varianz VAR ( m2 ) des mittleren Fehlerquadrates m2 : σ2 2 m = ⋅ χf f σ2 E( m 2 ) = ⋅ E( χ 2f ) f σ2 2 VAR ( m 2 ) = ( ) 2 ⋅ VAR( χ 2f ) = σ 4 ⋅ f f 2 VAR( χ 2f ) = 2 f Standardabweichung SA ( m2 ) des mittleren Fehlerquadrates: SA ( m 2 ) = VAR( m 2 ) = σ 2 ⋅ 2 f Für f unabhängige normalverteilte Beobachtungen gelten die angegebenen Zusammenhänge und Formeln streng. Varianz VAR(m) des mittleren Fehlers m. Unter der sehr problematischen Voraussetzung: dm << m gilt mit y = m2: dy = 2m . dm + Gl.h.O. VAR ( y) = (2 m) 2 ⋅ VAR( m) VAR(y) =VAR( m 2 ) σ4 1 1 1 2 4 2 VAR ( m) = = ( 2 )⋅ 2 ⋅ VAR ( m ) = 2 ⋅σ f 2f (2 m) 4m m Standardabweichung SA(m) des mittleren Fehlers m: SA ( m) = VAR ( m) = σ2 m 1 2f Für alle angegebenen Formeln wird die Kenntnis von σ gebraucht. Dieser Fall tritt sehr selten ein (z.B. wenn σ aus Erfahrung bekannt ist). Schätzungen: Da σ 2 = E( m 2 ) , die Varianz der Grundgesamtheit, unbekannt ist, schätzt man die angegebenen Größen mit m2, dem aus der Beobachtungsreihe erhaltenen mittleren Fehler und nicht mit E( m2 ) = σ 2 , der Varianz der Grundgesamtheit ab. Wegen der großen Streuungsbreite von m2 erhält man nur sehr schlechte Schätzungen, die praktisch unbrauchbar sind. 32 Die Schätzung für SA ( m) = SA ( m) ist z.B. SA ( m) = m 1 ("mittlerer Fehler des mittleren Fehlers") 2f Für diesen in der Literatur häufig angegebenen Wert gelten alle Vorbehalte! 2.2.3.4 Vertrauensintervall für σ Statt der Zufallsveränderlichen [ε ] = 2 χ 2 σ2 mit E( χ 2 ) = f (hier f = n allgemein f = n - u) wird die Zufallsveränderliche λ2 = χ 2 [ ε 2 ] m2 = 2 = 2 σ f fσ ; λ= m σ betrachtet. E( χ 2 ) E(λ ) = =1 f 1 2f 2 VAR (λ2 ) = 2 VAR ( χ 2 ) = 2 = f f f 2 Zweiseitige statistische Sicherheit P( λ u ≤ λ ≤ λ o ) = S λ u ... λ o zweiseitiges Vertrauensintervall der Zufallsveränderlichen λ = m σ 33 P( λ ≤ λ u ) = P( λ ≥ λ o ) = P( α 2 m m α ≤ λ u ) = P( ≥ λ o ) = σ σ 2 P( m ≤ σ ⋅ λ u ) = P( m ≥ σ ⋅ λ o ) = α 2 m ≤ λo ) = 1 − α = S σ P(σ ⋅ λ u < m < σ ⋅ λ o ) = 1 − α = S P( λ u ≤ σ ⋅ λ u ... σ ⋅ λ o Intervall konstanter Länge, in dem mit der Wahrscheinlichkeit S die Schätz-ung m für die Standardabweichung σ liegt. P( m / λ o < σ < m / λ u ) = 1 − α = S m / λ o ... m / λ u Zufallsintervall, das mit der Wahrscheinlichkeit S die Standardabweichung σ enthält. Die Werte λ o und λ u entnimmt man einer graphischen Darstellung. Außerdem sind die Werte 1 / λ o = γ 1 und 1 / λ u = γ 2 bei Gotthardt für verschiedene Freiheitsgrade und mehrere Wahrscheinlichkeiten S hinreichend dicht tabuliert. Einseitige statistische Sicherheit der χ 2 -Verteilung (wird später beim χ 2 -Test gebraucht) P( χ 2 < χ S2 ) = S Beispiele: Es liegen n unabhängige N(0, σd ) verteilte Beobachtungen vor. 1) Die Standardabweichung σd der Grundgesamtheit ist bekannt σd = ±3cc In welchem Bereich liegt der mittlere Fehler [d ] 2 md = n 34 bei f = n = 4 Freiheitsgraden für die Wahrscheinlichkeit S = 95 %? σ d ⋅ λ u < md < σ d ⋅ λ o λ u = 0,35 Für f = 4 und S = 95 % gilt: λ o = 1,66 (untere Intervallgrenze) ; (obere Intervallgrenze) 3 ⋅ 0.35 = 1,0cc 3 ⋅ 1,66 = 5,0cc 2) Es wurde für md aus Beobachtungsdifferenzen [d ] = 3 2 md = cc n erhalten. Wie groß ist bei S = 95 % das Vertrauensintervall für σ d ? Bei f = n = 4 Bei f = n = 30 λ u = 0,35; λ o = 1,66 3 / 1,66 < σ d < 3 / 0,35 λ u = 0,75; λ o = 1,25 3 / 1,25 < σ d < 3 / 0,75 1,8cc < σ d < 8,6cc m d / λ o < σ d < md / λ u 2,4 cc < σ d < 4,0cc 2.3 Statistische Zusammenhänge normalverteilter Beobachtungen bei der Ausgleichung unabhängiger 2.3.1 Verteilung der Unbekannten xi und von Funktionen der Unbekannten Die Unbekannten x i können als Elemente des Zufallsvektors x gedeutet werden; sie sind lineare Funktionen der unabhängigen Beobachtungen li . p ist die fehlerfreie Gewichtsmatrix der Beobachtungen l. x = N −1A ' Pl = Cl z.B. x ν = c ν1 ⋅ l1 + c ν 2 ⋅ l 2 +...+ c νn ⋅ l n Sind die Beobachtungen unabhängig normalverteilt, so sind dieElemente des Vektors x = Cl als Linearkombinationen der l i normalverteilt (aber nicht mehr voneinander unabhängig; C hat den Rang u < n) mit den Erwartungswerten E( x i ) = ξ i und den Varianzen σ 2xi = σ 20 ⋅ Q xi x i . 35 ( σ 20 = mittleres Fehlerquadrat der Gewichtseinheit, Q x i xi = Diagonalelementder Matrix Q xx .) Entsprechendes gilt für lineare Funktionen der Unbekannten F = f ' x = f ' C ⋅ l = g1 ⋅ l1 + g 2 ⋅ l 2 +...+ g n ⋅ l n E( F) = f ' E ( x) Q FF = f ' Q xx f = f ' C ⋅ Q ll C' f σ 2F = σ 20 ⋅ Q FF Für linearisierte Funktionen gilt die Normalverteilung der Funktionen in guter Näherung. 2.3.2 Statistische Eigenschaften Fehlerquadrates m20 der Verbesserungen vi und des mittleren Zusammenhang zwischen N-, t- und χ 2 -Verteilung. Ungleichgewichtige unabhängige Beobachtungen Li ~ N (ξ i , σ i ) : L1; strenges Gewicht π 1 = σ 20 σ 12 σ 20 π2 = 2 σ2 L2 ; M M πn = Ln ; σ 20 σ 2n PLL 1 2 σ = σ 20 0 0 O 1 σ2 −1 Q LL = PLL K LL = σ 20 ⋅ Q LL Übergang zu gleichgewichtigen Beobachtungen l i ~ N (ξ i , σ 0 ) mit der Varianz σ 20 : L1 π 1 = 11 Q ll = Pll−1 = E L 2 π 2 = 12 K ll = σ 20 ⋅ E M L n π n = 1n L1 Fehlergleichungssystem für l = M Ln l + v = A⋅x; P 1 1 P 2 ( l + v) = P 2 ⋅ A ⋅ x 36 l1 Fehlergleichungssystem für l = M ln l+ v = A⋅x v' v = Minimum x = N −1A ' l = (A ' A ) −1 A ' l mit N -1 = (A ' A ) −1 v = A ⋅ x − l = (AN −1A '− E) ⋅ l ( −1 ' )' Q v ,x = (A ⋅ N −1A '− E) ⋅ Q {ll N A E −1 = (A ⋅ N A '− E) ⋅ (A ⋅ N −1 ) = A ⋅ N −1A ' A ⋅ N −1 − A ⋅ N −1 = 0 A ' A ⋅ N −1 = E x Für den Vektor gilt also: v Q xv = 0 Q xx Q ( n+ u, = Q vv Q vx = 0 n+ u ) u-Spalten n-Spalten Die Unbekannte x i ist also mit irgendeiner Verbesserung v j unkorreliert. Dann ist auch die Quadratsumme [ v 2 ] = [ πvv ] unkorreliert mit den Unbekannten x i der Ausgleichung. Es gilt, wenn P = E und e' = ( ε 1 ,..., ε n ) v' v = e' e − e' A ⋅ N −1A ' e e' e e' e 1 1 − A ⋅ N −1A ' mit e=u 2 v' v = σ0 σ0 σ 0 σ0 σ 0 σ0 = u' u − u' A ⋅ N −1A ' u Der Vektor u enthält n Elemente, die unabhängig N(0,1) verteilt sind. 1 v' v = u' (E - A ⋅ N -1A ' ) ⋅ u σ 20 Für die weitere Ableitung wird der Vektor u der n unabhängigen N(0,1) verteilten Größen ui mit der Orthogonalmatrix G orthogonalisiert: 37 mit G ⋅ G ' = E und G' = G −1 y = G⋅u Beziehungen zwischen den Elementen der Vektoren y und u: Quadratsumme y' y = u' G ' G ⋅ u = u' u { E [y ] = [ u ] 2 n 1 2 n 1 Kovarianzmatrix K yy : K yy = G ⋅ K uu G ' mit K uu = E K yy = G ⋅ G ' = E = K uu Die y i sind wie die u i voneinander unabhängig mit σ y = 1. Verteilung der y i : n n 1 − 21[ u 2 ] 1 − 21[ y 2 ] = ϕ ( y1, , y 2 ... y n ) = ϕ( u1 , u 2 ... u n ) = e e 2π 2π Die y i sind also genau wie die u i N(0,1) verteilt. Mit der orthogonalen Transformation y = G ⋅ u bzw. u = G ' y wird: y' y [ vv] = 2 = y' G ( E − AN −1A ')G ' y σ 20 σ0 Die Matrix A ⋅ N −1A ' mit Rang u ist gleich ihrem Quadrat ( A ⋅ N −1 A ')(3 A ⋅ N −1A ') = A ⋅ N −1A ' mit N ⋅ N -1 = E 12 N Matrizen mit dieser Eigenschaft heißen "idempotent". Für diese Matrizen gilt u.a. (siehe Koch) ganz allgemein: Ist die (n,n)-Matrix C mit Rang r "idempotent", so ist auch die (n,n)-Matrix (E - C) mit Rang (n - r) idempotent. Ist die Matrix (E - C) mit Rang f = (n - r) idempotent und symmetrisch, so gibt es eine orthogonale Matrix G, so daß gilt: E ( f ,f ) G ( E − C) ⋅ G ' = σ ( r ,f ) σ ( f ,r ) σ ( r ,r ) Hier ist C = A ⋅ N −1A ' 38 Die Voraussetzung "idempotent", "symmetrisch" gilt mit n = Anzahl der Beobachtungen, r → u Anzahl der Unbekannten und f = n − u als Freiheitsgrad. Damit wird: [ ] v' v 1 2 v 2 = σ0 σ 20 i [ vv] [ πvv] σ 20 = n 1 E ( f ,f ) = y' σ σ ⋅ y = y 2i σ [ ] f 1 = χ 2f σ 20 läßt sich also durch die Quadratsumme von f = n - u Größen darstellen, die unab-hängig [ vv] [ πvv] ist χ 2f - verteilt mit f = n - u Freiheitsgraden. N(O,1) verteilt sind, d.h. 2 = 2 σ0 σ0 Das mittlere Fehlerquadrat der Gewichtseinheit m20 (Schätzung für σ20 ) ist dann: m = 2 0 [ vv] f σ 20 2 σ 20 2 = ⋅ χ f mit f = n - u; E(m 0 ) = ⋅ E( χ 2f ) = σ 20 f f σ 20 . σ i2 Müssen geschätzte Gewichte p i benutzt werden, gelten die Zusammen-hänge entsprechend der Güte der Schätzungen p i nur mehr oder weniger näherungsweise. Hinweis: Diese Zusammenhänge gelten nur bei Kenntnis der strengen Gewichte π i = Ist x i N( ξ i , σ i ) mit σ i = σ 0 Q ii (Schätzung Zufallsveränderliche der t-Verteilung: t= m i = m o Q ii ) verteilt, so gilt für die xi − ξi xi − ξ i σ i 1 σ = ⋅ = u⋅ 0 = u⋅ mi mi m0 σi χ 2f / f u und χ 2f sind wegen der Korrelationsfreiheit der Verbesserungen mit den Unbekannten (Q vx = σ ) voneinander unabhängig, also auch x i und mi . Die Wahrscheinlichkeitsdichte der gerade benötigten t-Verteilung hängt also genau wie bei der χ 2f -Verteilung nur noch vom Freiheitsgrad f = n - u ab. 2.3.3 Vertrauensintervalle für die Erwartungswerte ξ i Voraussetzung: unabhängige, normalverteilte Beobachtungen und Gültigkeit des funk-tionalenund des stochastischen Modells E( x i ) = ξ i P( − t s ≤ xi − ξi ≤ +t s ) = S m xi P( x i − t s m xi ≤ ξ i ≤ x i + t s m xi ) = S 39 mit m xi = m0 Q ii = [ vv] n−u ⋅ Q ii ; Freiheitsgrad zur Bestimmung von t s : f = n − u Beispiel: Gleichung eines 1m - Maßstabes Punktschätzungen l i + v i = x i + x 2 ( t i − 20o ) in [µm] (i = 1...7) Abweichung vom Sollmaß bei 20o : x i = +3,2 [µm] Ausdehnungskoeffizient : x 2 = +1,3 [µm/ o C] + 0,1020 + 0,0102 Q xx = + 0,0102 + 0,0216 Matrix der Gewichtskoeffizienten der Unbekannten Freiheitsgrad [ vv] = 45,13[(µm) 2 ] : f = n − u = 7−2 = 5 Mittlerer Gewichtseinheitsfehler: m 0 = 45,13 = ±3,0 [µm] 5 Mittlere Fehler der Unbekannten: m x1 = 3,0 ⋅ 0,1020 = ±0,96 [µm] m x2 = 3,0 ⋅ 0,0216 = ±0,44 [µm/ o C] Intervallschätzungen Vertrauensintervall für die Unbekannten (S = 95%) Für S = 95% ist bei f = 5 : t s = 2,57 x i − t s ⋅ mx i ≤ ξ i ≤ x i + t s ⋅ mx i 3,2 − 2,57 ⋅ 0,96 ≤ ξ1 ≤ 3,2 + 2,57 ⋅ 0,96 + 0,7 ≤ ξ1 ≤ +5,7 [µm] Theoretisch wird in 95% aller Fälle das entsprechend berechnete Intervall den Erwartung-swert ξ1 enthalten. 1,3 − 2,57 ⋅ 0,44 ≤ ξ 2 ≤ 1,3 + 2,57 ⋅ 0,44 0,2 ≤ ξ 2 ≤ 2,4 [µm/ o C] 40 Vertrauensintervall für den Erwartungswert Φ einer Funktion F F = Abweichung des Maßstabes vom Sollwert bei t = 17o C F = x1 + x2 ( t − 20o ) F = x1 + 3 x2 = 3,2 − 3,9 = 0,7 [µm] (Punktschätzung) Q FF = Q11 − 6Q12 + 9Q 22 = 0,1020 − 0,0612 + 0,1944 = 0,2352 m F = 3,0 ⋅ 0,2352 = ±1,46 [µm] (Intervallschätzung) − 0,7 − 2,57 ⋅ 1,46 ≤ Φ ≤ −0,7 + 2,57 ⋅ 1,46 − 4,4 ≤ Φ ≤ 3,0 [µm] 2.3.4 Vertrauensintervalle für die Standardabweichungen σ 0 , σ xi , σ F Für die Werte χ 2 , λ o , λ u ist der Freiheitsgrad f = n − u zu benutzen. P(σ 0 ⋅ λ u ≤ m 0 ≤ σ 0 ⋅ λ o ) = S P( m0 / λ o ≤ σ 0 ≤ m0 / λ u ) = S Beispiel: Maßstabsgleichung (Abschnitt 2.3.3) Für S = 95% wird bei f = 5 : λ o = 1,60 ; λ u = 0,405 m 0 = ±3,0 [µm] (Punktschätzung) 3,0 / 1,60 ≤ σ o ≤ 3,0 / 0,405 1,9 ≤ σ o ≤ 7,4 [µm] (Intervallschätzung) Für m x1 = m0 ⋅ Q11 = ±0,95 [µm] gilt bei S = 95% und f = 5 : 0,95 / 1,60 ≤ σ x1 ≤ 0,95 / 0,405 0,6 ≤ σ x1 ≤ 2,3[µm] 41 Für m x2 = m 0 ⋅ Q 22 = ±0,44 [µm/ o C] gilt bei S = 95% und f = 5 : 0,44 / 1,60 ≤ σ x 2 ≤ 0,44 / 0,405 0,3 ≤ σ x 2 ≤ 11 , [µm/ o C] Für m F = m 0 ⋅ Q FF = ±1,46 [µm] gilt bei S = 95% und f = 5 : 1,46 / 1,60 ≤ σ F ≤ 1,46 / 0,405 0,9 ≤ σ F ≤ 3,6 [µm] 3 Prüfung des mathematischen Modells durch statistische Tests 3.1 Allgemeine Grundlagen Hypothese: Annahme über das mathematische Modell (z.B. Verteilung einer Zufallsveränderlichen, Abweichungen vom Erwartungswert, Korrelation zwischen zwei Zufallsveränderlichen). Man unterscheidet entsprechend rein zufallsbedingte und "signifikante" (statistisch gesicherte) Abweichungen. Test: Prüfverfahren, ob man die Hypothese "annehmen" oder zugunsten einer Alternative "verwerfen" soll. (Wegen der stochastischen Einflüsse ist die Feststellung "richtig" oder "falsch" für die Hypothese unmöglich.) Für die Grenze zwischen Verwerfen und Nichtverwerfen (Annahme) der Hypothese wählt man problemorientiert eine Signifikanzzahl α . (Andere Bezeichnungen sind ebenfalls üblich: z.B. Verwerfungs-wahrscheinlichkeit, Irrtumswahrscheinlichkeit, Sicherheitsgrenze mit S = 1 − α in unseren Nomogrammen). Der zu α bzw. S gehörende Wert der Zufallsveränderlichen X wird mit Hilfe der Hypothese als "kritischer Wert" berechnet. Beispiel: Hypothese: In einem Nivellementsnetz seien die Schleifenwidersprüche (Zufallsveränder-liche X ) unabhängig N (0, σ = ±0,3mm) verteilt. In einer Schleife ist x = 0,9 mm m. Weicht dieser Wert rein zufällig von der Hypothese ab oder handelt es sich bei w = + 0,9 mm um eine signifikante Abweichung? Die vom praktischen Problem abhängige Verwerfungswahrscheinlichkeit (Signifikanzzahl) sei α = 5% . Prüfgröße: u= x−ξ σx Für u < u α : Hypothese annehmen (nicht verwerfen) u > uα : Hypothese ablehnen (verwerfen zugunsten einer Alternative) 42 Zwei Alternativen sind (abhängig vom praktischen Problem) möglich: 1. Fall: Einseitiges Problem : u < − uα wenn u < 0, u > wenn u > 0. oder uα 2. Fall: Zweiseitiges Problem: u < − u α/2 und u > u α/2 Im Beispiel: u = + 0,9 − 0 = +3,0 0,3 Beim einseitigen Test (nur die positiven Schleifenwidersprüche interessieren): Aus Tabelle A für: Φ( u α ) = 0,95 u α = +1,65 (kritischer Wert für die Prüfgröße) u = +3,0 > u α = 1,65 Die Hypothese wird zugunsten der Alternative für die einseitige Fragestellung verworfen, da u im Signifikanzbereich u α ...∞ liegt. Bei zweiseitiger Fragestellung (es interessiert unabhängig vom Vorzeichen der Absolutbetrag der Schleifenwidersprüche): 43 Aus Tabelle A für Φ( u α / 2 ) = 0,975 u α /2 = ±1,96 u = 3,0 > u α /2 = 1,96 (kritischer Wert für die Prüfgröße) Die Hypothese wird zugunsten der Alternative für zweiseitige Fragestellung verworfen, da u im Signifikanzbereich ± u α ... ± ∞ liegt. 3.2 Fehler erster und zweiter Art Einseitiger Test Hypothese: Die Zufallsveränderliche ∆ ist N(0, σ) verteilt Alternative: E( ∆ ) > 0 Richtiges Modell: Die Zufallsveränderliche ∆ ist N(E( ∆), σ ) verteilt. Fehler erster Art: α% In α% aller Fälle ist bei Gültigkeit der Hypothese ∆ i ≥ ∆ α zu erwarten. Die Hypothese wird in diesen Fällen verworfen, obgleich sie richtig ist. Das tritt mit der Wahrscheinlichkeit ≤ α ein, wenn α als Sicherheitsgrenze (Irrtumswahrscheinlichkeit) gewählt wurde. Fehler zweiter Art: β% Ist ∆ i < ∆ α , so wird die Hypothese nicht verworfen, obgleich sie falsch ist. Die zugehörige Wahrscheinlichkeit dafür ist β . Je geringer die Abweichung des richtigen Modells von der Hypothese ist, um so größer wird der Fehler zweiter Art. In beiden Fällen wird ein fehlerhaftes Urteil gefällt. 44 Entsprechend gilt beim zweiseitigen Test: Hypothese: E( ∆) = 0 (wie beim einseitigen Test) Alternative: E( ∆) ≠ 0 Für die weitergehende einführende Behandlung der Probleme der Entscheidung auf Grund statistischer Tests siehe Hein, Kreyszig und Spiegel. 3.3 Prüfung von Verteilungen 3.3.1 χ 2 -Test zur Prüfung von beliebigen Verteilungen ohne unbekannte Parameter (einseitiger Test) Gegeben ist eine Stichprobe von n Werten, die in ν Klassen ein-geteilt ist. Hypothese: Die empirische Verteilung weicht nur zufällig von einer bekannten theoretischen Verteilung ab. (Gilt für diskrete und stetige Verteilungen) n = Anzahl aller Größen n i = Anzahl in der i - ten Klasse; 1...i... ν p i = Wahrscheinlichkeit dafür, daß die Größe in der i - ten Klasse liegt (muß bekannt sein!) np i = theoretisch zu erwartende Anzahl in der i - ten Klasse ν ( n i − np i ) 2 ∆2 =∑ i np i i =1 i =1 np i ν Prüfgröße: χ 2 = ∑ ∆2i genügt asymptotisch einer χ 2 -Verteilung Die Größe χ = ∑ np i =1 i ν 2 mit dem Freiheitsgrad f = ν − 1. 45 Bemerkung: [ ∆] = ∑ ( n i − np i ) = ∑ n i − n ∑ p i = 0 123 1 23 n 1 d.h. die ∆i - Werte sind nicht voneinander unabhängig, deshalb ist f = ν − 1. Die Hypothese wird 2 2 verworfen für χ > χ S . Wahrscheinlichkeitsdichte χ 2 für Freiheitsgrad f = ν−1 χ S2 ist der Tabelle für einseitige statistische Sicherheit S = 1 − α beim Freiheitsgrad f = ν − 1 zu entnehmen. Bemerkungen zur Klasseneinteilung: Da die Prüfgröße nur asymptotisch χ 2 verteilt ist, soll die Klasseneinteilung so erfolgen, daß np i ≥ 5 (nach Kreyszig). Hinweis: Andere Autoren geben andere Bedingungen an: 1.) np i ≥ 1 und für 80% der Klassen np i ≥ 5 (nach Pfanzagl). 2.) Die Bedingung für npi hängt von der Anzahl der Freiheitsgrade ab, d. h. von der Anzahl der Klassen: Bei f > 6 darf ein Wert npi auf 1/2 heruntergehen oder zwei Werte np i auf 1 (nach v.d. Waerden). Falls die Bedingung für np i nicht erfüllt ist, müssen mehrere Klassen zusammengefaßt werden. Bei qualitativen Merkmalen ist das nicht immer sinnvoll möglich. Bei fester Klassenzahl erhält man die zuverlässigsten Testergebnisse, wenn die theoretische Häufigkeit np i in allen Klassen gleich groß ist. 46 1. Beispiel: Augenzahl beim Würfeln 1. Versuch Augenzahl beobachtete theoretische Anzahl 1 2 3 4 5 6 ni np i ∆ i = n i − np i ∆2i np i 18 23 15 14 12 14 16 16 16 16 16 16 +2 +7 -1 -2 -4 -2 0,25 3,06 0,06 0,25 1,00 0,25 96 96 0 χ 12 = 4,87 2. Versuch (der gleiche Würfel wie beim 1. Versuch, aber 2, 3, 4, 5 mit Tesafilm beklebt) 1 2 3 4 5 6 f =5 11 12 11 23 22 17 16 16 16 16 16 16 -5 -4 -5 +7 +6 +1 1,56 1,00 1,56 3,06 2,25 0,06 96 96 0 χ22 = 9, 49 α = 5% α = 1% χ S2 = 111 , χ S2 = 15,1 α vor dem Test festlegen! χ12 < χ S2 ; χ 22 < χ S2 Feststellung: Die Abweichungen des benutzten Würfels von einem idealen Würfel sind so gering, daß sie mit je 96 Würfen noch nicht nachgewiesen werden können. Falsch wäre die Feststellung: Die Versuche wurden mit einem idealen Würfel durchgeführt. 47 2. Beispiel: (aus Marzahn - Untersuchungen an Invarband-Nivellierlatten, Veröff. der DGK, Reihe C, Nr. 22, S. 25) Zehntelschätzung am Planplattenmikrometer Hypothese: Jedes Zehntel wird gleich häufig geschätzt Schätzstelle i ni np i ∆ i = n i − np i ∆2i np i 0 1 2 3 4 5 6 7 8 9 275 288 230 133 121 96 101 144 192 220 180 180 180 180 180 180 180 180 180 180 +95 +108 +50 -47 -59 -84 -79 -36 +12 +40 50 65 . . . . . . . . 1800 1800 0 χ 2 > 115 f =9 α = 5% χS2 = 16,9 α = 1% χ S2 = 21,7 α = 0,1% χ S2 = 27,9 χ 2 >> χS2 Die Hypothese wird verworfen mit einer Irrtumswahrscheinlichkeit α < 0,1%; d.h. die Zehntel werden nicht gleichhäufig geschätzt. Das Auftreten persönlicher Schätzfehler ist signifikant ("statistisch gesichert"). 48 3. Beispiel (s. Kneissl, Sigl - Geodätische Beiträge zur naturwissenschaftlichen Erforschung Bayerns, Bayer. Akademie der Wissenschaften, Abh. Neue Folge, Heft 87, S. 21) Gleichzeitige, synchrone trigonometrische Höhenmessungen zweier Beobachter mit zwei nebeneinander stehenden Instrumenten. Beobachter Sigl v Scc + 4,6 + 3,7 + 6,4 + 0,1 - 1,1 + 4,9 + 0,1 - 1,1 - 4,1 - 1,4 + 0,1 - 1,4 - 1,1 - 5,9 - 3,5 Marzahn v ccM + 1,5 + 1,5 + 6,5 - 3,5 + 2,5 + 9,5 + 2,5 - 6,5 - 5,5 - 1,5 + 2,5 - 5,5 - 2,5 - 1,5 - 0,5 Hypothese: Die beiden Beobachtungsreihen sind voneinander unabhängig; d.h. die Vorzeichenkombinationen (+,+); (+,-); (-,-); (-,+) treten gleich häufig auf. Bemerkung: Es gibt spezielle Vorzeichen- und Anordnungstests (vgl.z.B. v. d. Waerden), hier soll der χ 2 -Test mit zwei Klassen (gleiche Vorzeichen p g = 0,5 und ungleiche Vorzeichen pu = 0, 5) benutzt werden. Klassenmerkmal ni np i ∆ i = n i − np i ∆2i np i Gleiche Vorzeichen ungl. Vorzeichen 13 2 7,5 7,5 +5,5 -5,5 4,05 4,05 0 8,10 15 f = 1 α = 5% χ2S = 3, 84 = 1% = 6, 63 = 0, 1% = 10, 8 49 Mit einer Irrtumswahrscheinlichkeit, die kleiner als α = 1% ist, ist die Hypothese zu verwerfen.Es ist statistisch gesichert, daß die Beobachtungsreihen nicht voneinander unabhängig sind, wenn der kritische Wert für α = 1% zugrunde gelegt wird. 3.3.2 χ 2 -Test zur Prüfung von insbesondere Normalverteilungen Verteilungen mit unbekannten Parametern, Sind die Parameter der Verteilung unbekannt, so müssen entsprechende Schätzungen eingeführt werden: Für Erwartungswert ξ und Standardabweichung σ z.B. für ξ für σ Freiheitsgrad von χ 2 bei ν Klassen a) [ εε] m= 0 b) x = [ l] n n m= [ vv] n −1 f = ν -1-1 f = ν -1-2 c) werden u Unbekannte und der mittlere Gewichtseinheitsfehler geschätzt f = ν - 1 - (u + 1) Bei einem Stichprobenumfang von n Werten sind im Intervall x i ... x i +1 { } n Φ ( x i +1 ) − Φ( x i ) = n ⋅ ∆Φ i Werte theoretisch zu erwarten. Berechnung von Φ( x i ) für eine Normalverteilung siehe Abschnitt 1.2.5 Prüfgröße: χ 2 = ∑ ( n i − n ⋅ ∆Φ i ) 2 ∆2i =∑ n ⋅ ∆Φ i n ⋅ ∆Φ i Zur Klasseneinteilung gelten dieselben Grundsätze wie im Abschnitt 3.3.1. Beispiel: (Böhm - Statistische Prüfung von Meßergebnissen auf Normalverteilung, ZfV 1965 S. 83 - 90) Hypothese: Die 227 Dreiecksschlüsse w im tschechischen Grundnetz stammen aus einer normalverteilten Grundgesamtheit N(ξ, σ ) ohne konstanten systematischen Fehler. ξ = E( w ) = 0 in der Hypothese fest vorgegeben. Für σ wird die aus der Stichprobe gewonnene Schätzung m w = [ w ] / 227 = 0,66' ' 2 benutzt. 50 w'' u= -2,64 -4,0 -1,98 -1,65 -3,0 -2,5 w mw Φ( u) -0,99 -1,5 0,0668 -0,66 -1,0 0,1587 -0,33 -0,5 0,3085 0 0 0,5000 +0,33 +0,5 0,6915 +1,32 +1,65 +1,98 +2,64 +1,5 +2,0 +2,5 +3,0 +4,0 0,0013 1 0,3 0,0049 2 1,1 0,0166 4 0,0440 9 0,0919 ∆Φ( ui ) ∆ i ∆2 n ⋅ ∆Φ( u i ) 5,2 +1,8 0,6 10,0 -1,0 0,1 16 20,8 -4,8 1,1 0,1498 35 34,0 +1,0 0 0,1915 43 43,5 -0,5 0 0,1915 53 43,5 +9,5 2,1 0,1498 27 34,0 -7,0 1,5 0,0919 22 20,8 +1,2 0 0,0440 10 10,0 0 0 0,0166 5 3,8 0,0049 0 1,1 -0,2 0 0,0013 0 0,3 0 5,4 0,0062 0,0228 +0,99 n⋅ 0,0013 -2,0 +1,0 ni 0,0000 -1,32 +0,66 ∆Φ( u) 7 3,8 0,8413 0,9332 0,9772 0,9938 0,9987 1,0000 5,2 5 4 n 4= 2 27 Freiheitsgrad: f = ν − 1 − 1 = 10 − 2 = 8 α = 5% 227 χ 2 < χ S2 χ S2 = 15,5 ; 51 Feststellung: Die Hypothese, daß die Dreieckswidersprüche N(0,±0,66'') verteilt sind, wird durch den Test nicht widerlegt. Aus einer Spezialtafel für die χ 2 -Verteilung entnimmt man P( χ 2 ≤ 5,4) = 0,29 . 3.4 Prüfung von gemessenen bzw. ausgeglichenen normalverteilten Größen 3.4.1 Abweichung einer Größe von ihrem Erwartungswert Voraussetzung: Normalverteilte Größen (zumindest näherungsweise). Aus den Messungen werden bestimmt: x mx Beobachtung, Mittelwert, Unbekannte der Ausgleichung, Funktionswert Schätzung für die Standardabweichung von x f Freiheitsgrad von m x = m 0 ⋅ Q xx f = n - 1 bzw. f = n - u m x hat den gleichen Freiheitsgrad wie m0 ξ wird als bekannt vorausgesetzt als E(x) Test Hypothese: E(x) = ξ d.h. Alternative: E( x − ξ) ≠ 0 E (x - ξ ) = 0 (zweiseitiger Test) E( x − ξ) > 0 (einseitige Tests) bzw. E(x − ξ) < 0 Prüfgröße: t = Wahl des Tests u. der Signifikanz-grenze α hängen von der Problemstellung ab. x−ξ mx vgl. Abschnitt 2.2.2.3: Für den zweiseitigen Test gilt: P( − t S ≤ x−ξ ≤ +tS ) = S = 1 − α mx 52 Ist die Prüfgröße t ≥ t S für den Freiheitsgrad f, so wird die Hypothese mit einem Fehler erster α α Art α 2 ≤ α = 1 − S 2 (zweiseitiger Test) bzw. α 1 ≤ = 1 − S 2 − (einseitiger Test) 2 2 verworfen. t S entnimmt man einem Nomogramm der t-Verteilung für den Freiheits-grad f. 1. Beispiel: Eine Nivellementsschleife von 1 km Länge wird von zwei Beobachtern je zehnmal gemessen: ξ = 0 (zweiseitiger Test) 1. Beobachter x1 = m12 = [ ε ]1 n 2. Beobachter = −0,7 mm [ εε ]1 − [ ε]12 n n −1 57 − 4,9 52,1 = = 9 9 m1 = ±2,4 mm f1 = 9 2,4 m x1 = = ±0,8mm 10 Prüfgrößen : t1 = x2 = x1 − 0 0,7 = = 0,9 m x1 0,8 m22 = [ ε] 2 n = +0,5mm [ εε] 2 − [ ε] 22 n n −1 93 − 2,5 90,5 = = 9 9 m2 = ±3,2 mm f2 = 9 3,2 m x2 = = ±1,0mm 10 t2 = x 2 − 0 0,5 = = 0,5 m x2 1,0 Der graphischen Darstellung der t-Verteilung entnimmt man für f = 9 : t s = 2,25 (α 2 = 5%; S = 95% ) t s = 2,25 > t 1 > t 2 53 Durch den Test ist die Hypothese nicht widerlegt, daß die Schleifenschlußfehler den Erwartungswert 0 haben. Die Abweichungen x 1 und x 2 von Null sind statistisch nicht gesichert (nicht signifikant). Bemerkung: Die Durchführung eines t-Testes ist in diesem Beispiel unnötig, da x - ξ < m x ist. Bei α 2 = 5% besteht erst für x - ξ > 1,96 ⋅ mx Anlaß, die Hypothese unter Umständen zu verwerfen. 2. Beispiel: Beobachtungsdifferenzen Gemessen: Beobachtungspaare x i , yi (zweiseitiger Test) Hypothese: E ( x) = E ( y) Alternative: E(d ) ≠ 0 E ( x) − E ( y) = 0 E ( x − y) = 0 δ = E(d ) = 0 (Ochsenhirt - Untersuchung von Feinnivellierlatten mit Invarband, ZfV 1956). Lattenabweichung beim Vergleich mit einem Normalmaßstab: Latte Nr. x liegend y stehend d v 1 2 3 4 5 +24 µ +22 +14 +14 +19 +21 µ +16 +15 +15 +18 -3 µ -6 +1 +1 -1 -1,4 µ -4,4 +2,6 +2,6 +0,6 [ d ] = 64 -8 2 [ d ] = 48 2 d= [d] n = −1,6µ; [ vv] = 35,20 ( n ... Anzahl der Latten) 54 35,20 = ±2,97µ; f = n − 1 = 4 4 m m d = d = ±1,33µ n md = Pr üfgröße : t = d −δ 1,6 = = 1,2 md 1,33 S = 95%, α 2 = 5% t s = 2,78 > 1,2 Die Hypothese ist nicht widerlegt, d.h. die Unterschiede im Lattenmeter zwischen horizon-taler 2 und vertikaler Lage sind nicht statistisch gesichert, obgleich [ d ] > [ d 2 ] ist. 3. Beispiel: In einer Ausgleichung ermittelte Korrektionsglieder (Marzahn - Untersuchungen an Invarband - Nivellierlatten; Veröffentl. d. DGK, Reihe C, Nr. 22) Längenänderungen der Lattenteilung infolge von Temperatur-änderungen und zeitlichen Alterungserscheinungen. L i + v i = 1m + K + α( t i − 20 o ) + β(d i − d 0 ) ; p i = 1 = Abweichung des Lattenmeters von 1 m bei 20 o am Tage d 0 = lineare Änderung des Lattenmeters für 1o Temperaturänderung β = lineare Änderung des Lattenmeters innerhalb eines Tages d i - d 0 = Zeitdifferenz in Tagen zwischen dem Beobachtungstag und dem Bezugstag d0 . K α Bemerkung: Dieser Ansatz ist nur möglich, wenn ( t i − 20 o ) und ( d i - d 0 ) nicht linear abhängig sind. Die Lattenbestimmung wurde in der Zeit vom 7.2. bis zum 18.2.1955 bei den sechs Temperaturen 14o , 19o , 25o , 22o , 17o , 10o (zeitliche Rehenfolge) durchgeführt. Ergebnis für Latte "K1", 2. Teilung: K = ( +11,8 ± 1,3) [µ] α = ( +1,51 ± 0,21) [µ /1o C] β = ( −0,66 ± 0,23) [µ / 1Tag] n = 6; u = 3; f = 3 Konstruktionsprinzip: Temperaturkompensation, keine zeitlichen Änderungen des Lattenmeters. (zweiseitige Tests) Hypothesen: E(α) = 0 Prüfgrößen: tα = α mα E (β ) = 0 tβ = β mβ (Die Prüfgrößen sind nicht unabhängig voneinander) 55 Kritische Werte: f = 3; α 2 = 1 − S = 5%, t s = 3,2; α 2 = 1 − S = 1%, t s = 5,9 tα = 1,51 = 7,2 > 5,9 0,21 tβ = 0,66 = 2,9 < 3,2 0,23 Es ist statistisch gesichert ( α ≤ 1% ), daß die Temperaturkompensation konstruktiv nicht vollständig erreicht ist bzw. die ge-wählte Meßanordnung reicht in diesem Fall aus, um die lineare Temperaturabhängigkeit des Lattenmeters statistisch gesichert nachzuweisen. Eine statistisch gesicherte zeitliche Änderung des Lattenmeters läßt sich dagegen aus den vorliegenden Messungen nicht nachweisen. Die Tests sagen aber nichts darüber aus, ob das benutzte mathematische Modell richtig und vollständig ist. 3.4.2 Unterschied zwischen zwei normalverteilten Größen 3.4.2.1 Hypothese und Prüfgröße 1. Meßreihe l1 ; v1 l2 ; v2 M M l n1 ; v n1 2.Meßreihe L1 ; V1 L2 ; V2 M M M L n2 x= m'0 = [ l] y= n1 [ vv] n1 − 1 m x = m'0 1 n1 M ; Vn2 [ L] m0'' = n2 [ vv] n2 − 1 m y = m''0 1 n2 Hypothese : E(x) = E(y) d. h E ( x − y) = E ( ∆ ) = 0 Alternative: E(x) ≠ E(y) (zweiseitiger Test) E(x) > E(y) bzw. . E(x) < E(y) (einseitige Tests) 56 Prüfgröße: t = x−y ∆ = m∆ m∆ Ist die Prüfgröße t ≥ t s für den Freiheitsgrad f, so wird die Hypothese mit einem Fehler erster Art α 2 ≤ 1 − S 2 verworfen (zweiseitiger Test). Tabuliert ist t S2 . Der Wert t S1 für den einseitigen Test läßt sich der Tabelle bei S 2 = S1 − α 1 entnehmen. 3.4.2.2 Beoba gleicher chtungen Genauigkeit Zur Durchführung des t-Tests muß der mittlere Fehler m∆ der Differenz ∆ = x − y und der zugehörige Freiheitsgrad f berechnet werden. Voraussetzgen.: Die Beobachtungen sind voneinander unabhängig undnormalverteilt mit gleicher Standardabweichung σ 20 .Die zweite Voraussetzung E( m 20 ') = E( m 20 '') = σ 20 kann mit Hilfe eines F-Tests überprüft werden (siehe Abschnitt 3.5), wenn die Stichproben ausreichend viele Elemente enthalten. Man kann sich vorstellen, daß die Unbekannten x und y in einer gemeinsamen Ausgleichung gleich genauer Beobachtungen bestimmt werden (n1 + n2 Beobachtungen: 2 Unbekannte). Quadratischer Mittelwert aus m 0 ' und m 0 ' ' : m0 = [ vv] + [ vv] n1 + n 2 − 2 (das ist der mittlere Fehler einer Beobachtung l i ' oder l i ' ' . Freiheitsgrad: f = n1 + n 2 − 2 57 1 n1 ∆ = x−y Q xx = Q yy = 1 n2 Q xy = 0 1 1 Q ∆∆ = Q xx − 2Q xy + Q yy = + { n1 n 2 0 m∆ = m0 ⋅ Q ∆∆ = m0 ⋅ 1 1 + n1 n 2 Beispiel: Kneißl - Zur Anlage einer Prüfstrecke und Eichung von 2 m-Basislatten, ZfV 1956, S. 335 ff. A − E ≈ 100m H − M ≈ 8m Die Länge der Prüfstrecke AE wurde indirekt über die Hilfsstrecke HM bestimmt. Gemessen wurden jeweils die Hilfsstrecken HM und die parallaktischen Winkel γ 1 und γ 2 . Länge der Strecke A-E wenn H-M mit Normalmeterstäben gemessen l i [ m] v i [ mm] 100,116.2 -0,15 9.8 -3,45 6.6 -0,25 9.5 -3,15 3.4 +2,95 2.6 +3,75 x = 100,116.35 [ vv] = 44,64 44,64 = ±3,0mm 5 m ' m x = ± 0 = ±1,2 mm 6 m0 ' = H-M mit geeichtem Stahlmeßband gemessen L i [ m] Vi [ mm] 100,118.3 +3,9 22.0 +0,2 22.9 -0,7 25.7 -3,5 y = 100,122.2 [ VV] = 27,99 27,99 = ±3,1mm 3 m '' m y = ± 0 = ±1,5mm 4 m 0 '' = Besteht zwischen den beiden Bestimmungen der Prüfstrecke AE ein statistisch gesicherter Unterschied? 58 ∆ = x − y = −5,8mm Einseitiger Test: Wegen der negativen Differenzen wird von vornherein eine positive Differenz ausgeschlossen. α 1 sei 5 %. Hypothese: E( x − y) = E( ∆) = 0 Alternative: E(x - y) < 0 Prüfgröße: t = ∆ m∆ Die Voraussetzung E( m 20 ' ) = E( m 20 ' ') = σ 20 ist erfüllt.Berechnung des mittleren Fehlers m∆ der Differenz ∆ = x − y und des zugehörigen Freiheitsgrades f m0 = [ vv] + [ VV] n1 + n 2 − 2 m ∆ = m0 ⋅ = 44,64 + 27,99 = ±3,0mm; f = 8 10 − 2 1 1 1 1 + = ±3,0 ⋅ + = ±1,94 mm; f = 8 n1 n 2 6 4 Prüfgröße: t = − 5,8 = −3,0 1,94 Für f = 8 entnimmt man dem Nomogramm der t-Verteilung: S = 90% S = 93% α1 = 5% α1 = 1% t S = −1,9 t S = −2,9 Die Gültigkeit der Hypothese ist für α 1 ≤ 1% abzulehnen. Die Differenz - 5,8mm ist statistisch gesichert. 59 Einige mögliche Ursachen für den Unterschied: 1. Maßstabsunterschied in den Meßwerkzeugen bei der Messung der Hilfsbasis 2. Zentrierfehler an den Enden der Hilfsbasis 3. Änderung der Länge A-E 4. Systematische Fehler bei den parallaktischen Winkelmessungen Die Unterschiede in den Teilstrecken sind: für A-M - 2,7mm für B-M - 3,1mm. 3.4.2.3 Beobachtungen verschiedener Genauigkeit Voraussetzung: Normalverteilte Größen, hinreichende Kenntnis der Matrix P bzw. Q = P −1 der zu betrachtenden Größen. Eine Ausgleichung ergibt: Unbekannte: Zugehörige Erwartungswerte: Matrix der Gewichtskoeffizienten: mittlere Gewichtseinheitsfehler: Freiheitsgrad: xi , xk E( x i ), E(x k ) Q m0 f=n-u Daraus folgt für den mittleren Fehler der Differenz ∆ = x i − x k und den zugehörigen Freiheitsgrad: ∆ = xi − xk m ∆ = m 0 ⋅ Q ∆∆ f = n-u Q ∆∆ = Q ii − 2Q ik + Q kk Hypothese für den Fall E( x i ) = E( x k ): E( x i − x k ) = 0 oder E( ∆) = 0 Prüfgröße: t = ∆ m∆ Führt man ∆ als Unbekannte in die Ausgleichung ein, so ergeben sich die Verhältnisse des Abschnitts 3.4.1, 3. Beispiel. Werden die Werte x i und x k voneinander unabhängig in zwei Teil-ausgleichungen (ohne gemeinsame Beobachtungen) bestimmt, so ist (vgl. Abschnitt 3.4.2.2) ( v'⋅p ⋅ v) 1+ + ( v'⋅p ⋅ v) 2 ; f = ( n1 + n 2 ) − ( u1 + u 2 ) n1 + n 2 − ( u1 + u 2 ) = Q ii + Q kk m20 = und Q ∆∆ m ∆ = m 0 ⋅ Q ∆∆ 60 3.4.3 Unterschiede zwischen mehreren normalverteilten Größen x1 = [ l]1 n1 x2 = [ l] 2 n2 x3 = [ l] 3 n3 Hypothese: E( x1 ) = E( x 2 ) = E( x 3 ) =... Die mehrfache Anwendung des t-Testes ist bei Aufteilung der Hypothese in Teilhypothesen zwar möglich: E( x 1 ) = E( x 2 ); E ( x 1 ) = E( x 3 ); E( x 2 ) = E( x 3 ) aber: Die Varianzanalyse (Abschnitt 3.6) bietet einen mächtigeren Test für die Grundhypothese. 3.4.4 Ausreißerkriterien bei normalverteilter Grundgesamtheit Die Annahme, daß der größte Wert x ( n ) (bzw. der kleinste Wert x (1) ) zu derselben Grundgesamtheit gehört, wie die übrigen (n - 1) Werte der Stichprobe, ist mit der Irrtumswahrscheinlichkeit α = 1 − S zu verwerfen, wenn die beobachtete Prüfgröße zB den zu S gehörenden Schwellenwert (Tafelwert) zT überschreitet. Dann ist x ( n ) bzw. x (1) als Ausreißer anzusehen (Irrtumswahrscheinlichkeit α ). Prüfgrößen und Schwellenwerte zum Ausreißerkriterium bei unbe-kannter Varianz σ 2 und kleiner Stichprobengröße n zur Sicherheit S = 1 − α . Schwellenwert zT zur Sicherheitswahrscheinlichkeit n 3 4 Prüfgröße zB x ( n ) − x ( n −1) x ( n) − x (1) S = 1− α 90% 95% 98% 99% 99,5% 0,886 0,941 0,976 0,988 0,994 ,679 ,765 ,846 ,889 ,926 5 oder ,557 ,642 ,729 ,780 ,821 6 x ( 2) − x (1) ,482 ,560 ,644 ,698 ,740 7 x ( n ) − x (1) ,434 ,507 ,586 ,637 ,680 61 x ( n ) − x ( n −1) 8 x( n) − x(2) ,479 ,554 ,631 ,683 ,725 9 oder x ( 2 ) − x (1) ,441 ,512 ,587 ,635 ,677 10 x ( n −1) − x (1) ,409 ,477 ,551 ,597 ,639 x ( n ) − x ( n −2 ) 11 x ( n) − x ( 2) ,517 ,576 ,638 ,679 ,713 12 oder x ( 3) − x (1) ,490 ,546 ,605 ,642 ,675 13 x ( n −1) − x (1) ,467 ,521 ,578 ,615 ,649 14 15 16 17 18 19 20 x ( 3) − x (1) ,492 ,472 ,454 ,438 ,424 ,412 ,401 ,546 ,525 ,507 ,490 ,475 ,462 ,450 ,602 ,579 ,559 ,542 ,527 ,514 ,502 ,641 ,616 ,595 ,577 ,561 ,547 ,535 ,674 ,647 ,624 ,605 ,589 ,575 ,562 x ( n −2 ) − x (1) oder x ( n ) − x ( n −2 ) x ( n) − x ( 3) Beispiele: Ausreißer in einer Meßreihe Messung einer etwa 120 m langen Strecke mit Präzisionsstahlbandmaß Vor dem Test: Meßvorgang analysieren und Protokolle kontrollieren Hypothese: Alle Messungen entstammen der gleichen normalverteilten Grundgesamtheit. 1.) l i [ cm] (geordnet) -1,8 -0,6(*) +0,4 +0,4 +0,5 +0,8 +1,1 +1,2 +1,8 (*) +5,2 (*) n = 10 5,2 − 1,8 zB = = 0,586 5,2 − ( −0,6) S = 95% 98% 99% α = 5% 2% 1% z T = 0,477 0,551 0,597 62 2.) li -2,3 (*) -2,1 -2,0 -1,0 (*) +2,0 (*) 3.) li -2,3 -2,1 -2,0 -1,0 +1,3 n=5 2,0 − ( −1,0) 3,0 = = 0,698 zB = 2,0 − ( −2,3) 4,3 S = 95% 98% 99% α = 5% 2% 1% z T = 0,642 0,729 0,780 n=5 1,3 − ( −1,0) 2,3 zB = = = 0,639 1,3 − ( −2,3) 3,6 z T siehe Beispiel 2 In Beispiel 1 ist der Wert +5,2 als Ausreißer zu betrachten, wenn α = 2% gewählt wurde. In Beispiel 2 ist der Wert +2,0 als Ausreißer zu betrachten, wenn α = 5% gewählt wurde. In Beispiel 3 wäre es zweifelhaft, ob +1,3 als Ausreißer zu betrachten ist. 3.5 Prüfung von Standardabweichungen bzw. mittleren Fehlern 3.5.1 Vergleich eines mittleren Fehlers m mit der bekannten Standardabweichung σ der Grundgesamtheit Voraussetzung: Die Beobachtungen entstammen normalverteilten Grundgesamtheiten. Eine Ausgleichung ergibt: mittleren Gewichtseinheitsfehler: m 0 = Freiheitsgrad [pvv] n−u : f = n−u Die Standardabweichung σ 0 einer Beobachtung vom Gewicht 1 ist bekannt. Hypothese : E( m 20 ) = σ 20 Alternative: E( m 20 ) > σ 20 bzw. E( m 20 ) < σ 20 oder E( m 20 ) ≠ σ 20 einseitiger Test zweiseitiger Test 63 E( m 20 ) > σ 20 häufigster Fall f ⋅ m20 [ pvv] Prüfgröße: χ = = σ 20 σ 20 2 Freiheitsgrad: f = n − u Für χ 2 < χ S2 wird die Hypothese nicht verworfen. Für χ 2 ≥ χ S2 wird die Hypothese mit einem Fehler erster Art α 1 = α ≤ 1 − S (einseitiger Test) verworfen. σ 20 const . ist die Standard-abweichung σ0 einer BeoBei einem Gewichtsansatz p i = 2 = mi m 2i bachtung vom Gewicht 1 gleich const. Beispiel: (Wermann - Azimut - Breitenbeobachtungen 1955 und 1956, Veröffentlichung d. DGK, Reihe 5, Heft 38, S. 23/24) Breitenbestimmung auf der Station Wingst / Silberberg 0,1 Gewichtsansatz der Ausgleichung: p = 2 m xi Hypothese: E( m20 ) = σ 20 = const . = 0,1 Tag Anzahl ni Abendmittel xi 4.8.56 5.8.56 7.8.56 8.8.56 9.8.56 11 6 10 11 8 53 o 43'48,33'' 49,04 48,50 47,59 48,68 m xi ± 0,18'' 0,25 0,17 0,09 0,33 p= 0,1 m2xi 3,1 1,6 3,5 12,4 0,9 v - 0,33'' - 1,04 - 0,50 + 0,41 - 0,68 21,5 46 x = 53 o 43' 48'',00 [pvv] = 5,46 5,46 = ±1'',17 5−1 m0 mx = = ±0'',25 21,5 m0 = f = n −1= 4 64 Prüfgröße: χ 2 = [pvv] = 5,46 = 54,6 σ 20 0,1 Für f = 4 und S = 99,9% entnimmt man dem Nomogramm ein χ 2s = 18,5 . χ2 > χ2s Die Differenz zwischen der Standardabweichung à priori σ 0 und der à posteriori - Schätzung m0 ist statistisch gesichert ( α < 0,1% ), d.h. das gewählte mathematische Modell enthält signifikante Modellfehler. Aus dem Test erhält man aber keinen Aufschluß über Art und Größe der Modellfehler. 3.5.2 Vergleich zweier mittlerer Fehler 3.5.2.1 F-Verteilung Gegeben seien zwei voneinander unabhängige Meßreihen, deren Beobachtungen normalverteilt sind mit gleichen Varianzen σ 2 aber beliebigen Erwartungswerten. m12 = Schätzung für σ 2 aus der 1. Meßreihe [ vv]1 χ 12 ⋅ σ 2 = m = n1 − 1 f1 2 1 m 22 = Schätzung für σ 2 aus der 2. Meßreihe [ vv]2 χ 22 ⋅ σ 2 m = = n2 − 1 f2 Die Zufallsveränderliche 2 2 F(f1 , f2 ) = m12 f2 ⋅ χ12 = m22 f1 ⋅ χ 22 genügt dann einer F-Verteilung (siehe z.B. Kreyszig). Der Verlauf der Wahrscheinlichkeitsdichte ist der einer χ 2 -Verteilung ähnlich. Gibt man eine Sicherheitswahrscheinlichkeit S vor, so läßt sich unter Berücksichtigung der Freiheitsgrad f1 und f2 der zugehörige Wert FS berechnen. In Tabellen sind die FS - Werte zusammengestellt. Unsere Nomogramme basieren auf solchen Tabellen. Da die Beziehung gilt: f ⋅ χ2 1 = 1 22 = Fα ( f 2 , f1 ) F(1−α ) ( f1 , f 2 ) f 2 ⋅ χ 1 reicht es bei der Bezifferung m12 > m 22 aus, nur den Bereich F ≥ 1 darzustellen. F eignet sich als Prüfgröße für einen Test der Hypothese σ 12 = σ 22 (F-Test). 65 3.5.2.2 Einseitiger F-Test In den meisten Fällen ergibt sich die Fragestellung des einseitigen F-Tests. Die Numerierung erfolgt so, daß m1 > m 2 ist. Auf Grund der Erfahrung besteht die Möglichkeit, daß σ 1 größer oder günstigenfalls gleich σ 2 ist. Die Möglichkeit σ 1 < σ 2 wird von vornherein ausgeschlossen. Hypothese: Alternative: σ 1 = σ 1 ; E(m12 ) = E(m 22 ) σ 1 > σ 1 ; E(m12 ) > E(m 22 ) Fehler erster Art: α 1 P( F < FS ) = S = 1 − α Der Fehler erster Art ist beim Verwerfen der Hypothese und Annahme der Alternative α 1 ≤ α Ist die Signifikanzgrenze zu α = 5% vorgesehen, so hat man unter Berücksichtigung der Freiheitsgrade f1 und f2 den FS -Wert dem Nomogramm für S = 95% zu entnehmen; bei α = 1% entsprechend dem Nomogramm für S = 99%. 1. Beispiel: (vgl. Großmann, Grundzüge der Ausgleichungsrechnung, 2. Auflage, 1961, S. 9) εI ε II + 3 mm -5 -2 +2 0 -1 -2 -3 +1 0 0 -1 0 +7 -1 +5 -1 0 -4 0 66 mI = [ε ] = ±2,4 mm ; m 2 I n II = [ε ] = ±3,1mm ; f = n = 10 = f 2 II 1 n = f2 Großmann: "Das Beispiel zeigt bei der ersten Reihe einen ruhigen, bei der zweiten (fingierten) Reihe einen sprunghaften Verlauf der Fehlerbeträge. Für unser Gefühl ist daher die erste Reihe die bessere." Hypothese: σ I = σ II Alternative: σ II > σ I m I → m 2 m II → m1 Prüfgröße: F = ( mII 2 ) = 1,66 mI F95% (10,10) = 3,0 α1 = 5%; F < FS . Der Test gibt keinerlei Anlaß zum Verwerfen der Hypothese und zur Annahme der Alternative, die dem gefühlsmäßigen Eindruck entsprechen würde. 2. Beispiel: Deutsches Haupthöhennetz (siehe Heller u. R. Wernthaler Entwicklung und Genauigkeit des neuen deutschen Haupthöhennetzes, DGK-Verff. Reihe B, Heft Nr. 17) mA Netzteil Beobachtungen [ mm / km] ri I II III IV V VI 1908 - 1920 1910 - 1927 1931 - 1937 1936 - 1938 1939 - 1942 1922 - 1938 ± 0,40 ± 0,53 ± 0,54 ± 0,38 ± 0,70 ± 0,76 11 19 11 13 31 29 zwangsfrei Anschluß an I Anschluß an II Anschluß an II, III Anschluß an I, II, IV Anschluß an III, IV Nordseeküstenniv. (NSKN) 1928 - 1931 ± 0,28 17 zwangsfrei mA ri Bemerkungen = mittlerer Fehler für 1km Doppelnivellement = Anzahl der Schleifen Die Netzteile II bis VI enthalten verschieden große Anschlußzwänge. 67 a) Es wird vermutet, daß die Beobachtungen des NSKN genauer sind als die davon unabhängigen des Netzteils I (S = 95%, einseitig). m1 ≡ mI = 0, 40 f1 = 11 m2 ≡ m NSKN = 0, 28 f2 = 17 Hypothese: E( m 2I ) = E( m 2NSKN ) Alternative: E( m 2I ) > E( m 2NSKN ) 2 0,40 F= = 2,04 0,28 F95% (1117 , ) = 2,41 Da F < F95% , wird die Hypothese nicht verworfen, d.h. der vermutete Genauigkeitsunterschied ist statistisch nicht gesichert. b) Es wird vermutet, daß wegen des hohen Anschlußzwanges der Unterschied zwischen den mittleren Gewichtseinheitsfehlern der Netzteile V und I statistisch gesichert ist. (S = 95%, einseitig) m1 ≡ m V = 0,70 f1 = 31 m2 ≡ mI = 0,40 f2 = 11 Hypothese: E( m 2V ) = E( m 2I ) Alternative: E( m 2V ) > E( m I2 ) 2 0,70 F= = 3,06; 0,40 F95% (3111 , ) = 2,57; F>F S Da F > F95% , wird die Hypothese zugunsten der Alternative verworfen, d.h. der vermutete Unterschied ist statistisch gesichert mit einer Irrtumswahrscheinlichkeit α < 5% ; ob die vermutete Ursache der Anlaß zu diesem Unterschied ist, bleibt aber offen. In Strenge ist hier die Voraussetzung der Unabhängigkeit der Werte m I und m V wegen des Anschlußzwanges nicht erfüllt. 68 3.5.2.3 Zweiseitiger F-Test Auf Grund der Erfahrung hat man keinen Anhalt, ob σ 1 größer oder kleiner als σ 2 sein könnte. Numerierung von 1 und 2 zunächst beliebig. Hypothese: σ 1 = σ 2 Alternative: σ 1 ≠ σ 2 Fehler erster Art: α 2 α2 2 1 1 α2 P( > ) = P( F > Fr ) = F F1 2 P( F < F1 ) = P( F > Fr ) = Man wählt die Numerierung wieder so, daß m1 > m 2 und berechnet die Prüfgröße: m12 F( f 1 , f 2 ) = 2 m2 Ist F( f1 , f 2 ) > Fr ( f1 , f 2 ) , so wird die Hypothese verworfen. α Beachte: Für Fr gilt: P( F < Fr ) = S = 1 − 2 2 Der Fehler erster Art ist also beim Verwerfen der Hypothese und Annahme der Alternative: α 2 = 2α .Entnimmt man Fr dem Nomogramm für S = 95 %, so ist also der Fehler erster Art α 2 = 10 %; entsprechend gilt für 99 % : α 2 = 2%. Will man mit einer Irrtumswahrscheinlichkeit von 5 % arbeiten, so muß man eine Tabelle der F-Verteilung für 97,5 % benutzen. Beispiel: (siehe Abschnitt 3.3.1, 3. Beispiel) Vergleich von Meßungenauigkeiten bei Zenitdistanzmessung Mittlerer Fehler einer gemessenen Zenitdistanz: (Die Voraussetzung der Unabhängigkeit ist nicht in Strenge erfüllt.) 69 Sigl mS = [v ] 2 S n −1 Marzahn = ±3,50 mM = cc [ v ] = ±4,49 2 M cc n −1 Freiheitsgrade: fS = f M = 14 Hypothese: Alternative: σS = σ M σS ≠ σ M m M → m1 ; mS → m 2 2 Prüfgröße: m F = 1 = 1,66 m2 F95% (14,14) = 2,5 α 2 = 2α = 10% ; F97,5% (14,14) = 3,0 α 2 = 2α = 5% ; F < F90% Der Test gibt keine Veranlassung, die Hypothese zu verwerfen, daß die Meßergebnisse beider Beobachtungsreihen gleich genau sind. 3.5.2.4 Folgerungen aus dem F - Test und Vertrauensgrenzen für Gewichtsverhältnisse Z.B. besagt F95% (8,8) = 3,4, daß sich für den Fall f1 = f2 = 8 Gewichtsunterschiede erst statistisch gesichert ( α = 5%) nach-weisen lassen, wenn das Verhältnis der mittleren Fehlerquadrate 3,4 : 1 übersteigt. Über das wahre Gewichtsverhältnis gibt der Test aber keine Auskunft. Der zweiseitige Vertrauensbereich für das Gewichtsverhältnis σ 12 / σ 22 mit der statistischen Sicherheit S = 1 − α 2 und α 2 = 2α ist (vgl. Graf-Henning-Stange, S.81). m2 σ 2 m2 1 1 ⋅ 12 ≤ 12 ≤ ⋅ 12 F1−α ( f1 , f 2 ) m 2 σ 2 Fα ( f1 , f 2 ) m 2 m2 σ 2 m2 1 ⋅ 12 ≤ 12 ≤ F1−α ( f 2 , f1 ) ⋅ 12 F1−α ( f1 , f 2 ) m 2 σ 2 m2 Beachte: Wenn f1 ≠ f 2 so wird der reziproke Wert von F1−α ( f1 , f 2 ) und der Wert F1−α ( f 2 , f1 ) benötigt. Benutzt man die Werte für 95 %, so erhält man den Vertrauens-bereich zur statistischen Sicherheit S = 90 % (entsprechend für 97,5 % zu S = 95 % und für 99 % zu S = 98 %), d. h. in 90 % aller Fälle wird das wahre Gewichtsverhältnis σ 12 / σ 22 innerhalb des berechneten Bereichs zu erwarten sein aber noch in 10 % aller Fälle ist das wahre Gewichtsverhältnis 70 außerhalb des berechneten Intervalls zu erwarten. 1. Beispiel:(wieder Abschnitt 3.3.1, 3. Beispiel bzw. Abschnitt 3.5.2) mS = 3,50 cc m M = 4,49 cc mS2 = 12,25 fS = 14 m 2M = 20,10 f S = 14 Für α 1 = 5% wird F1−α = 2,5 Wird dieser Wert benutzt, ergibt sich ein Vertrauensbereich zur Sicherheit S = 1 − α 2 = 1 − 2α 1 = 90% . 1 20,10 20,10 ⋅ ≤ 2,5 ⋅ 2,50 12,25 12,25 σ 2M P(0,66 ≤ 2 ≤ 4,1) = 90% σS 2. Beispiel: (vgl. Abschnitt 3.5.1) BREITENBESTIMMUNG Gewichtsverhältnis für die Messungen am 8.8.56 und 9.8.56 9.8.56 m1 = 0,33 f1 = 7 8.8.56 m 2 = 0,09 f1 = 10 Als Vertrauensbereich zur Sicherheit S = 90% ergibt sich: 1 m12 σ12 m12 ⋅ ≤ ≤ F95% (10,7) ⋅ 2 F95% (7,10) m22 σ 22 m2 1 0,33 σ12 0,33 ⋅ ≤ 2 ≤ 3,7 ⋅ 0,09 3,1 0,09 σ2 2 2 σ12 P(4,3 ≤ 2 ≤ 49,7) = 90% σ2 3.6 Varianzanalyse (Streuungszerlegung) (Vergleich mehrerer Mittelwerte) Es liegen unabhängige normalverteilte Beobachtungen vor, die nach einem Merkmal (im allgemeinen Fall nach verschiedenen Merkmalen) in Klassen geordnet werden. 71 Beispiele für Klassenmerkmale: Beobachtungszeit, Temperatur, Beobachter, Meßeinrichtung. Voraussetzung: Unabhängigkeit der Meßwerte, normalverteilteGrundgesamtheit, insbesondere gleich große Varianzen der Meßwerte. Hypothese: Die Erwartungswerte aller Klassenmittel x i sind gleich groß ( E( x1 ) = E( x 2 ) =... = E( x r )) , d.h. alle Beobachtungen entstammen der gleichen normalverteilten Grundgesamtheit. Alternative: Mindestens ein Erwartungswert stimmt nicht mit den anderen Erwartungswerten überein. Klasse 1 2 3 l 11 l 12 l 13 M l 1n1 l 21 l 22 l 23 l 31 l 32 l 33 M l 3n3 M M ... l r1 l r2 l r3 M M l rn r M l 2 n2 x1 = [l ] 1k k n1 x2 = [l ] Gesamtmittel: x = 2k k x3 = n2 r [l ] 3k k ... n3 xr = [l ] rk k nr [ n x ] [ l ] [l ] = = [n ] [n ] N i i i i i ik ik ik ik i i mit N = n1+ + n 2 +...+ n r Bemerkung zur Anlage eines Beobachtungsplanes: Am günstigsten ist es, wenn in jeder Klasse gleich viel Elemente enthalten sind. Verbesserungen v ik = x − l ik Vi = x − x i v ik = x i − l ik Quadratsumme [ ] = [n V V ] = [v v ] Q = v ik v ik Q1 Q2 i ik i ik i i Freiheitsgrad N −1 r −1 N−r ik ik 72 Vi v ik ... Verbesserungen zwischen den Klassen ... Verbesserungen innerhalb der Klassen Zwischen den Verbesserungen gelten folgende Beziehungen: v ik = Vi + v ik v ik 2 = Vi2 + 2 Vi ⋅ v ik + v ik 2 [ v ] = n ⋅ V + 2 V [ v ] + [v ] [ v ] = [n V ] + [v ] 2 ik i k 2 ik i k Q 2 i i 2 2 i i ik ik k ik k [ ] mit v ik k =0 2 ik = Q1 + Q 2 Die Verbesserung Vi für das Mittel x i der i-ten Klasse hängt von allen Beobachtungen l ik ab. Vi = { } 1 nν 1 n1 n2 ni l1k ]k =1 + [l 2 k ]k =1 +...+[l νk ]k =1 − [l ik ]k =1 [ N ni Die Verbesserung v ij der j-ten Einzelmessung in der i-ten Klasse hängt nur von den Beobachtungen der i-ten Klasse ab: v ij = 1 (l +...+ l ij +...+ l ini ) − l ij ni il Anteile zur Kovarianz der Verbesserungen Vi und v ij liefern nur die in beiden Verbesserungen gleichzeitig auftretenden unabhängigen Beobachtungen l ij mit Varianz σ 2 : 1 1 Vi = − ⋅ (l i1 + l i 2 +...+ l ij +...+ l in i ) + Re st N ni v ij = Cov( Vi , v ij ) = 1 1 1 1 ⋅ l i1 + ⋅ l i 2 +...+ ( − 1) ⋅ l ij +...+ ⋅ l ini ni ni ni ni 1 1 1 1 1 1 ⋅ − ⋅ ( n i − 1) ⋅ σ 2 + ( − 1) ⋅ − ⋅ σ 2 ni N n i ni N ni 1 1 1 1 = − ⋅ (1 − + − 1) ⋅ σ 2 ni ni N ni Cov( Vi , v ij ) = 0 Vi und v ij sind unkorreliert, also wegen der vorausgesetzten Normalverteilung auch unabhängig voneinander. Das gleiche gilt dann auch für die Quadratsummen Q 1 und Q 2 . 73 Bei Gültigkeit der Hypothese ergeben sich drei Schätzungen für die Varianz einer Beobachtung: [v ] = 2 2 m ik N −1 2 1 [n V ] = = 2 2 [v ] = = m 2 i i r −1 2 m ik N−r Q1 (mittlerer Fehler zwischen den Klassen ) r −1 Q2 N−r (mittlerer Fehler innerhalb der Klassen ) Im Wert m1 wirken sich Abweichungen von der Hypothese E( x1 ) = E( x 2 ) =... = E( x r ) aus. Der Wert m2 ist unabhängig von der Hypothese. Die mittleren Fehler m1 und m2 sind wegen der Unabhängigkeit von Q 1 und Q 2 ebenfalls unabhängig. Damit sind die Voraussetzungen für einen einseitigen F-Test mit der Alternative E( m12 ) > E( m 22 ) gegeben. m12 Prüfgröße: F( r − 1, N − r ) = 2 m2 Für F < FS wird die Hypothese E( x1 ) = E( x 2 ) =... = E( x r ) nicht verworfen. Für F ≥ FS wird die Hypothese mit einem Fehler erster Art ≤ α1 = 1 − S verworfen. Im Falle F ≥ FS können die Teilhypothesen E( x i ) = E( x k ) mit Hilfe von T-Tests überprüft werden, um statistisch gesicherte Unter-schiede zwischen den Werten x i und x k festzustellen. Wird ein funktionaler Zusammenhang zwischen den x i vermutet, liegt ein Regressionsproblem vor. Zur Durchführung der Varianzanalyse werden gleich große Varianzen der Meßwerte in den Klassen vorausgesetzt. Zur Überprüfung dieser Hypothesen können folgende Tests angewandt werden: a) F - Test (Test zwischen je zwei Klassen)(siehe Abschnitt 3.5.2) b) Bartlett - Test (Test auf Gleichheit der Varianz zwischen allen Klassen) Voraussetzung: fi ≥ 5 c) Test bei gleicher Anzahl in den Klassen (Test zwischen größter und kleinster Varianz) d) Cochran - Test (Test auf Abweichung der größten Varianz) Tests b) - d) siehe Graf - Henning - Stange 74 Beispiel (vgl. Abschnitt 3.5.1) Breitenbestimmung auf der Station Wingst/Silberberg Hypothese: Die Abendmittel haben gleiche Erwartungswerte, d.h. die Abendmittel unterscheiden sich nicht wesentlich voneinander. Klassenmerkmal für die Varianzanalyse: Beobachtungsnacht Voraussetzung: Alle Beobachtungen haben die gleiche Standardabweichung Zweiseitiger F-Test zur Prüfung, ob diese Voraussetzung angenommen werden kann. Die für jede Klasse getrennt berechneten mittleren Fehler mi für eine Beobachtung zeigen für die Klassen 1 bis 3 gute Übereinstimmung, dagegen größere Abweichungen gegen Klasse 4 und Klasse 5. Zusammenfassung der mittleren Fehler der Klassen 1 bis 3: M2 = [ vv]1 + [ vv]2 + [ vv]3 n1 + n 2 + n 3 − 3 = 0,33 ; f = 24 Prüfgröße zum F-Test auf Gleichheit der Standardabweichung in den Klassen 1 bis 3 und in Klasse 4: M 2 0,33 F(24,10) = 2 = = 3,7 m4 0,09 Prüfgröße zum F-Test auf Gleichheit der Standardabweichung in den Klassen 1 bis 3 und in Klasse 5: F(7,24) = m52 0,88 = = 2,7 M 2 0,33 für M 2 / m 24 (24,10) für m 52 / M 2 (7,24) α2 F95% F97 ,5% F99% 2,7 3,4 4,3 2,5 2,9 3,5 10% 5% 2% F 3,7 2,7 Für die Klasse 5 wäre beim Verwerfen der Voraussetzung σ 1,2 , 3 = σ 5 die Wahrscheinlichkeit für den Fehler erster Art größer als 5%, die Voraussetzung wird deshalb angenommen. Für die Klasse 4 liegt der entsprechende Wert bereits im kritischen Bereich von 5% bis 2%; die 75 Voraussetzung σ 1, 2 , 3 = σ 4 soll aber noch angenommen werden. Der Zusammenstellung der Meßdaten entnimmt man folgende Werte: 1 2 zwischen den Klassen innerhalb der Klassen gesamt Prüfgröße: F(4,41) = Qi Freiheitsgrad m2i 10,32 14,93 4 41 2,58 0,364 25,25 45 0,56 2 1 2 2 m = 7,1 m F95% (4,41) = 2,6 F99% (4,41) = 3,8 F > FS F99 , 9% (4,41) = 5,7 Mit einer Irrtumswahrscheinlichkeit α 1 < 0,1% wird die Hypothese verworfen, d.h. die Abendmittel gehören nicht einer Grund-gesamtheit an; es gibt zwischen den Abendmitteln statistisch gesicherte Unterschiede a b e r nicht alle Unterschiede zwischen je zwei Abendmitteln sind statistisch gesichert. ϕ = 53o 43' 40"+dϕ 1 4./5.8.56 δϕ '' v 2 5./6.8.56 δϕ '' v 3 7./8.8.56 δϕ '' v 4 8./9.8.56 δϕ '' v 5 9./10.8.56 δϕ '' v 1 2 3 4 5 6 7 8 9 10 11 8,07 +0,26 8,58 -0,25 8,75 -0,42 8,56 -0,23 7,30 +1,03 9,57 -1,24 7,96 +0,37 8,66 -0,33 7,85 +0,47 8,42 -0,09 7,88 +0,45 9,10 -0,06 8,98 +0,06 9,52 -0,48 8,04 +1,00 9,76 -0,72 8,82 +0,22 8,88 -0,38 8,62 -0,12 8,50 0 8,43 +0,07 8,30 +0,20 8,18 +0,32 7,42 +1,08 8,24 +0,26 9,20 -0,70 9,20 -0,70 7,59 0 6,96 +0,63 7,68 -0,09 7,48 +0,11 7,50 +0,09 7,74 -0,15 7,48 +0,11 7,62 -0,03 8,24 -0,65 7,60 -0,01 7,58 +0,01 7,50 +1,18 8,56 +0,12 7,44 +1,24 9,90 -1,22 9,66 -0,98 8,26 +0,42 8,68 0 9,40 -0,72 xi 8,33 9,04 8,50 7,59 8,68 [ vv] 3,64 1,80 2,52 0,88 6,09 76 m 2i = x= [ vv] i ni − 1 = 0,36 0,36 0,28 0,09 0,88 [n x ] = 8,34 [n ] i i i Vi = x − x i = +0,01 -0,70 -0,16 +0,75 -0,34 [n V ] = 10,32 i 2 i ∑ [ vv] = 14,93 77