Statistische Testverfahren - Institut für Geodäsie und

Transcription

Statistische Testverfahren - Institut für Geodäsie und
Technische Universität Berlin
Institut für Geodäsie
und Geoinformationstechnik
Fachgebiet Geodäsie und
Ausgleichungsrechnung
Statistische Testverfahren
Prof. Dr.-Ing. L. Gründig
1 Die Binomial- und die Normalverteilung ______________________________________ 1
1.1 Binomialverteilung ___________________________________________________________ 1
1.2 Die Normalverteilung_________________________________________________________ 5
1.2.1 Allgemeine Problemstellung ________________________________________________________ 5
1.2.2 Hagens Hypothese von den Elementarfehlern __________________________________________ 6
1.2.3 Die Normalverteilung als Grenzfall der binomischen Verteilung ___________________________ 6
1.2.4 Die normierte Normalverteilung N(0,1) _____________________________________________ 10
1.2.4.1 Normierung einer Zufallsveränderlichen beliebiger Verteilung________________________ 10
1.2.4.2 Normierte Normalverteilung N(0,1) _____________________________________________ 11
1.2.5 Die Verteilungsfunktion und die Fehlerwahrscheinlichkeitsfunktion _______________________ 11
1.2.6 Die Verteilung von Funktionen normalverteilter Zufallsveränderlicher _____________________ 12
1.2.6.1 Lineare Funktionen __________________________________________________________ 12
1.2.6.2 Nichtlineare Funktionen ______________________________________________________ 13
1.2.7 Zentraler Grenzwertsatz __________________________________________________________ 14
1.2.8 Prinzip der Maximum-Likelihood-Schätzung _________________________________________ 15
1.2.9 Andere Ableitungen der Normalverteilung ___________________________________________ 16
1.2.9.1 Gauß'sches Fehlergesetz ______________________________________________________ 16
1.2.9.2 Literaturhinweise____________________________________________________________ 18
1.2.10 Verschiedene Fehlermaße und ihr Zusammenhang bei normalverteilten Beobachtungen ______ 18
2 Vertrauensintervalle (Konfidenzintervalle) ____________________________________ 19
2.1 Die Ungleichung von Tschebyscheff ____________________________________________ 19
2.2 Statistische Eigenschaften einer normalverteilten Zufallsveränderlichen ______________ 21
2.2.1 Verteilung des arithmetischen Mittels _______________________________________________ 21
2.2.2 Vertrauensintervall für den Erwartungswert ξ ________________________________________ 21
2.2.2.1 Vertrauensintervall für ξ bei Kenntnis von σ x ____________________________________ 21
2.2.2.2 Die t-Verteilung (Student-Verteilung) ___________________________________________ 24
2.2.2.3 Vertrauensintervall für ξ bei Kenntnis von m x ____________________________________ 25
2.2.3-Verteilung _____________________________________________________________________ 27
2
2.2.3.1 Zusammenhang zwischen den Zufallsveränderlichen m und χf2 ______________________ 27
2.2.3.2 Die χ2-Verteilung ___________________________________________________________ 28
2
2.2.3.3 Wahrscheinlichkeitsdichte und Streuungsparameter für m und m bei f Freiheits-graden __ 30
2.2.3.4 Vertrauensintervall für σ _____________________________________________________ 32
2.3 Statistische Zusammenhänge bei der Ausgleichung unabhängiger normalverteilter
Beobachtungen ________________________________________________________________ 34
2.3.1 Verteilung der Unbekannten xi und von Funktionen der Unbekannten _____________________ 34
2
2.3.2 Statistische Eigenschaften der Verbesserungen vi und des mittleren Fehlerquadrates m0 _____ 35
2.3.3 Vertrauensintervalle für die Erwartungswerte ξ i ______________________________________ 38
2.3.4 Vertrauensintervalle für die Standardabweichungen σ 0 , σ x i , σ F ________________________ 40
3 Prüfung des mathematischen Modells durch statistische Tests ____________________ 41
3.1 Allgemeine Grundlagen ______________________________________________________ 41
3.2 Fehler erster und zweiter Art _________________________________________________ 43
3.3 Prüfung von Verteilungen ____________________________________________________ 44
3.3.1-Test zur Prüfung von beliebigen Verteilungen ohne unbekannte Parameter (einseitiger Test)____ 44
3.3.2-Test zur Prüfung von Verteilungen mit unbekannten Parametern, insbesondere Normalverteilungen49
4 ________________________________________________________________________ 50
4 227 ____________________________________________________________________ 50
3.4 Prüfung von gemessenen bzw. ausgeglichenen normalverteilten Größen ______________ 51
3.4.1 Abweichung einer Größe von ihrem Erwartungswert ___________________________________ 51
3.4.2 Unterschied zwischen zwei normalverteilten Größen ___________________________________ 55
3.4.2.1 Hypothese und Prüfgröße _____________________________________________________ 55
3.4.2.2 Beobachtungen gleicher Genauigkeit ____________________________________________ 56
3.4.2.3 Beobachtungen verschiedener Genauigkeit _______________________________________ 59
3.4.3 Unterschiede zwischen mehreren normalverteilten Größen_______________________________ 60
3.4.4 Ausreißerkriterien bei normalverteilter Grundgesamtheit ________________________________ 60
3.5 Prüfung von Standardabweichungen bzw. mittleren Fehlern ________________________ 62
3.5.1 Vergleich eines mittleren Fehlers m mit der bekannten Standardabweichung σ der
Grundgesamtheit ____________________________________________________________________ 62
3.5.2 Vergleich zweier mittlerer Fehler ___________________________________________________ 64
3.5.2.1 F-Verteilung _______________________________________________________________ 64
3.5.2.2 Einseitiger F-Test ___________________________________________________________ 65
3.5.2.3 Zweiseitiger F-Test __________________________________________________________ 68
3.5.2.4 Folgerungen aus dem F - Test und Vertrauensgrenzen für Gewichtsverhältnisse _________ 69
3.6 Varianzanalyse (Streuungszerlegung) (Vergleich mehrerer Mittelwerte)______________ 70
1 Die Binomial- und die Normalverteilung
1.1 Binomialverteilung
r=
Frage:
Nr
N
; w= w
N
N
Wie groß ist die Wahrscheinlichkeit, bei n-Zügen mit Ersetzen x-mal eine rote
und n-mal eine weiße Kugel zu ziehen?
Voraussetzung Jede Kugel hat die gleiche Chance gezogen zu werden!
:
N = N r + N w = Gesamtzahl der Kugeln
Nr =
Anzahl der roten Kugeln
Nw =
Anzahl der weißen Kugeln
Wahrscheinlichkeit eine rote Kugel zu ziehen : r =
Nr
N
Wahrscheinlichkeit eine weiße Kugel zu ziehen : w = 1 - r
Zufallsveränderliche: X (diskret, 0 ≤ x ≤ n )
Eine Möglichkeit, bei n Zügen x mal rot zu ziehen:
RRR
R WWW
...3
W
142...
4
3
1424
x
n− x
Die Wahrscheinlichkeit für diese eine Möglichkeit unter Vor-aussetzung der stochastischen
Unabhängigkeit der Züge:
r1
⋅ r2
⋅ r4
...
w2
⋅ w4
...4
w = r x ⋅ (1 − r ) n − x
4
3r ⋅ w
1⋅4
4
3
rx
(1− r ) n − x
Wahrscheinlichkeitsdichte der Zufallsveränderlichen X:
f ( x) = A ⋅ r x ⋅ (1 − r ) n − x
A=
Anzahl aller Möglichkeiten, bei denen x-mal R und (n-x)-mal W auftritt.
=
Anzahl der Permutationen von n Elementen, unter denen jeweils α 1 = x Elemente und
α 2 = (n − x ) Elemente gleich sind.
Allgemeine Formel: A =
 n
n!
n!
; hier A =
= 
α 1 !⋅ α 2 !
x !⋅ ( n − x)!  x
1
2
Wahrscheinlichkeitsdichte der Zufallsveränderlichen X (Binomialverteilung):
 n
f ( x) =   ⋅ r x ⋅ (1 − r ) n − x
 x
Rekursionsformel:
 n  x +1
f ( x + 1) = 
 ⋅ r ⋅ (1 − r ) n − x −1
 x + 1
n!
⋅ r x +1 ⋅ (1 − r ) n− x −1
( x + 1)!⋅ ( n − x − 1)!
n !⋅ ( n − x)
r
=
⋅ r x ⋅ (1 − r ) n− x ⋅
x !⋅ ( n − x)!⋅ ( x + 1)
1− r
=
 n
n−x r
=   ⋅ r x ⋅ (1 − r ) n − x ⋅
⋅
x + 1 1− r
 x
f ( x + 1) = f ( x) ⋅
n−x r
⋅
x +1 1− r
Erwartungswert für die Zufallsveränderliche X:
ξ = ∑ xf ( x)
Aus der Rekursionsformel:
(1 − r ) ⋅ ( x + 1) ⋅ f ( x + 1) = rn ⋅ f ( x) − rx ⋅ f ( x)
Summieren, so daß alle Möglichkeiten erfaßt sind (z.B. von -1 bis n):
(1 − r ) ∑ ( x + 1) f ( x + 1) = rn∑ f ( x) − ∑ xf ( x)
1442443
123 1
424
3
1
ξ
ξ
(1 − r ) ⋅ ξ + r ⋅ ξ = rn
ξ = rn
Varianz:
σ 2 = E( X 2 ) − {E( X)}
allgemein
2
σ 2x = ∑ x 2 f ( x) − ξ 2
hier
Berechnung von
(Erwartungswert)
∑x
2
f ( x) mit Hilfe der Rekursionsformel:
(1 − r ) ⋅ ( x + 1) ⋅ f ( x + 1) = rn ⋅ f ( x) − rx ⋅ f ( x)
3
Mulitplikation mit (x+1)
(1 − r ) ⋅ ( x + 1) 2 ⋅ f ( x + 1) = ( x + 1) ⋅ {rn ⋅ f ( x) − rx ⋅ f ( x)}
2
={
rn ⋅ x ⋅ f ( x) + rn
{ ⋅ f ( x) − r ⋅ x ⋅ f ( x) − r ⋅ x ⋅ f ( x)
ξ
ξ
Summieren, so daß alle Möglichkeiten erfaßt sind:
(1 − r ) ∑ ( x + 1) 2 f ( x + 1) = ξ∑ xf ( x) + ξ∑ f ( x) − r ∑ x 2 f ( x) − r ∑ xf ( x)
144
42444
3 1
424
3 123
1
424
3
2
1
ξ
ξ
x
f
(
x
)
∑
(1 − r ) ∑ x 2 f ( x) = ξ 2 + ξ − rξ − r ∑ x 2 f ( x)
∑x
2
f ( x ) = ξ 2 + ξ − rξ
σ 2x = ∑ x 2 f ( x) − ξ
2
= ξ 2 + ξ − rξ − ξ
2
σ 2x = ξ ⋅ (1 − r ) = nr ⋅ (1 − r ) (Varianz der Zufallsveränderlichen X)
Die Binomialverteilung kann z.B. zur Untersuchung von Vorzeichen-fragen herangezogen
werden.
Beispiel: Vorzeichenverteilung von unabhängigen Beobachtungsdifferenzen
Urnenmodell
Modell für die Beobachtungsdifferenzen
rote Kugel
positive Differenz
weiße Kugel
negative Differenz
n = Anzahl der Züge
n = Anzahl der Differenzen
x = Anzahl der roten Kugeln
x = Anzahl der positiven Differenzen
r = Wahrscheinlichkeit eine rote Kugel zu r = Wahrscheinlichkeit eine positive Differenz
ziehen
zu erhalten
(1-r) = Wahrscheinlichkeit eine weiße Kugel zu (1-r) = Wahrscheinlichkeit
ziehen
Differenz zu erhalten
eine
negative
Annahme: Die Wahrscheinlichkeit, eine positive Differenz zu erhalten, ist genauso groß, wie
die Wahrscheinlichkeit, eine negative Differenz zu erhalten.
r = p (+) = 0,5
; (1 - r) = p (-) = 0,5
4
a) n = 5 Beobachtungsdifferenzen
ξ = 0,5 ⋅ 5 = 2,5
σ x2 = 5 ⋅ 0,5 ⋅ 0,5 = 1,25
,
σ x = ±112
 5  1   1 
P( x = 0) = f (0) =   ⋅   ⋅   = 0,0312 5 = P( x = 5)
 0  2   2 
0
5
 5  1   1 
P( x = 1) = f (1) =   ⋅   ⋅   = 0,1562 5 = P( x = 4)
 1  2   2 
1
4
 5  1  2  1  3
P( x = 2) = f (2) =   ⋅   ⋅   = 0,3125 = P( x = 3)
 2  2   2 
Berechnung nach der Rekursionsformel:
5 0,5
⋅ f (0) = 0,1562 5
P( x = 1) = f (1) = ⋅
1 0,5
4 0,5
⋅ f (1) = 0,3125
P( x = 2) = f ( 2) = ⋅
2 0,5
P( x ≤ 1) = P( x = 0) + P( x = 1) = 0,1875
b) n = 35
ξ = 0,5 ⋅ 25 = 12,5
σ 2x = 25 ⋅ 0,5 ⋅ 0,5 = 6,25
σ x = ±2,5
P(x = 0) = 0,0000
P(x = 3) = 0,0001
P(x = 1) = 0,0000
P(x = 4) = 0,0004
P(x = 2) = 0,0000
P(x = 5) = 0,0016
5
P( x ≤ 5) = ∑ P( x = i) = 0,0021
i=0
Aus den statistischen Tabellen von Wetzel, Jöhnk, Naeve können diese Werte direkt
entnommen werden.
5
1.2 Die Normalverteilung
1.2.1 Allgemeine Problemstellung
Gesucht ist die Wahrscheinlichkeitsdichte der unabhängigen Beobachtungen li einer
Grundgesamtheit und ihre Verteilungsfunktion.
Zufallsveränderlichen für die Beobachtungen l i :
L mit E( L) = λ
bzw. Zufallsveränderliche der ε i -Werte:
ε = λ − L mit E( λ ) = 0
(Abweichung vom Erwartungswert; "wahre" Fehler, deren Wahrscheinlichkeitsdichte auch
Fehlergesetz genannt wird).
1. Modellannahme
Die Abweichung εi der i-ten Beobachtung l
Zufallsgrößen τ i ν darstellbar:
i
als Summe von verschiedenen unabhängigen
q
εi = ∑ τi ν
ν =1
Veranschaulichung der 1. Modellannahme
τ i1
τ i2
τ iq
____
Aus jeder der q Urnen wird ein Wert τ i ν gezogen, ε i ist die Summe der gezogenen
Teilbeträge.
Die Verteilungen in den einzelnen Urnen sind unbekannt.
Beispiel: Winkelmessung
τ i1 ... Ablesefehler
τ i2 ... Einstellfehler
M
bei der i-ten Beobachtung
τ iq ... Teilkreisfehler
6
1.2.2 Hagens Hypothese von den Elementarfehlern
2. Modellannahme
Hagens Hypothese (1837): Alle τ i ν setzen sich aus gleich großen Elementarfehlern + δ und
− δ zusammen, deren Auftreten gleich wahrscheinlich ist. Die Wahrscheinlichkeitsdichte ϕ( ε)
erhält man für den Grenzfall, daß die Anzahl der aufsummierten Elementar-fehler n → ∞ und
die Größe der Elementarfehler δ → 0 geht.
Veranschaulichung der 2. Modellannahme ( Hagens Hypothese )
p( + δ) = 0,5
p( − δ) = 0,5
Aus dieser Urne wird n - mal mit Ersetzen gezogen: ( n → ∞ )
ε i ist die Summe der + δ und − δ -Werte aller n-Züge für die i-te Messung.
ε i = x i ( + δ ) + ( n − x i ) ⋅ ( − δ ) = 2 δ x i − nδ
x i = Anzahl der Züge, bei denen + δ gezogen wurde (δ → ∞) .
1.2.3 Die Normalverteilung als Grenzfall der binomischen Verteilung
Die Modellannahme von Hagen entspricht dem Modell der Binomialverteilung.
Rote Kugel → +δ
;
weiße Kugel → −δ
r = 0,5
w = 0,5
Zufallsveränderliche X = Anzahl der Züge, bei denen eine rote Kugel→ + δ gezogen wurde.
Erwartungswert und Varianz der Zufallsveränderlichen X
n
ξ = rn =
2
n
σ x2 = ξ ⋅ (1 − r ) =
4
Die Zufallsveränderlichen X ist binomialverteilt mit der Wahrscheinlichkeitsdichte
 n
f ( x) =   r x (1 − r ) n − x
 x
Die Zufallsveränderlichen ε ist eine lineare Funktion der diskreten Zufallsveränderlichen X
ε = 2δX − nδ
(siehe Abschnitt 1.2.2)
7
Erwartungswert und Varianz der Zufallsveränderlichen ε
n
E( ε) = 2δξ − nδ = 2δ − nδ = 0
2
2
2
2 2
σ ε = σ = 4δ σ x (nach dem Fehlerfortpflanzung)
n
σ 2x =
4
2
σ = nδ 2
Übergang von der Wahrscheinlichkeitsdichte f(x) zur Wahrschein-lichkeitsdichte ϕ(ε):
f ( x) ⋅ ∆x = ϕ( ε) ⋅ ∆ε
Diese Gleichung gilt bei monotonen Funktionen auf Grund der Forderung gleicher
Wahrscheinlichkeitsdifferentiale dP.
Graphische Darstellung der Wahrscheinlichkeitsdichten:
f(x)
x
f(x+ ∆x)
ϕ(ε )
x+ ∆x
ϕ(ε + ∆ε )
ε
← ∆x = 1 →
ε + ∆ε
← ∆ε = 2δ →
Ändert sich x um ∆x = +1, so ändert sich ε um + 2δ .
f ( x) ⋅ {
∆x = ϕ (ε ) ⋅ {
∆ε
1
2δ
f ( x) = ϕ (ε ) ⋅ 2δ
f ( x)
ϕ( ε) =
2δ
f ( x + 1)
ϕ( ε + ∆ε ) =
2δ
f(x+1) wird mit Hilfe der Rekursionsformel:
n−x r
eliminiert.
f ( x + 1) =
⋅
⋅ f ( x)
x + 1 1{
−r
=1
 n − x  f ( x)
ϕ( ε + ∆ε ) − ϕ (ε ) = 
− 1 ⋅
 x +1  {
2δ
ϕ( ε )
ϕ( ε + ∆ε ) − ϕ (ε ) =
n − 2x − 1
⋅ ϕ( ε )
x +1
8
x wird durch die Funktion in Abhängigkeit von ε , δ und n ersetzt:
ε n
+
2δ 2
ε
n − − n −1
δ
ϕ( ε + ∆ε ) − ϕ (ε ) =
⋅ ϕ ( ε)
ε n
+ +1
2δ 2
− 2 ε − 2δ
=
⋅ ϕ ( ε)
ε + nδ + 2δ
ε = 2δx − nδ → x =
Division mit ∆ε = 2δ
ϕ( ε + ∆ε ) − ϕ (ε )
− 2 ε − 2δ
=
⋅ ϕ (ε )
∆ε
2εδ + 2{
nδ 2 + 4 δ 2
2σ2
Übergang von der diskreten zu der stetigen Verteilung ϕ( ε)
Der Grenzübergang n → ∞; δ → 0 entspricht dem Übergang von der Differenzengleichung zu der Differentialgleichung:
dϕ (ε )
ε
= − 2 ⋅ ϕ( ε)
dε
σ
Bemerkung: σ 2 kann zunächst nur als Grenzwert der Varianz der Binomialverteilung
betrachtet werden.
dϕ (ε )
1
= − 2 ε ⋅ dε
ϕ ( ε)
σ
Integration:
ln ϕ( ε) = −
1 ε2
⋅ + c1
σ2 2
ϕ( ε) = c 2 ⋅ e
−
ε2
2σ2
Die Integrationskonstante C2 ist so zu bestimmen, daß:
+∞
+∞
∫ ϕ( ε)dε = 1 = C ∫ e
2
−∞
− ε2
2 σ2
dε
−∞
Allgemein:
+∞
+∞
∫ e −ax dx = 2 ∫ e −ax dx =
2
−∞
2
-∞
π
; a>0
a
9
Hier:
a=
1
2σ 2
;
1 = C2 ⋅ 2π ⋅ σ
π
= 2πσ 2
a
→ C2 =
1
σ 2π
Wahrscheinlichkeitsdichte der Zufallsveränderlichen ε
(Gauß'sches Fehlergesetz; Normalverteilung N (O, σ )):
−ε
1
2 σ2
ϕ( ε) =
⋅e
σ 2π
2
Aus der Definition der Varianz folgt, daß die Varianz σ 2ε der Zufallsveränderlichen ε gleich
dem Grenzwert σ 2 für die Normal-verteilung ist.
σ = E( ε ) − {E( ε)} =
2
ε
2
2
+∞
∫ ε ϕ ( ε ) ⋅ dε = σ
2
−∞
2
;
{E(ε)} 2 = 0
Wahrscheinlichkeitsdichte der stetigen Zufallsveränderlichen L (Normalverteilung N ( λ , σ )):
−( λ−l)
1
2
ϕ( l) =
e 2σ
σ 2π
2
Wahrscheinlichkeitsdichte einer beliebigen Zufallsveränderlichen
Modellannahmen zutreffen (Normalverteilung N ( ξ, σ x ):
ϕ( x) =
1
σ x 2π
X,
auf
die
die
− (ξ −x)2
e
2 σ 2x
Beachte: In der Statistikliteratur wird statt (ξ − x) 2 meistens der Ausdruck ( x − ξ) 2 benutzt.
Die Wahrscheinlichkeitsdichte einer normalverteilten Zufalls-veränderlichen hängt nur von den
beiden Parametern ξ und σ ab.
ξ als Lageparameter beeinflußt nicht die Form der Wahrscheinlich-keitsdichte.
10
Die Wahrscheinlichkeitsdichte kann als symmetrische Glockenkurve dargestellt werden.
Maximum x = ξ
Wendepunkt der Kurve:
−ε
1
2
ϕ( ε) =
e 2σ
σ 2π
2
−ε
−ε
1
ε
 ε 
'
2σ2
2σ 2
ϕ ( ε) =
e ⋅− 2  = − 3
e
 σ 
σ 2π
σ 2π
2
ϕ' ' ( ε) = −
=−
1
σ3
2
−ε
 −ε 2
 ε 
2σ
2 σ2
e ⋅ 1 + ε ⋅ e  − 2  
 σ 
2 π 

1
σ 3 2π
2
−ε2
e
2σ2
2

ε2 
1 − 2 
 σ 
Wendepunkte: Krümmung = 0 ; d.h. ϕ''( ε w ) = 0
ε 2w
1− 2 = 0
σ
ε w = ±σ
Die Abszissen ε w der Wendepunkte liegen bei einer N(ξ, σ ) symmetrisch zu ξ bei ± σ .
1.2.4 Die normierte Normalverteilung N(0,1)
1.2.4.1 Normierung einer Zufallsveränderlichen beliebiger Verteilung
x−ξ
u=
(normierte Zufallsveränderliche)
σ
E ( u) = 0
σ u = ±1
Jede normierte Verteilung hat den Erwartungswert 0 und die Varianz 1.
11
Beziehungen zwischen den Wahrscheinlichkeitsdichten f(x) und f(u)
f ( u) ⋅ du = f ( x) ⋅ dx = dP
1
du = ⋅ dx
σ
f ( u) = σ ⋅ f ( x)
1
f ( x) = ⋅ f ( u)
σ
1.2.4.2 Normierte Normalverteilung N(0,1)
− ( ξ− x )
1
2
ϕ( x) =
e 2 σ für N(ξ, σ)
σ 2π
2
1 −2u
e für N(0,1)
2π
2
ϕ( u) =
Die Wahrscheinlichkeitsdichte ϕ( u) der normierten Normalverteilung ist tabuliert.
Beispiel für die Berechnung von ϕ( x) mit Hilfe von ϕ( u) :
ξ = 125,723 m ; x = 125,728 m ; σ = ±2,0 mm
125728 - 125723
u=
= 2,5
2,0
ϕ ( u) = 0,0175
1
1
ϕ ( x) = ϕ ( u) = ⋅ ϕ ( u) = 0,0088
σ
2
1.2.5 Die Verteilungsfunktion und die Fehlerwahrscheinlichkeitsfunktion
Verteilungsfunktion:
−( ξ−t )
1
2
Φ ( x) =
e 2 σ ⋅ dt
∫
σ 2π −∞
ε
−t 2
1
2
Φ( ε) =
e 2 σ ⋅ dt
∫
σ 2 π −∞
u
t2
1
−
Φ ( u) =
e 2 ⋅ dt
∫
2 π −∞
x
fürN (ξ, σ )
für N (0, σ )
für N (0,1)
2
12
Die Werte Φ(u) der normierten Normalverteilung sind tabuliert.
Die Fehlerwahrscheinlichkeitsfunktion Wab gibt die Wahrscheinlichkeit an, daß der Fehler im
Intervall a . liegt
Wab = Φ( b) − Φ(a )
Beispiele:
1.) Wenn die Ereignisse N(ξ, σ ) verteilt sind, sind darunter
theoretisch 15,87 % zu erwarten, die kleiner sind als ξ − σ .
2.) W−+σσ = Φ( + σ ) − Φ( − σ ) = Φ( u = +1) − Φ( u = −1) = 0,8413 − 0,1587
= 0,6826
Im Bereich ξ − σ..... ξ + σ sind 68,3 % aller Ereignisse theoretisch zu erwarten.
3.) W−+33σσ = 0,9987 − 0,0013 = 0,9974
Nur knapp 0,3 % aller Ereignisse sind theoretisch außerhalb
des Bereiches ξ − 3σ..... ξ + 3σ zu erwarten ("Maximalfehler").
Alle Aussagen gelten in Strenge nur, wenn die Ereignisse N(ξ, σ ) verteilt sind und σ selbst
bekannt ist.
1.2.6 Die Verteilung von Funktionen normalverteilter Zufallsveränderlicher
1.2.6.1 Lineare Funktionen
Die x ν seien unabhängige, N(ξ ν , σ ν ) verteilte Zufallsveränderliche.
Dann ist die lineare Funktion
n
X = k 0 + k 1 x1 + k 2 X 2 + k 3 X 3 +.....+ k n X n = k 0 + ∑ k ν ⋅ X ν
ν =1
mit reellen Konstanten k ν
ebenfalls normalverteilt mit
ξ = E( X) = k 0 + k 1 E( X1 ) + k 2 E( X 2 ) +...+ k n E( X n )
n
n
ν =1
ν =1
= k 0 + ∑ k ν E( X ν ) = k 0 + ∑ k ν ⋅ ξ ν
n
σ = k σ + k σ +...+ k σ = ∑ k 2ν σ 2ν
2
x
2
1
2
1
2
2
2
2
2
n
2
n
ν =1
(Beweis dieses Additionstheorems der Normalverteilung für den
Spezialfall X = X1 + X 2 siehe Gotthardt).
13
Beispiel:
X=
1
1
1
X 1 + X 2 +...+ X n (arithmetisches Mittel)
n
n
n
ξ1 = ξ 2 =... = ξ n
σ 1 = σ 2 =... = σ n
n
1
E ( X) = ∑ ξ i = ξ
i =1 n
1 2 σ2
σ = ∑ 2 σi =
n
i =1 n
n
2
x
Das arithmetische Mittel von n unabhängigen N(ξ, σ) verteilten Beobachtungen ist N (ξ,
σ
n
)
verteilt. (s. Kreyszig)
1.2.6.2 Nichtlineare Funktionen
Für nichtlineare Funktionen normalverteilter Zufallsveränderlicher müssen die speziellen
Verteilungen bestimmt werden.
Funktionen der Art:
F = f (l1 + ε1 , l 2 + ε 2 ,..., l n + ε n )
mit E( F) = Φ können in den meisten Fällen mit genügender Genauigkeit linearisiert werden
 δf 
 δf 
 δf 
F = Φ +   ε 1 +   ε 2 +...+
 ε
 δl 1  0
 δl 2  0
 δl n  0 n
F ist also zumindestens näherungsweise normalverteilt (vgl. Abschnitt 1.2.6.1)
Funktionen der Art:
F = ε 12 + ε 22 +...+ ε 2n
sind in Strenge bestimmt nicht normalverteilt, da Fmin = 0 ist.
Beispiele:
F1 = m2 =
F2 =
[pvv]
[ εε ]
n
n−u
14
[ l]
F3 =
x
=
mx
n
[ vv]
n( n − 1)
Einige wichtige Verteilungen nichtlinearer Funktionen normal-verteilter Zufalls-veränderlicher
(t-Verteilung; χ 2 -Verteilung;F-Verteilung) werden bei entsprechenden Problemstellungen
behandelt.
1.2.7 Zentraler Grenzwertsatz
Unter gewissen, sehr schwachen Voraussetzungen ist jede Summe von unabhängigen Größen
τ iν beliebiger Verteilung (vgl. Abschnitt 1.2.1)
n
ε i = ∑ τ iν für n → ∞ normalverteilt.
ν =1
Voraussetzungen:
a) Keine der Größen τ darf im Verhältnis zu den anderen Größen τ einen zu großen
Beitrag zur Summe liefern.
b) Die Verteilungsfunktionen der τ müssen für − ∞ bzw. + ∞ schnell genug nach 0
bzw. +1 streben.
Zentraler Grenzwertsatz (siehe z.B. Hein, Kreyszig).
x ν seien unabhängige Zufallsveränderliche mit dem Erwartungswert ξ ν und den Varianzen
σ 2ν . Dann besitzt unter sehr schwachen Voraus-setzungen über die (sonst weitgehend
beliebigen) Verteilungen der x ν :
a) die Summe der Zufallsveränderlichen x ν in der Grenze für n → ∞
die Normalverteilung mit dem Erwartungswert (ξ1 + ξ 2 +...+ ξ ν ) und
der Varianz (σ 12 + σ 22 +...+ σ 2ν )
b) die normierte Summe der Zufallsvariablen x ν
n
∑ (x
ν =1
ν
− ξν)
n
∑σ
ν =1
2
ν
in der Grenze für n → ∞ eine Normalverteilung mit dem Erwartungswert O und der
Varianz 1.
Es zeigt sich, daß eine Summe aus einer beschränkten Anzahl n von Zufallsgrößen mit einer in
der Praxis ausreichenden Genauigkeit normalverteilt ist. Als Faustregel kann man allgemein n =
30 angeben. Für symmetrische Verteilungen ist die entsprechende Anzahl n ≥ 5 .
15
Folgerung: Aus der Tatsache, daß die Summe von n Zufallsveränder-lichen bzw. das
arithmetische Mittel aus n Werten normalverteilt ist, kann nicht darauf geschlossen werden,
daß die Einzelgrößen normalverteilt sind.
1.2.8 Prinzip der Maximum-Likelihood-Schätzung
(1. Gauß'sche Begründung der Methode der kleinsten Quadrate)
ε 1 = ξ − l1
ε 2 = ξ − l2
.
.
.
ε n = ξ − ln
Wahrscheinlichkeitsdichte:
ϕ 1 (ε 1 )
ϕ 2 (ε 2 )
.
.
.
ϕ n (ε n )
Wahrscheinlichkeit für das gleichzeitige Auftreten der unabhängigen Werte ε 1 , ε 2 ... ε n :
dΦ = ϕ 1 ( ε 1 )dε ⋅ ϕ 2 ( ε 2 )dε⋅...⋅ϕ n (ε n )dε
dΦ = ϕ 1 (ε 1 ) ⋅ ϕ 2 (ε 2 )⋅...⋅ϕ n (ε n ) ⋅ (dε) n
Annahme:
Alle ε i entstammen der gleichen normalverteilten Grundgesamtheit; die Parameter ξ und σ
sind aber unbekannt. Für ξ soll ein Wert x geschätzt werden, so daß dΦ zum Maximum wird.
L = ϕ ( ε 1 ) ⋅ ϕ (ε 2 )⋅...⋅ϕ( ε n )
ε12
(Likelihood-Funktion )
εn
− 2
− 2
− 2
 1 
2σ
2σ
2σ
L=
⋅e
⋅...⋅e
 ⋅e
 σ ⋅ 2π 
n
ε 22
 ε12 
2
1
− 2 
− 2 [ ( ξ −li ) 2 ]
 1 
 1 
 2σ 
L=
 ⋅e   = 
 ⋅ e 2σ
 σ ⋅ 2π 
 σ ⋅ 2π 
n
n
Für L → L max gilt ξ → x :
n
L max
1
− 2 [ ( x − li ) 2 ]
 1 
2σ
=
 ⋅e
 σ 2π 
[
]
d. h. ( x − l i ) 2 = [ vv] = Minimum
Das ist die 1. Gauß'sche Begründung der Methode der kleinsten Quadrate. Sie setzt voraus,
daß die Beobachtungen normalverteilt sind.
R. A. Fischer verallgemeinerte das Schätzverfahren:
L = f (l1; θ1 , θ 2 ...) ⋅ f (l 2 ; θ1 , θ 2 ...)⋅...⋅f (l n ; θ1 , θ 2 ...)
16
Die unbekannten Parameter θ1 , θ2 ... der Wahrscheinlichkeitsdichten f (l i ; θ1 , θ 2 ...) sollen so
bestimmt werden, daß die Likelihood-Funktion L den Maximalwert L max annimmt.
δL
=0
δθ1
δL
=0
δθ 2
M
aus diesen Gleichungen sind die Werte der
Parameter ξ − u s ⋅ σ x ≤ x ≤ ξ + u s ⋅ σ x zu berechnen
Aus rechentechnischen Gründen wird häufig zunächst logarithmiert.
ln L = ln f (l1 ; θ1 , θ 2 ...) +...+ ln f (l n ; θ1 , θ 2 ...)
δ ln L
=0
δθi
Likelihood-Schätzungen brauchen nicht erwartungstreu zu sein, sie sind aber asymptotisch
normalverteilt und asymptotisch effektiv.Im Falle der Normalverteilung ergibt sich z.B. die
Maximum-Likelihood-Schätzung für die Varianz σ 2 (siehe Kreyszig S. 181)
2
m =
[ vv]
=
n − 1 [ vv]
⋅
n n −1
n
n
−1
1
2
E( m ) =
⋅ E( m 2 ) = (1 − ) ⋅ E( m2 )
n
n
2
Diese Schätzung ist nicht erwartungstreu, aber für n → ∞ gilt m → σ 2 .
1.2.9 Andere Ableitungen der Normalverteilung
1.2.9.1 Gauß'sches Fehlergesetz
L = ϕ ( ε 1 ) ⋅ ϕ (ε 2 )⋅...⋅ϕ( ε n )
ξ ist unbekannt, es soll die Schätzung x benutzt werden, für die die Likelihood-Funktion zum
Maximum wird.
v1 = x − l1
v2 = x − l2
M
vn = x − ln
ϕ( v1 ) ⋅ ϕ ( v 2 )⋅...⋅ϕ ( v n ) = Maximum
ln ϕ ( v1 ) + ln ϕ ( v 2 ) +...+ ln ϕ ( v n ) = Maximum
17
d ln ϕ( v1 ) dv1 d ln ϕ ( v 2 ) dv 2
⋅
+
⋅
+... = 0
dv1
dx
dv 2
dx
{
{
1
1
d ln ϕ( v1 ) d ln ϕ ( v 2 )
d ln ϕ( v i )
v ⋅ d ln ϕ ( v i )
+
+... = 0 = ∑
=∑ i
dv1
dv 2
dv i
v i ⋅ dv i
Gauß'sche Annahme: Das arithmetische Mittel ist der wahrscheinlichste Wert.
x=
l1 + l 2 +...+ l n
n
Diese Annahme ist gleichbedeutend mit:
∑v = 0
Außerdem gilt:
∑v⋅
d ln ϕ( v)
=0
v ⋅ dv
Die beiden Gleichungen können ohne Widerspruch bestehen für:
(siehe Höpcke)
d ln ϕ( v i )
= const
v i ⋅ dv i
d ln ϕ( v i )
= k ⋅ vi
dv i
Integration:
ln ϕ( v) =
1
k ⋅ v2 + c
2
ϕ( v) = e
1 2
k⋅ v + c
2
= e ⋅e
c
1 2
k⋅ v
2
Unter der Annahme einer sehr großen Anzahl von Beobachtungen gilt
x → ξ und v → ε :
1
ϕ( ε) = e c ⋅ e 2
k ⋅ε 2
Da für wachsendes ε die Fehlerwahrscheinlichkeit abnehmen soll, wird gesetzt:
1
k = − h 2 ; außerdem e c = A
2
2 2
ϕ( ε) = A ⋅ e − h ε
18
Es werden zwei Bedingungen gebraucht, zur Bestimmung der Integrationskonstanten A und h:
+∞
+∞
∫ ϕ( ε)dε = A ∫ e
1)
−∞
− h2ε2
dε = 1
−∞
h
π
A=
Entsprechend Abschnitt 1.2.3:
2) Das von Gauß eingeführte Präzisionsmaß h ist durch die Varianz σ 2 auszudrücken:
+∞
σ2 =
∫ ε 2 ϕ(ε)dε =
−∞
h
π
+∞
∫ε
2
e − h ε dε
2 2
−∞
Allgemein:
+∞
∫x e
2 − ( ax2 + bx + c )
−∞
a + 2b 2
dx =
2a 2
π b a−ac
⋅e
a
2
; a>0
Hier: a = h 2 ; b = c = 0
σ2 =
h
1
π
1
1
⋅ 2 ⋅ 2 = 2 →h=
h
2h
π 2h
σ⋅ 2
Gauß'sches Fehlergesetz (Wahrscheinlichkeitsdichte für N(0, σ ) ):
ε
− 2
h − h2ε 2
1
2σ
ϕ( ε) =
=
e
e
π
σ 2π
2
1.2.9.2 Literaturhinweise
Czuber - Theorie der Beobachtungsfehler, Leipzig 1891
Tienstra - Theory of the adjustment of normally distributed observations
Jordan/Eggert/Kneißl- Handbuch der Vermessungskunde, 10. Ausgabe Band I, §133
1.2.10 Verschiedene Fehlermaße und ihr Zusammenhang bei normalverteilten
Beobachtungen
Definition der Varianz:
{
σ = E (ξ − l λ )
2
2
} = E(ε
+∞
2
)=
+∞
∫ ε ϕ( ε)dε = 2 ∫ ε ϕ(ε)dε
2
−∞
2
0
19
Definition des durchschnittlichen Fehlers:
τ = Eε =
+∞
+∞
−∞
0
∫ ε ϕ(ε)dε = 2 ∫ ε ϕ( ε)dε
Definition des wahrscheinlichen Fehlers:
+ρ
∫ ϕ( ε)dε = 0,5 = Φ( +ρ) − Φ( −ρ) = Φ( +ρ) − {1 − Φ( +ρ)} = 2Φ(ρ) − 1
−ρ
d. h. Φ( +ρ) =
3
→ρ
4
Für unabhängige normalverteilte Beobachtungen ergeben die Inte-grationen (siehe z.B.
Höpcke).
1
2h 2
h = Präzisionsmaß
1
τ=
=
π ⋅h
σ2 =
2 ⋅σ
π
Daraus ergeben sich folgende Zusammenhänge zwischen den Fehlermaßen:
τ = 0,80σ = 118
, ρ
σ = 1,25τ = 1,47ρ
ρ = 0,85τ = 0,67σ
τ≈
4
2
σ ; ρ≈ σ
5
3
2 Vertrauensintervalle (Konfidenzintervalle)
2.1 Die Ungleichung von Tschebyscheff
Ist k eine beliebige reelle Zahl, so ist die Wahrscheinlichkeit des Ereignisses X − ξ > kσ
kleiner als k −2 .
P( X − ξ ≥ kσ ) ≤
1
k2
Diese Ungleichung gilt ganz allgemein für stetige (und auch für diskrete) Verteilungen, für die
σ ≠ 0 ist.
Sie gilt in Strenge nur in ξ und σ , nicht aber wenn nur die Schätzungen x und m für ξ und σ
bekannt sind.
20
Beweis:
+∞
σ2 =
∫ ( t − ξ)
2
f ( t )dt
−∞
ξ + kσ
=
∫ ( t − ξ)
ξ − kσ
+∞
2
f ( t )dt +
ξ − kσ
t − ξ ≤ kσ
≥ 0
∫ ( t − ξ)
2
f ( t )dt +
ξ + kσ
∫ ( t − ξ)
2
f ( t )dt
−∞
t − ξ ≥ kσ
≥ 0
σ 2 ≥ ∫ ( t − ξ) 2 f ( t )dt = ∫ ( kσ + ∆t ) 2 f ( t )dt
t − ξ ≥ kσ
t − ξ ≥ kσ
σ 2 ≥ k 2 σ 2 ∫ f ( t )dt + 2 kσ ∫ ∆tf ( t )dt + ∫ ∆t 2 f ( t )dt
ξ
± 3,18 ⋅ m x
t − ξ ≥ kσ
≥ 0
≥ 0
σ 2 ≥ k 2 σ 2 ∫ f ( t )dt = k 2 σ 2 ⋅ P( t − ξ ≥ kσ )
t − ξ ≥ kσ
P ( t − ξ ≥ kσ ) ≤
1
k2
Beispiel:
Die Ungleichung besagt, daß unabhängig von der speziellen Wahr-scheinlichkeitsdichte f(x)
z.B. im Intervall ±2σ theoretisch mehr als 3/4 (75 % ) aller Fälle liegen (entsprechend im
Intervall ±3σ mehr als 8/9 (89 %), im Intervall ±4σ mehr als 15/16 (94 %)).
Beispiel: Vorzeichen bei Beobachtungsdifferenzen
n = 25
(vgl. Abschnitt 1.1 Beispiel b)
X = Anzahl der positiven Beobachtungsdifferenzen
ξ = 12,5
σ 2 = 6,25 → σ = 2,5
21
Auf Grund der Ungleichung von Tschebyscheff gilt z.B.:
1
= 0,25
22
P(7,5 < x < 17,5) ≥ 1 − 0,25 = 0,75
P( x - ξ ≥ 2σ ) = P( x - ξ ≥ 5) ≤
Die Wahrscheinlichkeit dafür, daß bei 25 Beobachtungsdifferenzen die Anzahl der positiven
Differenzen im Intervall 7,5 < x < 17,5 liegt, ist größer oder gleich 0,75.
Zum Vergleich:
Die Zufallsveränderliche X ist binomialverteilt. Bei Binomial-verteilung (n = 25; p(+) = 0,5; p
(-) = 0,5) gilt:
17
P(8 ≤ x ≤ 17) = ∑ P( x ν ) = 0,9568
ν =8
2.2 Statistische Eigenschaften einer normalverteilten Zufallsveränderlichen
2.2.1 Verteilung des arithmetischen Mittels
Ist die Grundgesamtheit N(ξ, σ) normalverteilt, so ist das Stich-probenmittel x =
N(ξ,
σ
n
l
n
streng
) normalverteilt.
(vgl. Abschnitt 1.2.6.1)
Wegen des Zentralen Grenzwertsatzes (Abschnitt 1.2.7) gilt aber auch: Ist die
Grundgesamtheit beliebig verteilt mit Erwartungswert ξ und Standardabweichung σ , so ist das Stichprobenmittel angenähert N(ξ,
σ
n
) normalverteilt; und zwar ist die
Annäherung um so besser, je größer n ist und je mehr die
Verteilung einer Normalverteilung ähnelt.
2.2.2 Vertrauensintervall für den Erwartungswert ξ
2.2.2.1 Vertrauensintervall für ξ bei Kenntnis von σx
Voraussetzung: Alle Beobachtungen li entstammen der gleichen normalverteilten Grundgesamtheit und sind unabhängig.
22
+u
s
ε
P( − u s ≤ x ≤ + u s ) = S = ∫ ϕ ( t )dt
σx
−u s
u=
[ l]
σ
x − ξ εx
=
mit x =
und σ x =
σx
σx
n
n
u ... normierte normalverteilte Zufallsveränderliche
P( − u s ≤
x−ξ
≤ +us ) = S
σx
Durch Umformung der Relation erhält man:
− us ⋅ σx ≤ x − ξ ≤ us ⋅ σ x
− x − u s ⋅ σ x ≤ −ξ ≤ − x + u s ⋅ σ x
x − us ⋅ σx ≤ ξ ≤ x + us ⋅ σx
entsprechend:
ξ − us ⋅ σ x ≤ x ≤ ξ + us ⋅ σx
und damit:
P( x − u s ⋅ σ x ≤ ξ ≤ x + u s ⋅ σ x ) = S
P(ξ − u s ⋅ σ x ≤ x ≤ ξ + u s ⋅ σ x ) = S
S = statistische Sicherheit
Die Wahl von S hängt vom Problem ab.
S%
us
68,3
95,0
99,0
99,9
1,00
1,96
2,58
3,29
Vertrauensintervall:
x − u s σ x ... x + u s σ x (zweiseitig).
(Zufallsintervall konstanter Länge, das mit der Wahrscheinlichkeit S den Erwartungswert ξ
enthält).
Vertrauensgrenzen: ± u s σ x
Diese Aussagen gelten in Strenge nur bei Kenntnis von σx Notwendiger Stichprobenumfang
23
Frage: Wie groß muß der Stichprobenumfang mindestens sein, damit die Abweichung x − ξ
des Erwartungswertes ξ vom Schätzwert x in S% aller Fälle einen bestimmten Betrag C Max
nicht überschreitet?
x ist N (ξ, σ x ) verteilt
σ
σx =
n
[ l]
x=
n
C Max = u s ⋅ σ x = u s ⋅
C
2
Max
n Min
σ
n Min
σ2
= u ⋅σ = u ⋅
n Min
2
s
2
x
 u ⋅σ
= s 
 C Max 
2
s
2
Beispiel:
Zur Messung eines Höhenunterschiedes am Fundament eines Hochhauses stehen zwei
Nivellierinstrumente zur Verfügung. Die Standard-abweichungen σ für eine einmalige
Messung sind bekannt:
1) Ingenieurnivellier ohne Planplatte: σ 1 = ±0,6mm
2) Nivellier mit Planplatte:
σ 2 = ±0,2 mm
a)Wie oft muß der Höhenunterschied mit Instrument 1 bzw. 2 gemessen werden,
wenn bei einer statistischen Sicherheit S = 95% die maximale Differenz C Max = x − ξ < 0,3mm
sein soll?
S = 95% ; u s = 1,96
1. Instrument:
2
 1,96 ⋅ 0,6 
n Min = 
 = 15,36 ≈ 16
 0,3 
2. Instrument:
2
 1,96 ⋅ 0,2 
n Min = 
 = 1,7 ≈ 2
 0,3 
24
b) Von der Bauleitung wird für S = 99 % verlangt, daß C Max < 0,1mm
sein soll. Läßt sich
diese Forderung mit den zur Verfügung stehenden Instrumenten sinnvoll einhalten? - NEIN S = 99% ; u s = 2,58
1. Instrument:
2
 2,58 ⋅ 0,6 
n Min = 
 = 239,63 ≈ 240
 0,1 
2. Instrument:
2
 2,58 ⋅ 0,2 
n Min = 
 = 26,62 ≈ 27
 0,1 
c) Wie groß dürfte die Standardabweichung σ eines Instrumentes sein, wenn man mit
höchstens n = 5 Messungen die Forderungen von b) erfüllen will?
 2,58 ⋅ σ 
5=

 0,1 
σ=
2
0,1
⋅ 5 = 0,087 mm
2,58
2.2.2.2 Die t-Verteilung (Student-Verteilung)
Die t-Verteilung wurde von W.S. Gosset (Pseudonym: Student) abge-leitet (1908).
(Ableitung siehe Kreyszig, Gotthardt)
l i ..... Beobachtungen der N(ξ, σ) normalverteilten Zufallsveränderlichen X
x ..... arithmetisches Mittel (Zufallsveränderliche)
m ..... Schätzung für σ (Zufallsveränderliche)
m x ..... Schätzwert für die Standardabweichung des arithmetischen Mittels x
(Zufallsveränderliche)
m x und x müssen voneinander unabhängig sein Übergang zu der Zufallsveränderlichen
T=
X−ξ
mx
Wahrscheinlichkeitsdichte der Zufallsveränderlichen T:

t 2
f ( t , f ) = C( f ) ⋅  1 + 
f 

−
f +1
2
 f + 1

Γ
∞
 2 
1
C( f ) =
⋅
; Γ ( λ + 1) = ∫ x λ e − x dx (Gamma - Funktion)
f
fπ
0
Γ 
 2
25
f = Freiheitsgrad = Anzahl der überschüssigen Beobachtungen, hier f = n - 1
Graphische Darstellung:
Die zu f(t) gehörige Kurve ist auch symmetrisch zu ξ bzw. t = 0 wegen der Abhängigkeit von
t 2 , sie ist aber flacher als ϕ( ε) .
Die t-Verteilung geht für f → ∞ in die normierte Normalverteilung N(0,1) über.
Tabelle der Werte ts als Funktion der Wahrscheinlichkeit
+ ts
S=
∫ f ( t )dt
und des Freiheitsgrades f.
−ts
(f = n - 1 bei einer Unbekannten bzw. f = n - u bei u Unbekannten)
f
S = 68, 3%
S = 95, 0%
S = 99, 0%
1
2
3
4
5
10
20
100
1,82
1,32
1,20
1,14
1,11
1,05
1,025
1,005
1,000
12,71
4,30
3,18
2,78
2,57
2,23
2,09
1,98
1,96
63,66
9,92
5,84
4,60
4,03
3,17
2,85
2,63
2,58
∞
Statt der Tabellen empfiehlt es sich, Nomogramme zu benutzen.
Wenn f größer als etwa 30 wird, so kann statt ts bereits us benutzt werden. Ist f dagegen
klein, so bestehen erhebliche Unterschiede.
2.2.2.3 Vertrauensintervall für ξ bei Kenntnis von mx
Voraussetzung: Die Beobachtungen li entstammen einer N(ξ, σ) verteilten Grundgesamtheit
und sind unabhängig.
26
x−ξ
≤ +ts ) = S =
P( − t s ≤
mx
+ ts
∫ f ( t )dt
−t s
entsprechend:
x−ξ
≤ +us ) = S =
P( − u s ≤
σx
+ us
∫ ϕ( t)dt
− us
Wichtiger Unterschied: σx = fester Zahlenwert m x = Schätzung für σ x
veränderliche) ϕ(u) Wahrscheinlichkeitsdichte der Zufallsveränderlichen:
u=
(Zufalls-
x−ξ
(Normalverteilung)
σx
f(t) Wahrscheinlichkeitsdichte der Zufallsveränderlichen:
t=
x−ξ
(t-Verteilung)
mx
(siehe Abschnitt 2.2.2.2)
P( x − t s ⋅ m x ≤ ξ ≤ x + t s ⋅ m x ) = S
Die Umformung entspricht 2.2.2.1 mit t s statt u s .
(Zufallsintervall, das mit der Wahrscheinlichkeit S den Erwartungswert ξ enthält. Die Größe
des Intervalls hängt von der Zufallsveränderlichen m x ab.)
Unter Voraussetzung normalverteilter Beobachtungen wird für f = 3 und S = 95 % ts = 3,18 ,,
d.h. in etwa 5 % aller Fälle ist der Erwartungswert ξ noch außerhalb der Vertrauensgrenzen
± 3,18 ⋅ m x zu erwarten, wenn m x nur 3 Freiheitsgrade enthält. Wäre aber statt der Schätzung
m x die Standardabweichung σx bekannt, so wären außerhalb der Vertrauensgrenzen
± 3,29 ⋅ σ x nur etwa 0,1 % aller Messungen zu erwarten.
Beispiel: Messung eines parallaktischen Winkels
Annahme: normalverteilte Beobachtungen
γ
v2
v
3,7364
61
69
62
X = 3,73640
0
+3
-5
+2
0
9
25
4
38
27
38
= 12,7
3
m2
m2x =
= 3,17
4
m2 =
S = 95%
mx = 1,8cc
f = n -1 = 3
t s = 3,18
Vertrauensgrenzen: ± t s ⋅ m x = ±3,18 ⋅ 1,8cc = ±5,7 cc ≈ 6cc
± u s σ x = ±1,96 ⋅ 1,8 cc = ±3,5cc ≈ 4 cc
( mit σ x = m x )
zum Vergleich:
Vertrauensintervall in dem ξ mit 95 % Wahrscheinlichkeit liegt:
x − t smx
x + t smx
3g ,7364 − 6cc ....... 3g ,7364 + 6cc
3g ,7358
....... 3g ,7370
x − u s m x .... x + u s m x
(Zum Vergleich
3,7360 .... 3,7368
)
2.2.3 Statistische Eigenschaften des mittleren Fehlerquadrates m 2 = [ ε 2 ] / f und des mittleren
Fehlers bei bekanntem Erwartungswert der Beobachtungen
2.2.3 χ2-Verteilung
2.2.3.1 Zusammenhang zwischen den Zufallsveränderlichen m2 und χf2
Voraussetzung:
Die unabhängigen Beobachtungen li sind N(ξ, σ ) verteilt. ξ ist bekannt.
Schätzung für σ 2 (Zufallsveränderliche):
m2 =
[ε ]
2 f
l
f
mit f = Freiheitsgrad (hier f = n = Anzahl der Beobachtungen).
Zusammenhang zwischen den ε i aus N(ξ, σ ) und den normierten Größen u i aus N(0,1):
28
εi
σ
εi = σ ⋅ ui
ui =
[ε ]
2 f
i l
[ ]
= σ 2 u i2
f
l
σ2
m =
⋅ u 2i
f
[ ]
2
f
f
l
übliche Bezeichnung:
[u ]
2 f
i l
= χ 2f
χ 2f -Verteilung: Verteilung der Quadratsumme von f unabhängigen N (0,1) verteilten Werten
ui .
m 2f =
σ2 2
⋅ χf
f
2.2.3.2 Die χ2-Verteilung
Helmert (1876), Pearson (1900) (Ableitung siehe Kreyszig; Gotthardt) Verteilungsfunktion
VF( χ 2f ) der Zufallsveränderlichen χ 2f :
[ ]
P( χ = u
2
f
2 f
i l
−1


y
 −1
−
  f   − 2f
2 
2
< z ) = Γ    2 ⋅ ∫ y
⋅ e ⋅ dy
  2 
0
z
f
Wahrscheinlichkeitsdichte WD( χ 2f ) der Zufallsveränderlichen χ 2f :
−1
  f   − f  −1 − z
WD( χ = z) = Γ    2 2 ⋅ z  2  ⋅ e 2
  2 
f
2
f
f = Anzahl der aufsummierten unabhängigen N (0,1) verteilten u 2i
Graphische Darstellung:
Maximum von χf2 = f − 2 für f > 2
29
Additionstheorem der χ 2 -Verteilung:
Die Summe zweier unabhängiger χ 2 -verteilter Zufallsgrößen ist wiederum χ 2 -verteilt.
χ12 = y12 + y 22 +....+ y 2f 1
χ 22 = z12 + z 22 +....+ z 2f 2
[ ] + [z ]
χ 2 = χ12 + χ 22 = y 2i
f1
2
j
1
Freiheitsgrad f 1
Freiheitsgrad f2
f2
Freiheitsgrad f 1 + f2
1
Die Größen y i und z j sind voneinander unabhängig N(0,1) verteilt. Erwartungswert E( χ 2 )
der Zufallsveränderlichen χ 2f :
χ 2f = u12 + u 22 +....+ u 2f
2
)=f
E( χ 2 ) = E( u 12 ) + E( u 22 ) +....+ E( u 2f ) = f E
u3
1(2
1
Varianz VAR ( χ 2f ) der Zufallsveränderlichen χ 2f :
VAR ( χ 2f ) = E{( χ 2f ) 2 } − {E( χ 2f )} = E( χ 4f ) − f 2
2
E( χ f4 ) = E{( u 12 + u 22 +K+ u 2f ) 2 }
= E( u 14 + u12 u 22 +K+ u 12 u 2f
+ u 22 u 12 + u 42 +K+ u 22 u 2f
M
M
+ u 2f u12 + u 2f u 22 +K+ u 4f )
+∞
E( u ) =
4
∫ u ϕ( u)du
4
(Spezialfall: u ist N(0,1) verteilt)
−∞
+∞
=
∫
−∞
4
2
u
u
−
⋅ e 2 du
2π
Allgemein gilt (aus einer Integral-Formelsammlung):
∞
I = ∫ x 2 n ⋅ e −ax dx =
2
0
1 ⋅ 3...(2 n − 1) π
; n = 0,1,2.. .
a
2 n +1 ⋅ a n
Hier: x → u; n → 2; a → +
E( u 4 ) =
1
⋅ 2I =
2π
1
; damit wird:
2
2 1⋅ 3 2
⋅ 3 ⋅ 2 ⋅ 2π = 3
2π 2
außerdem ist:
30
E( u i2 u 2k ) = E( u i2 ) ⋅ E( u 2k ) = 1⋅ 1 = 1
4
E( χ 4f ) = f ⋅ E
u3
) + ( f 2 − f ) ⋅ E( u i2 ) ⋅ E( u 2k ) = 2 f + f 2
1(2
123 123
3
1
VAR ( χ ) = E( χ ) − f
123
2
f
2
f
1
2
2f + f 2
VAR ( χ 2f ) = 2 f
Standardabweichung SA ( χ 2f ) der Zufallsveränderlichen χ 2f :
SA ( χ 2f ) = VAR( χ 2f ) = 2 f
2.2.3.3 Wahrscheinlichkeitsdichte und Streuungsparameter für m2 und m bei f Freiheitsgraden
Wahrscheinlichkeitsdichte WD(m2) des mittleren Fehlerquadrates
m 2 = [ εε] / f :
σ2 2 2
f
2
m =
⋅ χ f χ f = 2 m2
f
σ
Da WD( m2 ) und WD( χ 2f ) in einem endlichen Bereich monoton sind, gilt:
d(χ 2 )
WD( m ) =
⋅ WD( χ 2f )
d(m 2 )
d(χ 2 )
f
2 =
d( m ) σ 2
f
WD( m 2 ) = 2 WD( χ 2f )
σ
2
Bemerkung: Die Wahrscheinlichkeitsdichte WD(m) des mittleren Fehlers m läßt sich nicht in
Strenge hieraus ableiten (s. Gotthardt).
σ 2 = E( ε 2 ) =
[ εε]
n
n→∞
ungleich
m1 +...+ m ν
E( m) =
ν
ν→∞
σ = E( ε 2 ) =
[ εε ]
n
Für praktische Anwendungen werden ohnehin nur spezielle Werte der Verteilungsfunktion
VF( χ 2f ) für vorgegebene Wahrscheinlichkeiten S gebraucht. (Für spezielle Sonderprobleme
siehe Hristow: Wahr-scheinlichkeitsrechnung und mathematische Statistik)
31
Erwartungswert E( m2 ) und Varianz VAR ( m2 ) des mittleren Fehlerquadrates m2 :
σ2 2
m =
⋅ χf
f
σ2
E( m 2 ) =
⋅ E( χ 2f )
f
σ2
2
VAR ( m 2 ) = ( ) 2 ⋅ VAR( χ 2f ) = σ 4 ⋅
f
f
2
VAR( χ 2f ) = 2 f
Standardabweichung SA ( m2 ) des mittleren Fehlerquadrates:
SA ( m 2 ) = VAR( m 2 ) = σ 2 ⋅
2
f
Für f unabhängige normalverteilte Beobachtungen gelten die angegebenen Zusammenhänge
und Formeln streng.
Varianz VAR(m) des mittleren Fehlers m.
Unter der sehr problematischen Voraussetzung:
dm << m
gilt mit y = m2:
dy = 2m . dm + Gl.h.O.
VAR ( y) = (2 m) 2 ⋅ VAR( m) VAR(y) =VAR( m 2 )
σ4
1
1
1
2
4 2
VAR ( m) =
= ( 2 )⋅
2 ⋅ VAR ( m ) =
2 ⋅σ
f
2f
(2 m)
4m
m
Standardabweichung SA(m) des mittleren Fehlers m:
SA ( m) = VAR ( m) =
σ2
m
1
2f
Für alle angegebenen Formeln wird die Kenntnis von σ gebraucht. Dieser Fall tritt sehr selten
ein (z.B. wenn σ aus Erfahrung
bekannt ist).
Schätzungen:
Da σ 2 = E( m 2 ) , die Varianz der Grundgesamtheit, unbekannt ist, schätzt man die angegebenen Größen mit m2, dem aus der Beobachtungsreihe erhaltenen mittleren Fehler und nicht
mit E( m2 ) = σ 2 , der Varianz der Grundgesamtheit ab. Wegen der großen
Streuungsbreite von m2 erhält man nur sehr schlechte Schätzungen, die praktisch unbrauchbar
sind.
32
Die Schätzung für SA ( m) = SA ( m) ist z.B.
SA ( m) = m
1
("mittlerer Fehler des mittleren Fehlers")
2f
Für diesen in der Literatur häufig angegebenen Wert gelten alle Vorbehalte!
2.2.3.4 Vertrauensintervall für σ
Statt der Zufallsveränderlichen
[ε ]
=
2
χ
2
σ2
mit
E( χ 2 ) = f (hier f = n allgemein f = n - u)
wird die Zufallsveränderliche
λ2 =
χ 2 [ ε 2 ] m2
= 2 = 2
σ
f
fσ
;
λ=
m
σ
betrachtet.
E( χ 2 )
E(λ ) =
=1
f
1
2f 2
VAR (λ2 ) = 2 VAR ( χ 2 ) = 2 =
f
f
f
2
Zweiseitige statistische Sicherheit
P( λ u ≤ λ ≤ λ o ) = S
λ u ... λ o zweiseitiges Vertrauensintervall der Zufallsveränderlichen λ =
m
σ
33
P( λ ≤ λ u ) = P( λ ≥ λ o ) =
P(
α
2
m
m
α
≤ λ u ) = P( ≥ λ o ) =
σ
σ
2
P( m ≤ σ ⋅ λ u ) = P( m ≥ σ ⋅ λ o ) =
α
2
m
≤ λo ) = 1 − α = S
σ
P(σ ⋅ λ u < m < σ ⋅ λ o ) = 1 − α = S
P( λ u ≤
σ ⋅ λ u ... σ ⋅ λ o Intervall konstanter Länge, in dem mit der Wahrscheinlichkeit S die Schätz-ung
m für die Standardabweichung σ liegt.
P( m / λ o < σ < m / λ u ) = 1 − α = S
m / λ o ... m / λ u Zufallsintervall, das mit der Wahrscheinlichkeit S die Standardabweichung σ
enthält.
Die Werte λ o und λ u entnimmt man einer graphischen Darstellung. Außerdem sind die Werte
1 / λ o = γ 1 und 1 / λ u = γ 2 bei Gotthardt für verschiedene Freiheitsgrade und mehrere
Wahrscheinlichkeiten S hinreichend dicht tabuliert.
Einseitige statistische Sicherheit der χ 2 -Verteilung
(wird später beim χ 2 -Test gebraucht)
P( χ 2 < χ S2 ) = S
Beispiele: Es liegen n unabhängige N(0, σd ) verteilte Beobachtungen vor.
1) Die Standardabweichung σd der Grundgesamtheit ist bekannt σd = ±3cc
In welchem Bereich liegt der mittlere Fehler
[d ]
2
md =
n
34
bei f = n = 4 Freiheitsgraden für die Wahrscheinlichkeit S = 95 %?
σ d ⋅ λ u < md < σ d ⋅ λ o
λ u = 0,35
Für f = 4 und S = 95 % gilt:
λ o = 1,66
(untere Intervallgrenze) ; (obere Intervallgrenze)
3 ⋅ 0.35 = 1,0cc
3 ⋅ 1,66 = 5,0cc
2) Es wurde für md aus Beobachtungsdifferenzen
[d ] = 3
2
md =
cc
n
erhalten.
Wie groß ist bei S = 95 % das Vertrauensintervall für σ d ?
Bei f = n = 4
Bei f = n = 30
λ u = 0,35; λ o = 1,66
3 / 1,66 < σ d < 3 / 0,35
λ u = 0,75; λ o = 1,25
3 / 1,25 < σ d < 3 / 0,75
1,8cc < σ d < 8,6cc
m d / λ o < σ d < md / λ u
2,4 cc < σ d < 4,0cc
2.3 Statistische Zusammenhänge
normalverteilter Beobachtungen
bei
der
Ausgleichung
unabhängiger
2.3.1 Verteilung der Unbekannten xi und von Funktionen der Unbekannten
Die Unbekannten x i können als Elemente des Zufallsvektors x gedeutet werden; sie sind
lineare Funktionen der unabhängigen Beobachtungen li . p ist die fehlerfreie Gewichtsmatrix
der Beobachtungen l.
x = N −1A ' Pl = Cl
z.B. x ν = c ν1 ⋅ l1 + c ν 2 ⋅ l 2 +...+ c νn ⋅ l n
Sind die Beobachtungen unabhängig normalverteilt, so sind dieElemente des Vektors x = Cl
als Linearkombinationen der l i normalverteilt (aber nicht mehr voneinander unabhängig; C
hat den Rang u < n) mit den Erwartungswerten E( x i ) = ξ i und den Varianzen σ 2xi = σ 20 ⋅ Q xi x i .
35
( σ 20 = mittleres Fehlerquadrat der Gewichtseinheit, Q x i xi = Diagonalelementder Matrix Q xx .)
Entsprechendes gilt für lineare Funktionen der Unbekannten
F = f ' x = f ' C ⋅ l = g1 ⋅ l1 + g 2 ⋅ l 2 +...+ g n ⋅ l n
E( F) = f ' E ( x)
Q FF = f ' Q xx f = f ' C ⋅ Q ll C' f
σ 2F = σ 20 ⋅ Q FF
Für linearisierte Funktionen gilt die Normalverteilung der Funktionen in guter Näherung.
2.3.2 Statistische Eigenschaften
Fehlerquadrates m20
der
Verbesserungen
vi
und
des
mittleren
Zusammenhang zwischen N-, t- und χ 2 -Verteilung.
Ungleichgewichtige unabhängige Beobachtungen Li ~ N (ξ i , σ i ) :
L1; strenges Gewicht π 1 =
σ 20
σ 12
σ 20
π2 = 2
σ2
L2 ;
M
M
πn =
Ln ;
σ 20
σ 2n
PLL
 1
 2
σ
= σ 20 

 0


0

O

1

σ2 
−1
Q LL = PLL
K LL = σ 20 ⋅ Q LL
Übergang zu gleichgewichtigen Beobachtungen l i ~ N (ξ i , σ 0 ) mit der Varianz σ 20 :
L1 π 1 = 11
Q ll = Pll−1 = E
L 2 π 2 = 12
K ll = σ 20 ⋅ E
M
L n π n = 1n
 L1 
 
Fehlergleichungssystem für l =  M 
 
 Ln 
l + v = A⋅x; P
1
1
P 2 ( l + v) = P 2 ⋅ A ⋅ x
36
 l1 
 
Fehlergleichungssystem für l =  M 
 
 ln 
l+ v = A⋅x
v' v = Minimum
x = N −1A ' l = (A ' A ) −1 A ' l mit N -1 = (A ' A ) −1
v = A ⋅ x − l = (AN −1A '− E) ⋅ l
( −1 ' )'
Q v ,x = (A ⋅ N −1A '− E) ⋅ Q
{ll N A
E
−1
= (A ⋅ N A '− E) ⋅ (A ⋅ N −1 )
= A ⋅ N −1A ' A ⋅ N −1 − A ⋅ N −1 = 0
A ' A ⋅ N −1 = E
 x
Für den Vektor   gilt also:
 v
Q xv = 0
 Q xx
Q ( n+ u, = 

Q vv 
 Q vx = 0
n+ u )
u-Spalten n-Spalten
Die Unbekannte x i ist also mit irgendeiner Verbesserung v j unkorreliert.
Dann ist auch die Quadratsumme [ v 2 ] = [ πvv ] unkorreliert mit den Unbekannten x i der
Ausgleichung.
Es gilt, wenn P = E und e' = ( ε 1 ,..., ε n )
v' v = e' e − e' A ⋅ N −1A ' e
 e'   e   e' 
 e
1
1
   −   A ⋅ N −1A '   mit
e=u
2 v' v = 
σ0
σ0
 σ 0   σ0   σ 0 
 σ0 
= u' u − u' A ⋅ N −1A ' u
Der Vektor u enthält n Elemente, die unabhängig N(0,1) verteilt sind.
1
v' v = u' (E - A ⋅ N -1A ' ) ⋅ u
σ 20
Für die weitere Ableitung wird der Vektor u der n unabhängigen
N(0,1) verteilten Größen ui mit der Orthogonalmatrix G orthogonalisiert:
37
mit G ⋅ G ' = E und G' = G −1
y = G⋅u
Beziehungen zwischen den Elementen der Vektoren y und u: Quadratsumme
y' y = u' G
' G ⋅ u = u' u
{
E
[y ] = [ u ]
2 n
1
2 n
1
Kovarianzmatrix K yy :
K yy = G ⋅ K uu G ' mit K uu = E
K yy = G ⋅ G ' = E = K uu
Die y i sind wie die u i voneinander unabhängig mit σ y = 1.
Verteilung der y i :
n
n
 1  − 21[ u 2 ]  1  − 21[ y 2 ]
= ϕ ( y1, , y 2 ... y n )
=
ϕ( u1 , u 2 ... u n ) = 
 e
 e
 2π 
 2π 
Die y i sind also genau wie die u i N(0,1) verteilt.
Mit der orthogonalen Transformation y = G ⋅ u bzw. u = G ' y wird:
y' y [ vv]
= 2 = y' G ( E − AN −1A ')G ' y
σ 20
σ0
Die Matrix A ⋅ N −1A ' mit Rang u ist gleich ihrem Quadrat
( A ⋅ N −1 A
')(3
A ⋅ N −1A ') = A ⋅ N −1A ' mit N ⋅ N -1 = E
12
N
Matrizen mit dieser Eigenschaft heißen "idempotent". Für diese Matrizen gilt u.a. (siehe Koch)
ganz allgemein:
Ist die (n,n)-Matrix C mit Rang r "idempotent", so ist auch die (n,n)-Matrix (E - C) mit Rang
(n - r) idempotent. Ist die Matrix (E - C) mit Rang f = (n - r) idempotent und symmetrisch, so
gibt es eine orthogonale Matrix G, so daß gilt:
 E ( f ,f )
G ( E − C) ⋅ G ' = 
 σ ( r ,f )
σ ( f ,r ) 

σ ( r ,r ) 
Hier ist C = A ⋅ N −1A '
38
Die Voraussetzung "idempotent", "symmetrisch" gilt mit n = Anzahl der Beobachtungen,
r → u Anzahl der Unbekannten und f = n − u als Freiheitsgrad. Damit wird:
[ ]
v' v
1 2
v
2 =
σ0
σ 20 i
[ vv] [ πvv]
σ 20
=
n
1
 E ( f ,f )
= y' 
 σ
σ
 ⋅ y = y 2i
σ
[ ]
f
1
= χ 2f
σ 20
läßt sich also durch die Quadratsumme von f = n - u Größen darstellen, die unab-hängig
[ vv] [ πvv]
ist χ 2f - verteilt mit f = n - u Freiheitsgraden.
N(O,1) verteilt sind, d.h. 2 =
2
σ0
σ0
Das mittlere Fehlerquadrat der Gewichtseinheit m20 (Schätzung für σ20 ) ist dann:
m =
2
0
[ vv]
f
σ 20 2
σ 20
2
=
⋅ χ f mit f = n - u; E(m 0 ) =
⋅ E( χ 2f ) = σ 20
f
f
σ 20
.
σ i2
Müssen geschätzte Gewichte p i benutzt werden, gelten die Zusammen-hänge entsprechend
der Güte der Schätzungen p i nur mehr oder weniger näherungsweise.
Hinweis: Diese Zusammenhänge gelten nur bei Kenntnis der strengen Gewichte π i =
Ist x i N( ξ i , σ i ) mit σ i = σ 0 Q ii (Schätzung
Zufallsveränderliche der t-Verteilung:
t=
m i = m o Q ii ) verteilt, so gilt für die
xi − ξi xi − ξ i σ i
1
σ
=
⋅
= u⋅ 0 = u⋅
mi
mi
m0
σi
χ 2f / f
u und χ 2f sind wegen der Korrelationsfreiheit der Verbesserungen mit den Unbekannten
(Q vx = σ ) voneinander unabhängig, also auch x i und mi . Die Wahrscheinlichkeitsdichte der
gerade benötigten t-Verteilung hängt also genau wie bei der χ 2f -Verteilung nur noch vom
Freiheitsgrad f = n - u ab.
2.3.3 Vertrauensintervalle für die Erwartungswerte ξ i
Voraussetzung: unabhängige, normalverteilte Beobachtungen und Gültigkeit des funk-tionalenund des stochastischen Modells
E( x i ) = ξ i
P( − t s ≤
xi − ξi
≤ +t s ) = S
m xi
P( x i − t s m xi ≤ ξ i ≤ x i + t s m xi ) = S
39
mit m xi = m0 Q ii =
[ vv]
n−u
⋅ Q ii ;
Freiheitsgrad zur Bestimmung von t s : f = n − u
Beispiel: Gleichung eines 1m - Maßstabes
Punktschätzungen
l i + v i = x i + x 2 ( t i − 20o )
in [µm] (i = 1...7)
Abweichung vom Sollmaß bei 20o : x i = +3,2 [µm]
Ausdehnungskoeffizient
: x 2 = +1,3 [µm/ o C]
 + 0,1020 + 0,0102
Q xx = 

 + 0,0102 + 0,0216
Matrix der Gewichtskoeffizienten der Unbekannten
Freiheitsgrad
[ vv] = 45,13[(µm) 2 ]
: f = n − u = 7−2 = 5
Mittlerer Gewichtseinheitsfehler: m 0 =
45,13
= ±3,0 [µm]
5
Mittlere Fehler der Unbekannten:
m x1 = 3,0 ⋅ 0,1020 = ±0,96 [µm]
m x2 = 3,0 ⋅ 0,0216 = ±0,44 [µm/ o C]
Intervallschätzungen
Vertrauensintervall für die Unbekannten (S = 95%)
Für S = 95% ist bei f = 5 : t s = 2,57
x i − t s ⋅ mx i ≤ ξ i ≤ x i + t s ⋅ mx i
3,2 − 2,57 ⋅ 0,96 ≤ ξ1 ≤ 3,2 + 2,57 ⋅ 0,96
+ 0,7 ≤ ξ1 ≤ +5,7 [µm]
Theoretisch wird in 95% aller Fälle das entsprechend berechnete Intervall den Erwartung-swert
ξ1 enthalten.
1,3 − 2,57 ⋅ 0,44 ≤ ξ 2 ≤ 1,3 + 2,57 ⋅ 0,44
0,2 ≤ ξ 2 ≤ 2,4 [µm/ o C]
40
Vertrauensintervall für den Erwartungswert Φ einer Funktion F
F = Abweichung des Maßstabes vom Sollwert bei t = 17o C
F = x1 + x2 ( t − 20o )
F = x1 + 3 x2
= 3,2 − 3,9 = 0,7 [µm]
(Punktschätzung)
Q FF = Q11 − 6Q12 + 9Q 22
= 0,1020 − 0,0612 + 0,1944 = 0,2352
m F = 3,0 ⋅ 0,2352 = ±1,46 [µm]
(Intervallschätzung)
− 0,7 − 2,57 ⋅ 1,46 ≤ Φ ≤ −0,7 + 2,57 ⋅ 1,46
− 4,4 ≤ Φ ≤ 3,0 [µm]
2.3.4 Vertrauensintervalle für die Standardabweichungen σ 0 , σ xi , σ F
Für die Werte χ 2 , λ o , λ u ist der Freiheitsgrad f = n − u zu benutzen.
P(σ 0 ⋅ λ u ≤ m 0 ≤ σ 0 ⋅ λ o ) = S
P( m0 / λ o ≤ σ 0 ≤ m0 / λ u ) = S
Beispiel: Maßstabsgleichung (Abschnitt 2.3.3)
Für S = 95% wird bei f = 5 : λ o = 1,60 ; λ u = 0,405
m 0 = ±3,0 [µm] (Punktschätzung)
3,0 / 1,60 ≤ σ o ≤ 3,0 / 0,405
1,9 ≤ σ o ≤ 7,4 [µm] (Intervallschätzung)
Für m x1 = m0 ⋅ Q11 = ±0,95 [µm] gilt bei S = 95% und f = 5 :
0,95 / 1,60 ≤ σ x1 ≤ 0,95 / 0,405
0,6 ≤ σ x1 ≤ 2,3[µm]
41
Für m x2 = m 0 ⋅ Q 22 = ±0,44 [µm/ o C] gilt bei S = 95% und f = 5 :
0,44 / 1,60 ≤ σ x 2 ≤ 0,44 / 0,405
0,3 ≤ σ x 2 ≤ 11
, [µm/ o C]
Für m F = m 0 ⋅ Q FF = ±1,46 [µm] gilt bei S = 95% und f = 5 :
1,46 / 1,60 ≤ σ F ≤ 1,46 / 0,405
0,9 ≤ σ F ≤ 3,6 [µm]
3 Prüfung des mathematischen Modells durch statistische Tests
3.1 Allgemeine Grundlagen
Hypothese: Annahme über das mathematische Modell (z.B. Verteilung einer Zufallsveränderlichen, Abweichungen vom Erwartungswert, Korrelation zwischen zwei Zufallsveränderlichen).
Man unterscheidet entsprechend rein zufallsbedingte und "signifikante" (statistisch gesicherte)
Abweichungen.
Test: Prüfverfahren, ob man die Hypothese "annehmen" oder zugunsten einer Alternative
"verwerfen" soll. (Wegen der stochastischen Einflüsse ist die Feststellung "richtig" oder
"falsch" für die Hypothese unmöglich.)
Für die Grenze zwischen Verwerfen und Nichtverwerfen (Annahme) der Hypothese wählt man
problemorientiert eine Signifikanzzahl α . (Andere Bezeichnungen sind ebenfalls üblich: z.B.
Verwerfungs-wahrscheinlichkeit, Irrtumswahrscheinlichkeit, Sicherheitsgrenze mit S = 1 − α
in unseren Nomogrammen).
Der zu α bzw. S gehörende Wert der Zufallsveränderlichen X wird mit Hilfe der Hypothese als
"kritischer Wert" berechnet.
Beispiel:
Hypothese: In einem Nivellementsnetz seien die Schleifenwidersprüche (Zufallsveränder-liche
X ) unabhängig N (0, σ = ±0,3mm) verteilt. In einer Schleife ist x = 0,9 mm m. Weicht dieser
Wert rein zufällig von der Hypothese ab oder handelt es sich bei w = + 0,9 mm um eine
signifikante Abweichung?
Die vom praktischen Problem abhängige Verwerfungswahrscheinlichkeit (Signifikanzzahl) sei
α = 5% .
Prüfgröße:
u=
x−ξ
σx
Für u < u α : Hypothese annehmen (nicht verwerfen) u > uα : Hypothese ablehnen (verwerfen
zugunsten einer Alternative)
42
Zwei Alternativen sind (abhängig vom praktischen Problem) möglich:
1. Fall: Einseitiges Problem :
u < − uα
wenn u < 0,
u >
wenn u > 0.
oder
uα
2. Fall: Zweiseitiges Problem:
u < − u α/2 und
u > u α/2
Im Beispiel: u =
+ 0,9 − 0
= +3,0
0,3
Beim einseitigen Test (nur die positiven Schleifenwidersprüche interessieren):
Aus Tabelle A für:
Φ( u α ) = 0,95
u α = +1,65 (kritischer Wert für die Prüfgröße)
u = +3,0 > u α = 1,65
Die Hypothese wird zugunsten der Alternative für die einseitige Fragestellung verworfen, da u
im Signifikanzbereich u α ...∞ liegt.
Bei zweiseitiger Fragestellung (es interessiert unabhängig vom Vorzeichen der Absolutbetrag
der Schleifenwidersprüche):
43
Aus Tabelle A für Φ( u α / 2 ) = 0,975
u α /2 = ±1,96
u = 3,0 > u α /2 = 1,96 (kritischer Wert für die Prüfgröße)
Die Hypothese wird zugunsten der Alternative für zweiseitige Fragestellung verworfen, da u
im Signifikanzbereich ± u α ... ± ∞ liegt.
3.2 Fehler erster und zweiter Art
Einseitiger Test
Hypothese: Die Zufallsveränderliche ∆ ist N(0, σ) verteilt
Alternative: E( ∆ ) > 0
Richtiges Modell: Die Zufallsveränderliche ∆ ist N(E( ∆), σ ) verteilt.
Fehler erster Art: α%
In α% aller Fälle ist bei Gültigkeit der Hypothese ∆ i ≥ ∆ α zu erwarten. Die Hypothese wird
in diesen Fällen verworfen, obgleich sie richtig ist. Das tritt mit der Wahrscheinlichkeit ≤ α
ein, wenn α als Sicherheitsgrenze (Irrtumswahrscheinlichkeit) gewählt wurde.
Fehler zweiter Art: β%
Ist ∆ i < ∆ α , so wird die Hypothese nicht verworfen, obgleich sie falsch ist. Die zugehörige
Wahrscheinlichkeit dafür ist β . Je geringer die Abweichung des richtigen Modells von der
Hypothese ist, um so größer wird der Fehler zweiter Art.
In beiden Fällen wird ein fehlerhaftes Urteil gefällt.
44
Entsprechend gilt beim zweiseitigen Test:
Hypothese: E( ∆) = 0 (wie beim einseitigen Test)
Alternative: E( ∆) ≠ 0
Für die weitergehende einführende Behandlung der Probleme der Entscheidung auf Grund
statistischer Tests siehe Hein, Kreyszig und Spiegel.
3.3 Prüfung von Verteilungen
3.3.1 χ 2 -Test zur Prüfung von beliebigen Verteilungen ohne unbekannte Parameter
(einseitiger Test)
Gegeben ist eine Stichprobe von n Werten, die in ν Klassen ein-geteilt ist.
Hypothese: Die empirische Verteilung weicht nur zufällig von einer bekannten theoretischen
Verteilung ab. (Gilt für diskrete und stetige Verteilungen)
n = Anzahl aller Größen
n i = Anzahl in der i - ten Klasse; 1...i... ν
p i = Wahrscheinlichkeit dafür, daß die Größe in der i - ten Klasse
liegt (muß bekannt sein!)
np i = theoretisch zu erwartende Anzahl in der i - ten Klasse
ν
( n i − np i ) 2
∆2
=∑ i
np i
i =1
i =1 np i
ν
Prüfgröße: χ 2 = ∑
∆2i
genügt asymptotisch einer χ 2 -Verteilung
Die Größe χ = ∑
np
i =1
i
ν
2
mit dem Freiheitsgrad f = ν − 1.
45
Bemerkung: [ ∆] = ∑ ( n i − np i ) = ∑ n i − n ∑ p i = 0
123
1
23
n
1
d.h. die ∆i - Werte sind nicht voneinander unabhängig, deshalb ist f = ν − 1.
Die
Hypothese
wird
2
2
verworfen für χ > χ S .
Wahrscheinlichkeitsdichte χ 2
für Freiheitsgrad
f = ν−1
χ S2 ist der Tabelle für einseitige statistische Sicherheit S = 1 − α beim Freiheitsgrad f = ν − 1
zu entnehmen.
Bemerkungen zur Klasseneinteilung:
Da die Prüfgröße nur asymptotisch χ 2 verteilt ist, soll die Klasseneinteilung so erfolgen, daß
np i ≥ 5 (nach Kreyszig).
Hinweis:
Andere Autoren geben andere Bedingungen an:
1.) np i ≥ 1 und für 80% der Klassen np i ≥ 5 (nach Pfanzagl).
2.) Die Bedingung für npi hängt von der Anzahl der Freiheitsgrade ab, d. h. von der
Anzahl der Klassen:
Bei f > 6 darf ein Wert npi auf 1/2 heruntergehen oder zwei Werte np i auf 1 (nach
v.d. Waerden).
Falls die Bedingung für np i nicht erfüllt ist, müssen mehrere Klassen zusammengefaßt werden.
Bei qualitativen Merkmalen ist das nicht immer sinnvoll möglich.
Bei fester Klassenzahl erhält man die zuverlässigsten Testergebnisse, wenn die theoretische
Häufigkeit np i in allen Klassen gleich groß ist.
46
1. Beispiel: Augenzahl beim Würfeln
1. Versuch
Augenzahl beobachtete theoretische Anzahl
1
2
3
4
5
6
ni
np i
∆ i = n i − np i
∆2i
np i
18
23
15
14
12
14
16
16
16
16
16
16
+2
+7
-1
-2
-4
-2
0,25
3,06
0,06
0,25
1,00
0,25
96
96
0
χ 12 = 4,87
2. Versuch (der gleiche Würfel wie beim 1. Versuch, aber 2, 3, 4, 5 mit Tesafilm beklebt)
1
2
3
4
5
6
f =5
11
12
11
23
22
17
16
16
16
16
16
16
-5
-4
-5
+7
+6
+1
1,56
1,00
1,56
3,06
2,25
0,06
96
96
0
χ22 = 9, 49
α = 5%
α = 1%
χ S2 = 111
,
χ S2 = 15,1
α vor dem Test
festlegen!
χ12 < χ S2 ; χ 22 < χ S2
Feststellung: Die Abweichungen des benutzten Würfels von einem idealen Würfel sind so
gering, daß sie mit je 96 Würfen noch nicht nachgewiesen werden können.
Falsch wäre die Feststellung: Die Versuche wurden mit einem idealen Würfel durchgeführt.
47
2. Beispiel: (aus Marzahn - Untersuchungen an Invarband-Nivellierlatten, Veröff. der DGK,
Reihe C, Nr. 22, S. 25) Zehntelschätzung am Planplattenmikrometer
Hypothese: Jedes Zehntel wird gleich häufig geschätzt
Schätzstelle
i
ni
np i
∆ i = n i − np i
∆2i
np i
0
1
2
3
4
5
6
7
8
9
275
288
230
133
121
96
101
144
192
220
180
180
180
180
180
180
180
180
180
180
+95
+108
+50
-47
-59
-84
-79
-36
+12
+40
50
65
.
.
.
.
.
.
.
.
1800
1800
0
χ 2 > 115
f =9
α = 5%
χS2 = 16,9
α = 1%
χ S2 = 21,7
α = 0,1%
χ S2 = 27,9
χ 2 >> χS2
Die Hypothese wird verworfen mit einer Irrtumswahrscheinlichkeit α < 0,1%; d.h. die
Zehntel werden nicht gleichhäufig geschätzt.
Das Auftreten persönlicher Schätzfehler ist signifikant ("statistisch gesichert").
48
3. Beispiel (s. Kneissl, Sigl - Geodätische Beiträge zur naturwissenschaftlichen Erforschung
Bayerns, Bayer. Akademie der Wissenschaften, Abh. Neue Folge, Heft 87, S. 21)
Gleichzeitige, synchrone trigonometrische Höhenmessungen zweier Beobachter mit zwei
nebeneinander stehenden Instrumenten.
Beobachter
Sigl
v Scc
+ 4,6
+ 3,7
+ 6,4
+ 0,1
- 1,1
+ 4,9
+ 0,1
- 1,1
- 4,1
- 1,4
+ 0,1
- 1,4
- 1,1
- 5,9
- 3,5
Marzahn
v ccM
+ 1,5
+ 1,5
+ 6,5
- 3,5
+ 2,5
+ 9,5
+ 2,5
- 6,5
- 5,5
- 1,5
+ 2,5
- 5,5
- 2,5
- 1,5
- 0,5
Hypothese: Die beiden Beobachtungsreihen sind voneinander unabhängig; d.h. die
Vorzeichenkombinationen (+,+); (+,-); (-,-); (-,+) treten gleich häufig auf.
Bemerkung: Es gibt spezielle Vorzeichen- und Anordnungstests (vgl.z.B. v. d. Waerden), hier
soll der χ 2 -Test mit zwei Klassen (gleiche Vorzeichen p g = 0,5 und ungleiche Vorzeichen
pu = 0, 5) benutzt werden.
Klassenmerkmal
ni
np i
∆ i = n i − np i
∆2i
np i
Gleiche Vorzeichen
ungl. Vorzeichen
13
2
7,5
7,5
+5,5
-5,5
4,05
4,05
0
8,10
15
f = 1
α = 5%
χ2S = 3, 84
= 1%
= 6, 63
= 0, 1%
= 10, 8
49
Mit einer Irrtumswahrscheinlichkeit, die kleiner als α = 1% ist, ist die Hypothese zu
verwerfen.Es ist statistisch gesichert, daß die Beobachtungsreihen nicht voneinander
unabhängig sind, wenn der kritische Wert für α = 1% zugrunde gelegt wird.
3.3.2 χ 2 -Test zur Prüfung von
insbesondere Normalverteilungen
Verteilungen
mit
unbekannten
Parametern,
Sind die Parameter der Verteilung unbekannt, so müssen entsprechende Schätzungen eingeführt werden:
Für Erwartungswert ξ und Standardabweichung σ z.B. für ξ für σ Freiheitsgrad von χ 2 bei
ν Klassen
a)
[ εε]
m=
0
b) x =
[ l]
n
n
m=
[ vv]
n −1
f = ν -1-1
f = ν -1-2
c) werden u Unbekannte und der mittlere Gewichtseinheitsfehler geschätzt
f = ν - 1 - (u + 1)
Bei einem Stichprobenumfang von n Werten sind im Intervall x i ... x i +1
{
}
n Φ ( x i +1 ) − Φ( x i ) = n ⋅ ∆Φ i
Werte theoretisch zu erwarten.
Berechnung von Φ( x i ) für eine Normalverteilung siehe Abschnitt 1.2.5
Prüfgröße: χ 2 = ∑
( n i − n ⋅ ∆Φ i ) 2
∆2i
=∑
n ⋅ ∆Φ i
n ⋅ ∆Φ i
Zur Klasseneinteilung gelten dieselben Grundsätze wie im Abschnitt 3.3.1.
Beispiel: (Böhm - Statistische Prüfung von Meßergebnissen auf Normalverteilung, ZfV 1965
S. 83 - 90)
Hypothese: Die 227 Dreiecksschlüsse w im tschechischen Grundnetz stammen aus einer
normalverteilten Grundgesamtheit N(ξ, σ ) ohne konstanten systematischen Fehler.
ξ = E( w ) = 0 in der Hypothese fest vorgegeben.
Für σ wird die aus der Stichprobe gewonnene Schätzung m w =
[ w ] / 227 = 0,66' '
2
benutzt.
50
w''
u=
-2,64
-4,0
-1,98
-1,65
-3,0
-2,5
w
mw
Φ( u)
-0,99
-1,5
0,0668
-0,66
-1,0
0,1587
-0,33
-0,5
0,3085
0
0
0,5000
+0,33
+0,5
0,6915
+1,32
+1,65
+1,98
+2,64
+1,5
+2,0
+2,5
+3,0
+4,0
0,0013
1
0,3
0,0049
2
1,1
0,0166
4
0,0440
9
0,0919
∆Φ( ui ) ∆ i
∆2
n ⋅ ∆Φ( u i )
5,2
+1,8
0,6
10,0
-1,0
0,1
16
20,8
-4,8
1,1
0,1498
35
34,0
+1,0
0
0,1915
43
43,5
-0,5
0
0,1915
53
43,5
+9,5
2,1
0,1498
27
34,0
-7,0
1,5
0,0919
22
20,8
+1,2
0
0,0440
10
10,0
0
0
0,0166
5
3,8
0,0049
0
1,1
-0,2
0
0,0013
0
0,3
0
5,4
0,0062
0,0228
+0,99
n⋅
0,0013
-2,0
+1,0
ni
0,0000
-1,32
+0,66
∆Φ( u)
7
3,8
0,8413
0,9332
0,9772
0,9938
0,9987
1,0000
5,2
5
4 n 4= 2
27
Freiheitsgrad:
f = ν − 1 − 1 = 10 − 2 = 8
α = 5%
227
χ 2 < χ S2
χ S2 = 15,5 ;
51
Feststellung:
Die Hypothese, daß die Dreieckswidersprüche N(0,±0,66'') verteilt sind, wird durch den Test
nicht widerlegt.
Aus einer Spezialtafel für die χ 2 -Verteilung entnimmt man P( χ 2 ≤ 5,4) = 0,29 .
3.4 Prüfung von gemessenen bzw. ausgeglichenen normalverteilten Größen
3.4.1 Abweichung einer Größe von ihrem Erwartungswert
Voraussetzung: Normalverteilte Größen (zumindest näherungsweise).
Aus den Messungen werden bestimmt:
x
mx
Beobachtung, Mittelwert, Unbekannte der Ausgleichung, Funktionswert
Schätzung für die Standardabweichung von x
f
Freiheitsgrad von m x = m 0 ⋅ Q xx
f = n - 1 bzw. f = n - u
m x hat den gleichen Freiheitsgrad wie m0
ξ
wird als bekannt vorausgesetzt als E(x)
Test
Hypothese:
E(x) = ξ d.h.
Alternative:
E( x − ξ) ≠ 0
E (x - ξ ) = 0
(zweiseitiger Test)
E( x − ξ) > 0
(einseitige Tests)
bzw. E(x − ξ) < 0
Prüfgröße: t =
Wahl des Tests u. der
Signifikanz-grenze
α
hängen
von der Problemstellung ab.
x−ξ
mx
vgl. Abschnitt 2.2.2.3: Für den zweiseitigen Test gilt:
P( − t S ≤
x−ξ
≤ +tS ) = S = 1 − α
mx
52
Ist die Prüfgröße t ≥ t S für den Freiheitsgrad f, so wird die Hypothese mit einem Fehler erster
α
α
Art α 2 ≤ α = 1 − S 2 (zweiseitiger Test) bzw. α 1 ≤ = 1 − S 2 −
(einseitiger Test)
2
2
verworfen.
t S entnimmt man einem Nomogramm der t-Verteilung für den Freiheits-grad f.
1. Beispiel:
Eine Nivellementsschleife von 1 km Länge wird von zwei Beobachtern je zehnmal gemessen:
ξ = 0 (zweiseitiger Test)
1. Beobachter
x1 =
m12 =
[ ε ]1
n
2. Beobachter
= −0,7 mm
[ εε ]1 −
[ ε]12
n
n −1
57 − 4,9 52,1
=
=
9
9
m1 = ±2,4 mm
f1 = 9
2,4
m x1 =
= ±0,8mm
10
Prüfgrößen :
t1 =
x2 =
x1 − 0 0,7
=
= 0,9
m x1
0,8
m22 =
[ ε] 2
n
= +0,5mm
[ εε] 2 −
[ ε] 22
n
n −1
93 − 2,5 90,5
=
=
9
9
m2 = ±3,2 mm
f2 = 9
3,2
m x2 =
= ±1,0mm
10
t2 =
x 2 − 0 0,5
=
= 0,5
m x2
1,0
Der graphischen Darstellung der t-Verteilung entnimmt man für
f = 9 : t s = 2,25 (α 2 = 5%; S = 95% )
t s = 2,25 > t 1 > t 2
53
Durch den Test ist die Hypothese nicht widerlegt, daß die Schleifenschlußfehler den
Erwartungswert 0 haben. Die Abweichungen x 1 und x 2 von Null sind statistisch nicht gesichert (nicht signifikant).
Bemerkung:
Die Durchführung eines t-Testes ist in diesem Beispiel unnötig, da x - ξ < m x ist. Bei
α 2 = 5% besteht erst für x - ξ > 1,96 ⋅ mx Anlaß, die Hypothese unter Umständen zu
verwerfen.
2. Beispiel: Beobachtungsdifferenzen
Gemessen: Beobachtungspaare x i , yi (zweiseitiger Test)
Hypothese:
E ( x) = E ( y)
Alternative:
E(d ) ≠ 0
E ( x) − E ( y) = 0
E ( x − y) = 0
δ = E(d ) = 0
(Ochsenhirt - Untersuchung von Feinnivellierlatten mit Invarband, ZfV 1956).
Lattenabweichung beim Vergleich mit einem Normalmaßstab:
Latte
Nr.
x
liegend
y
stehend
d
v
1
2
3
4
5
+24 µ
+22
+14
+14
+19
+21 µ
+16
+15
+15
+18
-3 µ
-6
+1
+1
-1
-1,4 µ
-4,4
+2,6
+2,6
+0,6
[ d ] = 64
-8
2
[ d ] = 48
2
d=
[d]
n
= −1,6µ; [ vv] = 35,20
( n ... Anzahl der Latten)
54
35,20
= ±2,97µ; f = n − 1 = 4
4
m
m d = d = ±1,33µ
n
md =
Pr üfgröße : t =
d −δ
1,6
=
= 1,2
md
1,33
S = 95%, α 2 = 5% t s = 2,78 > 1,2
Die Hypothese ist nicht widerlegt, d.h. die Unterschiede im Lattenmeter zwischen horizon-taler
2
und vertikaler Lage sind nicht statistisch gesichert, obgleich [ d ] > [ d 2 ] ist.
3. Beispiel: In einer Ausgleichung ermittelte Korrektionsglieder (Marzahn - Untersuchungen an
Invarband - Nivellierlatten; Veröffentl. d. DGK, Reihe C, Nr. 22)
Längenänderungen der Lattenteilung infolge von Temperatur-änderungen und zeitlichen
Alterungserscheinungen.
L i + v i = 1m + K + α( t i − 20 o ) + β(d i − d 0 ) ; p i = 1
= Abweichung des Lattenmeters von 1 m bei 20 o am Tage d 0
= lineare Änderung des Lattenmeters für 1o Temperaturänderung
β
= lineare Änderung des Lattenmeters innerhalb eines Tages
d i - d 0 = Zeitdifferenz in Tagen zwischen dem Beobachtungstag und dem Bezugstag
d0 .
K
α
Bemerkung: Dieser Ansatz ist nur möglich, wenn ( t i − 20 o ) und ( d i - d 0 ) nicht linear
abhängig sind.
Die Lattenbestimmung wurde in der Zeit vom 7.2. bis zum 18.2.1955 bei den sechs
Temperaturen 14o , 19o , 25o , 22o , 17o , 10o (zeitliche Rehenfolge) durchgeführt.
Ergebnis für Latte "K1", 2. Teilung:
K = ( +11,8 ± 1,3) [µ]
α = ( +1,51 ± 0,21) [µ /1o C]
β = ( −0,66 ± 0,23) [µ / 1Tag]
n = 6; u = 3; f = 3
Konstruktionsprinzip: Temperaturkompensation, keine zeitlichen Änderungen des Lattenmeters. (zweiseitige Tests)
Hypothesen:
E(α) = 0
Prüfgrößen:
tα =
α
mα
E (β ) = 0
tβ =
β
mβ
(Die Prüfgrößen
sind nicht unabhängig voneinander)
55
Kritische Werte:
f = 3; α 2 = 1 − S = 5%, t s = 3,2; α 2 = 1 − S = 1%, t s = 5,9
tα =
1,51
= 7,2 > 5,9
0,21
tβ =
0,66
= 2,9 < 3,2
0,23
Es ist statistisch gesichert ( α ≤ 1% ), daß die Temperaturkompensation konstruktiv nicht
vollständig erreicht ist bzw. die ge-wählte Meßanordnung reicht in diesem Fall aus, um die
lineare Temperaturabhängigkeit des Lattenmeters statistisch gesichert nachzuweisen.
Eine statistisch gesicherte zeitliche Änderung des Lattenmeters läßt sich dagegen aus den
vorliegenden Messungen nicht nachweisen.
Die Tests sagen aber nichts darüber aus, ob das benutzte mathematische Modell richtig und
vollständig ist.
3.4.2 Unterschied zwischen zwei normalverteilten Größen
3.4.2.1 Hypothese und Prüfgröße
1. Meßreihe
l1 ; v1
l2 ; v2
M
M
l n1 ; v n1
2.Meßreihe
L1 ; V1
L2 ; V2
M
M
M
L n2
x=
m'0 =
[ l]
y=
n1
[ vv]
n1 − 1
m x = m'0
1
n1
M
; Vn2
[ L]
m0'' =
n2
[ vv]
n2 − 1
m y = m''0
1
n2
Hypothese : E(x) = E(y)
d. h E ( x − y) = E ( ∆ ) = 0
Alternative:
E(x) ≠ E(y)
(zweiseitiger Test)
E(x) > E(y)
bzw. .
E(x) < E(y)
(einseitige Tests)
56
Prüfgröße: t =
x−y
∆
=
m∆
m∆
Ist die Prüfgröße t ≥ t s für den Freiheitsgrad f, so wird die Hypothese mit einem Fehler erster
Art α 2 ≤ 1 − S 2 verworfen (zweiseitiger Test).
Tabuliert ist t S2 . Der Wert t S1 für den einseitigen Test läßt sich der Tabelle bei S 2 = S1 − α 1
entnehmen.
3.4.2.2 Beoba
gleicher
chtungen
Genauigkeit
Zur Durchführung des t-Tests muß der mittlere Fehler m∆ der Differenz ∆ = x − y und der
zugehörige Freiheitsgrad f berechnet werden.
Voraussetzgen.:
Die Beobachtungen sind voneinander unabhängig undnormalverteilt mit gleicher
Standardabweichung σ 20 .Die zweite Voraussetzung E( m 20 ') = E( m 20 '') = σ 20 kann mit
Hilfe eines F-Tests überprüft werden (siehe Abschnitt 3.5), wenn die Stichproben
ausreichend viele Elemente enthalten.
Man kann sich vorstellen, daß die Unbekannten x und y in einer gemeinsamen Ausgleichung
gleich genauer Beobachtungen bestimmt werden (n1 + n2 Beobachtungen: 2 Unbekannte).
Quadratischer Mittelwert aus m 0 ' und m 0 ' ' : m0 =
[ vv] + [ vv]
n1 + n 2 − 2
(das ist der mittlere Fehler einer Beobachtung l i ' oder l i ' ' .
Freiheitsgrad: f = n1 + n 2 − 2
57
1
n1
∆ = x−y
Q xx =
Q yy =
1
n2
Q xy = 0
1
1
Q ∆∆ = Q xx − 2Q xy + Q yy = +
{
n1 n 2
0
m∆ = m0 ⋅ Q ∆∆ = m0 ⋅
1
1
+
n1 n 2
Beispiel:
Kneißl - Zur Anlage einer Prüfstrecke und Eichung von 2 m-Basislatten, ZfV 1956, S. 335 ff.
A − E ≈ 100m
H − M ≈ 8m
Die Länge der Prüfstrecke AE wurde indirekt über die Hilfsstrecke HM bestimmt.
Gemessen wurden jeweils die Hilfsstrecken HM und die parallaktischen Winkel γ 1 und γ 2 .
Länge der Strecke A-E wenn
H-M mit Normalmeterstäben gemessen
l i [ m] v i [ mm]
100,116.2 -0,15
9.8 -3,45
6.6 -0,25
9.5 -3,15
3.4 +2,95
2.6 +3,75
x = 100,116.35
[ vv] = 44,64
44,64
= ±3,0mm
5
m '
m x = ± 0 = ±1,2 mm
6
m0 ' =
H-M mit geeichtem Stahlmeßband gemessen
L i [ m] Vi [ mm]
100,118.3 +3,9
22.0 +0,2
22.9 -0,7
25.7 -3,5
y = 100,122.2
[ VV] = 27,99
27,99
= ±3,1mm
3
m ''
m y = ± 0 = ±1,5mm
4
m 0 '' =
Besteht zwischen den beiden Bestimmungen der Prüfstrecke AE ein statistisch gesicherter
Unterschied?
58
∆ = x − y = −5,8mm
Einseitiger Test: Wegen der negativen Differenzen wird von vornherein eine positive Differenz
ausgeschlossen. α 1 sei 5 %.
Hypothese: E( x − y) = E( ∆) = 0
Alternative: E(x - y) < 0
Prüfgröße: t =
∆
m∆
Die Voraussetzung E( m 20 ' ) = E( m 20 ' ') = σ 20 ist erfüllt.Berechnung des mittleren Fehlers m∆
der Differenz ∆ = x − y und des zugehörigen Freiheitsgrades f
m0 =
[ vv] + [ VV]
n1 + n 2 − 2
m ∆ = m0 ⋅
=
44,64 + 27,99
= ±3,0mm; f = 8
10 − 2
1
1
1 1
+
= ±3,0 ⋅
+ = ±1,94 mm; f = 8
n1 n 2
6 4
Prüfgröße: t =
− 5,8
= −3,0
1,94
Für f = 8 entnimmt man dem Nomogramm der t-Verteilung:
S = 90%
S = 93%
α1 = 5%
α1 = 1%
t S = −1,9
t S = −2,9
Die Gültigkeit der Hypothese ist für α 1 ≤ 1% abzulehnen. Die Differenz - 5,8mm ist statistisch
gesichert.
59
Einige mögliche Ursachen für den Unterschied:
1. Maßstabsunterschied in den Meßwerkzeugen bei der Messung der Hilfsbasis
2. Zentrierfehler an den Enden der Hilfsbasis
3. Änderung der Länge A-E
4. Systematische Fehler bei den parallaktischen Winkelmessungen Die Unterschiede in
den Teilstrecken sind: für A-M - 2,7mm für B-M - 3,1mm.
3.4.2.3 Beobachtungen verschiedener Genauigkeit
Voraussetzung:
Normalverteilte Größen, hinreichende Kenntnis der Matrix P bzw. Q = P −1 der zu
betrachtenden Größen.
Eine Ausgleichung ergibt:
Unbekannte:
Zugehörige Erwartungswerte:
Matrix der Gewichtskoeffizienten:
mittlere Gewichtseinheitsfehler:
Freiheitsgrad:
xi , xk
E( x i ), E(x k )
Q
m0
f=n-u
Daraus folgt für den mittleren Fehler der Differenz ∆ = x i − x k und den zugehörigen
Freiheitsgrad:
∆ = xi − xk
m ∆ = m 0 ⋅ Q ∆∆
f = n-u
Q ∆∆ = Q ii − 2Q ik + Q kk
Hypothese für den Fall E( x i ) = E( x k ): E( x i − x k ) = 0 oder E( ∆) = 0
Prüfgröße: t =
∆
m∆
Führt man ∆ als Unbekannte in die Ausgleichung ein, so ergeben sich die Verhältnisse des
Abschnitts 3.4.1, 3. Beispiel.
Werden die Werte x i und x k voneinander unabhängig in zwei Teil-ausgleichungen (ohne
gemeinsame Beobachtungen) bestimmt, so ist (vgl. Abschnitt 3.4.2.2)
( v'⋅p ⋅ v) 1+ + ( v'⋅p ⋅ v) 2
; f = ( n1 + n 2 ) − ( u1 + u 2 )
n1 + n 2 − ( u1 + u 2 )
= Q ii + Q kk
m20 =
und Q ∆∆
m ∆ = m 0 ⋅ Q ∆∆
60
3.4.3 Unterschiede zwischen mehreren normalverteilten Größen
x1 =
[ l]1
n1
x2 =
[ l] 2
n2
x3 =
[ l] 3
n3
Hypothese: E( x1 ) = E( x 2 ) = E( x 3 ) =...
Die mehrfache Anwendung des t-Testes ist bei Aufteilung der Hypothese in Teilhypothesen
zwar möglich:
E( x 1 ) = E( x 2 ); E ( x 1 ) = E( x 3 ); E( x 2 ) = E( x 3 )
aber:
Die Varianzanalyse (Abschnitt 3.6) bietet einen mächtigeren Test für die Grundhypothese.
3.4.4 Ausreißerkriterien bei normalverteilter Grundgesamtheit
Die Annahme, daß der größte Wert x ( n ) (bzw. der kleinste Wert x (1) ) zu derselben
Grundgesamtheit gehört, wie die übrigen (n - 1) Werte der Stichprobe, ist mit der
Irrtumswahrscheinlichkeit α = 1 − S zu verwerfen, wenn die beobachtete Prüfgröße zB den
zu S gehörenden Schwellenwert (Tafelwert) zT überschreitet. Dann ist x ( n ) bzw. x (1) als
Ausreißer anzusehen (Irrtumswahrscheinlichkeit α ).
Prüfgrößen und Schwellenwerte zum Ausreißerkriterium bei unbe-kannter Varianz σ 2 und
kleiner Stichprobengröße n zur Sicherheit S = 1 − α .
Schwellenwert zT zur Sicherheitswahrscheinlichkeit
n
3
4
Prüfgröße zB
x ( n ) − x ( n −1)
x ( n) − x (1)
S = 1− α
90%
95%
98%
99%
99,5%
0,886
0,941
0,976
0,988
0,994
,679
,765
,846
,889
,926
5
oder
,557
,642
,729
,780
,821
6
x ( 2) − x (1)
,482
,560
,644
,698
,740
7
x ( n ) − x (1)
,434
,507
,586
,637
,680
61
x ( n ) − x ( n −1)
8
x( n) − x(2)
,479
,554
,631
,683
,725
9
oder
x ( 2 ) − x (1)
,441
,512
,587
,635
,677
10
x ( n −1) − x (1)
,409
,477
,551
,597
,639
x ( n ) − x ( n −2 )
11
x ( n) − x ( 2)
,517
,576
,638
,679
,713
12
oder
x ( 3) − x (1)
,490
,546
,605
,642
,675
13
x ( n −1) − x (1)
,467
,521
,578
,615
,649
14
15
16
17
18
19
20
x ( 3) − x (1)
,492
,472
,454
,438
,424
,412
,401
,546
,525
,507
,490
,475
,462
,450
,602
,579
,559
,542
,527
,514
,502
,641
,616
,595
,577
,561
,547
,535
,674
,647
,624
,605
,589
,575
,562
x ( n −2 ) − x (1)
oder
x ( n ) − x ( n −2 )
x ( n) − x ( 3)
Beispiele: Ausreißer in einer Meßreihe
Messung einer etwa 120 m langen Strecke mit Präzisionsstahlbandmaß
Vor dem Test: Meßvorgang analysieren und Protokolle kontrollieren
Hypothese: Alle Messungen entstammen der gleichen normalverteilten Grundgesamtheit.
1.) l i [ cm]
(geordnet)
-1,8
-0,6(*)
+0,4
+0,4
+0,5
+0,8
+1,1
+1,2
+1,8 (*)
+5,2 (*)
n = 10
5,2 − 1,8
zB =
= 0,586
5,2 − ( −0,6)
S = 95%
98%
99%
α = 5%
2%
1%
z T = 0,477 0,551
0,597
62
2.)
li
-2,3 (*)
-2,1
-2,0
-1,0 (*)
+2,0 (*)
3.)
li
-2,3
-2,1
-2,0
-1,0
+1,3
n=5
2,0 − ( −1,0) 3,0
=
= 0,698
zB =
2,0 − ( −2,3) 4,3
S = 95%
98%
99%
α = 5%
2%
1%
z T = 0,642 0,729
0,780
n=5
1,3 − ( −1,0) 2,3
zB =
=
= 0,639
1,3 − ( −2,3) 3,6
z T siehe Beispiel 2
In Beispiel 1 ist der Wert +5,2 als Ausreißer zu betrachten, wenn α = 2% gewählt wurde.
In Beispiel 2 ist der Wert +2,0 als Ausreißer zu betrachten, wenn α = 5% gewählt wurde.
In Beispiel 3 wäre es zweifelhaft, ob +1,3 als Ausreißer zu betrachten ist.
3.5 Prüfung von Standardabweichungen bzw. mittleren Fehlern
3.5.1 Vergleich eines mittleren Fehlers m mit der bekannten Standardabweichung σ
der Grundgesamtheit
Voraussetzung: Die Beobachtungen entstammen normalverteilten Grundgesamtheiten.
Eine Ausgleichung ergibt:
mittleren Gewichtseinheitsfehler: m 0 =
Freiheitsgrad
[pvv]
n−u
: f = n−u
Die Standardabweichung σ 0 einer Beobachtung vom Gewicht 1 ist bekannt.
Hypothese : E( m 20 ) = σ 20
Alternative: E( m 20 ) > σ 20
bzw. E( m 20 ) < σ 20
oder E( m 20 ) ≠ σ 20
einseitiger Test
zweiseitiger Test
63
E( m 20 ) > σ 20 häufigster Fall
f ⋅ m20 [ pvv]
Prüfgröße: χ =
=
σ 20
σ 20
2
Freiheitsgrad: f = n − u
Für χ 2 < χ S2 wird die Hypothese nicht verworfen.
Für χ 2 ≥ χ S2 wird die Hypothese mit einem Fehler erster Art α 1 = α ≤ 1 − S (einseitiger Test)
verworfen.
σ 20 const .
ist die Standard-abweichung σ0 einer BeoBei einem Gewichtsansatz p i = 2 =
mi
m 2i
bachtung vom Gewicht 1 gleich
const.
Beispiel: (Wermann - Azimut - Breitenbeobachtungen 1955 und 1956, Veröffentlichung d.
DGK, Reihe 5, Heft 38, S. 23/24)
Breitenbestimmung auf der Station Wingst / Silberberg
0,1
Gewichtsansatz der Ausgleichung: p = 2
m xi
Hypothese: E( m20 ) = σ 20 = const . = 0,1
Tag
Anzahl
ni
Abendmittel
xi
4.8.56
5.8.56
7.8.56
8.8.56
9.8.56
11
6
10
11
8
53 o 43'48,33''
49,04
48,50
47,59
48,68
m xi
± 0,18''
0,25
0,17
0,09
0,33
p=
0,1
m2xi
3,1
1,6
3,5
12,4
0,9
v
- 0,33''
- 1,04
- 0,50
+ 0,41
- 0,68
21,5
46
x = 53 o 43' 48'',00
[pvv] = 5,46
5,46
= ±1'',17
5−1
m0
mx =
= ±0'',25
21,5
m0 =
f = n −1= 4
64
Prüfgröße: χ 2 =
[pvv] = 5,46 = 54,6
σ 20
0,1
Für f = 4 und S = 99,9% entnimmt man dem Nomogramm ein χ 2s = 18,5 . χ2 > χ2s
Die Differenz zwischen der Standardabweichung à priori σ 0 und der à posteriori - Schätzung
m0 ist statistisch gesichert ( α < 0,1% ), d.h. das gewählte mathematische Modell enthält
signifikante Modellfehler. Aus dem Test erhält man aber keinen Aufschluß über Art und Größe
der Modellfehler.
3.5.2 Vergleich zweier mittlerer Fehler
3.5.2.1 F-Verteilung
Gegeben seien zwei voneinander unabhängige Meßreihen, deren Beobachtungen normalverteilt
sind mit gleichen Varianzen σ 2 aber beliebigen Erwartungswerten.
m12 = Schätzung für σ 2 aus der 1. Meßreihe
[ vv]1
χ 12 ⋅ σ 2
=
m =
n1 − 1
f1
2
1
m 22 = Schätzung für σ 2 aus der 2. Meßreihe
[ vv]2
χ 22 ⋅ σ 2
m =
=
n2 − 1
f2
Die Zufallsveränderliche
2
2
F(f1 , f2 ) =
m12 f2 ⋅ χ12
=
m22 f1 ⋅ χ 22
genügt dann einer F-Verteilung (siehe z.B. Kreyszig). Der Verlauf der Wahrscheinlichkeitsdichte ist der einer χ 2 -Verteilung ähnlich. Gibt man eine Sicherheitswahrscheinlichkeit S
vor, so läßt sich unter Berücksichtigung der Freiheitsgrad f1 und f2 der zugehörige Wert FS
berechnen. In Tabellen sind die FS - Werte zusammengestellt. Unsere Nomogramme basieren
auf solchen Tabellen.
Da die Beziehung gilt:
f ⋅ χ2
1
= 1 22 = Fα ( f 2 , f1 )
F(1−α ) ( f1 , f 2 ) f 2 ⋅ χ 1
reicht es bei der Bezifferung m12 > m 22 aus, nur den Bereich F ≥ 1 darzustellen.
F eignet sich als Prüfgröße für einen Test der Hypothese σ 12 = σ 22 (F-Test).
65
3.5.2.2 Einseitiger F-Test
In den meisten Fällen ergibt sich die Fragestellung des einseitigen F-Tests.
Die Numerierung erfolgt so, daß m1 > m 2 ist.
Auf Grund der Erfahrung besteht die Möglichkeit, daß σ 1 größer oder günstigenfalls gleich
σ 2 ist.
Die Möglichkeit σ 1 < σ 2 wird von vornherein ausgeschlossen.
Hypothese:
Alternative:
σ 1 = σ 1 ; E(m12 ) = E(m 22 )
σ 1 > σ 1 ; E(m12 ) > E(m 22 )
Fehler erster Art: α 1
P( F < FS ) = S = 1 − α
Der Fehler erster Art ist beim Verwerfen der Hypothese und Annahme der Alternative α 1 ≤ α
Ist die Signifikanzgrenze zu α = 5% vorgesehen, so hat man unter Berücksichtigung der
Freiheitsgrade f1 und f2 den FS -Wert dem Nomogramm für S = 95% zu entnehmen; bei α =
1% entsprechend dem Nomogramm für S = 99%.
1. Beispiel: (vgl. Großmann, Grundzüge der Ausgleichungsrechnung, 2. Auflage, 1961, S. 9)
εI
ε II
+ 3 mm
-5
-2
+2
0
-1
-2
-3
+1
0
0
-1
0
+7
-1
+5
-1
0
-4
0
66
mI =
[ε ] = ±2,4 mm ; m
2
I
n
II
=
[ε ] = ±3,1mm ; f = n = 10 = f
2
II
1
n
= f2
Großmann: "Das Beispiel zeigt bei der ersten Reihe einen ruhigen, bei der zweiten (fingierten)
Reihe einen sprunghaften Verlauf der Fehlerbeträge. Für unser Gefühl ist daher die erste Reihe
die bessere."
Hypothese: σ I = σ II
Alternative: σ II > σ I
m I → m 2 m II → m1
Prüfgröße: F = (
mII 2
) = 1,66
mI
F95% (10,10) = 3,0 α1 = 5%; F < FS .
Der Test gibt keinerlei Anlaß zum Verwerfen der Hypothese und zur Annahme der Alternative, die dem gefühlsmäßigen Eindruck entsprechen würde.
2. Beispiel: Deutsches Haupthöhennetz (siehe Heller u. R. Wernthaler Entwicklung und
Genauigkeit des neuen deutschen Haupthöhennetzes, DGK-Verff. Reihe B, Heft Nr. 17)
mA
Netzteil
Beobachtungen
[ mm / km] ri
I
II
III
IV
V
VI
1908 - 1920
1910 - 1927
1931 - 1937
1936 - 1938
1939 - 1942
1922 - 1938
± 0,40
± 0,53
± 0,54
± 0,38
± 0,70
± 0,76
11
19
11
13
31
29
zwangsfrei
Anschluß an I
Anschluß an II
Anschluß an II, III
Anschluß an I, II, IV
Anschluß an III, IV
Nordseeküstenniv.
(NSKN)
1928 - 1931
± 0,28
17
zwangsfrei
mA
ri
Bemerkungen
= mittlerer Fehler für 1km Doppelnivellement
= Anzahl der Schleifen
Die Netzteile II bis VI enthalten verschieden große Anschlußzwänge.
67
a) Es wird vermutet, daß die Beobachtungen des NSKN genauer sind als die davon
unabhängigen des Netzteils I (S = 95%, einseitig).
m1 ≡ mI = 0, 40
f1 = 11
m2 ≡ m NSKN = 0, 28
f2 = 17
Hypothese: E( m 2I ) = E( m 2NSKN )
Alternative: E( m 2I ) > E( m 2NSKN )
2
 0,40 
F=
 = 2,04
 0,28 
F95% (1117
, ) = 2,41
Da F < F95% , wird die Hypothese nicht verworfen, d.h. der vermutete Genauigkeitsunterschied
ist statistisch nicht gesichert.
b) Es wird vermutet, daß wegen des hohen Anschlußzwanges der Unterschied zwischen den
mittleren Gewichtseinheitsfehlern der Netzteile V und I statistisch gesichert ist. (S = 95%,
einseitig)
m1 ≡ m V = 0,70 f1 = 31
m2 ≡ mI = 0,40 f2 = 11
Hypothese: E( m 2V ) = E( m 2I )
Alternative: E( m 2V ) > E( m I2 )
2
 0,70 
F=
 = 3,06;
 0,40 
F95% (3111
, ) = 2,57;
F>F
S
Da F > F95% , wird die Hypothese zugunsten der Alternative verworfen, d.h. der vermutete
Unterschied ist statistisch gesichert mit einer Irrtumswahrscheinlichkeit α < 5% ; ob die
vermutete Ursache der Anlaß zu diesem Unterschied ist, bleibt aber offen. In Strenge ist hier
die Voraussetzung der Unabhängigkeit der Werte m I und m V wegen des Anschlußzwanges
nicht erfüllt.
68
3.5.2.3 Zweiseitiger F-Test
Auf Grund der Erfahrung hat man keinen Anhalt, ob σ 1 größer oder kleiner als σ 2 sein
könnte. Numerierung von 1 und 2 zunächst beliebig.
Hypothese: σ 1 = σ 2
Alternative: σ 1 ≠ σ 2
Fehler erster Art: α 2
α2
2
1 1
α2
P( > ) = P( F > Fr ) =
F F1
2
P( F < F1 ) = P( F > Fr ) =
Man wählt die Numerierung wieder so, daß m1 > m 2 und berechnet die Prüfgröße:
m12
F( f 1 , f 2 ) = 2
m2
Ist F( f1 , f 2 ) > Fr ( f1 , f 2 ) , so wird die Hypothese verworfen.
α
Beachte: Für Fr gilt: P( F < Fr ) = S = 1 − 2
2
Der Fehler erster Art ist also beim Verwerfen der Hypothese und Annahme der Alternative:
α 2 = 2α .Entnimmt man Fr dem Nomogramm für S = 95 %, so ist also der Fehler erster Art
α 2 = 10 %; entsprechend gilt für 99 % : α 2 = 2%.
Will man mit einer Irrtumswahrscheinlichkeit von 5 % arbeiten, so muß man eine Tabelle der
F-Verteilung für 97,5 % benutzen.
Beispiel: (siehe Abschnitt 3.3.1, 3. Beispiel)
Vergleich von Meßungenauigkeiten bei Zenitdistanzmessung
Mittlerer Fehler einer gemessenen Zenitdistanz:
(Die Voraussetzung der Unabhängigkeit ist nicht in Strenge erfüllt.)
69
Sigl
mS =
[v ]
2
S
n −1
Marzahn
= ±3,50
mM =
cc
[ v ] = ±4,49
2
M
cc
n −1
Freiheitsgrade: fS = f M = 14
Hypothese:
Alternative:
σS = σ M
σS ≠ σ M
m M → m1 ; mS → m 2
2
Prüfgröße:
m 
F =  1  = 1,66
 m2 
F95% (14,14) = 2,5
α 2 = 2α = 10% ;
F97,5% (14,14) = 3,0
α 2 = 2α = 5% ;
F < F90%
Der Test gibt keine Veranlassung, die Hypothese zu verwerfen, daß die Meßergebnisse beider
Beobachtungsreihen gleich genau sind.
3.5.2.4 Folgerungen aus dem F - Test und Vertrauensgrenzen für Gewichtsverhältnisse
Z.B. besagt F95% (8,8) = 3,4, daß sich für den Fall f1 = f2 = 8 Gewichtsunterschiede erst
statistisch gesichert ( α = 5%) nach-weisen lassen, wenn das Verhältnis der mittleren
Fehlerquadrate 3,4 : 1 übersteigt. Über das wahre Gewichtsverhältnis gibt der Test aber keine
Auskunft. Der zweiseitige Vertrauensbereich für das Gewichtsverhältnis σ 12 / σ 22 mit der
statistischen Sicherheit
S = 1 − α 2 und α 2 = 2α ist (vgl. Graf-Henning-Stange, S.81).
m2 σ 2
m2
1
1
⋅ 12 ≤ 12 ≤
⋅ 12
F1−α ( f1 , f 2 ) m 2 σ 2 Fα ( f1 , f 2 ) m 2
m2 σ 2
m2
1
⋅ 12 ≤ 12 ≤ F1−α ( f 2 , f1 ) ⋅ 12
F1−α ( f1 , f 2 ) m 2 σ 2
m2
Beachte: Wenn f1 ≠ f 2 so wird der reziproke Wert von F1−α ( f1 , f 2 ) und der Wert F1−α ( f 2 , f1 )
benötigt.
Benutzt man die Werte für 95 %, so erhält man den Vertrauens-bereich zur statistischen
Sicherheit S = 90 % (entsprechend für 97,5 % zu S = 95 % und für 99 % zu S = 98 %), d. h. in
90 % aller Fälle wird das wahre Gewichtsverhältnis σ 12 / σ 22 innerhalb des berechneten
Bereichs zu erwarten sein aber noch in 10 % aller Fälle ist das wahre Gewichtsverhältnis
70
außerhalb des berechneten Intervalls zu erwarten.
1. Beispiel:(wieder Abschnitt 3.3.1, 3. Beispiel bzw. Abschnitt 3.5.2)
mS = 3,50 cc
m M = 4,49 cc
mS2 = 12,25
fS = 14
m 2M = 20,10
f S = 14
Für α 1 = 5% wird F1−α = 2,5
Wird dieser Wert benutzt, ergibt sich ein Vertrauensbereich zur Sicherheit
S = 1 − α 2 = 1 − 2α 1 = 90% .
1 20,10
20,10
⋅
≤ 2,5 ⋅
2,50 12,25
12,25
σ 2M
P(0,66 ≤ 2 ≤ 4,1) = 90%
σS
2. Beispiel: (vgl. Abschnitt 3.5.1) BREITENBESTIMMUNG
Gewichtsverhältnis für die Messungen am 8.8.56 und 9.8.56
9.8.56 m1 = 0,33 f1 = 7
8.8.56 m 2 = 0,09 f1 = 10
Als Vertrauensbereich zur Sicherheit S = 90% ergibt sich:
1
m12 σ12
m12
⋅
≤
≤ F95% (10,7) ⋅ 2
F95% (7,10) m22 σ 22
m2
1  0,33 
σ12
 0,33 
⋅
≤


2 ≤ 3,7 ⋅ 
 0,09 
3,1  0,09 
σ2
2
2
σ12
P(4,3 ≤ 2 ≤ 49,7) = 90%
σ2
3.6 Varianzanalyse (Streuungszerlegung) (Vergleich mehrerer Mittelwerte)
Es liegen unabhängige normalverteilte Beobachtungen vor, die nach einem Merkmal (im
allgemeinen Fall nach verschiedenen Merkmalen) in Klassen geordnet werden.
71
Beispiele für Klassenmerkmale: Beobachtungszeit, Temperatur, Beobachter, Meßeinrichtung.
Voraussetzung:
Unabhängigkeit der Meßwerte, normalverteilteGrundgesamtheit, insbesondere gleich
große Varianzen der Meßwerte.
Hypothese: Die Erwartungswerte aller Klassenmittel x i sind gleich groß
( E( x1 ) = E( x 2 ) =... = E( x r )) , d.h. alle Beobachtungen entstammen der gleichen
normalverteilten Grundgesamtheit.
Alternative: Mindestens ein Erwartungswert stimmt nicht mit den anderen
Erwartungswerten überein.
Klasse 1
2
3
l 11
l 12
l 13
M
l 1n1
l 21
l 22
l 23
l 31
l 32
l 33
M
l 3n3
M
M
...
l r1
l r2
l r3
M
M
l rn r
M
l 2 n2
x1 =
[l ]
1k k
n1
x2 =
[l ]
Gesamtmittel: x =
2k k
x3 =
n2
r
[l ]
3k k
...
n3
xr =
[l ]
rk k
nr
[ n x ] [ l ] [l ]
=
=
[n ] [n ] N
i
i i
i i
ik ik
ik ik
i i
mit N = n1+ + n 2 +...+ n r
Bemerkung zur Anlage eines Beobachtungsplanes: Am günstigsten ist es, wenn in jeder Klasse
gleich viel Elemente enthalten sind.
Verbesserungen
v ik = x − l ik
Vi = x − x i
v ik = x i − l ik
Quadratsumme
[ ]
= [n V V ]
= [v v ]
Q = v ik v ik
Q1
Q2
i
ik
i
ik
i i
Freiheitsgrad
N −1
r −1
N−r
ik ik
72
Vi
v ik
... Verbesserungen zwischen den Klassen
... Verbesserungen innerhalb der Klassen
Zwischen den Verbesserungen gelten folgende Beziehungen:
v ik = Vi + v ik
v ik 2 = Vi2 + 2 Vi ⋅ v ik + v ik 2
[ v ] = n ⋅ V + 2 V [ v ] + [v ]
[ v ] = [n V ] + [v ]
2
ik
i
k
2
ik
i
k
Q
2
i
i
2
2
i i
ik
ik k
ik
k
[ ]
mit v ik
k
=0
2
ik
= Q1 + Q 2
Die Verbesserung Vi für das Mittel x i der i-ten Klasse hängt von allen Beobachtungen l ik ab.
Vi =
{
}
1
nν
1
n1
n2
ni
l1k ]k =1 + [l 2 k ]k =1 +...+[l νk ]k =1 − [l ik ]k =1
[
N
ni
Die Verbesserung v ij der j-ten Einzelmessung in der i-ten Klasse hängt nur von den Beobachtungen der i-ten Klasse ab:
v ij =
1
(l +...+ l ij +...+ l ini ) − l ij
ni il
Anteile zur Kovarianz der Verbesserungen Vi und v ij liefern nur die in beiden Verbesserungen
gleichzeitig auftretenden unabhängigen Beobachtungen l ij mit Varianz σ 2 :
1 1
Vi =  −  ⋅ (l i1 + l i 2 +...+ l ij +...+ l in i ) + Re st
 N ni 
v ij =
Cov( Vi , v ij ) =
1
1
1
1
⋅ l i1 + ⋅ l i 2 +...+ ( − 1) ⋅ l ij +...+ ⋅ l ini
ni
ni
ni
ni
1 1
1 1 1
1
⋅  −  ⋅ ( n i − 1) ⋅ σ 2 + ( − 1) ⋅  −  ⋅ σ 2
ni  N n i 
ni
 N ni 
1 1
1
1
=  −  ⋅ (1 − + − 1) ⋅ σ 2
ni ni
 N ni 
Cov( Vi , v ij ) = 0
Vi und v ij sind unkorreliert, also wegen der vorausgesetzten Normalverteilung auch
unabhängig voneinander. Das gleiche gilt dann auch für die Quadratsummen Q 1 und Q 2 .
73
Bei Gültigkeit der Hypothese ergeben sich drei Schätzungen für die Varianz einer
Beobachtung:
[v ]
=
2
2
m
ik
N −1
2
1
[n V ] =
=
2
2
[v ] =
=
m
2
i
i
r −1
2
m
ik
N−r
Q1
(mittlerer Fehler zwischen den Klassen )
r −1
Q2
N−r
(mittlerer Fehler innerhalb der Klassen )
Im Wert m1 wirken sich Abweichungen von der Hypothese E( x1 ) = E( x 2 ) =... = E( x r )
aus.
Der Wert m2 ist unabhängig von der Hypothese.
Die mittleren Fehler m1 und m2 sind wegen der Unabhängigkeit von Q 1 und Q 2 ebenfalls
unabhängig. Damit sind die Voraussetzungen für einen einseitigen F-Test mit der Alternative
E( m12 ) > E( m 22 ) gegeben.
m12
Prüfgröße: F( r − 1, N − r ) = 2
m2
Für F < FS wird die Hypothese E( x1 ) = E( x 2 ) =... = E( x r ) nicht verworfen. Für F ≥ FS wird
die Hypothese mit einem Fehler erster Art ≤ α1 = 1 − S verworfen. Im Falle F ≥ FS können die
Teilhypothesen E( x i ) = E( x k ) mit Hilfe von T-Tests überprüft werden, um statistisch
gesicherte Unter-schiede zwischen den Werten x i und x k festzustellen.
Wird ein funktionaler Zusammenhang zwischen den x i vermutet, liegt ein Regressionsproblem vor.
Zur Durchführung der Varianzanalyse werden gleich große Varianzen der Meßwerte in den
Klassen vorausgesetzt. Zur Überprüfung dieser Hypothesen können folgende Tests angewandt
werden:
a) F - Test (Test zwischen je zwei Klassen)(siehe Abschnitt 3.5.2)
b) Bartlett - Test (Test auf Gleichheit der Varianz zwischen allen Klassen)
Voraussetzung: fi ≥ 5
c) Test bei gleicher Anzahl in den Klassen (Test zwischen größter und kleinster
Varianz)
d) Cochran - Test (Test auf Abweichung der größten Varianz)
Tests b) - d) siehe Graf - Henning - Stange
74
Beispiel (vgl. Abschnitt 3.5.1)
Breitenbestimmung auf der Station Wingst/Silberberg
Hypothese: Die Abendmittel haben gleiche Erwartungswerte, d.h. die Abendmittel
unterscheiden sich nicht wesentlich voneinander.
Klassenmerkmal für die Varianzanalyse: Beobachtungsnacht
Voraussetzung: Alle Beobachtungen haben die gleiche Standardabweichung
Zweiseitiger F-Test zur Prüfung, ob diese Voraussetzung angenommen werden kann. Die für
jede Klasse getrennt berechneten mittleren Fehler mi für eine Beobachtung zeigen für die
Klassen 1 bis 3 gute Übereinstimmung, dagegen größere Abweichungen gegen Klasse 4 und
Klasse 5.
Zusammenfassung der mittleren Fehler der Klassen 1 bis 3:
M2 =
[ vv]1 + [ vv]2 + [ vv]3
n1 + n 2 + n 3 − 3
= 0,33 ; f = 24
Prüfgröße zum F-Test auf Gleichheit der Standardabweichung in den Klassen 1 bis 3 und in
Klasse 4:
M 2 0,33
F(24,10) = 2 =
= 3,7
m4 0,09
Prüfgröße zum F-Test auf Gleichheit der Standardabweichung in den Klassen 1 bis 3 und in
Klasse 5:
F(7,24) =
m52 0,88
=
= 2,7
M 2 0,33
für M 2 / m 24
(24,10)
für m 52 / M 2
(7,24)
α2
F95%
F97 ,5%
F99%
2,7
3,4
4,3
2,5
2,9
3,5
10%
5%
2%
F
3,7
2,7
Für die Klasse 5 wäre beim Verwerfen der Voraussetzung σ 1,2 , 3 = σ 5 die Wahrscheinlichkeit
für den Fehler erster Art größer als 5%, die Voraussetzung wird deshalb angenommen. Für die
Klasse 4 liegt der entsprechende Wert bereits im kritischen Bereich von 5% bis 2%; die
75
Voraussetzung σ 1, 2 , 3 = σ 4 soll aber noch angenommen werden.
Der Zusammenstellung der Meßdaten entnimmt man folgende Werte:
1
2
zwischen den Klassen
innerhalb der Klassen
gesamt
Prüfgröße: F(4,41) =
Qi
Freiheitsgrad
m2i
10,32
14,93
4
41
2,58
0,364
25,25
45
0,56
2
1
2
2
m
= 7,1
m
F95% (4,41) = 2,6
F99% (4,41) = 3,8 F > FS
F99 , 9% (4,41) = 5,7
Mit einer Irrtumswahrscheinlichkeit α 1 < 0,1% wird die Hypothese verworfen, d.h. die
Abendmittel gehören nicht einer Grund-gesamtheit an; es gibt zwischen den Abendmitteln
statistisch gesicherte Unterschiede a b e r nicht alle Unterschiede zwischen je zwei Abendmitteln sind statistisch gesichert.
ϕ = 53o 43' 40"+dϕ
1
4./5.8.56
δϕ '' v
2
5./6.8.56
δϕ '' v
3
7./8.8.56
δϕ '' v
4
8./9.8.56
δϕ '' v
5
9./10.8.56
δϕ '' v
1
2
3
4
5
6
7
8
9
10
11
8,07 +0,26
8,58 -0,25
8,75 -0,42
8,56 -0,23
7,30 +1,03
9,57 -1,24
7,96 +0,37
8,66 -0,33
7,85 +0,47
8,42 -0,09
7,88 +0,45
9,10 -0,06
8,98 +0,06
9,52 -0,48
8,04 +1,00
9,76 -0,72
8,82 +0,22
8,88 -0,38
8,62 -0,12
8,50 0
8,43 +0,07
8,30 +0,20
8,18 +0,32
7,42 +1,08
8,24 +0,26
9,20 -0,70
9,20 -0,70
7,59 0
6,96 +0,63
7,68 -0,09
7,48 +0,11
7,50 +0,09
7,74 -0,15
7,48 +0,11
7,62 -0,03
8,24 -0,65
7,60 -0,01
7,58 +0,01
7,50 +1,18
8,56 +0,12
7,44 +1,24
9,90 -1,22
9,66 -0,98
8,26 +0,42
8,68 0
9,40 -0,72
xi
8,33
9,04
8,50
7,59
8,68
[ vv]
3,64
1,80
2,52
0,88
6,09
76
m 2i =
x=
[ vv] i
ni − 1
= 0,36
0,36
0,28
0,09
0,88
[n x ] = 8,34
[n ]
i
i
i
Vi = x − x i = +0,01
-0,70
-0,16
+0,75
-0,34
[n V ] = 10,32
i
2
i
∑ [ vv] = 14,93
77

Documents pareils