facharbeit - LMU München

Transcription

facharbeit - LMU München
FACHARBEIT
in dem Fach
Leistungskurs Mathematik
(Schuljahre 1996 - 1998)
Thema:
Aus dem Fachgebiet Stochastik:
VERTEILUNGEN:
Ü BERSICHT UND VERGLEICH
Abgabetermin: 2. Februar 1998
Verfasser:
Paul Holleis
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
INHALTSVERZEICHNIS
VORWORT ............................................................................................................................. 3
I. GRUNDLAGEN ............................................................................................................. 5
1. Zufallsgröße ................................ ................................ ................................ ........ 5
2. Wahrscheinlichkeitsfunktion ......................................................................... 7
3. Verteilungsfunktion ................................ ................................ .......................... 9
1.
Diskrete Verteilungen......................................................................................10
2.
Stetige Verteilungen ........................................................................................12
3.
Maß zahlen / Momente von Verteilungsfunktionen ................................ .........14
4.
a)
Erwartungswert ................................ ................................ ......................... 14
b)
Varianz (Streuung) ................................ ................................ ....................17
c)
Standardabweichung ................................ ................................ ..................19
Standardisierung ................................ ............................................................. 20
II. SPEZIELLE VERTEILUNGEN ................................ ................................ ....................22
1.
Binomialverteilung.................................................................................................22
2.
Hypergeometrische Verteilung...............................................................................26
3.
Negativ-Binomialverteilung ...................................................................................29
4.
Geometrische Verteilung........................................................................................31
5.
Poisson-Verteilung.................................................................................................33
6.
Normalverteilung ...................................................................................................36
III. ZUSAMMENHÄNGE ZWISCHEN DEN VERTEILUNGEN
(GRENZWERTSÄTZE), NÄHERUNG DER ... ............................................................ 38
1.
Binomialverteilung
an die
hypergeometrische Verteilung ........................... 38
2.
Poisson-Verteilung
an die
Binomialverteilung ............................................43
3.
Poisson-Verteilung
an die
hypergeometrische Verteilung ........................... 48
4.
Normalverteilung
an die
Binomialverteilung ............................................51
5.
Normalverteilung
an die
hypergeometrische Verteilung ........................... 57
6.
Normalverteilung
an die
Poisson-Verteilung.............................................59
IV. Ü
BERSICHT / ZUSAMMENFASSUNG ........................................................................62
ANHANG ................................ ............................................................................................... 63
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
3
VORWORT
Der Themenkreis „ Stochastik“ enthält sowohl die Wahrscheinlichkeitsrechnung als auch den
Bereich Statistik. Während letzterer sich hauptsächlich mit dem Testen von Hypothesen und
der Auswertung von empirisch ermitteltem Zahlenmaterial beschäftigt, spielen in der
Wahrscheinlichkeitsrechnung vor allem Verteilungen eine übergeordnete Rolle. Diese
Facharbeit – „ Verteilungen, Ü bersicht und Vergleich anhand von Beispielen“ – soll einen
Ü berblick über die wichtigsten Verteilungen und ihre Zusammenhänge geben.
Bei den dargestellten Verteilungen wurde bewusst auf zu komplizierte Herleitungen und
Beweise verzichtet. So wurden sie zum Beispiel nicht auf höhere Momente wie Schiefe und
Exzess hin untersucht. Dies war nötig, um einen angemessenen Umfang der Arbeit zu
gewährleisten. Auß erdem sollten die Ausführungen grundsätzlich das Niveau des
Mathematik-unterrichts nicht überschreiten.
Bei der Auswahl der Beispiele wurde viel Wert auf deren Anschaulichkeit beziehungsweise
praktische Anwendbarkeit gelegt, um auch einem Leser, der weniger Wert auf abstrakte
mathematische Formulierungen und Berechnungen legt, einen Anreiz zu bieten, sich mit
diesem Gebiet zu beschäftigen.
Dem Verfasser war es besonders wichtig, das Thema in einem abgeschlossenen Rahmen zu
präsentieren, um es auch Lesern nahebringen zu können, die sich vorher nicht oder nur wenig
mit der Materie beschäftigt haben. So ist es zu rechtfertigen, dass sich der erste Teil
hauptsächlich mit den Grundlagen von Verteilungen beschäftigt, die bei entsprechenden
Vorkennt-nissen kurz überflogen oder ganz überblättert werden können. Prinzipiell sollten
aber möglichst wenig Grundlagen vorausgesetzt werden müssen. Bedingt durch den
beschränkten Umfang der Arbeit ließ es sich jedoch nicht vermeiden, auf eine detaillierte
Ausführung bestimmter Bereiche zu verzichten und diese Kenntnisse als bekannt
vorauszusetzen. Darunter fallen zum Beispiel der allgemeine Wahrscheinlichkeitsbegriff und
grundlegende kombinatorische Fertigkeiten. Grundsätzlich sollte es aber auch für einen
Neuling in diesem speziellen Bereich der Stochastik möglich sein, den wesentlichen Inhalt
nachvollziehen zu können.
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
4
HINWEISE FÜ R DEN BENUTZER:
Dem Leser, der sich hauptsächlich für die Ergebnisse dieser Arbeit interessiert, dürfte vor
allem die groß angelegte Ü bersicht auf Seite 62 von Nutzen sein. Hier sind alle behandelten
Verteilungen
mit
ihren
Charakteristiken,
Anwendungsbereichen
und
gegenseitigen
Beziehungen plakativ aufgelistet.
Zur Verbesserung der Ü bersichtlichkeit und Vereinfachung der Lesbarkeit wurden bestimmte
Textbereiche einheitlich farblich markiert beziehungsweise hervorgehoben:
Beispiele: Das Zufallsexperiment bzw. Schlagworte grün; grüner Strich am linken Rand;
Definitionen: Gesamte Definition rot umrahmt; der jeweils definierte Begriff rot;
Schlü sselbegriffe: Mit blau hervorgehoben; wichtige Formeln blau umrahmt;
Faustregeln: Der gesamte Absatz gestrichelt blau umrahmt; Bedingungen blau;
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
I. Grundlagen
I.1. Zufallsgröß e
5
I. Grundlagen
Verteilungen sind spezielle Funktionen, die bestimmte Ereignisse und Experimente
beschreiben. Die Verteilungsfunktion basiert auf der Wahrscheinlichkeitsfunktion. Beide sind
auf der sogenannten Zufallsgröß e X aufgebaut. Zum Vergleich verschiedener Verteilungen
benötigt man zusätzlich Kenntnisse über den Erwartungswert, die Varianz und die
Standardabweichung. Diese Grundlagen sollen nun zuerst einmal vorgestellt werden:
I. 1. Zufallsgrö ß e
Hat man einen Versuch ausgeführt, bei dem es mehrere Ergebnisse gibt, hat jedes eine
bestimmte Wahrscheinlichkeit. Man verknüpft diese beiden nun mit Hilfe einer Funktion. Um
den Graph dieser Funktionen später auch zeichnen zu können, verwendet man für die
Ereignisse nicht Buchstaben („ A“ , „ B“ , „ E“ , ...) oder Beschreibungen („ erster Wurf ist eine
Sechs“ , ...), sondern Zahlen aus dem Bereich der reellen Zahlen.
Definition: Eine Funktion X heiß t Zufallsgröß e, wenn sie jedem möglichen Ergebnis w eines
Zufallsexperiments eine reelle Zahl zuordnet.
Die Definitionsmenge der Funktion DX ist also die Ergebnismenge W des Zufallsexperiments,
die Wertemenge WX ist eine Teilmenge von R.
X : W ® WX,
w a X(w)
(Die Funktion X bildet den Ergebnisraum W auf WX Î R ab; jedem Ergebnis w wird eine Zahl X(w) zugeordnet)
X ist also keine einfache Zahl, sondern eine Funktion. Die Funktionsgleichung ist in den
allermeisten Fällen nur abschnittsweise definiert zu beschreiben.
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
I.1. Zufallsgröß e
6
Beispiel: Beim Roulette gibt es insgesamt 37 verschiedene Zahlen (0-36), die auf
unterschiedlichste Arten zusammengefasst werden können. Die Zufallsgröß e X ordnet diesen
Ereignissen nun verschiedene Zahlen zu:
1. Beispiel:
2. Beispiel:
W = DX
WX Î R
W = DX
WX Î R
Rot
1
1. Drittel
1
Schwarz
2
2. Drittel
2
Null
3
3. Drittel
3
Null
4
Die Funktion X fasst hier also mehrere
Wieder komprimiert die Funktion X alle
Ereignisse zusammen, so dass nur noch genau
Ereignisse auf vier Zahlen. Deshalb kann man
die drei Ereignisse die von Interesse sind
die Funktion so beschreiben:
auftreten. Sie lautet:
rote Zahlen"}
ì1 für w Î {" rote
ï
X(w) = í2 für w Î {" schwarze Zahlen"}
ï3 für w = {0}
î
ì1 für
ï2 für
ï
X (w) = í
ï3 für
ïî4 für
w Î {1,2,3,...,12}
w Î {13,14,...,24}
w Î {25,26,...,36}
w = {0}
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
I.2. Wahrscheinlichkeitsfunktion
7
I. 2. Wahrscheinlichkeitsfunktion
Wenn man nun den möglichen Ereignissen jeweils eine Zahl zugeordnet hat, kann man nach
den Wahrscheinlichkeiten für diese Zahlen fragen.
Jede Zahl wird so wiederum mit ihrer Wahrscheinlichkeit verbunden. Diese Zuordnung
geschieht mit Hilfe der Wahrscheinlichkeitsfunktion.
Definition: Ist X eine diskrete Zufallsgröß e mit der Wertemenge WX = {a1, a2, ..., an, ...}, so
bezeichnet man die Funktion f, die jedem x Î WX die Wahrscheinlichkeit des Ereignisses
{X = x} zuordnet, als Wahrscheinlichkeitsfunktion der Zufallsgröß e X:
f: WX ® [0; 1], x a f(x), mit f(x) = P(X = x)
(Die Funktion f bildet die Wertemenge von X (die Zahlen) auf Wahrscheinlichkeiten ab; jeder Zahl x wird eine
Wahrscheinlichkeit f(x) zugeordnet)
Um den Definitionsbereich der Funktion f zu vervollständigen, vereinbart man zusätzlich:
für alle x Ï WX gilt f(x) = 0
Dies ist verständlich, wenn man bedenkt, dass eine Zahl, die nicht in der Wertemenge von X
ist, also keine zugeordneten Ereignisse hat, nie auftreten kann und somit ihre
Wahrscheinlichkeit 0 ist.
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
I.2. Wahrscheinlichkeitsfunktion
8
Beispiele
In dem oben genannten Roulette lassen sich die Wahrscheinlichkeiten für die Zahlen in der
Wertemenge der Zufallsgröß e X leicht berechnen:
1. Beispiel:
2. Beispiel:
P(1) = P(„ rot“ ) = 18/37;
Fasst man mit der Zufallsgröß e die Ereignisse 1-12
(unteres Drittel), 13-24 (mittleres Drittel), 25-36
P(2) = P(„ schwarz“ ) = 18/37;
(oberes Drittel) und 0 (Null) zusammen, erhält man
1
P(3) = P(„ Null“ ) = /37;
folgende Wahrscheinlichkeitsfunktion:
Damit lässt sich f(x) zeichnen:
60%
50%
60%
50%
40%
30%
20%
10%
0%
40%
18/37
18/37
12/37
30%
12/37
12/37
20%
1/37
10%
1/37
0%
1
1
2
2
3
4
3
P(1) = P(„ 1-12“ ) = 12/37;
Die dick durchgezogene Linie auf der X-Achse
deutet an, dass überall neben den gekennzeichneten
Stellen
(bei
genau
1,
2
und
3)
die
Wahrscheinlichkeit gleich 0 ist.
Aus
den
Werten
P(2) = P(„ 13-24“ ) = 12/37;
P(3) = P(„ 25-36“ ) = 12/37;
P(4) = P(„ 0“ ) = 1/37;
der
Diagramme
lässt
sich
eine
wichtige
Eigenschaft
der
Wahrscheinlichkeitsfunktion ablesen: Addiert man die Wahrscheinlichkeiten aller Zahlen, so
erhält man 1.
n
Es gilt also stets:
n
Beweis:
å f (x
i =1
i
å f (x
i = 1
i
) =1
) = f ( x 1 ) + f ( x 2 ) +...+ f ( x n ) = f (E 1 Ç E 2 Ç...Ç E n ) = f (W) = 1
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
I.3. Verteilungsfunktion
9
I. 3. Verteilungsfunktion
Bei vielen Problemen in der Stochastik ist nicht nur die Kenntnis der Wahrscheinlichkeit
dafür wichtig, dass eine Zufallsgröß e X genau einen bestimmten Wert x (Î R) annimmt, also
das Ereignis {X = x} eintritt, sondern auch dafür, dass sie in einem Intervall liegt oder einen
Wert unter- beziehungsweise überschreitet.
Bei technischen Prozessen zum Beispiel ist die Wahrscheinlichkeit von Interesse, mit der eine
zulässige Höchstbelastung überschritten wird, bei physikalischen Experimenten sind unter
Umständen kritische Temperaturgrenzen einzuhalten.
Die Wahrscheinlichkeit, dass die Zufallsgröß e X Werte unterhalb einer Grenze x annimmt,
hängt nur von diesem x ab und ist somit eine Funktion von x. Diese Funktion nennt man
Verteilungsfunktion der Zufallsgröß e X und bezeichnet sie mit F(x).
Der Zusammenhang zwischen der Wahrscheinlichkeits- und der Verteilungsfunktion liegt
nahe: Fragt man nach der Wahrscheinlichkeit, dass ein Ereignis oder ein anderes auftritt, so
zählt man die beiden Einzelwahrscheinlichkeiten einfach zusammen. Dies ist natürlich nur
möglich, wenn diese Ereignisse disjunkt sind, das heiß t E1 Ç E2 = {}. Da diese Eigenschaft
aus der Definition der Zufallsgröß e erfolgt (jedem Ereignis wird genau eine Zahl zugeordnet),
gilt nach dem
Axiom III: Da E1 Ç E2 = {} so gilt P(E1 È E2) = P(E1) + P(E2).
Daraus folgt folgende Festlegung:
Definition: Eine Funktion F(X) heiß t (kumulative) Verteilungsfunktion der Zufallsgröß e X,
wenn sie die Wahrscheinlichkeit für alle Ereignisse {X £ x} wiedergibt:
x £x
i
i £xf (x i )
F(x) = P(X £ x) = å P(X = x )=xå
i
Aus der weiter oben gewonnenen Eigenschaft, dass die Summe der Wahrscheinlichkeiten
aller Ereignisse gleich 1 ist, erkennt man:
für x ³ xmax gilt F(x) = 1, mit xmax als höchste Zahl, die die Zufallsgröß e annehmen kann.
für x £ xmin gilt F(x) = 0, mit xmin als niedrigste Zahl, die die Zufallsgröß e annehmen kann.
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
10
I.3.1. Diskrete Verteilungen
I. 3. 1. Diskrete Verteilungen
Bei den meisten Zufallsexperimenten (wie unter anderem würfeln oder Münzen werfen),
nimmt die auftretende Zufallsgröß e nur endlich (bzw. abzählbar unendlich) viele Werte an.
Man nennt sie diskret.
Für eine diskrete Zufallsgröß e X gilt:
x £x
i
i
i£xf (x )
F(x) = P(X £ x) = å P(X = x )= xå
i
die Summe erstreckt sich über alle
Werte f(xi), für die X £ x zutrifft
Beispiel: X = Augenzahl beim Werfen eines L-Würfels mit 6 Seiten
1/6
1/6
1/6
1/6
1/6
20%
1/6
10%
0%
1
2
3
4
5
6
Da die sechs möglichen Ergebnisse alle gleichwahrscheinlich sind (p = 1/6), ergibt sich für die
Wahrscheinlichkeitsfunktion das nebenstehende Bild. Die Wahrscheinlichkeiten anderer
Werte von X als 1, 2, 3, 4, 5 und 6 sind immer null:
Aus diesen Wahrscheinlichkeiten lässt sich die zugehörige Verteilungsfunktion bilden:
F(X)
1
6/6
5/6
5/6
} f ( 4)
2/3
1/2
4/6
3/6
1/3
2/6
1/6
1/6
0
0/6
1
2
3
X
4
5
6
Berechnung:
F(1) = P(X £ 1) = P(1) = 1/6;
F(2) = P(X £ 2) = P(1) + P(2) = 2/6
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
usw.
I.3.1. Diskrete Verteilungen
11
Werte außerhalb DX: z.B.: F(1,5) = P(X £ 1.5) = P(X £ 1) = P(1) = 1/6, da zwischen 1 und
1,5 keine Erhöhung der Wahrscheinlichkeit stattfindet, da die Zufallsvariable diese Werte
nicht annehmen kann, d.h. es sind alle P(1 < X £ 1,5) = 0 (unmögliche Ereignisse);
Fü r x ³ 6 ergibt sich immer F(x) = 1, die Wahrscheinlichkeit des sicheren Ereignisses, da alle
möglichen Werte, die der Würfel (bzw. die zugehörige Zufallsgröß e) annehmen kann,
eingeschlossen sind.
Die Verteilungsfunktionen diskreter Zufallsgröß en sind also Treppenfunktionen. An den
Stellen X = xi haben sie Sprungstellen der Höhe f(xi). Der Wertebereich geht von 0 (unmögliches Ereignis, bis -¥) bis 1 (sicheres Ereignis, bis +¥).
Wenn X (abzählbar) unendlich viele Werte annimmt, so muss die Summe trotzdem einem
Grenzwert zustreben, da selbst bei Summation über alle xi der Wert die Wahrscheinlichkeit 1
nicht überschreiten kann / darf.
Aus der Verteilungsfunktion lassen sich nun auf einfache Weise Wahrscheinlichkeiten für
folgende Ereignisse ablesen:
P(X £ a)
= F(a)
, nach Definition;
P(X > a)
= 1 - F(a)
, da dies das Gegenereignis zu P(X £ a) ist;
P(a < X £ b) = F(b) - F(a)
Die letzte Formel kann man sich leicht an folgendem Diagramm veranschaulichen:
+
= F(b)
= F(a)
= F(b)-F(a)
a
b
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
12
I.3.2. Stetige Verteilungen
I. 3. 2. Stetige Verteilungen
Viele Experimente in der Praxis sind nicht so einfach einzuteilen.
Der Zeiger einer Drehscheibe zum Beispiel kann jede reelle Zahl zwischen 0 und 2p (0° bis
360°) annehmen.
Die zugehörige Zufallsgröß e ist hier überabzählbar unendlich, man nennt sie stetig.
Einige Eigenschaften der diskreten Zufallsgröß e lassen sich auch bei der stetigen anwenden.
Es ist auch hier möglich, die Verteilungsfunktion F(x) = P(X £ x) zu bilden.
Für das Beispiel „ X = Richtung des Zeigers“ ergibt sich folgende Funktion:
für x £ 0
ì0
ï1
F( x) = í x für 0 < x £ 2 p
ï 2p
für x > 2 p
î1
100%
80%
60%
40%
20%
0%
0
p
2p
Für eine stetige Zufallsgröß e X gilt:
x
F(x) = P(X £ x) = -ò¥ f (n ) d n
Hier ist die Verteilungsfunktion keine Treppenfunktion mehr. Sie ist im gesamten
Definitionsbereich D = R stetig.
Bis auf die beiden Knickstellen ist sie auch differenzierbar. Die Ableitung
F’(x) = f(x)
(‘groß F Strich von x ist klein f von x’)
macht eine Aussage darüber, wie stark die Wahrscheinlichkeiten anwachsen. Ein groß er
Anstieg an einer Stelle x bedeutet aber, dass sehr viele Versuchsergebnisse in dem Bereich
um x zu erwarten sind.
Daher nennt man die Ableitung der Verteilungsfunktion einer stetigen Zufallsgröß e auch
Dichtefunktion: f(x) = F’(x)
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
13
I.3.2. Stetige Verteilungen
Die Dichtefunktion des Beispiels „ X = Richtung des Zeigers“ hat folgende Gestalt:
1/(2p)
1/(2p)
0
0
p
2p
Die gemeinsame Verwendung des Buchstabens f für die Dichtefunktion und die
Wahrscheinlichkeitsfunktion hat folgenden Grund: Wie bereits festgestellt wurde, ist die
Sprunghöhe
einer
diskreten
Verteilungsfunktion
genau
f(xi).
Die
Wahrscheinlichkeitsfunktion legt also ebenfalls die „ Steigung“ ihrer Verteilungsfunktion fest.
In Formeln ausgedrückt erkennt man den Zusammenhang sehr schnell:
x
F( x ) =
ò f (v)dv
bei stetigen Zufallsgröß en und
å f (x )
bei diskreten Zufallsgröß en.
-¥
F( x ) =
xi £x
i
Beide Funktionen geben die Gesamtwahrscheinlichkeit bis zur Stelle x, also P(X £ x) an.
Wie schon bei diskreten, so kann man auch bei stetigen Zufallsgröß en Wahrscheinlichkeiten
direkt ablesen. Die Begründungen wären analog zum diskreten Fall zu führen. Deshalb sind
sie hier weggelassen und nur die Ergebnisse festgehalten:
¥
P(X > a) = 1 – F(a) =
b
ò f ( x)dx
P(a < X £ b) = F(b) – F(a) =
a
a
a
P(X = a) = P(a £ X £ a) =
ò f ( x)dx = 0;
(im stetigen Fall lassen sich die
Gleichheitszeichen beliebig verteilen)
a
Bei
der
letzten
Formel
ò f ( x)dx
erkennt
man
einen
Unterschied
zwischen
der
Wahrscheinlichkeitsfunktion und der Dichtefunktion: Wenn a ein unmögliches Ereignis ist,
dann weiß man, dass die Wahrscheinlichkeit
f(a) = 0
sein muss. Bei einer diskreten
Zufallsgröß e kann man auß erdem aus f(a) = 0 darauf schließ en, dass a ein unmögliches
Ereignis ist. Bei stetigen Vertei-lungen ist dies nicht der Fall, da f(a) für jede Zahl gleich 0
ist. Das Ereignis selber ist aber trotzdem nicht unbedingt unmöglich. Dies liegt daran, dass
sich die Wahrscheinlichkeit auf unendlich viele mögliche Ereignisse aufteilt. Für jeden
einzelnen Punkt bleibt dann nur noch unendlich wenig (æ 0) übrig.
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
I.3.3. Maß zahlen / Momente von Verteilungsfunktionen
14
I. 3. 3. Maßzahlen / Momente von Verteilungsfunktionen
Um eine Verteilung zu beschreiben verwendet man sogenannte Momente. Sie sind
Maß zahlen, die den Verlauf von Verteilungen genauer beschreiben. Die drei wichtigsten
sind Erwartungswert, Varianz und Standardabweichung.
I. 3. 3. a) Erwartungswert
Der Erwartungswert E(X) (meist einfach µ genannt) macht eine Aussage über die Lage der
Wahrscheinlichkeitsfunktion bzw. Dichte im Koordinatensystem, also darüber, welchen Wert
die Zufallsgröß e X „ im Mittel“ annimmt. Deshalb bezeichnet man ihn auch als
Lageparameter.
Statistischer / mathematischer Mittelwert
Das arithmetische Mittel von n Zahlen x1, x2, ..., xn lässt sich bekanntlich folgendermaß en
berechnen:
x=
x1 + x2 +...+ xn 1 n
= å xi
n
n i =1
[z.B.: 1, 2, 2, 2, 3: (1+2+2+2+3)/5 = 10/5 = 2]
Geht man davon aus, dass die Zahlen x i untereinander verschieden sind (was bei
Betrachtungen mit Zufallsgröß en ja gegeben ist), so muss man die (absolute) Häufigkeit H(x)
ihres Auftretens berücksichtigen. Man spricht vom gewogenen Mittel:
x=
1 k
å H ( xi ) × xi
n i =1
[(1, 2, 2, 2, 3: (1×1+3×2+1×3)/5 = 10/5 = 2]
(k ist die Anzahl der untereinander verschiedenen Zahlen aus den n vorhandenen).
Nachdem
1
H ( xi ) gleichbedeutend mit der relativen Häufigkeit h(xi) ist, ergibt sich damit für
n
k
den Mittelwert: x = å h( xi ) × xi
i =1
Der Mittelwert ist also die Summe der auftretenden verschiedenen Werte von x, gewogen
jeweils mit ihrer relativen Häufigkeit.
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
I.3.3.a) Erwartungswert
15
Stochastischer Erwartungswert
Die relativen Häufigkeiten h(xi) sind ja (bei vielen Durchführungen des Experiments)
Näherungswerte für die Wahrscheinlichkeit f(xi) (® Gesetz der Groß en Zahlen). Deshalb
definiert man für die Behandlung von Zufallsgröß en einen entsprechenden Mittelwert und
nennt ihn Erwartungswert E(X):
Ist X eine diskrete Zufallsgröß e mit der Wertemenge WX = {x1, x2, ..., xn} und den
Wahrscheinlichkeiten f(x1), f(x2), ..., f(xn), so heiß t
n
E(X) = µ =
å x × f (x )
i =1
i
i
Erwartungswert der Zufallsgröß e X1.
Diese Definition lässt sich leicht auf stetige Zufallsgröß en übertragen. Für den
Erwartungswert verwendet man hier statt der Wahrscheinlichkeitsfunktion die Dichtefunktion
und ersetzt die Summe durch ein Integral:
Ist X eine stetige Zufallsgröß e mit der Dichte f, so heiß t
¥
E(X) = µ = ò x × f ( x)dx Erwartungswert der Zufallsgröß e X1.
-¥
Der Erwartungswert ist eine reelle Zahl, die keineswegs in der Definitionsmenge der
Zufallsgröß e enthalten sein muss.
So gilt zum Beispiel bei dem Wurf mit einem sechsseitigen L-Würfel:
E(X) = 1 × 1 + 2 × 1 + 3 × 1 + 4 × 1 + 5 × 1 + 6 × 1 = 1 × (1 + 2 + 3 + 4 + 5 + 6 ) = 3,5 .
6
6
6
6
6
6
6
Für die Zufallsgröß e X gelten folgende Sätze:
· Sind alle Werte xi gleichwahrscheinlich, so ist E(X) gleich dem arithmetischen Mittel der
Werte xi (so war es bei der obigen Berechnung von E(X) für einen Würfel).
· Sind die Wahrscheinlichkeiten symmetrisch um eine Zahl c angeordnet, so ist:
E(X) = E(c) = c (so ist es bei der Augensumme zweier Würfel: E(X) = 7).
1
Den Erwartungswert bezeichnet man mitunter auch als Moment 1. Ordnung
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
I.3.3.a) Erwartungswert
· E(c × X) = c × E(X);
[ Bew.: E(c × X) =
· E(X + c) = E(X) + c;
n
n
i =1
i =1
å c × x i × P( x i ) = c × å x i × P( x i ) = c × E(X) ]
n
[ Bew.: E(X + c) =
16
å (x
i =1
i
+ c) × P ( x i ) =
n
n
i =1
i =1
n
åx
i =1
i
× P( x i ) +
+ å c × P( x i ) = E ( X) + c × å P( x i ) = E( X) + c × 1 = E(X) + c ]
Die Beweise für stetige Zufallsgröß en laufen analog.
Þ E(a × X + b) = a × E(X) + b
Im Beispiel „ X = Winkel des Zeigers einer Drehscheibe“ ist f symmetrisch zu x = p und
damit ist E(X) = p. Man kann den Erwartungswert aber auch über die Formel ausrechnen:
¥
2p
1
E(X) = ò x × f ( x )dx = ò x ×
dx =
2p
-¥
0
2p
é 1 x2 ù
4p 2
=
=p.
×
ê 2p 2 ú
4p
û0
ë
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
I.3.3.b) Varianz (Streuung)
17
I. 3. 3. b) Varianz (Streuung)
Für die Beurteilung einer Verteilung ist nicht nur der Mittelwert interessant, sondern auch die
„ Streuung“ , also die Abweichungen von diesem Mittelwert.
Diese Tatsache kann durch ein einfaches Beispiel der Statistik veranschaulicht werden:
Bei einem Test von je 40 Schülern ergaben sich folgende Notenverteilungen:
Noten:
1
2
3
4
5
6
Noten:
1
2
3
4
5
6
Anzahl:
12
8
3
8
3
6
Anzahl:
5
8
15
7
4
1
Möchte
man
nun
beide
Ergebnisse
vergleichen,
so
rechnet
man
bei
beiden
zweckmäß igerweise den Mittelwert aus:
x1 =
5 × 1 + ... + 1× 6 120
12 × 1 + 8 × 2 + 3 × 3 + 8 × 4 + 3 × 5 + 6 × 6 120
=
= 3 ; x2 =
=
= 3;
12 + 8 + 3 + 8 + 3 + 6
40
40
40
Beide Mittelwerte sind also gleich. Trotzdem sind die Verteilungen sehr unterschiedlich. Die
meisten Noten der ersten Verteilung liegen viel weiter von x entfernt, als bei der zweiten.
Deshalb benötigt man zur genaueren Analyse einen Wert für die „ Streuung“ um den
Mittelwert. In der Wahrscheinlichkeitsrechnung stellt sich das gleiche Problem mit der
Abweichung um den Erwartungswert.
Die Abweichung eines Messwertes xi vom Erwartungswert µ ist durch die Differenz xi – µ
gegeben. Naheliegend wäre also, als Maß der mittleren Abweichung den Mittelwert all dieser
1 n
Differenzen zu nehmen: å ( xi - m ). Dies ist jedoch nicht möglich, da gilt:
n i =1
aus µ = (x1+x2+...+xn)/n folgt (x1+x2+...+xn) = n×µ
n
å (x
i =1
i
- m ) = (x1 – µ) + (x2 – µ) + ... + (xn – µ) = (x1 + x2 + ... + xn) – n×µ = n×µ – n×µ = 0
Wie schon der Name Mittelwert andeutet, heben sich alle positiven und negativen
Abweichungen von µ gegenseitig auf.
(Nach den früher bewiesenen Sätzen gilt ja auch: E(X – µ) = E(X) – E(µ) = µ – µ = 0.)
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
I.3.3.b) Varianz (Streuung)
18
Da für die Abweichung weniger die Richtung als die absolute Größ e von Bedeutung ist, ist
der nächste logische Schritt, den absoluten Betrag der Differenz, also |xi – µ| zu verwenden.
Um das umständliche Rechnen mit Beträgen zu vermeiden, verwendet man statt dem Betrag
das Quadrat und definiert:
Ist X eine Zufallsgröß e mit dem Erwartungswert E(X) = µ, so heiß t die reelle Zahl
n
(im diskreten Fall)
s² = V(X) = E( (X – µ)² ) =
å (x
i =1
i
- m) 2 × f (x i )
¥
(im stetigen Fall)
2
s² = V(X) = E( (X – µ)² ) = ò ( x - m ) × f ( x )dx
-¥
Varianz2 von X.
[Eine Varianz von 0 kommt also nur dann vor, wenn eine sogenannte Einpunktverteilung
vorliegt, also die Zufallsgröß e nur den Wert µ annimmt.]
Aufgrund der Eigenschaft der Varianz, den Verlauf der Verteilung zu beschreiben, bezeichnet
man sie als Formparameter im Gegensatz zu dem Lageparameter Erwartungswert.
Die Wahl des Quadrats hat auß erdem den Vorteil, dass stärkere Abweichungen vom
Erwartungswert auch mehr ins Gewicht fallen als kleinere.
Für die Varianz gelten folgende Formeln (auf die etwas längeren Beweise wird hier
zugunsten der Ü bersichtlichkeit verzichtet):
Wichtig ist vor allem der folgende Spezialfall des Verschiebungssatzes für a = 0:
· V(X) = E((X – a)²) – (E(X) – a)²
Þ
V(X) = E(X²) – E(X)² = E(X²) - µ²;
(„ Varianz ist der Erwartungswert der Quadrate minus dem Quadrat des Erwartungswerts“ )
· V(a × X + b) = a² × V(X);
· V(c) = 0 [ Bew.: V(c) = E(c²) – E(c)² = c² – c² = 0
oder: V(c) = E[c – E(c)]² = E(c – c) = E(0) = 0 ]
2
Andere Bezeichnungen für die Varianz sind: Streuungsquadrat, mittlere quadratische Abweichung, D²(X) (vom
englischen ‘deviation’), Dispersion, zentrales Moment 2. Ordnung
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
I.3.3.c) Standardabweichung
19
I. 3. 3. c) Standardabweichung
Da bei vielen praktischen Anwendungen Elemente eines Größ enbereichs vorkommen (also
Werte mit einer Benennung), verwendet man auch die Wurzel aus der Varianz, die dann die
gleiche Einheit hat, wie die Größ en selbst.
Man nennt s =
Var (X ) die Standardabweichung3 einer Verteilung.
Bei dem vorher behandelten Notenbeispiel erkennt man nun die unterschiedlichen
Verteilungen an den Werten für die Standardabweichung s:
1) (1 - 3) 2 × 12 40 + (2 - 3) 2 × 8 40 + (3 - 3) 2 × 3 40 + (4 - 3) 2 × 8 40 + (5 - 3) 2 × 3 40 + (6 - 3) 2 × 6 40 =
= (4 × 12 + 1 × 8 + 0 × 3 + 1 × 8 + 4 × 3 + 9 × 6) / 40 = 130 / 40 = 3,25 Þ s = 1,80
2) (1 - 3) 2 × 5 40 + (2 - 3) 2 × 8 40 + (3 - 3) 2 × 15 40 + (4 - 3) 2 × 7 40 + (5 - 3) 2 × 4 40 + (6 - 3) 2 × 140 =
= (4 × 5 + 1 × 8 + 0 × 15 + 1 × 7 + 4 × 4 + 9 × 1) / 40 = 60 / 40 = 1,5
Im
folgenden
Diagramm
sind
zu
dieser
Þ s = 1,22
Notenverteilung
die
jeweiligen
Standardabweichungen und der Mittelwert eingetragen. Mit Hilfe der Varianz erkennt man
sofort die unterschied-liche Verteilung der beiden Notenergebnisse trotz der jeweils gleichen
Durchschnittsnote:
sb
a
sa
1
3
2
µ =3
b
4
5
Die Standardabweichung wird oft auch als Streuung oder D(X) bezeichnet
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
6
I.3.4. Standardisierung
20
I. 3. 4. Standardisierung
Um unterschiedliche Verteilungen gut miteinander vergleichen zu können, müssen sie
bestimmte Bedingungen erfüllen.
Die sogenannte Standardisierung transformiert eine Zufallsgröß e so, dass sie den
Erwartungswert E(X) = 0 und die Standardabweichung s = 1 hat. Diese neue Zufallsgröß e
nennt man meist Z4.
Þ Z:= X - E(X) = X - m heiß t die zu X gehörende standardisierte Zufallsgröß e.
Bei ihr gilt: E(Z) = 0 und s = 1.
Unter
Verwendung
der
bewiesenen
Formeln
für
den
Erwartungswert
und
die
Standardabweichung lässt sich folgender Beweis führen (man berechnet den Erwartungswert
und die Standardabweichung für beliebige Zufallsgröß en X):
1
æ X - E( X) ö
æ1
ö 1
E( Z) = Eç
÷ = Eç × ( X - E( X))÷ = × ( E( X) - E( E( X))) = × ( E( X) - E( X)) = 0
è
ø
ès
ø s
s
s
æ 1 ö
æ 1
ö
æ X
æ X - E ( X) ö
E ( X) ö
s ( X)
=1
× X÷ = sç
s ( Z) = s ç
÷ × s ( X) =
÷ = sç
÷ = sç
è s ( X) ø
è s ( X) ø
è s ( X) s ( X) ø
è s ( X) ø
s ( X)
An der Standardisierung der beiden Notenverteilungen von vorher erkennt man, dass die
Verteilungen trotz gleichem E(X) und s ihre charakteristischen Eigenschaften behalten
haben:
sa = sb = 1
a
b
-1,5
-0,5
µ a = µ b = 0 0,5
1,5
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
I.3.4. Standardisierung
21
Anschaulich lässt sich der Vorgang der Standardisierung zum Beispiel gut bei der später
genauer
eingeführten
Binomialverteilung
zeigen.
Bei
der
folgenden
Wahrscheinlichkeitsfunktion (mit völlig willkürlich gewählten Parametern) ist ein
Balkenstück des Graphen hervorgehoben:
Bei der Standardisierung wird die Breite
(und damit auch die Fläche) der einzelnen
II.
Rechtecke
B(2)
des
Histogramms
durch
s
dividiert.
Da aber die Flächen dieser Rechtecke ein
Maß für die jeweilige Wahrscheinlichkeit
darstellen,
1
müssen
die
Höhen
des
Histogramms mit s multipliziert werden.
Die Standardsierung ist somit also eine
Dividiert durch s
B(2)
s
flächentreue Abbildung.
Schließ lich
wirkt
Verschiebung um
Ausse-hen
sich
nur
noch
die
µ
nach links auf das
der
standardisierten
Verteilungsfunktion aus.
multipliziert mit s
1/s
B(2)
1/s
Die Breite des Flächenstück B(2) wurde im ersten Schritt von 1 auf 1/s verkürzt. Deshalb
wird die Höhe von B(2) mit s auf s×B(2) vergröß ert.
Die Höhen der standardisierten Verteilungsfunktion sind also s×B(k).
4
Auch die Bezeichnung U ist üblich (vom englischen ‘unit’). Wegen der Division durch s ist U immer
dimensionslos.
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
II. Spezielle Verteilungen
II.1. Binomialverteilung
22
Spezielle Verteilungen
Nach
diesen
allgemeinen
Betrachtungen
über
Wahrscheinlichkeits-,
Dichte-
und
Verteilungsfunktionen sollen nun die wichtigsten besonderen Verteilungen der Stochastik
vorgestellt werden. Sie haben alle eine groß e praktische Bedeutung, auf die in den jeweiligen
Abschnitten noch besonders eingegangen wird. Die Vorstellung dieser Verteilungen ist
deshalb so wichtig, da nur so einheitliche Schreibweisen und Bezeichnungen garantiert
werden können, um danach keine Probleme bei dem Vergleich der Verteilungen zu haben.
II. 1. Binomialverteilung
Die wohl am häufigsten eingeführte Verteilung beruht auf den sogenannten BernoulliExperimenten5. Diese zeichnen sich dadurch aus, dass sie (zumindest theoretisch) beliebig oft
wiederholbar sind, und dass sich trotzdem die Wahrscheinlichkeit für die möglichen
Ereignisse nicht ändert. Das heiß t, die Durchführungen müssen voneinander unabhängig sein.
Das wohl wichtigste Kriterium ist aber, dass (nur) genau zwei einander ausschließ ende
Ereignisse eintreten können.
Dies scheint eine strenge Einschränkung zu sein, ist jedoch bei einer Vielzahl von Ereignissen
der Fall. Beim Wurf einer Münze unterscheidet man zum Beispiel meist zwischen Kopf und
Zahl, bei Losen zwischen Gewinn und Niete. Selbst Experimente mit mehreren möglichen
Ergebnissen kann man geeignet einteilen: Bei einem Würfel kann man so unter anderem nur
die Ereignisse „ gerade“ und „ ungerade“ oder „ größ er 3“ und „ kleiner gleich 3“ betrachten.
5
Jakob BERNOULLI, Basel 1654 - 1705; seit 1687 Professor der Mathematik in Basel; trug u.a. entscheidend
zur
Einführung
der
Infinitesimalrechnung
bei;
in
seiner
Ars
conjectandi
Wahrscheinlichkeitsrechnung (Bernoullische Zahlen und Gesetz der groß en Zahlen)
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
förderte
er
die
II.1. Binomialverteilung
23
Herleitung: Die Wahrscheinlichkeit für das Ereignis E sei p, für das Gegenereignis E´ sei sie
q = 1 - p. Mit n wird die Anzahl der Durchführungen, mit k die Zahl der günstig
ausgegangenen Bernoulli-Experimente bezeichnet.
Die Wahrscheinlichkeit, dass k mal das Ereignis E (und damit n-k mal E´) in einer
ænö
bestimmten Reihenfolge eintritt, ist somit pn × qn-k. Es gibt aber çç ÷÷ Möglichkeiten um k mal
èkø
E und n-k mal E´ anzuordnen.
æ nö
Deshalb gilt insgesamt: P(X = k) = ç ÷ × p k × q n- k .
è kø
Þ Die Wahrscheinlichkeit, dass bei n Durchführungen eines Bernoulli-Experiments das
Ereignis E mit der Wahrscheinlichkeit P(E) = p genau k-mal eintritt, ist mit der
Wahrscheinlichkeitsfunktion der Binomialverteilung auszurechnen:
B(n;p;k) = æç n ö÷ × p k
èkø
× (1 - p ) n -k mit n Î N, k Î {0, 1, 2, ..., n} und q = 1 - p.
Nach der allgemeinen Definition von Verteilungsfunktionen lautet die (kumulative)
Binomialverteilungsfunktion (wobei n Î N und p Î [0; 1]):
r x<0
ì0
n
k
n -k fü
F( x ) = ïí å æçè k ö÷ø × p × (1 - p )
für 0 £ x < n
ïï1 0 £ k £ x
für x ³ n
î
Die Eigenschaft jeder Verteilungsfunktion, dass F(n) = 1 sein muss, ist erf üllt: Nach dem binomischen Lehrsatz gilt nämlich:
n
F(n) =
æ nö
å çè k ÷ø p
k
× q n- k = ( p + q) n
(daher auch der Name). Aus q = 1 - p folgt p + q = 1 und damit F(n) =
1n
= 1.
k =0
Eine Bernoulli-Kette der Länge n lässt sich durch die Summe von n sogenannten
zweipunktverteilten Zufallsgröß en Xi darstellen. Diese können nur die zwei Werte 0 und 1
mit den Wahrscheinlichkeiten p und q annehmen. Sie haben den Erwartungswert E(Xi) =
1×p+0×q = p. und die Varianz V(Xi) = q²×p + p²×q = p×q×(q + p) = p×q. Mit den Formeln für die
Summe aus mehreren unabhängigen Zufallsgröß en lässt sich berechnen:
E(X) = E(X1 + X2 + ... + Xn) = E(X1) + E(X2) + ... + E(Xn) = n×E(Xi) = n×p;
V(X) = V(X1 + X2 + ... + Xn) = V(X1) + V(X2) + ... + V(Xn) = n×V(Xi) = n×p×q;
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
II.1. Binomialverteilung
24
Beispiel: Angenommen, dass bei Flugzeugen die Motoren unabhängig voneinander mit der
Wahrscheinlichkeit q = 1 – p ausfallen. So ein Flugzeug kann sein Ziel dann noch erreichen,
wenn wenigstens die Hälfte seiner Motoren noch funktionieren. Welche Maschine sollte man
vorziehen, einmotorig, mit zwei oder mit drei Motoren? Hängt diese Entscheidung von q ab?
X = Anzahl der funktionierenden Motoren bei einem Flug
· 1-motorig: P(„ erfolgreicher Flug“ ) = P(X = 1) = p
· 2-motorig: P(„ erfolgreicher Flug“ ) = P(X = 1) = P(X = 1) + P(X = 2) =
æ 2ö
= 1 – P(X = 0) = 1 - çç ÷÷ × p 0 q 2 = 1 - q 2
è0ø
· 3-motorig: P(„ erfolgreicher Flug“ ) = P(X = 2) = P(X = 2) + P(X = 3) =
æ 3ö
æ 3ö
= çç ÷÷p 2 q1 + çç ÷÷p 3 q 0 = 3p 2 q + p 3 = 3p 2 (1 - p ) + p 3 = 3p 2 - 3p 3 + p 3 = 3p 2 - 2p 3
è 2ø
è 3ø
Zum Vergleich, welche Art Flugzeug nun wann die beste ist, prüft man:
· P(„ Flugzeug mit 1 Motor kommt an“ ) ¬ P(„ Flugzeug mit 2 Motoren kommt an“ )?
1 – q² ¬ 1 – q;
q² ¬ q
Þ für 0 < q < 1 gilt 1 – q² > p;
Bei q = 0 bzw. q = 1 ist es also egal, welches Flugzeug man verwendet. In allen anderen
Fällen empfiehlt es sich aber die zweimotorige Maschine zu wählen.
· P(„ Flugzeug mit 2 Motoren kommt an“ ) ¬ P(„ Flugzeug mit 3 Motoren kommt an“ )?
1 – q² ¬ 3p² – 2p³;
Linke Seite: 1 – (1 – p)² = 1 – (1 – 2p + p²) = 2p – p²
2p³ – 3p² + 2p – p² ¬ 0;
2p³ – 4p² + 2p ¬ 0;
p² – 2p + 1 ¬ 0;
(p – 1)² ¬ 0;
Ignoriert man die Trivialfälle p = 0 und p = 1 (bei denen es keine Rolle spielt, welche Flugzeugkonfiguration man verwendet, da man immer abstürzt bzw. ankommt), so erkennt man,
dass es keine p gibt, für das die dreimotorige sicherer als der Flieger mit nur zwei Motoren ist.
Muss man sich also zwischen Flugzeugen mit einem, zwei oder drei Motoren entscheiden, so
sollte man hier das doppelt bestückte Modell wählen.
Wie die Rechnung zeigt, ist eine Maschine mit vier Motoren nur dann sicherer als eine
Zweimotorige, wenn die Ausfallwahrscheinlichkeit q der einzelnen Motoren unter 1/3 liegt.
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
II.1. Binomialverteilung
25
Besonders anschaulich lässt sich die Verteilung, die auf Bernoulli-Experimenten beruht, mit
einem sogenannten Galton-Brett6 zeigen:
Hier treffen Kugeln auf gleichmäß ig angeordnete Hindernisse (zum Beispiel halb
eingeschlagene Nägel). Der Raum unterhalb dieser Anordnung ist in gleich breite Kammern
aufgeteilt, in die die Kugeln fallen. In jeder Nagelebene ist die Wahrscheinlichkeit, dass die
Kugel nach rechts (oder links) hinunterfällt 0,5 (50 Prozent). Deshalb sind die Kugeln in den
Auffanggefäß en im Idealfall binomial verteilt (mit den Parametern p = 0,5 und n = Anzahl der
Nägel).
Auch Verteilungen mit Trefferwahrscheinlichkeiten ungleich 0,5 lassen sich auf diese Art und
Weise realisieren: Man ordnet mehrere Wasserbehälter untereinander an. Jeder dieser
Behälter besitzt zwei Abläufe, einen nach rechts und einen nach links. Das Verhältnis der
Querschnitte dieser beiden Rohre bestimmt die „ Wahrscheinlichkeit“ , mit der das Wasser in
die jeweiligen Richtungen abfließ t. Ist der linke Abfluss zum Beispiel doppelt so groß wie der
rechte, so fließ t das Wasser mit einer Wahrscheinlichkeit von 2/3 in den nächsten Behälter
nach links (beziehungsweise jedes Atom bewegt sich mit dieser Wahrscheinlichkeit in diese
Richtung).
6
Sir Francis GALTON, England 1822 - 1911; er war tätig im Bereich der Geographie, Meteorologie,
Vererbungslehre und erarbeitete (um sein angesammeltes statistisches Material zu verarbeiten) die
Korrelationsrechnung.
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
II.2. Hypergeometrische Verteilung
26
II. 2. Hypergeometrische Verteilung
Obwohl im stochastischen Umgang mit Wahrscheinlichkeiten die Binomialverteilung am
häufigsten angewandt wird, sind die meisten Zufallsexperimente hypergeometrisch verteilt.
Die hypergeometrische Verteilung gibt nämlich die Wahrscheinlichkeit für Versuche ohne
Zurücklegen wieder. Sie ist daher unter anderem für alle Stichproben geeignet, bei denen
durch Untersuchung einiger Teile auf den Gesamtanteil von Merkmalen in einer größ eren
Menge geschlossen werden soll. Hierbei werden die untersuchten Teile natürlich gleichzeitig
gezogen beziehungsweise nicht mehr zurückgegeben. Trotzdem wird häufig die Binomialverteilung zur Berechnung angewandt, da sie – wie in Punkt III.1. gezeigt wird – für größ ere
Mengen eine gute Näherung darstellt.
Herleitung: Es soll die Wahrscheinlichkeit ermittelt werden, dass bei einer Stichprobe genau
k Stücke defekt sind (beziehungsweise allgemein ein besonderes Merkmal besitzen), wenn
n-mal (ohne Zurücklegen) aus einer Menge N mit insgesamt K defekten Stücken gezogen
wird.
Zuerst gibt es ‚K über k‘ Möglichkeiten, aus K defekten Teilen k herauszugreifen und die
Anzahl der Kombinationen der n – k herausgegriffenen, nicht defekten Stücke innerhalb der
Restmenge von N– K Teilen errechnet sich durch ‚(N– K) über (n– k)‘. Insgesamt ergeben
æKö æN - Kö
÷÷ Möglichkeiten. Stichproben vom Umfang n aus einer
sich also bis jetzt çç ÷÷ × çç
èkø è n-k ø
Menge von N Elementen zu ziehen sind auf ‚N über n‘ Arten möglich. Daraus ergibt sich
æKö æN - Kö
÷÷
nun die Wahrscheinlichkeit von çç ÷÷ × çç
èkø è n-k ø
æ Nö
çç ÷÷ .
ènø
Definition: Die Wahrscheinlichkeit, dass sich in einer Stichprobe vom Umfang n aus einer
Menge mit N Elementen, von denen K eine bestimmte Eigenschaft haben, genau k Elemente
mit dieser Eigenschaft befinden ist hypergeometrisch verteilt. Es gilt:
æK ö æN - K ö
çç ÷÷ × çç
÷÷
èkø è n-k ø
P(X = k) = H(N; K; n; k) =
æNö
çç ÷÷
ènø
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
II.2. Hypergeometrische Verteilung
27
Die Berechnung der Momente der hypergeometrischen Verteilung ist nicht so einfach wie bei
der Binomialverteilung, da hier die einzelnen Versuche nicht unabhängig sind. Man muss
also berechnen:
E(X ) =
Min ( n ; K )
Min ( n ; K )
k =0
k =0
å k × H(N; K; n; k ) = å
æKö æN - Kö
K æ K - 1ö æ N - K ö
çç ÷÷ × çç
÷÷ Min (n ; K )
÷×ç
÷
×ç
kø è n-k ø
k çè k - 1 ÷ø çè n - k ÷ø
è
k×
= å k×
=
æ Nö
N æ N - 1ö
k =1
çç ÷÷
÷
×ç
n çè n - 1 ÷ø
ènø
æ Nö
æ K ö K æ K - 1ö
N!
N
N æ N - 1ö
(N - 1)!
çç ÷÷ =
÷÷; ana log : çç ÷÷ = × çç
÷÷
= ×
= × çç
è n ø n!×(N - n )! n (n - 1)!×[(N - 1)!-(n - 1)]! n è n - 1 ø
è k ø k è k -1ø
= n×
m = k -1
= n×
K
×
N
Min ( n -1; K -1)
å
m =0
æ K - 1ö æ ( N - 1) - (K - 1)ö
çç
÷÷ × çç
÷÷
Min ( n -1; K -1)
è m ø è n -1- m ø = n × K ×
å H(N - 1; K - 1; n - 1; m ) =
N
æ N - 1ö
m=0
çç
÷÷
è n -1 ø
K Min (n -1; K -1)
K
× å FH (m ) = n ×
N 142
N
m=0
43
=1
K
Der Erwartungswert der hypergeometrischen Verteilung ist daher: E(X) = n × N = n×p
Die Varianz auszurechnen erfordert noch etwas mehr Aufwand. Man verwendet als Ansatz
V(X) = E(X²) – E(X)² und erhält schließ lich: V(X) = npq × ‚Korrekturglied‘
Die Varianz der hypergeometrischen Verteilung ist:
K æ
Kö N-n
V(X) = n × N × çè 1 - N ÷ø × N - 1
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
II.2. Hypergeometrische Verteilung
28
Die hypergeometrische Verteilung ist zu verwenden, wenn man mehrere Elemente
gleichzeitig (= ohne Zurücklegen) zieht. So zum Beispiel bei vielen Kartenspielen:
Beispiel: Es lassen sich auf diese Weise beispielsweise schnell folgende Wahrscheinlichkeiten
beim Schafkopf[en] ermitteln:
æ 8 ö æ 24 ö
çç ÷÷ × çç ÷÷
è 8 ø è 0 ø = 1 = 9,5 ×10 -8
æ 32 ö
æ 32 ö
çç ÷÷
çç ÷÷
è8ø
è8ø
P(„ alle 4 Ober und 4 Unter in einer Hand“ ) =
= P(„ 8 bestimmte Karten in der Hand“ ) =
Þ n = 8; N = 32; K = 8; k = 8;
Die Chancen stehen also 1 : 10518300, also 1 : 107;
P(„ alle 4 Ober“ ) = P(„ 4 bestimmte Karten“ ) =
æ 4 ö æ 28 ö
çç ÷÷ × çç ÷÷
è 4 ø è 4 ø = 20475 = 1,9 ×10 -3
æ 32 ö
æ 32 ö
çç ÷÷
çç ÷÷
è8ø
è8ø
Þ n = 8; N = 32; K = 4; k = 4;
Die Chancen stehen also 1 : 514;
P(„ 6 oder mehr Trümpfe für ein beliebiges Solo“ ) = P(„ 6, 7 oder 8 aus 14 möglichen“ ) =
Þ n = 8; N = 32; K = 14; k ³ 6;
éæ14 ö æ18 ö æ14 ö æ18 ö æ14 ö æ18 öù
= êçç ÷÷ × çç ÷÷ + çç ÷÷ × çç ÷÷ + çç ÷÷ × çç ÷÷ú
ëè 6 ø è 2 ø è 7 ø è 1 ø è 8 ø è 0 øû
= P(6) + P(7) + P(8) =
æ 32 ö 459459 + 61776 + 3003
çç ÷÷ =
= 0,050
10518300
è8ø
Die Chancen stehen somit 1 : 20;
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
II.3. Negativ-Binomialverteilung
29
II. 3. Negativ-Binomialverteilung
Der Negativ-Binomialverteilung liegt zwar wie bei der Binomialverteilung ein BernoulliExperiment zu Grunde, aber mit der Einschränkung, dass (nur) so oft wiederholt wird, bis
genau r-mal ‘Erfolg’ eingetreten ist. Die Zufallsgröß e X bezeichnet dann die Anzahl der
benötigten Versuche (r = 1 entspricht also zum Beispiel der Fragestellung: ‘Wie oft muss man
etwas versuchen, bis es [einmal] klappt?’).
Da r Erfolge eintreten müssen, kann X die Werte r, r+1, r+2, ... annehmen. Die Versuchsreihe
kann theoretisch auch endlos fortgesetzt werden müssen.
Um zur Wahrscheinlichkeitsfunktion zu kommen, überlegt man:
Der letzte Versuch muss erfolgreich ausgegangen sein. Er darf daher nicht berücksichtigt
werden.
æ k - 1ö
Bei k Versuchen gibt es genau çç
÷÷ Möglichkeiten, die restlichen r – 1 nötigen Ausè r -1ø
führungen zu verteilen.
Wie bei der Bernoulli-Kette gezeigt wurde, ist die Wahrscheinlichkeit, dass so eine
Versuchsreihe mit genau r Erfolgen und damit k – r Fehlschlägen auftritt, gleich pr×qk-r.
æ k - 1ö r k - r
Es ergibt sich bis jetzt also insgesamt: P(X = k) = ç
÷ × p × q wobei k ³ r.
è r - 1ø
Interessant ist nun hauptsächlich die Anzahl der Versuche, die nicht erfolgreich ausgegangen
sind. Da aber immer mindestens r Versuche durchgeführt werden müssen, berechnet man
zweckmäß igerweise die Verteilung der Zufallsgröß e Y = X - r. Für die Anzahl der Versuche
muss jetzt ein anderer Buchstabe verwendet werden (hier m statt k).
æ m + r - 1ö r m+ r - r
Das bedeutet: P(Y = m) = P(X-r = m) = P(X = m+r) = ç
.
÷ ×p ×q
è r -1 ø
( r + m - 1) !
( r + m - 1) ! æ r + m - 1ö
æ r + m - 1ö
Da ç
=
=ç
÷=
÷ ist, gilt:
è r - 1 ø ( r - 1) !× ( r + m - 1 - r + 1) ! ( r - 1) !× m! è m ø
Definition: Eine negativ-binomialverteilte Zufallsgröß e liegt dann vor, wenn für die
æ r + m - 1ö r m
÷÷ × p q
Wahrscheinlichkeitsfunktion gilt: P(X = m) = çç m
è
ø
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
II.3. Negativ-Binomialverteilung
30
Diese Schreibweise lässt sich formal noch umformulieren zu7:
æ - rö
m
P(Y = m) = ç ÷ × p r × ( -q ) . Daher auch der Name negativ-binomial.
è mø
Die Negativ-Binomialverteilung gibt also die Wahrscheinlichkeit wieder, dass vor dem r-ten
Erfolg genau m Misserfolge liegen.
Bei der Herleitung des Erwartungswerts und der Varianz bedient man sich desselben Tricks
wie schon bei der Binomialverteilung: Man teilt die Zufallsgröß e Y auf und berechnet:
E(Y) = E(X – r) = E(X) – E(r) = E(X1) + E(X2) + ... + E(Xr) – E(r) = r×E(Xi) – r
Die einzelnen Xi sind geometrisch verteilt, das heiß t es gilt: E(Xi) = 1/p.
æ1 ö
æ1 - p ö
1
q
÷÷ = r ×
E(Y ) = r × - r = r × çç - 1÷÷ = r × çç
p
p
èp ø
è p ø
Für die Varianz folgt entsprechend: V(Y) = V(X1) + ... + V(Xr) – V(r) = r×V(Xi) = r ×
q
E(Y) = r × p
q
p2
q
V(Y) = r × p 2
Nun soll diese Wahrscheinlichkeitsberechnung mit Hilfe der Negativ-Binomialverteilung
noch auf ein kurzes Beispiel angewandt werden:
Beispiel: Ein Schüler macht seine Hausaufgaben mit einer Wahrscheinlichkeit von 0,4. Wie
groß ist nun die Wahrscheinlichkeit, dass er am Ende einer Woche (also am fünften Tag) zum
dritten Mal vorbereitet in die Schule geht?
Y = Anzahl der Tage, an denen er keine Aufgaben bearbeitet hat
Die Zufallsgröß e X ist dann negativ-binomial verteilt und es gilt: P(„ Am 5. Tag zum 3. Mal
vorbereitet“ ) = P(„ Zweimal nicht vorbereitet“ ) = P(Y = 2);
Die Parameter sind: m = 2; p = 0,4; q = 1 – p = 0,6; r = 3;
æ 3 + 2 - 1ö
÷÷ × 0,43 × 0,6 2 = 0,13824 = 13,8%
P(Y = 2) = çç
2
è
ø
7
m Faktoren
644444444744444444
8
æ r + m - 1ö ( r + m - 1)! ( r + m - 1) × ... × ( r + 1) × r
( -r ) !
m ( -r - m + 1) × ( -r - m + 2) × ... × ( -r - 1) × ( -r)
m
m æ - rö
=
= ( -1) ×
= ( -1) ×
= ( -1) × ç ÷
ç
÷=
m!
m!
m!× ( -r - m)!
è m ø m!× ( r - 1) !
è mø
Das
æ- rö r
÷÷ × p × (- q ) m .
èmø
( -1) m zieht man in qm hinein und es ergibt sich schließ lich: P(Y = m) = çç
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
II.4. Geometrische Verteilung
31
II. 4. Geometrische Verteilung
Ein Bernoulli-Experiment (bei dem also nur Erfolg oder Misserfolg möglich ist), wird solange
durchgeführt, bis zum ersten Mal „ Erfolg“ auftritt. Ist dies beim k-ten Versuch der Fall, so
müssen die ersten k – 1 Versuche Misserfolge gewesen sein:
M M MKM
14
4244
3
E
{
k - ter Versuch
( k -1)- mal
Die Zufallsgröß e X bezeichnet die Anzahl der benötigten Versuche.
Kürzt man noch ab: P(„ Erfolg“ ) =: p
und
P(„ Misserfolg“ ) = 1 – p =: q, so gilt:
Eine Zufallsgröß e nennt man geometrisch verteilt, wenn für ihre Wahrscheinlichkeitsfunktion
gilt:
P(X = k) = qk-1×p
für k Î N
Ihr Name rührt daher, dass die Wahrscheinlichkeiten q k -1 × p Glieder einer geometrischen
Reihe sind.
Die geometrische Verteilung ist ein Spezialfall der bereits eingeführten Negativ-Binomialverteilung. Dort wurde die Wahrscheinlichkeit der Anzahl der Versuche ausgerechnet, die
æ k - 1ö r k - r
÷÷ × p × q . Setzt man r nun
nötig sind, um genau r Erfolge gehabt zu haben: P(X = k) = çç
è r -1 ø
gleich 1, so erhält man genau die geometrische Verteilung:
æ k - 1ö 1 k -1
÷÷ × p × q = q k -1 × p .
P(X = k) = çç
0
è
ø
Es gilt hierbei: P(X ³ k) =
¥
¥
n =k
unendliche geometrische Re ihe :
a
s ¥ = 1 ; a 1 = q 0 -1 = q -1 ; q = q
1- q
¥
å q n-1 × p = p × q k × å q n -1-k = p × q k × å q n -1 =
= p × qk ×
n=k
-
n=0
-1
q
q
= p × qk ×
= q k -1
1- q
p
Bei der geometrischen Verteilung gilt: P(X ³ k) = qk-1 .
Daraus lässt sich berechnen: qm-1 = P(X ³ m) = P(X > m – 1) = 1 – P(X £ m – 1)
Setzt man k = m – 1, so erhält man:
P(X £ k) = 1 – qk
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
II.4. Geometrische Verteilung
32
Die Momente der geometrischen Verteilung lassen sich aus der Definition des
Erwartungswerts und den Formeln zur Reihenentwicklung berechnen. Auß erdem
differenziert man und verwendet die Beziehung
d k
(
q ) = k × q k -1 :
dq
d k
d æ ¥ ö
d æ q ö
1 × (1 - q ) - 1 × (- 1)
÷÷ = p ×
=
q = p × ç å q k ÷ = p × çç
dq è k =1 ø
dq è 1 - q ø
(1 - q )2
k =1 dq
¥
¥
E(X ) = å k × q k -1 × p = p × å
k =1
= p×
p+q
1 1
=p 2 =
2
p
p
p
unendliche geometrische Re ihe (FS S.51) :
s¥ =
Um zur Varianz zu gelangen, muss man
a1
; a 1 = q 1 = q; q = q;
1- q
zweimal ableiten und erhält schließ lich
nach ganz ähnlicher Rechnung:
V(X) =
q
p2
E(X) =
1
p
Beispiel: Angenommen, ein Lehrer hätte sich zu Beginn seiner Laufzeit 20 verschiedene
Schulaufgaben zu einem Stoffbereich vorbereitet. Jetzt wählt er jedes Jahr eine davon zufällig
aus und legt sie dann wieder zu seiner Sammlung zurück. Wie hoch ist die
Wahrscheinlichkeit, dass er die erste Schulaufgabe, die er ausgewählt hat,
a) nach genau 21 Jahren
b) nach frühestens 21 Jahren
c) innerhalb der nächsten 4 Jahre
noch einmal schreibt?
Die Parameter der Verteilung, die hier zugrunde liegt, sind: p = 1/20; q = 19/20;
20
a) P(X = 21) = q
k -1
1 æ 1920 ö
æ 19 ö
×p = ç ÷ ×
= çç 21 ÷÷ = 0,0179 = 1,8 %
è 20 ø 20 è 19 ø
20
æ 19 ö
b) P(X ³ 21) = q k -1 = ç ÷ = 0,35849 = 35,8 %
è 20 ø
4
æ 19 ö
c) P(X £ 4) = P(X < 5) = 1 – P(X ³ 5) = 1 - ç ÷ = 0,18549 = 18,5 %
è 20 ø
Oder: P(X £ 4) = P(X = 1) + P(X = 2) + P(X = 3) + P(X = 4) = q0p + q1p + q2p + q3p =
é 19 æ 19 ö 2 æ 19 ö 3 ù 1
= ê1 +
+ç ÷ +ç ÷ ú×
= 18,5 % ü
ëê 20 è 20 ø è 20 ø ûú 20
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
II.5. Poisson-Verteilung
33
II. 5. Poisson-Verteilung
Da für groß e Zahlen die Fakultäten in der Formel für die binomial verteilten
Wahrscheinlichkeiten sehr schnell Schwierigkeiten bereiteten, suchte man nach einer
geeigneten
Nä herung.
Daher
wird
die
Poisson-Verteilung
hier
auch
aus
der
Binomialverteilung hergeleitet:
n
æ n ö k n -k
n!
n × (n - 1) ×...× (n - k + 1) p k × n k (1 - p )
n -k
k
P( X = k ) = çç ÷÷ × p × q =
× p (1 - p ) =
×
×
k!(n - k )!
k!
nk
(1 - p )k
èkø
Im letzten Schritt wurde mit nk erweitert und aufgeteilt: (1 - p )
n -k
=
(1- p )n
(1- p )k
1 × (1 - 1n ) ×...× (1 - kn-1 ) m k æ m ö
n × (n - 1) ×...× (n - k + 1) (p × n )
n
(
)
1
p
P(X = k ) =
×
×
=
× × ç1 - ÷
k
k
k! è n ø
k!
n k × (1 - p )
1 - mn
k
(
)
pk×nk
Zuerst wurden nur die einzelnen Faktoren sinnvoll vertauscht und
zusammengefasst. Statt
p×n
lässt sich auch
Binomialvertei-lung ist ja gerade
µ
n
in
(p×n)k
schreiben (der Erwartungswert der
n×p) und ebenso kann man
p
durch
m
ersetzen.
n
Gleichzeitig wurde noch der groß e Bruch durch n geteilt, um eine Grenzwertbestimmung
durchführen zu können.
Nun kann man daran gehen, den Grenzwert der Binomialverteilung für n ® ¥ zu bestimmen:
Laut Formelsammlung Seite 55 gilt: lim(1 +
n ®¥
)
k n
n
= ek
(
Þ lim 1 - mn
n ®¥
)
n
= e -m
Alle Brüche mit n im Nenner streben gegen 0:
lim B( n; p; k ) =
n ®¥
k
1 × 1 ×...× 1 m k - m
-m m
×
×
e
=
e
k!
(1 - 0)k k!
Definition: Man spricht von einer Poisson-verteilten Zufallsgröß e mit Erwartungswert µ,
wenn für die Wahrscheinlichkeitsfunktion gilt: P(X = k) = e - m ×
mk
k!
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
II.5. Poisson-Verteilung
34
Die Poisson-Verteilung wird hauptsächlich dann verwendet, wenn Wahrscheinlichkeiten von
Ereignissen berechnet werden sollen, die genau k-mal innerhalb einer vorgegebenen
Zeitspanne eintreffen. Also zum Beispiel bei Unfä llen, Selbstmord, aber auch bei
Druckfehlern in einem Buch, bei Rosinen in einem Kuchen oder Sterne im Kosmos.
Da für konstanten Erwartungswert µ = n×p die Trefferwahrscheinlichkeit p gegen 0 streben
muss, wenn n gegen unendlich geht, muss p also sehr klein sein, um eine gute Annäherung
an die Binomialverteilung gewährleisten zu können (siehe auch Punkt III.2.).
Deshalb nennt man die Poisson-Verteilung häufig auch Verteilung der seltenen Ereignisse.
In diesem Zusammenhang werden in vielen Büchern über dieses Thema nun als Beispiel die
Versuchsergebnisse von Geiger und Rutherford erwähnt. Die beiden Physiker beobachteten
Zerfallsvorgänge radioaktiver Präparate und registrierten die Anzahl der Zerfälle in gewissen
Zeitabschnitten. Die genauere Beschreibung der Experimente und ihrer Ergebnisse würde
aber einen unverhältnismäß ig groß en Raum einnehmen, so dass hier nur auf diese Versuche
hingewiesen werden soll8.
Als Beispiel für die Poisson-Verteilung soll hier vielmehr die Auswertung einer Statistik
dienen: Am Karlsgymnasium Bad Reichenhall befinden sich 878 Schüler9. Nachdem die
Geburtstage aller Gymnasiasten erfasst und sortiert wurden, konnte gezählt werden, wieviele
Tage es gibt, an denen genau k Schüler gleichzeitig Geburtstag haben. Die Auswertung
dieser Tabellen ergab letztendlich folgende Verteilung:
0
1
2
3
4
5
6
7
8
9
Anzahl der jeweiligen Tage: 47
79
90
60
42
29
5
9
3
1
k Schüler gleichzeitig Geburtstag:
Der Mittelwert, der sich aus dieser Verteilung ergibt, ist:
x=
0 × 47 + 1 × 79 + 2 × 90 + 3 × 60 + 4 × 42 + 5 × 29 + 6 × 5 + 7 × 9 + 8 × 3 + 1 × 9 878
=
= 2,41
47 + 79 + 90 + 60 + 42 + 29 + 5 + 9 + 3
365
Nun betrachtet man die Zufallsgröß e X = Anzahl der Tage, an denen k Schüler gleichzeitig
Geburtstag haben und setzt die Wahrscheinlichkeit p, dass jemand an einem bestimmten Tag
Geburtstag hat gleich 1/365. Man erhält somit einen Erwartungswert (n = 878) von µ = E(X)
8
Eine ausführliche Beschreibung dieses Versuchs findet man unterer anderem in: Barth × Bergold × Haller,
Stochastik 2, Ehrenwirth
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
II.5. Poisson-Verteilung
=
878
35
/365 = 2,41. Damit lassen sich die einzelnen Wahrscheinlichkeiten exakt mit Hilfe der
Binomialverteilung ausrechnen. Da diese Werte sehr schnell recht unhandlich werden, bietet
sich die Poisson-Verteilung an. In der folgenden Tabelle sind die relativen Häufigkeiten der
Tabellenauswertung,
die
Wahrscheinlichkeiten
der
Binomialverteilung
und
die
Näherungswerte der Poisson-Näherung jeweils in Prozent wiedergegeben:
k
Binomial-V:
Poisson-V:
rel. Hä ufigkeit:
0
9,0
9,0
12,9
1
21,7
21,7
21,6
2
26,1
26,1
24,7
3
21,0
20,9
16,4
4
12,6
12,6
11,5
5
6,0
6,1
7,9
6
2,4
2,4
1,4
7
0,8
0,8
2,5
8
0,2
0,3
0,8
9
0,1
0,1
0,3
Man erkennt den erstaunlich guten Zusammenhang zwischen den theoretisch ermittelten und
den empirisch gewonnenen Daten.
Obwohl
n
(also die Anzahl der Schüler) nicht gerade extrem groß ist (zum Beispiel
gemessen an der Anzahl von Atomen in einem Präparat), hat die Poisson-Verteilung in Fällen
wie diesen durchaus ihre Berechtigung.
Bei der Herleitung der Poisson-Verteilung wurde bereits die Beziehung µ = n×p angewandt.
Deshalb ist es naheliegend, dass dieses µ in der Poisson-Verteilung auch ihren Erwartungswert darstellt. Dies lässt sich schnell mit Hilfe der allgemeinen Definition des
Erwartungswerts nachrechnen:
¥
E(X ) = å k ×
k =0
¥
¥
¥
mk -m
m × m k -1
m k -1
mm
×e = åk ×
× e-m = m × å
× e-m = m × å e-m = m
m = k -1
k!
k × (k - 1)!
k =1
k =1 (k - 1)!
m = 0 m!
1424
3
= Fm ( ¥ )=1
Die Varianz berechnet man am einfachsten über den bekannten Ansatz: V(X) = E(X²)– E(X)²
Einfach ist E(X)² = µ²; Schwieriger ist E(X²) zu erhalten:
Man ermittelt zuerst den Wert für E(X²) – E(X) = E(X² – X) = E(X×(X-1)):
¥
E(X × (X - 1)) = å k (k - 1) ×
k =0
¥
¥
mk m
mk -2
mm -m
× e = m2 × å
× e-m = m 2 × å
× e = m2
m=k -2
(
)
k!
k
2
!
m
!
k =2
m =0
14243
= Fm (¥ )=1
Es wurde also bis jetzt gezeigt: E(X²) – E(X) = µ²; Þ E(X²) = µ² + E(X) = µ² + µ
Nun kann man schließ lich die Varianz ausrechnen: V(X) = E(X²) – E(X)² = µ² + µ - µ² = µ
Erwartungswert und Varianz stimmen hier überein: E(X) = µ
9
V(X) = µ
Die Zahlenwurden am 13. Januar 1998 aktualisiert. Eine differenziertere Tabelle findet man im Anhang.
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
II.6. Normalverteilung
36
II. 6. Normalverteilung
Betrachtet man die Graphen von (standardisierten) Binomialverteilungen für wachsendes n, so
stellt man fest, dass sie (für beliebiges p) gegen eine gemeinsame Grenzfunktion zu streben
scheinen. Diese Verteilung, an die sich die binomial verteilten Wahrscheinlichkeiten
annähern, wurde von den französischen Mathematikern de Moivre10 und Laplace11 gefunden.
Da die exakte Herleitung sehr umfangreich und kompliziert ist, soll hier nur auf den Beweis
der Approximation in Kapitel III.4. hingewiesen werden. Das Ergebnis ist im sogenannten
lokalen Grenzwertsatz von de Moivre – Laplace festgehalten:
Für eine binomial verteilte Zufallsgröß e X gilt näherungsweise:
1
P(X = k) = B(n; p; k) » jms(k) = s × 2p
mit k Î N0 und
µ = n×p,
s=
×e
2
1 k
- çæ - m ö÷
2è s ø
n × p × (1 - p )
Für eine bereits standardisierte binomialverteilte Zufallsgröß e Z gilt einfacher:
1
P(Z = z) »
- z2
1
×e 2
2p
Der Graph der Funktion hat auch den Namen Gaußsche Kurve, nach dem deutschen
Mathematiker C.F. Gauß , der sie bei der Suche nach einem Verteilungsgesetz für zufällige
Beobach-tungsfehler entdeckte. Aufgrund ihrer Form wird sie häufig auch Glockenkurve
genannt.
Bei ihr handelt es sich nicht mehr um eine diskrete Funktion. Nach der Definition stetiger
Verteilungen legt man fest:
Die kumulative Standardnormalverteilung lautet: F 0;1 (x ) = F (x ) =
x
ò j(t )dt =
-¥
x
1
- t2
1
e 2 dt
ò
2p - ¥
Daraus folgt der Integralgrenzwertsatz von de Moivre und Laplace: Für eine nach B(n; p)
verteilte Zufallsgröß e X gilt:
æ
ö
X - np
Pç a <
£ b ÷ » F(b ) - F (a ) =
ç
÷
npq
è
ø
b
1
- u2
1
× ò e 2 du
2p a
10
Abraham de Moivre, Frankreich 1667 – 1754; Er arbeitete im Bereich der Differentialrechnung und gilt als Mitbegründer
der Trigonomie des Komplexen; der Begriff der erzeugenden Funktion und die analytischen Grundlagen der
Wahrscheinlichkeitsrechnung gehen auf ihn zurück.
11
Pierre Simon Marquis de Laplace, französischer Mathematiker, Physiker und Astronom, 1749 – 1827; neben Beiträgen zu
physikalischen und astronomischen Bereichen entwickelte er systematisch die Wahrscheinlichkeits rechnung.
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
II.6. Normalverteilung
37
Hier sind nun die Graphen der Dichtefunktion der standardisierten Normalverteilung und
der kumulativen Verteilungsfunktion (ebenfalls mit µ = 0 und s = 1) gezeichnet:
Grundsätzlich gelten für die Gauß sche
Funktion natürlich die Eigenschaften
aller
stetigen
Verteilungen.
Die
Standardnormalverteilung erlaubt aber
auch grundsätzliche Abschätzungen
über Wahrscheinlichkeiten.
Man berechnet die Wahrscheinlichkeit
von Abweichungen vom Mittelwert
um weniger als k×s und erhält zum
Beispiel:
P(m - 3s < X < m + 3s ) =
æ m - 3s - m ö
æ m + 3s - m ö
= Fç
÷=
÷ - Fç
s
s
è
ø
è
ø
= F (3) - F (- 3) = 2F (3) - 1 = 0,99730
Analog
erhält
man
die
eingezeichneten Werte für s und 2s:
P(|X – µ| < s) = 0,68268
P(|X – µ| < 2s) = 0,95450
P(|X – µ| < 3s) = 0,99730
Daten der Dichtefunktion:
Maximum: bei (0; 1
2p =0,399)
Wendepunkte: (-s = -1; 1
(s = 1; 1
2pe = 0,242)
2pe = 0,242)
Daten der Verteilungsfunktion:
Wendepunkt bei (0; 0,5)
Grenzwerte: lim F (x ) = 0;
x ® -¥
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
lim F (x ) = 1
x ® +¥
III.1. Näherung der Binomialverteilung an die hypergeometrische Verteilung
38
III. Zusammenhänge zwischen den Verteilungen
(Grenzwertsätze)
III. 1. Näherung der Binomialverteilung an die hypergeometrische
Verteilung
Obwohl die hypergeometrische Verteilung auf anderen Voraussetzungen beruht als die
Binomialverteilung (die einzelnen Durchführungen sind nicht unabhängig!), scheinen die
Experimente durchaus Ä hnlichkeiten aufzuweisen (es werden zum Beispiel nur zwei
mögliche Ereignisse betrachtet). Es ist also gerechtfertigt, sich näher mit der Verwandtschaft
dieser Verteilungen zu beschäftigen.
Anhand eines Beispiels soll der Zusammenhang der Verteilungen in der praktischen
Anwendung gezeigt werden:
Zwei Glücksautomaten H und B (Hypergeometrisch und Binomial) enthalten jeweils N = 50
Kugeln. Davon sind K = 10 golden und damit N – K = 40 schwarz. Durch Einwurf eines
Einsatzes bekommt man 10 Kugeln. Die Größ e des Gewinns richtet sich nach der Anzahl der
gezogenen goldenen Kugeln.
Bei dem Automaten H fallen die 10 Kugeln auf einmal heraus (= ohne Zurü cklegen).
Bei B bekommt man erst eine Kugel. Die nächste Kugel erhält man erst, wenn man die
gezogene Kugel wieder eingefüllt hat (= mit Zurü cklegen).
Die Wahrscheinlichkeiten sind binomial bzw. hypergeometrisch verteilt:
æKö æN - Kö
çç ÷÷ × çç
÷
k ø è n - k ÷ø
ænö
è
p H ( k ) = H ( N; K ; n ; k ) =
und p B (k ) = B(n; p; k ) = çç ÷÷ × p k × (1 - p) n - k ;
æ Nö
èkø
çç ÷÷
ènø
35%
0,35
30%
0,3
25%
0,25
Binomial (10,1/5,k)
20%
0,2
Hypergeometrisch
(50,10,10,k)
15%
0,15
10%
0,1
5%
0,05
0%
0
0
1
2
3
4
5
6
7
8
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
9
10
III.1. Näherung der Binomialverteilung an die hypergeometrische Verteilung
39
Man erkennt, dass sich die beiden Verteilungen nicht sehr stark unterscheiden. Der
Unterschied liegt ja lediglich darin, dass sich bei der hypergeometrischen Verteilung die
Wahrscheinlichkeit nach jedem Zug ein wenig ändert. Sind jedoch sehr viele Kugeln
vorhanden (d.h. ist N sehr groß) und man nimmt nur wenige heraus (d.h. ist n klein gegen
N), so ändert sich die Wahrscheinlichkeit nach jedem Zug sehr wenig. Deshalb kann man die
hypergeometrische Verteilung durch die Binomialverteilung ersetzen, wenn gilt, dass
n
gegenüber den Werten N, K und N – K klein ist:
Erhöht man die Anzahl der vorhandenen Kugeln auf 100 beziehungsweise 500 (wobei immer
noch 1/5 der Kugeln golden sind) so erhält man folgende Diagramme, bei denen man die
Annäherung noch deutlicher erkennen kann:
35%
30%
Binomial (10,1/5,k)
25%
0,35
35%
0,3
30%
0,35
0,3
Binomial (10,1/5,k)
0,25
25%
0,2
20%
15%
0,15
15%
0,15
10%
0,1
10%
0,1
5%
0,05
5%
0,05
0
0%
Hypergeometrisch
(100,20,10,k)
20%
0%
0
1
2
3
4
5
6
7
8
9 10
Hypergeometrisch
(500,100,10,k)
0,25
0,2
0
0
1
2
3
4
5
6
7
8
9 10
Neben dieser eher anschaulichen Erklärung für die Näherung kann man die Ä hnlichkeit auch
an den jeweiligen Momenten erkennen:
Während der Erwartungswert sogar exakt ü bereinstimmt (E(X) = n×p), so unterscheidet
sich die Varianz nur um den Faktor (N - n)/(N - 1). Aber dieser geht ja für N >> n gegen 1 und
damit auch die Varianz der hypergeometrischen Verteilung gegen s²Binomial = n×p×q.
Die Gü te der Approximation erkennt man an den folgenden zwei Beispielen:
1) Bei der üblichen Lottoziehung „ 6 aus 49“ (ohne Besonderheiten wie Zusatzzahl oder
ähnlichem) handelt es sich natürlich um eine „ Ziehung ohne Zurücklegen“ , da man keine
Zahl zweimal ankreuzen kann. Deshalb muss man, um ein exaktes Ergebnis zu erhalten,
die Formel für Wahrscheinlichkeiten der hypergeometrischen Verteilung anwenden.
Um die Wahrscheinlichkeit für genau drei Treffer zu erhalten, setzt man ein:
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
III.1. Näherung der Binomialverteilung an die hypergeometrische Verteilung
40
N = 49 (Möglichkeiten insgesamt); M = 6 (mögliche Treffer); n = 6 (Anzahl der Ziehungen);
æ 6ö æ 49 - 6ö
k = 3 (erwünschte Trefferzahl): Þ PH(3) = ç ÷ × ç
÷
è 3ø è 6 - 3 ø
æ 49ö
ç ÷ = 1,765 %.
è 6ø
Würde man statt dessen die Binomialverteilung verwenden, so erhält man:
n = 6 (Anzahl der Ziehungen); k = 3 (erwünschte Trefferzahl); p = 6/49 (Trefferwahrscheinlichkeit);
3
3
æ 6ö æ 6 ö æ 43 ö
PB(3) = ç ÷ × ç ÷ × ç ÷ = 2,481 %.
è 3ø è 49 ø è 49 ø
Der relative Fehler beträgt hier (PB - PH) / PB × 100 = 28,9 %. Für diese Werte ist die
Näherung also viel zu ungenau!
2) Nun seien in einer Produktion von Computer-Chips erfahrungsgemäß 600 aus 4900 Stück
Ausschuss. Fragt man jetzt nach der Wahrscheinlichkeit, dass beim zufälligen Ziehen von
6 Chips genau 3 defekt sind, so erhält man exakt:
æ 6ö æ 4300ö
N = 4900; M = 600; n = 6; k = 3: P H(3) = ç ÷ × ç
÷
è 3ø è 3 ø
æ 4900ö
ç
÷ = 2,475 %.
è 600 ø
Ersetzt man nun diesen sehr schwierig zu berechnenden Term (z.B. ist 4900! =
145219913567678124901230665274740286270801563696509061919589621250835157326248929551758456289739675597150927914671187785338978892828258025080595191372162030698890183 959771055291517692380566311480545013740771078271299487448677401044274588485996414809721960064746
6477611681601023986647875570546798768659576537075746566987386475384323397620169256608196092575300620203634841272153071042273909791074610073106372773689853283858 65727680180645100675145200306449677857315719156566967402907810188830108682743521584466449543788923404
12992067621540637117651607197646124970711080198764416683796450910373561502456800913365975149895577017957078787767956567008465744067335243103272753843307517 7137697599455098847470948489589311404741247317506073196968126767696863348463134770728144889528383924336609
758202833601710783428486784482622706347579736842723651703251563377066763466917233194070067559256761689992533049592584434106886488831843371647426343397 287647897891652863531099608995154064304358229884640453847579304731375301698528471620672786819197938361275954290
8450473670146575094783081013987035387658807588753394439215970254143374188422477658152206467561500439303658197728436890742332213126028761938774240 49804186372215327734954424475428010106716500196202392185769690729429067897584162177613188980206289085817948479717621
47688648809267300725873554161095240651072774054026382171628347063846976912665876309123577357618442800755806789181566995164243580547546753142 8586203646183118139792641312963610991814664011375761380896261969288310277633311228421136762062800808001575908767390076853
731052609579473431255351777368383008422390618806249934394610675714125615658287653425738179475150234998176394045005093741762973498010556 525902957066378003192492244941142335443531280335845712691900381535431885335782793808352187101678459806147007500019270923262964
9030328201371635191258517287029896517013266859732076731172974937656525953926654090159343543982151877578514493015017455086829940565 63305248704647262506076462754350926819812120415418695239838234302836885749142677152147058173389417571617128622731154479517906052451
98431508660427779562471877278282611633560843001052122824005646539236684802597478152168885815997086858228567471648225759377317 8831918520530997485115711698934999621202213868974457627877977263558559099883380770224318747439206551968271636387448950648490528590260783
448399523959256071503393367318378719024557570388788287744413262466778340064219332931162226447986494625739400656899647351 728226759407796411998578177472304355813756899486268667553250307040053566266297444961407700450780702883984509138145606503032507576636357213530
6797537956310801205278889778269944364415512083850765332292994752276400522087551738974520492983227005169239304096582 77357158970784393534583837834254708526101123856113926066751025660969869094126300592121659692164479952273385778090257479609465214116548783077718694
03587647239114199397169621172052197198915822392720339479183655460077468324355422713900810484246535136358989317 2069614512736430197777565735926257312721599545558787622315583870486652511071138550066624834313099731062729285154677789374483351102398882664811764483238
636403930136248117480739668490844611787070785821764812053867724182486362205136887511726247471380741500662 113875184972214917359595651229744677313345305121897608914666481316875064738995880924578252958823796757193253060001972220545746274647939691948648353708418259
5003185244141354065891262955180364604975477015026878158554056110043696749563991449899791459037055847 53980139236833784374941583084337156071452464537440384708638382396259664793347478873288554009451773835417241623091702733414675388024349438750845035728338418209894
35718691462799598708394979411863784283339117429015814376898930201727860320009641653109718446352 3429576773827060778029804777785320829264818413374707571852706226961889819551751126239121028463243008520188525721723022139196441618196081574611488043942781075120304832
775086226684998948911221182200462730992856396101601442133310457764910025454508138581737001 445494274066370354108126382851103829495762441878860640627352860106397956670762074260510383651508262127705223686839791071965735571935124694849418727389134622085325645031897
3372885301691513217381535644413850391260173253996964053371699575459873244911839023469 42744753600478490392313074537063507275415873924773030042641734039993682720381598974387332878289052445927566099655592293464511882224984138092457524600621405914569608767453985740
89773857137939675065400494112887569837152156907835748179339156074166954351190378 4122211110951842131603055243698121593911446006058330021272819814526419529288954009902361598783702963458082545002974774099382542449675738552319760402615793620295875279176334560866203
045532247016548859669474076937525067492725709154198109049317655125334947989 653026309576826089482869298883649956310640816494358197089608451125915647666572682532998554475853062438709099512790063204384749066614498010579418138415687463351606746435182904345761229410
9869882719429648587935481904236717481505373349513517255788082181160516 97102817796073973025994073105709909833295427882671980604505841382769559632780431851480119475023225725816047678332204788106470664013743666363043176319254148056168089008961958387183680918909130
89846790557959408548613572235783938918737677631910439323377635566 3511983392496017042730851562022155551683805735573081743783826517257274431038857793027241272969874605985970563437591707432012673240456035492216573156962828218242654197238285996245714695432890247474
752220341753939883065824034826915007048021812166149263364447 920743675004673193598280110247862032590893748743261745645910124900140611634497523153530235295436497234544006820331036043662953111484563602819594635644890270434381334352573248139479155282260339149090439
2974854893407316258687320038509752868048844299002931538 27356881629949462935001003774462446663653692329656189693530400743185653354481751718031176918251036320601843985291466694518043001480378039532370186676529688600898050347775352135597800265457708735671827789192
82199698810527502923090129636406821351895195423992 0168638572218061381417499046058158710520341840904656900939330063534465238862181416936776554633650945775037742548009104492547889612750108626218182994471173899037457073116238062285226797447424916073386841864151644
317312844503351916993539837401793432330022896 304192305295282092507346469612322704061001185449702911151458694081715483059956478048891363148081209598663369021270406534689937054930931736799470432322470119495301439588576395602059105493576140774939341373486787517031
4256366030527951574884728822126754534837 63185394221169028486874240633367952745568179532267017349193321082514748022255340484170120411615408187340060059390290430508653300747772648354318040720745787028617552441808925257011317774983894289412859350963440819501107178
34652222614064196332129581427087674 5221949620276974371355928750962296922317848566266668518722992034951187188144869285142755559332324507667438571269622024417383774923412091719622171220360027177157058709025784522362849287544367299423131188058950393303254775627242
729649789641903715722916142090 553268561072655833812613622625228602722863816248981406128988664600648891363305376921290380754057420666779819508202241005174113200649343471552383888950506393108685523199916740424024720861591861998802397439108637998235853235556969211
5701186284173925475744272 24805211671899226195152695345374908946217821629957487939987071072398070841140247720118683105547393777279430882479196044396904535298128030753114731477003617370309817093664991581889130049971405593246689708222117411989863287003603475978769
30212358025733965653 6523997942322316650182726094599125726069200248185271899528572534383181319821969854924231983116006334602978471378514012226790052791770016488694904082906283164547674531913231799272339821146491254387327565386042643600372944594564680175959599180
572656777007302119511578542804130159971407458540437740775231791718596299825302265245433579435878841841066761260385469785407547530900496666655963403664983428259521201789072616487804371574613907907123828918585515554082406497871148495002315206039741814453107975926
6898059529 40348015491133502113712511750731393305666073339365267747142002012913264239839455238487658160577825174203097811837142805698021129430596072256770681554972755933712302203501869828254299216153610897395022586905545573059771810419513325963874044668149581803
95813941583656627491310480888477433726548004936645995602681823196682812205490296371186859045524090885905576148890800140696841172859639771098016448481120700917285417440805437209351114602528712726402643489864738926374076240356898218134106535430332495548407304372
798007055415911549192666883367120931324876422786789379991050527540638379659442903341169095112500344387571319293830547740474794320316925381077367902141089934394587711359975098685686573768090182172165953647235138318673469258762813947612284441169497465700319
05670
78868085113782021307334178282517739367896187852869443684490423058782925034631507268117166946768016631940345297274257723641913833996574775453175562375220079988561713046861966142348548360683968514884380790581445222934578976719088170819429785378123008946 5738995554
917013114376062270580817206447969528967281157588222659066099269172477131998658833187764611073409214366826370620216154922993778533383227978285446927132114658826353369523724560212201343044606902900254887418945816950404479139290535621171923486668281 908817630826635
7184529111093651741356937909240903083415537701857591937333936327684718856915057634788183028259310606661516350080600610317275200137227542123021596880203658510101410854194295451235032168474650316305262789619132271570668122413391582221435423072 67251178905563856226
22582648776005636706895258727970536846566805947271839720814400709734026795903260610026855915380596011149134653503316117654930582192495850498974373896808835657797108315061051396351885103527078890323439820165842778655717749115573536765185 2518515593726238193039399
710043949828506195332507432147438944364473348411261966972341420303439831552254320584012254764805955402285934849979424510758840575960805744433090882760690601183146142517599895892018921016613791694396207450743844302389720046638016105 426300178424159357560855410636
9489399196395552377293468336720393485349533443282762838594897716804397864240109502234102337033302787207928306563573414463281626998409408220089401249207701800877838183105444632718795558004159823080054546924959710005776053499058 69928145106059887322465942083248212
54235063914421227809923614745731390988343586552929828324482146833385254676255220515933549608061035882352847379955348431239195966877192400534164213290814184279579149466803370344883700299079775811471380984982210918455356369 5217492089781887791513555162372550755727
724797096902572614808932299238534585055070694498746646786166972526648010193897281299753342636696723750268255711883354344697596590877613315859596791865737666934186987295684163590921622167228992406522994539870540718207 215273128362804447863174636038763812674765354
2147579449616083053840064704403683394422157875229411732768197481823507357547653847269458245185731230358584214711534603721505961994807389489186935043250350865823572865163534519854392206494742057434297684822447288 60397684990801231651374682914686789846098277383949
65098361326737625650288453516503004551988326804614487512661448106128440239659873634561609917557657556439387986754724552815842174115580058002134843384795124826876493460154428629092412593748706168698118212667 1961847549121187982759247729018796069264635431806550483
475446120518631840703282221588575449920694776861991986514361765758286200853863039414277486145329507856009976510285109270307475416499427839325885166188937489493788708515679645547751453044883693151728326 054392498167663999466777436785408646355297129140396827908992
4068173569479879542082345212112183177596168791221746720217375394947323976833537236708924942452681864149418570330655764839827001531677818489521048574531320875192164805699220288186741288904864198281 34270244003657789387448141190224819666116175530534666265862097920
97639110430946431326750301233636514544503856169917031505235469540871897002344746735183966145583972578464705043208460384417771570947634692651021937241855139337536126623932644440436195710404438 3845693972861703841261371161517418150450858864119657688392359167348640
175183881659376142857161571540699345333850696663964442823824910906829394300206207087556867459118259479593092786113093199106507835421982330361277267333494860527096729701474604062957693455 473670590386874271506125777360537880131798854330573534737882084535518514575
0806169259197903889711731075353630144982775834092904173406248471767824752639087311222096857096763934217731841327415368473358127003786823809716449757780725552651276184481469640076324 19411605541777574676924796649685686679788179542641227495586207219695928548710333
82274922161884332075631819251711298340430236287076143234134577393840590376712308996718217284851858939255248608224546896650383184712895080235561888299352434833943788636147781743 0699511587583600617853983708216476965354997456961878093750787831964154678610718100008
147153588292293060667914894472933055161078913622513432489555479374868902156502537932488564780115325223732078155826095954485764208640176667150789490561768644186738404513801 150962942516565548730040568670895415221057339423702595910348388373111281104484524568451856
4562469128230677621015811751468157984505926899125372939250367501166594023094281496418311651888745719924488484479894910569909685997615820706358700016026333085532421180 31487061345933577889503237797907764083721390850321189700710139039685084730693735893932168763532
71751410455181957877265421956984261113840083716561190321577101452174382957063434695478586232839672005234293930234849987485244346196468841971530243275762853804979 9488795428926262598610992433775534136101551957194762072810911991767493483825920646105416300367599869
715291158948125893365692643989895974847880780683992062799861383108717905862444265841064559243831046258667855013260955321742760389578801217004028487324123308 369489878018054390069011066289974989513858770664539436693123594705624450572126563247769148307496346123366
2428587027748044340585264417554262270134517894117826615172350509562569261048450049177469085248667105752705607494831571709638603175073301522941111848683 62977504172818952400963552981127333833068883542315408395665826408881207359520164533893190805936846802475881723
16872426199591203583983384061715452272267677993295148205544505131740444206046263632157323863112350285157056235201075586635292022698287629705456517 2978577454975053590750809081273124520415271244838969769401978487242940697586358097205320792279291657523672382507552
806799440641664298700608023534597911365940143620471049506153908357096093010509165296713960812159804224431602627143270400000000000000000000000 000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000
0000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000 00000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000
00000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000 0000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000
000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000 000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000
0000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000 00000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000
000000000000000000000000000000000000
das ist eine Zahl mit 15957 Stellen) durch den der Binomialverteilung, so ergibt sich
derselbe Wert wie im ersten Beispiel, da p = 600/4900 = 6/49, also der Anteil der
Merkmalsträger in der Menge, gleichgeblieben ist: PB(3) = 2,481 %.
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
III.1. Näherung der Binomialverteilung an die hypergeometrische Verteilung
41
Da der relative Fehler nur noch 0,26 % beträgt, erweist sich die Ersetzung von H(N; K;
n) durch B(n; K/N) als durchaus brauchbar.
Þ Man erkennt, dass sich Binomial- und hypergeometrische Verteilung um so ähnlicher
werden, je größ er N (also die Gesamtmenge) ist und die Anzahl der Ziehungen n relativ dazu
klein ist!
Als Faustregel für eine im Allgemeinen ausreichend gute Annäherung gilt:
N ³ 2000 und n/N £ 0,1 (bzw. n £ 200);
auß erdem sollte p = K/N in der Nähe von 0,5 liegen und k << n sein;
Man kann den Grenzübergang von der hypergeometrischen zur Binomialverteilung auch
allgemein zeigen:
K ö æKö æN - Kö
æ
÷
Hç N;n; ÷ = çç ÷÷ × çç
N ø è k ø è n - k ÷ø
è
æ Nö
K!
( N - K )!
n!×( N - n )!
çç ÷÷ =
;
×
×
N!
è n ø k!×(K - k )! (n - k )!×( N - K - n + k )!
n!, k! und (n-k)! zieht man vor, schreibt die Fakultäten ausführlich und kürzt.
So wird zum Beispiel aus
K!
K × (K - 1) × (K - 2) ×...× (K - k + 1) × (K - k ) × (K - k - 1) ×...× 3 × 2 × 1
=
=
(K - k )!
(K - k ) × (K - k - 1) ×...× 3 × 2 × 1
= K × (K - 1) × (K - 2) ×...× (K - k + 1)
Kö
æ
Somit erhält man: Hç N; n; ÷ =
Nø
è
=
n!
K × (K - 1) ×...(K - k + 1)×( N - K ) × ( N - K - 1) ×...× ( N - K - n + k + 1)
×
=
k!×(n - k )!
N × ( N - 1) ×...× ( N - n + 1)
Nach Teilung von Zähler und Nenner durch N gehen alle neuen Brüche der Form 1/N, 2/N,
(n-k-1)
/N usw. für N ® ¥ gegen 0 und können vernachlässigt werden:
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
III.1. Näherung der Binomialverteilung an die hypergeometrische Verteilung
42
K æ K 1 ö æ K k -1ö æ K ö æ K 1 ö æ K n - k -1ö
× ç - ÷ ×...× ç ÷
÷×ç1 - ÷ × ç1 - - ÷ ×...× ç1 - ænö N è N N ø è N
N øè Nø è N Nø è N
N ø
=
= çç ÷÷ ×
1 ö æ n -1ö
æ
èkø
1 × ç1 - ÷ ×...× ç1 ÷
N ø
è Nø è
Schreibt man nun noch p = K/N so ergibt sich:
kFaktoren
n - kFaktoren
6
4
74
8 6444
474444
8
æ n ö p × p ×...× p×(1 - p ) × (1 - p ) ×...× (1 - p ) æ n ö k
æ Kö
n -k
= çç ÷÷ ×
= çç ÷÷ × p × (1 - p ) = B(n;p) = Bç n; ÷ .
1 × 1 ×...× 1
è Nø
èkø
èkø
Streng genommen wurde hier nur gezeigt, dass sich die Wahrscheinlichkeitsfunktionen der
beiden Verteilungen aneinander nähern, aber es gilt ebenfalls, dass man die zugehörigen
Verteilungsfunktionen für große N und kleine n untereinander annähernd ersetzen kann.
Es gilt also für eine hypergeometrisch verteilte Zufallsgröß e X näherungsweise:
ænö æ K ö
K
P(X = k) » B(n; n × ; k) = çç i ÷÷ × çè N ÷ø
è ø
N
ænö
P(X £ k) » F K (k ) = å çç ÷÷ × pi × q n - i =
n; n×
i =0 è i ø
N
k
i
× æç1 - K ö÷
è Nø
æç n ö÷ æ K ö
å
ç ÷×ç ÷
i=0 è i ø è N ø
k
i
n -i
K
× æç1 - ö÷
è Nø
n -i
Allgemeine Fehlerabschätzungen sind schwierig, aber es lässt sich allgemein sagen, dass die
n
Näherung meistens dann gut anwendbar ist, wenn N ³ 2000 und
£ 0,1 gilt.
N
Auß erdem sollte die Trefferwahrscheinlichkeit p in der Nähe von 0,5 liegen. Da sich die
Erfolgswahrscheinlichkeit kaum ändert, wenn nur wenig Kugeln gezogen werden sollen, trägt
ein kleines k (gegenüber n) zu einer guten Approximation bei.
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
III.2. Näherung der Poisson-Verteilung an die Binomialverteilung
43
III. 2. Näherung der Poisson-Verteilung an die Binomialverteilung
In Kapitel II.5. wurde die Poisson-Verteilung bereits als Näherung für die oftmals sehr
aufwendig zu berechnende Binomialverteilung eingeführt.
Um ein Kriterium aufstellen zu können, wann der Approximationsfehler ausreichend klein
ist, werden die jeweiligen Verteilungen auf die folgenden Beispiele angewendet.
1) Ein typisches Experiment, auf das die Binomialverteilung zutrifft, ist der mehrfache Wurf
einer L-Münze.
Geht man vom Idealfall aus, so ist die Wahrscheinlichkeit für eine der beiden Seiten gleich
0,5. Ist nun die Wahrscheinlichkeit zu errechnen, mit der bei zehn Würfen genau k-mal
‘Kopf’ auftritt, so gilt exakt nach der Binomialverteilung für k = 2 und k = 5:
2
æ10 ö æ 1 ö æ
PB (2) = çç ÷÷ × ç ÷ × ç1 è 2 ø è2ø è
10 - 2
1ö
÷
2ø
10
æ10 ö æ 1 ö
= çç ÷÷ × ç ÷ = 4,39 %;
è 2 ø è 2ø
10
æ10ö æ 1 ö
PB (5) = çç ÷÷ × ç ÷ = 24,6 %
è 5 ø è 2ø
Die Poisson-Näherung ergibt (wobei µ = n×p = 10×½ = 5 ist):
PP (2 ) = e -5 ×
52
= 8,42 %;
2!
PP (5) = e - 5 ×
55
= 17,6 %
5!
Daraus ergibt sich ein relativer Fehler von 48 % (k = 2) beziehungsweise 29 % (k = 5).
Þ Unter diesen Bedingungen stellt die Poisson-Verteilung also eine zu grobe Näherung
dar. Da auß erdem die kleinen Werte selbst ohne Taschenrechner keine Probleme bereiten,
wird man die Poisson-Wahrscheinlichkeiten hier nicht anwenden.
2) Anders stellt sich das Problem im zweiten Beispiel dar: Ein europäischer Roulette-Tisch
hat in der Regel 37 verschiedene Zahlen (0-36), auf die gesetzt werden kann. Die
Wahrscheinlichkeit, dass eine bestimmte Nummer fällt, ist also 1/37 » 2,70 %. Lässt man die
Kugel 111-mal rollen, so erwartet man E(X) = n×p =
111
/37 = 3 -mal im Durchschnitt jede
Zahl. Wie hoch ist nun die Wahrscheinlichkeit, dass jeweils genau k-mal eine bestimmte
Zahl fällt?
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
III.2. Näherung der Poisson-Verteilung an die Binomialverteilung
44
Berechnet wird jeweils der exakte Wert der Binomialverteilung und die Werte der PoissonNäherung:
k
PB(k;111;1/37):
PP(k;3):
Fehler:
0
1
2
3
4
5
4,78 14,73 22,50 22,71 17,03 10,13
4,98 14,94 22,40 22,40 16,80 10,08
4,04 1,38 0,45 1,36 1,36 0,44
6
<7
20
4,97 96,85 1,9E-09
5,04 96,65 7,1E-09
1,42 0,21 73,16
Der relative Fehler für sinnvolle Werte von k liegt also fast immer unter 2 %. Hier ist die
Poisson-Approximation sinnvoll.
Besonders geeignet für die Anwendung der Poisson-Verteilung sind Vorgänge bei denen
Atome im Spiel sind, da ihre Anzahl extrem groß ist. Ein gutes Beispiel wären die bereits bei
der Herleitung der Poisson-Verteilung (Punkt II.5.) erwähnten Experimente von Geiger und
Rutherford, da die Anzahl
n
bei Betrachtungen mit Atomen meist sehr groß ist und
bestimmte Ereignisse nur selten eintreten. Aus Platzgründen muss aber auch hier auf
Sekundärliteratur verwiesen werden (siehe Fuß note 8 auf Seite 34).
Dem erwähnten Zerfallsexperiment und den beiden Beispielen könnte man nun entnehmen,
dass die Poisson-Approximation für größere n und kleinere p besser wird. Auß erdem sollte
sich k nicht zu weit vom Erwartungswert entfernen. Diese Vermutungen sollen jetzt durch
eine allgemeine Berechnung des Fehlers, den man bei Anwendung der Poisson-Verteilung
macht, bestätigt werden:
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
III.2. Näherung der Poisson-Verteilung an die Binomialverteilung
45
Es zeigt sich, dass es für die Vereinfachung des Terms günstig ist, nicht die Differenz,
sondern den Quotienten von B(k; n; p) und P(k; µ) zu bilden und ihn zu logarithmieren. Für
die Erfolgswahrscheinlichkeit kann man p = µ /n schreiben, so dass der Fehler d nur noch
von n und k abhängt: [Die Berechnung ist auf der linken Seite durchgeführt, rechts
befinden sich die zu jedem Schritt nötigen Erläuterungen.]
n!
= n (n - 1) ×...× (n - k + 1)
(n - k )!
n -k
k
n!
æmö æ mö
m
ç ÷ ç1 - ÷
B(k; n; )
k!(n - k )! è n ø è n ø
n
=
d = ln
= ln
k
P ( k; m)
-m m
e
k!
é n (n - 1) ×...× (n - k + 1) m k æ m ö n - k m k! ù
= ln ê
× k × ç1 - ÷ × e × k ú =
m ûú
k!
n è nø
ëê
é n æ n -1ö æ n - k + 1ö æ m ö
= ln ê ç
÷ ×...× ç
÷ × ç1 - ÷
n
ø è nø
ëê n è n ø è
n -k
k
k!
mk
1
æmö
= em k
ç ÷ = k;
k
m
n
m
ènø
e-m
k!
k!, µ k gekürzt; n(n-1)×...×(n-k+1) sind
genau k Faktoren, jeder wird durch n
geteilt Þ nk fällt weg;
ù
× em ú =
ûú
ln(a×b) = ln(a)+ln(b); ln(eµ )=µ;
éæ 1 öæ 2 ö æ k - 1 öù
æ mö
= ln êç1 - ÷ç1 - ÷ ×...× ç1 ÷ú + (n - k ) × lnç1 - ÷ + m
n -k
n øè n ø è
n øû 14424
è 4n3ø {3
è 44
1ë4
44
42444444
3
æ mö
æ mö
lnç1 - ÷ = (n - k) × lnç1 - ÷
2
1
è nø
è nø
Der Ü bersicht halber werden diese drei Summanden nun kurzfristig einzeln behandelt:
jö
æ 1ö
æ 2ö
æ k - 1 ö k -1 æ
(1) = lnç1 - ÷ + lnç1 - ÷ +...+ lnç1 ÷ = å lnç1 - ÷ . Für die weitere Vereinfachung
n ø j=1 è n ø
è nø
è nø
è
bietet sich eine Reihenentwicklung des Logarithmus an (Formelsammlung Seite 52):
ln(1 + y) = y - 12 y 2 + 13 y 3 ± ... für x £ 1 . Für das vorliegende Problem setzt man y = -x:
(
)
ln(1 - x ) = - x - 12 x 2 - 13 x 3 ± ... = - x 1 + 12 x + 13 x 2 + ... .
Eine für diese Fehlerabschätzung ausreichend gute Näherung erhält man, wenn man die Reihe
nach dem dritten Glied abbricht.
Zur Berechnung der obigen Summe nimmt man x = j/n und erhält so:
2
2
k -1 ì é
j ö k -1 ìï j é 1 j 1 æ j ö ù üï
1 j 1 æ j ö ù üï
ïj
æ
ln
1
=
1
+
+
1
=
+
+
ç
÷
ç
÷
ç
÷
ê
ú
ê
úý
ý
í
å
åí
å
2
n
3
n
è n ø j=1 ïî n êë 2 n 3 è n ø úû ïþ
è
ø
j =1
j =1 ï n ê
úû ïþ
î ë
k -1
(1) =
2
m é 1 m 1æmö ù
æ mö
+ ç ÷ ú erhält man analog.
(2) = (n - k ) × lnç1 - ÷ = -(n - k ) ê1 +
n ëê 2 n 3 è n ø ûú
è nø
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
III.2. Näherung der Poisson-Verteilung an die Binomialverteilung
46
Der Ausdruck für den Fehler lautet mittlerweile also:
2
2
k -1 ì é
m é 1 m 1æmö ù
1 j 1 æ j ö ù üï
ïj
+ ç ÷ ú +m.
d = -å í ê1 +
+ ç ÷ ú ý - (n - k ) ê1 +
n ëê 2 n 3 è n ø ûú
j =1 ï n ë
î ê 2 n 3 è n ø ûú ïþ
Definitionsgemäß ( P(k;m) = lim B(k;p;n ) ) kann man n als groß voraussetzen, wenn die
n ®¥
Näherung überhaupt einen Sinn machen soll. Deshalb kann man die Terme mit n² und n³ im
Nenner vernachlässigen. So erhält man immer noch eine ziemlich gute Näherung für d:
Zieht man in der ersten Summe j/n in die Klammer und sortiert die Terme, so ergibt sich:
æ
ö
æ
ö
j 1 k -1 j2 1 k -1 j3
m ç 1 m 1 m2 ÷
m ç 1 m 1 m2 ÷
÷ + k ç1 +
÷+m =
d = - å - å 2 - å 3 - n ç1 +
+
+
2 j=1 n
3 j=1 n
n ç 2 n 12
3 n32 ÷
n ç 2 n 12
3 n32 ÷
j =1 n
ç
÷
ç
÷
14442444
3
fällt weg ø
fällt weg ø
è
è
fällt weg
k -1
k -1
j
= s n = n2 (a1 + a n );
j =1 n
arithmetische Re ihe :å
j
m
æ 1 mö
= -å - mç1 +
÷+k +m =
n
è 2 nø
j=1 n
k -1
wobei n = k - 1; a1 = 1 n und a n = (k - 1) n ;
k - 1 æ 1 k - 1 ö k - 1 k k (k - 1)
k (k - 1)
m2
m
Þ sn =
× =
.
-m+k +m =
ç +
÷=
2 èn
n ø
2 n
2n
2n
2n
n
1
1
1
(
=
- k (k - 1) - m 2 + 2km =
- k 2 + k - m 2 + 2 km ) =
- (k 2 - 2km + m 2 ) + k =
2n
2n
2n
1
(
k - ( k - m) 2 )
=
2n
=-
[
]
[
]
Es lässt sich nun zeigen (auf diese Ausführungen wurde hier aber verzichtet), dass der
errechnete Fehler d = Ln[B(k; p; n) / P(k; µ)] bei kleinen Abweichungen sehr gut dem
relativen Fehler der beiden Werte entspricht.
Wie an der folgenden Tabelle zu erkennen ist (es wurden die Werte des zweiten Beispiels
(Roulette) übernommen), ist diese Fehlerabschätzung nur für kleine Abweichungen als
Korrekturfaktor brauchbar. Sie genügt aber, um zum Beispiel schon im Voraus bestimmen zu
können, ob im konkreten Fall die Poisson-Verteilung eine geeignete Approximation an die
Binomialverteilung darstellt:
k
0
1
2
3
4
5
6
<7
Fehler:
4,04
1,38
0,45
1,36
1,36
0,44
1,42
0,21
Ln(P/B):
4,13
1,39
0,45
1,37
1,37
0,44
1,43
0,21 131,51
(k-(k-µ )²)/2n:
4,05
1,35
0,45
1,35
1,35
0,45
1,35
121,17
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
20
73,16
III.2. Näherung der Poisson-Verteilung an die Binomialverteilung
47
Aus der erhaltenen Formel lässt sich bereits folgern, dass der Fehler in der Tat um so geringer
wird, je kleiner n im Nenner wird.
Da aber p = µ /n ist, so erkennt man sofort, dass die Poisson-Näherung gut anwendbar ist,
wenn p klein ist (Verteilung der seltenen Ereignisse!).
Setzt man d = 0, so erhält man nach kurzer Rechnung: k1 / 2 = (m + 1 2 ) ± m + 1 4 .
Dies bedeutet, dass der Fehler dann besonders gering ist, wenn k in der Nähe von (nicht
unbedingt genau auf) dem Erwartungswert liegt. Dies zeigt auch die folgende Grafik:
Sie stellt den exakten relativen (in Prozent)
2
0
(ausgerechnet durch
-2 0
100 × B(k; p; n) / P(k; µ) )
1
2
3
4
5
6
7
8
-4
und den durch die Formel angenäherten
-6
Berechneter Fehler
-8
Exakter Fehler
-10
Fehler dar (µ = 3):
[Das Maximum dieser Funktion liegt bei
1 æ
1ö
ç m + ÷ . Berechnet man nun die Werte von k,
2n è
4ø
für die der Betrag des relativen Fehlers unter diesem Wert liegt, so erhält man als Lösungen:
k1 / 2 = (m + 1 2 ) ± 2m + 1 . Das bedeutet, dass der relative Fehler kleiner als
wenn k von µ+½ um weniger als
1
2n
(m + 1 4 )
ist,
2m + 1 abweicht.]
Zusammenfassend lässt sich daher schreiben:
Für eine binomial verteilte Zufallsgröß e X gilt, da µ = n×p ist:
- np (np)
æ m ö
P(X = k) = Bç n; ; k ÷ » Pm (k ) = e ×
k!
è n ø
k
e - np × (np)
bzw. P(X £ k) » Fµ (k) = å
i!
i=0
k
i
Aus den hier dargestellten Ü berlegungen lässt sich nun folgern: Die Approximation ist um so
besser, je größ er n in Relation zu µ und |k - µ| ist. Dies impliziert ein kleines p = µ /n und
ein k, dass möglichst in der Nähe des Erwartungswerts sein soll.
Für eine angemessene Näherung sollte mindestens gelten: p £ 0,1 und n ³ 30.
Für p £ 0,01 und n ³ 100 zeigen Tabellen, dass der maximale Fehler unter 2 ‰ liegt.
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
III.3. Näherung der Poisson-Verteilung an die hypergeometrische Verteilung
48
III. 3. Näherung der Poisson-Verteilung an die hypergeometrische
Verteilung
Dass die Poisson-Approximation als Näherung der hypergeometrischen Verteilung verwendet
werden kann, kann man bereits aus der Tatsache schließ en, dass sich die hypergeometrische
an die Binomialverteilung und sich diese wiederum an die Poisson-Verteilung annähert.
Deshalb wird hier der Zusammenhang hauptsächlich auf die Brauchbarkeit der Ersetzung hin
untersucht.
Da sich die Wahrscheinlichkeiten von hypergeometrisch beziehungsweise binomial verteilten
Zufallsgröß en für groß e N nicht mehr wesentlich unterscheiden (siehe III.1.) wird man bei
der Poisson-Näherung von vornherein nur dann gute Ergebnisse erwarten, wenn N großund
die Trefferwahrscheinlichkeit p klein ist.
Zur Ü berprüfung dieser Vermutung betrachten wir folgende Beispiele:
1) Verwendet man das Experiment des Glücksautomaten aus Kapitel III.1 (10 goldene Kugeln
und 40 weitere; 10 werden gleichzeitig (d.h. nacheinander ohne Zurücklegen) gezogen), so
erhält man folgende hypergeometrische verteilten Wahrscheinlichkeiten (die jeweiligen
Poisson-Näherungen mit µ = n×M/N = 2 sind bereits mit angegeben):
0
k
Hypergeometr. V: 8,25
Poisson-V: 13,5
Rel. Fehler: 39,0
1
26,6
27,1
1,65
2
33,7
27,1
19,7
3
21,8
18,0
17,1
4
7,85
9,02
13,0
5
1,61
3,61
55,3
6
0,19
1,20
84,5
7
0,01
0,34
96,6
8
9
10
0,00 0,00 0,00
0,09 0,02 0,00
99,6 100,0 100,0
Es scheint hier die Anzahl der Kugeln zu gering zu sein, so dass die Näherung viel zu
ungenau ist, um sie hier anwenden zu dürfen.
2) Bei einer Produktion von Bauteilen sind, aus technischen Gründen, erfahrungsgemäß im
Mittel 1 % fehlerhaft. Eine Firma kauft nun 1000 Stück aus dieser Produktion und möchte
die Angaben des Verkäufers prüfen. Da die Ü berprüfung der Bauteile kostenaufwendig
ist, entnimmt der Kontrolleur der Lieferung zufällig 100 Stück (d.h. „ Ziehen ohne
Zurücklegen“ ) und will den Posten ablehnen, wenn mehr als die angegebenen 1%, also
mehr als ein Stück nicht funktioniert.
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
III.3. Näherung der Poisson-Verteilung an die hypergeometrische Verteilung
49
Wie hoch ist die Wahrscheinlichkeit, dass er die Bauteile zurückschickt, obwohl der vom
Hersteller angegebene Prozentsatz stimmt?
Exakt ist die Anzahl der defekten Stücke hypergeometrisch verteilt:
P(„ mehr als 1 defekt“ ) = 1 – P(„ keines defekt“ ) – P(„ genau 1 defekt“ ) =
= 1 – H(0; 100; 10; 1000) – H(1; 100; 10; 1000) =
æ 10ö æ 990ö
= 1- ç ÷ ×ç
÷
è 0 ø è 100ø
æ 1000ö æ 10ö æ 990ö
ç
÷ - ç ÷ ×ç
÷
è 100 ø è 1 ø è 99 ø
æ 1000ö
ç
÷ = 1 – 0,347 – 0,390 = 26,37 %
è 100 ø
Der Händler wird also im Schnitt in 26,4 % aller Fälle die Lieferungen zurücksenden,
obwohl sie eigentlich noch den Bedingungen entsprechen.
Da der Rechenaufwand hier sehr hoch ist, ist es zweckmäß ig, eine einfacher zu
berechnende Näherung wie die Poisson-Verteilung heranzuziehen:
Der Parameter µ der Verteilung ist ja der Erwartungswert. Er lässt sich leicht berechnen,
da gilt: µ = n × p = 100 × 0,01 = 1. Man erwartet also durchschnittlich ein defektes Teil in
der Auswahl.
Nun wird analog zu oben die Wahrscheinlichkeit P(„ mehr als 1 Teil ist defekt“ ) berechnet:
P(„ 2 oder mehr Teile sind defekt“ ) = 1 – P(„ keines defekt“ ) – P(„ genau eines defekt) =
= 1 - e -1 ×
10
11
1 1
2
- e -1 × = 1 - - = 1 - = 26,42 %.
0!
1!
e e
e
Nach dieser wesentlich einfacheren Rechnung wird er ebenfalls etwa 26,4 % der korrekten
Lieferungen fälschlich abweisen.
Der relative Fehler beträgt lediglich 2,0 ‰ .
Bei dieser Parameterkonstellation (groß es N, kleines p = K/N) stellt die Poisson-Verteilung
also eine gute Näherung der hypergeometrischen Verteilung dar.
Für eine allgemeine Abschätzung des relativen Fehlers ist natürlich die Formel, die bei der
Approximation Poisson- ® Binomialverteilung hergeleitet wurde, verwendbar. PB und PH
kommen ja einander für größ ere Werte von N beliebig nahe.
1
2
Der Wert des relativen Fehlers liegt also ungefähr bei 2n k - (k - m)
(
)
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
III.3. Näherung der Poisson-Verteilung an die hypergeometrische Verteilung
50
Es lässt sich somit für groß e N und kleine p nähern:
Für eine hypergeometrisch verteilte Zufallsgrösse X gilt näherungsweise , da m = n ×
K (k ) =
n×
P(X = k) » Pµ (k) = P
e
-n×
K
N
-n×
K
N
N
n×K
× ( N)
k!
k
n× K
× ( N)
i!
i
K
ist:
N
beziehungsweise
k
e
M (k ) = å
i=0
n×
P(X £ k) » Fµ (k) = F
N
Die Poisson-Verteilung ist ursprünglich als Näherung der Binomialverteilung für groß e n
eingeführt worden. Daraus lässt sich folgern, dass eine gute Approximation grundsätzlich erst
für höhere Werte von n zu erwarten ist.
Die beiden Verteilungen sind sich aber auch erst dann besonders ähnlich, wenn die
Trefferwahrscheinlichkeit p relativ klein ist (die Poisson-Näherung ist ja die Verteilung der
seltenen Ereignisse).
Deshalb sollte auch der Wert von k in einem Bereich liegen, der wesentlich kleiner als n
ist. Da n groß und p klein sein muss, sollte man einen mittelgroßen Erwartungswert
voraussetzen, will man eine brauchbare Näherung erhalten.
Die Tatsache, dass sich die hypergeometrische Verteilung und die Binomialverteilung erst für
groß e N nicht mehr wesentlich unterscheiden, legt nahe, dass dieses N eine große Zahl
sein sollte. Auß erdem darf man nicht zu viele Versuche durchführen, da sich sonst die
Trefferwahrscheinlichkeit zu stark ändert. Das bedeutet, dass n wesentlich kleiner als N
sein muss.
Die hypergeometrische Verteilung lässt sich im Allgemeinen genau genug von der PoissonVerteilung annähern, wenn in etwa gilt:
p = K/N £ 0,1 und n £ 0,1×N
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
III.4. Näherung der Normalverteilung an die Binomialverteilung
51
III. 4. Näherung der Normalverteilung an die Binomialverteilung
Die Bedeutung der bisher rein theoretisch definierten Normalverteilung ergibt sich aus ihrer
Eigenschaft, dass sich (unter bestimmten, sehr wenig einschränkenden Bedingungen) alle
möglichen Verteilungen an sie annähern. Dies ist im sogenannten Zentralen Grenzwertsatz
enthalten.
Die Annäherung speziell von Binomialverteilungen an die Normalverteilung soll im
Folgenden näher untersucht werden:
Zeichnet
man
den
Graphen
der
16%
Binomialverteilung für p = q = ½ und n =
12%
32, so erkennt man an dem entstehenden
Häufigkeitspolygon
eine
B(32; 1/2)
NV(16; 2,83)
8%
groß e
Ä hnlichkeit der ebenfalls eingetragenen
Dichtefunktion der Normalverteilung:
4%
0%
0
4
8
12
µ = 16
20
24
28
32
Für die vorliegenden Werte lassen sich in der Zeichnung bereits keine Abweichungen mehr
zwischen den Säulen (das heiß t der Binomialverteilung mit n = 32 und p = ½ ) und der
durchgezogenen Linie (Werte der Normalverteilung mit µ = 32×½ = 16 und s = 32 × 1 2 × 1 2 )
= 2 2 erkennen.
Nun gilt es also allgemein zu untersuchen, ob jede beliebige Binomialverteilung mit
wachsender Stichproben- / Versuchsanzahl n gegen eine Normalverteilung strebt.
Da bei größ er werdendem n auch µ und s gegen ¥ streben (das heiß t, der Verlauf wird
immer flacher und der Graph verschiebt sich im Koordinatensystem immer weiter nach
rechts), während die Standardnormalverteilung stets symmetrisch zur Ordinatenachse
bleibt, ist ein Grenzübergang für n ® ¥ sicher nicht direkt möglich. Damit man nicht mit der
allgemeinen
Normalverteilung
arbeiten
muss,
sollte
die
Binomialverteilung
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
also
III.4. Näherung der Normalverteilung an die Binomialverteilung
52
standardisiert vorliegen. Um den Erwartungswert 0 und die Standardabweichung 1 zu
erhalten, substituiert man und führt die neue standardisierte Zufallsgröße Z =
Es soll also jetzt diese Behauptung bewiesen werden: lim jn(z) =
n ®¥
n
X-m
ein.
s
1
- 1 z2
×e 2
2p
Dies bezeichnet man als den Lokalen Grenzwertsatz von De Moivre und LaPlace.
Da sich der Beweis über mehrere Schritte hinzieht, sind im gelb hinterlegten Bereich immer die Ergebnisse der
links durchgeführten Berechnungen festgehalten. Somit kann man sich schnell einen Ü berblick über die
Beweisführung verschaffen, ohne die einzelnen Rechnungen im Detail nachvollziehen zu müssen.
Hier und auf den nächsten Seiten steht eigentlich der
Beweis, der in der Datei „ III4BEW.DOC“ enthalten
ist!
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
III.4. Näherung der Normalverteilung an die Binomialverteilung
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
53
III.4. Näherung der Normalverteilung an die Binomialverteilung
54
Da sich die Wahrscheinlichkeitsfunktion der Binomialverteilung und die Dichtefunktion der
allgemeinen Normalverteilung aneinander annähern, besteht dieser Zusammenhang auch für
die jeweiligen kumulativen Verteilungsfunktionen (der Wertebereich liegt ja bei beiden
zwischen 0 und 1). Wie schon in Kapitel II.6. gezeigt kann man also binomialverteilte
Wahr-scheinlichkeiten folgendermaß en approximieren:
Ist X eine binomial verteilte Zufallsgröß e, so gilt näherungsweise:
æ k - np + 12 ö
÷
npq ÷ø
è
P(X £ k) » F çç
1 æk -mö
B(n; p; k) » × jç
÷=
s è s ø
1
×e
2 p × npq
(k - np )2
2×npq
æ k - np + 0,5 ö
æ
ö
÷ - Fç k - np - 0,5 ÷
oder: B(n; p; k) » Fç
ç
÷
ç
npq ø
npq ÷ø
è
è
Auf die Bedeutung der Summanden ± ½ wird im Folgenden noch genauer eingegangen:
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
III.4. Näherung der Normalverteilung an die Binomialverteilung
æ
ö
æ
55
ö
Die Näherung P(a £ X £ b) » Fç b - np ÷ - Fç a - np ÷ lässt sich besonders für kleine Werte
ç npq ÷
ç npq ÷
è
ø
è
ø
von x beziehungsweise x-µ oft erheblich verbessern (vor allem, wenn a = b ist), wenn man
æ b + 0,5 - np ö
æ a - 0,5 - np ö
÷ - Fç
÷
npq ø
npq ø . Diese sogenannte
è
statt dessen berechnet: P(a £ X £ b) » Fçè
Kontinuitäts- oder Stetigkeitskorrektur lässt sich folgendermaß en rechtfertigen:
Die
Wahrscheinlichkeit
P(a
£
X
£
b)
entspricht
der
Fläche
unter
der
Wahrscheinlichkeitsfunktion der Binomialverteilung, beziehungsweise annähernd der
unter der Dichtefunktion der Normalverteilung.
Die erste Näherung verwendet die Fläche
NV
unter der Dichtefunktion (schwarze Linie)
zwischen den Werten a und b als Maß
für die Wahrscheinlichkeit. Sie ist hier mit
B
waagrechten Strichen schraffiert:
Exakt wäre aber der gesamte (gelb
hinterlegte) Flä cheninhalt der vier Recht-
a-0,5
a
a+1
a+2
b
b+0,5
ecke. Die Näherung mit der Korrektur
nimmt noch zusätzlich die (senkrecht schraffierte) Fläche unter der Dichtefunktion bis zu den
Grenzen a - 0,5 und b + 0,5 hinzu und verbessert so im Allgemeinen die Approximation.
Definitionsgemäß kann man nur für große n gute Näherungen erwarten. Auß erdem ist die
Binomialverteilung nur dann ausreichend genau normal verteilt, wenn sie in etwa symmetrisch ist (Þ p » ½ ). Dies schlägt sich auch in der Faustregel nieder: s =
n × p × q > 9.
Zur Verdeutlichung der Güte der Approximation sollen folgende zwei Beispiele dienen:
1) Ein neuer Schachcomputer fordert den Weltmeister heraus. Experten schätzen, dass die
Chance zu gewinnen, bei der Maschine bei 60 % liegt. Es wird nun ein Turnier über zehn
Spiele angesetzt. Wie hoch ist die Wahrscheinlichkeit, dass der Mensch unterliegt, also der
Computer bei mindestens sechs Spielen als Sieger hervorgeht (Remis werden wiederholt)?
· Die binomial verteilte Wahrscheinlichkeit lässt sich folgendermaß en korrekt berechnen:
P(X ³ 6) = 1 – P(X £ 5) = 1 – F10;0,6(5) = 0,63310 = 63,3 %
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
III.4. Näherung der Normalverteilung an die Binomialverteilung
56
· Zur Berechnung durch die Normalverteilung benötigt man Erwartungswert und
Standardabweichung:
µ = 10×0,6 = 6; s = 10 × 0,6 × 0,4 =
2
5
15 .
Somit erhält man:
æ 5-6 ö
æ
ö
÷ = 1 - Fç - 15 ÷ = 1 - F(0,6455) = 0,74070 = 74,1%
P(X ³ 6) = 1 – P(X £ 5) = 1 - Fç 2
ç 6 ÷
ç 15 ÷
è
ø
ø
è5
Der Fehler, den man begeht, beläuft sich auf 17 %. Laut der Faustregel hätte man hier die
Näherung durch die Normalverteilung auch gar nicht anwenden dürfen: npq = 2,4 < 9.
Hier zeigt sich aber die Bedeutung der Stetigkeitskorrektur. Das Ergebnis weicht jetzt nur
noch um 1 % vom Idealwert ab:
æ 5 - 6 + 0,5 ö
ö
æ
÷ = 1 - Fç - 15 ÷ = 1 - F(0,3228) = 0,62656 = 62,7 %
P(X £ 6) = 1 – P(X £ 5) = 1 - Fç 2
ç 12 ÷
÷
ç
ø
è
è 5 15 ø
2) Gesucht ist die Wahrscheinlichkeit dafür, dass bei 30 Würfen mit einem L-Würfel die
(absolute) Häufigkeit der auftretenden Sechsen um höchstens eins vom erwarteten
Mittelwert abweicht. Man fragt also nach P(4 £ X £ 6), da µ = np = 30/6 = 5 ist:
· Exakte Berechnung mit Hilfe der Binomialverteilung:
P(4 £ X £ 6) = P(3 < X £ 6) = F30;1/6(6) - F30;1/6(3) = 0,7765 – 0,2396 = 0,53692 = 53,7 %
· Näherung durch die Normalverteilung:
E(X) und Standardabweichung ergeben sich zu:
m = 30 × 16 = 5 ; s = 10 × 16 × 56 =
5
6
6
æ 6 -5ö
æ
ö
æ
ö
æ
ö
÷ - Fç 3 - 5 ÷ = Fç 6 ÷ - 1 + Fç 2 6 ÷ = 52,4 %
P(4 £ X £ 6) = P(3 < X £ 6) = Fç 5
5
ç
÷
ç
÷
ç 6÷
ç 6÷
è 5 ø
è 5 ø
è6
ø
è6
ø
Obwohl die Faustregel von npq > 9 nicht erfüllt ist (npq » 4,67), ergibt sich ein relativer
Fehler von nur 2,3 %. Die Stetigkeitskorrektur verbessert das Ergebnis noch:
P(3 £ X £ 6) = 0,53757 = 53,8 %
Der Fehler beträgt nur noch 0,1 %. Je höher n ist, desto bessere Ergebnisse erwartet man.
In der Tat differieren die Werte von P(9 £ X £ 11) bei n = 60 (also npq » 8,33) nur noch
um 1,2 % (ohne Kontinuitätskorrektur).
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
III.5. Näherung der Normalverteilung an die hypergeometrische Verteilung
57
III. 5. Näherung der Normalverteilung an die hypergeometrische
Verteilung
Es wurde bereits gezeigt, dass die hypergeometrische eng mit der Binomialverteilung zusammenhängt (siehe Punkt III.1.). Da letztere mit Hilfe der Gauß schen Glockenkurve angenähert
werden kann, ist es augenscheinlich, dass auch Zufallsexperimente, die auf dem Modell
„ Ziehen mit Zurücklegen“ basieren, durch die Normalverteilung approximiert werden können.
Diese Tatsache lässt sich unter anderem durch den Zentralen Grenzwertsatz belegen.
Der exakte Beweis ist aber kompliziert und umfangreich, deshalb soll an dieser Stelle auf die
Näherung nur durch die Berechnung von Beispielen eingegangen werden:
1) Die Wahrscheinlichkeitsrechnung hat zu Beginn vor allem im Bereich von Glü cksspielen
eine groß e Rolle gespielt. So ein klassisches Beispiel soll jetzt durchgerechnet werden.
Eines der berühmtesten Kartenspiele ist das Pokern. Um nicht auf Details der
verschiedenen Varianten eingehen zu müssen, sollen hier nur Wahrscheinlichkeiten
untersucht werden, mit denen man eine bestimmte Kombination von Karten beim (ersten)
Austeilen in die Hand bekommt.
Wie hoch ist nun die Wahrscheinlichkeit, dass man genau drei der vier im Spiel enthaltenen
Asse erhält (jeder Spieler bekommt fünf Karten)?
· Es wird natürlich nicht zurückgelegt und die Zufallsgröß e X = Anzahl der Asse auf der
Hand ist hypergeometrisch verteilt. Die Wahrscheinlichkeit ist deshalb gegeben durch
die Parameter: N = 52; K = 4; n = 5; k = 3:
æ 4 ö æ 52 - 4 ö
æ 48 ö
çç ÷÷ × çç
÷÷ 4 × çç ÷÷
3
5-5 ø
2
P(X = 3) = è ø è
= è ø = 0,17 %;
æ 52 ö
æ 52 ö
çç ÷÷
çç ÷÷
è5ø
è5ø
Þ 1 : 576
· Wendet man die Normalverteilung auf dieses Problem an, so errechnet man zuerst:
µ = n×p = 5 × 524 =
5
13
48 52 - 5
× 52 -1 =
; s = n × KN × (1 - KN ) × NN--n1 = 5 × 524 × 52
5× 4××47
13×13×51
=
940
2873
» 0,572
Jetzt gilt (erfordert Kontinuitätskorrektur, da sich sonst die Wahrscheinlichkeit 0 ergibt):
æ 3 + 12 - 135 ö
æ 3 - 12 - 135 ö
÷÷ - Fçç
÷÷ = 0,0109 % = 0,01 %;
P(X = 3) = Fçç
è 0,572 ø
è 0,572 ø
Þ 1 : 9200
Diese Abschätzung ist mit einem Fehler von über 93 % behaftet und deshalb nutzlos.
Besser gelingt die Näherung im nächsten Beispiel:
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
III.5. Näherung der Normalverteilung an die hypergeometrische Verteilung
58
2) Jedes der 5000 Mitglieder einer Bücherei hat seine eigene Karteikarte. 40 Prozent der Leser
sind Frauen. Man zieht nun (ohne Zurücklegen) acht dieser Karten. Wie hoch ist die
Wahrscheinlichkeit, dass höchstens sieben Frauen darunter sind (oder, gleichbedeutend
damit, dass mindestens ein männliches Mitglied gezogen wird)?
· Diese Zufallsgröß e X = Anzahl der gezogenen Frauen ist hypergeometrisch verteilt. Die
Parameter sind: N = 5000; K = 2000; n = 8; k £ 7
Daraus ergibt sich eine exakte Wahrscheinlichkeit von: P(k £ 7) =
æ 2000 ö æ 3000 ö
ç
÷×ç
÷
7
7 ç
k ÷ø çè 8 - k ÷ø
æ 2000 ö æ 3000 ö
1
è
÷×ç
÷=
× å çç
= P(k = 0) + P(k = 1)+...+P(k = 7) = å
=
æ 5000 ö k = 0 è k ÷ø çè 8 - k ÷ø
æ 5000 ö
k =0
çç
÷÷
çç
÷÷
è 8 ø
è 8 ø
= 1,67% + 8,95% + 20,9% + 27,89% + 23,24% + 12,38% + 4,12% + 0,78% = 99,94 %
· Um die Normalverteilung als Näherung anwenden zu können, muss man zuerst die
» 1,385
Größ en µ und s bestimmen: µ = n×p = 8×0,4 = 3,2; s = 8 × 0,4 × 0,6 × 4992
4999
æ 7 - 3,2 ö
P(k £ 7) = Fç
÷ = F (2,744 ) = 0,99697 = 99,70 %
è 1,385 ø
Bei Anwendung dieser Näherung liegt der Fehler demnach unter 0,24 %.
Mit Stetigkeitskorrektur ergibt sich für P(k £ 7) = F(3,105) = 99,90 % , wobei der
Fehler jetzt sogar unter 0,03 % liegt.
Für eine hypergeometrisch verteilte Zufallsgröß e X gilt näherungsweise:
æ k - m + 0,5 ö÷ - F æç k - m - 0 5 ö÷
P(X = k) » F ç
s , ø
s
è
ø
è
æ
M 1
ç
k-n×
+
N 2
P(X £ k) » F M M M N - n (k ) = F çç
n × ; n × ×(1- ) ×
M
M N-n
N
N
N N -1
ç n × × (1 - ) ×
N
N N -1
è
ö
÷
÷
÷
÷
ø
Wobei + ½ die Stetigkeitskorrektur ist.
Faustregel: s = n×p×(1 – p) > 9;
Bemerkung zu der Formel:
Bei der hypergeometrischen Verteilung gilt ja: µ = n×p = n ×
M
N
und
s2 = npq
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
n
£ 0,1
N
N-n
.
N -1
III.6. Näherung der Normalverteilung an die Poisson-Verteilung
59
III. 6. Näherung der Normalverteilung an die Poisson-Verteilung
Möchte man die Annäherung der Poisson- an die Normalverteilung untersuchen, so muss man
berücksichtigen, dass beide reine mathematisch-theoretisch definierte Näherungsverteilungen
darstellen. Es gibt weder in der Theorie noch in der Praxis Größ en, die genau normal
beziehungsweise 100%-ig Poisson-verteilt sind.
Deshalb wird in diesem Abschnitt hauptsächlich darauf eingegangen, wie geeignet diese
beiden Verteilungen sind, um die exakten Wahrscheinlichkeiten der Binomial- oder der
hypergeometrischen Verteilung anzunähern.
Analog zum bisherigen Verfahren werden die Beziehungen mit Hilfe zweier Beispiele
verdeutlicht:
1) Am Karlsgymnasium Bad Reichenhall befinden sich insgesamt 878 Schü ler12. Bei einer
leicht idealisierten Annahme einer Wahrscheinlichkeit von 1/365, dass jemand an einem
bestimmten Tag im Jahr Geburtstag hat, wird nach der Wahrscheinlichkeit gefragt, dass
genau sechs Schüler (zum Beispiel) an Weihnachten geboren sind.
Die Werte der Binomial- (= 2,4 %) und der Poisson-Verteilung (= 2,4 %) sowie die
relative Häufigkeit der Tage, an denen sechs Schüler gleichzeitig Geburtstag haben (= 1,4
%) lassen sich aus der Tabelle auf Seite 35 entnehmen. Die Berechnungen sind hier aber
trotzdem aufgeführt und die Ergebnisse erneut fesgehalten:
· Die exakte Berechnung erfordert die Binomialverteilung mit den Parametern n = 878;
6
1
p = /365 und k = 6:
æ 878 ö æ 1 ö æ 364 ö
÷÷ × ç
PB = çç
÷
÷ ×ç
è 6 ø è 365 ø è 365 ø
872
= 0,02418 = 2,42 %
· Die Poisson-Näherung benötigt den Erwartungswert (auszurechnen wie bei binomial verteilten Zufallsgröß en): µ = n×p = 2,41;
PP = e -m ×
mk
2,416
= e - 2, 41 ×
= 0,0243 = 2,43 %
k!
6!
· Die Normalverteilung hat folgende Momente: µ = n×p = 2,41; s =
12
n × p × q = 1,55;
Stand 13. Januar 1998; siehe auch Tabelle im Anhang;
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
III.6. Näherung der Normalverteilung an die Poisson-Verteilung
60
æ 6,5 - 2,41 ö
æ 5,5 - 2,41 ö
PN = Fç
÷ - Fç
÷ = F(2,64 ) - F (2,00 ) = 1,88 %
è 1,55 ø
è 1,55 ø
Die Normalverteilung (Fehler: ü ber 22 %) stellt hier eine schlechtere Nä herung als die
Poisson-Approximation (Fehler: 0,40 %) für die Binomialverteilung dar.
2) Ein Zöllner weiß , dass sich unter den nächsten 40 Passanten zwei Schmuggler befinden. Da
er nicht alle vierzig Personen kontrollieren kann, aber mindestens einen von ihnen überführen möchte, wählt er n der vierzig Menschen aus. Wie viele muss er untersuchen, um
mit einer Wahrscheinlichkeit von mindestens 90 % einen oder beide Täter zu ertappen?
· Es liegt eine hypergeometrische Verteilung vor, mit N = 40; K = 2; k ³ 1;
æ 2 ö æ 40 - 2 ö
÷÷
0,9 = PH(X ³ 1) = 1 – P(X = 0) = 1 – H(40; 2; n; 0) = 1 - çç ÷÷ × çç
è 0ø è n - 0 ø
Þ
(40 - n ) × (39 - n ) = 0,1
40 × 39
æ 40 ö
çç ÷÷
ènø
Die Auswertung dieser quadratischen Gleichung ergibt als
den sinnvollen Wert: n = 27
(n2 = 52)
ænö
· Die Binomialverteilung (mit p = 2/40 = 0,05) ergibt: 0,9 = PB = 1 - çç ÷÷ × 0,05 n × 0,95 n -0 ;
è0ø
Daraus folgt: n = ln(0,1) ln(0,95) = 44,89 » 45. Es müssten also alle durchsucht werden.
· Der zur Poisson-Verteilung gehörende Erwartungswert ist µ = n×p = n×2/40 = 0,05×n
Der Ansatz lautet demnach: 0,9 = PP = 1 –
Logarithmieren erhält man für
e -0, 05×n ×
(0,05 × n )0
0!
= e -0, 05×n . Durch
n > 46,05, das heiß t, n = 47. Dies entspricht einer
Totalkontrolle.
· Die Normalverteilung (µ = 0,05×n
und
s=
n × KN × (1 -
K
N
) × NN--n1
=
n × 402 × 38
× 4039- n =
40
0,0012 × n × (40 - n ) ) nähert die Anzahl folgendermaß en:
æ 0 - 0,05 × n + 0,5 ö
÷ . Daraus folgt:
0,9 = PN = 1 - Fç
ç 0,0012 × n × (40 - n ) ÷
ø
è
0 - 0,05 × n + 0,5
0,0012 × n × (40 - n )
= -1,281 .
Löst man diese Gleichung, so erhält man n = 26,7. Es müssen damit nur n = 27 Leute
kontrolliert werden. Vergleicht man nun die verschiedenen Näherungen, die im zweiten
Beispiel auftreten, so kommt man zu folgendem Ergebnis:
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
III.6. Näherung der Normalverteilung an die Poisson-Verteilung
61
Das schlechteste Resultat erhält man mit der Poisson-Verteilung (Fehler: ü ber 42 %).
Auch die Binomialverteilung bringt keine befriedigende Approximation mit sich (Fehler:
etwa 40 %). Allein durch Anwendung der Normalverteilung erhält man einen brauchbaren
Wert (in diesem Fall sogar das exakte Ergebnis).
Wie man sehen konnte, sind die Voraussetzungen, die erfüllt sein müssen, damit man die
Poisson-Verteilung als annähernd normal verteilt ansehen kann, nicht einfach zu fassen.
Trotzdem ist in den meisten Fällen folgende Bedingung für eine gute Näherung ausreichend:
s=µ >9
Bei groß em Parameter µ gilt für eine Poisson-verteilte Zufallsgröß e X näherungsweise:
æ k - m + 0,5 ö÷
æk
0,5 ö÷
- Fçç - m ÷
÷ø
m
m
è
è
ø
P(X = k) = F çç
æ k -m+0 5ö
, ÷÷
m
è
ø
P(X £ k) = F çç
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
62
Hier befinden sich eigentlich die großen Ü bersichten
ü ber die besprochenen Verteilungen.
Dieses Blatt konnte aber nur mit Hilfe eines
Kopierers hergestellt werden.
Die verwendeten Daten und Teile befinden sich in
den Dateien ‚IVA3.DOC‘ und ‚IV.DOC‘.
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
63
ANHANG
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
Statistik des Karlsgymnasiums Bad Reichenhall; Stand 13. Januar 1998
An dem jeweiligen Tag haben genau k Schüler Geburtstag.
Tage, an denen kein Gymnasiast Geburtstag hat, sind weggelassen.
64
Tag
k
Tag
k
Tag
k
Tag
k
Tag
k
Tag
k
01. Jan
02. Jan
03. Jan
04. Jan
05. Jan
06. Jan
07. Jan
08. Jan
09. Jan
10. Jan
13. Jan
14. Jan
15. Jan
16. Jan
17. Jan
18. Jan
19. Jan
20. Jan
21. Jan
22. Jan
23. Jan
24. Jan
25. Jan
26. Jan
27. Jan
28. Jan
30. Jan
31. Jan
01. Feb
02. Feb
03. Feb
05. Feb
07. Feb
08. Feb
09. Feb
10. Feb
12. Feb
13. Feb
14. Feb
15. Feb
16. Feb
17. Feb
18. Feb
19. Feb
20. Feb
21. Feb
22. Feb
23. Feb
24. Feb
25. Feb
26. Feb
27. Feb
28. Feb
01. Mär
02. Mä r
03. Mä r
04. Mä r
1
3
7
7
2
4
2
7
3
5
2
3
3
6
3
2
1
1
2
2
1
1
4
2
1
1
7
5
2
2
3
2
3
4
4
3
2
3
2
3
1
2
3
1
2
1
2
1
2
4
2
2
2
2
5
5
4
05. Mä r
06. Mä r
07. Mä r
08. Mä r
09. Mä r
10. Mä r
11. Mä r
12. Mä r
13. Mä r
15. Mä r
16. Mä r
17. Mä r
18. Mä r
19. Mä r
21. Mä r
22. Mä r
24. Mä r
25. Mä r
27. Mä r
28. Mä r
29. Mä r
30. Mä r
31. Mä r
01. Apr
02. Apr
03. Apr
04. Apr
08. Apr
09. Apr
10. Apr
11. Apr
12. Apr
13. Apr
15. Apr
16. Apr
17. Apr
18. Apr
19. Apr
21. Apr
22. Apr
23. Apr
25. Apr
26. Apr
27. Apr
28. Apr
01. Mai
02. Mai
03. Mai
05. Mai
06. Mai
07. Mai
08. Mai
10. Mai
12. Mai
13. Mai
14. Mai
16. Mai
1
4
1
2
3
2
3
1
1
4
5
3
3
1
2
4
3
1
3
2
2
3
5
2
2
2
3
1
7
3
5
1
1
2
3
3
5
1
5
1
3
4
2
2
4
2
1
7
1
2
5
1
2
7
3
4
5
17. Mai
18. Mai
19. Mai
20. Mai
21. Mai
22. Mai
23. Mai
25. Mai
26. Mai
27. Mai
29. Mai
31. Mai
01. Jun
02. Jun
03. Jun
05. Jun
07. Jun
08. Jun
09. Jun
10. Jun
11. Jun
12. Jun
13. Jun
14. Jun
15. Jun
16. Jun
17. Jun
18. Jun
19. Jun
21. Jun
22. Jun
23. Jun
24. Jun
25. Jun
26. Jun
27. Jun
28. Jun
29. Jun
02. Jul
03. Jul
04. Jul
05. Jul
07. Jul
08. Jul
09. Jul
10. Jul
11. Jul
12. Jul
13. Jul
14. Jul
15. Jul
16. Jul
17. Jul
19. Jul
20. Jul
21. Jul
22. Jul
3
4
3
2
4
4
1
1
1
2
2
1
1
1
4
6
2
2
2
1
4
4
5
3
2
1
2
2
1
1
1
4
1
3
2
2
1
4
1
3
2
2
6
5
4
5
2
3
1
2
4
1
2
2
2
5
2
23. Jul
24. Jul
25. Jul
26. Jul
27. Jul
28. Jul
29. Jul
30. Jul
31. Jul
01. Aug
02. Aug
03. Aug
04. Aug
05. Aug
07. Aug
08. Aug
09. Aug
10. Aug
11. Aug
12. Aug
13. Aug
14. Aug
15. Aug
16. Aug
17. Aug
18. Aug
19. Aug
20. Aug
21. Aug
22. Aug
23. Aug
24. Aug
26. Aug
28. Aug
30. Aug
31. Aug
01. Sep
02. Sep
03. Sep
04. Sep
05. Sep
06. Sep
07. Sep
09. Sep
10. Sep
11. Sep
12. Sep
13. Sep
14. Sep
15. Sep
16. Sep
17. Sep
18. Sep
19. Sep
20. Sep
21. Sep
22. Sep
4
5
3
1
9
5
3
6
3
1
1
2
2
1
2
3
3
1
2
4
1
2
4
1
1
2
3
1
4
3
3
3
2
5
1
1
1
3
4
2
3
5
3
3
4
2
4
5
8
4
1
2
3
1
1
1
8
23. Sep
25. Sep
26. Sep
27. Sep
28. Sep
30. Sep
03. Okt
04. Okt
06. Okt
08. Okt
09. Okt
10. Okt
11. Okt
12. Okt
13. Okt
14. Okt
15. Okt
16. Okt
17. Okt
18. Okt
19. Okt
20. Okt
21. Okt
22. Okt
23. Okt
24. Okt
25. Okt
26. Okt
27. Okt
28. Okt
29. Okt
30. Okt
31. Okt
01. Nov
02. Nov
03. Nov
04. Nov
06. Nov
07. Nov
08. Nov
09. Nov
10. Nov
11. Nov
12. Nov
13. Nov
14. Nov
15. Nov
16. Nov
17. Nov
18. Nov
19. Nov
20. Nov
21. Nov
24. Nov
25. Nov
26. Nov
28. Nov
2
2
1
3
1
4
2
2
1
1
1
3
4
2
7
1
2
2
1
3
3
3
3
1
4
2
1
3
2
1
5
2
1
2
5
1
4
4
1
2
5
4
1
3
5
2
2
1
3
4
2
1
2
4
2
3
1
29. Nov
30. Nov
01. Dez
02. Dez
03. Dez
04. Dez
05. Dez
06. Dez
07. Dez
08. Dez
09. Dez
10. Dez
11. Dez
12. Dez
13. Dez
14. Dez
15. Dez
16. Dez
17. Dez
18. Dez
19. Dez
20. Dez
21. Dez
22. Dez
23. Dez
24. Dez
25. Dez
26. Dez
27. Dez
28. Dez
29. Dez
30. Dez
31. Dez
5
5
3
2
1
3
1
2
1
3
8
2
2
2
4
5
4
2
2
7
2
5
5
4
2
3
3
1
1
2
4
3
6
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
65
Verzeichnis der zur Anfertigung dieser Arbeit herangezogenen Bü cher:
·
„ Schülerduden Die Mathematik II“ ; Dudenverlag; 3. Auflage, Mannheim 1991
·
J. Pfanzagl „ Allgemeine Methodenlehre der Statistik II“ ;
Walter de Gruyter, 2. Auflage, Berlin 1966
·
F. Reinhardt / H. Soeder „ dtv-Atlas zur Mathematik“ , Band 2;
Deutscher Taschenbuchverlag, 9. Auflage, München 1994
·
H. Meschkowski „ Wahrscheinlichkeitsrechnung“ ; Bibliographisches Institut AG, Mannheim 1968
·
Stöckner „ Taschenbuch mathematischer Formeln und moderner Verfahren“ , Seiten 656 - 663
·
J. Laub „ Lehrbuch der Mathematik für die Oberstufe der allgemeinbildenden höheren Schulen“ ,
4. Band; Hölder-Pichler-Tempsky, Wien 1981
·
L. Schmetterer „ Einführung in die mathematische Statistik“ ; Springer-Verlag, Wien 1956
·
Barth × Bergold × Haller „ Stochastik 1“; Franz Ehrenwirth Verlag, München 1976
·
Barth × Bergold × Haller „ Stochastik 2“; Franz Ehrenwirth Verlag, München 1974
·
Heller × Lindenberg × Nuske × Schriever „ Wahrscheinlichkeitsrechnung“ , Teil 1;
Birkhäuser Verlag, Basel 1979
·
Heller × Lindenberg × Nuske × Schriever „ Wahrscheinlichkeitsrechnung“ , Teil 2;
Birkhäuser Verlag, Basel 1979
·
H. Malle „ Mathematik für Techniker“ , Band 2, Seiten 114 - 149
·
William Feller „ An Introduction to Probability Theory and Its Applications“ , Volume 1;
Wiley & Sons, New York, Seiten 172 - 192
·
Heigl / Feurpfeil „ Stochastik, Leistungskurs Mathematik“ ;
Bayerischer Schulbuch-Verlag, 2. Auflage, München 1976
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com
66
Ich erklä re hiermit, dass ich die Facharbeit ohne
fremde Hilfe angefertigt und nur die im
Literaturverzeichnis angeführten Quellen und
Hilfsmittel benützt habe.
Bad Reichenhall
2.2.98
Ort
Datum
................................................. , den ...................
............................................
Unterschrift des Schülers
PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com